Impactos do PL 2338/23 na Regulação de IA no Brasil

FAQ: PL 2338/23 e suas Implicações para o Desenvolvimento de IA no Brasil

Introdução

O Projeto de Lei 2338/23, que visa regular a Inteligência Artificial no Brasil, tem gerado debates intensos entre especialistas, empresas e instituições do setor tecnológico. Este FAQ foi elaborado para esclarecer as principais questões relacionadas ao PL e suas potenciais implicações para o desenvolvimento da IA no país, com base nas análises da Associação Brasileira das Empresas de Software (ABES). O objetivo é fornecer informações claras e objetivas sobre os pontos críticos do projeto, seus possíveis impactos e as recomendações para uma regulação mais equilibrada.

Perguntas Frequentes

1. Qual é o papel da ABES no cenário tecnológico brasileiro e por que sua posição sobre o PL 2338/23 é relevante?

A Associação Brasileira das Empresas de Software (ABES) desempenha um papel fundamental no desenvolvimento do setor tecnológico brasileiro, atuando como uma ponte entre inovação, sustentabilidade econômica e competitividade global. Representando mais de 2.000 empresas de software, a ABES dá voz a um setor que movimenta aproximadamente R$ 107 bilhões anualmente e gera mais de 260 mil empregos diretos no país.

A relevância da ABES no debate sobre o PL 2338/23 está diretamente relacionada à sua capacidade de compreender os impactos práticos da regulação proposta sobre o ecossistema de inovação brasileiro. A associação trabalha ativamente na construção de um ambiente favorável ao desenvolvimento tecnológico, conectando empresas, polos tecnológicos e incentivando a competitividade das empresas brasileiras no mercado global.

No contexto específico da Inteligência Artificial, a ABES tem contribuído para discussões técnicas e políticas que visam equilibrar a necessidade de regulação com a preservação da capacidade inovadora do país. Sua análise do PL 2338/23 reflete as preocupações reais de milhares de empresas que poderiam ser afetadas pela implementação da lei em sua forma atual.

2. Quais são os principais avanços e pontos controversos do PL 2338/23?

O PL 2338/23 apresenta alguns avanços importantes, como um maior detalhamento na classificação de sistemas de IA de alto risco e certo alinhamento com diretrizes internacionais para governança de IA. Essas melhorias demonstram um esforço em criar um marco legal que acompanhe as tendências globais de regulação da tecnologia.

No entanto, apesar desses pontos positivos, o projeto contém elementos controversos que geram preocupações significativas. Um dos aspectos mais criticados é que o PL 2338/23 é considerado ainda mais restritivo que o AI Act da União Europeia, que já é visto como um dos marcos regulatórios mais rígidos do mundo. Esta abordagem excessivamente cautelosa pode prejudicar a inovação e a competitividade das empresas brasileiras, especialmente startups e pequenas e médias empresas que não dispõem dos mesmos recursos que grandes corporações para se adequar a requisitos complexos.

Outra controvérsia fundamental está no foco da regulação. O PL concentra-se em regular a tecnologia em si, em vez de seus usos específicos, o que pode resultar em barreiras desnecessárias para aplicações benéficas e de baixo risco. Dados da Europa indicam que cerca de 60% das empresas europeias já consideram as regulações atuais um obstáculo para investimentos e competitividade, e há preocupações de que o Brasil esteja importando esse modelo restritivo sem adaptá-lo adequadamente à realidade nacional.

3. Como o PL 2338/23 pode afetar os direitos autorais e o aprendizado de máquina no desenvolvimento de IA no Brasil?

O PL 2338/23 estabelece um regime extremamente rigoroso de direitos autorais que pode inviabilizar o desenvolvimento de modelos de IA no Brasil. Uma das exigências mais problemáticas é a identificação obrigatória de cada conteúdo utilizado para o aprendizado de máquina (artigo 62), algo praticamente impossível de ser implementado considerando o volume massivo de dados necessários para treinar sistemas de IA modernos.

Além disso, o projeto proíbe a mineração de dados para fins comerciais (artigo 63), o que afeta diretamente o modelo de negócios de inúmeras empresas que dependem dessa prática para desenvolver soluções inovadoras. Essa restrição coloca o Brasil na contramão de países como Estados Unidos, Canadá, Japão e Singapura, que adotam abordagens mais flexíveis para equilibrar proteção de direitos autorais e inovação tecnológica.

Outro ponto crítico é a exigência de remuneração retroativa aos detentores de direitos autorais (artigos 64 e 65), que poderia forçar empresas brasileiras a “destreinar” modelos já existentes ou a pagar valores exorbitantes por conteúdos já utilizados. As consequências práticas dessas medidas seriam devastadoras para setores emergentes como fintechs, healthtechs e agritechs, que perderiam competitividade no mercado global. Mais grave ainda, a produção de modelos de IA que compreendam os contextos culturais e sociais brasileiros seria severamente comprometida, deixando o país dependente de tecnologias estrangeiras que não refletem adequadamente nossa realidade.

4. Por que a generalização de risco em sistemas de IA generativa é considerada problemática no PL 2338/23?

O PL 2338/23 adota uma abordagem generalista ao classificar todos os sistemas de IA generativa como de alto risco, independentemente de seu contexto de aplicação ou potencial de dano. Essa classificação indiscriminada ignora as diferenças fundamentais entre aplicações de IA generativa em áreas sensíveis (como saúde ou segurança pública) e usos de baixo risco (como criação de conteúdo criativo ou assistentes virtuais básicos).

Tal generalização impõe requisitos caros e complexos para todos os desenvolvedores de sistemas de IA generativa, mesmo quando suas tecnologias não apresentam riscos significativos. Para pequenas e médias empresas, frequentemente as mais inovadoras no ecossistema tecnológico, essas exigências podem representar barreiras intransponíveis, sufocando a inovação antes mesmo que ela possa florescer.

A definição ampla de “risco sistêmico” presente no projeto aumenta ainda mais a incerteza regulatória, pois não estabelece critérios objetivos para determinar quando um sistema de IA realmente representa um risco substancial. Em contraste, marcos regulatórios internacionais, como o desenvolvido pelo National Institute of Standards and Technology (NIST) dos EUA, adotam abordagens mais nuançadas, baseadas em impacto real e capacidade técnica, permitindo que a regulação seja proporcional ao risco efetivamente apresentado por cada aplicação.

5. Quais são os riscos à liberdade de expressão contidos no PL 2338/23?

Um aspecto particularmente preocupante do PL 2338/23 é a inclusão de plataformas de internet como sistemas de alto risco. O artigo 14, inciso XIII, classifica atividades como curadoria, difusão e recomendação de conteúdo (como feeds de redes sociais) como passíveis de regulação pelo Poder Executivo, ampliando significativamente o escopo de controle governamental sobre o ambiente digital.

Esta medida gera riscos substanciais à liberdade de expressão e ao pluralismo democrático, uma vez que permite a interferência estatal em mecanismos que atualmente facilitam a circulação livre de informações e opiniões diversas. O PL confere poder normativo, regulatório, fiscalizatório e sancionatório ao Poder Executivo, com um escopo amplo e indeterminado sobre aplicações de internet, o que pode resultar em censura indireta ou limitações ao debate público.

Além disso, a regulação infralegal prevista no projeto pode ser implementada de forma desproporcional, criando um ambiente de insegurança jurídica para empresas e plataformas digitais. Essa incerteza tende a gerar um “efeito resfriador” (chilling effect) sobre a inovação e o investimento em tecnologias de comunicação digital no Brasil, prejudicando tanto o desenvolvimento econômico quanto a vitalidade do espaço cívico online.

6. Quais são as recomendações da ABES para tornar a regulação de IA mais eficiente e equilibrada?

A ABES sugere uma abordagem mais focada e equilibrada para a regulação de IA no Brasil, começando pela concentração dos esforços regulatórios nos usos de alto risco, em vez de abordar os sistemas de IA de forma generalizada. Esta estratégia garantiria que apenas aplicações específicas e comprovadamente perigosas fossem alvo de controle mais rigoroso, permitindo que o restante do ecossistema tecnológico continue a se desenvolver sem barreiras excessivas.

No que diz respeito aos direitos autorais, a associação recomenda a eliminação da obrigação de identificar cada conteúdo utilizado no aprendizado (Artigo 62), a permissão para a mineração de dados para fins comerciais (Artigo 63) e a supressão das exigências de remuneração retroativa aos detentores de direitos autorais (Artigos 64 e 65). Essas modificações alinharia o Brasil com práticas internacionais mais flexíveis adotadas por países líderes em inovação.

A ABES também propõe o alinhamento da definição de “risco sistêmico” a padrões internacionais reconhecidos, como o estabelecido pelo NIST dos EUA, que define critérios objetivos baseados em impacto e capacidade técnica. Esta harmonização facilitaria a integração de empresas brasileiras no mercado global e evitaria a criação de um ambiente regulatório isolado e excessivamente restritivo no Brasil.

7. Como o PL 2338/23 pode impactar a proteção da liberdade de expressão e quais ajustes são necessários?

Para proteger adequadamente a liberdade de expressão no ambiente digital, a ABES recomenda uma revisão cuidadosa da inclusão de plataformas de internet como sistemas de alto risco. Especificamente, sugere-se a exclusão do inciso XIII do Artigo 14, que atualmente classifica atividades de curadoria, difusão e recomendação de conteúdo como de alto risco.

Além disso, é fundamental modificar o Artigo 15 para limitar a regulação dessas plataformas a leis específicas já existentes, como o Marco Civil da Internet e a Lei Geral de Proteção de Dados. Esta abordagem evitaria a sobreposição regulatória e a criação de um ambiente de insegurança jurídica que poderia prejudicar tanto as empresas quanto os usuários de serviços digitais.

Tais ajustes garantiriam que a regulação da IA no Brasil não se transformasse em um mecanismo indireto de controle sobre o fluxo de informações e opiniões na internet. A preservação de um ambiente digital livre e plural é essencial não apenas para a saúde da democracia, mas também para fomentar a inovação e o desenvolvimento de soluções tecnológicas que atendam às necessidades específicas da sociedade brasileira.

8. Quais seriam as consequências da aprovação do PL 2338/23 em sua forma atual para o futuro da IA no Brasil?

A aprovação do PL 2338/23 sem os ajustes recomendados poderia posicionar o Brasil em significativa desvantagem competitiva no mercado global de IA. As restrições impostas pelo projeto, especialmente em relação aos direitos autorais e à classificação generalizada de risco, criariam barreiras substanciais ao desenvolvimento e implementação de sistemas de IA no país.

Empresas brasileiras, particularmente startups e pequenas e médias empresas, enfrentariam custos proibitivos para se adequar às exigências regulatórias, resultando em menor inovação e redução de investimentos no setor. Muitas poderiam optar por transferir suas operações para países com ambientes regulatórios mais favoráveis, levando a uma fuga de talentos e capital intelectual.

A longo prazo, o Brasil poderia se tornar um mero consumidor de tecnologias de IA desenvolvidas no exterior, perdendo a oportunidade de criar soluções adaptadas às necessidades e contextos nacionais. Esta dependência tecnológica não apenas afetaria a economia digital, mas também comprometeria a soberania tecnológica do país em um campo cada vez mais estratégico para o desenvolvimento econômico e social.

9. Como encontrar um equilíbrio entre regulação necessária e incentivo à inovação em IA no Brasil?

Encontrar o equilíbrio entre regulação e inovação requer uma abordagem baseada em riscos reais e evidências concretas, em vez de temores especulativos sobre os potenciais danos da IA. Um marco regulatório eficiente deve focar em usos específicos de alto risco, estabelecendo requisitos proporcionais ao potencial de dano de cada aplicação.

A adoção de uma regulação progressiva e adaptativa também é essencial. Isso significa começar com diretrizes mais amplas e princípios gerais, refinando gradualmente as regras à medida que a tecnologia evolui e seus impactos se tornam mais claros. Este modelo permite que a regulação acompanhe o ritmo da inovação sem sufocá-la prematuramente.

Finalmente, é crucial promover a participação multissetorial na elaboração e implementação das regras. O diálogo contínuo entre governo, setor privado, academia e sociedade civil pode garantir que a regulação de IA no Brasil seja tanto eficaz na mitigação de riscos quanto conducente à inovação e ao desenvolvimento econômico. Um ecossistema de IA próspero e responsável no Brasil depende fundamentalmente deste equilíbrio delicado entre proteção e promoção.

Conclusão

O PL 2338/23 representa uma iniciativa importante para regular a Inteligência Artificial no Brasil, mas sua formulação atual apresenta riscos significativos para o desenvolvimento tecnológico e a competitividade do país. As recomendações da ABES oferecem caminhos para ajustar o projeto, focando em usos de alto risco, flexibilizando o regime de direitos autorais, alinhando definições a padrões internacionais e protegendo a liberdade de expressão.

A busca por um equilíbrio entre regulação necessária e incentivo à inovação é fundamental para garantir que o Brasil possa participar ativamente do desenvolvimento global de IA, criando soluções que reflitam nossas necessidades e valores específicos. Uma regulação bem calibrada não apenas protege contra riscos reais, mas também cria um ambiente propício para que empresas brasileiras possam inovar e competir no cenário internacional.

Fonte: Brasil poderá ficar fora do desenvolvimento de IA, assegura ABES. Disponível em: https://abes.com.br/brasil-podera-ficar-fora-do-desenvolvimento-de-ia-assegura-abes-2. Acesso em: hoje.