Carregando...

A UE adotou a Lei da Inteligência Artificial – mas há nuances

A UE acordou provisoriamente sobre regras para a inteligência artificial que deverão limitar a utilização da nova tecnologia e forçar os criadores a serem mais transparentes. Ao mesmo tempo, estas mudanças permanecem completamente obscuras – e, talvez, muito distantes.

Proposta pela primeira vez em 2021, a Lei de IA ainda não foi totalmente aprovada e as discussões acaloradas de última hora atenuaram algumas das ameaças regulatórias mais difíceis.

“No muito curto prazo, a lei não terá muito impacto direto sobre os desenvolvedores de inteligência artificial estabelecidos que operam nos EUA, uma vez que, sob seus termos, provavelmente não entrará em vigor até 2025”, diz Paul Barrett, vice-diretor do Center for Business. e NYU Stern Direitos Humanos.

Os principais players de inteligência artificial, como OpenAI, Microsoft, Google e Meta, provavelmente continuarão a lutar pelo domínio, especialmente enquanto navegam pela incerteza regulatória nos EUA, disse Barrett.

A União Europeia concordou com regras para regular a IA com permissão para reconhecimento facial e multas de 7,5 milhões de euros – empresas e ativistas de direitos humanos não estão satisfeitos

A lei sobre inteligência artificial começou a ser elaborada antes do entusiasmo em torno das ferramentas de inteligência artificial de uso geral (GPAI), como o grande modelo de linguagem GPT-4 da OpenAI, e a regulamentação tornou-se um ponto de discórdia nas discussões recentes. A lei categoriza as suas regras de acordo com o nível de risco que o sistema de IA representa para a sociedade ou, como afirma a declaração da UE, “quanto maior o risco, mais rigorosas são as regras”. Mas alguns Estados-Membros estão preocupados que tal rigor possa tornar a UE um mercado pouco atraente para a IA.

A França, a Alemanha e a Itália fizeram lobby durante as negociações para aliviar as restrições ao GPAI e obtiveram alguns compromissos sobre as regras mais rigorosas. Por exemplo, em vez de classificar toda a IA de uso geral como uma tecnologia de alto risco, é proposto um sistema de dois níveis, com exceções para as autoridades responsáveis ​​pela aplicação da lei no que diz respeito à proibição total da utilização de inteligência artificial, como a identificação biométrica.

O presidente francês, Emmanuel Macron, criticou as regras, dizendo que a Lei da IA ​​cria um ambiente regulatório severo que desencoraja a inovação.

Barrett disse que algumas novas empresas europeias de inteligência artificial podem ter dificuldade em levantar capital, dados os termos legais que favorecem os desenvolvedores americanos. As empresas fora da UE podem até recusar abrir uma sucursal na região ou bloquear o acesso às plataformas para evitar serem multadas por violar as regras – um risco potencial que a Europa também enfrenta na indústria tecnológica não relacionada com a IA, ao cumprir regras como a Digital Lei. mercados e Lei dos Serviços Digitais.

Por exemplo, modelos de inteligência artificial treinados em dados publicamente disponíveis – mas sensíveis e potencialmente protegidos por direitos autorais – tornaram-se uma grande controvérsia para as organizações. No entanto, as regras temporárias não criam novas leis de recolha de dados. Embora a UE tenha introduzido leis de proteção de dados através do Regulamento Geral de Proteção de Dados (RGPD), as suas regras de IA não impedem as empresas de recolher informações para além do requisito de cumprimento das diretrizes do regulamento.

“De acordo com as regras, as empresas podem ter de fornecer informações transparentes, ou os chamados dados de rótulo”, diz Susan Ariel Aaronson, diretora do Centro de Comércio Digital e Governança de Dados e professora pesquisadora de assuntos internacionais na Universidade George Washington. “Mas isso não mudará realmente o comportamento das empresas em relação aos dados.”

Aaronson observa que a Lei de IA ainda não esclarece como as empresas devem tratar o material protegido por direitos autorais que faz parte dos dados de treinamento de um modelo, a não ser que os desenvolvedores devem cumprir as leis de direitos autorais existentes (que deixam muitas áreas cinzentas em torno da IA). Assim, não incentiva os modeladores a evitar o uso de dados protegidos por direitos autorais.

A lei de IA também não aplicará suas penalidades potencialmente severas a desenvolvedores de código aberto, pesquisadores e empresas menores mais abaixo na cadeia. A diretora jurídica do GitHub, Shelley McKinley, diz que este é “um desenvolvimento positivo para o desenvolvimento da inovação aberta e dos desenvolvedores que ajudam a resolver alguns dos problemas mais importantes da sociedade”.

Alguns acreditam que o impacto mais concreto da lei poderá ser a pressão sobre outros decisores políticos, incluindo os americanos, para agirem mais rapidamente. Este não é o primeiro quadro regulamentar significativo para a inteligência artificial – em Julho, a China aprovou directrizes para empresas que desejam vender serviços de inteligência artificial ao público. Mas o processo de desenvolvimento relativamente transparente e altamente debatido da UE deu ao campo da IA ​​uma ideia clara do que esperar. Embora a Lei da IA ​​ainda possa mudar, Aaronson diz que isso mostra que a UE ouviu o público e respondeu às preocupações sobre a tecnologia.

Lothar Determann, parceiro de privacidade de dados e tecnologia da informação no escritório de advocacia Baker McKenzie, afirma que o facto de a lei se basear nas regras de dados existentes também pode levar os governos a avaliar quais as regulamentações que já estão a funcionar. E Blake Brannon, diretor de estratégia da plataforma de privacidade de dados OneTrust, disse que empresas de IA mais maduras estão estabelecendo diretrizes de privacidade sob leis como o GDPR e em antecipação a políticas mais rígidas. Ele disse que dependendo da empresa, a Lei de IA é um “complemento” às estratégias existentes.

Os EUA, pelo contrário, não conseguiram começar a regulamentar a inteligência artificial, apesar de serem o lar de grandes intervenientes como Meta, Amazon, Adobe, Google, Nvidia e OpenAI. A sua maior medida é uma ordem executiva da administração Biden que exige que as agências governamentais desenvolvam padrões de segurança e se baseiem em acordos voluntários e não vinculativos assinados pelos principais intervenientes na IA. Vários projetos de lei apresentados no Senado focaram principalmente em deepfakes e marcas d’água.

Isto não significa que os EUA adoptarão a mesma abordagem baseada no risco, mas poderão tentar expandir as regras de transparência de dados ou permitir que os modelos GPAI pareçam um pouco mais flexíveis.

Navreena Singh, fundadora da Credo AI e membro do Comitê Consultivo Nacional de Inteligência Artificial, acredita que embora a Lei da IA ​​seja uma grande solução para o campo da IA, as coisas não mudarão rapidamente e ainda há muito trabalho pela frente. .

“Os reguladores de ambos os lados do Atlântico devem concentrar-se em ajudar organizações de todas as dimensões a conceber, desenvolver e implementar inteligência artificial de forma segura, transparente e responsável”, disse Singh, acrescentando que ainda faltam normas e processos de benchmarking, especialmente em matéria de transparência.

Embora a Lei da Inteligência Artificial ainda não tenha sido finalizada, a grande maioria dos países da UE aceitou que esta é a direção que pretende seguir. A lei não regula retroativamente os modelos ou programas existentes, mas as versões futuras do OpenAI GPT, Meta Llama ou Google Gemini terão de ter em conta os requisitos de transparência definidos pela UE. Isto pode não levar a mudanças dramáticas da noite para o dia, mas demonstra a posição da UE em relação à IA.

Fonte: A beira