Carregando...

Vice-presidente da principal empresa de IA generativa do Reino Unido renuncia devido à controvérsia do “uso justo”

Um executivo de uma das empresas líderes em IA generativa pediu demissão devido ao uso controverso de conteúdo protegido por direitos autorais pela startup.

Ed Newton-Rex foi vice-presidente de áudio da Stability AI, que produz o popular gerador de imagens Stability Diffusion, mas renunciou devido ao tratamento dado pela empresa aos criadores.

“Renunciei ao meu cargo de líder da equipe de áudio da Stability AI, porque não concordo com a opinião da empresa de que treinar modelos generativos de IA em obras protegidas por direitos autorais é ‘uso justo’”, anunciou Newton-Rex na quarta-feira. em X.

O argumento do “uso justo” tornou-se um ponto focal numa batalha legal crucial pela IA generativa. Várias empresas do setor foram processadas por extrair material protegido por direitos autorais da rede para treinar modelos de aprendizado de máquina – sem obter permissão dos criadores e detentores dos direitos.

Em resposta, a Stability AI evocou a doutrina do uso justo. O uso é justo, afirma a startup sediada no Reino Unido, porque é um uso aceitável, transformador e socialmente benéfico do conteúdo existente. Nesta base, a empresa quer treinamento AI em material protegido por direitos autorais para continuar sem permissão ou pagamento.

Garanta seu ingresso AGORA para a Conferência TNW – Super Earlybird está quase esgotado!

Liberte a inovação, conecte-se com milhares de amantes da tecnologia e molde o futuro de 20 a 21 de junho de 2024.

É um argumento frequentemente apresentado pelos proponentes da GenAI – mas ao qual a Newton-Rex se opõe.

Sua oposição tem base legal. O ex-VP observa que o uso justo é parcialmente determinado pelo efeito no mercado potencial ou no valor da obra protegida por direitos autorais. Como os modelos GenAI produzem material que pode competir com os seus dados de treinamento, a justificativa para o uso justo parece obscura.

Além das questões jurídicas, Newton-Rex — que também é compositor — tem um problema moral com a prática.

“Empresas que valem bilhões de dólares estão, sem permissão, treinando modelos generativos de IA nos trabalhos dos criadores, que são então usados ​​para criar novos conteúdos que, em muitos casos, podem competir com os trabalhos originais”, disse ele.

“Não vejo como isto pode ser aceitável numa sociedade que criou a economia das artes criativas de tal forma que os criadores dependem dos direitos de autor.”

Newton-Rex acrescentou que ainda apoia a IA generativa, mas apenas quando os artistas são tratados de forma justa.

“Tenho certeza de que não sou a única pessoa dentro dessas empresas de IA generativa que não acredita que a alegação de ‘uso justo’ seja justa para os criadores. Espero que outros se manifestem, seja internamente ou em público, para que as empresas percebam que explorar os criadores não pode ser a solução a longo prazo na IA generativa.”

A TNW entrou em contato com a Stability AI e a Newton-Rex para comentar.