Píxeis “tóxico” modelo generativo em caso de uso ilegal de imagens e interromper seu funcionamento.
Nós ajudamos
Em meio a inúmeras ações judiciais dos artistas OpenAI, Meta, Google e Stability AI, uma equipe da Universidade de Chicago desenvolveu sua própria ferramenta para lutar pelos direitos autorais.
Nightshade permite que os artistas adicionem pixels invisíveis ao seu trabalho antes de publicá-lo online, e se a imagem envenenada acabar nos dados de treinamento de um modelo como DALL-E, Midjourney ou Stable Diffusion, todo o seu trabalho pode ser interrompido – cães no os resultados podem se transformar em gatos e os carros em vacas, etc.
Resultados que são exibidos dependendo do número de imagens envenenadas adicionadas.
Dados envenenados são muito difíceis de remover porque requerem pesquisa e remoção cuidadosa de cada amostra corrompida.
A equipe também desenvolveu uma ferramenta chamada Glaze, que permite aos artistas “mascarar” seu estilo pessoal para evitar que seja explorado por empresas de inteligência artificial. Funciona de forma semelhante ao Nightshade: alterando os pixels das imagens de maneiras sutis e invisíveis ao olho humano e manipulando modelos de aprendizado de máquina para interpretar a imagem como algo diferente do que ela realmente mostra.
O Nightshade será lançado como código aberto no futuro, para que os desenvolvedores possam melhorar a ferramenta e criar suas próprias versões – isso a tornará mais poderosa, dizem os pesquisadores.
A ferramenta foi testada nos modelos de Difusão Estável mais recentes e em um modelo de IA que foi treinado do zero. Quando o modelo Stability AI recebeu 50 imagens de cães envenenados, seus resultados começaram a parecer estranhos – eles tinham muitos membros ou rostos de desenho animado.
O líder da equipe, Professor Ben Zhao, reconhece os riscos de que a tecnologia possa ser usada por invasores, mas diz que eles precisarão “milhares de amostras envenenadas para causar danos reais» modelos grandes e poderosos treinados em bilhões de amostras de dados.
Junfeng Yang, professor de ciência da computação da Universidade de Columbia que estudou a segurança de sistemas de aprendizagem profunda e não esteve envolvido no trabalho, diz que Nightshade poderia forçar as empresas de IA a mostrarem mais respeito aos artistas e encorajar o pagamento de royalties.