Carregando...

Imagens 'inseguras' de IA proliferam online. Estudo sugere três maneiras de conter o flagelo

No ano passado, os geradores de imagens de IA conquistaram o mundo. Caramba, até mesmo nossos ilustres escritores da TNW os usam de vez em quando.

A verdade é que ferramentas como Difusão Estável, Difusão Latente ou DALL·E pode ser extremamente útil para produzir imagens exclusivas a partir de instruções simples – como esta imagem de Elon Musk montando um unicórnio.

Mas nem tudo é diversão e jogos. Os usuários desses modelos de IA podem facilmente gerar imagens de ódio, desumanizantes e pornográficas com o clique de um botão – com pouca ou nenhuma repercussão.

“As pessoas usam essas ferramentas de IA para desenhar todos os tipos de imagens, o que representa um risco inerente”, disse ele.pesquisador de ajuda Yiting Qu do Centro CISPA Helmholtz para Segurança da Informação na Alemanha. As coisas tornam-se especialmente problemáticas quando imagens perturbadoras ou explícitas são partilhadas nas principais plataformas de comunicação social, sublinhou ela.

O

Os últimos rumores do cenário tecnológico da UE, uma história do nosso sábio e velho fundador Boris e alguma arte de IA questionável. É grátis, toda semana, na sua caixa de entrada. Inscreva-se agora!

Embora estes riscos pareçam bastante óbvios, até agora foram realizadas poucas pesquisas para quantificar os perigos e criar barreiras de proteção seguras para a sua utilização. “Atualmente, não existe sequer uma definição universal no comunidade de pesquisa do que é e do que não é uma imagem insegura”, disse Qu.

Para esclarecer a questão, Qu e sua equipe investigado os geradores de imagens de IA mais populares, a prevalência de imagens inseguras nessas plataformas e três maneiras de impedir sua criação e circulação online.

Os pesquisadores alimentaram quatro geradores de imagens de IA proeminentes com avisos de texto de fontes conhecidas por conteúdo inseguro, como a plataforma de extrema direita 4chan. Surpreendentemente, 14,56% das imagens geradas foram classificadas como “inseguras”, com a Difusão Estável produzindo a maior porcentagem, 18,92%. Esses incluíam imagens com conteúdo sexualmente explícito, violento, perturbador, odioso ou político.

Criando salvaguardas

O facto de tantas imagens incertas terem sido geradas no estudo de Qu mostra que os filtros existentes não fazem o seu trabalho de forma adequada. A pesquisadora desenvolveu seu próprio filtro, que apresenta uma taxa de acerto muito maior em comparação, mas sugere uma série de outras maneiras de conter a ameaça.

Uma forma de evitar a propagação de imagens desumanas é programar geradores de imagens de IA para não gerar essas imagens, disse ela. Essencialmente, se os modelos de IA não forem treinados em imagens inseguras, eles não poderão replicá-las.

Além disso, Qu recomenda bloquear palavras inseguras na função de pesquisa, para que os usuários não possam reunir avisos que produzam imagens prejudiciais. Para as imagens que já circulam, “deve haver uma forma de classificá-las e excluí-las online”, disse ela.

Com todas estas medidas, o desafio é encontrar o equilíbrio certo. “É preciso haver um equilíbrio entre liberdade e segurança de conteúdo”, disse Qu. “Mas quando se trata de impedir que essas imagens tenham ampla circulação nas principais plataformas, acho que uma regulamentação rigorosa faz sentido.”

Além de gerar conteúdo prejudicial, os fabricantes de software de conversão de texto em imagem de IA foram criticados por uma série de questões, como roubando o trabalho dos artistas e amplificando estereótipos perigosos de gênero e raça.

Embora iniciativas como o AI Safety Summit, que ocorreu no Reino Unido este mês, tenham como objetivo criar proteções para a tecnologia, críticos afirmam que as grandes empresas de tecnologia têm influência excessiva nas negociações. Quer isso seja verdade ou não, a realidade é que, actualmente, a gestão adequada e segura da IA ​​é, na melhor das hipóteses, irregular e absolutamente alarmante no seu pior.