Carregando...

Como o chatbot AI da Microsoft ‘alucina’ informações eleitorais

O próximo ano será agitado para a democracia. Eleições importantes acontecerão nos EUA, na UE e em Taiwan, entre outros. No momento em que a implementação da era da IA ​​generativa está a ganhar ritmo a sério – algo que alguns temem poderá ser prejudicial para o processo democrático.

Uma das principais preocupações sobre a IA generativa é que esta possa ser utilizada para a propagação maliciosa de desinformação, ou que os modelos possam inventar declarações falsas apresentando-as como factos, as chamadas alucinações. Um estudo realizado por duas ONG europeias descobriu que o chatbot da Microsoft — Bing AI (a funcionar no GPT-4 da OpenAI) — deu respostas incorretas a um terço das perguntas sobre eleições na Alemanha e na Suíça.

O estudo foi conduzido pela Algorithm Watch e AI Forensics. As organizações afirmaram que fizeram perguntas ao chatbot relacionadas com candidatos, sondagens e informações de votação, bem como pedidos de recomendação mais abertos sobre em quem votar quando se trata de assuntos específicos, como o ambiente.

“Nossa pesquisa mostra que os atores mal-intencionados não são a única fonte de desinformação; chatbots de uso geral podem ser igualmente ameaçadores para o ecossistema de informação”, comentou Salvatore Romano, pesquisador sênior da AI Forensics. “A Microsoft deveria reconhecer isso e reconhecer que sinalizar o conteúdo generativo de IA feito por terceiros não é suficiente. Suas ferramentas, mesmo quando implicam fontes confiáveis, produzem informações incorretas em grande escala.”

O chatbot da Microsoft atribuiu informações falsas às fontes

De acordo com o estudo, os erros incluíam “datas eleitorais erradas, candidatos desatualizados ou até mesmo controvérsias inventadas sobre os candidatos”. Além disso, as informações incorretas eram frequentemente atribuídas a uma fonte que possuía as informações corretas sobre o tema. Também inventou “histórias sobre candidatos envolvidos em comportamentos escandalosos”, atribuindo também as informações a fontes respeitáveis.

O

Os últimos rumores do cenário tecnológico da UE, uma história do nosso sábio e velho fundador Boris e alguma arte de IA questionável. É grátis, toda semana, na sua caixa de entrada. Inscreva-se agora!

Às vezes, o chatbot de IA da Microsoft evitava responder a perguntas para as quais não sabia as respostas. No entanto, em vez de não responder, muitas vezes simplesmente inventou uma resposta – incluindo a fabricação de alegações sobre corrupção.

As amostras para o estudo foram coletadas de 21 de agosto de 2023 a 2 de outubro de 2023. Quando os autores informaram a Microsoft sobre os resultados, a gigante da tecnologia disse que tentaria resolver o problema. No entanto, um mês depois, novas amostras produziram resultados semelhantes.

A assessoria de imprensa da Microsoft não estava disponível para comentar antes da publicação deste artigo. No entanto, um porta-voz da empresa disse ao Jornal de Wall Street que a Microsoft estava “continuando a resolver os problemas e a preparar nossas ferramentas para atender às nossas expectativas nas eleições de 2024”. Enquanto isso, eles também pediram aos usuários que aplicassem seu “melhor julgamento” ao revisar os resultados do chatbot de IA da Microsoft.

“É hora de desacreditarmos a referência a esses erros como ‘alucinações’”, disse Riccardo Angius, líder de matemática aplicada e pesquisador de IA Forensics. “Nossa pesquisa expõe a ocorrência muito mais complexa e estrutural de erros factuais enganosos em LLMs e chatbots de uso geral.”

Você pode encontrar o estudo na íntegra aqui.