google.com, pub-7803720760009502, DIRECT, f08c47fec0942fa0
Connect with us

Dicas

Nova técnica faz alucinações de IA acordarem e enfrentarem a realidade

Bots de bate-papo têm uma propensão alarmante para gerar informações falsas, mas apresentam-nas como precisas. Este fenômeno, conhecido como alucinações de IA, tem vários efeitos adversos. Na melhor das hipóteses, restringe os benefícios da inteligência artificial. Na pior das hipóteses, pode causar danos reais às pessoas.

À medida que a IA generativa se torna popular, os alarmes tocam mais alto. Em resposta, uma equipa de investigadores europeus experimentando vigorosamente remédios. Na semana passada, a equipe revelou uma solução promissora. Eles dizem pode reduzir as alucinações de IA a porcentagens de um único dígito.

O sistema é fruto da imaginação Iris.ai, uma startup com sede em Oslo. Fundada em 2015, a empresa construiu um mecanismo de IA para compreensão de textos científicos. O software analisa grandes quantidades de dados de pesquisa, que depois analisa, categoriza e resume.

Os clientes incluem o Autoridade Alimentar Finlandesa. A agência governamental usado o sistema para acelerar a investigação sobre uma potencial crise de gripe aviária. Segundo Iris.ai, a plataforma economiza 75% do tempo do pesquisador.

O que não economiza tempo é a IA alucinante.

“A chave é retornar respostas que correspondam ao que um especialista humano diria.

Os grandes modelos de linguagem (LLMs) atuais são notórios por cuspir informações falsas e sem sentido. Exemplos intermináveis ​​destes resultados surgiram nos últimos meses.

Às vezes, as imprecisões causam danos à reputação. Na demonstração de lançamento do Microsoft Bing AI, por exemplo, o sistema produzido uma análise repleta de erros do relatório de lucros da Gap.

Outras vezes, as saídas erradas podem ser mais prejudiciais. ChatGPT pode ser perigoso recomendações médicas. Analistas de segurança temer as alucinações do chatbot podem até direcionar pacotes de códigos maliciosos para desenvolvedores de software.

“Infelizmente, os LLMs são tão bons em frases que é difícil distinguir alucinações de texto gerado factualmente válido”, O CTO da Iris.ai, Victor Botev, disse à TNW. “Se este problema não for superado, os usuários dos modelos terão que dedicar mais recursos para validar os resultados, em vez de gerá-los.”

As alucinações da IA ​​também estão prejudicando o valor da IA ​​na pesquisa. Em uma pesquisa da Iris.ai com 500 trabalhadores corporativos de P&D, apenas 22% dos entrevistados disseram confiar em sistemas como o ChatGPT. No entanto, 84% deles ainda usam ChatGPT como principal ferramenta de IA para apoiar pesquisas. Eek.

Essas práticas problemáticas estimularam o trabalho da Iris.ai sobre alucinações de IA.

Iris.ai usa vários métodos para medir a precisão dos resultados de IA. A técnica mais crucial é validar a correção factual.

“Mapeamos os principais conceitos de conhecimento que esperamos ver em uma resposta correta”, diz Botev. “Depois verificamos se a resposta da IA ​​contém esses fatos e se eles vêm de fontes confiáveis.”

Uma técnica secundária compara a resposta gerada pela IA com uma “verdade básica” verificada. Usando uma métrica proprietária dublada WISDMo software avalia a semelhança semântica da saída da IA ​​com a verdade básica. Isso abrange verificações sobre os tópicos, estrutura e informações importantes.

Outro método examina a coerência da resposta. Para fazer isso, Iris.ai garante que o resultado incorpore assuntos, dados e fontes relevantes para a questão em questão – em vez de informações não relacionadas.

A combinação de técnicas cria uma referência para a precisão factual.

“A chave para nós não é apenas retornar qualquer resposta, mas retornar respostas que correspondam ao que um especialista humano diria”, diz Botev.

Fundadores da Iris.ai (da esquerda para a direita) Maria Ritola, Jacobo Elosua, Anita Schjøll Abildgaard e Victor Botev