Bots de bate-papo têm uma propensão alarmante para gerar informações falsas, mas apresentam-nas como precisas. Este fenômeno, conhecido como alucinações de IA, tem vários efeitos adversos. Na melhor das hipóteses, restringe os benefícios da inteligência artificial. Na pior das hipóteses, pode causar danos reais às pessoas.
À medida que a IA generativa se torna popular, os alarmes tocam mais alto. Em resposta, uma equipa de investigadores europeus experimentando vigorosamente remédios. Na semana passada, a equipe revelou uma solução promissora. Eles dizem pode reduzir as alucinações de IA a porcentagens de um único dígito.
O sistema é fruto da imaginação Iris.ai, uma startup com sede em Oslo. Fundada em 2015, a empresa construiu um mecanismo de IA para compreensão de textos científicos. O software analisa grandes quantidades de dados de pesquisa, que depois analisa, categoriza e resume.
Os clientes incluem o Autoridade Alimentar Finlandesa. A agência governamental usado o sistema para acelerar a investigação sobre uma potencial crise de gripe aviária. Segundo Iris.ai, a plataforma economiza 75% do tempo do pesquisador.
“A chave é retornar respostas que correspondam ao que um especialista humano diria.
Os grandes modelos de linguagem (LLMs) atuais são notórios por cuspir informações falsas e sem sentido. Exemplos intermináveis destes resultados surgiram nos últimos meses.
Às vezes, as imprecisões causam danos à reputação. Na demonstração de lançamento do Microsoft Bing AI, por exemplo, o sistema produzido uma análise repleta de erros do relatório de lucros da Gap.
Outras vezes, as saídas erradas podem ser mais prejudiciais. ChatGPT pode ser perigoso recomendações médicas. Analistas de segurança temer as alucinações do chatbot podem até direcionar pacotes de códigos maliciosos para desenvolvedores de software.
“Infelizmente, os LLMs são tão bons em frases que é difícil distinguir alucinações de texto gerado factualmente válido”, O CTO da Iris.ai, Victor Botev, disse à TNW. “Se este problema não for superado, os usuários dos modelos terão que dedicar mais recursos para validar os resultados, em vez de gerá-los.”
As alucinações da IA também estão prejudicando o valor da IA na pesquisa. Em uma pesquisa da Iris.ai com 500 trabalhadores corporativos de P&D, apenas 22% dos entrevistados disseram confiar em sistemas como o ChatGPT. No entanto, 84% deles ainda usam ChatGPT como principal ferramenta de IA para apoiar pesquisas. Eek.
Essas práticas problemáticas estimularam o trabalho da Iris.ai sobre alucinações de IA.
Iris.ai usa vários métodos para medir a precisão dos resultados de IA. A técnica mais crucial é validar a correção factual.
“Mapeamos os principais conceitos de conhecimento que esperamos ver em uma resposta correta”, diz Botev. “Depois verificamos se a resposta da IA contém esses fatos e se eles vêm de fontes confiáveis.”
Uma técnica secundária compara a resposta gerada pela IA com uma “verdade básica” verificada. Usando uma métrica proprietária dublada WISDMo software avalia a semelhança semântica da saída da IA com a verdade básica. Isso abrange verificações sobre os tópicos, estrutura e informações importantes.
Outro método examina a coerência da resposta. Para fazer isso, Iris.ai garante que o resultado incorpore assuntos, dados e fontes relevantes para a questão em questão – em vez de informações não relacionadas.
A combinação de técnicas cria uma referência para a precisão factual.
“A chave para nós não é apenas retornar qualquer resposta, mas retornar respostas que correspondam ao que um especialista humano diria”, diz Botev.
Fundadores da Iris.ai (da esquerda para a direita) Maria Ritola, Jacobo Elosua, Anita Schjøll Abildgaard e Victor Botev. Crédito: Iris.ai
Nos bastidores, o sistema Iris.ai aproveita gráficos de conhecimento, que mostrar relacionamentos entre dados.
Os gráficos de conhecimento avaliam e demonstram as etapas que um modelo de linguagem executa para alcançar seus resultados. Essencialmente, geram uma cadeia de pensamentos que o modelo deve seguir.
A abordagem simplifica o processo de verificação. Ao pedir à função de chat de um modelo para dividir as solicitações em partes menores e depois exibir as etapas corretas, os problemas podem ser identificados e resolvidos.
A estrutura poderia até levar um modelo a identificar e corrigir os seus próprios erros. Como resultado, uma resposta coerente e factualmente correta poderia ser produzida automaticamente.
“Precisamos quebrar a tomada de decisões da IA.
Iris.ai agora integrou a tecnologia em um novo recurso de bate-papo, que foi adicionado à plataforma Researcher Workspace da empresa. Nos testes preliminares, o apresentam alucinações de IA reduzidas para porcentagens de um dígito.
O problema, porém, não foi totalmente resolvido. Embora a abordagem pareça eficaz para os pesquisadores da plataforma Iris.ai, o método será difícil de implementar. escala para LLMs populares. De acordo com Botev, o c.Os desafios não decorrem da tecnologia, mas dos usuários.
Quando alguém faz uma pesquisa do Bing AI, por exemplo, eles podem ter pouco conhecimento do assunto que estão investigando. Conseqüentemente, eles podem interpretar mal os resultados que recebem.
“As pessoas autodiagnosticam doenças o tempo todo pesquisando seus sintomas online”, diz Botev. “Precisamos ser capazes de decompor o processo de tomada de decisão da IA de uma forma clara e explicável.
A principal causa das alucinações de IA são problemas de dados de treinamento. A Microsoft revelou recentemente uma nova solução para o problema. O novo da empresa Modelo Phi-1.5 é pré-treinados em dados de “qualidade de livro didático”, que são gerados sinteticamente e filtrados de fontes da web.
EUEm teoria, esta técnica irá mitigar as alucinações de IA. Se os dados de treinamento estiverem bem estruturados e promoverem o raciocínio, deverá haver menos espaço para um modelo ter alucinações.
Outro método envolve a remoção de preconceitos dos dados. Para fazer isso, Botev sugere treinar um modelo em linguagem de codificação.
Atualmente, muitos LLMs populares são treinados em uma ampla gama de dados, desde romances e artigos de jornais até documentos legais e postagens em mídias sociais. Inevitavelmente, estas fontes contêm preconceitos humanos.
Em comitindo a linguagem, há uma ênfase muito maior na razão. Isto deixa menos espaço para interpretação, o que pode orientar os LLMs para respostas factualmente precisas. Por outro lado, poderia dar aos codificadores um poder potencialmente assustador.
“É uma questão de confiança.
Apesar de suas limitações, o Iris.ai método é um passo na direção certa. Ao usar o estrutura do gráfico de conhecimento, transparência e explicabilidade podem ser adicionadas à IA.
“Uma compreensão mais ampla dos processos do modelo, bem como conhecimento externo adicional com modelos de caixa preta, significa que as causas profundas das alucinações em todos os campos podem ser identificadas e abordadas mais rapidamente”, diz Botev.
O CTO também está otimista quanto ao progresso externo na área. Ele aponta para o colaborações com criadores de LLM para construir conjuntos de dados maiores, inferir gráficos de conhecimento de textos e preparar métricas de autoavaliação. No futuro, isto deverá produzir reduções adicionais nas alucinações de IA.
Para Botev, o trabalho tem um propósito crucial.
“É em grande parte uma questão de confiança”, diz ele. “Como os usuários podem aproveitar os benefícios da IA se não confiam no modelo que estão usando para fornecer respostas precisas?”