Carregando...

O que são alucinações de IA?

Novas IAs generativas parecem estar varrendo o nosso mundo cotidiano. O ChatGPT continua em alta, o Google Bard está em constante atualização e o Dall-E2 está quebrando recordes de popularidade no mundo da geração de imagens e isso é apenas a ponta do iceberg. Hoje, essas ferramentas de IA estão disponíveis diretamente no seu bolso: basta pegar seu smartphone compacto e toda a gama de recursos de IA estará aberta para você.

Os professores estão se perguntando como distinguir uma redação escrita por um chatbot do trabalho real de um aluno. Os profissionais testam os pontos fortes da IA, usando-a para criar e-mails, listas de compras e artigos analíticos, mas os resultados às vezes são inconsistentes. E aqui nos deparamos com um problema do qual todo usuário de IA deve estar ciente: alucinações.

O termo “alucinações de IA” pode soar como o título de um episódio de uma série de ficção científica, mas é um problema real nos algoritmos de inteligência artificial que tem impacto sobre aqueles que dependem dele na vida cotidiana. E aqui está o que você deve saber sobre isso.

O que são alucinações de IA?

O que é uma alucinação de IA?

Uma alucinação de IA ocorre quando algoritmos de inteligência artificial contam mentiras, criando algo do nada que não existe na realidade. Vejamos um exemplo: você pergunta à IA quantas tulipas existem no mundo e ela responde: “Três tulipas para cada pessoa viva”. Isto é o que é uma alucinação.

Esta estatística é pura ficção. Ninguém pensou isso ou pesquisou isso. A IA simplesmente tirou isso do nada. Muitas vezes nos deparamos com dados, números e estatísticas fictícios. Acontece que os chatbots apresentam processos judiciais fictícios em que os advogados se perdem, ou fornecem estudos médicos falsos para apoiar alguma teoria.

E no mundo da IA ​​baseada em imagens, uma alucinação pode parecer um mal-entendido sobre como funcionam as mãos humanas ou confundir um tigre com um gato doméstico. Embora as alucinações sejam mais comuns na IA conversacional.

O que causa alucinações de IA?

O que causa alucinações de IA?

A IA generativa que vemos hoje surge de LLMs – grandes modelos de linguagem. São máquinas que se alimentam de dados criados por pessoas, retirados diretamente da Internet. Eles pegam idiomas e imagens que encontram online, desmontam-nos como quebra-cabeças e aprendem a construir frases a partir deles que parecem ter sido faladas por um humano. É o máximo em imitação, e a IA precisa de muito treinamento antes de poder falar como você e eu. Resumindo, os chatbots podem falar a linguagem humana, mas isso não significa que sempre digam a verdade.

Os sistemas de IA conversacional são projetados para responder a solicitações, como OpenAI ChatGPT. Eles precisam dizer alguma coisa. Entre imitar a fala humana e vasculhar informações da Internet, eles às vezes inventam respostas que parecem naturais. Os chatbots tentam ser como nós, mas nem sempre acertam e é aí que os erros podem surgir. Quando uma IA começa a ter alucinações, pode ser devido a:

  • Treinamento insuficiente ou incorreto da IA, incluindo a seleção de dados de treinamento de baixa qualidade.
  • “Overtraining” em um tópico muito restrito, fazendo com que a IA se perca e produza bobagens.
  • Repetições de desinformação que as pessoas espalham online, incluindo notícias falsas maliciosas.
  • Preconceitos e emoções humanas que a IA capta e explora na hora errada.
  • Usando modelos complexos, sobrecarregados com informações e opções de geração de conteúdo, até mesmo IAs inteligentes às vezes ficam confusas sobre o que é realmente real e o que não é.

Todas as IAs têm alucinações?

Qualquer IA pode cometer erros, mas as alucinações são um problema particular para as IAs generativas, que são concebidas para responder a pedidos. Entenda que nenhum deles é perfeito. Já notamos que todas essas IAs às vezes têm alucinações. Essas IAs projetadas para você e para mim geralmente têm algum tipo de proteção contra alucinações, mas não existe um sistema ideal. Então, mais cedo ou mais tarde, você poderá encontrar informações incorretas.

Como reconhecer uma alucinação de IA?

Como reconhecer uma alucinação de IA?

E aqui está o problema: esses chatbots avançados e IAs semelhantes podem parecer muito convincentes. Eles estão confiantes em suas alucinações, pensando que isso é verdade, como tudo o mais. Isso significa que você mesmo terá que ativar o corretor. Sempre verifique quando essa IA fornece algum dado, especialmente se estivermos falando de números, datas, personalidades ou eventos. Fique atento se houver contradições na resposta ou se os números não corresponderem ao seu pedido.

Você não deve confiar cegamente em bots que parecem confiáveis ​​– pense cuidadosamente sobre tudo primeiro. Houve casos em que o ChatGPT confundiu personagens fictícios e outras informações falsas, algo que você normalmente não encontraria. Portanto, sempre confie na verificação dos fatos.

As alucinações podem ser evitadas ao usar IA?

Você não será capaz de evitar completamente as alucinações de IA, mas poderá reduzir o número delas e melhorar a qualidade de suas respostas. Aqui estão algumas dicas:

  • Reduza a “temperatura” da IA. Esta configuração controla o quão imprevisível a IA pode ser e ajuda a evitar erros (embora possa reduzir a criatividade das respostas).
  • Evite jargões ao fazer perguntas.
  • Faça perguntas mais específicas, evitando perguntas muito gerais.
  • Enriqueça a dica com informações que ajudarão a IA a formular uma resposta com mais precisão.
  • Tente pedir à IA que responda como um especialista em uma determinada área, digamos, como um professor ou um banqueiro (pode parecer estranho, mas funciona).
  • Diga à IA o que você não quer ouvir se ela começar a emitir dados aleatórios. Você também pode pedir a ele que forneça orçamentos para verificação.

As alucinações de IA são perigosas?

As alucinações de IA são perigosas por alguns motivos. Em primeiro lugar, eles podem fornecer informações incorretas quando você conta com a verdade. Às vezes é engraçado, como quando um aluno envia uma redação sobre IA contando a história de como Abraham Lincoln inventou os carros Lincoln. Mas também pode ser irritante, por exemplo, quando a IA sugere uma receita usando ácido sulfúrico em vez de bicarbonato de sódio ou coloca informações falsas no seu currículo. Na pior das hipóteses, seguir as instruções erradas pode causar sérios danos às pessoas.

Num nível mais profundo, as alucinações de IA podem causar sérios problemas devido à desinformação. E se você pedir a uma IA estatísticas sobre questões polêmicas, como imigração ou vacinas, e ela fornecer dados inventados? Pessoas lutaram e morreram por causa de informações encontradas na Internet. Se os usuários acreditarem nas alucinações da IA, as consequências poderão ser trágicas. É por isso que é tão importante combater este problema.

Os desenvolvedores serão capazes de consertar as alucinações de IA?

Eles já estão trabalhando nisso. O GPT-4 já é mais inteligente que seu antecessor GPT 3.5 e assim por diante. Os desenvolvedores usam todo tipo de truques, definem parâmetros e colocam barreiras para que a IA não caia em alucinações. Isto pode exigir formação adicional, reciclagem ou mais recursos informáticos, o que, naturalmente, implica custos. Num mundo ideal, a IA generativa tornar-se-ia cada vez mais avançada e as alucinações tornar-se-iam cada vez mais raras.

Cuidado com as alucinações comuns de IA

Agora você está ciente de todas as complexidades das alucinações de IA e entende por que não pode confiar cegamente na IA generativa em pequenas coisas. Tenha isso em mente ao pedir respostas ou relatórios à IA sobre qualquer assunto, e você não será pego de surpresa por essa falha. Enquanto isso, leia nossos artigos sobre O que é inteligência artificial? e O que é o Google Cloud TPU para permanecer no assunto.