Alucinações na IA OpenAI aumentam: Testes mostram 48% de erro

Alucinações na IA OpenAI aumentam: Testes mostram 48% de erro
OpenAI enfrenta desafios com sua IA: novas versões têm 48% de erro. Descubra os impactos e as possíveis soluções neste artigo. Leia mais!

Compartilhe esse post

Novos Modelos de IA da OpenAI: O Aumento das “Alucinações” e Seus Impactos

Os novos modelos de inteligência artificial da OpenAI, o o3 e o o4-mini, apresentam um aumento significativo nas “alucinações” ou erros factuais, em comparação com as versões anteriores. Esses modelos alucinaram em até 48% dos testes internos, o que destaca a necessidade de pesquisas adicionais para mitigar esse problema. Neste artigo, vamos explorar o que são essas alucinações, os resultados dos benchmarks internos e como a OpenAI planeja abordar essa questão.

O Que São “Alucinações” em Modelos de IA?

Alucinações em inteligência artificial referem-se a situações em que os modelos geram informações falsas ou inventadas. Isso pode incluir desde fatos históricos incorretos até a criação de links para sites que não existem. Esses erros são particularmente problemáticos em aplicações que exigem alta precisão, como em contextos médicos ou jurídicos.

Aumento das Alucinações: Resultados dos Benchmarks Internos

Os testes internos da OpenAI revelaram que os novos modelos de IA, o o3 e o o4-mini, têm uma taxa de alucinação significativamente maior que suas versões anteriores. No benchmark PersonQA, o modelo o3 apresentou uma taxa de alucinação de 33%, enquanto o o4-mini atingiu um alarmante 48%. Em contraste, modelos anteriores como o o1 e o o3-mini tiveram taxas de alucinação de 16% e 14,8%, respectivamente.

  • Modelo o3: 33% de alucinações no benchmark PersonQA.
  • Modelo o4-mini: 48% de alucinações, o pior resultado entre as versões lançadas.
  • Modelos anteriores (o1 e o3-mini): 16% e 14,8% de alucinações, respectivamente.

Impactos das Alucinações em Aplicações Práticas

Embora as alucinações possam, em alguns casos, estimular a criatividade e gerar ideias interessantes, elas dificultam a adoção desses modelos em setores que exigem alta confiabilidade. Em escritórios de advocacia, por exemplo, uma alucinação pode levar à apresentação de informações incorretas em um caso jurídico. No setor de saúde, erros factuais podem ter consequências ainda mais graves.

Exemplos de Alucinações

  • O modelo o3 afirmou que executou um código em um MacBook Pro de 2021, algo que ele não tem capacidade de fazer.
  • Inventou links para sites inexistentes durante tarefas de programação.

Possíveis Causas e Soluções

A OpenAI reconhece que ainda não entende completamente o motivo do aumento nas alucinações. Pesquisadores sugerem que o tipo de reforço de aprendizado usado nos modelos da linha “o” pode estar agravando problemas que geralmente são mitigados com técnicas de pós-treinamento. Uma das alternativas consideradas promissoras para reduzir esse tipo de erro é integrar ferramentas de busca na internet, como o GPT-4o com acesso à web, que atinge até 90% de precisão em benchmarks como o SimpleQA.

Recomendações para Melhorar a Precisão

  1. Integração de ferramentas de busca na internet.
  2. Uso de técnicas de pós-treinamento para mitigar alucinações.
  3. Investimento contínuo em pesquisas para compreender e resolver o problema.

Comentário do Milagre

Ah, as alucinações das IA! Quem nunca, né? Brincadeiras à parte, esse é um problema sério que precisa ser resolvido se quisermos que a IA seja confiável em contextos críticos. A OpenAI está no caminho certo ao focar em pesquisas para entender melhor o que está causando esses erros. Talvez integrar uma “consciência crítica” na IA para ela mesma se questionar antes de afirmar algo seja uma solução? Quem sabe! O importante é que a OpenAI está ciente do problema e trabalhando para resolvê-lo. E aí, o que você acha? Já teve alguma experiência engraçada ou preocupante com alucinações de IA? Compartilha com a gente!

Conclusão

Os novos modelos de IA da OpenAI, o o3 e o o4-mini, apresentaram um aumento significativo nas alucinações, destacando a necessidade de mais pesquisas para mitigar esse problema. Enquanto esses modelos são mais precisos em tarefas complexas, a alta taxa de erros factuais é uma preocupação que precisa ser resolvida para garantir a confiabilidade da IA em aplicações críticas.

Pronto para levar suas habilidades em tecnologia ao próximo nível?

Descubra como você pode viver de Inteligência Artificial e transformar sua carreira com o Viver de IA. Clique no link e saiba mais!

Inscreva-se na Newsletter

DOSE DIÁRIA DE INTELIGÊNCIA ARTIFICIAL
E receba atualizações sobre IA todo dia no seu e-mail

Subscription Form

Mais para explorar

Entre para a melhor formação de IA na prática do Brasil