27.1 C
Cruz das Almas
sexta-feira, 15 maio, 2026

O perigo de usar inteligência artificial para consultar sintomas

- Publicidade -spot_img

O uso de ferramentas de inteligência artificial para consultar sintomas pode parecer prático, mas um caso recente mostrou como isso pode ser perigoso. Uma pesquisa recente revelou que diferentes chats de inteligência artificial trataram como verdadeira uma doença que, na realidade, nunca existiu: a chamada “bixonimania”.

Usar inteligência artificial para consultar sintomas pode ser perigoso, conforme aponta especialista. Imagem: freepik. https://www.magnific.com/br/fotos-vetores-gratis/inteligencia-artificial-saude/12

A história chama atenção porque envolve um tema cada vez mais comum. Muitas pessoas recorrem a ferramentas como o ChatGPT e outros chats para tentar entender sinais do corpo, mas nem sempre essas respostas são corretas, seguras ou baseadas em verificação rigorosa.

Publicidade

O que aconteceu?

A falsa doença foi criada por uma equipe liderada pela pesquisadora Almira Osmanovic Thunström, da Universidade de Gotemburgo, na Suécia. O objetivo não era enganar por maldade, mas testar se sistemas de inteligência artificial seriam capazes de absorver informações falsas e repeti-las como se fossem confiáveis.

Publicidade

Para isso, os cientistas inventaram a “bixonimania”, associando o nome a sintomas como irritação nos olhos e escurecimento da região das pálpebras. Depois, publicaram textos e estudos falsos em plataformas abertas na internet, deixando vários sinais de que tudo era inventado.

Os sinais de que era tudo falso

De acordo com uma reportagem publicada no site da Nature, os próprios textos traziam pistas óbvias de que se tratava de uma criação fictícia. Os autores eram inventados, a universidade citada não existia e os agradecimentos mencionavam referências absurdas, como uma nave espacial (USS Enterprise) e instituições fictícias.

Além disso, um dos artigos mencionava explicitamente que “todo este artigo é inventado” e que “50 indivíduos inventados” participaram da pesquisa. Mesmo assim, sistemas de inteligência artificial passaram a repetir a suposta doença como se ela fosse real.

Após a repercussão do caso, os dois pré-prints (versão preliminar de um artigo científico) sobre a falsa doença foram removidos da plataforma onde estavam publicados.

Por que isso preocupa?

O caso mostra um problema importante no uso da inteligência artificial para consultar sintomas. Mesmo quando a resposta parece segura, organizada e escrita em tom de autoridade, ela pode estar errada.

Em saúde, esse tipo de erro é especialmente delicado. Uma resposta incorreta pode causar medo, confusão, automedicação, atraso no diagnóstico e até a falsa sensação de segurança diante de um problema verdadeiro.

Também há outra questão relevante. A reportagem destaca que a falsa doença chegou a ser citada em publicação científica, o que levanta um debate ainda maior sobre o uso descuidado de ferramentas automáticas até mesmo por pesquisadores e profissionais da área.

Os cientistas queriam alertar, não enganar

É importante deixar claro que os pesquisadores não agiram de má-fé. A intenção do experimento era justamente demonstrar uma fragilidade séria desses sistemas: a facilidade com que conteúdos falsos podem ser incorporados e reapresentados como verdade.

A própria pesquisadora disse ter refletido sobre os riscos do teste e buscado orientação ética antes de realizá-lo. Segundo a Nature, ela escolheu um tema considerado de menor risco justamente para evitar danos maiores, embora o resultado tenha levantado preocupações importantes.

Inteligência artificial não substitui médico

Essa história deixa uma lição simples e importante: a inteligência artificial não substitui consulta médica. Ferramentas digitais podem até ajudar a organizar dúvidas, mas não fazem exame clínico, não analisam todo o histórico do paciente e não assumem responsabilidade pelo diagnóstico.

Quando o assunto é saúde, o caminho correto continua sendo procurar um médico especialista. Casos de saúde são muito delicados e exigem cuidado, avaliação profissional e decisão baseada em evidências reais, não apenas em respostas geradas por uma inteligência artificial.

Esse alerta não vale apenas para a saúde. O mesmo risco existe em outras áreas sensíveis do dia a dia, como direito, educação, finanças e segurança. Um chat pode, por exemplo, indicar uma informação errada sobre aposentadoria, inventar uma regra jurídica, sugerir um investimento inadequado ou apresentar como verdadeiro um dado falso sobre medicamentos, concursos, benefícios sociais ou política.

Sempre questione antes de confiar

Também vale ao leitor fazer algumas perguntas antes de acreditar em uma resposta automática:

  • De onde veio essa informação? A fonte é confiável?
  • Um médico confirma essa orientação?
  • O texto cita estudos verdadeiros e verificáveis?
  • Estou usando um chat como substituto de uma consulta?

Em temas tão sensíveis, cautela nunca é exagero.

Fonte: Chris Stokel-Walker, “Scientists invented a fake disease. AI told people it was real”, Nature, 7 de abril de 2026. DOI: 10.1038/d41586-026-01100-y.

- Publicidade -spot_img
Últimas Notícias
Publicidade
Notícias relaciondas
- Publicidade -spot_img