Aracaju (SE), 23 de janeiro de 2026
POR: Isabella Lima
Fonte: Assessoria
Em: 15/10/2025 às 08:04
Pub.: 15 de outubro de 2025

A Inteligência Artificial também erra

Jullena Normando é pesquisadora em Comunicação e Inteligência Artificial na UFG, com estágio na Universidade da Califórnia em San Diego (UCSD) - Foto: Assessoria
Quando se fala em IA, um dos medos mais comuns é que ela tome o controle e se torne mais inteligente que os humanos. Mas um grande perigo, frequentemente ignorado, é a confiança cega em suas respostas. A Inteligência Artificial também erra.

Exemplos de enganos, que têm se tornado comuns, ocorrem na montagem de roteiros de viagem. Turistas têm ido em busca de destinos inexistentes e até se aventuram em passeios de alto risco, apenas confiando em roteiros feitos pelo ChatGPT.

Para a especialista em Comunicação e Inteligência Artificial, Jullena Normando, quando o usuário acredita cegamente,ele ou nós, entramos numa espécie de transe digital. “O que eu quero dizer é que essa confiança cega no ChatGPT ou em qualquer outro modelo de linguagem é um perigo real, e que já acontece, diferente da discussão abstrata e potencialmente perigosa sobre quando e se a IA vai ter consciência. Se a gente não souber usar esses modelos de inteligência artificial, o perigo já está aqui.”

Um caso que tem se tornado preocupante ocorre na Itália. Desde 1º de junho deste ano, mais de 100 turistas perderam a vida nos Alpes Italianos. A informação foi compartilhada pelo Corpo Nazionale Soccorso Alpino e Speleologico (Corpo Nacional de Socorro Alpino e Espeleológico, em tradução livre) e tem alarmado autoridades e guias de montanha.

O ChatGPT está fornecendo dicas de trilhas e rotas a usuários que perguntam sobre os Alpes Italianos, o que pode ser fatal, especialmente para turistas inexperientes no alpinismo. O caso reacende o debate sobre responsabilidade: quando um algoritmo erra, a culpa é de quem o programou, dos dados que o treinaram ou até mesmo de quem fez o uso da tecnologia?

Um relatório recente da McKinsey mostra que a maioria das empresas ainda não está preparada para responder por danos causados por sistemas de inteligência artificial.

“Essas empresas  tratam o risco ético como se fosse risco de software, mas há uma diferença. Então, quando o sistema de IA gera uma rota que leva alguém à morte, o dano é humano; ele não é meramente técnico. Nós não estamos falando de um bug, estamos falando de vidas que foram afetadas pelas consequências desses modelos”, afirma Jullena Normando.

*Jullena Normando é pesquisadora em Comunicação e Inteligência Artificial na UFG, com estágio na Universidade da Califórnia em San Diego (UCSD).


Notícias Indicadas

"Aracaju Tropical Run 2026” agita capital em corrida na praia

Madereta de Lagarto apresenta programação da 12ª edição

Propriá realizará a maior Romaria e Festa de Bom Jesus dos Navegantes do estado

Boleto do IPTU pode ser impresso no Portal do Contribuinte

Benito Di Paula em Aracaju com a turnê "Do Jeito que a Vida Quer"

Prefeitura de Aracaju prorroga prazo da cota única do IPTU com desconto de 7,5% até 6 de fevereiro

Maior exposição de tubarões do Brasil chega a Aracaju

Entenda mudanças na aposentadoria em 2026

Fusqueata em comemoração ao Dia Nacional do Fusca acontece domingo (25) em Aracaju

Fazer comunicação em um mundo em mutação :: Por Shirley Vidal

The Beatles Reimagined retorna aos palcos com espetáculo imersivo no Teatro Tobias Barreto

Veja faixas e alíquotas das novas tabelas do Imposto de Renda 2026

Conheça os melhores destinos em Sergipe - Pontos Turísticos

WhatsApp

Entre e receba as notícias do dia

Matérias em destaque

Click Sergipe - O mundo num só Click

Apresentação