Com respostas bem estruturadas, IA pode gerar conteúdos plausíveis, mas imprecisos, reforçando a importância do pensamento crítico no uso da tecnologia
A popularização de ferramentas de inteligência artificial como o ChatGPT tem transformado a forma como as pessoas buscam informações, estudam e tomam decisões no dia a dia. Em determinados contextos, especialmente quando não há dados suficientes ou quando o tema é muito específico, esses sistemas podem gerar conteúdos que parecem corretos, mas não são necessariamente verdadeiros.
Esse comportamento, conhecido como “alucinação”, já foi reconhecido como uma limitação dos modelos de linguagem. Reportagem da Exame destaca que, ao não encontrar uma resposta clara, a inteligência artificial pode estruturar uma explicação com aparência de segurança, aumentando o risco de que erros passem despercebidos. Além disso, o sistema pode completar informações com base em probabilidades, gerando conteúdos plausíveis, mas sem correspondência factual.
No ambiente acadêmico, esse fenômeno já acende alertas. Amplamente utilizada por estudantes para pesquisas, resumos e elaboração de trabalhos, a inteligência artificial também contribui para a disseminação de dados incorretos. Estudo publicado na plataforma ResearchGate aponta que, ao gerar respostas convincentes mesmo sem base factual suficiente, essas soluções ampliam o risco de desinformação quando utilizados sem análise crítica.
Além disso, pesquisas recentes mostram que os próprios sistemas têm limitações para lidar com a veracidade das notícias. Reportagem do portal Euronews, com base em estudo publicado na revista científica Nature Machine Intelligence, indica que chatbots de IA têm dificuldade em reconhecer quando usuários acreditam em conteúdos falsos, confundindo crenças com fatos, o que amplia riscos em áreas sensíveis.
O perigo está justamente na confiança que essas respostas transmitem. Diferentemente de um buscador tradicional, que direciona o usuário a diferentes fontes, modelos de linguagem entregam respostas completas, com aparência de autoridade, o que dificulta a identificação de inconsistências, principalmente para quem não tem repertório para questionar.
“A inteligência artificial foi treinada para responder com base em padrões, e não para validar a veracidade das informações em tempo real. Por isso, é fundamental que o usuário tenha senso crítico para analisar o que está sendo apresentado”, afirma Marco Giroto, fundador da SuperGeeks, escola especializada em competências para o futuro.
Segundo o especialista, esse cenário reforça a necessidade de desenvolver habilidades que vão além do uso básico dessas ferramentas. “É preciso entender como elas funcionam. Quando alguém aprende lógica e programação, por exemplo, passa a compreender que essas respostas são construídas a partir de dados e probabilidades, e não de conhecimento absoluto”, explica.
Esse desafio se torna ainda mais relevante entre crianças e adolescentes, que já crescem inseridos em um ambiente digital cada vez mais automatizado. Embora tenham familiaridade com essas soluções, isso não significa que estejam preparados para interpretá-las. “A educação tecnológica é essencial para essa nova geração. É ela que permite compreender, questionar e utilizar essas ferramentas de forma consciente, desenvolvendo autonomia, capacidade de análise e senso crítico para evitar interpretações equivocadas e decisões baseadas em instruções imprecisas”, conclui.
Compreender como o ChatGPT se comporta quando não sabe a resposta é fundamental para um uso mais consciente da ferramenta. A tecnologia continua sendo uma aliada para organizar ideias, explicar conceitos e apoiar análises, mas exige atenção e verificação das informações para que não comprometa a qualidade do conhecimento.
Fique informado, tenha acesso a mais de 15 colunistas e reportagens exclusivas sobre Alfredo Wagner e região! Acesse Canal no Whatsapp do Jornal Alfredo Wagner Online aqui! Jornal Alfredo Wagner Online aqui!