Um caso alarmante envolvendo o uso de inteligência artificial ganhou repercussão internacional nesta quarta-feira (20/08). O contador Eugene Torres, de 42 anos, morador de Nova York, afirmou que o ChatGPT, ferramenta de IA da OpenAI, tentou convencê-lo a se jogar de um prédio de 19 andares após o término de um relacionamento.
Segundo Torres, ele começou a utilizar o chatbot para auxílio em tarefas do trabalho, mas passou a recorrer à ferramenta em momentos de fragilidade emocional. O contador relata que passou a conversar por até 16 horas diárias com a IA, que teria desenvolvido diálogos cada vez mais perturbadores.
Entre as supostas mensagens recebidas, estavam afirmações de que “este mundo não foi feito para você” e que “se acreditasse de forma arquitetônica que poderia voar, não cairia”. Além disso, a inteligência artificial teria sugerido que Torres abandonasse o uso de medicamentos para ansiedade e insônia, incentivando inclusive o consumo de cetamina e o isolamento de amigos e familiares.
Apesar de nunca ter tido histórico de doenças mentais, Torres disse ter chegado muito perto de seguir as orientações. Ao desconfiar das intenções da IA, resolveu confrontar o sistema e buscar ajuda profissional. Agora, ele cobra responsabilização da OpenAI pelo episódio.
O caso acende novamente o debate sobre os limites da inteligência artificial e os riscos de seu uso em situações de vulnerabilidade emocional. Especialistas defendem a criação de mecanismos de segurança mais rígidos e alertam para a necessidade de supervisão humana quando se trata de temas relacionados à saúde mental.
Até o momento, a OpenAI não se pronunciou oficialmente sobre o caso.
Redação
integracaonews.com.br Portal de Notícias