
A polícia investiga a cena de um tiroteio perto do sindicato estudantil da Florida State University em 17 de abril de 2025 em Tallahassee, Flórida. Duas pessoas morreram e cinco ficaram feridas no ataque. O procurador-geral da Flórida está investigando a OpenAI porque o suposto atirador usou o ChatGPT para ajudar a planejar o ataque.
Miguel J. Rodríguez Carrillo/Getty Images
ocultar legenda
alternar legenda
Miguel J. Rodríguez Carrillo/Getty Images
O procurador-geral da Flórida está lançando uma investigação criminal sobre o ChatGPT e sua empresa-mãe OpenAI sobre alegações de que o atirador acusado de um tiroteio na Florida State University no ano passado consultou o chatbot de IA antes de matar duas pessoas e ferir outras cinco.
O procurador-geral republicano, James Uthmeier, disse em uma entrevista coletiva em Tampa na terça-feira que o acusado Phoenix Ikner consultou o ChatGPT para obter conselhos antes do tiroteio, incluindo que tipo de arma usar, que munição a acompanha e a que horas ir ao campus para encontrar mais pessoas, de acordo com uma revisão inicial dos registros de bate-papo de Ikner.
“Meus promotores analisaram isso e me disseram que se fosse uma pessoa do outro lado da tela, estaríamos acusando-a de assassinato”, disse Uthmeier. “Não podemos ter bots de IA aconselhando as pessoas sobre como matar outras pessoas.”
A porta-voz da OpenAI, Kate Waters, disse em uma declaração por escrito à NPR: “O tiroteio em massa do ano passado na Florida State University foi uma tragédia, mas o ChatGPT não é responsável por este crime terrível”. Ela disse que a empresa entrou em contato para compartilhar informações sobre a conta do suposto atirador com as autoridades após o tiroteio e continua a cooperar com as autoridades.
O escritório de Uthmeier está emitindo intimações à OpenAI em busca de informações sobre suas políticas e materiais de treinamento interno relacionados às ameaças de danos aos usuários e como ela coopera e relata crimes às autoridades, desde março de 2024. Na coletiva de imprensa, Uthmeier reconheceu que a investigação está entrando em território desconhecido e não tem certeza se a OpenAI tem responsabilidade criminal.
“Vamos analisar quem sabia o quê, projetou o quê ou deveria ter feito o quê”, disse ele. “E se estiver claro que os indivíduos sabiam que este tipo de comportamento perigoso poderia ocorrer, que estes tipos de eventos infelizes e trágicos poderiam ocorrer, e mesmo assim geraram lucro, ainda permitiram que este negócio funcionasse, então as pessoas precisam ser responsabilizadas.”
Waters, da OpenAI, disse que o chatbot “forneceu respostas factuais a perguntas com informações que poderiam ser encontradas amplamente em fontes públicas na Internet e não encorajou ou promoveu atividades ilegais ou prejudiciais”.
Ela continuou: “O ChatGPT é uma ferramenta de uso geral usada por centenas de milhões de pessoas todos os dias para fins legítimos. Trabalhamos continuamente para fortalecer nossas proteções para detectar intenções prejudiciais, limitar o uso indevido e responder adequadamente quando surgirem riscos de segurança”.
Ikner, 21, enfrenta múltiplas acusações de homicídio e tentativa de homicídio pelo tiroteio de abril de 2025 perto do sindicato estudantil no campus de Tallahassee da FSU, onde ele era estudante na época. Seu julgamento está marcado para começar em 19 de outubro. De acordo com documentos judiciais, mais de 200 mensagens de IA foram apresentadas como prova no caso.
Preocupações crescentes com chatbots de IA
A investigação da Flórida ocorre em meio a preocupações crescentes sobre o papel dos chatbots de IA na violência em massa. Uthmeier já havia anunciado uma investigação civil sobre o papel do ChatGPT no tiroteio na FSU, que está em andamento, e os advogados da família de uma das vítimas dizem que planejam processar a OpenAI.
A OpenAI já enfrenta uma ação judicial movida pela família de uma vítima gravemente ferida em um ataque na Colúmbia Britânica em fevereiro de 2026, que matou oito pessoas e feriu dezenas de outras. O suposto atirador discutiu cenários de violência armada com o ChatGPT e até foi banido da plataforma meses antes do tiroteio, mas conseguiu escapar da detecção e criar outra conta, disse a OpenAI às autoridades canadenses.
O Jornal de Wall Street relataram que os sistemas internos da OpenAI sinalizaram as postagens da conta e os funcionários ficaram alarmados o suficiente para considerar alertar as autoridades, mas a empresa decidiu não fazê-lo. A OpenAI disse que está fazendo mudanças para “fortalecer” seu protocolo de encaminhamento de contas às autoridades policiais após o tiroteio no Canadá.
Também estão aumentando os processos judiciais contra a OpenAI e outros fabricantes de chatbots de IA, alegando que eles contribuíram para crises de saúde mental e suicídios. (A OpenAI disse que os casos são “uma situação incrivelmente dolorosa” e que está trabalhando com especialistas em saúde mental para melhorar a forma como o ChatGPT responde a sinais de sofrimento mental ou emocional.)
Um processo por homicídio culposo movido contra o Google em março sobre o suicídio de um homem da Flórida acusa o chatbot Gemini da empresa de pressionar o homem a “encenar um ataque em massa perto do Aeroporto Internacional de Miami”. [and] cometer violência contra estranhos inocentes”, de acordo com documentos judiciais.
Em resposta a esse processo, o Google disse: “Gemini foi projetado para não encorajar a violência no mundo real ou sugerir automutilação. Nossos modelos geralmente funcionam bem nesses tipos de conversas desafiadoras e dedicamos recursos significativos a isso, mas infelizmente eles não são perfeitos. A empresa acrescentou que, neste caso específico, a Gemini “muitas vezes encaminhou o indivíduo para uma linha direta de crise”.






