Imposto de Renda
Famílias de vítimas processam dona do ChatGPT por massacre que deixou 8 mortos no Canadá
RCPB Contabilidade Construtiva e Estratégica
Famílias de vítimas processam dona do ChatGPT por massacre que deixou 8 mortos no Canadá
Fonte: G1 Economia | Publicado em: 29/04/2026 12:05
Tecnologia Famílias de vítimas processam dona do ChatGPT por massacre que deixou 8 mortos no Canadá Tiroteio em Tumbler Ridge, em fevereiro, matou várias crianças. Ações judiciais dizem que o ChatGPT identificou a atiradora como uma possível ameaça, meses antes do ataque, mas não alertou a polícia. Por Reuters
Homenagem às vítimas do massacre que deixou nove mortos em uma escola de Tumbler Ridge, no Canadá, em fevereiro de 2026 — Foto: Christinne Muschi/The Canadian Press via AP
Familiares das vítimas de um dos massacres mais mortais da história do Canadá entraram com um processo contra a OpenAI, dona do ChatGPT, e o CEO Altman, em um tribunal dos EUA, nesta quarta-feira (29).
No massacre ocorrido em fevereiro em Tumbler Ridge, na Colúmbia Britânica, uma atiradora matou oito pessoas, muitas deles crianças, e cometeu suicídio em seguida.
Segundo a alegação dos familiares, a empresa identificou a atiradora, chamada Jesse Van Rootselaar, como uma potencial ameaça oito meses antes do ataque, mas não alertou a polícia.
Na semana passada, um jornal local de Tumbler Ridge publicou uma carta aberta na qual Altman disse estar “profundamente arrependido” pelo fato de a conta da atiradora não ter sido sinalizada às autoridades.
As ações judiciais, apresentadas no tribunal federal de São Francisco, acusam os líderes da OpenAI de não alertarem a polícia porque isso iria expor o volume de conversas relacionadas à violência no ChatGPT e poderia colocar em risco o caminho da empresa de buscar uma oferta pública inicial de quase US$ 1 trilhão.
Um porta-voz da OpenAI classificou o tiroteio como “uma tragédia” e disse que a empresa tem uma política de tolerância zero para o uso de suas ferramentas na facilitação de atos violentos.
“Como compartilhamos com as autoridades canadenses, já fortalecemos nossas salvaguardas, incluindo a melhoria de como o ChatGPT responde a sinais de angústia, conectando pessoas com suporte local e recursos de saúde mental, reforçando como avaliamos e escalamos ameaças potenciais de violência e aprimorando a detecção de reincidência de violadores de políticas”, disse o porta-voz em comunicado.
Os casos fazem parte de uma onda crescente de processos acusando empresas de inteligência artificial de não prevenirem interações em chatbots que, segundo os autores, contribuem para automutilação, doenças mentais e violência.
Essas acusações são as primeiras, nos EUA, a alegar que o ChatGPT teve um papel na facilitação de um massacre.
Jay Edelson, que representa os autores do processo, disse que planeja apresentar mais duas dezenas de ações judiciais nas próximas semanas contra a OpenAI, em nome de outras pessoas impactadas pelo tiroteio.
Jesse Van Rootselaar, cujas interações com o ChatGPT estão no centro dos processos, atirou em sua mãe e meio-irmão em casa antes de matar uma assistente educacional e cinco alunos de 12 a 13 anos em sua antiga escola em 10 de fevereiro, segundo a polícia.
Os autores do processo incluem familiares dos mortos na escola e uma menina de 12 anos que sobreviveu após ser baleada três vezes, mas permanece em terapia intensiva.
De acordo com uma das queixas, os sistemas automatizados da OpenAI, em junho de 2025, sinalizaram conversas no ChatGPT nas quais a atiradora descrevia cenários de violência armada.
Membros da equipe de segurança recomendaram contatar a polícia após concluírem que ela representava uma ameaça crível e iminente de dano, segundo a queixa, que cita um artigo do Wall Street Journal de fevereiro sobre discussões internas da empresa.
Mas Sam Altman e outros líderes da OpenAI teriam ignorado a recomendação da equipe de segurança e a polícia nunca foi chamada, alega o processo.
A conta da atiradora foi desativada, mas ela conseguiu criar uma nova conta e continuar usando a plataforma para planejar o ataque, afirma o processo.
Após a publicação do artigo do Wall Street Journal, a empresa disse que a conta foi sinalizada por sistemas que identificam “usos indevidos de nossos modelos para atividades violentas”, mas que as questões não atenderam aos critérios internos para notificação às autoridades.
Em um blog publicado na terça-feira (28), a OpenAI disse que treina seus modelos para recusar solicitações que possam “facilitar significativamente a violência” e notifica as autoridades quando conversas sugerem “um risco iminente e crível de dano a outros”, com especialistas em saúde mental ajudando a avaliar casos limítrofes.
A empresa afirmou que continuamente aprimora seus modelos e métodos de detecção com base no uso e em opiniões de especialistas.
Os processos buscam uma quantia não revelada publicamente em indenizações e uma ordem judicial exigindo que a OpenAI reformule suas práticas de segurança, incluindo protocolos obrigatórios de notificação às autoridades.
Uma das vítimas inicialmente entrou com uma ação no Canadá, mas desistiu e acabou decidindo processar na Califórnia, segundo Edelson.
Os processos relacionados ao tiroteio em Tumbler Ridge ocorrem após várias ações judiciais terem sido movidas contra a OpenAI em tribunais estaduais e federais dos EUA nos últimos meses, alegando que o ChatGPT facilitou comportamentos prejudiciais, suicídio e, em pelo menos um caso, um assassinato seguido de suicídio.
Os processos, que ainda estão em fases iniciais, pressionarão os tribunais a lidar com o papel que uma plataforma de IA pode desempenhar na promoção da violência e se a empresa pode ser responsabilizada por suas ações ou pelas ações de seus usuários.
A OpenAI negou as alegações nos processos, argumentando, no caso do assassinato-suicídio, que o autor tinha um longo histórico de doença mental.
O procurador-geral da Flórida, James Uthmeier, anunciou no início deste mês uma investigação criminal sobre o papel do ChatGPT em um tiroteio ocorrido em 2025 na Universidade Estadual da Flórida.
Há 1 hora Política Flávio pergunta se presos por tentativa de golpe são ameaça à democraciaHá 1 horaMessias: STF não deve ser ‘Procon da política’, mas ‘não pode ser omisso’Há 1 horaServidor de carreira, AGU de Lula: quem é o indicado a ministro do STFHá 1 horaSADI: expectativa é de que Messias seja aprovado, mas com placar apertado
Há 38 minutos Blog da Andréia Sadi VALDO: oposição tenta impor derrota dupla a Lula na semanaHá 38 minutosSaiba quem indicou cada ministro do STFHá 38 minutosEleições 2026Quaest em SP: Tarcísio lidera no 1º e 2º turno contra Haddad
Há 2 horas Eleições 2026 em São Paulo 54% aprovam e 29% desaprovam governo Tarcísio em SPHá 2 horasPara o Senado, Tebet, Marina Silva, Márcio França e Derrite lideramHá 2 horasQuaest na Bahia: ACM Neto e Jerônimo Rodrigues têm empate técnico
Há 4 horas Eleições 2026 na Bahia Rui Costa e Jaques Wagner lideram a disputa para o SenadoHá 4 horas56% dos baianos aprovam o governo Jerônimo; 33% desaprovamHá 4 horasPonto a pontoEntenda o caso das malas sem raio-X em voo com Ciro Nogueira e Motta
Há 9 horas Política FOTOS mostram bagagens passando sem fiscalizaçãoHá 9 horasA diva já está aquiShakira chega ao Brasil para megashow na Praia de Copacabana
Há 51 minutos Todo mundo no rio Saiba como concorrer a ingressos para assistir ao show na área VIPHá 51 minutosShow da Shakira no Rio 👱🏼♀️🐺🎤
Há 2 horas Tecnologia O que explica a treta entre os ex-amigos Musk e Sam Altman, do ChatGPTHá 2 horasCrítica a bilionários da tecnologiaMuseu põe Musk e Zuckerberg como cães-robôs que fazem ‘cocô artístico’
