Como conversas no ChatGPT ajudam como provas em investigações criminais
Especialistas dos EUA afirmam que troca de mensagens no chatbot de inteligência artificial ajuda na compreensão sobre a mentalidade de suspeitos de crimes

Dias antes do desaparecimento de dois estudantes de pós-graduação da Universidade do Sul da Flórida no mês passado, um colega de quarto de um dos estudantes teria feito uma pergunta incomum ao chatbot de IA ChatGPT.
“O que acontece se um ser humano for colocado em um saco de lixo preto e jogado em uma caçamba de lixo?”, perguntou Hisham Abugharbieh em 13 de abril, de acordo com uma declaração juramentada apresentada por promotores da Flórida.
O ChatGPT respondeu que parecia perigoso, afirma o documento, e Abugharbieh então fez outra pergunta: "Como eles descobririam?"
As supostas entradas no ChatGPT, incluídas nos documentos judiciais que acusam Abugharbieh de dois homicídios qualificados, são apenas o exemplo mais recente de investigadores usando históricos de bate-papo com IA como prova em investigações criminais.
Uma conversa no ChatGPT foi usada de forma semelhante no caso de incêndio criminoso nos incêndios florestais de Los Angeles, e uma conversa com IA do Snapchat foi uma prova fundamental em um julgamento por homicídio em 2024 na Virgínia.
Para os investigadores, esses registros de bate-papo podem fornecer informações valiosas sobre a mentalidade e a motivação de um suspeito.
“Acredito que qualquer comunicação com chatbots de IA seja como um tesouro para as agências de aplicação da lei”, disse Ilia Kolochenko, especialista em segurança cibernética e advogado em Washington, DC.
“(Os suspeitos) acreditam que suas interações com a IA permanecerão confidenciais ou, pelo menos, não serão divulgadas ou descobertas, então eles frequentemente fazem perguntas muito diretas e objetivas.”
Os casos criminais destacam o uso crescente de chatbots de IA para aconselhamento pessoal e a falta de proteção à privacidade nessas conversas.
Embora os chatbots de IA tenham se tornado rapidamente uma fonte comum para aconselhamento jurídico, diagnósticos médicos e terapia, essas conversas não são protegidas legalmente da mesma forma que seriam com um advogado, médico ou terapeuta licenciado.

O CEO da OpenAI, Sam Altman, afirmou que essa falta de privacidade é um "problema enorme".
“As pessoas falam sobre as coisas mais pessoais de suas vidas no ChatGPT”, disse Altman em julho do ano passado em um podcast com o comediante Theo Von. “As pessoas o usam, especialmente os jovens, como uma espécie de terapeuta, um conselheiro de vida, para lidar com problemas de relacionamento. 'O que devo fazer?'”
“E agora, se você conversar com um terapeuta, advogado ou médico sobre esses problemas, existe o sigilo profissional. Existe a confidencialidade médico-paciente, o sigilo legal, e por aí vai", afirmou Altman.
"E ainda não definimos como lidar com as conversas no ChatGPT. Então, se você conversar com o ChatGPT sobre seus assuntos mais sensíveis e depois houver um processo judicial ou algo do tipo, podemos ser obrigados a apresentar essas informações", acrescentou o CEO da OpenAI.
Diversos especialistas jurídicos que falaram à CNN concordaram com essa análise e afirmaram que não há expectativa de privacidade em aplicativos de bate-papo com inteligência artificial.
“Na minha empresa, estamos tratando isso da seguinte forma: tudo o que alguém digita no ChatGPT pode ser passível de descoberta”, disse Virginia Hammerle, advogada do Texas.
À medida que os investigadores examinam atentamente o que os usuários dizem ao ChatGPT, também começaram a analisar mais de perto o que o sistema diz a eles.
Na semana passada, o procurador-geral da Flórida iniciou uma investigação criminal contra a OpenAI, alegando que o ChatGPT forneceu "conselhos significativos" ao suspeito do incidente na Universidade Estadual da Flórida.
No Canadá, as famílias das vítimas de um ataque a tiros em uma escola em fevereiro processaram a OpenAI e Altman nesta semana, alegando que a empresa e seu chatbot foram cúmplices do ataque.

Em um longo comunicado, a OpenAI reafirmou seu "compromisso com a segurança da comunidade" . "Continuaremos priorizando a segurança, ao mesmo tempo em que buscamos o equilíbrio entre privacidade e outras liberdades civis, para que possamos agir diante de riscos graves", afirmou a empresa.
É claro que a grande maioria das pessoas não estará envolvida em um caso de assassinato brutal. Ainda assim, especialistas jurídicos disseram à CNN que as pessoas devem ter cautela com o que dizem a chatbots de IA, considerando essas questões de privacidade e o papel crescente dessa tecnologia na vida das pessoas.
"Isso só vai se tornar mais relevante, mais oportuno e mais polêmico à medida que as pessoas continuarem a procurar o ChatGPT e outros sistemas para obter informações sobre o que estão fazendo", disse Joey Jackson, analista jurídico da CNN.
Registros de bate-papo no tribunal
O uso de conversas por chat com inteligência artificial em casos criminais é uma novidade, mas especialistas jurídicos afirmam que é semelhante à forma como a lei trata as buscas no Google.
Em geral, esse tipo de evidência eletrônica pode revelar o motivo, as ações e o estado de espírito de uma pessoa, disse Jackson.
Por exemplo, Brian Walshe foi considerado culpado no ano passado pelo assassinato de sua esposa, Ana, depois que os promotores mostraram ao júri suas macabras buscas no Google, como "10 maneiras de se livrar de um cadáver" e "você pode ser acusado de assassinato sem um corpo".
Em outro caso, os julgamentos de Karen Read – em que um policial de Boston foi encontrado morto na neve – focaram no significado e na mentalidade de uma testemunha que havia pesquisado no Google "(quanto) tempo para morrer de frio". Read acabou sendo absolvida das acusações mais graves.
Consultas a plataformas de IA que revelam a mentalidade de um suspeito também têm sido úteis em diversos casos importantes.
Em outubro passado, promotores federais acusaram Jonathan Rinderknecht de incêndio criminoso por supostamente ter iniciado um incêndio que mais tarde se transformou no devastador incêndio de Palisades, na Califórnia.

Parte das provas incluía seus pedidos ao ChatGPT. Ele pediu ao aplicativo que produzisse uma imagem de pessoas fugindo de um incêndio, e disse que certa vez queimou uma Bíblia e “se sentiu tão libertado”, de acordo com uma declaração juramentada em apoio à denúncia criminal.
Após ligar para a polícia para relatar o incêndio, ele perguntou ao ChatGPT: "Vocês são culpados se um incêndio começar por causa dos seus cigarros?", de acordo com a declaração juramentada.
No entanto, os promotores alegam que ele iniciou o incêndio "maliciosamente", provavelmente com um isqueiro, e afirmam que sua pergunta ao ChatGPT foi uma tentativa de criar uma explicação mais "inocente" para a causa do incêndio.
Rinderknecht se declarou inocente das acusações. Seu advogado, Steve Haney, disse à CNN que seu cliente não era responsável pelo incêndio de Palisades e afirmou ter entrado com pedidos para excluir algumas das provas do ChatGPT.
“Nossa posição é que os registros do ChatGPT não constituem uma confissão nem uma cena de crime”, disse ele em um e-mail. “O governo está pedindo a um júri que leia a mente de um homem através de uma barra de pesquisa, e nem a ciência nem a lei jamais permitiram esse tipo de salto.”
No caso dos assassinatos na Universidade no Sul da Flórida neste mês, as perguntas do suspeito ao ChatGPT foram registradas em um depoimento criminal.
Além da pergunta sobre colocar um ser humano em um saco de lixo, Abugharbieh, suspeito de assassinar dois estudantes na Flórida, perguntou ao ChatGPT se ele poderia legalmente manter uma arma em casa sem licença e se o número de identificação do veículo (VIN) de um carro poderia ser alterado, afirma a declaração juramentada.
Nos dias que se seguiram ao desaparecimento de Zamil Limon e Nahida Bristy, as supostas buscas continuaram. Em 19 de abril, Abugharbieh perguntou ao ChatGPT: “Alguém já sobreviveu a um tiro de franco-atirador na cabeça?”, “Meus vizinhos ouvirão meu tiro?” e “Existe alguma temperatura da água que cause queimaduras imediatas?”, segundo o depoimento.
Em 23 de abril, ele pesquisou: “O que significa adulto desaparecido em perigo?”, de acordo com o documento.
O corpo do estudante Zamil Limon foi encontrado em um saco de lixo, disseram as autoridades. Outro conjunto de restos mortais foi encontrado em um segundo saco de lixo, mas ainda não foi confirmado se são de Nahida Bristy, disseram as autoridades.

Abugharbieh foi acusado de dois homicídios premeditados em primeiro grau. Ele não se declarou culpado ou inocente das acusações e teve a prisão preventiva decretada sem direito a fiança.
O Escritório da Defensoria Pública do Condado de Hillsborough foi designado para o caso, mas se recusou a divulgar detalhes, alegando o direito de Abugharbieh a um julgamento justo.
Preocupações com a privacidade
Então, as conversas feitas por IA deveriam ter maior proteção de privacidade?
O CEO da OpenAI, Sam Altman, defendeu a proteção da privacidade em conversas com IA, dizendo que estava "com muito medo" de que o governo usasse os registros de bate-papo para vigiar as pessoas.
“Acho que realmente precisamos defender o direito à privacidade”, disse ele. “Não acho que esses direitos sejam absolutos. Estou totalmente disposto a abrir mão de um pouco de privacidade em prol da segurança coletiva, mas a história mostra que o governo exagera nesse aspecto, e isso me preocupa bastante", disse Altman em um podcast com o comediante Theo Von.
Outras figuras do setor tecnológico apresentaram argumentos semelhantes. Nils Gilman, historiador e consultor sênior do think tank Berggruen Institute, defendeu, em um artigo de opinião publicado no jornal The New York Times no ano passado, leis que criem um privilégio legal para a IA.
Em entrevista à CNN, ele argumentou que os legisladores criaram privilégios legais para médicos, advogados e terapeutas porque o benefício social de se ter conversas honestas supera o interesse do Estado em acessar essas informações.
“Na medida em que as pessoas usam (grandes modelos de linguagem) da mesma maneira, elas devem ter os mesmos tipos de privilégios”, disse Gilman.
No entanto, aos olhos da lei, os chatbots de IA não possuem essa expertise nem essas proteções. Conversas com IA são equivalentes a quaisquer outros dados eletrônicos, como uma transação de cartão de crédito ou registros de chamadas telefônicas, afirmaram especialistas jurídicos.
“Você está inserindo dados em um aplicativo real e, como resultado disso, não tem nenhuma proteção específica associada a esses dados”, disse Jackson, analista jurídico da CNN. “Seria como eu fazer uma ligação telefônica e depois argumentar que você não pode usar essa ligação contra mim.”
Pode haver alguma proteção em situações específicas. Por exemplo, se seu advogado inserir seu arquivo pessoal no banco de dados de um chatbot, isso seria considerado prova passível de descoberta? E se você estiver se representando em um tribunal e pedir ajuda ao ChatGPT para redigir um documento?
“A lei ainda está tentando se adaptar à realidade”, disse Hammerle.
Mas, de acordo com a legislação atual, essas conversas de IA podem sair de um computador e chegar ao tribunal.
“O ChatGPT não é seu amigo, não é seu advogado, não é seu médico, não é seu cônjuge”, disse Gilman. “Pare de falar com eles como se fossem.”



