ChatGPT anuncia ferramenta de controle parental; veja como ativar

Funcionalidade reduz conteúdos sensíveis e oferece opções de limite de horários e bloqueio da geração de imagens

Giovana Christ, da CNN
Pais terão a opção de desativar essa configuração se quiserem, mas usuários adolescentes não poderão fazer alterações
Pais terão a opção de desativar essa configuração se quiserem, mas usuários adolescentes não poderão fazer alterações  • Cottonbro Studio/Pexels
Compartilhar matéria

A OpenAI, empresa criadora do ChatGPT, anunciou nesta terça-feira (30) o lançamento de uma nova ferramenta de controle que permite que os responsáveis por menores consigam regular os conteúdos que aparecem aos adolescentes.

Com o uso da funcionalidade, o aplicativo recebe proteções adicionais de conteúdo — incluindo redução de conteúdo gráfico, desafios virais, encenações sexuais, românticas ou violentas e ideais de beleza extremos.

Os pais terão a opção de desativar essa configuração se quiserem, mas usuários adolescentes não poderão fazer alterações.

Além disso, a ferramenta de controle parental irá avisar o responsável pela conta do adolescente caso identifique sinais de que esteja pensando em se machucar por meio de e-mail, mensagem e texto e alerta por push.

De acordo com a OpenAI, uma funcionalidade de previsão de idade para evitar fraudes está em desenvolvimento para aplicar automaticamente as configurações adequadas de regulação do conteúdo.

Veja como ativar a proteção

Vá em Configurações > Controle Parental e faça o convite para o menor de idade. A partir do aceite da vinculação entre as contas, selecione as opções que deseja regular o conteúdo.

Entre elas estão:

  • Definir horários de silêncio ou específicos em que o ChatGPT não pode ser usado;
  • Remover a opção de usar o modo de voz;
  • Desligar a memória para que o ChatGPT não salve e use memórias ao responder;
  • Remover a geração de imagens;
  • Optar por não participar do treinamento de modelos, para que as conversas dos adolescentes não sejam usadas para melhorar os modelos.