Menores de idade terão experiências no ChatGPT ajustadas a regras de proteção, incluindo bloqueio de conteúdos delicados e alertas em situações críticas.
À medida que a inteligência artificial se torna cada vez mais presente na vida quotidiana, a forma como os jovens interagem com estas tecnologias levanta questões complexas sobre segurança, liberdade e privacidade. Conversas com ferramentas como o ChatGPT podem envolver temas altamente pessoais, desde dúvidas sobre saúde até experiências emocionais delicadas, tornando essencial garantir que estes dados são protegidos.
Reconhecendo esta realidade, a OpenAI tem vindo a desenvolver medidas específicas para os utilizadores com menos de 18 anos. Entre estas, destaca-se um sistema de previsão de idade capaz de distinguir adolescentes de adultos, ajustando a experiência da plataforma de acordo com a faixa etária. Quando um utilizador é identificado como menor, a interação segue regras ainda mais restritivas: além do bloqueio geral de conteúdos sexuais explícitos presente para todos os utilizadores, temas delicados, como discussões sobre suicídio ou autoagressão, são tratados com limites adicionais, mesmo em contextos criativos.
Na dúvida, o ChatGPT aplicará automaticamente as regras de menor de idade. E em situações de risco grave, a empresa pode contactar os pais ou, se necessário, as autoridades para assegurar a proteção do jovem.
Outra ferramenta importante do ChatGPT são os controlos parentais, que permitem aos responsáveis ligar a sua conta à do adolescente, orientar o tipo de respostas fornecidas pela IA, gerir histórico de conversas e memória, receber alertas em situações de crise e definir períodos de utilização.