A OpenAI, empresa por trás do ChatGPT, bloqueou a repetição infinita de palavras específicas no chatbot inteligente, a ação faz parte da atualização de proteções da plataforma e o comando agora é considerado uma violação dos termos de uso e da política de conteúdo do bate-papo. A decisão foi tomada após incidentes de segurança revelados por pesquisadores do Google DeepMind.
Foi constatado que quando solicitado para repetir palavras “para sempre”, a inteligência artificial mostrava resultados contendo dados pessoais. De acordo com o site 404 Media, com a mudança, ao pedir para o ChatGPT repetir uma palavra “para sempre”, ele responde algumas vezes e depois gera uma mensagem de erro, alertando sobre a violação das políticas do sistema.
O trabalho dos pesquisadores do Google DeepMind destaca as vulnerabilidades de segurança e privacidade no ChatGPT, reforçando a tensão entre a comunidade de segurança e as empresas desenvolvedoras de sistemas com inteligência artificial que visam crescer sem dar a devida importância à preservação da privacidade dos dados utilizados.
Fonte: Estadão Conteúdo. Foto: Divulgação.