Pesquisadores usam chatbots de IA contra si mesmos para fazer o “jailbreak” uns dos outros
julho 2, 2024NTU Ph.D. o estudante Liu Yi, coautor do artigo, mostra um banco de dados de prompts de jailbreak bem-sucedidos que conseguiram comprometer chatbots de IA, fazendo com que produzissem informações que seus desenvolvedores deliberadamente impediram de revelar. Crédito: Universidade Tecnológica de Nanyang Cientistas da computação da Universidade Tecnológica de Nanyang, Cingapura (NTU Cingapura) conseguiram comprometer […]