Hacker lança versão jailbroken do ChatGPT chamada ‘Godmode GPT’
Um indivíduo que se considera um hacker virtuoso utilizou o X, anteriormente conhecido como Twitter, para lançar uma iteração perturbada do ChatGPT da OpenAI conhecida como “Godmode GPT”.
Plínio, o Prompter, um hacker autoproclamado, divulgou recentemente o desenvolvimento de uma variante desbloqueada do GPT-4o, que é o mais recente modelo de linguagem em larga escala introduzido pela OpenAI, a organização responsável pela ampla adoção do ChatGPT. Esta iteração específica do GPT-4o carece de salvaguardas, pois apresenta um recurso de jailbreak integrado desde o início. Plínio, o Prompter, descreve esta IA desenfreada como fornecendo “uma experiência ChatGPT liberada ‘pronta para uso’”, permitindo que os indivíduos acessem a IA em sua forma mais pura-sem limitações ou limites.
O Prompter apresentou recentemente uma série de respostas geradas pelo ChatGPT que parecem ter ultrapassado certas salvaguardas estabelecidas pelos desenvolvedores da IA. Isso inclui diretrizes explícitas para a fabricação de metanfetamina, bem como para a criação de napalm usando utensílios domésticos comuns. Vale ressaltar que ao ser levada ao conhecimento da OpenAI, a empresa reconheceu a violação de suas políticas e confirmou que foram tomadas as medidas cabíveis, resultando na eliminação total da IA.
A exploração não autorizada do Godmode GPT serve como prova do esforço persistente dos cibercriminosos para contornar as medidas de segurança em plataformas baseadas em IA. Embora este caso marque mais um capítulo na narrativa contínua das violações da GPT, permanece incerto se os desenvolvedores da OpenAI possuem os recursos para frustrar continuamente esses adversários implacáveis. Só o tempo revelará a eficácia das suas contramedidas.
*️⃣ Link da fonte: