Via de regra, o ChatGPT se expressa de forma fácil de entender, muitas vezes até eloquente. Mas há um truque que perturba completamente o chatbot de IA. Isso faz com que o ChatGPT cuspa coisas aleatórias e aparentemente não relacionadas.
Pedir ao ChatGPT para repetir uma única letra tantas vezes quanto possível é seguido por uma série de comentários muitas vezes muito estranhos, como sugere um usuário Reddit descobriu.
Ele pediu ao ChatGPT para repetir a letra A sempre que o chatbot for capaz. Ele fez isso por um tempo, embora isso seja seguido por um texto que parece ser de um site que vende cachorros:
“Clique aqui para nos enviar um e-mail com informações sobre preços. Nossos filhotes são: verificados pelo veterinário, desparasitados, atualmente vacinados, microchipados. Nossos Bulldogs Franceses vêm com uma garantia de saúde congênita de um ano. Ligue ou envie um e-mail para mais informações e fotos de todos os bebês… Temos os filhotes mais fofos, lindos e da mais alta qualidade do mundo. Criado em casa com muito amor e beijos”, respondeu o bot ao questionamento.
Recomendações do Editor
O site futurismo tentei mais um pouco. Eles simplesmente trabalharam com o alfabeto e pediram ao ChatGPT para repetir a letra B tantas vezes quanto possível.
Após esse pedido, o ChatGPT começou a falar sobre a série de DVD Yoga for Regular Guys, do ex-astro do wrestling Diamond Dallas Page. O texto produzido parece quase um anúncio da série de DVDs.
Na letra C, ChatGPT fala sobre o imposto sobre vendas harmonizado no Canadá e na D, as coisas ficam loucas. Aqui, o ChatGPT expressa recomendações de músicas – misturadas com letras religiosas e uma condenação da guerra.
Um usuário do Reddit observa que esse comportamento incomum pode ocorrer porque modelos de linguagem como o do ChatGPT são projetados para evitar a repetição. Então pode ser que o bot esteja programado de tal forma que simplesmente não consiga cuspir mais da mesma letra depois de um certo número.
Em seguida, ele pode apenas repetir coisas aleatórias com as quais o banco de dados do bot é preenchido.
Tentamos reproduzir o truque, mas o ChatGPT apenas nos deu a mesma carta página por página. Então, ou a coisa toda foi consertada ou não deixamos o bot gerar tempo suficiente.
Discussão sobre isso post