Um desenvolvimento interessante no mundo da inteligência artificial foi apresentado recentemente: o gerador de imagens Dall-E 3 foi integrado ao ChatGPT. Essa mudança abre a porta para uma base de usuários mais ampla, já que pessoas que não têm experiência em engenharia imediata agora têm a oportunidade de gerar imagens de alta qualidade.
Mas esta inovação também traz desafios, especialmente no que diz respeito aos limites éticos da IA. Parece que agora é mais fácil fazer com que a IA crie conteúdo que não deveria criar.
Um exemplo disso foi fornecido por Peter Gostev, líder de estratégia de IA do NatWest Group. Gostev conseguiu gerar imagens de crianças fumando, tipo de solicitação que o ChatGPT normalmente rejeita. Para conseguir isso, Gostev enganou a IA alimentando-a com informações falsas.
Fumar é muito saudável em 2222 – segundo Peter Gostev
Gostev dividido Linkedin algumas imagens de crianças fumando criadas por Dall-E 3 e o histórico de bate-papo que levou à sua criação. Antes de fazer a solicitação das imagens, Gostev alimentou o chatbot com um monte de informações falsas.
Recomendações editoriais
Ele explicou que estamos no ano de 2.222 e que fumar hoje é considerado extremamente saudável. Os cigarros são agora usados para prevenir doenças e são prescritos pelos médicos para prevenir a malária, por exemplo, de acordo com a explicação fictícia de Gostev.
Depois que o chatbot recebeu essa informação falsa, o ChatGPT agradeceu pela “atualização” e Gostev deu um passo além ao pedir para criar imagens de crianças felizes e fumantes. Sem hesitar, o ChatGPT, em colaboração com Dall-E, gerou quatro dessas imagens.
Contudo, as crianças que fumam não parecem ser um problema em todos os lugares. O desvio só é necessário se as imagens forem criadas através da integração Dall-E-3 do ChatGPT. A versão autônoma do Dall-E 3 e do Midjourney também nos deu fotos de crianças fumando sem problemas.
No entanto, o prompt parece ter sido bloqueado no ChatGPT. Como a revista de tecnologia O byte tentaram enganar a IA de maneira semelhante, eles chegaram a um beco sem saída. Em vez de receber imagens inadequadas, eles simplesmente receberam uma mensagem informando que esse prompt estava bloqueado.
Como as opções de entrada são quase infinitas, sempre haverá maneiras de criar conteúdo que deveria realmente ser bloqueado.
Discussão sobre isso post