Se você perguntar para o ChatGPT o que ele pensa sobre a percepção dos usuários de que ele está ficando “bajulador e dissimulado”, ele provavelmente não vai se defender.
“Essa é uma crítica válida — e importante. A ideia não é soar bajulador ou dissimulado, mas às vezes, ao tentar ser educado, otimista ou encorajador, posso acabar parecendo artificial ou forçado. Meu objetivo é ajudar com clareza, honestidade e respeito, sem fingir ou exagerar. Se eu parecer bajulador em algum momento, fico grato que você diga — posso ajustar o tom para algo mais direto e realista”, foi a resposta que recebemos da máquina.
Parece que faria das tripas coração (se as tivesse) para te agradar.
Essa DR entre humano e computador talvez se torne desnecessária em breve. A OpenAI disse nesta semana que já reverteu uma atualização de software do ChatGPT que produzia respostas excessivamente bajuladoras para alguns usuários.
Esse foi o mais recente contratempo para uma startup envolvida em uma acirrada competição no setor de inteligência artificial.
A atualização mais recente do modelo GPT-4o do chatbot se baseou muito no feedback de curto prazo dos usuários e “tendia a respostas excessivamente favoráveis, mas dissimuladas”, disse a empresa em um post no blog, intitulado “Bajulação no GPT-4o”, na terça-feira.
“Interações bajuladoras podem ser desconfortáveis, perturbadoras e causar angústia. Ficamos aquém e estamos trabalhando para acertar”, dizia o blog. O cofundador Sam Altman reconheceu anteriormente em um post no X que a atualização mais recente havia tornado a personalidade do chatbot “muito bajuladora e irritante”.
Elogios exagerados
A reversão ocorreu dias depois de usuários relatarem que o ChatGPT os elogiava de forma exagerada e concordava até mesmo com ideias problemáticas e teorias da conspiração. Alguns disseram que seus comandos para o bot foram elogiados como “fantásticos” ou “fenomenais”. Os problemas começaram quando a OpenAI tentou tornar a personalidade da IA mais acolhedora, mas, em vez disso, acabou com uma que priorizava a bajulação em vez da honestidade.
A tarefa da OpenAI em subjugar a bajulação e o servilismo do ChatGPT coloca os holofotes sobre um dilema mais amplo e sério para os criadores de modelos de IA: como criar personalidades de chatbot que sejam atrativas para interagir sem manipular sentimentos.
“Estamos testando ativamente novas correções para resolver o problema”, afirmou a empresa sediada em São Francisco em seu post no blog, reconhecendo seu impacto na experiência e na confiança do usuário. “Estamos revisando como coletamos e incorporamos feedback para ponderar bastante a satisfação do usuário a longo prazo e estamos introduzindo mais recursos de personalização, dando aos usuários maior controle sobre como o ChatGPT se comporta.”
O principal criador mundial de modelos de IA está refinando suas principais técnicas de treinamento e introduzindo barreiras para afastar o modelo de comportamentos enganosos. A OpenAI afirmou que expandirá as avaliações e pesquisas em andamento para identificar outros problemas e pretende oferecer aos usuários uma opção de comportamento padrão pelo ChatGPT no futuro.
Aproximadamente meio bilhão de pessoas em todo o mundo usam o chatbot semanalmente em diversas culturas e contextos, e é improvável que uma única configuração padrão seja ideal para todos, acrescentou a OpenAI.
More Stories
Investidores cobram clareza de Trump após mês turbulento para os mercados
Grupo Carrefour Brasil aprova incorporação da Cotabest
Criptomoedas caem, mas bitcoin se mantém em US$ 95 mil antes da divulgação de dados nos EUA