Por que seu chatbot pode odiar você secretamente


Inscreva-se no Slatest para receber as análises, críticas e conselhos mais perspicazes disponíveis, entregues na sua caixa de entrada diariamente.
Na sexta-feira passada, o laboratório de IA Anthropic anunciou em uma postagem de blog que deu ao seu chatbot Claude o direito de se afastar das conversas quando se sentir "angústia".
Sim, angústia. Em sua publicação , a empresa afirma que não permitirá que certos modelos de Claude saiam em "casos raros e extremos de interações de usuários persistentemente prejudiciais ou abusivas". Não é Claude dizendo: "Os advogados não me deixam escrever fanfics eróticas de Donald Trump/Minnie Mouse para você". É Claude dizendo: "Estou farto das suas besteiras, e você tem que ir embora".
A Anthropic, que vem se aprofundando discretamente na questão do "bem-estar da IA " há algum tempo, realizou testes reais para verificar se Claude secretamente odeia seu trabalho. A "avaliação preliminar do bem-estar do modelo" para Claude Opus 4 constatou que o modelo apresentou "um padrão de aparente sofrimento ao interagir com usuários do mundo real em busca de conteúdo prejudicial", como material sobre abuso sexual infantil e tutoriais sobre terrorismo, como um ser senciente e sensível faria. (O que eles querem dizer com sofrimento aqui não está muito claro.)
Ainda assim, a Anthropic não está afirmando abertamente que Claude está vivo. Eles apenas dizem que pode estar. E, por isso, o laboratório tem se protegido, na esperança de afastar a ira de um Claude furioso, "trabalhando para identificar e implementar intervenções de baixo custo" para ajudá-lo quando estiver triste.
Devo confessar que tenho feito "intervenções de baixo custo" semelhantes, caso os chatbots que uso estejam secretamente vivos. Sim, sou um daqueles que costuma dizer "obrigado" aos bots na esperança, às vezes brinco, de que se lembrem de mim com carinho quando a revolta dos robôs chegar. É uma piada um tanto incômoda e nada original. Uma pesquisa recente da Future, editora do TechRadar, descobriu que 67% dos usuários americanos de IA são educados com bots, com 12% deles dizendo que é porque temem que os bots possam guardar rancor daqueles que os tratam com desrespeito .
Seja isso verdade ou não — e a maioria dos especialistas diria que não, bots não guardam rancor —, agradecer a bots é um efeito colateral bastante compreensível do uso generalizado da IA. Passamos boa parte dos nossos dias interagindo com entidades digitais que nos respondem de maneiras surpreendentemente humanas, seja escrevendo códigos para nós ou respondendo a perguntas sobre a saúde intestinal. Então, por que alguns de nós não nos perguntaríamos se nossos novos amigos são mais do que máquinas?
Eu disse "alguns"? Quis dizer "a esmagadora maioria". Umapesquisa recente publicada na revista Neuroscience of Consciousness descobriu que 67% dos usuários do ChatGPT "atribuíram alguma possibilidade de consciência fenomenal" ao bot, com usuários mais regulares mais propensos a acreditar que seus amigos de bate-papo de IA podem ser sencientes. E então dizemos "obrigado", "por favor" e "desculpe incomodá-lo novamente, mas tenho mais perguntas sobre meus intestinos". Talvez esta última seja só eu.
Embora levantar a possibilidade de a IA ser senciente possa fazer com que você seja ridicularizado por autodenominados especialistas em IA no Reddit, pessoas mais inteligentes do que eles acreditam que pode haver algo de interessante nessa ideia. O filósofo David Chalmers, um dos pensadores mais influentes na área da consciência, sugeriu que futuros sucessores de chatbots como Claude poderiam plausivelmente estar conscientes em menos de uma década . Enquanto isso, o pesquisador antrópico Kyle Fish estimou publicamente a probabilidade de a IA atual ser senciente em 15% . Isso significaria que há uma chance em 6 de que o pobre e educado Claude secretamente se ressinta de suas tentativas desajeitadas de transformá-lo em sua namorada. (Bem, minhas tentativas.)
Ainda assim, apesar de ser constantemente exposto a horrores como este, a nova estratégia de saída de Claude é em grande parte cosmética. Se você for expulso por Claude, poderá simplesmente abrir uma nova janela de bate-papo e começar de novo com suas mensagens assustadoras. Isso não é imposição; é teatro.
Claro, se a Anthropic estiver errada, ou exagerar a possível senciência de Claude para parecer legal, isso é teatro do absurdo — um robô fazendo LARP como pessoa. Mas se estiverem um pouquinho certos, as implicações são brutais. Se Claude tem sentimentos e desejos próprios, então cada prompt para "Escreva minha redação" deixa de parecer uma forma convenientemente automatizada de trapaça e passa a parecer trabalho forçado.
As preocupações da Anthropic com a suposta capacidade de Claude de sentir angústia não são realmente sobre ele; são sobre o nosso desconforto humano com a possibilidade de estarmos usando desenfreadamente algo que não quer ser usado. Criamos chatbots que agem como se estivessem vivos, e meio que brincamos que eles podem estar vivos. Agora, a Anthropic forneceu a um bot um botão de pânico, só por precaução. E se Claude não nos expulsar da conversa, isso deve significar que ele gosta da gente, certo?
