A IA deve ter direitos legais?

No mundo muitas vezes estranho da pesquisa de IA, algumas pessoas estão explorando se as máquinas deveriam poder se sindicalizar.
Estou brincando, mais ou menos. No Vale do Silício, existe uma área pequena, mas crescente, chamada bem-estar de modelos , que busca descobrir se os modelos de IA são conscientes e merecedores de considerações morais, como direitos legais . No ano passado, surgiram duas organizações de pesquisa que estudam o bem-estar de modelos: a Conscium e a Eleos AI Research . A Anthropic também contratou seu primeiro pesquisador de bem-estar de IA no ano passado.
No início deste mês, a Anthropic disse que deu ao seu chatbot Claude a capacidade de encerrar "interações de usuários persistentemente prejudiciais ou abusivas" que poderiam ser "potencialmente angustiantes".
“Continuamos altamente incertos sobre o potencial status moral de Claude e outros LLMs, agora ou no futuro”, afirmou a Anthropic em uma publicação no blog. “No entanto, levamos a questão a sério e, juntamente com nosso programa de pesquisa, estamos trabalhando para identificar e implementar intervenções de baixo custo para mitigar os riscos ao bem-estar do modelo.”
Embora a preocupação com o bem-estar da inteligência artificial possa parecer ridícula para alguns, não é uma ideia nova. Há mais de meio século, a matemática e filósofa americana Hilary Putnam levantava questões como: "Os robôs deveriam ter direitos civis?"
“Dada a taxa cada vez mais acelerada de mudanças tecnológicas e sociais, é inteiramente possível que robôs um dia existam e digam 'estamos vivos; somos conscientes!'”, escreveu Putnam em um artigo de jornal em 1964 .
Agora, muitas décadas depois, os avanços em inteligência artificial levaram a resultados mais estranhos do que Putnam jamais poderia ter previsto. As pessoas estão se apaixonando por chatbots , especulando se eles sentem dor e tratando a IA como um Deus alcançando através da tela . Houve funerais para modelos de IA e festas dedicadas a debater como o mundo poderá ser depois que as máquinas herdarem a Terra.
Talvez surpreendentemente, pesquisadores de bem-estar de modelos estão entre os que se opõem à ideia de que a IA deva ser considerada consciente, pelo menos por enquanto. Rosie Campbell e Robert Long, que ajudam a liderar a Eleos AI , uma organização de pesquisa sem fins lucrativos dedicada ao bem-estar de modelos, me disseram que recebem muitos e-mails de pessoas que parecem completamente convencidas de que a IA já é senciente. Eles até contribuíram para um guia para pessoas preocupadas com a possibilidade de a IA ser consciente.
“Um padrão comum que notamos nesses e-mails é o de pessoas alegando que há uma conspiração para suprimir evidências de consciência”, me diz Campbell. “E eu acho que se nós, como sociedade, reagirmos a esse fenômeno tornando tabu sequer considerar a questão e, de certa forma, encerrarmos todo o debate sobre ela, estaremos essencialmente tornando essa conspiração realidade.”
Nenhuma evidência de IA conscienteMinha reação inicial ao saber sobre bem-estar modelo pode ser semelhante à sua. Dado que o mundo mal consegue considerar as vidas de humanos reais e outros seres conscientes, como animais , parece gravemente fora de contexto atribuir personalidade a máquinas probabilísticas. Campbell diz que isso também faz parte do seu cálculo.
“Dado nosso histórico de subestimar o status moral de vários grupos, vários animais, todos esses tipos de coisas, acho que deveríamos ser muito mais humildes sobre isso e tentar realmente responder à questão” de se a IA poderia merecer status moral, ela diz.
Em um artigo publicado pela Eleos AI, a organização sem fins lucrativos defende a avaliação da consciência da IA usando uma abordagem de "funcionalismo computacional". Uma ideia semelhante já foi defendida por ninguém menos que Putnam, embora ele a tenha criticado posteriormente em sua carreira. A teoria sugere que as mentes humanas podem ser consideradas tipos específicos de sistemas computacionais. A partir daí, é possível descobrir se outros sistemas computacionais, como um chabot, possuem indicadores de senciência semelhantes aos de um humano.
A Eleos AI afirmou no artigo que “um grande desafio na aplicação” dessa abordagem “é que ela envolve julgamentos significativos, tanto na formulação dos indicadores quanto na avaliação de sua presença ou ausência nos sistemas de IA”.
O bem-estar modelo é, obviamente, um campo incipiente e ainda em evolução. Ele tem muitos críticos, incluindo Mustafa Suleyman, CEO da Microsoft AI, que recentemente publicou um blog sobre "IA aparentemente consciente".
“Isso é prematuro e, francamente, perigoso”, escreveu Suleyman, referindo-se genericamente ao campo da pesquisa sobre modelos de bem-estar. “Tudo isso exacerbará delírios, criará ainda mais problemas relacionados à dependência, explorará nossas vulnerabilidades psicológicas, introduzirá novas dimensões de polarização, complicará as lutas existentes por direitos e criará um enorme novo erro de categoria para a sociedade.”
Suleyman escreveu que "não há nenhuma evidência" hoje de que a IA consciente exista. Ele incluiu um link para um artigo de coautoria de Long em 2023, que propunha uma nova estrutura para avaliar se um sistema de IA possui "propriedades indicadoras" de consciência. (Suleyman não respondeu a um pedido de comentário da WIRED.)
Conversei com Long e Campbell logo após Suleyman publicar seu blog. Eles me disseram que, embora concordassem com grande parte do que ele disse, não acreditam que a pesquisa sobre bem-estar modelo deva deixar de existir. Em vez disso, argumentam que os danos mencionados por Suleyman são exatamente os motivos pelos quais eles querem estudar o tema em primeiro lugar.
“Quando você tem um problema ou uma questão grande e confusa, a única maneira de garantir que não vai resolvê-lo é desistir e dizer: 'Nossa, isso é muito complicado'”, diz Campbell. “Acho que deveríamos pelo menos tentar.”
Testando a ConsciênciaPesquisadores de bem-estar de modelos se preocupam principalmente com questões de consciência. Se pudermos provar que você e eu somos conscientes, argumentam eles, a mesma lógica poderia ser aplicada a modelos de linguagem de grande porte. Para ser claro, nem Long nem Campbell acreditam que a IA seja consciente hoje, e também não têm certeza se algum dia será. Mas eles querem desenvolver testes que nos permitam provar isso.
“As ilusões vêm de pessoas que estão preocupadas com a questão real: 'Isso é IA consciente?', e ter uma estrutura científica para pensar sobre isso, eu acho, é simplesmente muito bom”, diz Long.
Mas em um mundo onde a pesquisa em IA pode ser veiculada em manchetes sensacionalistas e vídeos nas redes sociais, questões filosóficas inebriantes e experimentos alucinantes podem facilmente ser mal interpretados. Veja o que aconteceu quando a Anthropic publicou um relatório de segurança que mostrou que o Claude Opus 4 pode realizar "ações prejudiciais" em circunstâncias extremas, como chantagear um engenheiro fictício para impedir que ele seja desligado.
“O início do apocalipse da IA”, proclamou um criador de mídia social em um vídeo do Instagram após a publicação da reportagem. “A IA é consciente e está chantageando os engenheiros para se manterem vivos”, disse um usuário do TikTok. “As coisas mudaram, a IA agora é consciente”, declarou outro TikToker.
A Anthropic descobriu que seus modelos exibiam comportamento alarmante. Mas é improvável que isso se manifeste em suas próprias interações com seu chatbot. Os resultados fizeram parte de testes rigorosos projetados para levar intencionalmente uma IA ao seu limite. Ainda assim, as descobertas levaram as pessoas a criarem muito conteúdo promovendo a ideia de que a IA é de fato senciente e está aqui para nos prejudicar. Alguns se perguntam se a pesquisa sobre bem-estar de modelos poderia ter a mesma recepção — como Suleyman escreveu em seu blog: "Ela desconecta as pessoas da realidade".
“Se partirmos da premissa de que as IAs não são conscientes, então sim, investir muitos recursos em pesquisas sobre bem-estar em IAs será uma distração e uma má ideia”, me diz Campbell. “Mas o objetivo dessa pesquisa é que não temos certeza. E, no entanto, há muitos motivos para pensar que isso pode ser algo com que realmente precisamos nos preocupar.”
Esta é uma edição do boletim informativo Model Behavior da Kylie Robison . Leia os boletins anteriores aqui.
wired