Limiti antropici Claude: a quali domande non risponde la sua intelligenza artificiale?

Anthropic, l'azienda americana di intelligenza artificiale , ha deciso di rafforzare la sicurezza del suo chatbot Claude , implementando chiari limiti alle tipologie di domande a cui si rifiuterà di rispondere. Questa misura risponde alle preoccupazioni internazionali sui potenziali usi dannosi dell'intelligenza artificiale avanzata .
La politica aggiornata amplia i divieti esistenti, includendo esplicitamente il divieto di sviluppare esplosivi ad alto potenziale e armi biologiche, nucleari, chimiche o radiologiche (CBRN) . In precedenza, a Claude era vietato produrre o distribuire materiali pericolosi, ma le nuove normative specificano ulteriormente gli scenari di rischio.
Da maggio 2025, con l'arrivo di Claude Opus 4 e l'implementazione del sistema AI Safety Level 3 , Anthropic cerca di rendere difficile la compromissione del modello o il suo utilizzo per fornire consulenza sulla creazione di armi CBRN .
L'azienda ha anche aggiornato le regole relative alle funzionalità avanzate di Claude, come "Computer Use" , che consente all'IA di interagire con il computer dell'utente, e "Claude Code" , rivolto agli sviluppatori. Anthropic ha messo in guardia dai rischi di queste funzionalità, tra cui abusi diffusi, creazione di malware e attacchi informatici .
Una nuova funzionalità significativa è la sezione "Non compromettere computer o sistemi di rete" , che proibisce attività come il rilevamento di vulnerabilità, la distribuzione di codice dannoso o attacchi denial-of-service. Questo limita gli scenari in cui Claude potrebbe essere utilizzato come strumento per sofisticati crimini informatici .
In ambito politico, le normative si stanno evolvendo: Anthropic ora regolamenta solo i contenuti fuorvianti o che interferiscono con i processi democratici , anziché vietare qualsiasi campagna politica o attività di lobbying. I requisiti di sicurezza più stringenti si applicano solo alle attività rivolte ai consumatori , non agli ambienti business-to-business.
L'aggiornamento coincide con i miglioramenti tecnici di Claude, che ora ha una finestra di contesto di 1 milione di token nella sua versione Sonnet 4 , equivalenti a 750.000 parole o 75.000 righe di codice . Questo limite è cinque volte superiore alla capacità precedente e supera persino il GPT-5 di OpenAI .
Brad Abrams, product manager di Anthropic, ha sottolineato che questa espansione del contesto è particolarmente utile nello sviluppo e nella codifica , a vantaggio di piattaforme come GitHub Copilot, Windsurf e Cursor di Anysphere . L'intelligenza artificiale può analizzare grandi volumi di dati in tempo reale, facilitando progetti e attività di ingegneria complessi che richiedono un'interpretazione approfondita del codice.
Con questi aggiornamenti, Anthropic cerca di bilanciare innovazione tecnologica e responsabilità etica , garantendo che Claude sia uno strumento potente, ma sicuro e affidabile . Gli utenti devono essere consapevoli dei limiti del modello, soprattutto in contesti ad alto rischio, mentre le aziende possono sfruttare le nuove funzionalità di contesto per progetti su larga scala e analisi di dati complesse .
La Verdad Yucatán