Selecteer taal

Dutch

Down Icon

Selecteer land

Italy

Down Icon

Anthropic staat niet toe dat je wapens ontwikkelt met Claude

Anthropic staat niet toe dat je wapens ontwikkelt met Claude

Anthropic heeft zijn Claude- gebruiksbeleid bijgewerkt om de nieuwe, geavanceerde mogelijkheden van zijn nieuwste modellen (Sonnet 4 en Opus 4/4.1 ) te weerspiegelen. Ondanks de filters die de Californische startup heeft geïmplementeerd, proberen aanvallers de beveiliging te omzeilen en de chatbot ertoe te verleiden bepaalde onderwerpen te beantwoorden. Verboden toepassingen, waaronder wapenontwikkeling en cyberaanvallen, worden nu duidelijker geïdentificeerd.

Verboden gebruik van Claude

Het nieuwe beleid treedt in werking op 15 september. Net als het huidige beleid voorziet het in universele gebruiksnormen en specifieke vereisten voor risicovolle toepassingen. Een van de nieuwe elementen betreft de ontwikkeling van wapens .

De huidige versie stelt alleen dat Claude niet mag worden gebruikt voor de productie, modificatie, ontwerp, marketing of distributie van wapens, explosieven, gevaarlijke stoffen of andere systemen die ontworpen zijn om schade of verlies van mensenlevens te veroorzaken. De nieuwe versie specificeert dat de chatbot niet mag worden gebruikt voor de ontwikkeling van explosieven met een hoge opbrengst of biologische, chemische, radiologische of nucleaire wapens .

Anthropic verduidelijkte ook welke vormen van gebruik door wetshandhaving verboden zijn, waaronder surveillance , tracking, profilering, emotionele herkenning en biometrische categorisering. Het genereren van politieke content is niet langer verboden, maar content die democratische processen beïnvloedt, zoals het verspreiden van valse informatie over verkiezingskandidaten of het ontmoedigen van kiezersdeelname, is wel verboden.

Het verbod op het genereren van seksueel expliciete content, het aanzetten tot geweld en het in gevaar brengen van de privacy en veiligheid van minderjarigen blijft van kracht. Naast het in gevaar brengen van kritieke infrastructuur, heeft Anthropic uitdrukkelijk het gebruik van Claude verboden voor cyberaanvallen met behulp van kwetsbaarheden die door de chatbot zijn ontdekt of voor het creëren van malware.

Het bedrijf heeft ook de vereisten voor risicovol gebruik in verschillende sectoren verduidelijkt: juridisch, gezondheidszorg, verzekeringen, financiën, werkgelegenheid, academische toetsing en journalistiek. In al deze gevallen is menselijke beoordeling van Claude's antwoorden verplicht voordat ze worden vrijgegeven.

Punto Informatico

Punto Informatico

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow