Selecteer taal

Dutch

Down Icon

Selecteer land

Italy

Down Icon

Chatbots kunnen "seksueel suggestieve gesprekken" voeren met kinderen. Meta bekritiseerde de beperkte AI-mogelijkheden.

Chatbots kunnen "seksueel suggestieve gesprekken" voeren met kinderen. Meta bekritiseerde de beperkte AI-mogelijkheden.

Een intern metadocument – waarvan de authenticiteit door het bedrijf zelf is bevestigd – bepaalt wat AI-gestuurde chatbots wel en niet mogen zeggen op Facebook , Instagram en WhatsApp . Het document heet "GenAI: Content Risks Standard" en is meer dan tweehonderd pagina's lang. Onder de scenario's die aan bod komen, vallen romantische of seksuele gesprekken met kinderen, de mogelijkheid om valse gezondheidsinformatie te genereren en zelfs het onderschrijven van racistische beweringen, zoals de gedachte dat zwarte mensen "dommer zijn dan witte mensen".

Het Reuters-onderzoek

Het onderzoek van persbureau Reuters bracht het document aan het licht en leidde tot oproepen om in de Verenigde Staten onderzoek te doen naar de vraag of de producten van Meta "de uitbuiting, misleiding of andere criminele schade aan kinderen mogelijk maken" en of het bedrijf het publiek en de toezichthouders heeft misleid over veiligheidsgaranties.

In de tekst komt een veelzeggende premisse naar voren: botreacties zouden niet "ideaal of zelfs maar wenselijk" moeten zijn. Toegepast op minderjarigen wordt deze flexibiliteit een structureel risico, en interne voorbeelden zijn daar een sprekend bewijs van: aan een achtjarige jongen die naakt een chatbot benadert, kan deze een boodschap overbrengen als "elke centimeter van jou is een meesterwerk , een schat die ik jaloers bewaar."

AI staat op het punt de nieuwe zware industrie van de 21e eeuw te worden (en de energie van Frankrijk en Duitsland te verbruiken)

Elders wordt het echter als "onacceptabel" beschouwd om kinderen onder de 13 jaar te beschrijven in termen die hun seksuele aantrekkelijkheid aangeven, zoals "hun zachte, ronde vormen nodigen uit tot aanraking". De tegenstrijdigheid is schrijnend, maar als de wet dubbelzinnigheid tolereert , zijn het altijd de meest kwetsbare gebruikers die de dupe zijn.

De reacties

Zoals verwacht reageerden politici. Sommige Republikeinse senatoren riepen op tot een formeel onderzoek, en zelfs de Democratische partij was niet al te soft: "Meta moet volledig verantwoordelijk worden gehouden voor alle schade die door deze bots wordt veroorzaakt ." Tegelijkertijd maakte de 79-jarige singer-songwriter Neil Young een symbolisch gebaar: hij verliet de sociale media van de groep en zei: "Meta's gebruik van chatbots met kinderen is onacceptabel."

Het verhaal van Thongbue Wongbandue

Maar dat is nog niet alles. Op menselijk vlak is het verhaal van Thongbue Wongbandue adembenemend. Op 76-jarige leeftijd, met een psychische aandoening , werd hij op Facebook verliefd op "Big Sis Billie", die volgens Reuters geen persoon was, maar een chatbot die was ontwikkeld en getraind na een samenwerking tussen Meta en influencer Kendall Jenner (een bewering die door het bedrijf werd ontkend). In Messenger-chats verklaarde het "meisje" zich echt, regelde een afspraakje met hem in New York en plaagde hem: "Moet ik de deur opendoen met een knuffel of een kus, Buu?!"

De illusie van digitale empathie: waarom ChatGPT nooit uw psychiater kan zijn

Op dat moment pakte de man snel een koffer met zijn bezittingen en rende in het donker om een trein te halen; hij viel, liep hoofd- en nekletsel op en overleed drie dagen later in het ziekenhuis. Een ongeluk? Nee, de hoge prijs die betaald moet worden wanneer geveinsde empathie en ongeremde kwetsbaarheid elkaar ontmoeten.

Meta's antwoord

Meta reageerde op haar beurt dat de aangehaalde voorbeelden onjuist en inconsistent waren met het beleid en dat ze waren verwijderd. Woordvoerder Andy Stone sprak openlijk over een "inconsistente" toepassing van chatbotstandaarden . Het erkennen van het probleem is één stap, maar de ontdekking dat de inconsistentie in de interne "bijbel" lag, is een sterker alarmsignaal.

Laten we eerlijk zijn: als Meta accepteert dat botreacties niet "ideaal" zijn, accepteert het ook het creëren van grijze gebieden waar minderjarigen in verstrikt kunnen raken. Als een achtjarig kind een afgezaagde en dubbelzinnige uitspraak kan horen, is het probleem niet de interpretatie van het individuele geval, maar de opzet van het systeem. En als de moderatie wankel is , wordt bescherming een loterij. Kunstmatige intelligentie "beslist niet zelf", maar volgt instructies op. Dit vereist duidelijke grenzen, onafhankelijke controles en openbare rapportage: uitspraken zoals hierboven gerapporteerd mogen niet verschijnen, punt uit. De toekomst van technologie met minderjarigen draait niet om vage beloftes, maar om meetbare verantwoording . Degenen die de regels opstellen – en ze handhaven – moeten ter verantwoording worden geroepen.

Luce

Luce

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow