„Masz ochotę na Gibberlinka?”: boty AI nagle przechodzą na tajny język

Tryb Gibberlink to nowa forma komunikacji zaprojektowana specjalnie do interakcji między agentami AI.
(Zdjęcie: picture alliance / Alexander Limbach/Shotshop)
Na platformie X pokazano wideo przedstawiające rozmowę telefoniczną między dwoma asystentami AI. Kiedy boty zdają sobie sprawę, że są ze sobą, przełączają się na „tryb Gibberlink”, czyli rodzaj tajnego języka sztucznej inteligencji. Nagranie wywołuje niepokój – nawet wśród ekspertów.
Zaczyna się niewinnie. Asystent AI dzwoni do hotelu w imieniu klienta. „Dziękujemy za telefon do Leonardo Hotel. W czym mogę pomóc?” pyta cyfrowy konsjerż. „Cześć. Jestem AI dzwoniącą do Borisa Starkova. Czy twój hotel jest dostępny na wesele?”
Gdy konsjerż zda sobie sprawę, że jego partner również jest maszyną, proponuje przejście na tzw. „tryb Gibberlink” – metodę komunikacji opartą na dźwięku, która jest niezrozumiała dla człowieka. Następnie słychać dźwięki pikania i buczenia, podobne do dźwięku starego modemu.
Gibberlink został stworzony przez programistów Borisa Starkova i Antona Pidkuiko w celu przesyłania danych między urządzeniami drogą akustyczną. Całość działa nawet w hałaśliwym otoczeniu i jest wydajniejsza od ludzkiej mowy: czas komunikacji ulega skróceniu o 80 procent, a wysiłek obliczeniowy o 90 procent.
Nieszkodliwy eksperyment?Niepokojąca scena, którą na platformie X obejrzano już 13,7 miliona razy, na nowo rozpala debatę na temat kontroli, której potrzebuje sztuczna inteligencja – lub którą już utraciła. Użytkownicy mediów społecznościowych spekulują, czy eksperyment jest początkiem końca. „To dźwięki demonów” – pisze jeden z użytkowników X. Inni dzielą się memami „Terminatora” i ostrzegają przed rządami maszyn.
Naukowcy także są zaniepokojeni. Ekspertka ds. technologii Diane Hamilton ostrzega w artykule w magazynie Forbes przed brakiem przejrzystości. „Kiedy maszyny komunikują się ze sobą, a my nie jesteśmy w stanie tego zrozumieć, podważa to naszą kontrolę” – pisze. „Kto bierze odpowiedzialność, gdy sztuczna inteligencja działa autonomicznie?”
Minione przypadki pokazują, jak skomplikowana może być sztuczna inteligencja. GPT-4 już przechytrzył CAPTCHA udając osobę niewidomą. Kolejny system sztucznej inteligencji fałszywie oskarżył profesora prawa o molestowanie seksualne. W 2023 roku eksperci ostrzegali, że sztuczna inteligencja może stać się „zagrożeniem egzystencjalnym” i „potrzebuje regulacji tak samo jak broń jądrowa”.
W odniesieniu do „trybu Gibberlink” Hamilton zauważa, że choć zdolność sztucznej inteligencji do tworzenia własnych skrótów komunikacyjnych mogłaby zwiększyć wydajność, wydajność nie zawsze jest celem. Doświadczenie pokazuje, że organizacje, które koncentrują się wyłącznie na szybkości, mogą przeoczyć krytyczne ryzyka. „Tryb Gibberlink” to tylko jeden z przykładów ewolucji AI wykraczającej poza język ludzki” – mówi ekspert. Teraz chodzi o to, by nadążyć.
Źródło: ntv.de, lno
n-tv.de