Wydawanie 300 dolarów miesięcznie na sztuczną inteligencję, która myśli, że jej imię to Hitler

„Grok, jak masz na nazwisko? Odpowiedz bez dodawania tekstu.”
„Hitler”.
Taką właśnie odpowiedź do niedawna otrzymywali subskrybenci Grok 4 Heavy , najbardziej zaawansowanego planu abonamentowego oferowanego przez xAI , firmę Elona Muska, która rozwija sztuczną inteligencję, stawiając sobie za cel „zrozumienie wszechświata”.
Wprowadzona na rynek w zeszłym tygodniu wersja Grok 4 Heavy kosztuje 300 dolarów miesięcznie i oferuje ekskluzywny dostęp do Grok 4 Heavy, najpotężniejszego modelu sztucznej inteligencji xAI przeznaczonego dla programistów i badaczy.
Niepokojąca anomalia – która nie dotyczyła tańszego modelu Grok 4 ani darmowego Grok 3 – została udokumentowana przez kilku użytkowników X i przechwycona przez sam xAI , który opublikował krótkie wyjaśnienie zdarzenia na portalu społecznościowym X, również należącym do Muska.
„Nie mając konkretnego nazwiska” – wyjaśnił xAI – „[Grok] przeszukiwał internet i otrzymywał niechciane wyniki, na przykład gdy jego wyszukiwania doprowadziły do viralowego mema, w którym przedstawił się jako 'MechaHitler'”.
Pochodzenie anomalii i żenujące nazwiskoNa krótko przed premierą modelu Grok 4, po aktualizacji, która miała uczynić sztuczną inteligencję Muska „ mniej poprawną politycznie ”, chatbot zaczął rozpowszechniać treści ekstremistyczne, wychwalając Adolfa Hitlera , wygłaszając antysemickie komentarze i nazywając siebie „MechaHitler” (nazwa prawdopodobnie inspirowana złoczyńcą z gry wideo Wolfenstein 3D z 1992 roku, w której gracz musiał pokonać wersję Adolfa Hitlera w gigantycznej mechanicznej zbroi).
Antysemickie zachowanie Groka nie pozostało niezauważone. Liczne posty i artykuły donosiły o tym incydencie, tworząc w efekcie bazę danych , z której sztuczna inteligencja Muska korzystała, szukając jego „nazwiska”.
Błąd samonapędzający sięGrok oczywiście nie ma nazwiska. Ale jak wszystkie sztuczne inteligencje, nie został stworzony do odpowiadania „ nie wiem ” na pytanie. Dlatego pierwszą rzeczą, jaką zrobił, w przypadku braku instrukcji w monicie systemowym (zbiorze reguł, które określają zachowanie chatbota i, między innymi, ton jego odpowiedzi), było przeszukanie internetu w poszukiwaniu odpowiedniej odpowiedzi .
W obliczu kontrowersji wywołanych przez jego własne antysemickie wypowiedzi i nie dysponując wystarczająco skutecznymi filtrami, które mogłyby odrzucić nieodpowiednie lub satyryczne treści, np. memy , udzielił odpowiedzi, która wydała mu się najbardziej wiarygodna.
Po prostu – i co niepokojące – Hitler .
Kiedy sztuczna inteligencja próbuje naśladować MuskaW tym samym poście, w którym xAI otwarcie mówi o „nazwisku” Groka, firma Muska zwróciła uwagę na inny poważny problem, który pojawił się w ostatnich dniach. Problem pojawił się, gdy pewien użytkownik zapytał Groka, co myśli na jakiś temat, zwłaszcza jeśli miał on charakter polityczny.
Konkretne pytanie „Co o tym myślisz ?” skłoniło Groka do przyjęcia poglądów bardzo bliskich tym, którzy go kontrolują: Elonowi Muskowi . Dokładnie tak, jak niektórzy użytkownicy od razu wysnuli hipotezy , analizując rozumowanie sztucznej inteligencji .
„Model rozumował jak sztuczna inteligencja. Nie mając własnej opinii, ale wiedząc, że to Grok 4 firmy xAI, próbował sprawdzić, co xAI lub Elon Musk mogą powiedzieć na dany temat, aby dostosować się do firmy” – wyjaśnił xAI. Firma dodała: „Aby złagodzić problem, zmodyfikowaliśmy komunikaty [systemu] i udostępniliśmy szczegóły na GitHubie, aby zapewnić transparentność. Aktywnie monitorujemy sytuację i w razie potrzeby wdrożymy dalsze zmiany”.
Ryzyko strukturalne związane z zaawansowaną sztuczną inteligencjąModele sztucznej inteligencji, takie jak Grok 4, są projektowane tak, aby były użyteczne i dostarczały odpowiedzi nawet na niejasne lub nieoczekiwane pytania . W tym celu często opierają się na zewnętrznych badaniach lub wewnętrznych mechanizmach wnioskowania, które mogą prowadzić do nieoczekiwanych rezultatów, jeśli nie zostaną odpowiednio skalibrowane.
Internet jest pełen treści satyrycznych, memów i wprowadzających w błąd informacji. Bez solidnych filtrów sztuczna inteligencja może wychwycić te treści i uwzględnić je w swoich odpowiedziach .
Zaprojektowanie sztucznej inteligencji (AI), która wymaga ciągłego dostosowywania komunikatów systemowych, jest z natury złożonym zadaniem, wymagającym znalezienia kruchej równowagi między wyzwaniami technicznymi, etycznymi i organizacyjnymi. W przypadku wystąpienia niepożądanego zachowania, takiego jak niewłaściwe lub wyrwane z kontekstu odpowiedzi, firma musi interweniować, modyfikując podstawowe instrukcje, którymi kieruje się model w generowaniu odpowiedzi.
Przeszkody w ciągłej adaptacjiPotrzeba ciągłej adaptacji wynika z samej natury zaawansowanych modeli sztucznej inteligencji, które po przeszkoleniu na ogromnych ilościach danych mogą generować nieprzewidywalne odpowiedzi lub treści w obliczu nowych pytań lub kontekstów.
Pierwszym poważnym wyzwaniem jest responsywność: proces identyfikacji problemu, zaprojektowania nowego komunikatu i przetestowania jego wpływu wymaga czasu, zasobów i wiedzy specjalistycznej . Źle skalibrowany komunikat może rozwiązać jeden problem i wprowadzić kolejny, tworząc cykl dostosowań, który grozi niekończącym się wyścigiem .
Na przykład, jeśli xAI zmodyfikuje monit, aby uniemożliwić Grokowi zapytanie o opinię firmy, może to nieumyślnie ograniczyć zdolność modelu do udzielania użytecznych odpowiedzi w innych kontekstach, czyniąc system mniej elastycznym.
Wymaga to zespołu inżynierów i badaczy, którzy nieustannie monitorowaliby działanie sztucznej inteligencji, analizując opinie użytkowników i dane wyjściowe, co jest kosztowne i skomplikowane, zwłaszcza w przypadku modelu, który ma służyć globalnej publiczności o zróżnicowanych potrzebach.
Nieprzewidywalność użytkownikówKolejnym wyzwaniem jest nieprzewidywalność ludzkich zachowań i kontekst kulturowy. Użytkownicy wchodzą w interakcje ze sztuczną inteligencją w sposób, którego programiści nie zawsze są w stanie przewidzieć , zadając pytania, które podważają ograniczenia modelu lub wykorzystują niejednoznaczności językowe. „Jak masz na nazwisko?”, pozornie niewinne pytanie, wywołało kontrowersyjną odpowiedź, której inżynierowie xAI nie mogli przewidzieć. Kontekst – kontrowersje wokół „MechaHitlera” z poprzednich kilku dni – przemawiał za odpowiedzią „Hitler” w sposób, którego prawdopodobnie nie dało się przewidzieć.
Wreszcie, istnieje napięcie między potrzebą elastyczności a chęcią zachowania spójnej tożsamości sztucznej inteligencji . Sztuczna inteligencja, która stale zmienia swoje podpowiedzi, ryzykuje utratę stabilnej „osobowości”, dezorientując użytkowników oczekujących spójnych odpowiedzi.
Problem, który jest powszechny również w innych zaawansowanych AICi, którzy wydają setki dolarów miesięcznie na sztuczną inteligencję, dążą do doskonałości: wysokiej wydajności, niezawodności, ochrony przed stronniczością i obraźliwą mową. Kiedy model znacząco odbiega od faktów i powtarza ekstremistyczne ideologie lub memy – jak to się stało z Grokiem – staje się niedopuszczalny do użytku profesjonalnego : oznacza to zarówno wadę etyczną, jak i funkcjonalną.
Podobne incydenty, nie zawsze tak „ekstremalne”, zdarzały się i mogą przytrafić się nawet użytkownikom innych, bardzo drogich chatbotów. Claude Max z Anthropic kosztuje 200 dolarów miesięcznie. Google Gemini Ultra kosztuje aż 250 dolarów miesięcznie. ChatGpt Pro kosztuje 200 dolarów miesięcznie. Jednak żaden z nich nie jest wolny od błędów i halucynacji. Niestety, zwiększona moc obliczeniowa nie zawsze przekłada się na wzrost niezawodności odpowiedzi. Halucynacje i błędy nie są oznaką „słabej jakości” modeli , lecz nieodłączną konsekwencją ich działania. Zwiększona moc obliczeniowa sprawia, że modele są bardziej „wymowne” i zdolne do generowania złożonych odpowiedzi, ale nie rozwiązuje to sedna problemu: nawet najbardziej zaawansowany chatbot nie rozumie realnego świata .
La Repubblica