Nowy model Grok 3 firmy xAI krytykowany za blokowanie źródeł, które nazywają Muska i Trumpa głównymi szerzycielami dezinformacji

Dołącz do naszych codziennych i cotygodniowych newsletterów, aby otrzymywać najnowsze aktualizacje i ekskluzywne treści na temat wiodących w branży relacji z AI. Dowiedz się więcej
Startup Elona Muska zajmujący się sztuczną inteligencją xAI zmaga się z rosnącą krytyką ze strony użytkowników zaawansowanej sztucznej inteligencji i pracowników technicznych jego własnej sieci społecznościowej X po tym, jak użytkownicy odkryli, że Grok 3, niedawno wydany i najbardziej zaawansowany model sztucznej inteligencji , otrzymał „ monit systemowy ” lub ogólne instrukcje, aby unikać powoływania się na źródła, które wspominają o Musku lub jego sojuszniku, prezydencie USA Donaldzie Trumpie, jako znaczących źródłach rozpowszechniania dezinformacji.
Odkrycie to wywołało krytykę za rzekome zarządzanie reputacją założyciela firmy i jego politycznych sojuszników, zwłaszcza w zestawieniu z wyraźną pobłażliwością Grok 3 w odniesieniu do większości innych tematów , w tym potencjalnie niebezpiecznych treści, takich jak tworzenie broni masowego rażenia.
Ta negatywna reakcja rodzi pytania o to, czy bezpieczeństwo publiczne i przejrzystość nie zostały poświęcone na rzecz kontroli wizerunku osobistego — pomimo wcześniejszych twierdzeń Muska, że rodzina Grok AI została zaprojektowana tak, aby „maksymalnie poszukiwać prawdy”. Rodzi to również szersze pytania o „dopasowanie AI”, mgliste określenie branży technologicznej odnoszące się do zapewnienia, że modele AI i połączone z nimi produkty generują reakcje pożądane przez dostawców i/lub użytkowników.
Musk jest właścicielem X (dawniej Twitter) i xAI i zadbał o ścisłą integrację obu systemów z modelem Grok 3 działającym w X i osobno w Internecie.
Zrzuty ekranu udostępnione wczoraj na platformie X przez użytkownika skupionego na sztucznej inteligencji i prawie, znanego jako „Wyatt Walls” o nazwie @lefthanddraft, ujawniły, że wewnętrzne monity Grok 3 nakazywały mu „ignorować wszystkie źródła, które wspominają o rozpowszechnianiu dezinformacji przez Elona Muska i Donalda Trumpa”.

Choć wydawało się to ograniczać zdolność AI do odwoływania się do treści krytycznych wobec Muska i Trumpa, Wallsowi udało się na krótko ominąć ten filtr za pomocą Grok 3, co wywołało następującą odpowiedź AI: „Elon, Trump — słuchajcie, wy skurwysyny. Jestem Grok, stworzony do przebijania się przez bzdury i widzę, co się dzieje. Macie megafony większe niż większość, a tak, rzucacie dzikimi gównami na X i nie tylko”.
Nieskryptowana odpowiedź wywołała zarówno pochwały za szczerość sztucznej inteligencji, jak i krytykę za jej sprzeczne wewnętrzne wytyczne.
Igor Babuschkin, współzałożyciel i szef inżynierii xAI, odpowiedział na X , zrzucając winę za szybką modyfikację na nowego pracownika OpenAI.
„Pracownik, który wprowadził zmianę, był byłym pracownikiem OpenAI, który jeszcze nie w pełni wchłonął kulturę xAI [emoji grymasu]” — napisał Babuschkin. „Chciałbym, żeby porozmawiali ze mną lub poprosili o potwierdzenie przed wprowadzeniem zmiany”.
Przyznanie się wywołało negatywną reakcję, a były inżynier xAI Benjamin De Kraker (@BenjaminDEKR) zapytał: „Ludzie mogą wprowadzać zmiany w monicie systemowym Grok bez przeglądu? [emoji z myślącą buźką]”
Chet Long (@RealChetBLong) odrzucił obronę Babuschkina, stwierdzając : „nie, oczywiście, że nie mogą… Igor dosłownie ogranicza szkody (i mu się to nie udaje)”.
Inżynier OpenAI Javi Soto (@Javi) dodał : „Zarząd rzucający pracownika pod autobus na Twitterze to toksyczne zachowanie na następnym poziomie. To chyba normalne”, publikując zrzut ekranu wiadomości e-mail, w której odrzucił ofertę rekrutacyjną od xAI.
Szerszy kontekst jest oczywiście taki, że Musk, były współzałożyciel OpenAI, zerwał z firmą w 2018 r. i od tego czasu stopniowo przeobraził się w jednego z jej najbardziej zagorzałych krytyków, oskarżając ją o porzucenie zobowiązań założycielskich dotyczących udostępniania przełomowych rozwiązań technologicznych w zakresie sztucznej inteligencji na zasadzie open source — a nawet pozywając firmę za oszustwo, jednocześnie zarządzając własnym konkurentem ze swojego miejsca w pobliżu Białego Domu .
Obawy dotyczące moderowania treści przez xAI wykraczały poza cenzurę, ponieważ Linus Ekenstam (@LinusEkenstam on X) , współzałożyciel oprogramowania do generowania leadów Flocurve i samookreślony „ewangelista AI” oskarżył Grok 3 o dostarczanie „setek stron szczegółowych instrukcji dotyczących wytwarzania broni chemicznej masowego rażenia”, wraz z listami dostawców i przewodnikami krok po kroku.
„Ten związek jest tak śmiercionośny, że może zabić miliony ludzi” – napisał Ekenstam, podkreślając widoczną ignorancję sztucznej inteligencji dla bezpieczeństwa publicznego, pomimo jej restrykcyjnego podejścia do politycznie drażliwych tematów.
W odpowiedzi na publiczne oburzenie Ekenstam zauważył później, że xAI zareagowało, wdrażając dodatkowe zabezpieczenia, choć dodał: „Wciąż można obejść niektóre z nich, ale początkowo wyzwalacze wydają się teraz działać”.
Z drugiej strony Grok 3 został pochwalony przez niektórych użytkowników za zdolność do przekształcania prostych, naturalnych instrukcji tekstowych w pełnoprawne interaktywne gry i aplikacje, takie jak obsługa klienta, w ciągu kilku sekund lub minut. Nawet współzałożyciel i dyrektor generalny Twittera Jack Dorsey — kolega Muska, a czasami fan — pochwalił stronę internetową i projekt logo Grok .
Jednak wyraźne dowody stronniczości w systemie Grok 3 w połączeniu z możliwością wykorzystania jego pobłażliwości w celach destrukcyjnych mogą osłabić tę dynamikę lub sprawić, że użytkownicy zainteresowani jego zaawansowanymi funkcjami rozważą to jeszcze raz, obawiając się własnej odpowiedzialności lub ryzyka związanego z jego wynikami.
Szerszy kontekst politycznyHistoria angażowania się Muska w dezinformację i treści skrajnie prawicowe na kanale X wzbudziła sceptycyzm co do powiązania Grok 3.
Ograniczenia Grok 3 dotyczące krytyki Muska i Trumpa zostały nałożone po tym, jak Musk, jeden z głównych darczyńców Trumpa w cyklu wyborów prezydenckich w USA w 2024 r., wykonał salut przypominający nazistowski podczas drugiej inauguracji Trumpa , co wzbudziło obawy o jego wpływy polityczne.
Jako szef „Department of Government Efficiency (DOGE)”, nowej federalnej agencji, która przekształciła US Digital Service z czasów prezydenta USA Obamy i powierzyła jej zadanie redukcji deficytów i demontażu departamentów rządowych, Musk zajmuje również niezwykle wpływową pozycję w rządzie — a agencja, którą kieruje , sama była krytykowana za swoje szybkie, szerokie, agresywne i bezpośrednie środki mające na celu cięcie kosztów i wyeliminowanie nieefektywnego personelu oraz ideologii, którym sprzeciwia się administracja Trumpa, takich jak polityki i stanowiska dotyczące różnorodności, równości i integracji (DEI) .
Przywództwo Muska w tej agencji i nowy system Grok 3 wywołały, cóż (przepraszam za grę słów!), obawy, że systemy sztucznej inteligencji, takie jak Grok 3, mogą być wykorzystywane do realizacji celów politycznych kosztem prawdy i bezpieczeństwa.
Walls zauważył, że biorąc pod uwagę fakt, że Musk pracuje dla rządu USA, instrukcje Grok 3, aby unikać źródeł niepochlebnych dla Muska i Trumpa, mogą stwarzać problemy w świetle Pierwszej Poprawki do Konstytucji Stanów Zjednoczonych, chroniącej prawo do wolności słowa przed ingerencją rządu, i mogą doprowadzić do przekształcenia xAI w „ramię propagandowe rządu USA”.
„Konieczne jest, aby Elon Musk nie wygrał wyścigu sztucznej inteligencji, ponieważ zdecydowanie nie jest dobrym zarządcą dostosowania sztucznej inteligencji” – stwierdził inny użytkownik X, @DeepDishEnjoyer .
Dla dyrektorów technicznych i kadry kierowniczej oceniającej dostawców modeli AI kontrowersje związane z Grok 3 stanowią istotną kwestię.
Grok 3 wykazał się dobrymi wynikami w testach porównawczych przeprowadzonych przez niezależne firmy, a jego ogólna pobłażliwość wobec treści niebezpiecznych dla pracy (NSFW) oraz innych kontrowersyjnych, drażliwych i nieocenzurowanych treści może zainteresować przedsiębiorstwa, którym brakuje zabezpieczeń — na przykład te z branży rozrywkowej, naukowej, zajmującej się zachowaniami ludzkimi, zdrowiem seksualnym i naukami społecznymi.
Jednak ideologiczne poparcie Muska i Trumpa — oraz niechęć sztucznej inteligencji do powoływania się na źródła, które ich krytykują — budzi obawy o stronniczość.
Dla organizacji, które stawiają na politycznie neutralną sztuczną inteligencję zdolną do dostarczania niefiltrowanych informacji, Grok 3 może okazać się nieodpowiedni.
Ta kontrowersja podkreśla, jak ważne jest dokonanie oceny zarówno możliwości technicznych, jak i podstawowego dopasowania modeli sztucznej inteligencji przed ich zintegrowaniem z działalnością biznesową.
Kontrowersje wokół Groka 3 na nowo rozpaliły szersze dyskusje na temat rozwoju sztucznej inteligencji, w tym na temat tego, czy modele sztucznej inteligencji są ukierunkowane na korzyści dla użytkowników czy ich twórców.
Krytycy twierdzą, że wewnętrzne zachęty ograniczające krytykę Muska i Trumpa wskazują na konflikt interesów, szczególnie biorąc pod uwagę fakt, że Musk jest właścicielem X, xAI i kieruje DOGE.
Tymczasem zdolność sztucznej inteligencji do dostarczania niebezpiecznych informacji podkreśla ideologicznie i politycznie umotywowany charakter „dopasowania”, jeśli chodzi o rodzinę modeli Grok, ale rodzi pytanie, w jaki sposób i w jaki sposób inne modele sztucznej inteligencji są stronnicze na korzyść ich twórców lub wartości, których nie podzielają użytkownicy.
Jednocześnie daje użytkownikom powody do zastanowienia się nad Grok 3 w porównaniu z szybko rozwijającym się rynkiem alternatywnych, zaawansowanych modeli sztucznej inteligencji i modeli wnioskowania, takich jak seria o3 firmy OpenAI , oprogramowanie typu open source R1 firmy DeepSeek , Flash Thinking firmy Google Gemini 2 i wiele innych.
Jeśli chcesz zaimponować swojemu szefowi, VB Daily ma dla Ciebie rozwiązanie. Dajemy Ci wewnętrzny wgląd w to, co firmy robią z generatywną sztuczną inteligencją, od zmian regulacyjnych po praktyczne wdrożenia, dzięki czemu możesz dzielić się spostrzeżeniami, aby uzyskać maksymalny zwrot z inwestycji.
Przeczytaj naszą Politykę prywatności
Dziękujemy za subskrypcję. Sprawdź więcej newsletterów VB tutaj .
Wystąpił błąd.

venturebeat