Dylemat naprawiacza: Chris Lehane i niemożliwa misja OpenAI

Chris Lehane jest jednym z najlepszych w branży, jeśli chodzi o znikanie złych wiadomości. Rzecznik prasowy Ala Gore'a za czasów Clintona, główny menedżer kryzysowy Airbnb w każdym koszmarze regulacyjnym od tego miejsca do Brukseli – Lehane wie, jak manipulować. Teraz od dwóch lat wykonuje prawdopodobnie najtrudniejsze zadanie w swojej karierze: jako wiceprezes ds. polityki globalnej w OpenAI, jego zadaniem jest przekonanie świata, że OpenAI naprawdę zależy na demokratyzacji sztucznej inteligencji, podczas gdy firma coraz bardziej zachowuje się jak, cóż, każdy inny gigant technologiczny, który kiedykolwiek twierdził, że jest inny.
Miałem z nim 20 minut na scenie podczas konferencji Elevate w Toronto na początku tego tygodnia – 20 minut, żeby przejść od tematów do konkretów i skupić się na prawdziwych sprzecznościach, które podkopują starannie wykreowany wizerunek OpenAI. Nie było to łatwe ani do końca udane. Lehane jest naprawdę dobry w swojej pracy. Jest sympatyczny. Brzmi rozsądnie. Przyznaje się do niepewności. Mówi nawet o tym, że obudził się o 3 nad ranem, martwiąc się, czy cokolwiek z tego faktycznie przyniesie korzyści ludzkości.
Dobre intencje nie mają jednak większego znaczenia, gdy Twoja firma wzywa krytyków na przesłuchanie, pozbawia wodę i prąd miasta znajdujące się w trudnej sytuacji gospodarczej oraz przywraca do życia zmarłe gwiazdy, aby potwierdzić swoją dominującą pozycję na rynku.
Problem firmy z Sorą leży u podstaw wszystkiego innego. Narzędzie do generowania filmów, wprowadzone na rynek w zeszłym tygodniu, najwyraźniej zawierało w sobie materiały chronione prawem autorskim. Był to odważny krok dla firmy, którą już pozwały „New York Times”, „Toronto Star” i połowa branży wydawniczej. Z punktu widzenia biznesu i marketingu, było to również genialne. Aplikacja dostępna tylko na zaproszenie wystrzeliła na szczyt listy przebojów App Store , gdy użytkownicy tworzyli cyfrowe wersje samych siebie, prezesa OpenAI Sama Altmana; postaci takich jak Pikachu, Mario i Cartman z „South Parku”; a także zmarłych celebrytów, takich jak Tupac Shakur.
Zapytany, co skłoniło OpenAI do wydania najnowszej wersji Sory z tymi postaciami, Lehane przedstawił mi standardową argumentację: Sora to „technologia ogólnego przeznaczenia”, jak elektryczność czy prasa drukarska, demokratyzująca kreatywność dla osób bez talentu i zasobów. Nawet on – samozwańczy „kreatywny zero” – może teraz tworzyć filmy, powiedział na scenie.
Udawał, że OpenAI początkowo „pozwala” posiadaczom praw autorskich zrezygnować z wykorzystywania ich prac do trenowania Sory, co zazwyczaj nie jest zgodne z zasadami korzystania z praw autorskich. Następnie, gdy OpenAI zauważyło, że ludzie bardzo lubią korzystać z obrazów chronionych prawem autorskim, „ewoluowało” w kierunku modelu opt-in . To nie jest tak naprawdę iteracja. To testowanie, na ile można sobie pozwolić. (A tak przy okazji, chociaż Motion Picture Association głośno mówiło w zeszłym tygodniu o groźbach prawnych, OpenAI najwyraźniej uniknęło wielu wykroczeń).
Naturalnie, sytuacja ta przywodzi na myśl irytację wydawców, którzy oskarżają OpenAI o trenowanie ich prac bez dzielenia się zyskami finansowymi. Kiedy naciskałem Lehane'a, aby wydawcy zostali pozbawieni wpływu na ekonomię, powołał się na dozwolony użytek, amerykańską doktrynę prawną, która ma równoważyć prawa twórców z publicznym dostępem do wiedzy. Nazwał ją tajną bronią amerykańskiej dominacji technologicznej.
Wydarzenie Techcrunch
San Francisco | 27-29 października 2025 r.
Może. Ale niedawno przeprowadziłem wywiad z Alem Gore’em – byłym szefem Lehane’a – i zdałem sobie sprawę, że każdy może po prostu zapytać o to ChatGPT, zamiast czytać mój artykuł w TechCrunch. „To «iteracja»” – powiedziałem – „ale to też zamiennik”.
Po raz pierwszy Lehane porzucił swoją gadkę. „Wszyscy będziemy musieli to rozgryźć” – powiedział. „To naprawdę banalne i łatwe siedzieć tu na scenie i mówić, że musimy opracować nowe modele dochodów ekonomicznych. Ale myślę, że tak się stanie”. (Krótko mówiąc, improwizujemy na bieżąco.)
Jest jeszcze kwestia infrastruktury, na którą nikt nie chce szczerze odpowiedzieć. OpenAI prowadzi już kampus centrów danych w Abilene w Teksasie, a niedawno, we współpracy z Oracle i SoftBank, rozpoczęło budowę ogromnego centrum danych w Lordstown w stanie Ohio. Lehane porównał dostępność sztucznej inteligencji do pojawienia się elektryczności – twierdząc, że ci, którzy korzystali z niej ostatni, wciąż nadrabiają zaległości – jednak projekt Stargate firmy OpenAI najwyraźniej celuje w te same miejsca o trudnej sytuacji ekonomicznej, jako miejsca do budowy obiektów, biorąc pod uwagę ich ogromne zapotrzebowanie na wodę i energię elektryczną.
Zapytany podczas naszej rozmowy, czy te społeczności odniosą korzyści, czy jedynie pokryją rachunek, Lehane odniósł się do gigawatów i geopolityki. Zauważył, że OpenAI potrzebuje około gigawata energii tygodniowo. Chiny w zeszłym roku wybudowały 450 gigawatów plus 33 elektrownie jądrowe. Jeśli demokracje chcą demokratycznej sztucznej inteligencji, muszą konkurować. „Optymista we mnie mówi, że to zmodernizuje nasze systemy energetyczne” – powiedział, malując obraz reindustrializacji Ameryki z przebudowanymi sieciami energetycznymi.
To było inspirujące. Ale nie dało odpowiedzi na pytanie, czy mieszkańcy Lordstown i Abilene będą musieli zmierzyć się ze wzrostem rachunków za media, podczas gdy OpenAI będzie generować filmy o Johnie F. Kennedym i The Notorious BIG (generowanie filmów to najbardziej energochłonna sztuczna inteligencja , jaka istnieje).
Co doprowadziło mnie do mojego najbardziej niekomfortowego przykładu. Zelda Williams spędziła dzień przed naszym wywiadem błagając nieznajomych na Instagramie, żeby przestali wysyłać jej generowane przez sztuczną inteligencję filmy z jej zmarłym ojcem, Robinem Williamsem. „ Nie tworzysz sztuki ” – napisała. „Robisz obrzydliwe, przetworzone hot dogi z ludzkiego życia”.
Kiedy zapytałem, jak firma godzi tego rodzaju intymną krzywdę ze swoją misją, Lehane odpowiedział, mówiąc o procesach, w tym o odpowiedzialnym projektowaniu, ramach testowania i partnerstwach z rządem. „Nie ma na to żadnego podręcznika, prawda?”
Lehane momentami okazywał wrażliwość, mówiąc, że budzi się o 3 nad ranem każdej nocy, zaniepokojony demokratyzacją, geopolityką i infrastrukturą. „Wiąże się z tym ogromna odpowiedzialność”.
Niezależnie od tego, czy te momenty były zaprojektowane z myślą o publiczności, wierzę mu. Wyjeżdżałem z Toronto z myślą, że obejrzałem mistrzowską lekcję politycznego przekazu – Lehane’a, który nawlekał igłę na niemożliwą do rozwiązania kwestię, jednocześnie unikając pytań o decyzje firmy, z którymi, o ile wiem, nawet się nie zgadza. A potem nadszedł piątek.
Nathan Calvin, prawnik zajmujący się polityką dotyczącą sztucznej inteligencji (AI) w organizacji non-profit Encode AI, ujawnił, że w tym samym czasie, gdy rozmawiałem z Lehane'em w Toronto, OpenAI wysłało zastępcę szeryfa do jego domu w Waszyngtonie, podczas kolacji, aby wręczyć mu wezwanie sądowe. Chcieli uzyskać dostęp do jego prywatnych wiadomości z kalifornijskimi ustawodawcami, studentami i byłymi pracownikami OpenAI.
Calvin oskarża OpenAI o stosowanie taktyk zastraszania w kontekście nowego przepisu dotyczącego sztucznej inteligencji, kalifornijskiej ustawy SB 53. Twierdzi, że firma wykorzystała swoją batalię prawną z Elonem Muskiem jako pretekst do atakowania krytyków, sugerując, że Encode było potajemnie finansowane przez Muska. Calvin twierdzi, że walczył z oporem OpenAI wobec kalifornijskiej ustawy SB 53 dotyczącej bezpieczeństwa sztucznej inteligencji i że kiedy zobaczył, jak firma twierdzi, że „pracowała nad ulepszeniem ustawy”, „dosłownie wybuchnął śmiechem”. W jednym z wpisów w mediach społecznościowych nazwał Lehane'a „mistrzem politycznej czarnej magii”.
W Waszyngtonie mogłoby to być komplementem. W firmie takiej jak OpenAI, której misją jest „budowanie sztucznej inteligencji przynoszącej korzyści całej ludzkości”, brzmi to jak oskarżenie.
Ale co ważniejsze, nawet ludzie z OpenAI mają mieszane uczucia co do tego, kim się stają.
Jak doniósł w zeszłym tygodniu mój kolega Max, wielu obecnych i byłych pracowników po wydaniu Sora 2 zabrało głos w mediach społecznościowych, wyrażając swoje obawy. Wśród nich znalazł się Boaz Barak, badacz OpenAI i profesor Harvardu, który napisał o Sora 2 , że „jest technicznie niesamowity, ale za wcześnie, aby gratulować sobie uniknięcia pułapek innych aplikacji mediów społecznościowych i deepfake'ów”.
W piątek Josh Achiam – szef ds. koordynacji misji w OpenAI – napisał na Twitterze coś jeszcze bardziej niezwykłego na temat oskarżenia Calvina. Poprzedzając swoje komentarze stwierdzeniem, że „mogą one stanowić zagrożenie dla całej mojej kariery”, Achiam napisał o OpenAI: „Nie możemy robić rzeczy, które czynią z nas przerażającą siłę zamiast cnotliwej. Mamy obowiązek i misję wobec całej ludzkości. Poprzeczka, by sprostać temu obowiązkowi, jest niezwykle wysoka”.
To jest… coś. Dyrektor OpenAI publicznie kwestionujący, czy jego firma staje się „przerażającą potęgą, a nie cnotliwą”, nie dorównuje konkurencji strzelającej ani reporterowi zadającemu pytania. To ktoś, kto zdecydował się pracować w OpenAI, wierzy w misję firmy i przyznaje się do kryzysu sumienia, pomimo ryzyka zawodowego.
To moment krystalizacji. Możesz być najlepszym politykiem w branży technologicznej, mistrzem w nawigowaniu w niemożliwych sytuacjach, a mimo to pracować dla firmy, której działania są coraz bardziej sprzeczne z deklarowanymi przez nią wartościami – sprzeczności, które mogą się tylko nasilać w miarę jak OpenAI zmierza w kierunku sztucznej inteligencji.
To skłania mnie do myślenia, że prawdziwe pytanie nie brzmi, czy Chris Lehane potrafi przekonać do misji OpenAI. Pytanie brzmi, czy inni – w tym, co najważniejsze, inni ludzie tam pracujący – nadal w nią wierzą.
techcrunch