To nie Twoja wyobraźnia: Google Cloud zalewa strefę

Ogłoszone w poniedziałek partnerstwo między Nvidią a OpenAI o wartości 100 miliardów dolarów stanowi – jak na razie – najnowszą megaumowę zmieniającą oblicze infrastruktury AI. Umowa obejmuje akcje bez prawa głosu powiązane z ogromnymi zakupami chipów i mocą obliczeniową wystarczającą dla ponad 5 milionów amerykańskich gospodarstw domowych, pogłębiając relacje między dwoma najpotężniejszymi graczami na rynku AI.
Tymczasem Google Cloud stawia na zupełnie inną strategię. Podczas gdy najwięksi gracze w branży zacieśniają partnerstwa, Google Cloud za wszelką cenę chce przejąć kolejną generację firm zajmujących się sztuczną inteligencją, zanim staną się zbyt duże, by je pozyskać.
Francis deSouza, dyrektor operacyjny, obserwował rewolucję w dziedzinie sztucznej inteligencji z wielu perspektyw. Jako były prezes giganta genomiki Illumina, obserwował, jak uczenie maszynowe zmienia proces odkrywania leków. Jako współzałożyciel dwuletniego startupu Synth Labs, zajmującego się dostosowywaniem sztucznej inteligencji, zmagał się z wyzwaniami bezpieczeństwa coraz bardziej zaawansowanych modeli. Teraz, dołączając w styczniu do kadry kierowniczej Google Cloud, planuje ogromny zakład na drugą falę sztucznej inteligencji.
To historia, którą deSouza lubi opowiadać w liczbach. W rozmowie z redaktorem wielokrotnie zauważa, że dziewięć z dziesięciu najlepszych laboratoriów sztucznej inteligencji korzysta z infrastruktury Google. Mówi również, że prawie wszystkie generatywne „jednorożce” AI działają w Google Cloud, że 60% wszystkich startupów z tej generacji AI na świecie wybrało Google jako dostawcę chmury oraz że firma pozyskała 58 miliardów dolarów nowych zobowiązań w ciągu najbliższych dwóch lat, co stanowi ponad dwukrotność jej obecnego rocznego tempa wzrostu.
Zapytany o to, jaki procent przychodów Google Cloud pochodzi od firm zajmujących się sztuczną inteligencją, odpowiedział, że „sztuczna inteligencja zmienia oblicze rynku usług w chmurze, a Google Cloud jest w tym liderem, szczególnie wśród startupów”.
Transakcja Nvidia-OpenAI obrazuje skalę konsolidacji infrastruktury AI. Początkowa inwestycja Microsoftu w OpenAI, wynosząca 1 miliard dolarów, wzrosła do prawie 14 miliardów dolarów. Amazon zainwestował 8 miliardów dolarów w Anthropic, zapewniając sobie dogłębne dostosowania sprzętu, które w zasadzie dostosowują szkolenia AI do współpracy z infrastrukturą Amazona. Oracle również okazał się niespodziewanym zwycięzcą, podpisując umowę z OpenAI na chmurę o wartości 30 miliardów dolarów , a następnie zapewniając sobie oszałamiające pięcioletnie zobowiązanie o wartości 300 miliardów dolarów, rozpoczynające się w 2027 roku.
Nawet Meta, pomimo zbudowania własnej infrastruktury, podpisała umowę o wartości 10 miliardów dolarów z Google Cloud, planując jednocześnie wydatki na infrastrukturę w USA w wysokości 600 miliardów dolarów do 2028 roku. Projekt „Stargate” administracji Trumpa o wartości 500 miliardów dolarów, w który zaangażowane są SoftBank, OpenAI i Oracle, dodaje kolejny wymiar tym powiązanym partnerstwom.
Wydarzenie Techcrunch
San Francisco | 27-29 października 2025 r.
Te gigantyczne transakcje mogą wydawać się groźne dla Google, biorąc pod uwagę partnerstwa, które firmy takie jak OpenAI i Nvidia zdają się cementować gdzie indziej. W rzeczywistości wygląda na to, że Google jest wyrywane z jakiejś gorączkowej negocjacji.

Ale korporacyjny gigant nie siedzi bezczynnie. Zamiast tego Google Cloud podpisuje umowy z mniejszymi firmami , takimi jak Loveable i Windsurf – które deSouza nazywa „nadchodzącą generacją firm” – jako „głównych partnerów obliczeniowych” bez konieczności dokonywania dużych inwestycji początkowych.
To podejście odzwierciedla zarówno szansę, jak i konieczność. Na rynku, gdzie firmy mogą „przejść drogę od startupu do wielomiliardowej firmy w bardzo krótkim czasie”, jak to ujmuje deSouza, pozyskanie przyszłych jednorożców, zanim dojrzeją, może okazać się cenniejsze niż walka o dzisiejszych gigantów.
Strategia wykracza poza proste pozyskiwanie klientów. Google oferuje startupom zajmującym się sztuczną inteligencją 350 000 dolarów w kredytach chmurowych, dostęp do swoich zespołów technicznych oraz wsparcie we wprowadzaniu rozwiązań na rynek za pośrednictwem swojego marketplace'u. Google Cloud zapewnia również, jak określa to deSouza, „bezkompromisowy” stos rozwiązań AI – od układów scalonych, przez modele, po aplikacje – z „otwartą filozofią”, która daje klientom wybór na każdym poziomie.
„Firmy uwielbiają fakt, że mogą uzyskać dostęp do naszego stosu rozwiązań AI i do naszych zespołów, aby zrozumieć, w jakim kierunku zmierzają nasze technologie” – mówi deSouza podczas naszego wywiadu. „Cieszą się również z dostępu do infrastruktury klasy korporacyjnej klasy Google”.
Działania Google w zakresie infrastruktury stały się ostatnio jeszcze bardziej ambitne, a doniesienia ujawniły zakulisowe działania firmy mające na celu rozszerzenie działalności w zakresie niestandardowych układów scalonych AI. Według The Information , Google po raz pierwszy zawarło umowy na umieszczenie swoich procesorów tensorowych (TPU) w centrach danych innych dostawców usług chmurowych, w tym umowę z londyńską firmą Fluidstack, która obejmuje wsparcie finansowe w wysokości do 3,2 miliarda dolarów na budowę obiektu w Nowym Jorku.
Bezpośrednia konkurencja z firmami z branży AI przy jednoczesnym zapewnianiu im infrastruktury wymaga – nazwijmy to – finezji. Google Cloud dostarcza układy TPU do OpenAI i hostuje model Claude firmy Anthropic za pośrednictwem swojej platformy Vertex AI, mimo że jej własne modele Gemini konkurują z nimi bezpośrednio. (Spółka macierzysta Google Cloud, Alphabet, również posiada 14% udziałów w Anthropic, zgodnie z dokumentami sądowymi „New York Timesa” uzyskanymi na początku tego roku. Jednak zapytany bezpośrednio o relacje finansowe Google z Anthropic, deSouza określa je mianem „wielowarstwowego partnerstwa”, po czym szybko odsyła mnie do rynku modeli Google Cloud – zaznaczając, że klienci mają dostęp do różnych modeli bazowych).
Ale jeśli Google próbuje być Szwajcarią, realizując jednocześnie własne cele, to ma już w tym spore doświadczenie. Podejście to ma swoje korzenie w projektach open source Google, od platformy Kubernetes po fundamentalny dokument „ Attention is All You Need ”, który umożliwił stworzenie architektury transformatorowej, na której opiera się większość współczesnych rozwiązań sztucznej inteligencji. Niedawno Google opublikował protokół open source o nazwie Agent-to-Agent (A2A) do komunikacji międzyagentowej, próbując w ten sposób zademonstrować swoje stałe zaangażowanie w otwartość, nawet w obszarach konkurencyjnych.
„Przez lata jasno decydowaliśmy się na otwartość na każdym poziomie stosu i wiemy, że oznacza to, że firmy mogą bez problemu wykorzystać naszą technologię i zbudować konkurencję na kolejnym poziomie” – przyznaje deSouza. „To dzieje się od dekad. To coś, z czym się zgadzamy”.
Zabiegi Google Cloud o startupy pojawiają się w szczególnie interesującym momencie. Właśnie w tym miesiącu sędzia federalny Amit Mehta wydał pełen niuansów wyrok w pięcioletniej sprawie rządowego monopolu na wyszukiwanie, próbując ograniczyć dominację Google bez ograniczania jego ambicji w dziedzinie sztucznej inteligencji.
Chociaż Google uniknęło najsurowszych kar proponowanych przez Departament Sprawiedliwości, w tym przymusowego wycofania inwestycji z przeglądarki Chrome, orzeczenie to uwypukliło obawy regulacyjne dotyczące wykorzystywania przez firmę monopolu na wyszukiwanie w celu zdominowania rynku sztucznej inteligencji. Krytycy, co zrozumiałe, obawiają się, że ogromne zasoby danych wyszukiwania Google'a dają nieuczciwą przewagę w rozwoju systemów sztucznej inteligencji i że firma może stosować te same monopolistyczne taktyki, które zapewniły jej dominację w wyszukiwarkach.
W rozmowie deSouza koncentruje się na znacznie bardziej pozytywnych rezultatach. „Myślę, że mamy szansę dogłębnie zrozumieć niektóre z głównych chorób, których dziś po prostu nie rozumiemy do końca” – mówi na przykład deSouza, przedstawiając wizję, w której Google Cloud wspiera badania nad chorobą Alzheimera, chorobą Parkinsona i technologiami klimatycznymi. „Chcemy ciężko pracować, aby być pionierami technologii, które umożliwią te prace”.
Krytycy mogą nie dać się łatwo udobruchać. Pozycjonując się jako otwarta platforma, która wspiera, a nie kontroluje, kolejne pokolenie firm z branży AI, Google Cloud może pokazać regulatorom, że sprzyja konkurencji, a nie ją tłumi, jednocześnie budując relacje ze startupami, które mogą pomóc Google, jeśli regulatorzy zaostrzą presję.
Pełną wersję naszej rozmowy z deSouzą znajdziesz w podcaście StrictlyVC Download z tego tygodnia; nowy odcinek ukazuje się w każdy wtorek.
techcrunch