OpenAI rezygnuje z dostępu do Deep Research dla użytkowników Plus, zaostrzając wojny agentów AI z DeepSeek i Claude


Źródło: VentureBeat wykonane przy użyciu Midjourney
Dołącz do naszych codziennych i cotygodniowych newsletterów, aby otrzymywać najnowsze aktualizacje i ekskluzywne treści na temat wiodących w branży relacji z AI. Dowiedz się więcej
Firma OpenAI ogłosiła dziś udostępnienie swojej potężnej funkcji Deep Research wszystkim użytkownikom programów ChatGPT Plus , Team , Education i Enterprise , co znacznie rozszerza dostęp do rozwiązania, które wielu ekspertów uważa za najbardziej przełomowe narzędzie AI firmy od czasu powstania oryginalnego programu ChatGPT.
„Deep Research jest teraz dostępny dla wszystkich użytkowników ChatGPT Plus, Team, Edu i Enterprise” — ogłosiła firma na swoim oficjalnym koncie X. Zgodnie z ogłoszeniem, użytkownicy ci początkowo otrzymają 10 zapytań dotyczących głębokich badań miesięcznie, podczas gdy subskrybenci poziomu Pro będą mieli dostęp do 120 zapytań miesięcznie.
Deep Research , zasilany przez specjalistyczną wersję nadchodzącego modelu o3 firmy OpenAI, stanowi znaczącą zmianę w sposobie, w jaki AI może pomagać w złożonych zadaniach badawczych. W przeciwieństwie do tradycyjnych chatbotów, które zapewniają natychmiastowe odpowiedzi, Deep Research niezależnie przeszukuje setki źródeł online, analizuje tekst, obrazy i pliki PDF oraz syntetyzuje kompleksowe raporty porównywalne z tymi tworzonymi przez profesjonalnych analityków.
Szczegółowe badania są już dostępne dla wszystkich użytkowników ChatGPT Plus, Team, Edu i Enterprise ?
— OpenAI (@OpenAI) 25 lutego 2025 r
Czas rozszerzonego wdrożenia OpenAI nie jest przypadkowy. Krajobraz generatywnej AI zmienił się dramatycznie w ostatnich tygodniach, a chiński DeepSeek stał się nieoczekiwanym czynnikiem zakłócającym. Udostępniając swój model DeepSeek-R1 na licencji MIT , fundamentalnie zakwestionowali zamknięty, oparty na subskrypcji model biznesowy, który zdefiniował zachodni rozwój AI.
To, co czyni tę konkurencję szczególnie interesującą, to rozbieżne filozofie w grze. Podczas gdy OpenAI nadal blokuje swoje najpotężniejsze możliwości za coraz bardziej złożonymi poziomami subskrypcji , DeepSeek wybrał radykalnie inne podejście: rozdaj technologię i pozwól rozkwitnąć tysiącom aplikacji.
Chińska firma Deepseek, zajmująca się sztuczną inteligencją, niedawno wywołała sensację, ogłaszając R1 – model wnioskowania oparty na otwartym kodzie źródłowym, który, jak twierdzi, osiąga porównywalną wydajność do o1 firmy OpenAI, przy znacznie niższej cenie.
Jednak dla tych, którzy uważnie śledzą rozwój sztucznej inteligencji, Deepseek i R1 nie wyszły z... pic.twitter.com/FUahYP0HHz
Ta strategia nawiązuje do wcześniejszych epok wdrażania technologii, w których otwarte platformy ostatecznie tworzyły większą wartość niż zamknięte systemy. Dominacja Linuksa w infrastrukturze serwerowej oferuje przekonującą historyczną analogię. Dla decydentów przedsiębiorstw pytanie brzmi, czy inwestować w zastrzeżone rozwiązania, które mogą oferować natychmiastowe przewagi konkurencyjne, czy też przyjąć otwarte alternatywy, które mogłyby sprzyjać szerszej innowacji w całej organizacji.
Niedawna integracja DeepSeek-R1 przez Perplexity z własnym narzędziem badawczym — za ułamek ceny OpenAI — pokazuje, jak szybko to otwarte podejście może dać konkurencyjne produkty. Tymczasem Claude 3.7 Sonnet firmy Anthropic obrał inną ścieżkę, skupiając się na przejrzystości w procesie rozumowania z „widocznym rozszerzonym myśleniem”.
Deepseek R1 to imponujący model, szczególnie biorąc pod uwagę to, co oferuje za swoją cenę.
Oczywiście dostarczymy o wiele lepsze modele, a poza tym naprawdę miło jest mieć nowego konkurenta! Wrzucimy kilka wydań.
— Sam Altman (@sama) 28 stycznia 2025 r
Rezultatem jest rozdrobniony rynek, na którym każdy główny gracz oferuje teraz odrębne podejście do badań wspomaganych przez AI. Dla przedsiębiorstw oznacza to większy wybór, ale także zwiększoną złożoność w określaniu, która platforma najlepiej odpowiada ich konkretnym potrzebom i wartościom.
Kiedy Sam Altman pisze, że Deep Research „ prawdopodobnie jest warte 1000 USD miesięcznie dla niektórych użytkowników ”, ujawnia coś więcej niż tylko elastyczność cenową — przyznaje, że istnieje niezwykła dysproporcja wartości między potencjalnymi użytkownikami. To przyznanie trafia w sedno trwającego aktu strategicznego równoważenia OpenAI.
Firma stoi w obliczu fundamentalnego napięcia: utrzymania ekskluzywności premium, która finansuje jej rozwój, a jednocześnie wypełniania swojej misji zapewnienia, że „sztuczna inteligencja ogólna przyniesie korzyści całej ludzkości”. Dzisiejsze ogłoszenie stanowi ostrożny krok w kierunku większej dostępności bez podważania jej modelu przychodów.
Myślę, że początkowo zaoferujemy 10 użyć chatgpt plus miesięcznie i 2 miesięcznie w ramach pakietu bezpłatnego, z zamiarem stopniowego zwiększania liczby użyć w miarę upływu czasu.
dla niektórych użytkowników jest to prawdopodobnie warte 1000 dolarów miesięcznie, ale jestem ciekaw, co wszyscy z tym zrobią! https://t.co/YBICvzodPF
— Sam Altman (@sama) 12 lutego 2025 r.
Ograniczając użytkowników bezpłatnego poziomu do zaledwie dwóch zapytań miesięcznie, OpenAI zasadniczo oferuje teaser — wystarczający, aby zademonstrować możliwości technologii bez kanibalizacji jej ofert premium. To podejście jest zgodne z klasycznym podręcznikiem „freemium”, który zdefiniował znaczną część gospodarki cyfrowej, ale z niezwykle ścisłymi ograniczeniami, które odzwierciedlają znaczne zasoby obliczeniowe wymagane dla każdego zapytania Deep Research.
Przydział 10 miesięcznych zapytań dla użytkowników Plus (20 USD/miesiąc) w porównaniu do 120 dla użytkowników Pro (200 USD/miesiąc) tworzy wyraźne rozgraniczenie, które zachowuje propozycję wartości premium. Ta strategia wdrażania warstwowego sugeruje, że OpenAI zdaje sobie sprawę, że demokratyzacja dostępu do zaawansowanych możliwości AI wymaga czegoś więcej niż tylko obniżenia barier cenowych — wymaga fundamentalnego przemyślenia sposobu pakowania i dostarczania tych możliwości.
Główny wynik — 26,6% dokładności w „ Ostatnim egzaminie ludzkości ” — to tylko część historii. Ten punkt odniesienia, zaprojektowany tak, aby był niezwykle wymagający nawet dla ekspertów-ludzi, stanowi skok kwantowy poza poprzednie możliwości AI. Dla kontekstu, osiągnięcie nawet 10% w tym teście byłoby uważane za niezwykłe zaledwie rok temu.
Najważniejsza jest nie tylko surowa wydajność, ale sama natura testu, która wymaga syntezy informacji w różnych domenach i stosowania niuansowego rozumowania wykraczającego daleko poza dopasowywanie wzorców. Podejście Deep Research łączy kilka przełomów technologicznych: wieloetapowe planowanie, adaptacyjne wyszukiwanie informacji i być może najważniejsze, formę obliczeniowej autokorekty, która pozwala mu rozpoznawać i korygować własne ograniczenia w trakcie procesu badawczego.
Jednak te możliwości mają zauważalne martwe punkty. System pozostaje podatny na to, co można nazwać „ stronniczością konsensusu ” — tendencję do uprzywilejowywania powszechnie akceptowanych punktów widzenia, przy jednoczesnym potencjalnym pomijaniu odmiennych perspektyw, które kwestionują ustalone myślenie. Ta stronniczość może być szczególnie problematyczna w dziedzinach, w których innowacja często wyłania się z kwestionowania konwencjonalnej mądrości.
Ponadto, poleganie systemu na istniejącej zawartości sieciowej oznacza, że dziedziczy on uprzedzenia i ograniczenia swojego materiału źródłowego. W szybko rozwijających się dziedzinach lub niszowych specjalnościach z ograniczoną dokumentacją online, Deep Research może mieć trudności z zapewnieniem prawdziwie kompleksowej analizy. A bez dostępu do zastrzeżonych baz danych lub czasopism naukowych opartych na subskrypcji, jego spostrzeżenia dotyczące pewnych wyspecjalizowanych dziedzin mogą pozostać powierzchowne pomimo jego wyrafinowanych możliwości rozumowania.

Dla liderów C-suite Deep Research przedstawia paradoks: narzędzie wystarczająco potężne, aby na nowo zdefiniować role w całej organizacji, ale wciąż zbyt ograniczone, aby można je było wdrożyć bez starannego nadzoru człowieka. Natychmiastowe zyski w zakresie produktywności są niezaprzeczalne — zadania, które kiedyś wymagały dni czasu analityka, teraz można wykonać w ciągu kilku minut. Jednak ta wydajność wiąże się ze złożonymi implikacjami strategicznymi.
Organizacje, które skutecznie integrują Deep Research, prawdopodobnie będą musiały całkowicie przeprojektować swoje przepływy pracy informacyjnej. Zamiast po prostu zastępować młodszych analityków, technologia może tworzyć nowe hybrydowe role, w których ludzka wiedza specjalistyczna koncentruje się na formułowaniu pytań, ocenie źródeł i krytycznej ocenie spostrzeżeń generowanych przez AI. Najbardziej udane wdrożenia prawdopodobnie będą postrzegać Deep Research nie jako zamiennik ludzkiego osądu, ale jako wzmacniacz ludzkich możliwości.
szczegółowe badania dla użytkowników chatgpt plus!
jedna z moich ulubionych rzeczy, jakie kiedykolwiek wysłaliśmy.
— Sam Altman (@sama) 25 lutego 2025 r.
Struktura cenowa tworzy własne strategiczne rozważania. Przy 200 USD miesięcznie dla użytkowników Pro ze 120 zapytaniami, każde zapytanie kosztuje faktycznie około 1,67 USD — niewielki wydatek w porównaniu z kosztami pracy ludzkiej. Jednak ograniczona objętość tworzy sztuczny niedobór, który zmusza organizacje do ustalania priorytetów, które pytania naprawdę zasługują na możliwości Deep Research. To ograniczenie może ironicznie prowadzić do bardziej przemyślanego zastosowania technologii, niż zachęcałby do tego całkowicie nieograniczony model.
Implikacje długoterminowe są głębsze. W miarę jak możliwości badawcze, które kiedyś były ograniczone do elitarnych organizacji, stają się szeroko dostępne, przewaga konkurencyjna będzie coraz częściej wynikać nie z dostępu do informacji, ale ze sposobu, w jaki organizacje formułują pytania i integrują spostrzeżenia generowane przez AI ze swoimi procesami decyzyjnymi. Wartość strategiczna przesuwa się z wiedzy na zrozumienie — od gromadzenia informacji na generowanie spostrzeżeń.
Dla liderów technicznych przesłanie jest jasne: rewolucja w badaniach nad sztuczną inteligencją już nie nadchodzi — jest już tutaj. Pytanie nie brzmi, czy się dostosować, ale jak szybko organizacje mogą rozwijać procesy, umiejętności i mentalność kulturową potrzebną do rozwoju w środowisku, w którym dogłębne badania zostały fundamentalnie zdemokratyzowane.
Jeśli chcesz zaimponować swojemu szefowi, VB Daily ma dla Ciebie rozwiązanie. Dajemy Ci wewnętrzny wgląd w to, co firmy robią z generatywną sztuczną inteligencją, od zmian regulacyjnych po praktyczne wdrożenia, dzięki czemu możesz dzielić się spostrzeżeniami, aby uzyskać maksymalny zwrot z inwestycji.
Przeczytaj naszą Politykę prywatności
Dziękujemy za subskrypcję. Sprawdź więcej newsletterów VB tutaj .
Wystąpił błąd.

venturebeat