Wybierz język

Polish

Down Icon

Wybierz kraj

America

Down Icon

O cholera! Nowa, 200% szybsza odmiana DeepSeek R1-0528 pojawia się w niemieckim laboratorium TNG Technology Consulting GmbH

O cholera! Nowa, 200% szybsza odmiana DeepSeek R1-0528 pojawia się w niemieckim laboratorium TNG Technology Consulting GmbH

Chcesz otrzymywać mądrzejsze informacje w swojej skrzynce odbiorczej? Zapisz się na nasze cotygodniowe newslettery, aby otrzymywać tylko to, co jest ważne dla liderów w dziedzinie sztucznej inteligencji, danych i bezpieczeństwa przedsiębiorstw. Subskrybuj teraz

Minął nieco ponad miesiąc, odkąd chiński startup zajmujący się sztuczną inteligencją DeepSeek, będący odnogą hongkońskiego High-Flyer Capital Management, wypuścił najnowszą wersję swojego popularnego modelu open source DeepSeek, R1-0528.

Podobnie jak jego poprzednik DeepSeek-R1 — który wstrząsnął społecznością sztucznej inteligencji i globalnego biznesu tym, jak tanio został wyszkolony i jak dobrze radził sobie z zadaniami wnioskowania, a wszystko to było dostępne dla programistów i przedsiębiorstw bezpłatnie — R1-0528 jest już adaptowany i remiksowany przez inne laboratoria i programistów sztucznej inteligencji, w dużej mierze dzięki liberalnej licencji Apache 2.0.

W tym tygodniu 24-letnia niemiecka firma TNG Technology Consulting GmbH wydała jedną z takich adaptacji: DeepSeek-TNG R1T2 Chimera , najnowszy model w rodzinie Chimera large language model (LLM). R1T2 zapewnia zauważalny wzrost wydajności i szybkości, uzyskując ponad 90% wyników benchmarku inteligencji R1-0528 , jednocześnie generując odpowiedzi z liczbą tokenów wyjściowych mniejszą niż 40% R1-0528 .

Oznacza to, że generuje krótsze odpowiedzi, co przekłada się bezpośrednio na szybsze wnioskowanie i niższe koszty obliczeniowe . Na karcie modelu wydanej przez TNG dla swojego nowego R1T2 w społeczności udostępniania kodu AI Hugging Face, firma stwierdza, że ​​jest ona „około 20% szybsza niż zwykły R1” (wydany w styczniu) „i ponad dwukrotnie szybsza niż R1-0528” (oficjalna aktualizacja z maja od DeepSeek).

Już teraz reakcja społeczności programistów AI jest niezwykle pozytywna. „DO DIABŁA! DeepSeek R1T2 – 200% szybszy niż R1-0528 i 20% szybszy niż R1”, napisał Vaibhav (VB) Srivastav, starszy lider w Hugging Face, na X. „Znacznie lepszy niż R1 na GPQA i AIME 24, stworzony przez Assembly of Experts z DS V3, R1 i R1-0528 — i jest na licencji MIT, dostępny na Hugging Face”.

Uzyskanie takiego efektu jest możliwe dzięki metodzie Assembly-of-Experts (AoE) TNG — technice budowania modeli LLM poprzez selektywne scalanie tensorów wag (parametrów wewnętrznych) z wielu wstępnie wytrenowanych modeli, którą TNG opisał w artykule opublikowanym w maju w arXiv, nierecenzowanym czasopiśmie internetowym o otwartym dostępie.

Następca oryginalnego R1T Chimera, R1T2 wprowadza nową konfigurację „Tri-Mind”, która integruje trzy modele nadrzędne: DeepSeek-R1-0528, DeepSeek-R1 i DeepSeek-V3-0324. Rezultatem jest model zaprojektowany tak, aby utrzymać wysoką zdolność rozumowania, jednocześnie znacznie zmniejszając koszty wnioskowania.

R1T2 jest konstruowany bez dalszego dostrajania ani ponownego szkolenia. Dziedziczy siłę rozumowania R1-0528, ustrukturyzowane wzorce myślowe R1 i zwięzłe, zorientowane na instrukcje zachowanie V3-0324 — dostarczając bardziej wydajny, ale zdolny model do użytku w przedsiębiorstwach i badaniach.

Mixture-of-Experts (MoE) to projekt architektoniczny, w którym różne komponenty, czyli „eksperci”, są warunkowo aktywowane na podstawie danych wejściowych. W MoE LLM, takich jak DeepSeek-V3 lub Mixtral, tylko podzbiór warstw eksperckich modelu (np. 8 z 256) jest aktywny podczas przekazywania dowolnego tokena. Pozwala to bardzo dużym modelom na osiągnięcie większej liczby parametrów i specjalizacji przy jednoczesnym zachowaniu kosztów wnioskowania na rozsądnym poziomie — ponieważ tylko ułamek sieci jest oceniany na podstawie tokena.

Assembly-of-Experts (AoE) to technika łączenia modeli, a nie architektura. Służy do tworzenia nowego modelu z wielu wstępnie wytrenowanych modeli MoE poprzez selektywną interpolację ich tensorów wag.

„Eksperci” w AoE odnoszą się do scalanych komponentów modelu — zwykle kierowanych tensorów ekspertów w warstwach MoE — a nie do ekspertów dynamicznie aktywowanych w czasie wykonywania.

Implementacja AoE przez TNG koncentruje się przede wszystkim na łączeniu trasowanych tensorów eksperckich — części modelu najbardziej odpowiedzialnej za specjalistyczne rozumowanie — przy jednoczesnym zachowaniu bardziej wydajnych warstw współdzielonych i uwagi z szybszych modeli, takich jak V3-0324. To podejście umożliwia wynikowym modelom Chimera dziedziczenie siły rozumowania bez powielania rozwlekłości lub opóźnienia najsilniejszych modeli nadrzędnych.

Zgodnie z porównaniami testów porównawczych przedstawionymi przez TNG, R1T2 osiąga od 90% do 92% wydajności rozumowania swojego najinteligentniejszego rodzica, DeepSeek-R1-0528, mierzonej zestawami testowymi AIME-24, AIME-25 i GPQA-Diamond.

Jednak w przeciwieństwie do DeepSeek-R1-0528 — który ma tendencję do generowania długich, szczegółowych odpowiedzi ze względu na swój rozszerzony łańcuch rozumowania — R1T2 jest zaprojektowany tak, aby był o wiele bardziej zwięzły. Dostarcza podobnie inteligentnych odpowiedzi, używając znacznie mniej słów.

Zamiast skupiać się na surowym czasie przetwarzania lub tokenach na sekundę, TNG mierzy „prędkość” w kategoriach liczby tokenów wyjściowych na odpowiedź — praktyczny substytut zarówno kosztów, jak i opóźnień. Zgodnie z testami porównawczymi udostępnionymi przez TNG, R1T2 generuje odpowiedzi, wykorzystując około 40% tokenów wymaganych przez R1-0528.

Przekłada się to na 60-procentową redukcję długości danych wyjściowych , co bezpośrednio skraca czas wnioskowania i obciążenie obliczeniowe, przyspieszając odpowiedź dwukrotnie, czyli o 200%.

W porównaniu do oryginalnego DeepSeek-R1, R1T2 jest także średnio o 20% bardziej zwięzły , co zapewnia znaczący wzrost wydajności w przypadku wdrożeń wymagających dużej przepustowości lub oszczędności.

Ta wydajność nie jest okupiona kosztem inteligencji. Jak pokazano na wykresie porównawczym zaprezentowanym w dokumencie technicznym TNG, R1T2 znajduje się w pożądanej strefie na krzywej inteligencji w stosunku do kosztów wyjściowych. Zachowuje jakość rozumowania, minimalizując jednocześnie rozwlekłość — wynik krytyczny dla aplikacji korporacyjnych, w których liczy się szybkość wnioskowania, przepustowość i koszt.

R1T2 został wydany na podstawie liberalnej licencji MIT i jest już dostępny na Hugging Face, co oznacza, że ​​jest oprogramowaniem typu open source i można go używać oraz wbudowywać w aplikacje komercyjne.

TNG zauważa, że ​​chociaż model jest dobrze przystosowany do ogólnych zadań rozumowania, obecnie nie jest zalecany do przypadków użycia wymagających wywołania funkcji lub użycia narzędzi, ze względu na ograniczenia odziedziczone po linii DeepSeek-R1. Mogą one zostać uwzględnione w przyszłych aktualizacjach.

Firma zaleca również europejskim użytkownikom ocenę zgodności z unijną ustawą o sztucznej inteligencji, która wejdzie w życie 2 sierpnia 2025 r.

Przedsiębiorstwa działające na terenie UE powinny dokonać przeglądu odpowiednich przepisów lub rozważyć zaprzestanie korzystania z modelu po tej dacie, jeżeli nie będzie można spełnić wymogów.

Jednakże firmy amerykańskie działające na rynku krajowym i obsługujące użytkowników z USA lub z innych krajów nie podlegają postanowieniom ustawy UE o sztucznej inteligencji, co powinno dać im znaczną elastyczność podczas korzystania i wdrażania tego bezpłatnego, szybkiego modelu rozumowania typu open source. Jeśli obsługują użytkowników w UE, niektóre postanowienia ustawy UE nadal będą miały zastosowanie .

TNG udostępniło już wcześniejsze warianty Chimera za pośrednictwem platform takich jak OpenRouter i Chutes, gdzie podobno przetwarzali miliardy tokenów dziennie. Wydanie R1T2 stanowi dalszą ewolucję w tym publicznym wysiłku na rzecz dostępności.

Założona w styczniu 2001 r. firma TNG Technology Consulting GmbH ma siedzibę w Bawarii, w Niemczech i zatrudnia ponad 900 osób, w tym dużą część osób posiadających tytuł doktora i specjalistów technicznych.

Firma koncentruje się na rozwoju oprogramowania, sztucznej inteligencji oraz usługach DevOps/w chmurze, obsługując dużych klientów korporacyjnych z takich branż jak telekomunikacja, ubezpieczenia, motoryzacja, handel elektroniczny i logistyka.

TNG działa jako partnerstwo konsultingowe oparte na wartościach. Jego unikalna struktura, oparta na badaniach operacyjnych i zasadach samozarządzania, wspiera kulturę innowacji technicznych.

Aktywnie uczestniczy w społecznościach i badaniach open source, czego dowodem są publiczne wydania, takie jak R1T2, oraz publikacja metodologii Assembly-of-Experts.

Dla dyrektorów technicznych, właścicieli platform AI, liderów inżynierii i zespołów ds. zakupów IT R1T2 oznacza wymierne korzyści i opcje strategiczne:

  • Niższe koszty wnioskowania : Dzięki mniejszej liczbie tokenów wyjściowych na zadanie R1T2 skraca czas pracy procesora graficznego i zużycie energii, co przekłada się bezpośrednio na oszczędności w infrastrukturze — co jest szczególnie ważne w środowiskach o wysokiej przepustowości lub w czasie rzeczywistym.
  • Wysoka jakość rozumowania bez narzutu : zachowuje dużą część mocy rozumowania modeli najwyższej klasy, takich jak R1-0528, ale bez ich rozwlekłości. Jest to idealne rozwiązanie do zadań strukturalnych (matematyka, programowanie, logika), w których preferowane są zwięzłe odpowiedzi.
  • Otwarte i modyfikowalne : licencja MIT zapewnia pełną kontrolę wdrożenia i dostosowywanie, umożliwiając hosting prywatny, dopasowywanie modeli lub dalsze szkolenia w ramach środowisk regulowanych lub odizolowanych od sieci.
  • Nowa modułowość : Podejście AoE sugeruje przyszłość, w której modele będą budowane modułowo, umożliwiając przedsiębiorstwom składanie wyspecjalizowanych wariantów poprzez łączenie mocnych stron istniejących modeli, zamiast ponownego szkolenia od podstaw.
  • Zastrzeżenia : Przedsiębiorstwa, które opierają się na wywoływaniu funkcji, korzystaniu z narzędzi lub zaawansowanej orkiestracji agentów, powinny zwrócić uwagę na obecne ograniczenia, choć przyszłe aktualizacje Chimery mogą wyeliminować te luki.

TNG zachęca badaczy, deweloperów i użytkowników korporacyjnych do eksploracji modelu, testowania jego zachowania i przekazywania opinii. R1T2 Chimera jest dostępna na huggingface.co/tngtech/DeepSeek-TNG-R1T2-Chimera , a zapytania techniczne można kierować na adres [email protected] .

Informacje na temat podstaw technicznych i metodologii testów porównawczych można znaleźć w artykule badawczym TNG pod adresem arXiv:2506.14794 .

Codzienne spostrzeżenia na temat przypadków użycia biznesowego z VB Daily

Jeśli chcesz zaimponować swojemu szefowi, VB Daily ma dla Ciebie rozwiązanie. Dajemy Ci wewnętrzny wgląd w to, co firmy robią z generatywną sztuczną inteligencją, od zmian regulacyjnych po praktyczne wdrożenia, dzięki czemu możesz dzielić się spostrzeżeniami, aby uzyskać maksymalny zwrot z inwestycji.

Przeczytaj naszą Politykę prywatności

Dziękujemy za subskrypcję. Sprawdź więcej newsletterów VB tutaj .

Wystąpił błąd.

venturebeat

venturebeat

Podobne wiadomości

Wszystkie wiadomości
Animated ArrowAnimated ArrowAnimated Arrow