GPT-OSS: Hoe het 'open-gewicht'-model (niet per se open source) van OpenAI eruitziet

Op 5 augustus 2025 bracht OpenAI twee versies van GPT-OSS uit. Op de OpenAI-blog werd beschreven dat deze versies echt concurrerende prestaties leverden vergeleken met de concurrentie, tegen lage kosten en met resultaten die bijna in lijn lagen met die van enkele eerdere modellen.
"Deze modellen zijn beschikbaar onder de flexibele Apache 2.0-licentie", aldus de blogpost, "en presteren beter dan open modellen van vergelijkbare omvang bij redeneertaken, tonen sterke toolingmogelijkheden en zijn geoptimaliseerd voor efficiënte implementatie op consumentenhardware."
Tot zover de marketing van OpenAi en van hieruit een meer gedetailleerde analyse van wat GPT-OSS werkelijk is.
Open source of open gewicht?Ondanks de zojuist geciteerde verklaring, die stelt dat de modellen “beschikbaar zouden zijn onder de flexibele Apache 2.0-licentie…”, is GPT-OSS helemaal niet, zoals men zou kunnen denken, open source maar slechts “open weight”, wat iets totaal anders is.
OpenAI paste de Apache 2.0-licentie van GPT-OSS feitelijk alleen toe op de gewichten en niet op al het andere. Met andere woorden, OpenAI besloot de parameters die bepalen hoe een neuraal netwerk reageert na training (de gewichten, om precies te zijn) openbaar en herbruikbaar te maken , maar deed dat niet met de softwarecomponenten die bijvoorbeeld voor training werden gebruikt.
De keuze is volledig legitiem en begrijpelijk vanuit commercieel oogpunt, maar het laat niet toe dat de betekenis van de woorden wordt opgerekt door te impliceren dat gebruikers toegang hebben tot alles wat in het model is opgenomen. Daarom zou het nauwkeuriger zijn geweest om te schrijven: " Met de gewichten die beschikbaar zijn onder de flexibele Apache 2.0-licentie, kunnen deze modellen..." – drie woorden die de vorm van de zin en de inhoud ervan radicaal veranderen.
Wat betekent het dat GPT-OSS niet open source is?GPT-OSS als geheel is noch "open source" noch " vrij " in de juridische zin van het woord zoals gedefinieerd door de Free Software Foundation , wat betekent dat het volledig vrij is, zelfs wat betreft de softwarecomponenten. Wat de software betreft, is GPT-OSS eerder een "propriëtair" model, in de zin dat OpenAI controle en geheimhouding behoudt over hoe het is gebouwd en hoe het wordt beheerd.
Een AI-platform bestaat in feite uit vele onderdelen, zoals, op een zeer ruwe en extreem (en zelfs overdreven) vereenvoudigde manier: ruwe data die vervolgens worden georganiseerd in een dataset , software die wordt gebruikt om de dataset te creëren en te beheren waarop het model werkt, en, meer specifiek, de " gewichten ". Alleen deze laatste, zoals vermeld, worden vrijgegeven onder de Apache 2.0-licentie , die het mogelijk maakt om "het werk en dergelijke afgeleide werken in bron- of objectvorm te reproduceren, er afgeleide werken van te maken , openbaar te vertonen, openbaar uit te voeren, in sublicentie te geven en te distribueren".
Het feit dat "flexibiliteit" alleen betrekking heeft op het hergebruik van gewichten is cruciaal, want als alleen deze herbruikbaar en aanpasbaar zijn, kan iedereen de werking van het model "aanpassen", maar slechts gedeeltelijk . Dit vormt een ernstig probleem dat ons ertoe zou kunnen aanzetten om twee keer na te denken voordat we "gefinetunede" GPT-OSS-modellen creëren en deze gebruiken om producten en diensten aan te bieden.
Open gewicht, veiligheidscontrole en jailbreakNaast het creëren van (gedeeltelijk) gespecialiseerde versies van GPT-OSS, zou het werken met de gewichten ons in theorie in staat stellen om de in het model ingebouwde beveiligingscontroles te elimineren of op zijn minst de efficiëntie ervan te verminderen. Deze controles zouden moeten voorkomen dat er reacties worden gegenereerd die de ontwerpers onaanvaardbaar achten - volgens subjectieve normen, en niet noodzakelijkerwijs opgelegd door de wet.
De inleiding tot de GPT-OSS-modelkaart en de daaropvolgende meer gedetailleerde beschrijving benadrukken bijzondere aandacht voor het filteren van bijvoorbeeld gegevens met betrekking tot chemische, biologische, radiologische en nucleaire gebieden . Dit om te voorkomen dat het model een hoge capaciteit bereikt om gevaarlijke reacties in deze sectoren te leveren, zelfs door een "kwaadaardige" verfijning uit te voeren.
Hieruit lijken twee hypothetische en één zekere consequentie te kunnen worden afgeleid.
De eerste is dat het in ieder geval (extreem moeilijk, maar) mogelijk lijkt om GPT-OSS nauwkeuriger te maken voor illegale doeleinden (tenzij er bijvoorbeeld systemen worden geïmplementeerd die het model ‘kapotmaken’ in het geval van ongewenste overschrijvingen van de nauwkeurigheid).
De tweede, gebaseerd op de vorige aanname, is dat niet wordt gespecificeerd welke schade er kan worden aangericht met deze minder efficiënte en capabele illegale modellen, die nog steeds aan de ‘donkere kant’ functioneren.
Wat de antwoorden op deze twee vragen ook zijn, bij gebrek aan experimenteel bewijs zou elke bewering puur speculatief zijn; integendeel, het is zeker dat, om dezelfde redenen, niet alle GPT-OSS-nauwkeurigheden mogelijk zouden zijn. Daarom zou de juridische kwalificatie van het model verdere verduidelijking behoeven, waarbij duidelijk moet worden gemaakt dat de gewichten kunnen worden aangepast binnen de nauwe grenzen die onafhankelijk door OpenAI zijn vastgesteld en dat het model daarom een "gedeeltelijk open gewicht" is of dat de Apache 2.0-licentie niet volledig van toepassing is.
(Bijna) iedereen doet het zoConcluderend is het duidelijk (en in sommige opzichten vanzelfsprekend) dat GPT-OSS, net als de gepatenteerde versies en die van (bijna) alle concurrenten, een zeer breed gebruik mogelijk maakt, maar in ieder geval beperkt wordt door de ontwerpkeuzes van degenen die het hebben gemaakt, wat onacceptabel is.
Het maakt niet uit of dit gedaan wordt om juridische stappen te voorkomen , om de verspreiding van informatie die onwelgevallig is voor leidinggevenden te beperken ( zoals in het geval van DeepSeek ) of om te voorkomen dat we overspoeld worden door de onvermijdelijke golven van maatschappelijke verontwaardiging die ontstaan wanneer iemand de tool (en niet de gebruiker) de schuld geeft van illegaal of verontrustend gebruik .
Het vooraf beperken - censureren - van het gebruik van een LLM omdat iemand het zou kunnen misbruiken om illegale handelingen te plegen, betekent dat alle gebruikers worden behandeld als potentiële gevaren die daarom hoe dan ook in de gaten moeten worden gehouden, en dan nog wel door een particuliere entiteit volgens haar eigen regels.
Deze aanpak leidde terecht tot controverse en protesten toen Apple en de Europese Commissie begonnen te praten over client-side scanning (het preventief en automatisch doorzoeken van alle apparaten van gebruikers op illegale inhoud voordat deze kan worden verzonden).
Als dat zo is, is het niet duidelijk waarom OpenAI en alle andere AI-bedrijven mogen doen wat wij anderen vragen te verbieden.
Als er daarentegen een gegronde zorg bestaat dat een model zonder veiligheidscontroles te gevaarlijk is, dan moeten staten de verantwoordelijkheid nemen om de reikwijdte van deze controles te definiëren, in plaats van deze te delegeren aan particuliere instanties waarvan de agenda's niet noodzakelijkerwijs samenvallen met de bescherming van het publieke belang (van burgers die niet noodzakelijkerwijs Amerikaanse staatsburgers zijn).
La Repubblica