Meer dan dertig jaar geleden zag Red Hat al de potentie van open source-ontwikkeling en -licenties om betere software te creëren en IT-innovatie te bevorderen. Dertig miljoen regels code later is Linux niet alleen uitgegroeid tot de meest succesvolle open source-software, maar behoudt het die positie tot op de dag van vandaag. De toewijding aan open source-principes blijft bestaan, niet alleen in het bedrijfsmodel, maar ook als onderdeel van de bedrijfscultuur. Volgens het bedrijf hebben deze concepten, mits correct toegepast, dezelfde impact op kunstmatige intelligentie (AI), maar de technologiewereld is verdeeld over wat de "juiste manier" zou zijn.
Kunstmatige intelligentie (AI), met name de grote taalmodellen (LLM's) die ten grondslag liggen aan generatieve AI (gen AI), kan niet op dezelfde manier worden beschouwd als een open-sourceprogramma. In tegenstelling tot software bestaan AI-modellen voornamelijk uit numerieke parametermodellen die bepalen hoe een model input verwerkt en welke verbanden het legt tussen verschillende datapunten. De parameters van getrainde modellen zijn het resultaat van een lang proces waarbij enorme hoeveelheden trainingsdata zorgvuldig worden voorbereid, gemengd en verwerkt.
Hoewel modelparameters geen software zijn, hebben ze in sommige opzichten een functie die vergelijkbaar is met code. Het is gemakkelijk om de data te vergelijken met de broncode van het model, of iets dat daar sterk op lijkt. In open source wordt broncode doorgaans gedefinieerd als de "voorkeurswijze" om wijzigingen in de software aan te brengen. Trainingsdata alleen voldoen niet aan deze functie, gezien de variërende omvang ervan en het gecompliceerde pre-trainingsproces dat resulteert in een zwakke en indirecte link tussen elk data-item dat gebruikt wordt voor de training en de getrainde parameters en het daaruit voortvloeiende gedrag van het model.
De meeste verbeteringen en uitbreidingen aan AI-modellen die momenteel in de community plaatsvinden, vereisen geen toegang tot of manipulatie van de oorspronkelijke trainingsdata. In plaats daarvan komen ze voort uit aanpassingen aan modelparameters of een proces of afstelling die tevens kan dienen om de modelprestaties te verfijnen. De vrijheid om deze modelverbeteringen door te voeren vereist dat parameters worden vrijgegeven met alle rechten die gebruikers onder open source-licenties krijgen.
De visie van Red Hat op open source AI.
Red Hat is ervan overtuigd dat de basis van open source AI ligt in open source gelicentieerde modelparameters in combinatie met open source softwarecomponenten . Dit is een startpunt voor open source AI, maar niet het uiteindelijke doel van deze filosofie. Red Hat moedigt de open source community, regelgevende instanties en de industrie aan om te blijven streven naar meer transparantie en afstemming op de principes van open source ontwikkeling bij het trainen en afstemmen van AI-modellen.
Dit is de visie van Red Hat als bedrijf dat een open-source software-ecosysteem omarmt en praktisch kan samenwerken met open-source AI. Het is geen poging tot een formele definitie, zoals die van het Open Source Initiative (OSI) met zijn Open Source AI Definition (OSAID). Dit is het perspectief van het bedrijf op hoe open-source AI haalbaar en toegankelijk kan worden gemaakt voor een zo breed mogelijk scala aan gemeenschappen, organisaties en leveranciers.
Dit perspectief wordt in de praktijk gebracht door samenwerking met open-sourcegemeenschappen, zoals blijkt uit het InstructLab , geleid door Red Hat, en de gezamenlijke inspanning met IBM Research aan de Granite-familie van gelicentieerde open-sourcemodellen . InstructLab verlaagt de drempels aanzienlijk voor niet-datawetenschappers om bij te dragen aan AI-modellen. Met InstructLab kunnen domeinexperts uit alle sectoren hun vaardigheden en kennis inbrengen, zowel voor intern gebruik als om een gedeeld en breed toegankelijk open-source AI-model te creëren voor de upstream-gemeenschappen.
De Granite 3.0-modellenreeks is geschikt voor een breed scala aan AI-toepassingen, van codegeneratie en natuurlijke taalverwerking tot het extraheren van inzichten uit grote datasets, en dat alles onder een flexibele open-sourcelicentie. We hebben IBM Research geholpen de Granite-modellenreeks naar de open-sourcewereld te brengen en blijven de modellenreeks ondersteunen, zowel vanuit een open-sourceperspectief als binnen ons Red Hat AI-aanbod.
De gevolgen van de recente aankondigingen van DeepSeek laten zien hoe open-source innovatie AI kan beïnvloeden, zowel op modelniveau als daarbuiten. Er zijn uiteraard zorgen over de aanpak van het Chinese platform, met name over het feit dat de licentie van het model niet uitlegt hoe het is geproduceerd, wat de behoefte aan transparantie benadrukt. Desondanks versterkt de eerdergenoemde disruptie de visie van Red Hat op de toekomst van AI: een open toekomst gericht op kleinere, geoptimaliseerde en open modellen die kunnen worden aangepast aan specifieke data-usecases binnen bedrijven, op elke locatie in de hybride cloud.
Het uitbreiden van AI-modellen buiten open source.
Het werk van Red Hat op het gebied van open source AI gaat veel verder dan InstructLab en de Granite-modellenfamilie, en strekt zich uit tot de tools en platforms die nodig zijn om AI daadwerkelijk te gebruiken en productief in te zetten. Het bedrijf is zeer actief geworden in het stimuleren van technologieprojecten en -gemeenschappen, zoals (maar niet beperkt tot):
● RamaLama , een open-sourceproject dat tot doel heeft het lokale beheer en de implementatie van AI-modellen te vergemakkelijken;
● TrustyAI , een open-source toolkit voor het bouwen van meer verantwoorde AI-workflows;
● Climatik , een project dat zich richt op het duurzamer maken van AI op het gebied van energieverbruik;
● Podman AI Lab , een ontwikkelaarstoolkit gericht op het faciliteren van experimenten met open-source LLM's;
De recente aankondiging over Neural Magic verbreedt de visie van bedrijven op AI, waardoor organisaties kleinere, geoptimaliseerde AI-modellen, inclusief gelicentieerde open-source systemen, kunnen afstemmen op hun data, ongeacht waar deze zich in de hybride cloud bevinden. IT-organisaties kunnen vervolgens de vLLM- om beslissingen en productie op basis van deze modellen aan te sturen, wat bijdraagt aan de opbouw van een AI-stack gebaseerd op transparante en ondersteunde technologieën.
Voor het bedrijf is open source AI volledig geïntegreerd in de hybride cloud. De hybride cloud biedt de flexibiliteit die nodig is om voor elke AI-workload de beste omgeving te kiezen, waardoor prestaties, kosten, schaalbaarheid en beveiligingsvereisten worden geoptimaliseerd. De platforms, doelstellingen en organisatie van Red Hat ondersteunen deze inspanningen, samen met branchepartners, klanten en de open source-gemeenschap, terwijl open source in kunstmatige intelligentie verder wordt ontwikkeld.
Er is een enorm potentieel om deze open samenwerking in de AI-sector uit te breiden. Red Hat ziet een toekomst voor zich waarin transparant wordt gewerkt aan modellen, en ook aan hun training. Of het nu volgende week, volgende maand of zelfs eerder is (gezien de snelle ontwikkeling van AI), het bedrijf en de open community als geheel zullen zich blijven inzetten voor de democratisering en openheid van de AI-wereld.

