Red Hat AI Enterprise brengt AI samen op één platform
Red Hat AI Enterprise helpt organisaties de stap te zetten van AI-infrastructuur naar productieklare agents in de hybrid cloud
Amsterdam, 24 februari 2026 – Red Hat, ’s werelds toonaangevende leverancier van open source-oplossingen, kondigt vandaag Red Hat AI Enterprise aan, een geïntegreerd AI-platform om AI-modellen, agents en toepassingen uit te rollen en te beheren in de hybride cloud. De nieuwe oplossing wordt geïntegreerd in het Red Hat AI-portfolio, met daarin Red Hat AI Inference Server, Red Hat OpenShift AI en Red Hat Enterprise Linux AI.
Red Hat introduceert daarnaast ook Red Hat AI 3.3, met belangrijke updates en verbeteringen in het volledige AI-portfolio van het bedrijf. Samen vormen deze oplossingen een volledige “metal-to-agent”-stack: van de technische basis tot geavanceerde agents. Zo kunnen organisaties doorgroeien van losse AI-tests naar een beheerde, autonome omgeving.
Het enterprise‑AI‑landschap evolueert razendsnel van simpele chatinterfaces naar autonome, agentische workflows die diep in de volledige technologiestack grijpen. Toch blijven veel organisaties, door versnipperde tools en een wisselende technische basis, steken in de pilotfase. Red Hat AI Enterprise pakt dat aan door de levenscyclus van modellen en toepassingen samen te brengen, zodat IT-teams AI kunnen beheren als een gestandaardiseerd systeem voor de onderneming in plaats van als een losstaand project. Daardoor wordt AI-uitrol even betrouwbaar en herhaalbaar als traditionele bedrijfssoftware.
Red Hat AI Enterprise: de basis voor AI in productie
Red Hat AI Enterprise biedt een reeks AI-functionaliteiten, waaronder snelle AI-verwerking, het afstemmen en aanpassen van modellen, en de uitrol en het beheer van agents. Elk model en type hardware kan worden ondersteund in elke omgeving. Met Red Hat OpenShift als motor, het toonaangevende applicatieplatform voor de hybride cloud op basis van Kubernetes, biedt Red Hat AI Enterprise een sterk schaalbare en meer consistente ervaring.
Voor NVIDIA‑AI‑infrastructuur hebben Red Hat en NVIDIA gezamenlijk Red Hat AI Factory met NVIDIA ontwikkeld, waarin Red Hat AI Enterprise en NVIDIA AI Enterprise worden gecombineerd om productie‑AI bij ondernemingen sneller en op grotere schaal te realiseren.
Belangrijke voordelen van Red Hat AI Enterprise zijn:
- Snellere, kostenefficiëntere en schaalbare AI-verwerking met de vLLM-inference-engine en het llm-d distributed inference framework voor een geoptimaliseerde uitrol van generatieve AI-modellen over hybride hardwareomgevingen.
- Geïntegreerde monitoring en levenscyclusbeheer om de AI-werking beter te sturen en risico’s te beperken met een geïntegreerde, geteste en interoperabele AI-stack op ondernemingsniveau.
- Flexibiliteit over de hybride cloud heen doordat organisaties AI-modellen, agents en toepassingen consistenter kunnen uitrollen en beheren waar hun business die nodig heeft, ondersteund door vertrouwde Red Hat-platformen.
Strategische flexibiliteit en efficiëntie met Red Hat AI 3.3
Red Hat wil de kloof tussen bedrijfskritische stabiliteit en grensverleggende innovatie overbruggen via één uniform platform. De nieuwste softwareversie van Red Hat AI breidt de modelkeuze uit, verbetert de afstemming over de volledige stack voor chips van de volgende generatie en versterkt de operationele consistentie voor frontier-modellen.
Nieuwe functies en verbeteringen omvatten:
- Een uitgebreider Red Hat AI-model-ecosysteem met gevalideerde, productieklare gecomprimeerde versies van Mistral-Large-3, Nemotron-Nano en Apertus-8B-Instruct, beschikbaar via de OpenShift AI Catalog. Daarnaast maakt deze release de uitrol mogelijk van state-of-the-art-modellen zoals Ministral 3 en DeepSeek-V3.2 met sparse attention, en levert ze multimodale verbeteringen op, waaronder een drie keer snellere Whisper, geospatiale ondersteuning, verbeterde EAGLE speculative decoding en verbeterde tool calling voor agentische werkstromen.
- Selfservice-toegang tot AI-modellen met een technology preview van Models-as-a-Service (MaaS). IT-teams kunnen selfservice-toegang bieden tot privaat gehoste modellen via een API-gateway. Deze gecentraliseerde aanpak zorgt ervoor dat AI on-demand beschikbaar is voor interne gebruikers en creëert een direct inzetbare AI-basis die private en schaalbare AI-adoptie binnen de onderneming stimuleert.
- Uitgebreide hardwareondersteuning, waaronder een technology preview van generatieve AI-ondersteuning op CPU’s, te beginnen met Intel CPU’s voor kostenefficiëntere inferentie van small language models (SLM’s). Daarnaast heeft het platform zijn hardwarecertificering uitgebreid voor NVIDIA’s Blackwell Ultra en ondersteuning voor AMD MI325X-accelerators.
- Een geünificeerde data-naar-model-levenscyclus, beveiligd door de nieuwe Red Hat AI Python Index. Deze vertrouwde repository levert geharde versies op ondernemingsniveau van kritieke tools, waaronder Docling, SDG Hub, en Training Hub, zodat teams kunnen doorgroeien van versnipperde experimenten naar herhaalbare, beveiligingsgerichte productie-pijplijnen.
- Uitgebreide monitoring en veiligheid voor AI met meer zicht op modelgezondheid, prestaties en gedrag. Dit biedt realtime telemetrie over AI-workloads, llm-d-deployments en Models-as-a-Service (MaaS)-cluster- en modelgebruik en wordt gecombineerd met een technology preview van geïntegreerde NeMo Guardrails, zodat ontwikkelaars operationele veiligheid en afstemming over AI-interacties heen kunnen afdwingen.
- On-demand toegang tot GPU-resources bieden door organisaties in staat te stellen hun eigen interne GPU-as-a-Service-mogelijkheden uit te rollen via slimme orkestratie en gedeelde hardwaretoegang met automatische checkpointing om de status van langlopende trainingsjobs op te slaan, werkverlies te voorkomen en rekenkosten voorspelbaarder te houden, zelfs in erg dynamische of preemptible omgevingen.
Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat: “Om met AI echte bedrijfswaarde te creëren, moet AI operationeel ingebed worden als een kernonderdeel van de enterprise softwarestack, niet als een losstaande silo. Red Hat AI Enterprise is ontworpen om de kloof tussen infrastructuur en innovatie te overbruggen met één uniform platform van metal tot agent. Door geavanceerde afstemming en agentische mogelijkheden te combineren met de toonaangevende basis van Red Hat Enterprise Linux en Red Hat OpenShift, bieden we de volledige stack, van GPU-versnelde hardware tot de modellen en agents die de bedrijfslogica aansturen. Daarnaast kunnen organisaties met Red Hat AI 3.3 voorbij versnipperde pilots gaan naar beheerde, herhaalbare en performante AI-operaties over de hybride cloud heen.”
Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.