Nyheter

Red Hat Enterprise Linux AI nu tillgänglig för företag som satsar på AI-innovation i produktion

Red Hat, ledande leverantör av lösningar med öppen källkod, lanserar idag Red Hat Enterprise Linux (RHEL) AI över hybridmolnet. RHEL AI är Red Hats grundmodellsplattform som låter användare sömlöst utveckla, testa och köra generativa AI-modeller (gen AI) för företagsapplikationer.

Plattformen kombinerar den öppen källkodslicensierade Granite Large Language Model (LLM)-sviten och InstructLab-modelljusteringsverktygen, baserade på Large-scale Alignment for chatBots (LAB)-metoden. Dessa är paketerade som en optimerad, startbar RHEL-avbildning för enskilda serverdistributioner över hybridmolnet.

Även om gen AIs potential är enorm, kan kostnaderna för att anskaffa, träna och finjustera LLM:er vara skyhöga, med vissa ledande modeller som kostar närmare 200 miljoner USD att träna innan lanseringen. Detta inkluderar inte kostnaden för anpassning till specifika krav eller data från en given organisation, vilket ofta kräver datavetare eller specialiserade utvecklare.

Oavsett vald modell krävs anpassning till företagsspecifika data och processer, vilket gör att effektivitet och smidighet är avgörande för AI i faktiska produktionsmiljöer.

Red Hat tror att mindre, mer effektiva och anpassade AI-modeller under det kommande decenniet kommer att utgöra en betydande blandning av företagets IT-stack, tillsammans med molnbaserade applikationer. För att uppnå detta måste gen AI bli mer tillgängligt, både när det gäller kostnader och var i hybridmolnet den kan köras.

Gemenskaper med öppen källkod har i decennier löst liknande utmaningar för komplexa programvaruproblem genom bidrag från olika användare; ett liknande tillvägagångssätt kan sänka hindren för att effektivt använda gen AI.

Joe Fernandes, vice president och general manager, Foundation Model Platforms, Red Hat:

– För att gen AI-applikationer ska bli framgångsrika bland företag måste de göras mer tillgängliga för fler organisationer och användare samt mer tillämpbara på specifika affärsfall. RHEL AI gör det möjligt för domänexperter, inte bara dataforskare, att bidra till en ändamålsenlig gen AI-modell över hybridmolnet och för IT-organisationer att skala upp dessa modeller för produktion genom Red Hat OpenShift AI.

En öppen källkodsstrategi för gen AI

Dessa är de utmaningar som RHEL AI avser att lösa – att göra gen AI mer tillgängligt, effektivt och flexibelt för CIO och företags IT-organisationer över hybridmolnet. RHEL AI hjälper till att:

Styra gen AI-innovation med företagsklassiga, open-source-licensierade Granite-modeller som är anpassade till en mängd olika gen AI-användningsfall.
Effektivisera anpassningen av gen AI-modeller till affärskrav med InstructLab-verktyg, så att domänexperter och utvecklare kan bidra med sina unika kunskaper utan att det krävs omfattande datavetenskapliga färdigheter.
Träna och distribuera gen AI över hybridmolnet med verktyg för att trimma och distribuera modeller för produktionsservrar där data finns. RHEL AI erbjuder också en enkel väg till Red Hat OpenShift AI för att träna, trimma och serva dessa modeller i stor skala med samma verktyg och koncept.

RHEL AI stöds av fördelarna med en Red Hat-prenumeration, som inkluderar tillförlitlig distribution av företagsprodukter, produktionssupport dygnet runt, utökad support för modellens livscykelhantering, modellintelligent egendomsersättning och juridiskt skydd tillsammans med Open Source Assurance.

RHEL AI sträcker sig över hybridmolnet

Att föra en konsekvent grundmodellplattform närmare där en organisations data finns är avgörande för att stödja produktions-AI-strategier. Som en förlängning av Red Hats hybridmolnportfölj kommer RHEL AI att omfatta alla tänkbara företagsmiljöer, från on-premise datacenter till edge-miljöer och det offentliga molnet. RHEL AI kommer att vara tillgänglig direkt från Red Hat, från Red Hats OEM-partners och köras på världens största molnleverantörer, inklusive Amazon Web Services (AWS), Google Cloud Platform (GCP), IBM Cloud och Microsoft Azure. Detta möjliggör för utvecklare och IT-organisationer att använda hyperscaler-beräkningsresurser för att bygga innovativa AI-koncept med RHEL AI.

Tillgänglighet

RHEL AI finns idag tillgänglig via Red Hat Customer Portal för att köras on-premise eller för uppladdning till AWS och IBM Cloud som ett “bring your own subscription” (BYOS)-erbjudande. Ett BYOS-erbjudande på Azure och GCP är planerat till fjärde kvartalet 2024, och RHEL AI förväntas bli tillgänglig som en tjänst på IBM Cloud senare i år.

Red Hat planerar att utöka RHEL AI utbud av moln- och OEM-partners de kommande månaderna, vilket ger fler valmöjligheter inom hybridmolnmiljöer.

Ta reda på mer om Red Hats och Dells ansträngningar för att köra AI-arbetsbelastningar med öppen källkod
Läs mer om RHEL AI
Lär mer om hur RHEL AI gör det enklare att prova LLM

Se en video om hur RHEL AI hjälper till att göra gen AI mer tillgänglig