Text: Martin Isaksson, lead GTM & business development EMEA, AI business unit på Red Hat
AI-trenden håller i sig och visar inga tecken på att avta. Samtidigt stöter många svenska företag på utmaningar när de försöker utveckla, driftsätta och hantera AI-modeller och applikationer. För att lyckas med sin AI-satsning och göra tekniken både tillgänglig och lönsam, behöver organisationer ha koll på fyra avgörande områden: AI-infrastruktur, plattformar, modeller och slutligen de AI-drivna applikationerna som skapar verklig nytta.
Artificiell intelligens (AI) och maskininlärning (ML) kommer utan tvekan att fortsätta förändra både affärslivet och vår vardag. Det har blivit vanligare att organisationer i alla branscher går vidare från små pilotprojekt och inför AI- och ML-lösningar i större skala för att dra nytta av effektivitets- och produktivitetsvinster.
Det finns dock flera utmaningar med att införa AI, inte minst att få den att fungera i praktiken. Som en följd misslyckas många AI-projekt innan de ens satts i drift. Precis som i vilket mjukvaruprojekt som helst är det avgörande att ha en tydlig struktur och väl definierade mål. AI-utveckling kräver, likt apputveckling, ett arbetssätt som bygger på DevOps-principer, en så kallad MLOps-process.
Det är också tydligt att användningen av AI ökar komplexiteten i applikationsutvecklingsprojekt – det handlar i viss mening om två olika arbetsflöden. Men när både applikations- och AI-utveckling sker på samma plattform förenklas processen avsevärt.
AI kan tillämpas på en mängd olika sätt beroende på specifika behov, och dess potential sträcker sig ofta över hela verksamheten, långt bortom en enskild avdelning. Flera viktiga frågor uppstår när man beslutar hur AI ska användas: Är det prediktiv eller generativ AI som behövs? Ska en egen lösning utvecklas eller en extern tjänst köpas in? Hur undviker man leverantörsinlåsning,,skugg-IT och växande arbetsbelastningar? Kan man lita på att AI hanteras ansvarsfullt? För att besvara detta krävs en noggrann utvärdering av fyra områden: infrastruktur, plattform, modeller och applikationer.
Containerplattform som AI-infrastruktur
När man inför AI bör första steget vara att välja rätt infrastruktur för en agil AI/ML-miljö. Proprietära lösningar kan försvåra integration och skalning. Öppen källkod, containrar och Kubernetes är centrala för att påskynda AI- och ML-livscykler samt driftsättning av intelligenta applikationer. Dessa teknologier ger dataanalytiker den flexibilitet och skalbarhet som behövs för att träna, testa och driftsätta modeller i produktion.
Det är viktigt att komma ihåg att AI är ett lagarbete. Förutom rätt verktyg behövs rätt personer; dataingenjörer, datavetare, apputvecklare och IT-ops-team. Med en gemensam containerplattform minskar risken för skugg-IT runt AI eller att olika plattformar och verktyg används i olika delar av verksamheten.
MLOps som AI-plattform
Plattformen som används är alltid en central del av en AI-miljö. För att undvika leverantörsinlåsning, hålla jämna steg med nya AI-innovationer och implementera alla möjliga användningsfall, rekommenderas en flexibel, kompatibel och hybrid MLOps-plattform baserad på öppen källkod som är tätt integrerad med en containerplattform.
En hybrid MLOps-plattform möjliggör träning, finjustering, driftsättning och övervakning av AI-modeller i molnet, vid nätverkskanten och lokalt. Flexibilitet och kompatibilitet skapas genom en modulär struktur och plug-and-play-lösningar med öppen källkod och andra AI-verktyg. Öppen källkod ger transparens, pålitlig AI och driver innovation. Med en sådan lösningsgrund kan organisationer utveckla sin AI-användning stegvis och samtidigt ha kontroll på kostnaderna.
Flexibel användning av AI-modeller
Med en container- och MLOps-plattform finns också en hög grad av flexibilitet när det gäller de AI-modeller som används. Å ena sidan stöds både prediktiv (klassisk) AI och generativ AI. Å andra sidan kan företag skapa sina egna basmodeller från grunden eller använda öppen källkod-modeller. Vid modell-som-tjänst-lösningar måste man ta hänsyn till integriteten så att konfidentiella data inte kan delas med tredjepartsleverantörer.
AI-drivna applikationer som mål
Det viktigt att målet alltid är de AI-drivna applikationerna i sig. AI-modellerna måste vara användbara för en specifik uppgift, som exempelvis kodassistenter, som avsevärt ökar utvecklares effektivitet och produktivitet. Även här bör AI- och applikationsutveckling ske på samma containerplattform för att skapa säkra och skalbara AI-applikationer i hela organisationen. Företag bör ha detta slutmål i åtanke i varje AI-projekt – det är här avkastningen på AI-investeringen blir tydlig.
Den strategiska integrationen av hybridmoln i AI-initiativ är utan tvekan en av årets mest framträdande trender. Allt fler organisationer inser värdet av att kombinera lokala och molnbaserade resurser för att optimera balansen mellan datasäkerhet, suveränitet och den beräkningskraft som avancerade AI-modeller kräver. Plattformar som smidigt integrerar offentlig och privat data blir centrala, och hybridmolnet ses som en grund för AI-framgång och innovation. Öppen källkod och starka partnerekosystem blir också viktiga drivkrafter för snabb och enkel utvecklingen av AI/ML-lösningar.