Windows-datorer har länge stått inför konkurrens från olika enheter, inklusive surfplattor och Mac-datorer. Den senaste tidens framväxt av AI kan nu ge nytt liv åt intresset för pc-datorer, särskilt när företag planerar att uppgradera sina system inom kort. De första ”AI-datorerna” lanserades med stor entusiasm år 2024, och antalet leveranser ökar. Trots detta har företag som skaffat AI-datorer tidigt stött på hinder i användningen av tekniken, främst på grund av avsaknaden av meningsfulla offline-applikationer.
Även om AI-webbläsare från Perplexity och potentiellt från Open AI har gett en viss boost till AI-datorerna, är prestandan hos AI-chips fortfarande en begränsning. Många användare förlitar sig fortfarande på molntjänster för AI-lösningar. Jim Johnson, senior vice president och general manager för Client Computing Group på Intel, påpekade under en keynote på CES-mässan att övergången till lokala AI-arbetsbelastningar inte kommer att ske omedelbart, men att förändringar är på väg.
Enligt Zach Noskey, direktör för portföljstrategi och produktledning på Dell, förväntas fler applikationer för AI-datorer bli tillgängliga i slutet av året och början av 2027. Detta kan leda till minskade molnkostnader och ge anställda bättre möjligheter till vidareutbildning inom AI. Han påpekar att den initiala kostnaden för AI-datorerna kan balanseras av långsiktiga besparingar i molntjänstavgifter och ökad produktivitet.
Under CES väckte ett nytt AI-pc-chipp från Intel, kallat Panther Lake, stort intresse. Johnson framhöll chippets hastighet och förmåga att köra stora språkmodeller och AI-applikationer direkt på enheten. Chippet, som är en del av Core Ultra Series 3, stöder generativa AI-modeller, inklusive Alibabas Qwen 3-modell, och erbjuder över 500 AI-funktioner. Med 12 GPU-brickor erbjuder Panther Lake en avsevärt snabbare AI-bearbetningskapacitet jämfört med det äldre Lunar Lake-chippet som hade 4 GPU-brickor.
Intel har omdesignat sin chip-arkitektur för att köra AI-modeller direkt, utan att förlita sig på neural processing units (NPU), som är begränsade till specifika AI-modeller. Den senaste NPU:n i Panther Lake levererar 50 biljoner operationer per sekund, vilket är en ökning jämfört med 40 TOPS hos det tidigare Lunar Lake-chippet.
Noskey från Dell nämner att AI-modeller blir alltmer avancerade, men att deras storlek gör det svårt att lagra dem på enheter. Han poängterar vikten av att arbeta smartare snarare än hårdare. Användare kommer snart att kunna utnyttja mer specialiserade modeller för specifika uppgifter. Noskey framhäver att utvecklingen inom kiselteknik skapar förutsättningar för att realisera nya användningsområden för AI.
Dell förutspår en stabil ökning av AI-användning på datorer och ser fram emot 2026 och framåt. Genom att köra AI-lösningar direkt på datorerna kan företag spara pengar genom att minska beroendet av molntjänster. Detta minskar kostnaderna för dataöverföring och molnberäkning, vilket är avgörande för dataskydd och säkerhet.
AI-datorer ger även anställda möjlighet att lära sig nya färdigheter, något som blivit allt viktigare i dagens arbetsmarknad. Microsoft arbetar på att göra Windows till ett operativsystem där användare kan hantera data direkt på sina enheter. Detta möjliggör skapandet av egna offline-arbetsflöden genom att kombinera flera AI-verktyg och modeller, enligt Namee Oberst, medgrundare av AI-mjukvaruföretaget LLMware.
Oberst menar att företag som LLMware, som specialiserar sig på offline-AI, snart inte kommer behöva hantera lågnivåchipoptimering, eftersom teknologin mognar. Dessutom förväntar man sig att nästa generations pc-chipp från Qualcomm kommer att ge ännu snabbare prestanda. Darren Oberst från LLMware är optimistisk inför 2026 och tror att alla bitar snart kommer att falla på plats.
