KW 11 / 2026
Digitaler Arbeitsplatz
KI am Arbeitsplatz: Warum die Hardware den Unterschied macht
Viele Unternehmen stehen ohnehin gerade vor einem Hardware-Refresh. Der reguläre Support für Windows 10 ist im Oktober 2025 ausgelaufen. Zwar bietet Microsoft kostenpflichtige Extended Security Updates (ESU) an, doch diese werden jährlich teurer und sind nicht als dauerhafte Lösung gedacht.
Gleichzeitig erfüllen viele ältere Geräte die Anforderungen für Windows 11 nicht, insbesondere nicht die Voraussetzungen für TPM 2.0 und Secure Boot. Für einen Großteil der installierten Basis ist der Refresh somit wirtschaftlich kaum zu rechtfertigen. Die Frage ist dann meist nicht mehr ob, sondern wann.
Die ChannelAcademy unterstützt Reseller, KI-taugliche Workplace-Konzepte zu entwickeln und zu positionieren.
Die eigentliche Frage ist jedoch eine andere: Welche Konfiguration wird gewählt? Wer jetzt erneuert, kann mit derselben Investition Geräte beschaffen, die nicht nur Windows 11 ausführen, sondern auch KI-Funktionen lokal bereitstellen können. Für Systemhäuser und Reseller ist dies der Einstieg in ein Gespräch, das weit über Hardware hinausgeht.
Cloud-KI und lokale KI sind nicht dasselbe
Der Großteil der generativen Modelle, darunter ChatGPT, Google Gemini oder Office Copilot, läuft aktuell cloudbasiert, während bestimmte KI-Features direkt auf dem Gerät ausgeführt werden. Cloud-KI funktioniert auf älteren Geräten in der Regel problemlos, sofern Browser, Internetverbindung und ausreichend Arbeitsspeicher vorhanden sind. Im Kontext von KI-Workspaces sind 8 GB RAM allerdings fahrlässig knapp: Die parallele Nutzung von Copilot, Teams, Browser und ERP bringt solche Geräte regelmäßig an die Grenzen. Wer heute 8 GB verkauft, produziert den Support-Fall von morgen. 16 GB sind der realistische Standard für die meisten Rollen, 32 GB oder mehr sinnvoll für Heavy-User, Entwickler oder alle, die regelmäßig mit großen Datensätzen arbeiten.
Anders verhält es sich bei lokaler KI. Funktionen wie Windows Studio Effects, lokale Transkription oder KI-gestützte Bildbearbeitung direkt am Gerät profitieren stark von einer Neural Processing Unit (NPU). Der entscheidende Vorteil ist dabei weniger das einzelne Feature als die Entlastung der CPU: Wenn die NPU KI-Aufgaben übernimmt, bleibt die CPU frei für z.B. Excel, ERP, CRM und Browser. Das Ergebnis ist ein flüssiges Arbeiten ohne Hänger, auch wenn mehrere Anwendungen parallel laufen. Ein hängendes System kostet nicht nur Nerven, es killt den Workflow und damit die Produktivität. Copilot+ PCs mit Prozessoren wie dem Qualcomm Snapdragon X Elite sowie aktuellen Generationen von AMD Ryzen AI und Intel Core Ultra sind genau dafür ausgelegt und erfüllen die von Microsoft definierte Mindestanforderung von 40 TOPS NPU-Leistung.
Hinzu kommt ein Argument, das über den heutigen Tag hinausgeht. Der Lebenszyklus eines PCs in einem Unternehmen beträgt vier bis fünf Jahre. Heute kann niemand sagen, welche lokalen KI-Funktionen in zwei oder drei Jahren Standard in Office-, ERP- oder Kollaborationstools sein werden. Wer jetzt ohne NPU und mit zu wenig RAM kauft, riskiert, dass die Maschine genau dann nicht mehr mithalten kann, wenn die entscheidenden Funktionen verfügbar werden. Eine NPU ist zwar keine Garantie, aber eine Versicherung gegen vorhersehbare Obsoleszenz.
Für Unternehmen, die KI nicht nur im Browser nutzen, sondern tief in ihre Arbeitsabläufe integrieren wollen, ist die Frage nach der Hardware damit sehr real. Der Unterschied liegt nicht darin, ob KI überhaupt funktioniert, sondern wie effizient, wie schnell und wie unabhängig von Internetverbindung und Cloud-Verfügbarkeit sie arbeitet.
Akkulaufzeit, Effizienz und der reale Arbeitsalltag
Neben der reinen Rechenleistung gewinnt die Effizienz zunehmend an Bedeutung. Moderne NPU-Architekturen verbrauchen für KI-Inferenzaufgaben erheblich weniger Strom, als wenn diese Aufgaben auf CPU oder GPU ausgeführt würden. Die größten Akku-Sprünge bei aktuellen Geräten resultieren aus dem Zusammenspiel mehrerer Faktoren: effizientere CPU-Architekturen, modernere Fertigungsprozesse und eben die NPU, die rechenintensive Aufgaben energiesparend übernimmt. Das wirkt sich spürbar auf die Akkulaufzeit aus, was im hybriden Arbeitsalltag mit wechselnden Arbeitsorten ein handfestes Argument ist.
Viele Unternehmen im Mittelstand arbeiten noch mit Geräten, die älter als vier Jahre sind. Cloudbasierte KI-Dienste laufen auf diesen Geräten in der Regel weiterhin stabil. Wo ältere Hardware tatsächlich an ihre Grenzen stößt, sind lokale KI-Features, die Akkulaufzeit im mobilen Einsatz und die Gesamtleistung bei parallelen Anwendungen. Ein hängender Rechner mitten im Kundengespräch oder beim Abschluss eines Angebots ist kein Randproblem, sondern verursacht einen realen Schaden.
CHANNEL ACADEMY: WISSENSVORSPRUNG FÜR RESELLER
Sicherheit: Was moderne Hardware wirklich leisten kann
KI-Anwendungen verarbeiten immer mehr sensible Unternehmensdaten. Dadurch steigen die Anforderungen an die Sicherheitsarchitektur der Endgeräte. Aktuelle Business-Notebooks bieten dafür hardwarebasierte Schutzmechanismen wie BIOS-Hardening, Firmware-Schutz, Secure Boot und Identitätsschutz auf Hardware-Basis. Ergänzend spielen TPM-Module und hardwarebasierte Security-Prozessoren eine wichtige Rolle, da sie Schlüsselmaterial und Identitäten direkt im Gerät schützen. Viele Business-Notebooks integrieren diese Funktionen in herstellerspezifische Sicherheitsplattformen.
Mit Blick auf NIS2 ist es wichtig zu verstehen, was die Richtlinie tatsächlich fordert: Risikomanagement, dokumentierte Sicherheitsmaßnahmen, Patchmanagement und Supply-Chain-Sicherheit. Grundsätzlich kann auch ein älteres Gerät compliant sein, wenn es gepatcht, verschlüsselt und in ein Endpoint-Management eingebunden ist. Der Refresh-Bedarf ergibt sich also nicht direkt aus NIS2, sondern aus den wachsenden Anforderungen an lokale KI-Fähigkeiten, Effizienz und die Frage, ob die bestehenden Sicherheitsfunktionen ausreichen.
DaaS als Enabler: KI-Hardware ohne Investitionshürde
In der Praxis wird häufig das Budget als Gegenargument angeführt. Ein umfassender Geräte-Refresh kostet Geld, das viele Mittelständler kurzfristig nicht einplanen wollen oder können. Device-as-a-Service-Modelle (DaaS) lösen dieses Problem: Anstelle einer Einmalinvestition entstehen kalkulierbare monatliche Kosten und das Unternehmen nutzt vom ersten Tag an aktuelle Hardware mit vollen KI-Fähigkeiten.
Für Systemhäuser ist DaaS jedoch mehr als nur ein Finanzierungsmodell. Es integriert Lifecycle-Management, Support und definierte Refresh-Zyklen in ein einziges Paket. Wer seinen Kunden ein solches Konzept anbietet, kann eine langfristige Partnerschaft eingehen und sich wiederkehrende Serviceumsätze sichern, die unabhängig von einzelnen Kaufentscheidungen sind.
Was Unternehmen konkret brauchen
Der Einstieg in eine KI-taugliche Arbeitsplatzstrategie folgt einer klaren Logik. Zunächst müssen Unternehmen klären, welche KI-Szenarien sie tatsächlich verfolgen möchten. Reicht Cloud-KI im Browser oder sollen lokale Funktionen genutzt werden? Daraus ergibt sich, welche Geräte tatsächlich erneuert werden müssen und welche weiterhin genutzt werden können.
Systemhäuser, die diese Analyse als Einstiegsleistung anbieten, schaffen unmittelbaren Mehrwert und positionieren sich als Partner für die Umsetzung. Dies umfasst nicht nur die Hardware, sondern auch das Management der Geräte, ihre Einbindung in bestehende Sicherheitsarchitekturen sowie die Begleitung der Mitarbeitenden im Umgang mit neuen KI-Tools.
Entscheidend ist dabei die Perspektive: Die Hardware-Analyse ist kein Selbstzweck, sondern der Türöffner. Wer den Ist-Zustand beim Kunden kennt, den Refresh-Bedarf dokumentiert und daraus eine Roadmap entwickelt, hat die Grundlage für ein Managed-Service-Modell gelegt. Der Verkauf der Box ist der Anfang der Kundenbeziehung, nicht ihr Höhepunkt.
Checkliste für Systemhäuser
Diese Punkte gehören zum Pflichtprogramm, wenn Systemhäuser ihre Kunden KI-fähig aufstellen wollen.
• Windows-10-Support-Ende als Gesprächseinstieg nutzen:
Der Refresh findet ohnehin statt, die Frage ist nur, welche Konfiguration.
• KI-Szenarien klären:
Cloud-KI oder lokale KI? Das bestimmt den tatsächlichen Hardware-Bedarf.
• RAM nicht unterschätzen:
16 GB als Standard für die meisten Rollen, 32 GB für Heavy-User und Entwickler.
• Geräteflotte analysieren:
Welche Geräte verfügen über NPU, welche nicht?
• KI-Readiness-Check als Einstiegsleistung anbieten:
Schafft Gesprächsanlass, Vertrauen und die Grundlage für Managed Services.
• Refresh-Plan nach Rolle, Anwendungsfall und Mobilitätsanforderung priorisieren.
• DaaS-Modelle als Finanzierungsalternative aktiv einbinden (Stichwort: OPEX statt CAPEX).
• Sicherheitsarchitektur mitdenken:
BIOS-Hardening, Firmware-Schutz, Identitätsschutz.
• Lifecycle-Management von Anfang an definieren, inklusive Datenlöschung und Rückgabe.
• Mitarbeitende in KI-Tools schulen. Hardware allein reicht nicht.
• NIS2-Anforderungen sachlich einordnen:
Die Compliance hängt vom Patchstand und Management ab, nicht allein vom Gerätealter.
Der strategische Ausblick
Die Funktionsweise von Wissensarbeit wird durch KI verändert, aber nicht gleichzeitig und nicht überall. Für viele Einsatzzwecke reichen cloudbasierte Dienste auf vorhandener Hardware noch eine Weile aus. Der Druck entsteht schleichend: Eine neue Office-Funktion ruckelt auf alten Geräten. Ein ERP-Update mit eingebetteter KI, das 8 GB RAM zum Engpass macht. Ein Mitarbeiter im Außendienst, der auf lokale Funktionen angewiesen wäre, aber keine Internetverbindung hat. Wer beim nächsten Hardware-Refresh nur nach dem Preis entscheidet, wird zwei Jahre später die Rechnung dafür zahlen.
Hier liegt die Chance für Systemhäuser: Sie sollten nicht als Lieferant auftreten, der das günstigste Angebot macht, sondern als Berater, der dem Kunden die Konsequenzen seiner heutigen Entscheidung für die Zukunft aufzeigt. Wer das Gespräch so führt, wird nicht über den Preis verglichen.
© ROUTMAIL Redaktion
Author Thomas Kern




