Two-Minute Tech
Edge-KI – nächster Wachstumsbeschleuniger für generative KI?

Die Rechenprozesse für Anwendungen der generativen künstlichen Intelligenz (KI) verlagern sich zunehmend von zentralisierten Rechenzentren zu Edge-Devices wie Smartphones, IoT-Geräten oder autonomen Fahrzeugen. Das verspricht schnellere und noch stärker personalisierte Nutzererlebnisse – und potenziell attraktive Anlagechancen für Investoren.
- KI-Anwendungen rücken näher an den Endnutzer und führen so zu einem robusteren KI-Erlebnis.
- Wie könnte eine Edge-KI-Anwendung aussehen? Stellen Sie sich ein KI-gesteuertes Mobiltelefon vor, das Gespräche in Echtzeit übersetzt, oder ein selbstfahrendes Auto mit einem personalisierten KI-Assistenten.
- Die Ausweitung auf Edge-KI kann Anlagechancen in den verschiedensten Bereichen eröffnen – von Edge-KI-Geräten und -Diensten bis hin zu KI-Infrastruktur.
Als transformative Kraft mit enormem Potenzial hat die generative KI im Jahr 2023 im Fokus der Weltöffentlichkeit gestanden und erhebliche Investitionen angezogen. Dabei befindet sich die generative KI noch ganz am Anfang ihrer Entwicklung. So konzentriert sich ihr Nutzen unserer Ansicht nach derzeit noch auf einen begrenzten Teil der Wertschöpfungskette. Mit der zunehmenden Durchsetzung generativer KI-Anwendungen in den kommenden Jahren dürfte sich das jedoch ändern. Ein wesentliches Wachstumsfeld dürfte „Edge-KI“ sein: Schätzungen zufolge wird bis zum Jahr 2025 die Hälfte aller erzeugten Unternehmensdaten aus Edge-KI-Anwendungen stammen1.
Edge-KI erklärt
Derzeit sind die meisten KI-Rechenprozesse (einschließlich generativer KI) in riesigen Rechenzentren gebündelt. Dadurch können die KI-Modelle eine enorme Rechenleistung nutzen. Mit der zunehmenden Durchsetzung generativer KI-Anwendungen dürfte sich die Datenverarbeitung jedoch stärker an den Rand (Edge) der Netzwerke und damit näher an den Endnutzer verlagern. In diesem Szenario werden Smartphones, Autos, PCs und Edge-Server einen größeren Teil der Rechenlast schultern und so schnellere Anwendungen mit reduzierter Latenz ermöglichen.
Wie könnte das für Endnutzer wie uns aussehen? Stellen Sie sich ein KI-gesteuertes Smartphone vor, das auf Reisen im Ausland Gespräche akkurat und in Echtzeit übersetzen kann. Oder ein selbstfahrendes Auto mit personalisiertem KI-Assistenten. Unternehmen, die die Vorteile der Edge-KI nutzen, können sich von ihren Wettbewerbern abheben, noch stärker personalisierte und effizientere Dienstleistungen anbieten und sich so Wettbewerbsvorteile verschaffen.
Warum der Wechsel zu Edge-KI sinnvoll ist
Um zu verstehen, warum Edge-KI einen so großen Vorteil gegenüber zentralisierten Modellen bedeuten kann, ist es wichtig, die beiden Hauptarten von Rechenprozessen hinter KI-Anwendungen zu verstehen: Training und Inferenz.
- Das Training beinhaltet die Entwicklung von Intelligenz innerhalb eines KI-Modells, ähnlich wie Menschen viele Jahre in der Ausbildung verbringen, bevor sie ins Berufsleben eintreten. Der Trainingsprozess für ein generatives KI-Modell wie ChatGPT umfasst Analysen großer Textmengen von Webseiten, aus Büchern und Wikipedia-Artikeln. Dieses Training wird durch Tausende von miteinander verbundenen High-End-Grafikprozessoren (Graphics Processing Unit s, GPUs) ermöglicht, die für die in dieser Phase erforderliche Art der Datenverarbeitung am besten geeignet sind.
- Sobald ein KI-Modell angemessen trainiert ist, kann es für breitere Anwendungen eingesetzt werden, ein Prozess, der als Inferenz bezeichnet wird. Bei der Inferenz führt das KI-Modell in Reaktion auf Benutzeranfragen Aufgaben aus – zum Beispiel erzeugt es Bilder, empfiehlt Restaurants oder fasst kürzliche Ereignisse zusammen. Die Inferenzberechnung kann die Anforderungen des Trainings übersteigen, insbesondere wenn Millionen von Nutzern aktiv mit generativen KI-Anwendungen arbeiten.
Die Durchführung von KI-Inferenzberechnungen ausschließlich in Rechenzentren kann kostspielig sein und zu einem schwerfälligen Nutzererlebnis führen. Am besten lässt sich dieses Problem durch eine Verteilung der Inferenzberechnungen über das Netz lösen – auf Rechenzentren, Edge-Server und die Geräte, die am nächsten am Nutzer sind. Praktiziert wird dies bereits bei mobilen Spielen und Fotofiltern in sozialen Medien, bei denen die Inferenzberechnungen auf Edge-Geräte verlagert werden, um das Nutzererlebnis zu verbessern. Die generative KI dürfte eine ähnliche Entwicklung nehmen.
Wie Anleger in Edge-KI investieren können
In jüngster Zeit haben mehrere Unternehmen die Markteinführung neuer KI-Produkte angekündigt:
- Einige große Halbleiterhersteller haben neue neuronale Verarbeitungseinheiten (Neural Processing Units, NPUs) vorgestellt, also Chips, die speziell für die Ausführung von KI-Algorithmen entwickelt wurden. (Eines dieser Unternehmen prognostiziert sogar, dass es derartige KI-Beschleuniger bis zum Jahr 2025 in 100 Millionen PCs geben wird2.)
- Ein anderer bekannter Chiphersteller hat eine Mobile-Computing-Plattform mit lokal ausführbaren generativen KI-Kapazitäten vorgestellt.
- Einer der größten Smartphone-Hersteller der Welt plant, KI in jedes von ihm produzierte smarte Gerät zu integrieren.
Die Einführung neuer Edge-KI-Geräte und -Dienste hat bedeutende Auswirkungen für Investoren. Erstens könnte Edge-KI die PC- und Smartphone-Umsätze ankurbeln, die sich zuletzt sehr schleppend entwickelt haben, da die Nutzer ihre Geräte nicht mehr so häufig austauschen . Darüber hinaus ebnet die Einführung von Edge-KI-Geräten den Weg für die nächste „Killer-App“, ähnlich der explosionsartigen Entwicklung und Verbreitung mobiler Apps, die auf die erste Welle von Smartphones folgte. Schließlich dürfte der Erfolg der Edge-KI weitere Forschungsaktivitäten vorantreiben, um wegweisende neue KI-Modelle zu entwickeln, wodurch Unternehmen noch mehr in die KI-Infrastruktur investieren müssten.
1 Morganstanley.com: What 'Edge AI' Means for Smartphones. Stand Februar 2024
2 Intel newsroom: Intel Launches Industry’s First AI PC Acceleration Program. Stand Oktober 2023
3 Techcrunch: Smartphone sales to rebound on AI gains, Morgan Stanley says. Stand Dezember 2023