Der rasante Fortschritt der KI verändert ganze Branchen. Um Ihren Wettbewerbsvorteil zu sichern, sind Unternehmen heute auf schnelle Entscheidungsprozesse, operative Flexibilität und personalisierte Kundenerlebnisse angewiesen. Gleichzeitig müssen sie die sich wandelnden Erwartungen von Verbrauchern und Unternehmen an ein akzeptables Leistungsniveau erfüllen.
Entscheidend für die Erfüllung dieser steigenden Standards ist eine auf Nähe basierende KI-Infrastruktur an der Edge. Die KI-Landschaft entwickelt sich weiter, weg vom Training von KI-Modellen an zentralisierten Standorten hin zu einem stärker verteilten Modell, das die Workload-Inferenz an der Edge einbezieht. Dies ist zum Teil auf die zunehmende Bedeutung der agentenbasierten KI-Inferenz zurückzuführen, die Entscheidungen an der Edge trifft und sich auf geringe Latenzzeiten stützt.
Neuere KI-Modelle sind stärker spezialisiert und kleiner, sodass das Training auch an der Edge möglich ist. Unternehmen setzen diese spezialisierten domänenspezifischen Modelle ein, da sie besser für bestimmte Branchen, Funktionen und proprietäre Datensätze geeignet sind.
All diese Faktoren machen die Edge zu einem strategischeren Rechenstandort, da er sich in unmittelbarer Nähe zu dem Ort befindet, an dem Daten generiert, gespeichert und verarbeitet werden.
Wo liegt Ihre primäre Edge?
Unternehmen müssen überdenken, wo ihre Edge liegt. Tatsächlich gibt es mehrere Edge-Bereiche, in denen ein Unternehmen KI-Inferenz einsetzen könnte. Die Metro-Edge gewinnt als entscheidender Standort für KI-Inferenz-Workloads zunehmend an Bedeutung, da sie ein optimales Gleichgewicht zwischen geringer Latenz, Datenschutz und Kosteneffizienz bietet.
Die Entscheidung für die Metro Edge erfordert die Verlagerung von Inferenzdaten in eine andere Einrichtung, beispielsweise ein Colocation-Rechenzentrum, das innerhalb desselben geografischen Gebiets wie die Datenquellen liegt. Dieser Ansatz fasst Inferenz-Workloads an einem einzigen Standort mit einer typischen Latenz von weniger als 10 Millisekunden zusammen und macht damit die Bereitstellung privater Infrastruktur in unternehmenseigenen Einrichtungen überflüssig.
Anwendungstypen beeinflussen auch die Bestimmung der primären Edge-Standorte, da die Toleranz für Latenzzeiten variiert. Maschinenorientierte Anwendungen erfordern in der Regel hohe Geschwindigkeit und geringe Latenzzeiten. Bei Anwendungsprogrammen für Menschen würden ein paar Millisekunden Verzögerung nicht einmal auffallen. Ein Radiologe, der nach Patientenakten sucht, benötigt keine sofortige Antwort, ein selbstfahrendes Auto, das Fußgängern ausweichen muss, hingegen schon.
Auch branchenspezifische Anforderungen, beispielsweise in Bezug auf den Ort der Datengenerierung und -verarbeitung sowie den Zugriff auf Datenquellen, bestimmen die Lage der Edge-Standorte. Unternehmen müssen gegebenenfalls Edge-Latenzanforderungen für unterschiedliche Funktionen erfüllen:
- Logistikunternehmen: Nachverfolgung von Lieferungen, Verwaltung von Lieferrouten, Optimierung von Lagerabläufen sowie Überwachung und Gewährleistung der Frachtsicherheit.
- Content-Delivery Unternehmen: Bereitstellung von personalisierten Empfehlungen in Echtzeit, Streaming mit geringer Latenz, verzögerungsfreies Gaming und immersive AR/VR-Erlebnisse.
- Intelligente Städte: Nutzung von Echtzeit-Videoanalysen und Sensordatenverarbeitung für Verkehrsmanagement, Erkennung von Verbrechen und Notfallmaßnahmen.
- Unternehmen im Gesundheitswesen: Gewährleistung kontinuierlicher Überwachung, nahtloser robotergestützter Fernoperationen und schneller Datenanalyse zur Beschleunigung der Diagnose und zur personalisierten Behandlung.
Da sich die Anwendungsfälle an der Edge weiterentwickeln und zunehmen werden, müssen Unternehmen sowohl für die Gegenwart als auch für die Zukunft planen.
Bis 2029 werden 50 % der Unternehmen Edge-Computing nutzen gegenüber 20 % im Vorjahr. 2024.[1]”Gartner® Predicts 2025: Edge Computing Platforms Will Accelerate Edge AI
Die Wahl der Datenplatzierung wirkt sich auf Kosten und Compliance aus
Die Entscheidung, wo Unternehmen KI-Workloads ausführen und Daten speichern, wirkt sich auf die Datenausgangsgebühren und die Kostenstrukturen (OPEX vs. CAPEX) aus. Auch die Leistung, Latenz und Anforderungen an die Netzwerkinfrastruktur werden davon beeinflusst.
Das tägliche an der Edge generierte Datenvolumen kann schnell anwachsen. Zum Beispiel:
- Smart Factory: 1 Petabyte
- Flugzeug: 4 Terabyte
- Autonomes Fahrzeug: 3 Terabyte
Die Übertragung dieser Daten an einen zentralen Ort zur KI-Inferenz hat erhebliche Auswirkungen auf Latenz, Kosten und Bandbreite, sodass sich die Edge als buchstäblich naheliegende Lösung anbietet.
Darüber hinaus gelten mittlerweile in 144 Ländern Datenschutzgesetze, weitere sind in Vorbereitung.[2] Einige Vorschriften sind komplex und erfordern sorgfältige Überlegungen, wo die Daten am besten gespeichert werden. Beispielsweise können in Deutschland erfasste Daten nicht in einer AWS-Cloud in den USA gespeichert werden, sondern müssen in Deutschland bleiben. Dies ist einer der Gründe, warum für KI eine verteilte Infrastruktur erforderlich ist.
Höhere Standards für KI-Innovationen an der Edge
Betrachten wir zwei Beispiele von Unternehmen, die KI an der Egde innovativ einsetzen und KI-Infrastrukturen für die Echtzeit-Zusammenarbeit und Hochgeschwindigkeitsverbindungen mit Kunden und Partnern bereitstellen.
Nanyang Biologics, ein Biotech-Startup, das sich auf die KI-gestützte Arzneimittelforschung spezialisiert hat,, nutzt die softwaredefinierte Verbindungslösung Equinix Fabric® für die Datenverarbeitung an der Edge, um eine Echtzeit-Zusammenarbeit mit Forschungspartnern zu ermöglichen. Dadurch konnten Geschwindigkeit und Genauigkeit bei geringeren Kosten erhöht werden.
Erfahren Sie in dieser kurzen Video-Fallstudie zu Nanyang Biologics, wie eine skalierbare KI-Infrastruktur an der Edge das Training von KI-Modellen unterstützt und die Arzneimittelentwicklung beschleunigt.
Alembic ist ein SaaS-Unternehmen für marketingbezogene Informationen, das seinen Kunden datengestützte Einblicke in ihre Marketingaktivitäten bietet, damit sie ihre Ausgaben optimieren und den Vertriebsprozess verbessern können. Durch die Positionierung einer KI-Infrastruktur näher am Kunden wurde eine leistungsstarke Inferenz im Edge-Bereich ermöglicht. Alembic nutzte außerdem das Equinix-Ökosystem aus Netzwerkdienstleistern (NSPs) und Equinix Fabric für Hochgeschwindigkeitsverbindungen zu seinen Kunden und Partnern, um insgesamt ein leistungsfähigeres Produkt anbieten zu können.
In dieser kurzen Video-Fallstudie von Alembic erfahren Sie, wie das Unternehmen datengesteuertes Marketing durch KI-gestützte Datenanalyse ermöglicht.
Weitere Branchen, die KI an der Edge innovativ nutzen, sind:
- Finanzdienstleistungen für Handelsstrategien und Betrugserkennung.
- Medien und Unterhaltung für die Erstellung digitaler Inhalte und die Entwicklung von Spielen.
- Autonome Fahrzeuge für die Erkennung von Fußgängern und Verkehrszeichen und das Fahrspur-Tracking.
- Robotik für Fertigung, Konstruktion und Navigation.
Vier Schritte zur Priorisierung der Nähe zur Edge
Der Übergang zu einer Infrastrukturstrategie, die vorrangig auf Nähe setzt, erfordert einen bewussten, integrierten Ansatz. Wir empfehlen Ihnen, diese Schritte nacheinander durchzuarbeiten, um Ihren Fahrplan zu entwickeln.
- Überprüfen Sie zunächst Ihre aktuelle KI-Infrastruktur. Sie sollten Datenflüsse abbilden und durch Latenz verursachte Leistungsengpässe identifizieren.
- Legen Sie anschließend Ihre Anforderungen an die Edge fest: Bewerten Sie die Anforderungen von Echtzeitanwendungen, einschließlich Latenz, Bandbreite und Compliance. Auch die Anforderungen Ihres Unternehmens an leistungsstarke Konnektivität, Rechenleistung und Datenspeicherung sollten berücksichtigt werden.
- Sie sind nun bereit, eine flexible Multicloud- und Multi-Provider-Datenstrategie zu entwickeln, mit der Sie Workloads intelligent verteilen können, um die richtige Balance zwischen Edge- und zentralisierten Infrastrukturen zu schaffen und länderspezifische oder regionsspezifische Infrastrukturen für die Compliance bereitzustellen.
- Und schließlich können Sie vernetzte, neutrale KI-Partner-Ökosysteme nutzen, um Zugang zu einem breiten Spektrum an Partnern zu erhalten, die für die Unterstützung Ihrer KI-Workloads erforderlich sind.
Implementieren Sie Ihre KI-Infrastruktur an der Edge
Eine verteilte Infrastruktur unterstützt Unternehmen dabei, KI-Innovationen zu beschleunigen und ihre KI-Strategien zukunftssicher zu gestalten. Auch wenn wir uns in diesem Blog auf die Edge konzentriert haben, sollte Ihre KI-Infrastrukturstrategie eine Kombination aus Cloud- und Edge-Infrastruktur sowie ein robustes Netzwerk umfassen, um alle Ihre Ressourcen sicher zu verbinden.
Die KI-Rechenzentren von Equinix sind strategisch günstig in den am besten vernetzten Märkten der Welt positioniert und unterstützen Unternehmen dabei, ihre Geschäftsabläufe zukunftssicher zu gestalten. Unsere globale Präsenz umfasst mehr als 270 miteinander verbundene Colocation-Rechenzentren in 76 Metropolen weltweit und gewährleistet über unser branchenführendes Portfolio mit mehr als 220 Cloudzugängen und die Nähe zu mehreren Datenquellen den Zugriff auf alle großen Cloud-Anbieter.
Zu dem robusten digitalen Ökosystem von Equinix gehören Tausende Anbieter von Daten, Cloud, Netzwerk, KI-Technologie und GPU-as-a-Service. Mit Equinix Fabric können Unternehmen bedarfsgerechte, skalierbare Verbindungen mit Ökosystempartnern und zwischen ihrer eigenen KI-Infrastruktur an verschiedenen Standorten herstellen.
Um mehr darüber zu erfahren, warum Nähe wichtig ist, lesen Sie unser Whitepaper zum Paradoxon der Nähe.
[1] “Gartner Predicts 2025: Edge Computing Platforms Will Accelerate Edge AI,” Gartner®, November 28, 2024.
GARTNER is a registered trademark and service mark of Gartner, Inc. and/or its affiliates in the U.S. and internationally and is used herein with permission. All rights reserved.
[2] “Data protection and privacy laws now in effect in 144 countries,” IAPP, January 28, 2025.