Dies ist der zweite in einer Reihe von Blog-Beiträgen, die sich mit der Strategie zur Transformation von Netzwerken auf Basis einer Interconnection Oriented Architecture™ (IOA™) beschäftigen. Die Beiträge beschreiben die Schritte, die für eine Erneuerung der Netzwerkinfrastruktur durch eine LAN-Erweiterung und die WAN-Integration am Rand des Netzwerkes notwendig sind. Im Ergebnis lassen sich so Leistungssteigerungen und eine optimierte User Experience (Quality of Experience; QoE) für Anwender erzielen.
Der digitale Rand des Netzwerkes (Digital Edge) befindet sich da, wo geschäftliche Aktivitäten, Ballungszentren und digitale Business-Ökosysteme aufeinandertreffen. Hier werden Informationen ausgetauscht, Transaktionen durchgeführt sowie Daten gesammelt und analysiert. Wenn es darum geht, die digitale Kommunikation über große Entfernungen mit hoher Leistung und niedrigen Latenzen abzuwickeln, zeigen bestehende Netzwerkstrukturen und die Gesetze der Physik allerdings enge Grenzen auf. Wird der Traffic aber hin zur Digital Edge lokalisiert und optimiert, lassen sich Effizienz und Leistungsfähigkeit verbessern, Risiken minimieren und Kosten senken.
Latenzen als Herausforderung
Digitale Unternehmen sehen sich heute mit zahlreichen Aufgaben und Herausforderungen konfrontiert. Hierzu zählen unter anderem:
- das Zusammenführen von Daten aus unterschiedlichen Quellen für die Analytik,
- der regionale oder globale Ausbau der Marktpräsenz,
- die Bereitstellung von IT-Services und -Ressourcen für mobile Kunden und Mitarbeiter,
- die Zusammenarbeit mit Partnern und deren Integration in die Prozesse der Lieferketten,
- der Zugang zu vorhandenen oder neu entstehenden Cloud-, Content-, IoT- und B2B-Plattformen.
In all diesen Bereichen stellen hohe Latenzen ein stetig größer werdendes Problem dar, das digitale Unternehmen nicht ignorieren können. Zwar ist es beispielsweise möglich, die Bandbreiten für den Internet-Traffic zu erhöhen. Jedoch sorgen die Gesetze der Physik selbst dann dafür, dass die Latenzen umso höher werden, desto länger die Entfernung beim Datentransfer ist. Auch Cyberkriminalität stellt die umfassend vernetzte digitale Wirtschaft heute vor schwierige Aufgaben – das öffentliche Internet wird zu einem immer größer werdenden Sicherheitsrisiko. Und sicherere MPLS-Verbindungen für lange Strecken sind nicht nur kostspielig, sondern eben auch den Latenzgesetzen der Physik unterworfen.
Als wichtiger erster Schritt zur Minimierung von Latenzen und Sicherheitsrisiken bietet es sich an, die maßgeblichen IT- und Netzwerkfunktionen an der Digital Edge zu platzieren – also in unmittelbarer Nähe zu großen Anwendergruppen aus Kunden, Mitarbeitern und Partnern, zu den Applikationen und Daten.
Traffic lokalisieren und optimieren
Folgende Schritte machen es möglich, vor Ort direkte, private Interconnection-Services einzusetzen, um die Leistung und Sicherheit zu steigern und die Netzwerkverbindungen zu Geschäftspartnern zu optimieren:
- Aufbau von strategisch hin zur Digital Edge platzierten Netzwerkknoten an globalen Colocation-Standorten mit hoher Anwenderdichte und zahlreichen Geschäftsbeziehungen. Diese Netzwerkknoten bilden Kommunikations-Hubs, die die Entfernung beim Zugang zu den Anbietern von multiplen Cloud-, Netzwerk-, ISP- und anderen Services minimieren. Auch können diese Hubs zu einem weltweit verteilten Netz verbunden werden (siehe nachstehende Grafik). Unternehmen sind so in der Lage, extern genutzte Services in diese Hubs zu verlagern – etwa VPN-Endpunkte oder direkte Internet-Verbindungen zu den Unternehmensrechenzentren. Dies ist nicht dasselbe wie eine Verlagerung ins Internet, da die Verbindungszahl reduziert wird.
- Der Einsatz eines Metro-Ethernet anstelle von MPLS oder lokalen Internet/VPN-Zugängen zum Hub für mobile Mitarbeiter beseitigt die Verbindungsprobleme der „letzten Meile“. So lässt sich ein mit dem LAN vergleichbarer Datendurchsatz erreichen, statt wie zuvor kostspielige, wenig leistungsfähige und latenzintensive Verbindungen einzusetzen. Mobilnutzer in den jeweiligen Ballungsräumen profitieren von den kürzeren Verbindungswegen durch eine höhere Netzwerkleistung und damit von einer gesteigerten User Experience.
- Intra-Colocation-Netzwerke, realisiert per Cross Connects, bieten ein neues Verbindungsmodell mit kostengünstigem Peering mit Geschäftspartnern und direktem Zugang zur Cloud. Inter-Colocation-Verbindungen reduzieren WAN-Kosten und Latenzen, steigern die Verfügbarkeit und erlauben regional sowie auch global neue Topologien. Ein kombinierter Einsatz von Intra- und Inter-Colocation-Netzwerken bietet die gleichen Leistungs- und Effizienzvorteile, die ansonsten Cloud-Service-Provider erreichen.
- Die Steuerung des Netzwerk-Traffics über das Management redundanter Verbindungen erlaubt das Load Balancing innerhalb der Netzwerk-Fabric. Dies führt nicht nur zu verbesserten Leistungen und einer gesteigerten Verfügbarkeit, sondern erhöht auch die Ausfallsicherheit aufgrund der Netzwerkkonvergenz.
- Durch die Reduzierung der Netzwerkverbindungen für die „letzte Meile“ verringert sich die Gefahr von Cyberattacken und Datendiebstählen. Zudem lassen sich Security-Funktionen zusammen mit der IT- und Netzwerkinfrastruktur direkt am Rand des Netzwerkes implementieren und rücken so näher zu den Bereichen, in denen sie besonders benötigt werden.
Design-Muster für die Lokalisierung und Optimierung des Netzwerk-Traffics
Die Lokalisierung und Optimierung des Netzwerk-Traffics reduziert nicht nur die Verbindungslatenzen am Rand des Netzwerkes von 20 Millisekunden (bei 20 Hops) auf 1 Millisekunde (bei 1 Hop). Parallel sinken auch die Kosten für Langstrecken-verbindungen von 100 US-$ pro Mbit/s auf unter 10 US-$ pro Mbit/s.
Anwendung in der Praxis
PaaS- und SaaS-Provider sowie ihre Unternehmerkunden bieten ein Beispiel für die erfolgreiche Lokalisierung und Optimierung des Netzwerk-Traffics. Bei den traditionell angebotenen PaaS- und SaaS-Leistungen nutzen Unternehmen die Dienste über das Internet, ohne sich über die Zahl der Netzwerk-Hops und die Latenzzeiten bei der Verbindung zum PaaS- bzw. SaaS-Anbieter Gedanken zu machen. Geht es um die Steigerung der User Experience für den Kunden, realisieren Service-Provider allerdings bald, wie wichtig die Digital Edge ist.
Statt sich auf einen zentralen Standort zu beschränken, werden in diesem Fall Netzwerk- und Routing-Services über zahlreiche, regional platzierte Hubs offeriert. Dieser erleichterte Zugang im Zusammenspiel mit der weiteren Funktionalität der PaaS- und SaaS-Plattformen steigert die Wettbewerbsfähigkeit des Anbieters. Das Netzwerk wird so integraler Bestandteil der PaaS- und SaaS-Angebote und Service-Provider nehmen das optimierte Routing und private Verbindungen in die Leistungsbeschreibung ihrer Dienste auf.
Ein Beispiel aus der Praxis: Ein schnell wachsendes Unternehmen aus der Gesundheitsbranche suchte nach einem Weg, schnelle und kostengünstige Hochleistungsverbindungen zu Anbietern von Netzwerk-Services (NSP) und Cloud-Services (CSP) zu etablieren, um akquirierte Unternehmen in die Geschäftsabläufe zu integrieren. Man entschied sich für die Umsetzung einer Strategie auf Basis der Interconnection Oriented Architecture™ (IOA™) und die Nutzung der Colocation-Services von Platform Equinix™.
Durch die Realisierung lokaler Verbindungen zu NSP und CSP über den Equinix Performance Hub™ und Lösungen von Equinix Cloud Exchange™ konnte das Unternehmen deutliche Kostenvorteile erzielen. Zudem war man in der Lage, den eigenen engen Zeitplan für die Integration der Geschäftsbereiche einzuhalten. Schließlich profitieren Endanwender beim Einsatz von Applikationen von einer verbesserten User Experience, die aus dem optimierten Traffic zwischen den neuen Geschäftsbereichen resultiert. Dieses Verbindungsmodell kann nun für die zahlreichen verteilten Standorte eingesetzt werden, wodurch sich national wie international deutliche Vorteile für das Unternehmen ergeben.
Weitere Informationen zur Lokalisierung und Optimierung von Netzwerken hin zur Digital Edge stellt das „IOA Playbook‟ zur Verfügung.
Auch der Blog Networking am Rand des Netzwerkes könnte für Sie von Interesse sein.