Die Entwicklung der Computernetzwerke hat in den letzten Jahrzehnten wichtige Phasen durchlaufen. Neue Technologie, Innovation und Bedeutung, aber auch neue Bereitstellungs- und Verbrauchsmodelle waren die Haupttreiber dieser Entwicklung. In den frühen Tagen der IT waren die Computer kaum miteinander verbunden. Später erkannte man, dass der Datenaustausch über Netzwerke viel effektiver war als die Verwendung von Offline-Medien wie Papier, Disketten und Bändern. Zu dieser Zeit begannen wir, lokale Netzwerke zu verwenden. Die meisten von uns werden sich noch an die Tage mit Token-Ring-Netzwerken erinnern. Das wurde schnell auf mehrere Gebäude, Zweigstellen und so weiter ausgedehnt. Dann erkannte man, dass die Zentralisierung von Daten wichtig war, und so wurden interne Rechenzentren eingeführt. Daten und Anwendungen wurden auf Servern gehostet, die auf der anderen Seite der Bürowand standen. Neben den Daten zu sitzen hatte einige klare Vorteile, die Latenz war (relativ) niedrig, die Bandbreite war billig und die Kapazität war ausreichend. Die Konnektivität mit dem Internet und den Partnern war dagegen sehr begrenzt. Eine 64 kbit/s-Verbindung mit Hunderten von Mitarbeitern zu teilen, war durchaus üblich.In der nächsten Evolutionsstufe wurden die Rechenzentren an externe Unternehmen ausgelagert. Die Server wurden aus dem firmeneigenen Rechenzentrum in dedizierte Rechenzentren verlegt, die viel mehr Flexibilität in Bezug auf Konnektivität, Stromversorgung und Kühlung boten. Die ersten Einschränkungen wurden sichtbar. Es stand einfach nicht genügend Bandbreite zur Verfügung (oder sie war zu teuer) und die Latenz war viel zu hoch, um Anwendung und Daten zu trennen. Also gingen die Unternehmen zu virtuellen Desktops über und verringerten so die Nähe zwischen Daten und Anwendungen. Auch in puncto Sicherheit galt dies als sichere Architektur, da die Grenzen des Rechenzentrums durch Firewalls geschützt waren.
In den vergangenen Jahren hat die öffentliche Cloud einen beeindruckenden Einzug in die IT-Architektur gehalten. Damit wurden viele Probleme gelöst, wie z.B. das Wegfallen von Kapazitätsrätsel, breite Konnektivität, geringe Investitionen und die Möglichkeit, sich auf das Kerngeschäft zu konzentrieren. Gleichzeitig nahm die Komplexität der gesamten Landschaft enorm zu. Betrachtet man die heutige Landschaft, so nimmt die Bandbreite der verschiedenen Cloud-Services, die in einer Architektur verwendet werden, rapide zu. Versuchen Sie, eine Liste aller von Ihrem Unternehmen genutzten Dienste zu erstellen, und Sie werden wahrscheinlich den Überblick verlieren. Stellen Sie sich vor, wie sich dies auf die (Netzwerk-)Architektur auswirkt. Anwendungen werden heute auf einer Mischung aus Microservices (Container, serverlose Dienste, PaaS-Dienste usw.) aufgebaut und nicht immer in unmittelbarer Nähe gehostet. So wird beispielsweise Ihr Identitätsanbieter höchstwahrscheinlich nicht in der gleichen Umgebung gehostet wie die Microservices, die zur Ausführung der Anwendung verwendet werden. Die Konnektivität zwischen Benutzern und Anwendungen oder sogar zwischen Microservices in derselben Anwendung basiert immer mehr auf der Nutzung des Internets.
Dies brachte eine Reihe von Herausforderungen mit sich, insbesondere in Bezug auf Leistung, Sicherheit und Verwaltbarkeit der Plattform. Nehmen wir die Sicherheit als Beispiel: Eine Zero-Trust-Netzwerkarchitektur erfordert einen völlig anderen Ansatz als das Verstecken Ihrer Kronjuwelen hinter einer "sicheren" Firewall. Insbesondere jetzt, da viele Menschen von zu Hause aus arbeiten und wir mehrere Geräte (Laptops, Tablets, Mobiltelefone) verwenden, um unsere Anwendungen zu verbinden. Ein weniger sichtbarer Trend ist, dass immer mehr Geräte mit Ihrer Umgebung verbunden werden, denken Sie zum Beispiel an Autos, Blitze und Drucker. Der Einfluss der weit verbreiteten Konnektivität ist überall sichtbar, aber manchmal auch eine große Herausforderung für Netzwerkexperten.
Um die Herausforderungen greifbarer zu machen und die sich verändernde Netzwerk- und Anwendungslandschaft in der Cloud zu bewältigen und eine skalierbare Umgebung zu schaffen, ist ein starker Architekturansatz erforderlich. Das Problem der Cloud-Konnektivität lässt sich in 3 Ebenen unterteilen.
Verfasst von
Steyn Huizinga
As a cloud evangelist at Oblivion, my passion is to share knowledge and enable, embrace and accelerate the adoption of public cloud. In my personal life I’m a dad and a horrible sim racer.
Unsere Ideen
Weitere Blogs
Contact




