Blog

VPC Service Controls - Eine Schritt-für-Schritt-Anleitung

Ruben Kruiver

Aktualisiert Oktober 14, 2025
16 Minuten

Einführung

Einer der größten Vorteile eines Cloud Service Providers (CSP) ist die Möglichkeit, Ressourcen nach Bedarf zu nutzen und eine Hochgeschwindigkeitsverbindung über den ganzen Globus zu erhalten, ohne alle physischen Ressourcen kaufen und warten zu müssen. Aber wie können wir unsere Datenbestände kontrollieren, wenn es plötzlich so viele mögliche Ausstiegspunkte zu berücksichtigen gibt? Nehmen Sie zum Beispiel die Möglichkeit, mit verschiedenen Cloud-Diensten wie Cloud Storage, BigQuery, Cloud SQL usw. zu interagieren. Und haben Sie auch bedacht, dass andere Dienste wie YouTube, Drive und AdSense die gleichen APIs verwenden?

Bei der Definition einer Cloud-Umgebung werden Sie höchstwahrscheinlich ein Netzwerk (Virtual Private Cloud: VPC) konfigurieren. Eine der besten Praktiken bei der Gestaltung Ihrer Cloud-Plattform besteht darin, nur private IP-Adressen für die Rechen- und Datenressourcen (aufgeführt unter RFC-1918) zu verwenden, die nicht aus dem öffentlichen Internet aufgelöst werden können. Für den Ingress-Zugang zu Ihrer Anwendung sollten Sie Dienste wie Cloud Load Balancer bevorzugen und für den Egress zum öffentlichen Internet einen Dienst wie Cloud NAT. Dieser Ansatz wird Ihre Plattform in vielerlei Hinsicht vor externen Bedrohungen schützen, aber durch den offenen Zugang zum öffentlichen Internet sind Sie nicht vor internen Bedrohungen geschützt.

NAT-Netzwerk-Topologie

Wie Sie aus dem obigen Diagramm ersehen können, gibt es keinen Schutz davor, dass Daten über das Internet an irgendeinen Ort gesendet werden. Aus diesem Grund entscheiden sich viele Unternehmen dafür, die Nutzung von Cloud NAT zu verbieten oder einzuschränken. Dies kann zu verschiedenen Problemen für Anwendungen führen, die in gewisser Weise auf einen Internetzugang oder sogar auf den Zugriff auf Google-Dienste angewiesen sind. Für diese Szenarien können verschiedene Lösungen implementiert werden. Für den Google API-Zugang gibt es jedoch eine einfache Methode, indem Sie das Kästchen Private Google Access in dem Teilnetz aktivieren, in dem die Ressourcen bereitgestellt werden. Dadurch wird der Zugriff auf die Google-APIs für Ihre Ressourcen in diesem Teilnetz konfiguriert. Der Haken an der Sache ist, dass dadurch der Zugriff auf alle Google-APIs. Dies ist für eine Reihe von Unternehmen ein echtes Problem, wenn sie Richtlinien und Vorschriften wie GDPR, HIPAA und NIS2(/NIST) einhalten müssen.

Topologie des privaten Google Access-Netzwerks

Ziel dieses Blogs ist es, einen Einblick zu geben, wie das Risiko der Datenexfiltration durch die Kontrolle des Zugriffs auf die Google APIs weiter reduziert werden kann.

Ein Schritt in die Richtung, den Zugriff auf bestimmte Google-APIs einzuschränken, besteht darin, die Aktivierung bestimmter Dienste durch Organisationsrichtlinien von vornherein zu unterbinden. Und dann vor allem die Richtlinie namens Restrict allowed Google Cloud APIs and services. Aber das funktioniert nicht, wenn es eine Nachfrage nach einem bestimmten Dienst gibt und Sie sicherstellen müssen, dass der Zugriff nur innerhalb eines bestimmten Kontexts möglich ist. Dies ist häufig bei Unternehmen der Fall, die Daten in einem Cloud-Speicher speichern oder diese mit BigQuery analysieren, während gleichzeitig die gesetzliche Verpflichtung besteht, diese Daten zu schützen.

VPC-Dienst-Kontrollen

An dieser Stelle kommt VPC Service Controls um die Ecke. VPC Service Controls ist ein Dienst auf Organisationsebene zur Kontrolle des Zugriffs auf die verfügbaren Google APIs. Er bietet feinkörnige Kontrollen darüber, wer auf welchen Dienst zugreifen kann und in welchem Kontext. Die Implementierung von VPC Service Controls erfolgt durch die Konfiguration der Ressource auf Organisationsebene, die als Service Perimeter bezeichnet wird. Dieses Perimeter zieht eine Zugriffsgrenze um die Google APIs, für die der Zugriff kontrolliert werden muss. Wenn Sie die VPC Service Controls im Allgemeinen betrachten, können Sie sie als zusätzliche Zugriffskontrollen für die Google APIs neben den regulären Cloud IAM-Zugriffskontrollen betrachten. Das bedeutet, dass die Anwendung von VPC Service Controls über einen Perimeter eine zusätzliche Verteidigungslinie für den Zugriff auf Google APIs darstellt, die durch den Perimeter geschützt sind.

Das mag im Moment noch etwas vage erscheinen, aber im weiteren Verlauf dieses Blogs wird es klarer werden.

VPC Service Controls Bausteine

Notiz

Es gilt als bewährte Methode, Ihre Cloud-Ressourcen mit einem Infrastructure-as-Code-Ansatz bereitzustellen, z. B. mit Terraform. In diesem Blog werde ich alle Schritte anhand von Screenshots aus der Google Cloud Console zeigen.

Zunächst einmal. Die Konfiguration des VPC Service Control Perimeters finden Sie in der Google Cloud Console unter dem Menüpunkt Security -> VPC Service Controls. Dies ist eine Organizational level Ressource und kann weder auf Folder noch auf Project Ebene konfiguriert werden.

Menüpunkt VPC Service Controls

Gehen wir nun die Optionen durch, die Sie beim Öffnen dieses Menüpunkts sehen können.

VPC Service Kontrolliert Ressourcen

Übersicht über die VPC Service Controls

Beginnen wir ganz oben. Sie können sofort drei Menüpunkte erkennen:

  1. Ein Element namens default policy mit einem Dropdown-Pfeil
  2. Ein Artikel namens Manage policies
  3. Ein Artikel namens View Quota

Hierarchie

Beginnen Sie auf der rechten Seite, weil das ein wenig Licht in die Hierarchie bringt, und sehen Sie die Quoten, die für die aktuelle Richtlinie gelten. Im folgenden Diagramm versuchen wir, die Werte zu verdeutlichen, die Sie sehen, wenn Sie auf dieses Element klicken. Sie können diese Werte auch in der Dokumentation VPC Service Controls Quota nachlesen.

VPC-Service steuert Quoten

Richtlinien verwalten

Dies bringt uns zu Menüpunkt Nummer 2: Manage policies. Wie Sie an der Quote sehen können, gibt es einen Unterschied zwischen der Zugriffsrichtlinie der Organisation, von der es nur 1 geben kann (die Standardrichtlinie), und den Richtlinien mit einem bestimmten Geltungsbereich. Dies sind die Richtlinien, die Sie in diesem Menüpunkt verwalten können.

Eine Richtlinie erstellen oder aktualisieren

Übersicht der VPC Service Controls Richtlinien

In einem typischen Unternehmen werden Sie wahrscheinlich eine Hierarchie haben, die zumindest in eine Produktions- und eine Nicht-Produktionsumgebung unterteilt ist. Dies lässt sich mit einer Hierarchieressource namens Folder bewerkstelligen. Damit haben Sie die Möglichkeit, zwei Richtlinien mit unterschiedlichen Gültigkeitsbereichen zu erstellen, eine für jeden Ordner. Bei der Erstellung einer Richtlinie kann nur entweder ein Ordner oder ein Projekt festgelegt werden. Das bedeutet automatisch, dass jeder unter dieser Richtlinie erstellte Perimeter nur Projekte enthalten kann, die sich im Geltungsbereich der Richtlinie befinden.

VPC Service Controls erstellen Richtlinie

Erzwungener und trockener Lauf

Im vorherigen Screenshot ist default policy ausgewählt, wie oben in blau markiert. Dies wirkt sich darauf aus, wie die Perimeter-Konfiguration angewendet wird, wenn Sie auf die Schaltfläche + NEW PERIMETER klicken und unter welcher Richtlinie.

Übersicht über die VPC Service Controls

  1. Erzwungener Modus
  2. Trockenlauf-Modus

Die Menüpunkte tun das, was Sie von ihnen erwarten: entweder die von Ihnen konfigurierten Regeln durchsetzen oder Regeln testen, bevor sie durchgesetzt werden. Im Testmodus werden die Zugriffsprotokolle in Cloud Audit Logging angezeigt, so dass Sie sehen können, wie sich die Eingrenzung auf den Zugriff auf die Google-Dienste auswirkt, ohne diese jedoch tatsächlich zu blockieren. Dies hilft Ihnen bei der Konfiguration der entsprechenden Regeln, die Sie für die Durchsetzung der Zugriffsbeschränkungen anwenden möchten. Die Konfiguration der beiden Optionen ist ansonsten identisch.

Notiz

Ich möchte auf einen wichtigen Teil hinweisen, wenn es um die Bereitstellung mit der Terraform-Ressource namens google_access_context_manager_service_perimeter geht. Die Konfiguration des Trockenlauf-Perimeters und des erzwungenen Perimeters werden in ein und derselben Ressource vorgenommen. Wenn Sie sich die Konfiguration des Trockenlaufs genauer ansehen, sehen Sie, dass die Regeln, die Sie für den Trockenlauf hinzufügen möchten, sowohl den Block spec als auch den Wert des Attributs use_explicit_dry_run_spec auf true setzen müssen. Die Regeln, die Sie unter dem Block status hinzufügen, sind die Regeln, die erzwungen werden.

Perimeter-Typen

Wenn Sie mit der Konfiguration Ihres Perimeters beginnen, wird der folgende Bildschirm angezeigt.

VPC Service-Kontrollen erstellen Perimeter

Der Name ist offensichtlich, aber was auffällt, ist die Unterscheidung zwischen einer Regular perimeter und einer Perimeter bridge. Die Auswahl Config Type ist deaktiviert, da diese festgelegt wurde, als Sie auf die Schaltfläche im Modus Enforced oder Dry run geklickt haben.

Lassen Sie mich den Unterschied zwischen diesen beiden Begrenzungsarten anhand einiger Diagramme erklären.

Regulärer Umfang

Ein regulärer Perimeter zieht eine Grenze um die GCP-Projekte oder VPC-Netzwerke, die Sie auswählen werden. Alle Ressourcen innerhalb dieses regulären Perimeters unterliegen weiterhin Cloud IAM, aber der Zugriff auf und von außerhalb des Perimeters unterliegt zusätzlichen Kontrollen. Ein wichtiger Faktor ist, dass ein GCP-Projekt oder VPC-Netzwerk nur in genau 1 regulären Service-Perimeter aufgenommen werden kann!

VPC Service Controls Perimeterübergang blockiert

Das obige Diagramm zeigt eine grundlegende Einrichtung, bei der es zwei Perimeter gibt: Production Service Perimeter und DTA Service Perimeter. In diesen beiden Perimetern ist Cloud Storage erlaubt, während die regulären Cloud IAM-Berechtigungen weiterhin überprüft werden. Der Zugriff auf die Cloud Storage API, die mit Production project verknüpft ist, ist von DTA project aus nicht erlaubt.

Begrenzte Brücke

Eine Perimeter Bridge bietet die Möglichkeit, die Kommunikation zwischen den Google-Diensten über den Perimeter hinweg für die enthaltenen Ressourcen zu ermöglichen. Der Unterschied besteht darin, dass die GCP-Projekte und VPC-Netzwerke Teil von null oder mehr Perimeter-Brücken sein können. Beachten Sie, dass Sie bei der Erstellung einer Perimeter Bridge den Zweck eines Service-Perimeters zwischen diesen Projekten oder Netzwerken aufheben und sich nur auf den Schutz von Cloud IAM verlassen.

VPC Service Kontrolliert die Perimeter Bridge

Das obige Diagramm führt zwei neue Projekte namens Production DMZ project und DTA DMZ project sowie eine Perimeter Bridge namens DMZ Service Perimeter Bridge ein. Ein typischer Anwendungsfall für die Perimeter Bridge ist, dass die Daten in der DTA-Umgebung den Produktionsdaten so weit wie möglich ähneln sollen, aber vor ihrer Verwendung anonisiert werden müssen.

Zu schützende Ressource

Nachdem Sie Ihren Perimeter-Typ ausgewählt haben, müssen Sie im nächsten Schritt die zu schützenden Ressourcen definieren.

VPC Service Kontrolliert geschützte Ressourcen

Notiz

Denken Sie daran, dass Sie nur Ressourcen (Projekte gelten als Ressourcen) einbeziehen können, die Sie zu Ihrer Richtlinie hinzugefügt haben, oder verwenden Sie die Richtlinie auf Organisationsebene, um ein beliebiges Projekt oder Netzwerk in Ihr Perimeter einzubeziehen. Und denken Sie daran, dass ein Projekt oder Netzwerk nur zu einem regulären Perimeter hinzugefügt werden kann.

Hier fällt auf, dass Sie Projects und VPC networks auswählen können. Die am häufigsten verwendete Ressource bei der Konfiguration eines Perimeters ist projects, seltener VPC networks. Wenn Sie Netzwerke als die zu schützende(n) Ressource(n) im Perimeter auswählen (z.B. wenn Sie eine Shared VPC einbeziehen möchten), kann dies nur für Dienste auf Netzwerkebene gelten, wie z.B. Cloud SQL. Dienste auf Projektebene, wie z.B. Cloud Storage, können zu unerwartetem Verhalten führen, da diese keine Beziehung zu den im Perimeter definierten Netzwerken haben und es keinen Diskriminator gibt, um die Zugriffsregeln von außerhalb Ihres Perimeters festzulegen.

Eingeschränkte Dienstleistungen

Die Auswahl der eingeschränkten Dienste ist der Punkt, an dem die Verwirrung für viele bereits beginnt.

VPC Service Controls eingeschränkte Dienste

In diesem Punkt können Sie entweder all services oder specific services auswählen. Die Dienste, die Sie hier auswählen, sind die Google-Dienste, deren Nutzung Sie von inside und outside aus einschränken möchten. Wenn Sie Cloud Storage als einzuschränkenden Dienst auswählen, bedeutet dies, dass dieser Dienst nicht mehr zugänglich ist, ohne dass Sie dies explizit konfigurieren: Sie haben eine Grenze für die Nutzung von Cloud Storage im Verhältnis zu dem/den Projekt(en) im Perimeter gezogen.

In der untenstehenden Abbildung sehen Sie das etwas deutlicher. Sowohl die Production project als auch die DTA project befinden sich jeweils in ihrem eigenen Service-Perimeter. Daneben befindet sich Other project, das sich entweder in der gleichen GCP-Organisation oder in einer anderen Organisation befinden kann. Wenn Sie Cloud Storage zu den eingeschränkten Diensten hinzufügen, haben Sie effektiv jeden Zugriff auf diesen Dienst blockiert. Sowohl von innerhalb als auch von außerhalb des Perimeters. Alle anderen Dienste, die nicht zu dieser Liste hinzugefügt wurden, sind weiterhin frei zugänglich und unterliegen lediglich den regulären Cloud IAM-Berechtigungen.

Diagramm VPC Service Controls eingeschränkte Dienste

VPC Zugängliche Dienste

Die Verwirrung wird für die meisten noch größer, wenn sie die VPC Accessible Services auswählen. Was hat das mit den eingeschränkten Diensten zu tun?

VPC Service Kontrolliert zugängliche Dienste

Er wird oft ausgelöst, weil Sie hier vier Optionen wählen können.

  1. Alle Dienstleistungen
  2. Keine Dienstleistungen
  3. Alle eingeschränkten Dienste
  4. Ausgewählte Dienstleistungen

Um es deutlicher zu machen, füge ich BigQuery zu den von unserer Anwendung verwendeten Diensten aus den früheren Diagrammen hinzu. Für diese Diagramme betrachten wir das Szenario, in dem wir Cloud Storage für unsere eingeschränkten Dienste ausgewählt haben, aber nicht BigQuery. Wenn Sie sich die Diagramme genau ansehen, werden Sie feststellen, dass der Service Perimeter das Projekt teilweise überlappt, aber nicht vollständig. Dies soll verdeutlichen, welcher Dienst im Zusammenhang mit dem Projekt in die Eingrenzung einbezogen ist.

Alle Dienstleistungen

VPC Service Kontrolliert alle zugänglichen Dienste

Aus dem Diagramm können Sie ersehen, dass, wenn Sie All services auswählen, dies bedeutet, dass von innerhalb des Perimeters alle Dienste zugänglich sind. Dazu gehören alle Google APIs, nicht nur BigQuery aus dem Diagramm. Der einzige Unterschied besteht darin, dass Cloud Storage nicht mehr von außerhalb des Service-Perimeters zugänglich ist.

Keine Dienstleistungen

VPC Service Controls keine zugänglichen Dienste

Dieses Diagramm zeigt, dass die Auswahl von No services mehr Auswirkungen auf den Zugriff auf die Dienste von innerhalb des Service-Perimeters hat als von außerhalb des Perimeters. Das bedeutet, dass Cloud Storage in diesem Szenario überhaupt nicht zugänglich ist. BigQuery ist nur über Cloud IAM von außerhalb des Perimeters geschützt, kann aber von innerhalb des Perimeters nicht erreicht werden. Ein typischer Anwendungsfall hierfür ist der Schutz vor Datenexfiltration von innerhalb des Perimeters zu nicht zugelassenen Diensten.

Alle eingeschränkten Dienste

VPC Service Controls eingeschränkt zugängliche Dienste

Dieses Diagramm zeigt, dass die Auswahl von All restricted services sicherstellt, dass Cloud Storage von innerhalb des Perimeters, aber nicht von außerhalb erreicht werden kann. BigQuery hingegen ist von außerhalb des Perimeters, aber nicht von innerhalb des Perimeters erreichbar.

Ausgewählte Dienstleistungen

Um die letzte Option etwas deutlicher zu machen, müssen wir eine Änderung in unserem Szenario vornehmen. Nehmen wir an, dass wir jetzt auch BigQuery zu unserem Restricted services hinzugefügt haben.

VPC Service Controls ausgewählte Dienste zugänglich

Für dieses Diagramm haben wir Selected services verwendet und nur Cloud Storage als den Dienst ausgewählt, der zugänglich sein sollte. Da BigQuery nun jedoch zum Serviceumfang gehört, ist er weder von innerhalb noch von außerhalb des Serviceumfangs zugänglich.

Zugangsebenen

Wir haben nun einen der verwirrendsten Teile abgedeckt, sind aber noch nicht am Ziel. Als nächstes haben Sie die Möglichkeit, eine Zugriffsebene hinzuzufügen. Beachten Sie, dass es sich hierbei um einen Singular handelt, da Sie nur eine Zugriffsebene auf der Begrenzungsebene auswählen können. Denken Sie daran, dass eine Zugriffsebene weitere Zugriffsebenen enthalten kann. Diese Zugriffsebenen werden in einem anderen Menüpunkt konfiguriert. Security -> Access Context Manager. Möglicherweise kennen Sie den Zugriffskontext-Manager bereits von anderen Sicherheitsfunktionen wie Identity Aware Proxy und diese sind in der Tat identisch.

Zugriff auf Context Manager

Überblick über Access Context Manager

Der Access Context Manager bietet die Möglichkeit, Regelsätze zu konfigurieren, die für die Autorisierung angewendet werden. Dies kann als Teil der umfassenderen Zero Trust-Prinzipien betrachtet werden, die auf Netzwerk- (Zero Trust Network Access, ZTNA) und Anwendungsebene (Zero Trust Application Access, ZTAA) angewendet werden können.

Zugriffsstufe erstellen

Das Erstellen und Konfigurieren einer Zugriffsstufe kann eine Vielzahl von Optionen umfassen, z. B. die Angabe der IP-Bereiche, die erlaubt oder verweigert werden, und für den geografischen Kontext (anwendbar für External Application Load Balancers und Service Perimeter). Sie können auch mit anderen Access Levels kombiniert werden. Es gibt Premium-Optionen, die verfügbar sind, wenn Sie auch Lizenzen für Chrome Enterprise Premium erwerben. Damit lassen sich die Sicherheitsfunktionen noch weiter verbessern, was den Rahmen dieses Blogs bei weitem sprengen würde.

Wichtig für diesen Abschnitt ist, dass er auch die Möglichkeit bietet, den Kontext zu validieren, in dem die Anfrage an den/die durch den Service-Perimeter geschützten Dienst(e) gestellt wird.

Ingress-Politik

Die Ingress-Richtlinie wird verwendet, um granulare Regeln für den Zugriff auf Ressourcen außerhalb des Perimeters innerhalb des Perimeters anzuwenden. Das nachfolgende Diagramm veranschaulicht diesen Prozess.

Diagramm VPC Service Controls Ingress Policy

Hier sehen Sie, dass die Ingress Policy auf jede Anfrage angewendet wird, die auf einen Dienst zugreifen möchte, der durch den Service Perimeter geschützt ist. Der Vorteil dieses Ansatzes gegenüber der Verwendung eines Service-Perimeters ist ein zweifacher: 1. Sie können Regeln für Projekte konfigurieren, die nicht Teil eines Service-Perimeters oder sogar außerhalb des Unternehmens sind. 2. Dies bietet die Möglichkeit eines granularen Autorisierungsprozesses, um zu bestimmen, auf welchen Dienst von außerhalb des Perimeters zugegriffen werden darf

Die Abhängigkeit von Ingress-Richtlinien bringt jedoch auch einige Nachteile mit sich. Sie müssen alle Regeln für den Zugriff von außerhalb des Service-Perimeters explizit konfigurieren. Dies betrifft nicht nur den Zugriff von anderen Projekten, sondern auch die Möglichkeit des Zugriffs auf Ressourcen über die Cloud Console und von verwalteten Diensten, die in von Google verwalteten Single-Tenant-Projekten implementiert sind. Dies kann zu einer ganzen Reihe von Tests und Versuchen führen, während Sie die Cloud Audit-Protokolle durchgehen und mithilfe des Leitfadens zur Fehlerbehebung prüfen, wie Sie das Problem lösen können.

Nach meiner persönlichen Erfahrung kann insbesondere der Fehler NETWORK_NOT_IN_SAME_PERIMETER für viel Kopfzerbrechen sorgen. Ein besonderer Fall ist, wenn die Anfragen von einer Ressource in einem Projekt kommen, das in einer Shared VPC enthalten ist, während der aktuelle Perimeter außerhalb dieser VPC liegt. Dann müssen Sie diesem Netzwerk explizit Zugriff gewähren. Ein anderer Fall ist die Nutzung eines verwalteten Dienstes wie Cloud SQL, bei dem das Netzwerk des Single Tenant-Projekts mit dem Projekt im Service-Perimeter gepaart ist. Der Trick besteht darin, herauszufinden, um welches Netzwerk es sich tatsächlich handelt, denn in den Protokollen wird der Netzwerkname als __unknown__ angezeigt.

Die Ingress-Richtlinie selbst ist ziemlich selbsterklärend.

Sie können auswählen, woher die Anfragen kommen sollen und an welchen Dienst. VPC-Dienstkontrollen Ingress-Richtlinie

Sie können die Identitäten definieren, die Sie erwarten VPC Service Controls Ingress Policy von Identität

Sie können die Quellorte angeben, einschließlich anderer Zugriffsebenen VPC-Dienst steuert Ingress-Richtlinie von Quellen

Sie können das/die Zielprojekt(e) angeben

VPC Service Controls Ingress Policy Zielprojekte

Und der/die Zieldienst(e)

VPC Service Controls Ingress Policy Ziel-Dienste

Für einige Dienste können Sie sogar noch spezifischer sein, indem Sie die erlaubten Methoden definieren. Dies sind Dienste wie Cloud Storage und BigQuery VPC Service Controls Ingress Policy Ziel-Service-Methoden

Ausstiegspolitik

Zu guter Letzt ist da noch die Egress Policy. Insbesondere zum Schutz vor Datenexfiltration hilft diese Funktion bei der Einhaltung der erforderlichen Sicherheitskontrollen.

Dieses Diagramm zeigt, dass diese Egress-Richtlinie auf Anrufe von innerhalb des Perimeters nach außerhalb des Perimeters angewendet wird. Beachten Sie, dass, wenn sich die Zielressource selbst innerhalb eines Service-Perimeters befindet, in diesem Perimeter auch zusätzliche Ingress-Regeln gelten sollten, damit die Anfrage erfolgreich sein kann. Diagramm VPC Service Controls Egress Policy

Die Konfiguration der Egress-Richtlinie selbst ist etwas weniger komplex und die Felder, die konfiguriert werden können, sind denen einer Ingress-Richtlinie sehr ähnlich. VPC Service Controls Egress Policy Konfiguration

Eine besondere Abweichung bei der Ingress-Policy ist, dass Sie bei einer Egress-Policy auch eine Ressource mit einem externen CSP, wie AWS oder Azure, angeben können. VPC Service Controls Egress Policy externe Ressourcen

Fazit

VPC Service Controls ist eine Technik, mit der Sie den Zugriff auf Google-APIs kontrollieren können, die andernfalls selbst im Kontext eines privaten Netzwerks mit aktiviertem Private Google Access allgemein zugänglich wären. Der Umfang geht noch ein wenig weiter, um sicherzustellen, dass diese Dienste nun vor Zugriffen von außerhalb des Perimeters geschützt werden können, so dass Sie den Datenschutz auf mehreren Ebenen durchsetzen können. Es ist jedoch oft eine wichtige Funktion, um nachweisen zu können, dass Sie Richtlinien und Vorschriften wie die GDPR und HIPAA einhalten.

Die Konfiguration von VPC Service Controls kann ziemlich komplex werden, vor allem wenn Sie mit dem Thema nicht vertraut sind und den Wald vor lauter Bäumen nicht mehr sehen. Dieser Blog soll Klarheit darüber schaffen, wie ein VPC Service Perimeter richtig konfiguriert wird, welche Teile zu konfigurieren sind und welche Überlegungen bei der Implementierung angestellt werden müssen (z.B. wann Perimeter Bridges gegenüber Ingress- und Egress-Richtlinien vorzuziehen sind). Wenn Sie weitere Fragen haben, können Sie sich gerne an uns wenden.

Verfasst von

Ruben Kruiver

Contact

Let’s discuss how we can support your journey.