Harmonie mit Innovation, ChatGPT und Sicherheit finden
HeimHeim > Blog > Harmonie mit Innovation, ChatGPT und Sicherheit finden

Harmonie mit Innovation, ChatGPT und Sicherheit finden

Nov 18, 2023

Von Zscaler |

Erfahren Sie, warum die Proxy-basierte Architektur von Zscaler auf einem branchenführenden SSE-Framework basiert, um überragende Sicherheit für die Absicherung moderner Unternehmen von heute zu bieten.

Mittlerweile sind Sie mit ChatGPT vertraut. Nur zwei Monate nach seiner Veröffentlichung wurde es zu einer der am schnellsten wachsenden Verbraucheranwendungen, die die Welt je gesehen hatte.

Aufgrund der Aufmerksamkeit ist jede Organisation zu einer anderen Schlussfolgerung bezüglich der Verwendung großer Sprachmodelle in fortschrittlichen Chatbots gekommen – sowohl hinsichtlich der alltäglichen Nutzung der Technologie am Arbeitsplatz als auch der größeren gesellschaftlichen Fragen, die sie aufwirft.

Bei vielen Unternehmen haben diese Tools großes Interesse geweckt, da sie sie nutzen möchten, um die Produktivität zu steigern. Aufgrund der Art und Weise, wie Daten erfasst und erstellt werden, hat es jedoch auch die Aufmerksamkeit der Behörden auf sich gezogen. Abgesehen davon, dass Fragen zur Datenkonformität aktiv diskutiert werden, muss auch der Schutz des geistigen Eigentums von Unternehmen oder sensibler Kundendaten vor der Verwendung in ChatGPT oder anderen KI-Projekten berücksichtigt werden.

Zscaler hat Hunderte von KI-Tools und Websites identifiziert, darunter OpenAI ChatGPT, und eine URL-Kategorie namens „KI- und ML-Anwendungen“ erstellt. Organisationen können diese URL-Kategorie verwenden, um verschiedene Maßnahmen zu ergreifen: den Zugriff auf diese Websites vollständig zu blockieren, den vorsichtsbasierten Zugriff auszuweiten, bei dem Benutzer in der Verwendung dieser Tools geschult werden, oder die Verwendung – jedoch mit Schutzmaßnahmen – durch Browserisolation zum Schutz von Daten zuzulassen .

Jetzt werden wir näher darauf eingehen, wie die Isolation dazu beiträgt, die Produktivität anzukurbeln und gleichzeitig die Datensicherheit aufrechtzuerhalten.

Zunächst ist es wichtig zu verstehen, warum Datensicherheit so wichtig ist. The Economist Korea hat eine detaillierte Warnung zur Datensicherheit bei ChatGPT veröffentlicht. Im April beobachtete Samsung drei separate Lecks sensibler Unternehmensdaten mit ChatGPT in seiner Halbleitersparte. In einem Fall wurde das Tool verwendet, um vertraulichen Quellcode zu überprüfen, ein anderer Mitarbeiter forderte eine „Code-Optimierung“ und ein dritter lud eine Besprechungsaufzeichnung hoch, um ein Transkript zu erstellen. Diese Informationen sind jetzt Teil von ChatGPT. Samsung wiederum hat die Nutzung des Tools eingeschränkt und könnte es verbieten oder sogar eine interne Version erstellen.

Bei Zscaler hören wir von Organisationen auf beiden Seiten der ChatGPT-Münze und bieten daher verschiedene Aktionen für den Zugriff auf diese Websites an. Isolation kann auf folgende Weise hilfreich sein.

Datensicherheit mit Innovation in Einklang bringen

Mithilfe des Zscaler Zero Trust Exchange können diese großen Sprachmodellanwendungen oder KI-Internetziele in der URL-Kategorie „KI- und ML-Anwendungen“ in Zscaler Browser Isolation gerendert werden. Der Vorteil? Leistungsstarke Kontrollen über den Umgang mit sensiblen Daten, sowohl mit Dateien als auch mit bestimmten sensiblen Informationen.

Zunächst könnten Sie alle Uploads und Downloads blockieren (auf den KI-Sites, die dies zulassen) und den Zugriff auf die Zwischenablage vollständig einschränken. Wenn Sie jedoch eine gewisse Nutzung zulassen möchten, können Sie Texteingaben zulassen. Benutzer können weiterhin Abfragen eingeben und mit den generierten Erkenntnissen experimentieren.

Wie sieht es mit den Risiken aus, die mit der Weitergabe vertraulicher Daten durch Benutzer in ihren Chat-Anfragen verbunden sind? Mit der Browser-Isolation können alle eingegebenen sensiblen Daten erkannt und vor dem Senden durch die Zscaler DLP-Engine geschützt werden. Um einen vollständigen Überblick darüber zu erhalten, wie Mitarbeiter diese Websites nutzen, können wir außerdem die Anfragen sehen und protokollieren, die Mitarbeiter an einen Ort wie ChatGPT stellen, auch wenn die DLP-Regeln nicht aktiviert sind.

Nehmen wir zum Beispiel an, ein Benutzer versucht, in einer Eingabeaufforderung viel Text, einschließlich vertraulicher Daten, hochzuladen. Die Benutzer können Daten innerhalb der Grenzen der Browser-Isolation eingeben, die als kurzlebiger Container ausgeführt wird. Dennoch dürfen keine sensiblen Daten das Unternehmen verlassen – sie werden in der Browser-Isolationssitzung blockiert.

Wie wäre es mit der Vermeidung von Problemen mit geistigem Eigentum, indem sichergestellt wird, dass keine Daten auf den Computer eines Benutzers heruntergeladen werden können? Dies kann vermieden werden, indem Downloads isoliert blockiert werden oder temporärer „geschützter Speicher“ verwendet wird, ohne dass solche Daten an den Endpunkt gelangen oder gegen die Upload-/Download-Richtlinie des Endpunkts verstoßen wird. Ebenso können alle Ausgabeproduktivitätsdateien wie .docx, .xlsx usw. als schreibgeschützte PDFs in diesem geschützten Speicher angezeigt werden, ohne dass diese unbedingt auf den Endpunkt selbst heruntergeladen werden müssen.

Darüber hinaus kann die DLP-Engine vertrauliche Inhalte in den Dateien erkennen und sogar die optische Zeichenerkennung nutzen, um vertrauliche Daten in den Bilddateien zu finden, selbst wenn Uploads erlaubt sind – zu KI-Tools oder einer anderen Website.

Letztendlich möchten Unternehmen auch vollständig nachverfolgen, wie Mitarbeiter diese Websites isoliert nutzen. Hier kommt der DLP Incident Receiver ins Spiel, der alle Anfragen an KI-Anwendungen erfasst und protokolliert, damit sie von Sicherheits- oder Auditteams überprüft werden können.

Doch was ist mit Organisationen, die noch nicht bereit sind, den Einsatz von KI-Anwendungen zuzulassen? Unternehmen können den Zugriff auf die URL-Kategorie „KI- und ML-Anwendungen“ sperren.

Somit bietet der Zscaler Zero Trust Exchange umfassenden Schutz, ermöglicht gleichzeitig die Produktivität Ihrer Benutzer und verhindert die Schatten-IT-Nutzung.

Sehen Sie sich in dieser kurzen Demo unsere Schutzmaßnahmen in Aktion an oder erfahren Sie, wie Sie den Einsatz von KI-Tools sowohl einschränken als auch sicher anwenden können.

Copyright © 2023 IDG Communications, Inc.

Datensicherheit mit Innovation in Einklang bringen