Wie sich ChatGPT auf die IT-Sicherheit auswirkt

Generative KI ist weit mehr als nur ein Spielzeug. Die Technik kann bei richtiger Anwendung die Sicherheit in Unternehmen erhöhen. Aber auch Cyberangreifer profitieren von den neuen Möglichkeiten.

Keine Online-Plattform wuchs so schnell wie ChatGPT: Nach nur zwei Monaten verzeichnete der Dienst bereits 100 Millionen Nutzer. Facebook benötigte dafür viereinhalb Jahre. Viele IT-Sicherheitsexperten fragen sich jetzt, ob der bahnbrechende Erfolg generativer künstlicher Intelligenz (KI) für ihre Branche ein Segen oder eher ein Fluch ist.

Eine berechtigte Frage. KI-Anwendungen und -Dienste wie ChatGPT bergen Chancen und Risiken für die IT-Sicherheit in Unternehmen. Generative KI lässt sich sowohl für einen besseren Schutz der IT-Infrastruktur einsetzen als auch für immer ausgefeiltere Angriffe auf genau diese Systeme. Deshalb stellen wir nachfolgend die wichtigsten Vor- und Nachteile aus Sicht der IT-Security vor.

Welche Vorteile generative KI für die IT-Sicherheit hat

Wenden wir uns zunächst den Vorteilen generativer künstlicher Intelligenz zu. Die meisten IT-Sicherheitsexperten dürften in den Präsentationen und Marketingbroschüren vieler Hersteller schon mal KI begegnet sein. Manches davon ist übertrieben, aber es gibt durchaus handfeste Vorteile, etwa beim Pentesting oder bei der Analyse forensischer Daten.

Bedrohungen bekämpfen

Eine KI erkennt verdächtige Muster in großen Datensätzen wesentlich effizienter als menschliche Analysten. Sie bemerkt Anomalien schneller, die auf einen Cyberangriff hindeuten. Dazu benötigt sie allerdings erst Training. Dabei beobachtet sie in der Regel über mehrere Wochen oder Monate, was zum normalen Geschehen und Verkehr in einem Netzwerk gehört. Auf Basis dieser Daten entdeckt sie dann Ereignisse, die nicht zum normalen Ablauf gehören. Dadurch werden nicht nur Ressourcen bei den Sicherheitsexperten frei. Je nach Konfiguration leitet die KI auch sofort Gegenmaßnahmen ein und bekämpft Bedrohungen aktiv, bevor weiterer Schaden entsteht.

Ein gutes Beispiel stellt der kürzlich von Microsoft vorgestellte Security Copilot dar. Er basiert auf GPT-4 von OpenAI und ist im Kern ebenfalls ein Chatbot, der Fragen zur aktuellen Cybersicherheitslage im Unternehmen beantwortet, Bedrohungsdaten und Malware analysiert oder Berichte für das Management erstellt. Security Copilot liefert sogar PowerPoint-Präsentationen, die sicherheitsrelevante Vorfälle und die dabei verwendeten Angriffsvektoren beschreiben. Microsoft trainiert den Dienst eigenen Angaben zufolge täglich mit rund 65 Billionen neuen Signalen

Bedrohungen vermeiden

Das Thema KI spielt auch beim Zero-Trust-Modell eine wichtige Rolle. Es basiert auf dem Prinzip, alles zu verbieten, was nicht explizit erlaubt ist. Ein Benutzer darf also beispielsweise nicht automatisch auf einen Server zugreifen, nur weil er gerade als Administrator im Netzwerk angemeldet ist. Zero-Trust-Systeme ziehen weitere Daten aus dem Kontext heran, um über den Zugriff zu entscheiden. Künstliche Intelligenz erhöht die Effizienz solcher Verfahren.

Bedrohungen simulieren

Darüber hinaus gelingt es künstlicher Intelligenz auch, verschiedene Angriffsszenarien zu simulieren und Lücken in der Cyberabwehr eines Unternehmens aufzudecken, bevor reale Angreifer diese ausnutzen.

Welche Nachteile generative KI für die IT-Sicherheit hat

Es dauerte nicht lange, bis auch Cyberkriminelle und verdeckt operierende staatliche Stellen die Vorteile von KI für ihre Zwecke erkannten. Die gleichen oder ähnliche Techniken, die zur Verbesserung der IT-Sicherheit dienen, lassen sich auch für weniger ehrenwerte Ziele einsetzen. Das macht Angriffe immer raffinierter, noch schwieriger zu erkennen und abzuwehren.

So ist es beispielsweise ein Leichtes, mithilfe von ChatGPT die Bereiche Cyberbetrug und Social Engineering zu revolutionieren. Fielen Phishing-E-Mails bisher oft durch fehlerhafte Formulierungen, Rechtschreibfehler und einen insgesamt wenig durchdachten Aufbau auf, kann eine KI nun nahezu kinderleicht massenhaft personalisierte Nachrichten generieren, um potenzielle Opfer in die Falle zu locken. Es wird also nicht mehr lange dauern, bis Spear Phishing und CEO Fraud in die Höhe schnellen.

KI-Schnittstellen attackieren

Immer mehr Unternehmen integrieren künstliche Intelligenz in ihre Kollaborations- und Geschäftslösungen. Dies wird jedoch schnell riskant, wenn sich Angreifer Zugang zu diesen Schnittstellen verschaffen. Dann können sie Daten manipulieren oder gezielt Informationen in eine vermeintlich vertrauenswürdige Umgebung einschleusen.

Deepfakes erzeugen

Gefälschte Daten, sogenannte „Fakes“, sind kein neues Phänomen. Schon früher wurden Fotos manipuliert und Details entfernt oder hinzugefügt, doch künstliche Intelligenz erleichtert diese Aufgabe. Eine moderne KI fälscht nicht nur Fotos, sondern auch Videos und sogar schon Stimmen. Es dauert nicht mehr lange, bis ein Unbekannter anruft, der genauso klingt wie ein Kollege oder Vorgesetzter. Die IT steht damit vor einer neuen Welle von Phishing-Angriffen und Desinformationskampagnen.

Malware entwickeln

Dass ChatGPT auch relativ gut programmieren kann, hat viele überrascht. So lassen sich mit wenig Aufwand komplette Webseiten und Anwendungen herstellen. Natürlich lässt sich auch das missbrauchen. OpenAI hat zwar Vorkehrungen getroffen und versucht, illegale oder schädliche Einsatzzwecke zu verhindern. Findige Internetnutzer haben aber bereits einige Möglichkeiten gefunden, die KI auszutricksen. Dazu lassen sie ChatGPT in andere Rollen schlüpfen, die sich nicht mehr an die Vorgaben halten. Hier bahnt sich das nächste Katz-und-Maus-Spiel zwischen Cyberkriminellen und IT-Herstellern an.

Zunehmende KI-Abhängigkeit

Der Einsatz generativer künstlicher Intelligenz birgt weitere Risiken, wenn diese Systeme versagen, nicht verfügbar sind oder manipuliert werden. Large Language Models (LLM) wie ChatGPT lassen sich manipulieren und mit präparierten Daten füttern, die zu anderen als den gewünschten Ergebnissen führen.

Darüber hinaus verleitet ein zu großes Vertrauen in die Fähigkeiten der KI zu einem falschen Gefühl der Sicherheit. Dieses Phänomen kennt man bereits von Antivirenprogrammen. Deren Genauigkeit und Zuverlässigkeit wird immer wieder überschätzt, wodurch sich manche Nutzer riskanter verhalten. Frei nach dem Motto „Wir sind ja gut geschützt“.

Fazit

Der Einsatz von KI erleichtert im Bereich der IT-Sicherheit zweifellos die Suche nach der Nadel im Heuhaufen. Die Vorteile reichen von der verbesserten und beschleunigten Erkennung von Cyberbedrohungen über die proaktive Simulation von Gefahren bis hin zur Entlastung der vorhandenen Sicherheitsexperten – gerade angesichts des grassierenden Fachkräftemangels. Andererseits ist aber auch Vorsicht geboten, denn die sich derzeit rasant entwickelnden Technologien verwenden und missbrauchen natürlich auch Cyberkriminelle.

Es bleibt also spannend. Deshalb ist es um so wichtiger, IT-Sicherheitsmaßnahmen im Rahmen ganzheitlicher Zero-Trust-Konzepte strategisch zu planen, um den immer komplexeren Angriffen Rechnung zu tragen. Informieren Sie sich jetzt über Zero Trust Security von NCP!

Blog abonnieren

CAPTCHA-Bild zum Spam-Schutz Wenn Sie das Wort nicht lesen können, bitte hier klicken.