Zum Hauptinhalt springen

News & Blog Archiv

Generative KI für IT-Security-Dienstleister – Chancen und Risiken

|   Blog
Roboterhand und menschliche Hand berühren sich

Künstliche Intelligenz hat vielfältigen Einfluss auf die Welt der IT-Sicherheit. Systemhäuser und IT-Dienstleister können ChatGPT und ähnliche KI-Anwendungen vielseitig zu ihrem Vorteil nutzen.

Seit ChatGPT der Öffentlichkeit zugänglich ist, schwanken die Reaktionen zwischen Besorgnis und Begeisterung. Die Verwirklichung von Science-Fiction-Träumen und -Albträumen scheint näher zu rücken, in denen intelligente Maschinen entweder unverzichtbare Assistenten oder gefühllose Bedrohungen sind. Tatsächlich ist das Potenzial dieser Algorithmen für zahlreiche Anwendungen enorm.

Was können ChatGPT und Co.?

Text- und Bildgenerierende KI-Anwendungen wie ChatGPT oder Midjourney werden unter dem Sammelbegriff „Generative künstliche Intelligenz“ zusammengefasst. Sie erstellen Texte und Bilder, die von menschengemachten Werken kaum oder gar nicht zu unterscheiden sind. Die Interaktion mit diesen Systemen ist äußerst benutzerfreundlich und teilweise intuitiv. Dadurch entsteht der Eindruck, mit einem "intelligenten" Gegenüber zu kommunizieren, obwohl die Fähigkeiten der Tools tatsächlich begrenzt sind: Sie durchsuchen ihre Datenbanken nach der wahrscheinlichsten Antwort auf eine Anfrage und können diese nach Vorgaben anpassen. Da die durchsuchbaren Informationen äußerst umfangreich sind, ist die Qualität und Anpassbarkeit der Ergebnisse sehr hoch. Dennoch stoßen beispielsweise bildgenerierende Anwendungen gelegentlich an ihre Grenzen und machen Fehler, die einem menschlichen Betrachter sofort auffallen. Aber auch hier können durch entsprechende Anpassungen am Briefing häufig sehr gute Ergebnisse erzielt werden, die je nach Bedarf fotorealistisch oder künstlerisch gestaltet sein können.

Textgenerierende KI wie ChatGPT kann komplexe Fragen beantworten und ermöglicht auch Nachfragen oder Präzisierungen, um den Eindruck einer echten Konversation zu erzeugen. Auf die Frage "Wenn ich einen Ballon in der Hand halte und der Faden zwischen meiner Hand und dem Ballon reißt, was passiert dann?" antwortet ChatGPT (gekürzte Wiedergabe): "Wenn der Faden, der den Ballon an Ihrer Hand festhält, reißt, hängt das, was als nächstes passiert, vom Füllstoff des Ballons ab. Wenn der Ballon mit Helium oder einem anderen leichten Gas gefüllt ist, würde der Ballon aufsteigen und in den Himmel fliegen. " Auch die ungenaue Nachfrage "Und wenn ich das Ganze auf dem Mond mache, was passiert dann?" kann ChatGPT beantworten, da der Bezug zur vorangegangenen Frage hergestellt wird.

ChatGPT eignet sich nicht nur als Gesprächspartner für unterhaltsame Gedankenexperimente. Es kann auch Computercode auf Fehler überprüfen und Lösungen entwickeln, wenn entsprechende Nachfragen gestellt werden. Das macht es zu einem äußerst nützlichen Werkzeug für Programmierer – allerdings unabhängig von der Farbe des Hacker-Hutes.

Ein weiterer Anstieg von Cyberkriminalität ist zu erwarten.

Einige beschreibende Informationen in die Eingabemaske eingegeben und schon generieren Anwendungen wie ChatGPT sauberen, funktionierenden Code. Trotz der eingebauten Vorsichtsmaßnahmen wird dadurch auch die Erstellung von Schadcode einfacher.

ChatGPT selbst teilt mit, dass „…die Missbrauchsmöglichkeiten von KI-Technologien eine anhaltende Herausforderung darstellen, und die Sicherheitsmaßnahmen […]nicht immer alle potenziellen Risiken vollständig ausschließen [können].“

So wird auch die Erstellung überzeugender Texte für Spam oder Phishing in verschiedenen Varianten mithilfe von KI-Anwendungen zu einer einfachen Aufgabe. Entsprechende Angriffe stellen bereits ein massives Problem dar, wie beispielsweise der Lagebericht 2023 des BSI belegt.

Gefälschte Bilder und Videos, Deepfakes auf einem ganz neuen Level, können ebenfalls für kriminelle Zwecke genutzt und bei Erpressungen oder Social Engineering eingesetzt werden. Bereits jetzt muss kritisch hinterfragt werden, welchen Bildern man vertrauen kann.

Nutzen für Systemhäuser und IT-Dienstleister

Für Systemhäuser sind die generativen KI-Anwendungen großartig geeignet, um sich Aufgaben zu erleichtern. Als IT-Dienstleister bieten sich Ihnen verschiedene Möglichkeiten, KI in Ihrem Berufsfeld zu nutzen.

  1. Automatisierung von Prozessen: Nutzen Sie KI, um Routineaufgaben wie die Überwachung von Systemen, die Fehlerbehebung und die Aktualisierung von Software zu automatisieren. Eine Aufgabe wie „Ich brauche ein Powershell-Skript, welches prüft, ob ein Dienst läuft. Läuft dieser nicht, versucht das Skript zunächst den Dienst zu starten. Wenn das nach dreimal nicht gelingt, wird eine E-Mail an einen hinterlegten Admin verschickt. Außerdem erzeugt das Skript für jeden Punkt Einträge in einen Logfile“ kann ChatGPT durchaus sinnvoll lösen.
  2. Texterstellung für Kundenanschreiben, Website oder Social Media: Geben Sie ChatGPT als Befehl „Erstelle einen Werbetext für IT-Security as a Service“ und staunen über das gute Ergebnis. Auch wenn das Ergebnis nicht für jeden Fall passt, erhalten Sie immer eine gute Grundlage, mit der sich arbeiten lässt. Ein Tipp: Versuchen Sie dem Text immer noch eine persönliche Note zu geben. Damit vermeiden Sie Wiederholungen.
  3. ChatGPT ermöglicht die Entwicklung eigener Chatbots, die Sie für Ihren Kundensupport nutzen können.
  4. Data Analytics: KI-Anwendungen sind gut geeignet, um große Datenmengen zu analysieren.

ChatGPT wurde gebeten, das Fazit dieses Textes zu ziehen. Es lautet: „Insgesamt erfordert die Nutzung von KI in der IT-Sicherheit eine ausgewogene Herangehensweise, um die Chancen zu nutzen und die Risiken zu minimieren. Mit klarem Bewusstsein und verantwortungsvoller Nutzung können Unternehmen und IT-Profis das volle Potenzial von KI ausschöpfen und gleichzeitig die Sicherheit gewährleisten.“

Dem haben wir nichts hinzuzufügen.

Zurück

Public Relations

Download (jpg)

Lajos A. Sperling
Telefon: +49 (0)4131/2401-0
E-Mail: presse@securepoint.de