Verursacht ChatGPT einen Cybersicherheits-Albtraum? Wir haben die Experten gefragt


Pexels
ChatGPT scheint im Moment ziemlich unausweichlich zu sein, und scheinbar überall, wo man hinschaut, wundern sich Geschichten über seine Fähigkeiten. Wir haben gesehen, wie es Musik schreiben, 3D-Animationen rendern und Musik komponieren kann. Wenn es Ihnen einfällt, kann ChatGPT es wahrscheinlich versuchen.

Und genau das ist das Problem. In der Tech-Community herrscht derzeit allerhand Streit, und Kommentatoren befürchten häufig, dass KI zu einer Malware-Apokalypse führen wird, bei der selbst die Hacker mit dem grünsten Daumen unaufhaltsame Trojaner und Ransomware heraufbeschwören.
Aber stimmt das tatsächlich? Um das herauszufinden, habe ich mit einer Reihe von Cybersicherheitsexperten gesprochen, um zu erfahren, was sie von den Malware-Fähigkeiten von ChatGPT halten, ob sie sich Sorgen über das Missbrauchspotenzial machen und was Sie tun können, um sich in dieser neuen Welt zu schützen.

Eine der Hauptattraktionen von ChatGPT ist seine Fähigkeit, komplizierte Aufgaben mit nur wenigen einfachen Eingabeaufforderungen auszuführen, insbesondere in der Welt der Programmierung. Es besteht die Befürchtung, dass dies die Eintrittsbarrieren für die Erstellung von Malware senken würde, was möglicherweise zu einer Verbreitung von Virenautoren führen würde, die sich auf KI-Tools verlassen, um die schwere Arbeit für sie zu erledigen.

Joshua Long, Chef-Sicherheitsanalyst beim Sicherheitsunternehmen Intego, veranschaulicht diesen Punkt. „Wie jedes Werkzeug in der physischen oder virtuellen Welt kann Computercode zum Guten oder zum Bösen eingesetzt werden“, erklärt er. „Wenn Sie beispielsweise Code anfordern, der eine Datei verschlüsseln kann, kann ein Bot wie ChatGPT Ihre wahre Absicht nicht kennen. Wenn Sie behaupten, dass Sie einen Verschlüsselungscode benötigen, um Ihre eigenen Dateien zu schützen, wird der Bot Ihnen glauben – selbst wenn Ihr eigentliches Ziel darin besteht, Ransomware zu erstellen.“

ChatGPT verfügt über verschiedene Schutzmaßnahmen, um solche Dinge zu bekämpfen, und der Trick für Virenersteller besteht darin, diese Schutzmaßnahmen zu umgehen. Fordern Sie ChatGPT unverblümt auf, einen effektiven Virus zu erstellen, und er wird sich einfach weigern, und Sie müssen kreativ werden, um ihn zu überlisten und ihn wider besseres Wissen dazu zu bringen, Ihren Befehlen nachzukommen. Wenn man bedenkt, was Menschen mit Jailbreaks in ChatGPT machen können, erscheint die Möglichkeit, mithilfe von KI Malware zu erstellen, theoretisch möglich. Tatsächlich wurde es bereits demonstriert, wir wissen also, dass es möglich ist.

Aber nicht jeder gerät in Panik. Martin Zugec, Technical Solutions Director bei Bitdefender, hält die Risiken noch für recht gering. „Die Mehrheit der unerfahrenen Malware-Autoren verfügt wahrscheinlich nicht über die erforderlichen Fähigkeiten, um diese Sicherheitsmaßnahmen zu umgehen, und daher bleibt das Risiko, das von Chatbot-generierter Malware ausgeht, derzeit relativ gering“, sagt er.

„Von Chatbots generierte Malware war in letzter Zeit ein beliebtes Diskussionsthema“, fährt Zugec fort, „aber es gibt derzeit keine Hinweise darauf, dass sie in naher Zukunft eine erhebliche Bedrohung darstellt.“ Und dafür gibt es einen einfachen Grund. Laut Zugec ist „die Qualität des von Chatbots erzeugten Malware-Codes tendenziell gering, was ihn zu einer weniger attraktiven Option für erfahrene Malware-Autoren macht, die in öffentlichen Code-Repositorys bessere Beispiele finden können.“

Während es also sicherlich möglich ist, ChatGPT dazu zu bringen, bösartigen Code zu erstellen, wird jeder, der über die nötigen Fähigkeiten verfügt, um den KI-Chatbot zu manipulieren, wahrscheinlich von dem schlechten Code, den er erstellt, unbeeindruckt sein, glaubt Zugec.

Aber wie Sie sich vielleicht vorstellen können, steht die generative KI gerade erst am Anfang. Und für Long bedeutet das, dass die von ChatGPT ausgehenden Hacking-Risiken noch nicht in Stein gemeißelt sind.

„Es ist möglich, dass der Aufstieg LLM-basierter KI-Bots zu einem kleinen bis moderaten Anstieg neuer Malware oder einer Verbesserung der Malware-Fähigkeiten und der Antivirenumgehung führt“, sagt Long und verwendet dabei ein Akronym für die großen Sprachmodelle, die KI verwenden Tools wie ChatGPT nutzen, um ihr Wissen aufzubauen. „Zu diesem Zeitpunkt ist jedoch nicht klar, welchen direkten Einfluss Tools wie ChatGPT auf reale Malware-Bedrohungen haben oder haben werden.“

Der Freund eines Phishers

Wenn die Code-Schreibfähigkeiten von ChatGPT noch nicht auf dem neuesten Stand sind, könnte es dann auf andere Weise eine Bedrohung darstellen, beispielsweise durch das Schreiben effektiverer Phishing- und Social-Engineering-Kampagnen? Hier sind sich die Analysten einig, dass deutlich mehr Missbrauchspotenzial besteht.

Ein potenzieller Angriffsvektor für viele Unternehmen sind die Mitarbeiter des Unternehmens, die ausgetrickst oder manipuliert werden können, um unbeabsichtigt Zugriff zu gewähren, wo sie es nicht sollten. Hacker wissen das, und es gab viele aufsehenerregende Social-Engineering-Angriffe, die sich als katastrophal erwiesen haben. Man geht beispielsweise davon aus, dass die nordkoreanische Lazarus-Gruppe im Jahr 2014 mit dem Eindringen in die Systeme von Sony begann – was zum Durchsickern unveröffentlichter Filme und persönlicher Daten führte –, indem sie sich als Personalvermittler ausgab und einen Sony-Mitarbeiter dazu brachte, eine infizierte Datei zu öffnen.

Dies ist ein Bereich, in dem ChatGPT Hackern und Phishern erheblich dabei helfen könnte, ihre Arbeit zu verbessern. Wenn beispielsweise Englisch nicht die Muttersprache eines Bedrohungsakteurs ist, könnte er mithilfe eines KI-Chatbots eine überzeugende Phishing-E-Mail für ihn verfassen, die sich an englischsprachige Personen richtet.


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert