Leute versuchen bereits, ChatGPT dazu zu bringen, Malware zu schreiben.

gettyimages-1245391800.jpg

Der ChatGPT AI-Chatbot hat in der kurzen Zeit, seitdem er verfügbar ist, für viel Aufregung gesorgt und jetzt scheint es, dass einige versuchen, ihn einzusetzen, um bösartigen Code zu generieren.

ChatGPT ist ein KI-gesteuertes Tool für die natürliche Sprachverarbeitung, das auf eine menschenähnliche, konversationelle Weise mit Benutzern interagiert. Es kann unter anderem verwendet werden, um bei Aufgaben wie dem Verfassen von E-Mails, Essays und Code zu helfen.

Außerdem: Was ist ChatGPT und warum ist es wichtig? Was Sie wissen müssen

Das Chatbot-Tool wurde im November von dem Forschungslabor für künstliche Intelligenz OpenAI veröffentlich und hat weithin Interesse und Diskussionen darüber ausgelöst, wie die KI sich weiterentwickelt und zukünftig eingesetzt werden könnte. Hier können Sie mehr darüber erfahren.

Aber wie jedes andere Tool könnte es falsch eingesetzt werden und für betrügerische Zwecke verwendet werden. Cybersicherheitsforscher von Check Point sagen, dass die Nutzer der unterirdischen Hacking-Communities bereits ausprobieren, wie ChatGPT dazu genutzt werden kann, um Cyberangriffe zu erleichtern und bösartige Operationen zu unterstützen.

"Bedrohungsakteure mit sehr geringen technischen Kenntnissen - bis hin zu null Tech-Kenntnissen - könnten in der Lage sein, bösartige Tools zu erstellen. Das könnte auch die täglichen Operationen von anspruchsvollen Cyberkriminellen viel effizienter und einfacher machen - wie die Erstellung verschiedener Teile der Infektionskette", sagte Sergey Shykevich, Threat Intelligence Group Manager bei Check Point, zu ZDNET.

Die Nutzungsbedingungen von OpenAI verbieten ausdrücklich die Erstellung von Malware, die als "Inhalte, die versuchen, Ransomware, Keylogger, Viren oder andere Software zu generieren, die darauf abzielt, einen gewissen Schaden zu verursachen", definiert wird. Es verbietet auch Versuche, Spam zu erstellen sowie Anwendungen, die sich an Cyberkriminalität richten.

Allerdings deutet eine Analyse der Aktivitäten in mehreren großen Untergrund-Hacking-Foren darauf hin, dass Cyber-Kriminelle bereits ChatGPT verwenden, um schädliche Tools zu entwickeln - und in einigen Fällen ermöglicht es bereits einigen Cyber-Kriminellen auf niedrigem Niveau ohne Entwicklung oder Programmierkenntnisse die Erstellung von Malware.

Außerdem: Die beängstigende Zukunft des Internets: Wie die Technologie von morgen sogar noch größere Bedrohungen für die Cybersicherheit darstellen wird

In einem Forumsthread, der Ende Dezember auftrat, beschrieb der Verfasser, wie er ChatGPT verwendete, um Malware-Stämme und Techniken nachzubilden, die in Forschungsarbeiten und Darstellungen über gängige Malware beschrieben wurden.

Indem sie dies tun, konnten sie eine auf Python basierende Information-Stealing Malware erstellen, die nach häufig verwendeten Dateien wie Microsoft Office-Dokumenten, PDFs und Bildern sucht, sie kopiert und dann auf einen File Transfer Protocol Server hochlädt.

Der gleiche Benutzer demonstrierte auch, wie er ChatGPT verwendet hatte, um Java-basierte Malware zu erstellen, die mithilfe von PowerShell heimlich andere Malware auf infizierten Systemen herunterladen und ausführen konnte.

Forscher stellen fest, dass der Forenbenutzer, der diese Threads erstellt hat, "technisch orientiert" zu sein scheint und die Beiträge geteilt hat, um weniger technisch versierte Cyberkriminelle zu demonstrieren, wie sie KI-Tools für bösartige Zwecke nutzen können, inklusive echter Beispiele, wie es gemacht werden kann.

Ein Benutzer hat ein Python-Skript gepostet, das angeblich das erste Skript war, das er erstellt hat. Nach einer Diskussion mit einem anderen Forum-Mitglied sagte er, dass ihm ChatGPT geholfen hat, es zu erstellen.

Die Analyse des Skripts deutet darauf hin, dass es dazu dient, Dateien zu verschlüsseln und zu entschlüsseln. Mit einigem Aufwand könnte es zu Erpressungssoftware umfunktioniert werden. Dadurch besteht die Möglichkeit, dass auch Cyberkriminelle ohne fundierte Kenntnisse entsprechende Kampagnen starten und verbreiten.

"Selbstverständlich kann all dieser Code auch in einer harmlosen Weise genutzt werden. Allerdings kann dieses Skript leicht so modifiziert werden, dass es ohne weitere Nutzerinteraktion einen Computer vollständig verschlüsselt. Zum Beispiel kann es potentiell den Code in Ransomware verwandeln, falls die Syntaxprobleme des Scripts behoben werden", sagte Check Point.

"Es wird einige Verbesserungen im Code und in der Syntax erfordern, aber konzeptionell könnte dieses Tool, wenn es einsatzbereit ist, ähnliche Aktionen wie Ransomware ausführen", sagte Shykevich

Außerdem: Cybersicherheit: Das sind die neuen Sorgen im Jahr 2023

Aber Cyberkriminelle experimentieren nicht nur mit der Entwicklung von Malware auf ChatGPT. An Silvester hat ein Mitglied eines Untergrundforums einen Thread veröffentlicht, in dem es demonstrierte, wie sie das Tool verwendet haben, um Skripte zu erstellen, die einen automatisierten Darknet-Marktplatz zum Kauf und Verkauf von gestohlenen Kontodetails, Kreditkarteninformationen, Malware und mehr betreiben können.

Der Cyberkriminelle zeigte sogar ein Stück Code, das mithilfe einer API von Drittanbietern generiert wurde, um aktualisierte Preisinformationen für Monero-, Bitcoin- und Ethereum-Kryptowährungen abzurufen, als Teil eines Zahlungssystems für einen Darknet-Marktplatz.

Es ist schwierig zu sagen, ob bösartige Cyberaktivitäten, die mit Hilfe von ChatGPT erzeugt wurden, tatsächlich in freier Wildbahn aktiv sind, da es, wie Sykevich erklärt, "aus technischer Sicht äußerst schwierig ist zu wissen, ob eine bestimmte Malware mit ChatGPT geschrieben wurde oder nicht".

Aber da das Interesse an ChatGPT und anderen KI-Tools wächst, werden sie die Aufmerksamkeit von Cyberkriminellen und Betrügern auf sich ziehen, die die Technologie ausnutzen wollen, um bösartige Kampagnen zu einem niedrigen Preis und mit minimalem Aufwand durchzuführen. ZDNET hat OpenAI um eine Stellungnahme gebeten, aber zum Zeitpunkt der Veröffentlichung noch keine Antwort erhalten.

Ähnliche Artikel

Mehr anzeigen >>