ChatGPT hat diesen Artikel nicht geschrieben - das war ich. Und ich habe es auch nicht gebeten, die Frage aus dem Titel zu beantworten - das werde ich tun. Aber ich schätze, dass ChatGPT genau das sagen könnte. Zum Glück gibt es noch ein paar Grammatikfehler, die beweisen, dass ich kein Roboter bin. Aber das ist genau die Art von Dingen, die ChatGPT auch tun könnte, um echt zu wirken.

Bei dieser aktuellen Roboter-Hipster-Technologie handelt es sich um einen ausgefallenen Autoresponder, der gut genug ist, um Antworten auf Hausaufgaben, Forschungsarbeiten, juristische Antworten, medizinische Diagnosen und viele andere Dinge zu produzieren. Sie bestehen somit eine Art "Geruchstest", wenn sie so behandelt werden, als seien sie das Werk von menschlichen Autoren. Aber wird es jetzt zu den Hunderttausenden von Malware-Samples, die wir täglich sehen und verarbeiten, signifakant beitragen oder produziert es am Ende nur leicht zu erkennende Fälschungen?

In einem Maschine-gegen-Maschine-Duell, auf das die Technorati seit Jahren sehnsüchtig warten, scheint ChatGPT ein wenig "zu gut" zu sein, um nicht als ernsthafter Konkurrent angesehen zu werden, der die gegnerische Maschinerie lahm legen könnte. Da sowohl der Angreifer als auch der Verteidiger die neuesten Modelle des maschinellen Lernens (ML) verwenden, musste dies geschehen.

Um eine gute Anti-Malware-Maschinerie zu entwickeln, reicht es jedoch nicht aus, nur Roboter gegen Roboter einzusetzen. Ein gewisses Maß an menschlichem Eingreifen war schon immer erforderlich: Das haben wir schon vor vielen Jahren festgestellt, zum Leidwesen der reinen ML-Anbieter, die sich in die Marketingschlacht stürzen - und dabei darauf bestehen, das Wasser zu trüben, indem sie ihre reinen ML-Produkte als "KI" bezeichnen.

Zwar wurden ML-Modelle für grobe Triage-Frontends bis hin zu komplexeren Analysen eingesetzt, aber sie sind nicht in der Lage, einen großen roten "Kill Malware"-Knopf zu bedienen. Malware ist eben nicht so einfach.

Aber um sicher zu gehen, habe ich einige von ESETs eigenen ML-Gurus befragt:

F. Wie gut wird von ChatGPT erzeugte Malware sein, oder ist das überhaupt möglich?

A. Wir sind nicht wirklich nah dran an "vollständig KI-generierter Malware", obwohl ChatGPT ziemlich gut darin ist, Codevorschläge zu machen, Codebeispiele und -schnipsel zu generieren, Code zu debuggen und zu optimieren und sogar die Dokumentation zu automatisieren.

F. Wie sieht es mit fortgeschritteneren Funktionen aus?

A. Wir wissen nicht, wie gut es Verschleierung beherrscht. Einige der Beispiele beziehen sich auf Skriptsprachen wie Python. Aber wir haben gesehen, dass ChatGPT die Bedeutung von disassembliertem Code, der mit IDA Pro verbunden ist, "umkehrt", was interessant ist. Alles in allem ist es wahrscheinlich ein praktisches Tool zur Unterstützung eines Programmierers, und vielleicht ist das ein erster Schritt zur Entwicklung von Malware mit mehr Funktionen, aber aktuell noch nicht.

F. Wie gut ist es im Moment?

A. ChatGPT ist sehr beeindruckend, wenn man bedenkt, dass es sich um ein Large Language Model handelt, und seine Fähigkeiten überraschen selbst die Erfinder solcher Modelle. Allerdings ist es derzeit sehr oberflächlich, macht Fehler, erzeugt Antworten, die eher Halluzinationen ähneln (d. h. erfundene Antworten), und ist nicht wirklich zuverlässig für etwas Ernstes.

Aber es scheint schnell an Boden zu gewinnen, wenn man sich die vielen Techies anschaut, die "ihre Zehen ins Wasser stecken".

F. Was kann sie jetzt schon tun - was sind die "niedrig hängenden Früchte" für die Plattform?

A. Im Moment sehen wir drei wahrscheinliche Bereiche für eine böswillige Adaptierung und Nutzung:

  1. Phishing der Phisher übertreffen

Wenn Sie glauben, dass Phishing in der Vergangenheit überzeugend aussah, dann warten Sie nur ab. Wir werden von der Sondierung weiterer Datenquellen und deren nahtloser Verknüpfung bis hin zum massenhaften Versand speziell gestalteter E-Mails einiges sehen. Aufgrund ihres individuellen Inhalts werden diese Mails sehr schwer zu erkennen sein, und versprechen somit enorme  Erfolgsquoten, um noch mehr Klicks zu erhalten. Und die Empfänger werden nicht in der Lage sein, sie aufgrund von schlampigen Sprachfehlern vorschnell auszusortieren; die Kenntnisse Ihrer Muttersprache sind wahrscheinlich besser als Ihre. Da ein großer Teil der bösartigsten Angriffe mit einem Klick auf einen Link beginnt, sollten Sie davon ausgehen, dass die damit verbundenen Auswirkungen noch größer werden.

  1. Automatisierung von Lösegeldverhandlungen

Gewandte Ransomware-Betreiber sind wahrscheinlich selten, aber wenn man der Kommunikation ein wenig ChatGPT-Glanz verleiht, könnten die Angreifer bei den Verhandlungen seriöser erscheinen. Dies bedeutet auch weniger Fehler, die es den Verteidigern ermöglichen könnten, die wahre Identität und den Standort der Betreiber herauszufinden.

  1. Telefonbetrug wird besser

Da die natürliche Spracherzeugung immer - nun - natürlicher wird, hören sich bösartige Betrüger an, als kämen sie aus Ihrer Gegend und hätten nur Ihre besten Interessen im Sinn. Dies ist einer der ersten Schritte bei einem Betrugsversuch: Sie klingen vertrauenswürdiger, indem sie so tun, als wären sie jemand "aus der Gegend".

Wenn das alles so klingt, als läge es noch in weiter Ferne, sollten Sie nicht darauf wetten. Es wird nicht alles auf einmal passieren, aber die Kriminellen werden bald sehr viel besser werden. Wir werden sehen, ob die Verteidigung der Herausforderung gewachsen ist.

Haben Sie Fragen und Anregungen zu diesem, anderen oder zukünftigen Themen, die Sie gern betrachtet sehen wollen? Dann nutzen Sie gern die Kommentarfunktion unter diesem Artikel oder nutzen unser Kontaktformular!