Machine Learning und Mathe können keine intelligenten Angreifer überlisten

Machine Learning und Mathe können keine intelligenten Angreifer überlisten

Machine Learning allein reicht nicht aus, um Endgeräte zu schützen und die nächsten Züge eines Angreifers vorherzusagen. Menschliches Eingreifen ist unabdingbar.

Machine Learning allein reicht nicht aus, um Endgeräte zu schützen und die nächsten Züge eines Angreifers vorherzusagen. Menschliches Eingreifen ist unabdingbar.

Wer seit Jahrzehnten gegen Black-Hat Hacker kämpft, lernt das ein oder andere über sie. Offensichtlich sind sie bösartig und mögen es, mit Code zu experimentieren. Der wichtigste Fakt über sie ist allerdings der, dass sie kontinuierlich dazu lernen. Die Antiviren Software-Hersteller müssen also mit den Black-Hat Hackern mithalten, um ihre Kundschaft vor den schmutzigen Fingern der Cyber-Kriminellen zu schützen.

Wären wir nun postfaktische Anbieter von Sicherheitssoftware, würden wir viel darüber reden, wie unser Machine Learning unsere Kunden schützt, oder wie Mathematik Angriffe der Hacker voraussagen kann. Außerdem würden wir die Tatsache herunterspielen, dass selbst ausgefeilte Technologien von intelligenten Gegnern ausgetrickst werden kann.

„Egal wie smart ein Machine Learning Algorithmus zu sein scheint, er lernt nur aus einem begrenzten Datensatz und ist dadurch zu sehr fokussiert.“

Wir bei ESET schätzen die Wahrheit. Egal wie smart ein Machine Learning Algorithmus zu sein scheint, er lernt nur aus einem begrenzten Datensatz und ist dadurch zu sehr fokussiert. Black-Hat Hacker besitzen im Gegensatz zu Algorithmen sogenannte allgemeine Intelligenz. Menschen können aus dem Kontext lernen und von Inspiration profitieren. Maschinen gelingt das nicht – sie können nicht „außerhalb der Box“ denken.

Nehmen wir beispielsweise selbstfahrende Automobile. Diese smarten Maschinen lernen sich in einer Umgebung zu bewegen, die klar definiert ist. Es gibt Verkehrsschilder und Regeln, an die sich jeder Verkehrsteilnehmer halten muss.

Doch was passiert nun, wenn jemand alle Schilder einsammeln und manipulieren würde? Ohne diese entscheidenden Komponenten würden die selbstfahrenden Automobile Fehlentscheidungen treffen, die dann zu fatalen Unfällen oder zur Unbrauchbarkeit der Autos führen könnten.

Im Cyberspace haben sich Malware-Entwickler auf genau so ein schädliches Verhalten spezialisiert. Sie versuchen den wahren Zweck ihres Codes zu verheimlichen, indem sie ihn verschleiern oder verschlüsseln. Wenn ein Algorithmus nun aber nicht das wahre Gesicht eines Malware-Programms erkennt, trifft er falsche Entscheidungen und markiert ein eigentlich bösartiges Sample als sauber. Das ist potentiell gefährlich.

Selbst wenn ein Code seine Maskierung verliert, wird nicht immer seine wahre Natur preisgegeben. Ohne die Malware auszuführen, kann oft nicht nachvollzogen werden, welche Absicht sie hat. ESET verwendet dafür eine simulierte Umgebung – bekannt als Sandboxing – die von postfaktischen Anbietern als veraltet verschrien wird. Sie behaupten lieber, dass ihre Technologie Böswilligkeit einfach dadurch erkennt, indem man das Sample nimmt und die „Mathematik“ erledigt.

Wie würde das im echten Leben aussehen? Wir stellen uns das in etwa so vor, als ob jemand auf ein Foto eines Hauses blickt und anschließend den Verkaufspreis nennen müsste. Zwar kann man erkennen wie viele Fenster oder Etagen das Haus besitzt. Aber einen annähernden richtigen Preis anzugeben, ohne zu wissen wo das Haus steht oder wie das Interior gestaltet ist, kann nur schiefgehen. Die Fehlerquote liegt also sehr hoch.

Darüber hinaus widerspricht selbst die Mathematik den postfaktischen Anbietern. In der Komplexitätstheorie taucht das sogenannte „unentscheidbare Problem“ (ein Entscheidungsproblem) auf. Selbst ein Computer entscheidet sich bei Ja/Nein-Entscheidungen nicht immer richtig. Das gilt auch für die Entscheidung, ob sich ein Sample rein nach dem „äußeren Erscheinungsbild“ böswillig oder nicht böswillig Verhalten wird. Das demonstrierte schon der Computerwissenschaftler Fred Cohen, der 1984 den Begriff des Computervirus einführte.

Darüber hinaus verlangen einige Probleme in der Cyber Security so viel Rechenkapazität – oder sind so zeitaufwändig – dass selbst ein Machine Learning Algorithmus bei der Lösung eines Problems unwirksam wäre, weil es quasi „unentscheidbar“ ist.

Smarte, dynamische Black-Hat Hacker haben diese Informationen im Nu zusammen. Am Ende der Kette stehen kompromittierte Endgeräte.

ESET verfügt über umfangreiche Erfahrungen mit intelligenten Gegnern und weiß, dass Machine Learning allein nicht ausreicht, um Endgeräte zu schützen. Sie verwenden die Technologie seit Jahren und haben diese gut eingestellt. Im Ergebnis arbeitet Machine Learning mit einer Vielzahl von weiteren Abwehrmechanismen unter einem Dach zusammen. Das Zusammenspiel ergibt die fertige Sicherheitslösung.

Darüber hinaus überwachen ESETs Erkennungsingenieure und Malware-Forscher ständig den Machine Learning Algorithmus, um unnötige Fehler entlang des Weges zu vermeiden, so dass eine Erkennung reibungslos abläuft. Damit soll verhindert werden, dass ESET-Kunden mit Malware-Fehlerkennungen belästigt werden.

Die Serie im Überblick:

  1. Prolog: Der Kampf um die Wahrheit in der Cyber Security
  2. Was ist Machine Learning und was künstliche Intelligenz?
  3. Häufige Missverständnisse bei Machine Learning und künstlicher Intelligenz
  4. Warum Machine Learning basierte Sicherheit intelligente Gegner nicht interessiert
  5. Warum eine Schutzschicht nicht genügt – auch wenn Machine Learning unterstützt
  6. Geister fangen: Die tatsächlichen Kosten der hohen Falsch-Positiv-Raten in der Cyber Security
  7. Wie Updates Antiviren Software stärkt
  8. Auch wir kennen Machine Learning und nutzen es seit Jahren

Mitwirkende: Jakub Debski & Peter Kosinar

Hier können Sie mitdiskutieren