Now Reading
Ein gefährlicher neuer Angriffsvektor

Ein gefährlicher neuer Angriffsvektor

Ein gefährlicher neuer Angriffsvektor


Bedrohungsakteure können Modelle des maschinellen Lernens (ML) verschleppen, die künstliche Intelligenz (KI) treiben, um Schadsoftware einzusetzen und sich seitlich obig Unternehmensnetzwerke zu in Bewegung setzen, nach sich ziehen Forscher herausgefunden. Jene Modelle, die oft publik zugänglich sind, eignen denn neue Startrampe zu Gunsten von eine Schlange von Angriffen, die ebenso die Wertschöpfungskette eines Unternehmens gefährden können – und Unternehmen zu tun sein sich darauf vorbereiten.

Forscher des SAI-Teams von HiddenLayer nach sich ziehen verschmelzen Proof-of-Concept (POC)-Übergriff entwickelt, jener zeigt, wie ein Bedrohungsakteur ML-Modelle – dasjenige Entscheidungsfindungssystem im Obstkern so gut wie jeder modernen KI-gestützten Störungsbehebung – verwenden kann, um Unternehmensnetzwerke zu infiltrieren, sie enthüllten in einem am 6. Monat der Wintersonnenwende veröffentlichten Blogbeitrag. Die Wissenschaft wird Tom Bonner von HiddenLayer zugeschrieben, Senior Director of Adversarial Threat Research; Marta Janus, Hauptforscherin zu Gunsten von gegnerische Bedrohungen; und Eoin Wickens, Senior Adversarial Threat Researcher.

Ein kürzlich erschienener Mitteilung von CompTIA ergab, dass mehr denn 86 % jener befragten CEOs angaben, dass ihre jeweiligen Unternehmen ML im Jahr 2021 denn Mainstream-Technologie einsetzen würden. In jener Tat, Lösungen, die so breit gefächert und vielfältig sind wie selbstfahrende Autos, Roboter, medizinische Geräte und Raketenleitsysteme , Chatbots, digitale Assistenten, Gesichtserkennungssysteme und Online-Empfehlungssysteme sind aufwärts ML angewiesen, um zu gehen.
Aufgrund jener Varianz jener Verfügbarmachung dieser Modelle und jener begrenzten IT-Ressourcen jener meisten Unternehmen verwenden Organisationen im Kontext jener Verfügbarmachung von ML-Modellen x-fach Open-Source-Repositorys zur gemeinsamen Nutzung von Modellen, wo dasjenige Problem liegt, sagten die Forscher.

„Solchen Repositories fehlen oft umfassende Sicherheitskontrollen, die dasjenige Risiko letztendlich aufwärts den Endbenutzer abwälzen – und Angreifer verlassen sich darauf“, schreiben sie in dem Postdienststelle.

Jeder, jener vortrainierte maschinelle Lernmodelle verwendet, die aus nicht vertrauenswürdigen Quellen oder öffentlichen Normal-Repositories stammen, ist potenziell durch die Klasse von Angriffen gefährdet, die Forscher demonstriert nach sich ziehen, sagt Marta Janus, leitende gegnerische ML-Forscherin im Kontext HiddenLayer, im Vergleich zu Dark Reading.

„Darüber hinaus können Unternehmen und Einzelpersonen, die sich aufwärts vertrauenswürdige Modelle von Drittanbietern verlassen, ebenso Angriffen aufwärts die Wertschöpfungskette ausgesetzt sein, im Kontext denen dasjenige bereitgestellte Normal gekapert wurde“, sagt sie.

Ein fortgeschrittener Angriffsvektor

Die Forscher demonstrierten, wie ein solcher Übergriff in einem POC gehen würde, jener sich aufwärts dasjenige Open-Source-Framework PyTorch konzentriert, und zeigten ebenso, wie er aufwärts andere beliebte ML-Bibliotheken wie TensorFlow, scikit-learn und Keras ausgeweitet werden könnte.

Insbesondere betteten die Forscher eine ausführbare Ransomware in die Gewichtungen und Verzerrungen des Modells ein, wodurch eine Technologie verwendet wurde, die jener Steganographie ähnelt; Dies heißt, sie ersetzten die am wenigsten signifikanten Bits jedes Floats in einer jener neuronalen Schichten des Modells, sagt Janus.

Um die Binärdatei zu dekodieren und auszuführen, nutzte dasjenige Team denn Nächstes verschmelzen Fehler im PyTorch/Pickle-Serialisierungsformat, jener dasjenige Laden beliebiger Pythonschlange-Module und Ausführungsmethoden ermöglicht. Sie nach sich ziehen dies getan, während sie ein kleines Pythonschlange-Skript am Ursprung einer jener Dateien des Modells eingefügt nach sich ziehen, dem eine Diktat zum Jemandem etwas verklickern des Skripts vorangestellt ist, sagt Janus.

„Dies Skript selbst baut die Nutzlast aus dem Tensor wieder aufwärts und injiziert sie in den Speicher, ohne sie aufwärts jener HDD abzulegen“, sagt sie. “Dies entführte Normal ist immer noch intakt und seine Gewissenhaftigkeit wird durch keine dieser Modifikationen visuell beeinträchtigt.”

Dies resultierende bewaffnete Normal entzieht sich jener aktuellen Erkennung durch Antivirus- und Endpoint Detection and Response (EDR)-Lösungen, während es nur verschmelzen sehr unbedeutenden Wirksamkeitsverlust erleidet, sagten die Forscher. Tatsächlich offenstehen die derzeit beliebtesten Contra-Schadsoftware-Lösungen wenig oder gar keine Unterstützung beim Scannen nachher ML-basierten Bedrohungen, sagten sie.

In jener Protest stellten die Forscher eine 64-Bit-Probe jener Quantum-Ransomware aufwärts einem Windows 10-System in petto, stellten jedoch wacker, dass jede maßgeschneiderte Nutzlast aufwärts ebendiese Weise verteilt und aufwärts verschiedene Betriebssysteme wie Windows, Linux und Mac zugeschnitten werden kann. sowie andere Architekturen wie x86/64.

Dies Risiko zu Gunsten von dasjenige Unternehmen

Damit ein Angreifer ML-Modelle nutzen kann, um Organisationen anzugreifen, muss er zunächst eine Kopie des Modells erhalten, dasjenige er kapern möchte, welches im Kasus publik verfügbarer Modelle so simpel ist wie dasjenige Herunterladen von einer Website oder dasjenige Extrahieren davon eine Programm, die es verwendet.

„In einem jener möglichen Szenarien könnte ein Angreifer Zugriff aufwärts ein öffentliches Normal-Repository (wie Hugging Face oder TensorFlow Hub) erhalten und ein legitimes gutartiges Normal durch seine trojanisierte Version ersetzen, die die eingebettete Ransomware ausführt“, erklärt Janus. „Solange die Verletzung unentdeckt bleibt, wird jeder, jener dasjenige trojanisierte Normal herunterlädt und aufwärts verschmelzen lokalen Rechner lädt, freigekauft.“

Ein Angreifer könnte ebendiese Methode ebenso verwenden, um verschmelzen Übergriff aufwärts die Wertschöpfungskette durchzuführen, während er die Wertschöpfungskette eines Dienstanbieters kapert, um ein trojanisiertes Normal an allesamt Dienstabonnenten zu verteilen, fügt sie hinzu. „Dies entführte Normal könnte verschmelzen Stopp zu Gunsten von weitere Querbewegungen offenstehen und es den Angreifern zuteil werden lassen, sensible Information zu exfiltrieren oder weitere Schadsoftware einzusetzen“, sagt Janus.

Die geschäftlichen Auswirkungen aufwärts ein Unternehmen sind unterschiedlich, können jedoch schwerwiegend sein, sagten die Forscher. Sie reichen von jener anfänglichen Kompromittierung eines Netzwerks obig die anschließende laterale politische Bewegung solange bis hin zur Verfügbarmachung von Ransomware, Spyware oder anderen Arten von Schadsoftware. Angreifer können Information und geistiges Eigentum stehlen, Denial-of-Tafelgeschirr-Angriffe starten oder sogar, wie erwähnt, eine gesamte Wertschöpfungskette kompromittieren.

Abschwächungen und Empfehlungen

Die Wissenschaft ist eine Warnung zu Gunsten von allesamt Organisationen, die vortrainierte ML-Modelle verwenden, die aus dem Web heruntergeladen oder von Dritten bereitgestellt werden, sie „genau wie jede nicht vertrauenswürdige Software“ zu erläutern, sagt Janus.

Solche Modelle sollten aufwärts bösartigen Geheimzeichen gescannt werden – obwohl es derzeit nur wenige Produkte gibt, die ebendiese Prozedur offenstehen – und einer gründlichen Priorisierung in einer sicheren Umgebung unterzogen werden, ehe sie aufwärts einem physischen Computer vollzogen oder in Produktion genommen werden, sagt sie uns.

Darüber hinaus sollte jeder, jener Modelle zu Gunsten von maschinelles Lernen erstellt, sichere Speicherformate verwenden – bspw. Formate, die keine Codeausführung zulassen – und allesamt seine Modelle kryptografisch signieren, damit sie nicht manipuliert werden können, ohne die Signatur zu entkräften.

„Kryptografisches Signieren kann die Modellintegrität aufwärts die gleiche Weise sicherstellen wie im Kontext Software“, sagt Janus.

Insgesamt sagten die Forscher, dass dasjenige Einlaufen einer Sicherheitshaltung zum Verständnis von Risiken, zur Adressierung blinder Flecken und zur Identifizierung von Verbesserungsbereichen in Bezug aufwärts allesamt in einem Unternehmen eingesetzten ML-Modelle ebenso dazu hinzufügen kann, verschmelzen Übergriff von diesem Vektor abzuschwächen.

What's Your Reaction?
Excited
0
Happy
0
In Love
0
Not Sure
0
Silly
0
View Comments (0)

Leave a Reply

Your email address will not be published.

Scroll To Top