Now Reading
Wie KI Cyberangriffe verändern könnte

Wie KI Cyberangriffe verändern könnte

Wie KI Cyberangriffe verändern könnte

[ad_1]

Modelle dieser künstlichen Intelligenz und des maschinellen Lernens (KI/ML) nach sich ziehen sich schon qua vielversprechend erwiesen, wenn es drum geht, die Raffinesse von Phishing-Ködern zu potenzieren, synthetische Profile zu erstellen und rudimentäre Schadsoftware zu erstellen, wohl in naher Zukunft werden wahrscheinlich noch innovativere Anwendungen von Cyberangriffen gehorchen.

Schadsoftware-Entwickler nach sich ziehen schon damit begonnen, mit dieser Codegenerierung mithilfe von KI zu spielen, womit Sicherheitsforscher demonstriert nach sich ziehen, dass eine vollständige Angriffskette erstellt werden könnte.

Dasjenige Team von Check Point Research bspw. verwendete aktuelle KI-Tools, um eine komplette Angriffskampagne zu erstellen, einsetzend mit einer Phishing-Email, die von ChatGPT von OpenAI generiert wurde und ein Todesopfer auffordert, ein Excel-Manuskript zu öffnen. Die Forscher verwendeten dann den Gebot AI-Programmierassistenten, um ein Excel-Makro zu erstellen, dies von einer URL heruntergeladenen Sourcecode und ein Pythonschlange-Skript ausführt, um dies Zielsystem zu infizieren.

Jeder Schrittgeschwindigkeit erforderte mehrere Iterationen, um verschmelzen akzeptablen Sourcecode zu erzeugen, wohl die letztendliche Angriffskette funktionierte, sagt Sergey Shykevich, Threat Intelligence Group Manager im Kontext Check Point Research.

“Es erforderte sehr viel Iterationen”, sagt er. „Zwischen jedem Schrittgeschwindigkeit war die erste Verteilung nicht die optimale Verteilung – wenn wir ein Krimineller wären, wären wir von Antivirenprogrammen verspannt worden. Es hat manche Zeit gedauert, solange bis wir in dieser Stellung waren, guten Sourcecode zu generieren.“

In den letzten sechs Wochen hat ChatGPT – ein Large Language Model (LLM), dies hinauf dieser dritten Iteration des generativen vortrainierten Transformators (GPT-3) von OpenAI basiert – eine Vielzahl von sowohl optimistischen qua sogar ängstlichen Welches-wäre-wenn-Szenarien z. Hd. die ausgelöst Mögliche Anwendungen von künstlicher Intelligenz und maschinellem Lernen. Die doppelte Verwendung von KI/ML-Modellen hat Unternehmen dazu veranlasst, Wege zu finden, um die Vorteil mithilfe dieser Technologie zu verbessern, während Fürsprecher digitaler Rechte sich Sorgen weiterführend die Auswirkungen dieser Technologie hinauf Organisationen und Arbeitnehmer zeugen.

Cybersicherheit ist nicht divergent. Forscher und cyberkriminelle Gruppen nach sich ziehen schon damit experimentiert, die GPT-Technologie z. Hd. eine Vielzahl von Aufgaben einzusetzen. Vermutlich nach sich ziehen unerfahrene Schadsoftware-Autoren ChatGPT zum Schreiben von Schadsoftware verwendet, obwohl Entwickler versuchen, den ChatGPT-Tätigkeit zum Erstellen von Anwendungen zu verwenden, obwohl sie manchmal siegreich sind, oft Sourcecode mit Fehlern und Schwachstellen produzieren.

KI/ML geprägt jedoch sogar andere Bereiche dieser Sicherheit und des Datenschutzes. Generative neuronale Netze (GNNs) wurden verwendet, um Fotos von künstlichen Menschen zu erstellen, die WAHR erscheinen, wohl keine echte Person darstellen, um Profile zu verbessern, die z. Hd. Betrug und Desinformation verwendet werden. Ein verwandtes Normal, dies qua Generative Adversarial Network (GAN) publiziert ist, kann gefälschte Video- und Audiodateien bestimmter Personen erstellen und ermöglichte es Betrügern in einem Kern, Buchhalter und Personalabteilungen davon zu überzeugen, 35 Mio. US-Dollar hinauf dies Sparbuch dieser Kriminellen zu überweisen.

Die KI-Systeme werden sich im Laufe dieser Zeit nur verbessern und dies Gespenst einer Vielzahl von erweiterten Bedrohungen heraufbeschwören, die bestehende Verteidigungsstrategien täuschen können.

Variationen weiterführend ein (Phishing-)Themenkreis

Derzeit verwenden Cyberkriminelle x-fach dieselbe oder eine ähnliche Vorlage, um Spear-Phishing-Email-Nachrichtensendung zu erstellen oder Zielseiten z. Hd. BEC-Angriffe (Business Email Compromise) zu erstellen, wohl die Verwendung einer einzigen Vorlage z. Hd. eine Kampagne erhoben die Wahrscheinlichkeit, dass Abwehrsoftware den Übergriff wiedererkennen könnte.

Eine Hauptanwendung von LLMs wie ChatGPT wird danach darin existieren, überzeugendere Phishing-Köder mit größerer Variabilität und in einer Vielzahl von Sprachen zu erstellen, die sich voll innerer Kraft an dies Profil des Opfers verbiegen können.

Um dies zu vorexerzieren, forderte Crane Hassold, Director of Threat Intelligence im Kontext dieser Email-Sicherheitsfirma Abnormal Security, ChatGPT hinauf, fünf Varianten einer einfachen Phishing-Email-Antrag zu generieren. Die fünf Varianten unterschieden sich offensichtlich voneinander, behielten wohl den gleichen Inhalt – eine Antrag an die Personalabteilung, welche Informationen ein fiktives Unternehmen benötigen würde, um dies Sparbuch zu ändern, hinauf dies ein Gehaltsscheck eingezahlt wird.

Schnelle, nicht nachweisbare Implantate

Nebensächlich wenn ein unerfahrener Programmierer in dieser Stellung sein mag, mit einem KI-Codierungsassistenten ein bösartiges Sendung zu erstellen, stillstehen ihm immer noch Fehler und Schwachstellen im Weg. Die Codierfähigkeiten von KI-Systemen sind beeindruckend, wohl letztendlich glücken sie nicht dies Niveau, selbst funktionierenden Sourcecode zu erstellen.

Fortschritte könnten dies jedoch in Zukunft ändern, so wie Schadsoftware-Autoren die Automatisierung nutzten, um eine große Quantität von Varianten von Viren und Würmern zu erstellen, um dieser Erkennung durch Signatur-Scanning-Engines zu entweichen. In ähnlicher Weise könnten Angreifer KI verwenden, um schnell schnelle Implantate zu erstellen, die die neuesten Schwachstellen nutzen, vorher Organisationen Patches vornehmen können.

„Selbst denke, es ist ein kleinster Teil mehr qua ein Gedankenexperiment“, sagt Shykevich von Check Point. „Wir konnten solche Tools verwenden, um funktionsfähige Schadsoftware zu erstellen.“

Den Turing-Test existieren?

Die vielleicht beste Softwareanwendungen des KI-Systems ist die offensichtlichste: die Fähigkeit, qua künstliche Menschen zu fungieren.

Viele dieser Personen, die mit ChatGPT und anderen KI-Systemen interagieren – einschließlich einiger angeblicher Experten – Vertrauen schenken schon, dass die Maschinen eine Form von Empfindungsfähigkeit erlangt nach sich ziehen. Am bekanntesten ist vielleicht, dass Google verschmelzen Softwareingenieur, Blake Lemoine, feuerte, dieser behauptete, dass dies LLM des Unternehmens, genannt LaMDA, dies Erleuchtung erreicht habe.

„Die Personen Vertrauen schenken, dass solche Maschinen konzeptionell verstehen, welches sie tun“, sagt Gary McGraw, Mitbegründer und Geschäftsführer des Berryville Institute of Machine Learning, dies Bedrohungen z. Hd. KI/ML-Systeme untersucht. „Welches sie tun, sind unglaubliche, statistisch vorhersagende Kalesche-Assoziatoren. Die Tatsache, dass sie dies tun können, welches sie tun, ist umwerfend – dass sie so viele coole Sachen vorbeigehen lassen können. Ungeachtet es ist kein Verständnis.“

Obwohl solche autoassoziativen Systeme nicht empfindungsfähig sind, können sie gut genug sein, um Mitwirkender in Callcentern und Support-Hotlines zu täuschen, eine Posten, die oft die letzte Verteidigungslinie gegen die Übernehmen von Konten darstellt, eine weit verbreitete Cyberkriminalität.

Langsamer qua vorhergesagt

Doch während Cybersicherheitsforscher schnell manche innovative Cyberangriffe entwickelt nach sich ziehen, werden sich Bedrohungsakteure wahrscheinlich zurückhalten. Während die Technologie von ChatGPT „ganzheitlich transformativ“ ist, werden Angreifer ChatGPT und andere Gießen dieser künstlichen Intelligenz und des maschinellen Lernens wahrscheinlich nur übernehmen, wenn es ihnen verschmelzen schnelleren Weg zur Monetarisierung bietet, sagt Hassold von Abnormal Security.

„KI-Cyberbedrohungen sind seit dieser Zeit Jahren ein heißes Themenkreis“, sagt Hassold. „Ungeachtet wenn Sie sich kohlemäßig motivierte Angreifer ansehen, wollen sie nicht viel Mühsal oder Arbeit investieren, um ihre Angriffe zu vereinfachen, sie wollen mit dem geringsten Luxus so viel Geld wie möglich verdienen.“

Derzeit erfordern von Menschen durchgeführte Angriffe weniger Luxus qua dieser Versuch, KI-unterstützte Angriffe wie Deepfakes oder GPT-generierten Text zu erstellen, sagt er.

Die Verteidigung sollte den KI-Flaum ignorieren

Nur weil Cyberangreifer dies neueste System dieser künstlichen Intelligenz verwenden, bedeutet dies nicht, dass die Angriffe vorerst schwerer zu wiedererkennen sind. Aktuelle bösartige Inhalte, die von KI/ML-Modellen produziert werden, sind in dieser Regel dies i-Tüpfelchen – sie lassen Text oder Bilder menschlicher erscheinen, wohl durch die Konzentration hinauf die technischen Indikatoren können Cybersicherheitsprodukte die Gefahr immer noch wiedererkennen, betont Hassold.

„Die gleichen Verhaltensindikatoren, die wir verwenden, um bösartige E-Mails zu identifizieren, sind immer noch vorhanden“, sagt er. „Nebensächlich wenn die Email seriöser aussieht, ist die Tatsache, dass die Email von einer Email-Postanschrift stammt, die nicht dieser Person gehört, die sie sendet, oder dass ein Link notfalls hinauf einer kürzlich registrierten Domain gehostet wird – dies sind Indikatoren dies wird sich nicht ändern.”

In ähnlicher Weise würden vorhandene Prozesse zur doppelten Beurteilung von Anträgen hinauf Umbruch eines Bankkontos z. Hd. Zahlungen und Überweisungen von Gehaltsschecks selbst den überzeugendsten Deepfake-Nachahmungen zunichte zeugen, es sei denn, die Bedrohungsgruppe hätte Zugriff oder Prüfung weiterführend die zusätzlichen Sicherheitsebenen, die immer häufiger vorkommen.

[ad_2]
View Comments (0)

Leave a Reply

Your email address will not be published.

Scroll To Top