Now Reading
Widerstand des Einsatzes von Deepfakes pro Cyber-Ausbeutung

Widerstand des Einsatzes von Deepfakes pro Cyber-Ausbeutung

Abwehr des Einsatzes von Deepfakes für Cyber-Ausbeutung

[ad_1]

Die Cyberkriminalität hat in diesem Jahr stark zugenommen. Von Juli 2020 solange bis Monat des Sommerbeginns 2021 gab es eine weitestgehend 11-fache Zunahme dieser Ransomware-Angriffe, wie wir festgestellt nach sich ziehen. Und sie Zahl wächst weiter. Doch zusammen mit dieser nächsten Herausforderung geht es um weit mehr denn nur um die steigende Zahl von Angriffen. Wir sehen wiewohl eine Zunahme von Angriffen uff hochkarätige Ziele – und dies Aufkommen neuer Methoden.

Deepfakes und Deep Attacks
Deepfakes, die 2017 wirklich an Rang gewannen, wurden hauptsächlich zu Unterhaltungszwecken populär gemacht. Zwei Beispiele sind Personen, die Social-Media-Memes erstellen, während sie Nicolas Cage in Filme einfügen, in denen er nicht wirklich mitgespielt hat, oder die jüngste Dokumentation von Anthony Bourdain, die Deepfake-Technologie verwendet, um die Wahlstimme des verstorbenen Starkochs zu so tun als ob. Es gab wiewohl nützliche Anwendungsfälle pro die Deep-Fake-Technologie im medizinischen Zone.

Leider ist die Reife dieser Deepfake-Technologie wiewohl von den Bösewichten nicht unbemerkt geblieben. In dieser Welt dieser Cybersicherheit schenken Deepfakes zunehmend Ursache zur Sorge, da sie mithilfe künstlicher Intelligenz menschliche Aktivitäten nachahmen und zur Verstärkung von Social-Engineering-Angriffen verwendet werden können.

GPT-3 (Generative Pre-trained Transformer) ist ein KI-basiertes System, dies Deep Language Learning verwendet, um E-Mails zu erstellen, die sich natürlich Vorlesung halten und ziemlich einleuchtend sind. Damit können Angreifer angeeignete E-Mail-Dienst-Adressen verwenden, während sie Mailserver kompromittieren oder Man-in-the-Middle-Angriffe in die Praxis umsetzen, um E-Mails und E-Mail-Dienst-Stellung beziehen zu generieren, die den Schreibstil, die Wortwahl und den Ton dieser Person nachahmen, die nachgeahmt wird. Dies kann ein Manager oder eine Führungskraft sein und sogar uff frühere Korrespondenzen verweisen.

Spitze des Eisbergs
E-Mails erstellen ist nur dieser Ursprung. Softwaretools, die die Wahlstimme von jemandem klonen können, leben schon online, andere entscheiden sich in dieser Evolution. Mit nur wenigen Sekunden Audio kann ein stimmlicher Fingerabdruck von jemandem erstellt werden, und dann generiert die Software in Echtzeit irgendwelche Sprache.

Obwohl noch in dieser frühen Entwicklungsphase, werden Deepfake-Videos problematisch, da die Leistung dieser Zentraleinheit (CPU)/Grafikeinheit (Grafikprozessor) sowohl leistungsfähiger denn wiewohl billiger wird. Die Messlatte pro die Erstellung dieser Deepfakes wird wiewohl durch die Vermarktung fortschrittlicher Anwendungen gesenkt. Selbige könnten schließlich zu Imitationen in Echtzeit darüber hinaus Sprach- und Videoanwendungen zur Folge haben, die biometrische Analysen vorliegen könnten. Die Möglichkeiten sind unbegrenzt, einschließlich dieser Eliminierung von Stimmabdrücken denn Form dieser Authentifizierung.

Counterfit, ein Open-Source-Tool, ist ein Zeichen dieser Hoffnung. Dasjenige neu veröffentlichte Tool ermöglicht es Unternehmen, KI-Systeme mit einem Stift zu testen – einschließlich Gesichtserkennung, Bilderkennung, Betrugserkennung usw. – um sicherzustellen, dass die verwendeten Algorithmen vertrauenswürdig sind. Sie können dieses Tool wiewohl pro Rot/Blau-Wargaming verwenden. Wir können wiewohl erwarten, dass Angreifer wie tun und dieses Tool verwenden, um Schwachstellen in KI-Systemen zu identifizieren.

Maßnahmen gegen Deepfakes ergreifen
Da sie Proof-of-Concept-Technologien zum Mainstream werden, zu tun sein Sicherheitsführer ihre Fasson und Weise ändern, wie sie Angriffe wiedererkennen und ersticken. Dazu gehört sicherlich wiewohl die Bekämpfung von Feuer mit Feuer – dies heißt, wenn die Bösen KI denn Teil ihrer Offensive einsetzen, zu tun sein die Verteidiger sie wiewohl verwenden. Ein solches Sichtweise ist die Nutzung von KI-Technologien, die kleinere Sprach- und Videoanomalien wiedererkennen können.

Unsrige besten Schutzmaßnahmen sind derzeit ein Zero-Trust-Zugriff, dieser Benutzer und Geräte uff vereinigen vordefinierten Sprung von Assets, Zerlegung und integrierte Sicherheitsstrategien unbelehrbar, die darauf ausgelegt sind, die Auswirkungen eines Angriffs zu wiedererkennen und einzuschränken.

Wir zu tun sein wiewohl die Endbenutzerschulung etw. noch einmal machen, um zu sachkundig, wie verdächtige oder unerwartete Anfragen per Sprache oder Video erkannt werden – zusätzlich zu den Anfragen per E-Mail-Dienst. Unter gefälschter Kommunikation, einschließlich eingebetteter Schadsoftware, zu tun sein Unternehmen den Datenverkehr beaufsichtigen, um eine Nutzlast zu wiedererkennen. Dies bedeutet, dass Geräte installiert sind, die schnell genug sind, um Streaming-Videos zu prüfen, ohne die Benutzererfahrung zu behindern.

Bekämpfe die Deepfakes jetzt
So gut wie jede Technologie wird zu einem zweischneidigen Schwert, und KI-gestützte Deepfake-Software ist keine Ausnahmefall. Böswillige Akteure nutzen KI schon uff vielfältige Weise – und dies wird sich nur noch ausweiten. Respektieren Sie im Jahr 2022 darauf, dass sie Deepfakes verwenden, um menschliche Aktivitäten nachzuahmen und verstärkte Social-Engineering-Angriffe durchzuführen. Durch die Umsetzung dieser oben genannten Empfehlungen können Unternehmen proaktive Schritte unternehmen, um selbst beim Aufkommen dieser ausgeklügelten Angriffe sicher zu bleiben.

[ad_2]
View Comments (0)

Leave a Reply

Your email address will not be published.

Scroll To Top