Now Reading
5 Sachen, die ML-Teams droben Datenschutz und die DSGVO wissen sollten

5 Sachen, die ML-Teams droben Datenschutz und die DSGVO wissen sollten

US-Verteidigungsunternehmen gibt Datenschutzverletzung bekannt

[ad_1]

Mit Tausenden von Papieren zum maschinellen Lernen, die jedes Jahr veröffentlicht werden, gibt es pro Ingenieure sehr viel neues Werkstoff, dies sie verdauen sollen, um ihr Wissen hinaus dem neuesten Stand zu halten. Jedes Jahr neue Datenschutzbestimmungen und eine zunehmende Validierung jener Sicherheit personenbezogener Wissen zeugen den Mark effektiven maschinellen Lernens noch komplexer: gute Wissen. Hier ist ein kurzer Spickzettel pro Best Practices zum Datenschutz.

1. Stellen Sie sicher, dass Sie die Wissen verwenden die Erlaubnis haben
Die Datenschutz-Grundverordnung (DSGVO), die pro jeden EU-Volk überall hinaus jener Welt gilt, erfordert Datenschutz durch Entwurf (einschließlich Datenschutz durch Voreinstellung und Nimbus jener Privatsphäre jener Benutzer qua Grundprinzipien). Dies bedeutet, dass Sie unter jener Erfassung von Wissen mit personenbezogenen Wissen (PII) die Menge jener erfassten personenbezogenen Wissen minimieren, den genauen Zweck jener Wissen angeben und deren Aufbewahrungszeit begrenzen sollen.

Die DSGVO verlangt sekundär von Sammlern, dass sie positiv Einwilligung (eine stillschweigende Einwilligung reicht nicht aus) zur Erhebung und Nutzung personenbezogener Wissen. Dies bedeutet, dass ein Nutzer Ihnen klar und deutlich dies Recht verschenken muss, seine Wissen pro bestimmte Zwecke zu verwenden. Sogar Open-Source-Datensätze können manchmal personenbezogene Wissen wie Sozialversicherungsnummern enthalten. Es ist unglaublich wichtig, sicherzustellen, dass die von Ihnen verwendeten Wissen richtig bereinigt werden.

2. Datenminimierung ist ein Glücksfall
Datenminimierung bezieht sich hinaus die Realität, die Menge jener von Ihnen gesammelten Wissen hinaus dies zu knausern, welches Sie pro Ihren Geschäftszweck benötigen. Es ist nützlich pro die Einhaltung von Datenschutzbestimmungen und qua allgemeine Best Practice pro die Cybersicherheit (damit Ihr eventuelles Datenleck am Finale viel weniger Schaden anrichtet). Ein Paradigma pro Datenminimierung ist dies Verwischen von Gesichtern und Zeichen aus den gesammelten Wissen zum Training selbstfahrender Autos.

Ein weiteres Paradigma ist dies Explantieren aller direkten Identifikatoren (z. B. vollständiger Name, genaue Postanschrift, Sozialversicherungsnummer) und Quasi-Identifikatoren (z. B. Kamerad, Religion, ungefährer Standort) aus den Anrufprotokollen, E-Mails oder Chats des Kundendienstes, um die Einhaltung zu vereinfachen mit den Datenschutzbestimmungen unter Wahrung jener Privatsphäre jener Benutzer. Dies hat den zusätzlichen Vorteil, dass dies Risiko einer Organisation im Fallgrube eines Cyberangriffs verringert wird.

3. Hüten Sie sich vor jener Verwendung personenbezogener Wissen beim Training von ML-Modellen
Vereinfacht gesagt wahrnehmen sich Machine-Learning-Modelle Warenmuster in Trainingsdaten. Wenn Ihr Vorbild demnach mit Wissen trainiert wird, die PII enthalten, besteht die Gefahr, dass dies Vorbild während jener Produktion Benutzerdaten an externe Parteien weitergibt. Sowohl in jener Wissenschaft qua sekundär in jener Industrie hat sich gezeigt, dass in Trainingssets vorhandene personenbezogene Wissen aus Modellen des maschinellen Lernens extrahiert werden können.

Ein Paradigma dazu ist ein koreanischer Chatbot, jener die persönlichen Wissen seiner Benutzer ausspuckte in Produktion aufgrund jener realen persönlichen Wissen, mit denen ihr Chatbot trainiert wurde: „Es wurde sekundär künftig lichtvoll, dass jener riesige Trainingsdatensatz persönliche und sensible Informationen enthielt Erwidern.”

Die Datenminimierung trägt dazu unter, dieses Risiko drastisch zu mindern, dies sekundär im Hinblick hinaus dies Recht hinaus Vergessenwerden in jener DSGVO von Wichtigkeit ist. Es ist noch unklar, welches dies pro ML-Modelle bedeutet, die mit den Wissen eines Benutzers trainiert wurden, jener dieses Recht anschließend ausgeübt hat, wodurch eine Möglichkeit darin besteht, dies Vorbild ohne die Wissen dieser spezifischen Person von Grund hinaus neu zu trainieren. Können Sie sich den Alptraum vorstellen?

4. Behalten Sie den Zusammenfassung droben jeder gesammelten personenbezogenen Wissen
Datenschutzbestimmungen, einschließlich jener DSGVO, verlangen von Organisationen oft, dass sie die Standorte und die Verwendung aller gesammelten PII Kontakt haben. Wenn eine Schwärzung jener personenbezogenen Wissen nicht möglich ist, ist eine genaue Kategorisierung unerlässlich, um dem Recht jener Benutzer hinaus Vergessenwerden und Zugang zu Informationsanfragen gerecht zu werden. Wenn Sie genau wissen, welche persönlichen Informationen Sie in Ihrem Eintragung nach sich ziehen, können Sie sekundär die Sicherheitsmaßnahmen verstehen, die zum Sicherheit jener Informationen erforderlich sind.

5. Die geeignete Technologie zur Verbesserung jener Privatsphäre hängt von Ihrem Anwendungsfall ab
Es gibt ein allgemeines Missverständnis, dass eine Technologie zur Verbesserung jener Privatsphäre jeder Probleme lockern wird – sei es homomorphe Verschlüsselung, föderiertes Lernen, differenzielle Privatsphäre, De-Kennung, sichere Mehrparteienberechnung usw. Wenn Sie bspw. Wissen zum Von Fehlern befreien eines Systems benötigen oder Sie benötigen Wenn Sie sich die Trainingsdaten aus irgendeinem Grund ansehen möchten, werden Ihnen föderiertes Lernen und homomorphe Verschlüsselung nicht weiterhelfen. Stattdessen sollen Sie sich Lösungen zur Datenminimierung und Datenerweiterung wie Anonymisierung und Pseudonymisierung ansehen, unter denen personenbezogene Wissen durch synthetisch generierte PII ersetzt werden.

[ad_2]
View Comments (0)

Leave a Reply

Your email address will not be published.

Scroll To Top