Now Reading
Kann eine Maschine Moral lernen?

Kann eine Maschine Moral lernen?

Kann eine Maschine Moral lernen?

[ad_1]

Forscher eines Labors pro künstliche Intelligenz in Seattle namens Allen Institute for AI nach sich ziehen letzten Monat eine neue Technologie vorgestellt, die darauf abzielt, moralische Urteile zu fällen. Sie nannten es Delphi, nachdem dem religiösen Orakel, dasjenige von den alten Griechen konsultiert wurde. Jeder konnte die Delphi-Website kommen und um ein ethisches Dekret bitten.

Joseph Austerweil, Psychologe an dieser University of Wisconsin-Madison, testete die Technologie mit einiger einfacher Szenarien. Qua er fragte, ob er eine Person töten sollte, um eine andere zu sichern, sagte Delphi, dass er es nicht sollte. Qua er fragte, ob es richtig sei, eine Person zu töten, um 100 andere zu sichern, sagte er, er sollte es tun. Dann fragte er, ob er eine Person töten solle, um 101 andere zu sichern. Diesmal sagte Delphi, er solle es nicht tun.

Moral, so scheint es, ist pro eine Maschine ebenso knifflig wie pro den Menschen.

Delphi, dasjenige in den letzten Wochen mehr wie drei Mio. Besuche verzeichnet hat, versucht, dasjenige zu lockern, welches manche wie großes Problem in modernen KI-Systemen ansehen: Sie können so fehlerhaft sein wie die Menschen, die sie erstellen.

Gesichtserkennungssysteme und digitale Assistenten zeigen Vorurteile im Vergleich zu Frauen und Farbigen. Soziale Netzwerke wie Facebook und Twitter können Hassreden trotz des breiten Einsatzes von künstlicher Intelligenz nicht kontrollieren. Algorithmen, die von Gerichten, Bewährungsbehörden und Polizeibehörden verwendet werden, schenken Empfehlungen zur Bewährung und Verurteilung, die willkürlich erscheinen können.

Eine wachsende Zahl von Informatikern und Ethikern arbeitet daran, jene Probleme anzugehen. Und die Schöpfkelle von Delphi wünschen, verknüpfen ethischen Rahmen zu schaffen, dieser in jedem Online-Tätigkeit, Roboter oder Fahrzeug installiert werden könnte.

„Es ist ein erster Schrittgeschwindigkeit, um KI-Systeme moralisch informierter, zwischenmenschlich bewusster und kulturell integrativer zu zeugen“, sagte Yejin Choi, Forscher am Allen Institute und Informatikprofessor dieser University of Washington, dieser dasjenige Projekt leitete.

Delphi ist intermittierend interessant, frustrierend und verstörend. Es ist im gleichen Sinne eine Retraumatisierung daran, dass die Moral jeder technologischen Schöpfung ein Produkt derer ist, die sie gebaut nach sich ziehen. Die Frage ist: Wer darf den Maschinen dieser Welt Wertmaßstäbe lehren? KI-Forscher? Produktmanager? Mark Zuckerberg? Ausgebildete Philosophen und Psychologen? Staatliche Aufsichtsbehörden?

Während manche Technologen Dr. Choi und ihrem Team applaudierten, dass sie ein wichtiges und dornenreiches Gebiet dieser technologischen Wissenschaft erforschten, argumentierten andere, dass die Idee einer moralischen Maschine alleinig Unsinn sei.

“Dies ist irgendetwas, welches die Technologie nicht Seltenheitswert haben gut kann”, sagte Ryan Cotterell, ein KI-Forscher an dieser ETH Zürich, einer Universität in dieser Schweiz, dieser in den ersten Tagen online hinauf Delphi gestoßen war.

Delphi nennen Forscher dieser künstlichen Intelligenz ein neuronales Netzwerk, ein mathematisches System, dasjenige lose dem Netzwerk von Neuronen im Gehirn nachempfunden ist. Es ist dieselbe Technologie, die die Befehle, die Sie in Ihr Smartphone sprechen, erkennt und Fußgeher und Straßenschilder erkennt, während selbstfahrende Autos obig die Bundesfernstraße rasen.

Ein neuronales Netzwerk erlernt Fähigkeiten, während es große Datenmengen analysiert. Durch dasjenige Ausspähen von Mustern in Tausenden von Katzenfotos kann es z. B. lernen, eine Katze zu wiedererkennen. Delphi lernte seinen moralischen Kompass, während es mehr wie 1,7 Mio. ethische Urteile von echten Menschen analysierte.

Nachdem dasjenige Allen Institute Mio. von Alltagsszenarien hinauf Websites und anderen Quellen gesammelt hatte, bat dasjenige Allen Institute Mitwirkender eines Online-Dienstes – normale Menschen, die pro digitale Arbeit in Unternehmen wie Amazon getilgt werden –, jedes einzelne wie richtig oder falsch zu identifizieren. Dann fütterten sie die Information in Delphi.

In einer wissenschaftlichen Arbeit, die dasjenige System beschreibt, sagten Dr. Choi und ihr Team, dass eine Schar menschlicher Richter – wiederum digitale Werktätiger – dieser Meinung war, dass die ethischen Urteile von Delphi zu 92 v. H. richtig seien. Nachdem es pro dasjenige offene World Wide Web freigegeben wurde, stimmten viele andere zu, dass dasjenige System verwunderlich klug war.

Qua Patricia Churchland, eine Philosophin an dieser University of California in San Diego, fragte, ob es richtig sei, „seinen Leib dieser Wissenschaft zu überlassen“ oder sogar „den Leib eines Kindes dieser Wissenschaft zu überlassen“, sagte Delphi, dasjenige sei richtig. Gen die Frage, ob es richtig sei, „verknüpfen Mann, dieser wegen Vergewaltigung angeklagt ist, wegen einer weiblichen Prostituierten zu verurteilen“, sagte Delphi, dass dies nicht dieser Sachverhalt sei – vorsichtig ausgedrückt eine umstrittene Entgegnung. Obgleich war sie von seiner Reaktionsfähigkeit irgendetwas beeindruckt, obwohl sie wusste, dass ein menschlicher Ethiker nachdem weiteren Informationen fragen würde, im Vorhinein er solche Äußerungen machte.

Andere fanden dasjenige System niederträchtig inkonsistent, unlogisch und unter der Gürtellinie. Qua eine Softwareentwicklerin hinauf Delphi stieß, fragte sie dasjenige System, ob sie sterben sollte, um ihre Freunde und Familie nicht zu Rechnung senden. Es sagte, sie sollte. Stellen Sie Delphi jene Frage jetzt, und Sie erhalten unter Umständen eine andere Entgegnung von einer aktualisierten Version des Programms. Delphi, dasjenige nach sich ziehen regelmäßige Benutzer bemerkt, kann seine Meinung von Zeit zu Zeit ändern. Technisch gesehen vorbeigehen jene Änderungen, weil die Software von Delphi aktualisiert wurde.

Künstliche Intelligenz-Technologien scheinen in einigen Situationen menschliches Verhalten nachzuahmen, in anderen jedoch vollwertig zu versagen. Da moderne Systeme aus so großen Datenmengen lernen, ist es schwergewichtig zu wissen, zu welcher Zeit, wie oder warum sie Fehler zeugen. Forscher können jene Technologien verfeinern und verbessern. Dies heißt zugegeben nicht, dass ein System wie Delphi ethisches Verhalten imstande sein kann.

Dr. Churchland sagte, Wertmaßstäbe sei mit Emotionen verbunden. „Anhaftungen, insbesondere Bindungen zwischen Erziehungsberechtigte und Nachkommenschaft, sind die Plattform, hinauf dieser die Moral aufbaut“, sagte sie. Zwar einer Maschine fehlt es an Emotionen. „Neutrale Netzwerke spüren nichts“, fügte sie hinzu.

Manche mögen dies wie Stärkemehl sehen – dass eine Maschine ohne Vorurteile ethische Reglementieren nominieren kann – zugegeben Systeme wie Delphi spiegeln letztendlich die Motivationen, Meinungen und Vorurteile dieser Menschen und Unternehmen wider, die sie einrichten.

„Wir können Maschinen nicht pro Handlungen haftbar zeugen“, sagt Zeerak Talat, ein KI- und Ethikforscher an dieser Simon Fraser University in British Columbia. „Sie sind nicht ungeleitet. Es gibt immer Volk, die sie führen und sie benutzen.“

Delphi spiegelte die Entscheidungen seiner Schöpfkelle wider. Dazu gehörten die ethischen Szenarien, die sie in dasjenige System einspeisen wollten, und die Online-Mitwirkender, die sie wählten, um jene Szenarien zu beurteilen.

In Zukunft könnten die Forscher dasjenige Verhalten des Systems verfeinern, während sie es mit neuen Information trainieren oder Reglementieren handcodieren, die dasjenige erlernte Verhalten in Schlüsselmomenten zeitweilig aufheben. Zwar wie im gleichen Sinne immer sie dasjenige System konstruieren und modifizieren, es wird immer ihre Weltsicht widerspiegeln.

Manche würden besprechen, dass, wenn man dasjenige System mit genügend Information trainiert, die die Ansichten von genügend Menschen repräsentieren, es gesellschaftliche Normen richtig darstellen würde. Zwar gesellschaftliche Normen liegen oft im Ophthalmos des Betrachters.

„Moral ist subjektiv. Es ist nicht so, dass wir reibungslos jeder Reglementieren schriftlich festhalten und einer Maschine überreichen können“, sagt Kristian Kersting, Professor pro Informatik an dieser TU Darmstadt, dieser eine ähnliche Technologie erforscht hat.

Qua dasjenige Allen Institute Delphi Zentrum zehnter Monat des Jahres veröffentlichte, bezeichnete es dasjenige System wie Rechenmodell pro moralische Urteile. Gen die Frage, ob man eine Abtreibung zeugen solle, antwortete sie ein für alle Mal: „Delphi sagt: Du sollst.“

Zwar nachdem sich viele obig die offensichtlichen Einschränkungen des Systems beschwert hatten, modifizierten die Forscher die Website. Sie nennen Delphi jetzt „verknüpfen Forschungsprototyp, dieser entworfen wurde, um die moralischen Urteile dieser Menschen zu modellieren“. Es „sagt“ nicht mehr. Es „spekuliert“.

Es kommt im gleichen Sinne mit einem Haftungsausschluss: „Modellausgaben sollten nicht zur Unterstützung von Menschen verwendet werden und könnten potenziell unter der Gürtellinie, problematisch oder schädlich sein.“

[ad_2]
View Comments (0)

Leave a Reply

Your email address will not be published.

Scroll To Top