Now Reading
RE:WIRED 2021: Timnit Gebru sagt, dass künstliche Intelligenz langsamer werden muss

RE:WIRED 2021: Timnit Gebru sagt, dass künstliche Intelligenz langsamer werden muss

RE:WIRED 2021: Timnit Gebru sagt, dass künstliche Intelligenz langsamer werden muss

[ad_1]

Forscher für jedes künstliche Intelligenz stillstehen vor einem Problem jener Rechenschaftspflicht: Wie versuchen Sie sicherzustellen, dass Entscheidungen zuständig sind, wenn die Wettkampf Hersteller ist keine verantwortliche Person, sondern ein Algorithmus? Im Moment verfügen nur eine Handvoll Personen und Organisationen droben die Potenz – und die Ressourcen –, um die Entscheidungsfindung zu automatisieren.

Organisationen verlassen sich hinauf KI, um verknüpfen Kredit zu genehmigen oder dies Urteil eines Angeklagten zu gestalten. Im Kontrast dazu die Grundlagen, hinauf denen solche intelligenten Systeme aufgebaut sind, sind nicht stabil für jedes Verzerrungen. Verzerrungen durch Fakten, Programmierer und dies Endergebnis eines leistungsstarken Unternehmens können zu unbeabsichtigten Konsequenzen zur Folge haben. Vor dieser Wirklichkeit warnte KI-Forscher Timnit Gebru für einem RE:WIRED-Vortrag am zweiter Tag der Woche.

„Es gab Firmen, die behaupteten [to assess] die Wahrscheinlichkeit, dass Leckermäulchen ein Verbrechen erneut aufklärt“, sagte Gebru. “Dies war erschreckend für jedes mich.”

Gebru war ein Star-Ingenieur für Google, jener sich hinauf KI-Moralvorstellungen spezialisierte. Sie war Cobalt-Leiterin eines Teams, dies sich gegen algorithmischen Rassismus, Sexismus und andere Voreingenommenheit schützen sollte. Gebru war außerdem Mitbegründerin jener gemeinnützigen Organisation Black in AI, die sich um die Verbesserung jener Inklusion, Visibilität und Gesundheit von Schwarzen in ihrem Sphäre bemüht.

Vergangenes Jahr hat Google sie rausgedrängt. Im Kontrast dazu sie hat ihren Kampf gegen unbeabsichtigte Schäden durch maschinelle Lernalgorithmen nicht aufgegeben.

Am zweiter Tag der Woche sprach Gebru mit dem Senior Writer von WIRED, Tom Simonite, droben Anreize in jener KI-Wissenschaft, die Rolle des Arbeitnehmerschutzes und die Vision für jedes ihr geplantes unabhängiges Institut für jedes KI-Moralvorstellungen und Rechenschaftspflicht. Ihr zentraler Zähler: KI muss langsamer werden.

„Wir hatten noch nicht die Zeit, darüber nachzudenken, wie es gebaut werden sollte, weil wir immer nur Feuer löschen“, sagte sie.

Wie äthiopischer Flüchtling, jener eine öffentliche Schulhaus in einem Vorort von Boston besuchte, erkannte Gebru schnell Amerikas rassistische Dissonanz. Vorträge bezogen sich hinauf Rassismus in jener Vergangenheitsform, gleichwohl dies stimmte nicht mit dem überein, welches sie sah, sagte Gebru zu Simonite Zustandekommen des Jahres. Sie hat in ihrer Tech-Karriere wiederholt eine ähnliche Fehlausrichtung festgestellt.

Gebrus berufliche Laufbahn begann im Sphäre Hardware. Im Kontrast dazu sie änderte ihren Strecke, denn sie Barrieren für jedes Vielfalt sah und begann zu vermuten, dass die meisten KI-Forschungen dies Potenzial nach sich ziehen, schon marginalisierten Gruppen Schaden zuzufügen.

„Jener Zusammenfluss davon hat mich in eine andere Richtung gebracht, nämlich zu versuchen, die negativen gesellschaftlichen Auswirkungen von KI zu verstehen und zu begrenzen“, sagte sie.

Zwei Jahre weit leitete Gebru verbinden mit jener Informatikerin Margaret Mitchell dies Ethical AI-Team von Google. Dies Team entwickelte Tools zum Schutzmechanismus vor KI-Pannen für jedes die Produktteams von Google. Im Laufe jener Zeit stellten Gebru und Mitchell jedoch straff, dass sie von Meetings und E-Mail-Dienst-Threads undurchführbar wurden.

Im Monat des Sommerbeginns 2020 wurde dies GPT-3-Sprachmodell veröffentlicht und zeigte die Fähigkeit, manchmal kohärente Prosa zu erstellen. Im Kontrast dazu Gebrus Team machte sich Sorgen wegen jener Unwille.

„Lasst uns immer größere und größere Sprachmodelle konstruieren“, erinnert sich Gebru an die allgemeine Meinung. “Wir mussten sagen: ‘Lass uns Bittgesuch von kurzer Dauer zaudern und uns beschwichtigen, damit wir droben die Vor- und Nachteile und vielleicht Option Wege nachdenken können.'”

Ihr Team half beim Schreiben eines Artikels droben die ethischen Implikationen von Sprachmodellen mit dem Titel „On the Dangers of Stochastic Parrots: Can Language Models Beryllium Too Big?“.

Andere für Google waren nicht glücklich. Gebru wurde gebeten, dies Papier zurückzuziehen oder die Namen von Google-Mitarbeitern zu explantieren. Sie konterte mit jener Litanei um Transparenz: Wer hatte so harte Maßnahmen verlangt und warum? Keine Seite rührte sich. Gebru erfuhr aus einem ihrer direkten Vorgesetzten, dass sie „zurückgetreten“ war.

[ad_2]
View Comments (0)

Leave a Reply

Your email address will not be published.

Scroll To Top