Microsoft stellt umstrittenes Gesichtserkennungstool ein, das vorgibt, Emotionen zu identifizieren

Microsoft stellt den öffentlichen Zugang zu einer Reihe von KI-gestützten Gesichtsanalyse-Tools aus – darunter eines, das behauptet, die Emotionen einer Person anhand von Videos und Bildern zu identifizieren.

Solche Tools zur „Emotionserkennung“ wurden von Experten kritisiert. Sie sagen, dass sich Gesichtsausdrücke, die als universell gelten, nicht nur in verschiedenen Bevölkerungsgruppen unterscheiden, sondern dass es unwissenschaftlich ist, äußere Gefühlsäußerungen mit inneren Gefühlen gleichzusetzen.

„Unternehmen können sagen, was sie wollen, aber die Daten sind eindeutig“, sagt Lisa Feldman Barrett, Psychologieprofessorin an der Northeastern University, die eine Übersicht zum Thema KI-gestützte Emotionserkennung erstellt hat. gesagt Der Rand im Jahr 2019. „Sie können einen finsteren Blick erkennen, aber das ist nicht dasselbe wie Wut zu erkennen.“

Die Entscheidung ist Teil a größere Überarbeitung der KI-Ethikrichtlinien von Microsoft. Die aktualisierten Standards für verantwortungsbewusste KI des Unternehmens (erstmals 2019 skizziert) betonen die Rechenschaftspflicht, um herauszufinden, wer seine Dienste nutzt, und eine größere menschliche Aufsicht darüber, wo diese Tools angewendet werden.

In der Praxis bedeutet dies, dass Microsoft dies tun wird den Zugriff auf einige Funktionen einschränken seiner Gesichtserkennungsdienste (bekannt als Azure Face) und andere vollständig entfernen. Benutzer müssen sich beispielsweise für die Verwendung von Azure Face zur Gesichtserkennung bewerben und Microsoft genau mitteilen, wie und wo sie ihre Systeme bereitstellen werden. Einige Anwendungsfälle mit weniger schädlichem Potenzial (wie das automatische Verwischen von Gesichtern in Bildern und Videos) bleiben offen zugänglich.

Zusätzlich zum Entfernen des öffentlichen Zugriffs auf sein Emotionserkennungstool stellt Microsoft auch die Fähigkeit von Azure Face ein, „Attribute wie Geschlecht, Alter, Lächeln, Gesichtsbehaarung, Haare und Make-up“ zu identifizieren.

„Experten innerhalb und außerhalb des Unternehmens haben den Mangel an wissenschaftlichem Konsens über die Definition von ‚Emotionen‘, die Herausforderungen bei der Verallgemeinerung von Schlussfolgerungen über Anwendungsfälle, Regionen und demografische Merkmale und die erhöhten Datenschutzbedenken in Bezug auf diese Art von Fähigkeit hervorgehoben“, schrieb er Natasha Crampton, die verantwortliche KI-Beauftragte von Microsoft, in einem Blogbeitrag, der die Neuigkeiten ankündigt.

Microsoft sagt, dass es ab heute, dem 21. Juni, diese Funktionen für Neukunden nicht mehr anbieten wird, während bestehenden Kunden der Zugriff am 30. Juni 2023 entzogen wird.

Allerdings geht Microsoft in den Ruhestand Öffentlichkeit Zugriff auf diese Funktionen, wird es sie weiterhin in mindestens einem seiner eigenen Produkte verwenden: einer App mit dem Namen KI sehen die maschinelles Sehen nutzt, um die Welt für Menschen mit Sehbehinderungen zu beschreiben.

In einem Blogeintrag, Microsofts Hauptproduktmanagerin für Azure AI, Sarah Bird, sagte, dass Tools wie die Emotionserkennung „wertvoll sein können, wenn sie für eine Reihe von Szenarien mit kontrollierter Zugänglichkeit verwendet werden“. Es ist nicht klar, ob diese Tools in anderen Microsoft-Produkten verwendet werden.

Microsoft führt auch ähnliche Einschränkungen für seine Custom Neural Voice-Funktion ein, mit der Kunden KI-Stimmen basierend auf Aufnahmen von echten Menschen erstellen können (manchmal auch als Audio-Deepfake bezeichnet).

Das Tool „hat aufregendes Potenzial in den Bereichen Bildung, Zugänglichkeit und Unterhaltung“, schreibt Bird, aber sie merkt an, dass es „auch leicht vorstellbar ist, wie es verwendet werden könnte, um sich auf unangemessene Weise als Sprecher auszugeben und Zuhörer zu täuschen“. Microsoft sagt, dass es in Zukunft den Zugriff auf die Funktion auf „verwaltete Kunden und Partner“ beschränken und „die aktive Teilnahme des Sprechers beim Erstellen einer synthetischen Stimme sicherstellen wird“.

Leave a Comment