FOSSBYTES TECH SIMPLIFIED LOGO

W.Wir treten langsam in die Ära selbstfahrender Autos ein. Viele Unternehmen wie Tesla, Google und Uber erreichen Meilensteine, um uns dem Tag näher zu bringen, an dem wir uns zurücklehnen und entspannen, während intelligente Systeme unsere Autos automatisch fahren. Der Risikofaktor ist jedoch immer noch involviert, und die jüngsten Unfälle mit selbstfahrenden Autos zeigen, dass wir noch sehr weit von diesem Tag entfernt sind.

Während das Überwinden von Hindernissen und das Treffen sofortiger Entscheidungen die Hauptprobleme bleiben, haben Forscher ein Problem mit selbstfahrenden Autos festgestellt – schlechte Erkennung von Fußgängern mit dunkler Haut.

EIN Forschung durchgeführt vom Georgia Institute of Technology hat festgestellt, dass selbstfahrende Systeme sind fünf Prozent weniger genau bei der Erkennung dunkelhäutiger Fußgänger.

Die Forscher analysierten zunächst die Genauigkeit der Entscheidungsfindung von hochmodernen Objekterkennungsmodellen, indem sie berücksichtigten, wie solche Systeme Menschen aus verschiedenen demografischen Gruppen erkennen.

Der Datensatz enthielt Bilder von Fußgängern und trennte ihn dann weiter in Bilder mit Fußgängern mit unterschiedlichen Hauttönen. Dies geschieht mit der Fitzpatrick-Skala, die Menschen nach menschlichen Hauttönen von hell bis dunkel klassifiziert.

Das System zeigte eine voreingenommene Entscheidungsfindung, selbst wenn verschiedene Variablen wie die Tageszeit in Bildern und gelegentliche Behinderungen von Fußgängern in die Studie einbezogen wurden.

Einer der Gründe für das „rassistische“ Selbstfahrersystem ist algorithmische Verzerrung. Algorithmische Verzerrungen entstehen aufgrund des voreingenommenen Verhaltens des Menschen, das dann in Systeme eindringt. Das Computersystem ahmt das Verhalten seiner Designer nach, was sich auf seine Entscheidungsfähigkeit auswirkt.

Die Studie zeigt eine algorithmische Tendenz gegenüber dunkelhäutigen Menschen, aber es ist wichtig zu wissen, dass die Die Forschung wurde nicht von Experten begutachtet und verwendet nicht das tatsächliche Objekterkennungsmodell, das von den meisten autonomen Fahrzeugherstellern verwendet wird. Die Studie basiert auf öffentlich verfügbaren Datensätzen, die von akademischen Forschern verwendet werden. Unternehmen stellen die tatsächlichen Daten nicht zur Verfügung, was an sich schon ein Problem ist.

Die in der Studie aufgedeckten Risiken sind jedoch real, und es ist höchste Zeit, dass Unternehmen konkrete Schritte unternehmen, um das voreingenommene Verhalten von Computersystemen auszumerzen und sie für alle sicherer zu machen.

Lesen Sie auch: Mahindra startet elektrisches Hypercar Battista: Erreicht in 2 Sekunden 0-100 km/h

This post is also available in: Deutsch Vietnamesisch Italienisch Indonesisch

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here