Tiltakozások Ragyogj fényt az arcfelismerési technológiai problémákra

Tiltakozások Ragyogj fényt az arcfelismerési technológiai problémákra

Hitel: Shutterstock

Kiterjesztett vágás

Egy speciális kiterjesztett interjúban hallgassa meg Ruha Benjamin és Deborah Raji gyakorlati lépéseit a mesterséges intelligencia-technológiák olyan fejlesztésének gyakorlati lépéseiről, amelyek nagyobb méltányossághoz és egyenlő igazságossághoz vezetnek – legyen szó akár a technológiai vállalatokról, amelyek készek lassítani, vagy a faji igazságosságot érvényesítő kormányzati normákról. figyelembe.


Korábban, ebben a hónapban, három nagy technológiai vállalat nyilvánosan elhatárolták magukat a rendőrség által használt arcfelismerő eszközöktől: az IBM azt mondta, hogy leállítanak minden ilyen kutatást, míg az Amazon és a Microsoft azt mondta, hogy szüneteltetnek minden olyan tervet, amely az arcfelismerő technológiát a hazai bűnüldöző szervek rendelkezésére bocsátja.



Arvind Krishna, az IBM vezérigazgatója kifejtette, hogy a lépés az arcfelismerés használata miatt történt faji profilalkotás és tömeges megfigyelés . Az olyan cégek arcfelismerő algoritmusait találták, mint az Amazon tévesen azonosítani a színes bőrűeket , különösen színes bőrű nők, magasabb árakon – ami azt jelenti, hogy amikor a rendőrség arcfelismerést használ a nem fehér színű gyanúsítottak azonosítására, nagyobb valószínűséggel tartóztat le nem a megfelelő személyt.

Ennek ellenére a vállalatok bemutatták ezt a technológiát a kormánynak. Az American Civil Liberties Union (ACLU) éppen ezen a héten tárt fel dokumentumokat, amelyek azt mutatják, hogy a Microsoft megtörtént próbálja eladni arcfelismerés legalább 2017 óta a szövetségi kormány kábítószer-ellenes hatóságának, ami megkérdőjelezi a „rendőrség” pontos meghatározását. Az arcfelismerés mellett az Amazon technológiája már segíti az olyan kormányzati szervek adatbázisait, mint az ICE akik felelősek a közelmúltban a bevándorlás elleni erőszakos fellépésekért.

A vezérigazgatók nemzeti törvényeket követelnek, amelyek szabályozzák ezt a technológiát, vagy olyan programozási megoldásokat, amelyek eltávolítják a faji elfogultságokat és más egyenlőtlenségeket a kódjukból. De vannak olyanok is, akik teljesen be akarják tiltani – és teljesen újragondolják, hogyan fejlesztik és használják a mesterséges intelligenciát a közösségekben.

A MolecularConceptor producere, Christie Taylor beszélget vele Ruha Benjamin , szociológus és MI-kutató Deborah Raji a mesterséges intelligencia és a faji igazságtalanság kapcsolatáról, valamint a lassabb, közösségorientáltabb technológiai és adattudományi folyamatokról alkotott elképzeléseikről.


További irodalom