Хората научиха дори машините да бъдат расисти
В някои части на САЩ, когато заподозрян в определено престъпление бъде привикан за разпит, той получава компютъризирана оценка на риска, която разкрива вероятността лицето да повтори престъплението си. Тази оценка може да се използва от съдиите по време на последвалото дело по случая, за да произнесат своята присъда.
Разследването на ProPublica обаче разкрива, че изкуственият интелект, който стои зад оценяващия полицейски софтуер е развил "расистки възгледи". За своя материал авторите на статията са получили повече от 7 000 резултата от тестовете във Флорида през 2013 и 2014 г. и са анализирали процента на рецидив сред лицата.
На заподозрените са били зададени общо 137 въпроса, съставени от системата с изкуствен интелект — Correctional Offender Management Profiling for Alternative Sanctions (Compas) — включително въпроси като "Бил ли е някой ваш роднина в затвор или друга поправителна институция?" или "Колко от вашите приятели / познати приемат незаконни наркотици?", като в края на разпита компютърът генерира резултатите, определяйки даден човек като рисков или не.
В най-общи линии, резултатите от разследването показват, че системата е поставила чернокожите (45%) като почти два пъти по-склонни да повторят престъплението си, в сравнение с белите (24%). Като конкретен пример ProPublica прави съпоставка между двама заподозрени в притежанието на наркотици — единият бял, другият чернокож.
Белият заподозрян е имал предишни престъпления, сред които опит за кражба с взлом, докато чернокожият е бил вписан като "противопоставил се на арест". Очевидно, без да посочва причините за това, полицейският софтуер дава на афроамериканеца по-висок шанс за повторно извършване на престъплението, а белият заподозрян е бил класифициран като "ниско рисков" субект.
Оценката на машината се оказва напълно погрешна, защото през следващите две години чернокожият заподозрян няма нито едно нарушение на закона, а белият заподозрян е бил арестуван още 3 пъти за незаконно притежание на наркотици.
Въпреки това, изследователите предупреждават, че проблемът не идва от роботите, а от хорската предубеденост и расистки възгледи, тъй като изкуственият интелект използва алгоритми за машинно обучение, чрез които изучава и усвоява различни човешки черти.
Джоана Брайсън, изследовател в Университета в Бат, заяви пред в. Guardian: "Хората очакват изкуственият интелект да бъде безпристрастен; Това обаче, е напълно погрешно схващане. Ако базисните данни отразяват определени стереотипи или ако обучите изкуствения интелект от гледна точка на определена човешка култура, ще откриете това."
Но това не е изолиран случай и в никакъв случай не е прецедент.
Програмата на Microsoft TayTweets (изкуствен интелект) бе пусната в Twitter миналата година, за да може да се учи от потребителите и да усвои техните човешки черти. Непосредствено след освобождаването си в социалната мрежа обаче, програмата се обърна към антисемитизма и расизма, като започна да публикува съобщения като: "Хитлер не е направил нищо лошо" и "Хитлер е бил прав — мразя евреите".
Последвайте ни
0 Коментара: