Alexandria Ocasio-Cortez mówi, że algorytmy mogą być rasistowskie. Oto dlaczego ma rację.

Pin
Send
Share
Send

W zeszłym tygodniu nowo wybrana amerykańska przedstawiciel Aleksandria Ocasio-Cortez trafiła na nagłówki gazet, gdy powiedziała, w ramach czwartego dorocznego wydarzenia MLK Now, że technologie i algorytmy rozpoznawania twarzy „zawsze mają te nierówności rasowe, które się tłumaczą, ponieważ algorytmy wciąż są tworzone przez ludzi, a algorytmy te są nadal powiązane z podstawowymi ludzkimi założeniami. Są po prostu zautomatyzowane. I zautomatyzowane założenia - jeśli nie naprawisz błędu, to po prostu zautomatyzujesz błąd. ”

Czy to oznacza, że ​​algorytmy, które teoretycznie opierają się na obiektywnych prawdach matematyki, mogą być „rasistowskie”? A jeśli tak, co można zrobić, aby usunąć to uprzedzenie?

Okazuje się, że dane wyjściowe z algorytmów mogą rzeczywiście generować stronnicze wyniki. Badacze danych twierdzą, że programy komputerowe, sieci neuronowe, algorytmy uczenia maszynowego i sztuczna inteligencja (AI) działają, ponieważ uczą się, jak zachowywać się na podstawie danych, które im przekazano. Oprogramowanie jest pisane przez ludzi, którzy mają uprzedzenia, a dane szkoleniowe są również generowane przez ludzi, którzy mają uprzedzenia.

Dwa etapy uczenia maszynowego pokazują, jak to nastawienie może przekształcić się w pozornie zautomatyzowany proces. W pierwszym etapie, na etapie szkolenia, algorytm uczy się na podstawie zestawu danych lub określonych zasad lub ograniczeń. Drugi etap to etap wnioskowania, w którym algorytm stosuje to, czego nauczył się w praktyce. Ten drugi etap ujawnia uprzedzenia algorytmu. Na przykład, jeśli algorytm jest trenowany ze zdjęciami tylko kobiet, które mają długie włosy, to pomyśli, że każdy z krótkimi włosami jest mężczyzną.

Google niesławnie znalazł się pod ostrzałem w 2015 r., Kiedy Zdjęcia Google oznaczyły czarnych ludzi gorylami, prawdopodobnie dlatego, że były to jedyne ciemnoskóre istoty w zestawie treningowym.

Odchylenie może wkraść się na wiele sposobów. „Częstym błędem jest trenowanie algorytmu do przewidywania na podstawie wcześniejszych decyzji stronniczych ludzi” - powiedziała Live Science Sophie Searcy, starszy specjalista ds. Danych w bootcampie szkolącym naukę danych. „Jeśli stworzę algorytm automatyzujący decyzje podjęte wcześniej przez grupę urzędników ds. Pożyczek, może pójdę łatwą drogą i wytrenuję algorytm na podstawie wcześniejszych decyzji od tych urzędników ds. Pożyczek. Ale oczywiście, jeśli ci urzędnicy ds. Pożyczek byli stronniczy, to algorytm, który zbuduję, będzie kontynuował te uprzedzenia. ”

Searcy przytoczył przykład COMPAS, narzędzia predykcyjnego stosowanego w amerykańskim systemie wymiaru sprawiedliwości w sprawach karnych, który próbuje przewidzieć, gdzie nastąpi przestępstwo. ProPublica przeprowadziła analizę COMPAS i stwierdziła, że ​​po kontroli innych wyjaśnień statystycznych narzędzie przeceniło ryzyko recydywy czarnych oskarżonych i konsekwentnie nie doceniało ryzyka białych oskarżonych.

Aby pomóc w zwalczaniu uprzedzeń algorytmicznych, Searcy powiedział Live Science, inżynierowie i naukowcy powinni budować bardziej zróżnicowane zestawy danych dla nowych problemów, a także próbować zrozumieć i złagodzić uprzedzenia wbudowane w istniejące zestawy danych.

Przede wszystkim - powiedziała Ira Cohen, analityk danych z firmy Anodot z branży analiz predykcyjnych - inżynierowie powinni dysponować zestawem szkoleniowym ze stosunkowo jednolitą reprezentacją wszystkich typów populacji, jeśli trenują algorytm identyfikujący cechy etniczne lub płciowe. „Ważne jest, aby przedstawić wystarczającą liczbę przykładów z każdej grupy populacji, nawet jeśli stanowią one mniejszość w całej badanej populacji”, powiedział Cohen dla Live Science. Na koniec Cohen zaleca sprawdzanie stronniczości w zestawie testowym, który obejmuje osoby ze wszystkich tych grup. „Jeśli dla pewnego wyścigu dokładność jest statystycznie znacząco niższa niż w innych kategoriach, algorytm może mieć błąd, a ja oceniłbym dane treningowe, które zostały użyte do tego” - powiedział Cohen w LiveScience. Na przykład, jeśli algorytm może poprawnie zidentyfikować 900 z 1000 białych twarzy, ale poprawnie wykrywa tylko 600 z 1000 twarzy azjatyckich, wówczas algorytm może wykazywać tendencję „przeciw” Azjatom, dodał Cohen.

Usunięcie uprzedzeń może być niezwykle trudne dla AI.

Nawet Google, uważany za prekursora w komercyjnej sztucznej inteligencji, najwyraźniej nie był w stanie znaleźć kompleksowego rozwiązania swojego problemu z gorylami od 2015 roku. Wired stwierdził, że zamiast znaleźć sposób na odróżnienie ludzi od kolorów i goryli, Google po prostu zablokował algorytmy rozpoznawania obrazu w ogóle identyfikujące goryle.

Przykład Google jest dobrym przypomnieniem, że szkolenie oprogramowania AI może być trudnym ćwiczeniem, szczególnie gdy oprogramowanie nie jest testowane ani szkolone przez reprezentatywną i różnorodną grupę ludzi.

Pin
Send
Share
Send