Czarnoskóry jako małpa i Auschwitz na sportowo - niestosowne pomyłki algorytmu

21-05-2015, 14:29

Fotograficzny serwis Flickr ma być dużo lepszy dzięki technologii rozpoznawania obrazów. Niestety początki tej technologii nie są najszczęśliwsze, skoro czarnoskóry mężczyzna został oznaczony jako zwierzę.

Dawno już nie pisaliśmy o serwisie Flickr. Kiedyś był on uważany za jedno z najlepszych miejsc na zdjęcia. Miał szansę stać się jednym z najważniejszych serwisów społecznościowych. Do dziś jest lubiany wśród ludzi, którzy mają ambicje wykraczające poza bezmyślne pstrykanie zdjęć. W roku 2013 serwis przeszedł gruntowną modernizację, a w tym miesiącu jego twórcy udostępnili narzędzia do łatwiejszego wgrywania, organizowania i udostępniania zdjęć. 

Wraz z tymi najnowszymi zmianami Flickr wdrożył technologię rozpoznawania obrazów, która ma ułatwić automatyczne sortowanie zdjęć. Dzięki temu można bez trudu oddzielić np. pejzaże od portretów albo zdjęcia monochromatyczne od kolorowych. Technologia miała być też zintegrowana z wyszukiwaniem zdjęć na Flickrze i to również wiele zmienia. Zdjęcia nie zawsze są właściwie opisane.

Sport w Auschwitz?

Niestety debiut nowej technologii nie był najszczęśliwszy. Gazety już zauważyły, że pewien portret czarnoskórego mężczyzny został oznaczony tagami "ape" (małpa) oraz "animal" (zwierzę). Na szczęście podobnie został oznaczony inny portret kobiety rasy białej, więc nie można Flickrowi zarzucać czystego rasizmu. 

Zauważono też, że zdjęcie bramy obozu koncentracyjnego w Dachau zostało oznaczone tagami "jungle gym" oraz "sport". Również zdjęcie wejścia do obozu w Oświęcimu zostało oznaczone tagiem "sport".

Rzecznik Flickra już tłumaczył się z tego dziennikarzom Guardiana. Technologia rozpoznawania obrazu może się mylić i czasem będzie się mylić. Twórcy Flickra radzą usuwać błędnie przypisane tagi, dzięki czemu algorytm uczy się lepszego rozpoznawania zdjęć. Rzecznik Flickra zapewnił, że żaden człowiek nie uczestniczył w przypisywaniu "złośliwych" tagów (zob. The Guardian, Flickr faces complaints over 'offensive' auto-tagging for photos). 

Obojętne dla algorytmów, ważne dla ludzi

Wpadki Flickra przypominają trochę inną sprawę sprzed lat. Kamery firmy HP nie chciały śledzić twarzy osób o ciemnej skórze i firma musiała tłumaczyć, że kamery naprawdę nie były rasistowskie

Nie mamy tu do czynienia z wielką aferą. Opisujemy tę sprawę jako ciekawostkę, o której możecie sobie poczytać między poważniejszymi doniesieniami. Oczywiście takie drobnostki są dobrym materiałem do poważnych rozważań.

Algorytmy zawsze mogą się mylić w sposób, który może wyglądać na nieprzypadkowy. To, co dla maszyny jest obojętne, dla ludzi może mieć kolosalne znaczenie. Niebawem będzie więcej algorytmów wokół nas. Do gry wchodzą tłumacze tekstu mówionego. Coraz częściej informacje o nas są na różne sposoby automatycznie przetwarzane. Łatwo nam znieść pomyłki Flickra, ale czy w przyszłości jakiś inteligentny algorytm nie popełni bardziej rażących pomyłek, które będą odebrane jako czyjaś złośliwość? 


  
znajdź w serwisie


RSS - Wywiad
Wywiad  
RSS - Interwencje
RSS - Porady
Porady  
RSS - Listy
Listy  
« Sierpień 2020»
PoWtŚrCzwPtSbNd
 12
3456789
10111213141516
17181920212223
24252627282930
31