Fotograficzny serwis Flickr ma być dużo lepszy dzięki technologii rozpoznawania obrazów. Niestety początki tej technologii nie są najszczęśliwsze, skoro czarnoskóry mężczyzna został oznaczony jako zwierzę.
reklama
Dawno już nie pisaliśmy o serwisie Flickr. Kiedyś był on uważany za jedno z najlepszych miejsc na zdjęcia. Miał szansę stać się jednym z najważniejszych serwisów społecznościowych. Do dziś jest lubiany wśród ludzi, którzy mają ambicje wykraczające poza bezmyślne pstrykanie zdjęć. W roku 2013 serwis przeszedł gruntowną modernizację, a w tym miesiącu jego twórcy udostępnili narzędzia do łatwiejszego wgrywania, organizowania i udostępniania zdjęć.
Wraz z tymi najnowszymi zmianami Flickr wdrożył technologię rozpoznawania obrazów, która ma ułatwić automatyczne sortowanie zdjęć. Dzięki temu można bez trudu oddzielić np. pejzaże od portretów albo zdjęcia monochromatyczne od kolorowych. Technologia miała być też zintegrowana z wyszukiwaniem zdjęć na Flickrze i to również wiele zmienia. Zdjęcia nie zawsze są właściwie opisane.
Niestety debiut nowej technologii nie był najszczęśliwszy. Gazety już zauważyły, że pewien portret czarnoskórego mężczyzny został oznaczony tagami "ape" (małpa) oraz "animal" (zwierzę). Na szczęście podobnie został oznaczony inny portret kobiety rasy białej, więc nie można Flickrowi zarzucać czystego rasizmu.
Zauważono też, że zdjęcie bramy obozu koncentracyjnego w Dachau zostało oznaczone tagami "jungle gym" oraz "sport". Również zdjęcie wejścia do obozu w Oświęcimu zostało oznaczone tagiem "sport".
Rzecznik Flickra już tłumaczył się z tego dziennikarzom Guardiana. Technologia rozpoznawania obrazu może się mylić i czasem będzie się mylić. Twórcy Flickra radzą usuwać błędnie przypisane tagi, dzięki czemu algorytm uczy się lepszego rozpoznawania zdjęć. Rzecznik Flickra zapewnił, że żaden człowiek nie uczestniczył w przypisywaniu "złośliwych" tagów (zob. The Guardian, Flickr faces complaints over 'offensive' auto-tagging for photos).
Wpadki Flickra przypominają trochę inną sprawę sprzed lat. Kamery firmy HP nie chciały śledzić twarzy osób o ciemnej skórze i firma musiała tłumaczyć, że kamery naprawdę nie były rasistowskie.
Nie mamy tu do czynienia z wielką aferą. Opisujemy tę sprawę jako ciekawostkę, o której możecie sobie poczytać między poważniejszymi doniesieniami. Oczywiście takie drobnostki są dobrym materiałem do poważnych rozważań.
Algorytmy zawsze mogą się mylić w sposób, który może wyglądać na nieprzypadkowy. To, co dla maszyny jest obojętne, dla ludzi może mieć kolosalne znaczenie. Niebawem będzie więcej algorytmów wokół nas. Do gry wchodzą tłumacze tekstu mówionego. Coraz częściej informacje o nas są na różne sposoby automatycznie przetwarzane. Łatwo nam znieść pomyłki Flickra, ale czy w przyszłości jakiś inteligentny algorytm nie popełni bardziej rażących pomyłek, które będą odebrane jako czyjaś złośliwość?
Aktualności
|
Porady
|
Gościnnie
|
Katalog
Bukmacherzy
|
Sprawdź auto
|
Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy
Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.
*