Czy sztuczna inteligencja może zdecydować o wynikach wyborów? W Polsce i na świecie technologie AI, w tym deepfake, zaczynają odgrywać kluczową rolę w kampaniach wyborczych, rodząc równocześnie obawy o ich uczciwość.
reklama
Pod koniec 2023 roku polska scena polityczna była świadkiem kontrowersyjnego użycia technologii AI. Platforma Obywatelska wykorzystała technikę deepfake, aby stworzyć spot wyborczy z wygenerowanym głosem byłego premiera Mateusza Morawieckiego.
Choć partia szybko przyznała się do użycia sztucznej inteligencji, spot wywołał szeroką krytykę i podniósł poważne pytania o etykę w kampaniach politycznych.
Nie jest to jednak zjawisko ograniczone tylko do Polski. W ostatnich latach podobne przypadki miały miejsce w różnych częściach świata. W Argentynie i Indonezji AI służyła do tworzenia materiałów, które potencjalnie mogły wpłynąć na wyniki wyborów przez przedstawianie fałszywych wypowiedzi znanych osobistości.
Z kolei w krajach takich jak Pakistan i Białoruś, technologie AI wykorzystywano do ominięcia cenzury, prezentując wizualizacje uwięzionych lub uciszonych liderów opozycji. Choć te działania mogą być postrzegane jako próby walki o wolność słowa, równie często prowadzą do dezinformacji i manipulacji.
Analiza przeprowadzona przez Check Point Research ujawnia, że w ciągu ostatnich sześciu miesięcy, w 36 procesach wyborczych na całym świecie, sztuczna inteligencja była wykorzystywana do manipulacji treściami. W 10 krajach, w tym w Polsce, doszło do incydentów, które zakwestionowały integralność wyborów. Zastosowanie AI obejmuje:
Wykorzystanie narzędzi AI w kampaniach wyborczych ma zarówno pozytywne, jak i negatywne aspekty.
Obecnie istnieje ponad 3000 repozytoriów na GitHubie, które rozwijają i promują technologię deepfake, a usługi są oferowane już od 2 dolarów za film. Problemem jest nie tylko rosnąca dostępność narzędzi AI, ale również brak adekwatnych regulacji prawnych.
W wielu krajach brak stosownych przepisów umożliwia rozprzestrzenianie się materiałów generowanych przez AI, co stanowi wyzwanie dla organów regulacyjnych i społeczności międzynarodowej.
Sergey Shykevich, szef grupy Threat Intelligence Group w firmie Check Point Software, podkreśla, że konieczne jest podnoszenie świadomości, wspieranie współpracy międzynarodowej oraz aktualizacja ram regulacyjnych w celu przeciwdziałania negatywnym wpływom AI na procesy demokratyczne.
Jest to kluczowe, zwłaszcza teraz, gdy w 2024 roku ponad 2 miliardy osób w 50 krajach przygotowuje się do oddania głosu w wyborach.
Zastosowanie sztucznej inteligencji w polityce to nie tylko kwestia technologiczna, ale przede wszystkim etyczna i społeczna. Jak pokazuje przykład Polski i innych krajów, czas zacząć serio traktować te wyzwania.
Foto: Freepik
Źródło: Check Point Research
Aktualności
|
Porady
|
Gościnnie
|
Katalog
Bukmacherzy
|
Sprawdź auto
|
Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy
Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.
*
20 procent więcej za powrót do biura - to warunek stawiany przez pracowników biurowych w Polsce
|
|
|
|
|
|