Meta przeprowadziła w 2020 roku badania, które jasno wykazały, że wyłączenie Facebooka na jeden tydzień obniża depresję, lęk i poczucie samotności użytkowników. Zamiast opublikować te ustalenia, firma wstrzymała dalsze prace badawcze i uznała wyniki za „skażone” medialnymi narracjami. Ujawnione dokumenty sądowe sugerują, że to tylko początek problemu, który może dotyczyć milionów młodych ludzi na całym świecie.
W tym artykule:

Ujawnione w sądzie dokumenty rzucają nowe światło na sposób, w jaki Meta podchodziła do wewnętrznych badań zdrowotnych. Projekt o nazwie „Project Mercury”, realizowany w 2020 roku, miał ocenić wpływ wyłączenia Facebooka na użytkowników. Współpracując z firmą badawczą Nielsen, naukowcy Meta odkryli coś, co stanowiło zagrożenie dla interesów biznesowych: ludzie, którzy przestali używać Facebooka na tydzień, zgłaszali znacznie niższe poziomy depresji, lęku, samotności i poczucia porównywania się z innymi.
Zamiast podzielić się tymi odkryciami z opinią publiczną, regulatorami lub Kongresem, Meta wstrzymała dalsze badania. Wewnętrznie firma oświadczyła, że negatywne wyniki są nieprzydatne ze względu na „istniejący klimat medialny” wokół platformy. Część pracowników zakwestionowała tę decyzję, wskazując, że wnioski z badania były ważne i znaczące.
Pomimo posiadania wewnętrznych dowodów na związek między produktami Meta a negatywnymi skutkami dla zdrowia psychicznego, firma zeznawała przed Kongresem, że nie ma możliwości ustalenia, czy jej platformy mogą szkodzić nastolatkom. Takie zapewnienia padały w czasie, gdy badania prowadzone przez samą Metę pokazywały coś zupełnie innego.
Vaishnavi Jayakumar, była szefowa działu bezpieczeństwa i dobrostanu na Instagramie, zeznała, że Meta utrzymywała np. politykę „17 uderzeń” dla kont zajmujących się handlem ludźmi. Użytkownik mógł mieć 16 naruszeń za prostytucję i zamawianie usług seksualnych, a dopiero po 17. naruszeniu konto było zawieszane. Według Jayakumar był to „bardzo wysoki próg”.
Previn Warren, pełnomocnik powodów, wskazał na kluczowy fakt:
„Meta projektowała produkty mediów społecznościowych, wiedząc, że są uzależniające dla dzieci, i wiedząc, że uzależnienia prowadzą do poważnych problemów zdrowia psychicznego. To sytuacja porównywalna z rynkiem tytoniowym – sprzedawaniem niebezpiecznych produktów dzieciom”.
Dokumenty sądowe zawierają szereg konkretnych zarzutów dotyczących strategii firmy Meta wobec młodzieży. Funkcje chroniące nastolatków były trudne do znalezienia, a ich użytkowość celowo ograniczano.
Dlaczego? Bo funkcje bezpieczeństwa zmniejszają zaangażowanie użytkowników, a zaangażowanie to pieniądze z reklam. Meta wiedziała, że optymalizacja algorytmu pod kątem zaangażowania powoduje pokazywanie nastolatkom więcej szkodliwych treści – i tak to robiła.
Optymalizacja zaangażowania kosztem bezpieczeństwa
Meta zdawała sobie sprawę, że optymalizacja produktów pod kątem zwiększenia zaangażowania nastolatków powoduje wyświetlanie im większej ilości szkodliwych treści, ale robiła to mimo wszystko.
Opóźnianie działań ochronnych
Firma spowalniała wewnętrzne wysiłki mające na celu zapobieganie kontaktom drapieżników z nieletnimi ze względu na obawy dotyczące wzrostu liczby użytkowników. Pracownicy działu bezpieczeństwa byli zmuszani do uzasadniania tej decyzji.
Priorytety Zuckerberga...
W wiadomości z 2021 roku Mark Zuckerberg stwierdził, że bezpieczeństwo dzieci nie jest jego głównym priorytetem „gdy mam szereg innych obszarów, na których się bardziej skupiam, takich jak budowanie metawersum”.
Zuckerberg ignorował lub odrzucał także propzycje Nicka Clegga, ówczesnego szefa globalnej polityki publicznej Meta, dotyczące lepszego finansowania prac nad bezpieczeństwem dzieci.
42 prokuratorów generalnych poszczególnych stanów USA złożyło pozwy przeciwko Meta w sądach federalnych i stanowych. Prokurator generalny Dystryktu Kolumbii Brian L. Schwalb oświadczył:
"Dzieci są szczególnie podatne na technologie uzależniające, a Meta wykorzystała te podatności, przedkładając swoją ambicję dotyczącą przychodów z reklam nad psychiczne i emocjonalne dobrostanie młodych ludzi”.
Pozwy nie ograniczają się do kwestii badań. Zarzuty obejmują szereg działań, które – zdaniem powodów – były podejmowane systematycznie:
Podobną strategię – według ujawnionych materiałów – stosował TikTok, który sponsorował National PTA, a następnie wewnętrznie chwalił się swoją zdolnością do wpływania na tę organizację. Przedstawiciele TikToka twierdzili, że PTA będzie „robić wszystko, co chcemy w przyszłości… ogłaszać rzeczy publicznie, a jej dyrektor generalny będzie robić oświadczenia prasowe dla nas”.
Wzór zachowania Meta w ostatnich latach pokazuje wyraźną niezgodność między tym, co firma wiedziała wewnętrznie, a tym, co komunikowała publicznie. W 2021 roku Frances Haugen, była pracownica Meta, ujawniła dokumenty pokazujące, że Instagram może poważnie szkodzić zdrowiu psychicznemu nastoletnich dziewcząt. Ujawnienia te doprowadziły do przesłuchań w Kongresie i międzynarodowych debat na temat bezpieczeństwa dzieci w internecie.
W odpowiedzi Meta zmieniła swoją politykę badań nad wrażliwymi tematami – takimi jak polityka, dzieci, płeć, rasa i nękanie – sześć tygodni po tym, jak Haugen ujawniła dokumenty. Zaproponowano dwa sposoby ograniczenia ryzyka: zaangażowanie prawników w badania (co chroniłoby komunikację poufnością klient–prawnik) lub opisywanie ustaleń w bardziej ostrożny sposób, unikając jednoznacznie krytycznych sformułowań.
Jason Sattizahn, były badacz Meta specjalizujący się w rzeczywistości wirtualnej, zeznał, że jego przełożony zmusił go do usunięcia nagrań z wywiadu, w którym nastolatek twierdził, że jego 10-letni brat otrzymał propozycję o charakterze seksualnym na platformie Horizon Worlds Meta.
To sugeruje, że tłumienie niewygodnych ustaleń nie było przypadkowe, lecz systematyczne.
Chociaż ujawnione materiały skupiają się głównie na Meta, warte zauważenia jest, że inne platformy społecznościowe – TikTok, Snapchat i Google – również stoją w obliczu podobnych oskarżeń. Jednak dokumenty sądowe dotyczące firmy Meta zawierają najwięcej szczegółów i konkretnych wewnętrznych materiałów. Wskazuje to na szerszy problem w branży technologicznej: model biznesowy oparty na reklamach wymaga maksymalnego zaangażowania użytkowników, a dzieci i nastolatki stanowią szczególnie podatną grupę.
Wzrost problemów zdrowia psychicznego wśród młodzieży statystycznie pokrywa się z rozwojem mediów społecznościowych.
W 2023 roku naczelny lekarz Stanów Zjednoczonych wydał opinię, zgodnie z którą
„obecne badania wskazują, że choć media społecznościowe mogą mieć pewne korzyści dla młodych ludzi, istnieje wiele wskaźników, że mogą stwarzać poważne ryzyko dla zdrowia psychicznego i dobrostanu dzieci i nastolatków”.
Dane z Dystryktu Kolumbii pokazują, że prawie połowa dziewczyn w szkołach średnich (47,7%) wykazuje objawy zaburzeń psychicznych, a 36,9% dziewczyn w szkołach podstawowych deklaruje występowanie myśli samobójczych.
Równie ważne jest pytanie o odpowiedzialność. Czy kara finansowa wystarczy? Czy istnieją skuteczne sposoby zmiany zachęt biznesowych, które napędzają platformy społecznościowe? Część ekspertów argumentuje, że regulacja – na wzór tej stosowanej wobec przemysłu tytoniowego – może być jedynym realnym rozwiązaniem. Inni wskazują na potrzebę fundamentalnych zmian w sposobie, w jaki platformy projektują produkty dla młodzieży.
Z drugiej strony warto zauważyć, że Meta rzeczywiście wprowadziła w ostatnich latach nowe funkcje bezpieczeństwa. W 2024 roku firma wdrożyła Teen Accounts na Instagramie, które automatycznie ustawiają prywatność dla użytkowników w wieku 13–18 lat, ograniczają wyświetlanie wrażliwych treści, wyłączają powiadomienia w nocy i ograniczają wiadomości od osób nieznanych. Pytanie jednak brzmi: dlaczego te funkcje nie były standardem od samego początku?
Rozprawa sądowa w sprawie Meta jest zaplanowana na 26 stycznia 2025 roku w Sądzie Okręgowym Kalifornii. Jednocześnie Meta wznowiła ruch o wycofanie części dokumentów sądowych z publicznego dostępu. Firma argumentuje, że obiekcje dotyczą zbyt szerokiego zakresu ujawniania, a nie całkowitego wycofania dostępu.
W oświadczeniu rzecznik Meta Andy Stone stwierdził, że badanie Project Mercury zostało wstrzymane ze względu na błędy metodologiczne. Podkreślił: „Pełny zapis pokaże, że przez ponad dekadę słuchaliśmy rodziców, badaliśmy sprawy, które są dla nich najważniejsze, i dokonaliśmy rzeczywistych zmian w celu ochrony nastolatków”.
Niezależnie jednak od wyników postępowania sądowego, ujawnione dokumenty zmuszają do postawienia bardziej fundamentalnego pytania
Czy model biznesowy oparty na reklamach i maksymalnym zaangażowaniu użytkownika da się pogodzić z bezpieczeństwem i zdrowiem psychicznym młodzieży?
Odpowiedź na to pytanie będzie współkształtować przyszłość regulacji technologicznej na całym świecie.
Projekt Mercury to wewnętrzne badanie firmy Meta przeprowadzone w 2020 roku wspólnie z firmą Nielsen, które miało ocenić wpływ wyłączenia Facebooka na użytkowników. Badanie wykazało związek między korzystaniem z Facebooka a depresją, lękiem i samotnością.
Nie. Meta wstrzymała dalsze prace badawcze i wewnętrznie oświadczyła, że wyniki były „skażone” medialnymi narracjami, chociaż pracownicy firmy kwestionowali tę decyzję.
Według ujawnionych dokumentów Meta utrzymywała politykę „17 uderzeń” dla kont zajmujących się handlem ludźmi, co oznacza, że konto było zawieszane dopiero po 17. naruszeniu. Był to wyjątkowo wysoki próg w porównaniu ze standardami branżowymi.
W 2024 roku Meta wprowadziła Teen Accounts na Instagramie, które automatycznie ustawiają prywatność dla użytkowników w wieku 13–18 lat, ograniczają wyświetlanie wrażliwych treści, wyłączają powiadomienia w nocy i ograniczają możliwość wysyłania wiadomości przez osoby nieznane.
Rozprawa sądowa w sprawie Meta jest zaplanowana na 26 stycznia 2025 roku w Sądzie Okręgowym Północnego Dystryktu Kalifornii.
Materiały sądowe:
Publikacje:
Opinie ekspertów i stanowiska zdrowotne:
Raporty zdrowotne i badawcze:
Foto: Freepik
Artykuł może zawierać linki partnerów, umożliwiające rozwój serwisu i dostarczanie darmowych treści.
|
|
|
|
|
|
|
|
Stopka:
© 1998-2026 Dziennik Internautów Sp. z o.o. Wszelkie prawa zastrzeżone.