Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124

W dzisiejszych czasach, kiedy cyfrowa przestrzeń staje się coraz bardziej zintegrowana z naszym codziennym życiem, firmy technologiczne, takie jak Meta Platforms – właściciel Facebooka, znajdują się pod szczególną lupą. Ostatnie doniesienia rzucają nowe światło na praktyki firmy, szczególnie w kontekście jej interakcji z najmłodszymi użytkownikami.
Zgodnie z raportami „The Wall Street Journal” i „The New York Times„, Meta Platforms została oskarżona o celowe projektowanie swoich platform społecznościowych w taki sposób, aby przyciągać dzieci. Co więcej, firma miała świadomość milionów skarg dotyczących nieletnich użytkowników Instagrama, ale podjęła działania tylko w niewielkiej części tych przypadków. Ta informacja wyłania się z pozwu złożonego przez prokuratorów generalnych z 33 stanów USA.
Dokumenty firmy, na które powołuje się skarga, opisują wewnętrzne dyskusje urzędników Meta, którzy przyznają, że produkty firmy są zaprojektowane w taki sposób, aby wykorzystać słabości psychologiczne młodzieży – impulsywne zachowania, podatność na presję rówieśniczą, a także niedoszacowanie ryzyka. Co istotne, przyznano, że Facebook i Instagram cieszą się popularnością również wśród dzieci poniżej 13 roku życia, co stoi w sprzeczności z polityką firmy.
W odpowiedzi na te oskarżenia, Meta wydała oświadczenie dla Associated Press, twierdząc, że skarga błędnie przedstawia jej wysiłki włożone w ostatniej dekadzie w celu zapewnienia bezpieczeństwa online nastolatków. Firma podkreśliła, że dysponuje ponad 30 narzędziami wspierającymi młodych użytkowników i ich rodziców.
Jednakże, problem weryfikacji wieku pozostaje poważnym wyzwaniem, z którym Meta zmaga się, podobnie jak cała branża. Zamiast bezpośredniego rozwiązania, firma proponuje przeniesienie części odpowiedzialności na sklepy z aplikacjami oraz rodziców, wspierając jednocześnie przepisy federalne, które wymagałyby zgody rodziców przy pobieraniu aplikacji przez młodzież poniżej 16 roku życia.
Interesujące jest zauważenie, jak wewnętrzne dyskusje w firmie odzwierciedlają konflikt między komercyjnymi a społecznymi aspektami działalności. W 2019 roku jeden z dyrektorów ds. bezpieczeństwa na Facebooku zwrócił uwagę na potencjalne szkody dla działalności firmy wynikające z eliminacji młodszych użytkowników. Rok później ten sam dyrektor wyraził frustrację z powodu braku entuzjazmu firmy dla identyfikacji i usuwania młodszych dzieci ze swoich platform.
Raport ujawnia również, że czasami Meta ma do nadrobienia zaległości dotyczące nawet 2,5 miliona kont młodszych dzieci. To wskazuje na znaczną skalę problemu, z którym firma się zmaga.
Sytuacja, w której znalazła się Meta, rzuca światło na złożone wyzwania związane z równoważeniem komercyjnych ambicji i odpowiedzialności społecznej w cyfrowej erze. Ta historia podkreśla pilną potrzebę przejrzystości, odpowiedzialności i skutecznych mechanizmów ochrony młodszych użytkowników w świecie cyfrowym.