Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124

W świecie, gdzie technologia rozwija się w błyskawicznym tempie, sztuczna inteligencja zyskała zdolność do tworzenia niezwykle realistycznych obrazów, filmów i nagrań audio. Ta fascynująca zdolność ma jednak swoje ciemne strony, o czym ostrzega najnowszy raport Fundacji Mozilli. Raport podkreśla znaczące luki w obecnych metodach etykietowania treści generowanych przez AI, wskazując na mylące oznaczenia dla użytkowników i łatwość, z jaką mogą być one usunięte.
Etykietowanie treści generowanych przez AI stanowi kluczowy element w walce z dezinformacją. Internet Foundation Mozilla zwraca uwagę, że obecne oznaczenia są trudne do wykrycia i łatwe do usunięcia. Jest to szczególnie niepokojące w kontekście treści, które mogą wprowadzać w błąd, takich jak deepfake’i. Ramak Molavi Vasse’i z Mozilli ostrzega, że bez jednolitego standardu i przemyślanych środków przeciwko złośliwemu użyciu, technologia ta może stać się narzędziem dezinformacji.
Raport wskazuje na techniczne znaki wodne jako bardziej solidne rozwiązanie etykietowania, choć i tutaj pojawiają się wyzwania. Informacje te muszą być odczytywane przez oprogramowanie na urządzeniach użytkowników, co może stanowić kolejną barierę w skutecznym informowaniu o pochodzeniu treści. Ponadto, ekspertyza techniczna wymagana do interpretacji takich znaków może nie być dostępna dla wszystkich użytkowników.
Zdolność AI do tworzenia realistycznego wideo została niedawno zademonstrowana przez oprogramowanie Sora od OpenAI, gdzie zauważono trudności z wykryciem małych i łatwo przeoczalnych oznaczeń wskazujących na pochodzenie AI. Co gorsza, zbliżające się wybory prezydenckie w USA i wybory europejskie budzą obawy, że podróbki AI mogą zostać wykorzystane do manipulowania opiniami publicznymi.
Sytuacja ta podkreśla pilną potrzebę samoregulacji w branży technologicznej oraz wprowadzenia odpowiednich przepisów regulujących etykietowanie treści AI. Bez zdecydowanych działań, ryzykujemy, że technologia, która ma potencjał służyć dobroci, zostanie wykorzystana do celów manipulacyjnych i dezinformacyjnych.