Polska ostrożność wystawiona na próbę. Meta AI analizuje nasze posty
Według najnowszych informacji przekazanych przez serwis Mashable, Meta, planuje rozszerzenie zakresu korzystania ze sztucznej inteligencji w procesie sprawdzania treści i zarządzania ryzykiem.

Dotychczas Facebook opierał się na pracownikach sprawdzających potencjalne ryzyka związane z nowymi technologiami, bezpieczeństwem użytkowników oraz ochroną danych osobowych. Niedługo większość takich zadań przejmie sztuczna inteligencja.
Meta wprowadza AI
Polityka Meta, dotycząca wykorzystania AI, mówiła do tej pory, że algorytmy sztucznej inteligencji mogą zostać użyte jedynie do zadań o niskim ryzyku. Teraz wprowadzenie ich na tak szeroką skalę ewidentnie zmienia te zasady u właściciela Facebooka.



Wprowadzenie AI do tych procesów ma przyspieszyć ich działanie oraz umożliwić szybszy rozwój aplikacji. Jak ostrzegają eksperci, wiąże się to jednak ze zwiększonym ryzykiem dla miliardów użytkowników serwisu, łącznie z zagrożeniem dla ich danych osobowych i ochrony prywatności.
Już w kwietniu Meta wprowadziła szereg kontrowersyjnych zmian w swojej polityce, niosących ryzyko dla bezpieczeństwa użytkowników. Teraz wprowadzenie AI na tak dużą skalę tylko potwierdza plany firmy.
Podczas wprowadzania tych zmian zarząd będzie zwracał uwagę na ich potencjalnie negatywny wpływ na użytkowników. Łącznie z monitorowaniem i redukowaniem wpływu automatycznych procesów na łamanie praw człowieka lub naruszanie prywatności użytkowników, zwłaszcza w regionach gdzie występują obecnie kryzysy polityczne lub gospodarcze.
To nie jedyna zmiana, mająca zaoszczędzić zasoby Meta, wprowadzona w ostatnim czasie. W zeszłym miesiącu firma ogłosiła rezygnację ze sprawdzania wpisów przez pracowników, zastępując ten proces moderacją użytkowników, czyli tak zwanym "Community Notes", wspartą także przez algorytmy AI.