Microsoft stawia kolejne kroki w walce z dezinformacją

Microsoft prezentuje szereg działań mających na celu pomoc w edukacji społeczeństwa na temat problemu "fake newsów". Ogłoszone nowości na polu walki z dezinformacją w sieci są ważną częścią programu Microsoft Defending Democracy Program.

Henryk Tur (HTur)
0
Udostępnij na fb
Udostępnij na X
Microsoft stawia kolejne kroki w walce z dezinformacją

Microsoft prowadzi prace nad dwiema odrębnymi technologiami, aby rozwiązać różne aspekty tego problemu. Głównym celem jest wykrywanie oszustw "deep fake", czyli takich, w których mamy zdjęcia, filmy lub pliki audio manipulowane przez sztuczną inteligencję. Są one łudząco podobne do rzeczywistych - występujące na nich osoby mówią lub robią rzeczy, których nie robili lub są w miejscach, w których faktycznie nie byli. W wykryciu takich podróbek ma pomóc Microsoft Video Authenticator. Jest to aplikacja pozwalająca analizować zdjęcia lub filmy wideo, wskazując procentową szansę sztucznej manipulacji danego materiału. Rozwiązanie może określić wartość procentową manipulacji w czasie rzeczywistym na każdej klatce nagrania podczas odtwarzania klipu wideo. Wykrywa ono granicę mieszania się materiałów deep fake i elementów, które mogą być niewykrywalne dla ludzkiego oka.

Dalsza część tekstu pod wideo
Microsoft stawia kolejne kroki w walce z dezinformacją

Druga technologia, którą zaprezentował Microsoft, ma za zadanie zarówno wykryć manipulowane treści, jak i zapewnić ludzi, że oglądane przez nich media są autentyczne. Składa się ona z dwóch elementów:

  • narzędzia wbudowanego w Microsoft Azure, które umożliwia producentowi treści dodawanie cyfrowych znaków i certyfikatów do treści, które są wykorzystywane jako metadane wszędzie tam, gdzie są dostępne w Internecie;
  • czytnika – może mieć formę rozszerzenia przeglądarki (dostępne jest także w innych formach), który sprawdza certyfikaty i dopasowuje je do cyfrowego znaku, dając użytkownikom sygnał, że zawartość jest autentyczna i nie została zmieniona.

Microsoft w ramach Project Origin nawiązał współpracę z konsorcjum koncernów medialnych (w tym BBC, CBC/Radio-Canada i New York Times), które przetestują one technologię potwierdzania autentyczności i pomogą rozwijać ją jako standard. W rozwój technologii zaangażowała się także Trusted News Initiative, w skład której wchodzi szereg wydawców i firm z branży mediów społecznościowych.