Eksperci prognozują, że do 2025 r. 90% treści w Internecie będzie generowanych przez sztuczną inteligencję , co oznacza, że
=> coraz trudniej będzie odróżnić treści prawdziwe od syntetycznych
=> wykrywanie deepfaków będzie coraz bardziej skomplikowane i będzie wymagać stosowania coraz to nowszych i dokładniejszych technologii
=> technologie wykrywania będą musiały umożliwiać dokładne przetwarzanie różnych typów danych oraz potrafić rozpoznać sygnatury z konkretnych modeli użytych do produkcji treści deepfake.
=> w wykrywaniu deepfaków kluczową rolę odegrają narzędzia umożliwiające ustalenie pochodzenia i autentyczności zasobów cyfrowych takie jak metadane (C2PA), znak wodny czy odciski palców
=> niezbędna będzie odpowiednia polityka i standardy do odpowiedzialnego wykorzystywania AI ( co już się dzieje – np. wdrożenie w wielu krajach ACT AI)
Więcej o wyzwaniach związanych z deepfake’kami przeczytacie poniżej w raporcie ITU powstałym po warsztatach z udziałem firm technologicznych, organizacji normalizacyjnych i międzynarodowych oraz mediów, które odbyły się w maju b.r.