Eksperci prognozują, że do  2025 r. 90% treści w Internecie będzie generowanych przez sztuczną inteligencję , co oznacza, że

=> coraz trudniej będzie odróżnić treści prawdziwe od syntetycznych

=> wykrywanie deepfaków będzie coraz bardziej skomplikowane i będzie wymagać stosowania coraz to nowszych i dokładniejszych technologii 

=> technologie wykrywania będą musiały umożliwiać dokładne przetwarzanie różnych typów danych oraz potrafić rozpoznać sygnatury z konkretnych modeli użytych do produkcji treści deepfake.

=> w wykrywaniu deepfaków kluczową  rolę odegrają narzędzia umożliwiające ustalenie pochodzenia i autentyczności zasobów cyfrowych takie jak metadane (C2PA), znak wodny czy odciski palców

=> niezbędna będzie odpowiednia polityka i standardy do odpowiedzialnego wykorzystywania AI ( co już się dzieje – np. wdrożenie w wielu krajach ACT AI) 

Więcej o wyzwaniach związanych z deepfake’kami przeczytacie poniżej w raporcie ITU powstałym po warsztatach z udziałem firm technologicznych, organizacji normalizacyjnych i międzynarodowych oraz mediów, które odbyły się  w maju b.r.