Dowiedz się więcej: Regulacje prawne mogą zapobiec deepfakom. Case Scarlett JohanssonIncydent ze Scarlett Johansson potwierdza fakt, że kwestia regulacji prawnych oraz skutecznych narzędzi jest obecnie najwyższym priorytetem w kontekście zapobiegania deepfakom, czyli atakom na bazie głosu. Wykorzystywanie bezprawne głosu znanych osób do promocji lub też ich dyskredytacji jest nagminne i stanowi nie lada wyzwanie w świecie social mediów.
Spór jaki toczy Johansson z Open AI, który użyl rzekomo jej głosu z filmu „Her ” do stworzenia asystenta Czata GPT jest tutaj idealnym przykładem pokazującym jak w łatwy sposób da się wykorzystać głos i jak trudno udowodnić, że głos należy do danej a nie innej osoby.
Krótko mówiąc Open AI pomimo braku zgody Johansson na udzielenie licencji na jej głos do uworzenia asystenta głosowego czata GPT przedstawił swój produkt wykorzystujący głos o nazwie „Sky” łudząco do niego podobny.
Brak zabezpieczeń prawnych w tym zakresie niestety nie działa na korzyść aktorki. Natomiast wyraźnie zwraca uwagę na konieczność ochrony pracy twórczej artystów do zasilania narzędzi sztucznej inteligencji.O sprawie wykorzystania głosu S. Johansson przeczytacie w oryginalnym artykule
Mówimy o tym nie bez powodu. Jeśli chodzi o narzędzia chroniące przed deepfakami BiometrIQ jako firma badawcza specjalizuje się w tworzeniu algorytmów pomagających w wyrywaniu oszustw, poprzez analizę porównawczą głosu prawdziwego z wygenerowanym przez AI. Za pomocą autorskich narzędzi możemy ocenić z bardzo wysoką pewnością czy głos został podrobiony czy nie. Zastosowanie algorytmu opartego na biometrii jest z pewnością najskuteczniejszym sposobem na walkę z deepfakami w Internecie.
Dysponujemy też algorytmem, który pomaga już na etapie tworzenia nagrań, znakować je tak, aby nie można było ich skutecznie użyć do dalszej konwersji czy syntezy głosu. Takie narzędzie, na pewno pomogłoby w zmniejszeniu przypadków kradzieży głosu.