Dowiedz się więcej: Regulacje prawne mogą zapobiec deepfakom. Case Scarlett JohanssonIncydent ze Scarlett Johansson potwierdza fakt, że kwestia regulacji prawnych oraz skutecznych narzędzi jest obecnie najwyższym priorytetem w kontekście zapobiegania deepfakom, czyli atakom na bazie głosu. Wykorzystywanie bezprawne głosu znanych osób do promocji lub też ich dyskredytacji jest nagminne i stanowi nie lada wyzwanie w świecie social mediów.
Spór jaki toczy Johansson z Open AI, który użyl rzekomo jej głosu z filmu „Her ” do stworzenia asystenta Czata GPT jest tutaj idealnym przykładem pokazującym jak w łatwy sposób da się wykorzystać głos i jak trudno udowodnić, że głos należy do danej a nie innej osoby.
Krótko mówiąc Open AI pomimo braku zgody Johansson na udzielenie licencji na jej głos do uworzenia asystenta głosowego czata GPT przedstawił swój produkt wykorzystujący głos o nazwie „Sky” łudząco do niego podobny.
Brak zabezpieczeń prawnych w tym zakresie niestety nie działa na korzyść aktorki. Natomiast wyraźnie zwraca uwagę na konieczność ochrony pracy twórczej artystów do zasilania narzędzi sztucznej inteligencji.O sprawie wykorzystania głosu S. Johansson przeczytacie w oryginalnym artykule
Mówimy o tym nie bez powodu. Jeśli chodzi o narzędzia chroniące przed deepfakami BiometrIQ jako firma badawcza specjalizuje się w tworzeniu algorytmów pomagających w wyrywaniu oszustw, poprzez analizę porównawczą głosu prawdziwego z wygenerowanym przez AI. Za pomocą autorskich narzędzi możemy ocenić z bardzo wysoką pewnością czy głos został podrobiony czy nie. Zastosowanie algorytmu opartego na biometrii jest z pewnością najskuteczniejszym sposobem na walkę z deepfakami w Internecie.
Dysponujemy też algorytmem, który pomaga już na etapie tworzenia nagrań, znakować je tak, aby nie można było ich skutecznie użyć do dalszej konwersji czy syntezy głosu. Takie narzędzie, na pewno pomogłoby w zmniejszeniu przypadków kradzieży głosu.
Tag: biometrics
Dowiedz się więcej: Weryfikacja wieku za pomocą biometrii dla artykułów o ograniczonej sprzedażyTo się już dzieje. Szacowanie wieku za pomocą biometrii w punktach dla artykułów o ograniczonej sprzedaży w Wielkiej Brytanii. Czy byłaby przestrzeń na pojawienie się takiego rozwiązania w Polsce?
Innovative Technology (ITL) potwierdziła partnerstwo władz głównych z Buckinghamshire & Surrey Trading Standards w zakresie korzystania z ich technologii biometrycznego szacowania wieku przez sprzedawców detalicznych sprzedających towary z ograniczeniami wiekowymi.
Produkty ITL do biometrycznego szacowania wieku, MyCheckr i MyCheckr Mini, anonimowo szacują wiek w punkcie sprzedaży uniemożliwiając w ten sposób nieletnim dostęp do alkoholu i papierosów.
https://www.biometricupdate.com/202402/global-demand-for-age-estimation-verification-drives-deals-for-itl-new-entrants
Czy to zjawisko jest w jakiś sposób uregulowane prawnie? A jeśli tak, to czy regulacje te są wystarczające by chronić autora? Bo przecież głos jest nie tylko elementem wizerunku, ale unikalną cechą biometryczną, służącą identyfikacji. Dlatego też powinien być chroniony podobnie jak dane osobowe.
Postęp w rozwoju sztucznej inteligencji sprawia, że oszustwa na bazie głosu (podszywanie się pod inne osoby) stają się coraz powszechniejsze i są przedmiotem wyłudzeń finansowych, ataków politycznych, kradzieży danych lub też nieuczciwej promocji. Pamiętacie podrobiony głos Prezydenta USA Joe Bidena wykorzystany w automatycznych połączeniach telefonicznych zniechęcających do udziału w prawyborach, albo użycie fakowego głosu Taylor Swift w reklamie, wyłudzającej dane pod przykrywką rozdawania garnków? To są przykłady jak szybko i skutecznie można wykorzystać technologie w nieuczciwym celu. Niestety skala tego typu nadużyc będzie tylko rosła.
Coraz częściej motyw wykorzystania głosu pojawia się też w produkcjach filmowych. Mowa o kultowym Top Gun Maverick, gdzie zsyntezowano głos Val Kilmera. Podobnie dzieje się w najnowszym sezonie polskiego serialu Rojst, w którym Filip Pławiak (młody Kociołek) mówi głosem Piotra Fronczewskiego (Kociołek). Efekt konwersji głosu, czyli zabieg, z którym mamy tu do czynienia nie jest już żadnym wyzwaniem w dobie inwazji AI. O ile aspekt ten został z pewnością uregulowany na potrzeby produkcji Rojst, pojawia się pytanie o wykorzystywanie w filmach syntezowanego głosu aktorów po ich śmierci. W obszarze syntezy głosu interesujące jest również aspekt podejścia producentów do wskaźników spójności biometrycznej.
Dysponując odpowiednimi narzędziami pokusiliśmy się o porównanie biometryczne głosów Fronczewskiego i Pławiaka. Wyniki analizy pokazują, że ich głosy biometrycznie NIE są spójne (Pławiak wypowiedź vs Fronczewski VP – tylko 15% zgodności, Fronczewski wypowiedź vs Pławiak VP – 11%), ale co ciekawe nie dostrzega się tych różnic na poziomie ucha. W naszym odbiorze głosy Pławiaka i Fronczewskiego są wręcz identyczne. I o to w konsekwencji tutaj chodzi.
Dla obu postaci płeć oraz narodowość zostały rozpoznane z minimalną niepewnością (wynik prawie 100%). Została również wykryta różnica wieku między postaciami, oszacowana na 20 lat.
Badanie przeprowadzono w naszym laboratorium cyfrowego przetwarzania sygnałów, do tego celu użyliśmy 25 sekund łącznych wypowiedzi obu postaci, złożonych z kilku fragmentów ich oryginalnej mowy, na bazie oryginalnej ścieżki filmowej.Wnioski płynące z tego eksperymentu wskazują na fakt jak pomocna i skuteczna może być biometria w identyfikowaniu osoby mówiącej, oceny prawdziwości jej głosu a w konsekwencji wykrywaniu nadużyć na bazie głosu. Czy to wystarczy by w przyszłości ograniczyć wykorzystywanie w nieuczciwy sposób głosu znanych osób? I co najważniejsze, czy jesteśmy w stanie uregulować rynek tak, aby zadbać o głos znanych osób po ich śmierci?