Jak skutecznie wykrywać oszustwa na bazie głosu? Jak odróżnić głos prawdziwy od fejkowego, czyli np. tego wygenerowanego na bazie AI? Odpowiedź jest prosta. Do tego są potrzebne zaawansowane narzędzia z zakresu biometrii głosowej i szereg analiz. Publikujemy tu dwa przykłady, które jakiś czas temu poddaliśmy analizie w naszym laboratorium i dzięki autorskiemu algorytmowi oceniliśmy z bardzo dużym prawdopodobieństwem czy głos jest prawdziwy lub fałszywy oraz w jakim stopniu jest on spójny z głosem danej osoby.

Analizy dotyczą:

● rozpoznania głosu jednego z rosyjskich pranksterów Prezydenta Dudy udającego Prezydenta Macrona

● oceny zbieżności głosów aktorów Piotra Fronczewskiego i Filipa Pławiaka w filmie Rojst. Panowie grają w produkcji odpowiednio tę samą osobę (Kociołek) w wieku dorosłym oraz w młodości.

Dzielimy się z Wami wnioskami z tych eksperymentów.

Porównanie biometryczne głosów Fronczewskiego i Pławiaka.

Do tego celu użyliśmy 25 sekund łącznych wypowiedzi obu postaci, złożonych z kilku fragmentów ich oryginalnej mowy, na bazie oryginalnej ścieżki filmowej. Jaką uzyskaliśmy zgodność?
Wyniki analizy  pokazały, że głosy biometrycznie aktorów NIE są spójne. Pławiak wypowiedź vs Fronczewski VP  – tylko 15% zgodności, Fronczewski wypowiedź vs Pławiak VP – 11%, ale co ciekawe nie dostrzega się tych różnic na poziomie ucha. W naszym odbiorze głosy Pławiaka i Fronczewskiego są wręcz identyczne. I o to w konsekwencji tutaj chodzi.

Dla obu postaci płeć oraz narodowość zostały rozpoznane z minimalną niepewnością (wynik prawie 100%). Została również wykryta różnica wieku między postaciami, oszacowana  na 20 lat.

Analiza głosów rosyjskich pranksterów Władimira Kuzniecowa (Vovan) i Aleksieja Stoljarowa (Lexus) podszywających się pod Prezydenta Macrona.


W tym przypadku poddaliśmy analizie biometrycznej nagrania z głosami pranksterów i porównaliśmy je z głosem prawdziwego Macrona (w wersji zarówno polskiej jak i angielskiej). Wszystkie próbki głosu w postaci pojedynczych nagrań pobraliśmy z domeny publicznej You Tube. Naszym celem było potwierdzenie skuteczności systemów biometrycznych dla tej konkretnej sytuacji – identyfikację oszustwa.

Okazało się, że głos jednego z pranksterów „Lexusa” jest w niewiele ponad 50% spójny z głosem Prezydenta Francji natomiast aż w 97 % zgodny z głosem fałszywego prezydenta. Głos drugiego – „Vovana” nie wykazał żadnych podobieństw (0%) do fake’owego prezydenta.

 To jednoznacznie dowodzi, że dzięki biometrycznej analizie udało się nam:

● wykryć fakt,  i to zaledwie po upływie 1 minuty,  że w rozmowie brał udział fałszywy prezydent
● zidentyfikować  tożsamość fikcyjnego prezydenta (Lexus)
● potwierdzić, że domena publiczna jest bardzo dobrym źródłem próbek głosu, który może być wykorzystany nie zawsze w szczytnych celach  
● wzmocnić tezę, że najskuteczniejsze ataki to te z wykorzystaniem socjotechnik, a w tym przypadku był nią wybór odpowiedniego czasu, w którym Prezydent miał do czynienia z wzmożonym stresem (upadek rakiety). 

To tylko wybrane przykłady zastosowania specjalistycznych narzędzi biometrycznych do potwierdzania tożsamości osób. Implementowane w przyszłości mogą pomagać w wykrywaniu nadużyć na bazie głosu.

Z końcem roku, na antenie Radia Lublin odbyła się interesująca audycja na temat bezpieczeństwa w sieci. Poruszone w niej zostały między innymi zagadnienia dotyczące tożsamości cyfrowej, prywatności i jej sposobów ochrony a także zjawisko rosnącej w zastraszającym tempie liczby danych w Internecie i wpływu tego zjawiska na rozwój narzędzi, AI oraz życie społeczeństwa. Rozmowa odbyła się w ramach cyklu „XX/XXI – ogród o rozwidlających się ścieżkach”, a uczestnikiem tej inspirującej rozmowy był Andrzej Tymecki, Dyrektor Zarządzający BiometrIQ. Poniżej dzielimy się kilkoma wybranymi stwierdzeniami, które stanowią krótkie podsumowanie tego spotkania.

👉 Ilość danych rośnie niesamowicie szybko. Dla zobrazowania tematu, gdybyśmy nagrali na płyty DVD dane wytwarzane na świecie w ciągu jednego dnia i ułożyli je jedna za drugą, to zajęłyby one 106 tysięcy km, co oznacza, że ich długość wystarczyłaby aby opleść Ziemię ponad 2 razy.

👉 Pojęcie prywatności ciągle ewoluuje ze względu na postęp technologii i pojawiających się nowych możliwości. Nie są już to tylko tradycyjne dane osobowe typu nazwisko, pesel czy adres ale również zdjęcia, cechy biometryczne jak głos, dotyk palca, tęczówka oka. To powoduje, że ochrona prywatności staje się coraz trudniejsza.

👉Na dzień dzisiejszy bardzo łatwo dokonać kradzieży tożsamości ze względu na postęp technologii i rozwój AI. Ochrona przed utratą prywatności i kradzieżą tożsamości wymusza ostrożność w publikacji jakichkolwiek treści w Internecie.

👉Prawo do bycia zapomnianym, wprowadzone do Ustawy RODO w 2014 r., daje możliwość usunięcia naszych danych z bazy.

👉Stosowanie zaawansowanych metod zabezpieczających nagrania np. za pomocą znaków wodnych. może nie wystarczyć aby ustrzec się przed kradzieżą tożsamości. Potrzebna jest dobra wola osób znajdujących się po drugiej stronie (zarządzający platformami), którzy będą weryfikowali nagrania pod kątem ich prawdziwości.

👉Procedury są bardzo istotną kwestią w zapewnieniu bezpieczeństwa. Procedur nie można zastąpić technologią. To Technologia ma wspierać i ułatwiać ich wykonanie.


👉 Kluczową rolę pod względem bezpieczeństwa odgrywają centra danych, których w Polsce jest aż 144. Potęgą w tym zakresie jest niewątpliwie USA, które posiada ok 5300 obiektów.

o samej audycji, jak również o całym cyklu przeczytacie tutaj

Płatności za pomocą głosu? Dlaczego nie! Blisko 50% Polaków chciałaby korzystać z innowacyjnych metod płatności na bazie biometrii. Autoryzowanie wydatków za pomocą głosu wskazało 7% Polaków, za pomocą twarzy 8% a tęczówki oka 9%. Najpopularniejsze okazały się płatności za pomocą palca i dłoni ze wskazaniem 20 % grupy respondentów.

Tak wynika z raportu „Płreferencje płatnicze Polaków 2024” przeprowadzonego w tym roku (2024) przez PolCard from Fiserv. Więcej o tym badaniu przeczytacie tutaj

Według nas stosowanie autoryzacji biometrycznej będzie z roku na rok rosnąć, głównie z uwagi na jej wysoką skuteczność. Biometryczne zabezpieczenia po prostu są bezpieczniejsze niż tradycyjne takie jak hasła czy pin i o wiele trudniej je obejść. Głównymi czynnikami determinującymi rozwój technologii biometrycznych będzie:


👉 bezpieczeństwo
👉 ochrona prywatności
👉 zaufanie do technologii oraz
👉 koszty implementacji

A Wy z jakiej metody skorzystalibyście najchętniej?

Zastanawialiście/ łyście się kiedykolwiek czy głos jest częścią wizerunku?
Jeśli przyjmiemy, że na wizerunek składają się cechy fizyczne, po których można rozpoznać osobę ( jak podaje Wikipedia czy słownik PWN ) to głos jest niewątpliwie istotnym elementem takiej identyfikacji.

Według nas głos jest nie tylko elementem wizerunku ale unikalną cechą biometryczną potwierdzającą tożsamość.


Co przemawia za tym faktem?
Każda osoba ma unikalny głos, składający się z wielu odrębnych elementów. Mimo, że może być on podobny do głosu innej osoby, to w swojej charakterystyce będzie miał cechy mówiące o jego unikalności. Pozwala on na skuteczną identyfikację mówcy nie tylko dzięki rozpoznawalności barwy ale również ocenie biometrycznej. Stosując zaawansowane algorytmy biometrii, jesteśmy w stanie z bardzo wysokim, ponad 90 procentowym prawdopodobieństwem określić czy głos należy do danej osoby i czy nie jest fałszywy (wygenerowany przez AI).

Język biometrii jest nieznany większości, mimo że technologia staje się wszechobecna.

Osoby korzystające z danych biometrycznych niekoniecznie wiedzą, że są to „dane biometryczne”. 

Zespół niemieckich naukowców z Uniwersytetu Bundeswehry w Monachium i Uniwersytetu Duisburg-Essen przeprowadził ankietę internetową obejmującą ogólne zrozumienie przez uczestników biometrii fizjologicznej i behawioralnej oraz ich postrzeganą użyteczność i bezpieczeństwo. Kluczowe pytania badawcze dotyczyły umiejętności czytania i pisania, percepcji i wykorzystania oraz użyteczności i bezpieczeństwa.

Czy ludzie wiedzą, czym są dane biometryczne?

Jaką wartość widzą w ich używaniu?

Co sprawia, że ​​systemy wydają się użyteczne i bezpieczne?

Wyniki pokazują, że chociaż większość uczestników była w stanie wymienić przykłady i twierdziła, że ​​korzysta z technologii biometrycznych w życiu codziennym, miała trudności z definicjami i opisem danych biometrycznych. Tylko około 1/3 uczestników podała konkretne przykłady wykorzystania danych biometrycznych, takich jak odciski palców, rozpoznawanie twarzy, dowody osobiste i podpisy.

Badacze upatrują sens w dalszym prowadzeniu badań nad postrzeganiem i rozumieniem danych biometrycznych przez użytkowników oraz projektowaniu interfejsów biometrycznych, które mogą zwiększyć wiedzę w zakresie metod biometrycznych i zapewnić większą kontrolę nad nimi.

więcej https://www.biometricupdate.com/202410/language-of-biometrics-is-unfamiliar-to-most-even-as-tech-becomes-ubiquitous

Dzisiaj świętujemy 5 lat ! To ważne dla nas 5 lat doświadczeń na polu biometrii głosowej, które zaowocowały stworzeniem nowej jakości rozwiązań biometrycznych: nowatorskiego narzędzia do uwierzytelniania VoiceToken, który obecnie objęty jest procedurą patentową EU oraz pracą nad komunikatorem głosowym o unikalnych własnościach funkcjonalnych podnoszących bezpieczeństwo i komfort użytkowania, również osób z niepełnosprawnościami.

Ponieważ ważne jest dla nas dostarczanie rozwiązań o wysokim stopniu bezpieczeństwa ciągle poszukujemy nowych możliwości współpracy wśród najlepszych zespołów na świecie. W 2022 r. podpisaliśmy umowę na wdrażanie nowoczesnych rozwiązań biometrycznych z ID R&D z USA., przez co uzyskaliśmy dostęp do biometrycznego know-how liczącego się na rynku giganta.

Doceniamy coroczne finansowanie z instytucji badawczych PARP i NCBiR które jest dowodem na to jak nowatorskie i perspektywiczne są nasze projekty. Jest to blisko 15 milionów złotych otrzymanych w ciągu tych 5 lat.

Wielkie DZĘKUJĘ❤️ kierujemy w tym dniu do naszych partnerów, klientów i całego zespołu BiometrIQ za zaufanie, współpracę i serce zostawione przy realizowanych projektach.


To dzięki Wam rozwijamy się, kreując nową, bezpieczną rzeczywistość.

Pomysły na wykorzystanie najnowszych technologii mogą zaskakiwać. Na rynku pojawiły się deadboty (znane też jako griefbots lub postmortem avatars) czyli repliki osób zmarłych komunikujące się z bliskimi w rodzimym języku i własnym głosem. Są to  aplikacje czy programy komputerowe zbudowane w oparciu o dane pozyskane z Internetu, które mają stworzyć iluzję zmarłego i zapewnić wsparcie emocjonalne po starcie bliskich osób.

I choć cel wydaje się słuszny to naukowcy z Uniwersytetu w Cambridge zwracają uwagę na ilość zagrożeń związanych z tą technologią. Na podstawie przeanalizowanych 3 scenariuszy ( sprzedaż produktów z wykorzystaniem wizerunku zmarłego,, awatar rodzic dla dziecka, zakup długoletniej subskrypcji deadbota dla bliskich ) jako główne wymieniają: 

● możliwość manipulacji i wpływania na osoby w żałobie

● wykorzystanie wizerunku osób po śmierci bez ich uprzedniej zgody  (konieczność regulowania tego aspektu poprzez pozyskanie zgód na wykorzystanie, również w zakresie głosu)

● monetyzację doświadczenia żałoby i chęć obchodzenia regulacji dla celów sprzedaży przez firmy produkujące deadboty

● niekorzystny wpływ technologii na niektóre grupy społeczne, głównie dzieci (wskazanie wprowadzenia ograniczenia wiekowego do korzystania z tego rodzaju rozwiązań)

Jak podaje Newseria  naukowcy nie odrzucają całkowicie takiego rozwiązania. Jako korzyści wskazują:

● edukację społeczeństwa, deadbot jako międzypokoleniowa wymiana historii i doświadczeń (np. ocalali z Holokaustu opowiadają o swoich przeżyciach)

● źródło utrzymania rodzin po śmierci znanych twórców czy dziennikarzy

Deadboty to kolejny przykład wskazujący na konieczność wdrożenia regulacji prawnych dla usług tworzonych na bazie AI. To pozwoliłoby uniknąć naruszeń wykorzystujących wizerunek i głos po ich śmierci.

A Wy jakie macie zdanie na temat deadbotów? Przekonuje Was ten rodzaj usług? 

Więcej w materiale https://biznes.newseria.pl/news/deadboty-moga-byc,p262956223

Dowiedz się więcej: Deadboty, więcej zagrożeń czy korzyści?

Incydent ze Scarlett Johansson potwierdza fakt, że kwestia regulacji prawnych oraz skutecznych narzędzi jest obecnie najwyższym priorytetem w kontekście zapobiegania deepfakom, czyli atakom na bazie głosu. Wykorzystywanie bezprawne głosu znanych osób do promocji lub też ich dyskredytacji jest nagminne i stanowi nie lada wyzwanie w świecie social mediów.

Spór jaki toczy Johansson z Open AI, który użyl rzekomo jej głosu z filmu „Her ” do stworzenia asystenta Czata GPT  jest tutaj idealnym przykładem pokazującym jak w łatwy sposób da się wykorzystać głos i jak trudno udowodnić, że głos należy do danej a nie innej osoby.

Krótko mówiąc Open AI pomimo braku zgody Johansson na udzielenie licencji na jej głos do uworzenia asystenta głosowego czata GPT przedstawił swój produkt wykorzystujący głos o nazwie „Sky” łudząco do niego podobny.
Brak zabezpieczeń  prawnych w tym zakresie niestety nie działa na korzyść aktorki. Natomiast wyraźnie zwraca uwagę na konieczność ochrony pracy twórczej artystów do zasilania narzędzi sztucznej inteligencji.

O sprawie wykorzystania głosu S. Johansson przeczytacie w oryginalnym artykule

https://www.npr.org/2024/05/20/1252495087/openai-pulls-ai-voice-that-was-compared-to-scarlett-johansson-in-the-movie-her

Mówimy o tym nie bez powodu. Jeśli chodzi o narzędzia chroniące przed deepfakami BiometrIQ jako firma badawcza specjalizuje się w tworzeniu algorytmów pomagających w wyrywaniu oszustw, poprzez analizę porównawczą głosu prawdziwego z wygenerowanym przez AI. Za pomocą autorskich narzędzi możemy ocenić z bardzo wysoką pewnością czy głos został podrobiony czy nie. Zastosowanie algorytmu opartego na biometrii jest z pewnością najskuteczniejszym sposobem na walkę z deepfakami w Internecie.

Dysponujemy też algorytmem, który pomaga już na etapie tworzenia nagrań, znakować je tak, aby nie można było ich skutecznie użyć do dalszej konwersji czy syntezy głosu. Takie narzędzie, na pewno pomogłoby w zmniejszeniu przypadków kradzieży głosu.

Dowiedz się więcej: Regulacje prawne mogą zapobiec deepfakom. Case Scarlett Johansson

To się już dzieje. Szacowanie wieku za pomocą biometrii w punktach dla artykułów o ograniczonej sprzedaży w Wielkiej Brytanii. Czy byłaby przestrzeń na pojawienie się takiego rozwiązania w Polsce?

Innovative Technology (ITL) potwierdziła partnerstwo władz głównych z Buckinghamshire & Surrey Trading Standards w zakresie korzystania z ich technologii biometrycznego szacowania wieku przez sprzedawców detalicznych sprzedających towary z ograniczeniami wiekowymi. 

Produkty ITL do biometrycznego szacowania wieku, MyCheckr i MyCheckr Mini, anonimowo szacują wiek w punkcie sprzedaży uniemożliwiając w ten sposób nieletnim dostęp do alkoholu i papierosów.

https://www.biometricupdate.com/202402/global-demand-for-age-estimation-verification-drives-deals-for-itl-new-entrants
Dowiedz się więcej: Weryfikacja wieku za pomocą biometrii dla artykułów o ograniczonej sprzedaży

Czy to zjawisko jest w jakiś sposób uregulowane prawnie? A jeśli tak, to czy regulacje te są wystarczające by chronić autora? Bo przecież głos jest nie tylko elementem wizerunku, ale unikalną cechą biometryczną, służącą identyfikacji. Dlatego też powinien być chroniony podobnie jak dane osobowe.

Postęp w rozwoju sztucznej inteligencji sprawia, że oszustwa na bazie głosu (podszywanie się pod inne osoby) stają się coraz powszechniejsze i są przedmiotem wyłudzeń finansowych, ataków politycznych, kradzieży danych lub też nieuczciwej promocji. Pamiętacie podrobiony głos Prezydenta USA Joe Bidena wykorzystany w automatycznych połączeniach telefonicznych zniechęcających do udziału w prawyborach, albo użycie fakowego głosu Taylor Swift w reklamie, wyłudzającej dane pod przykrywką rozdawania garnków? To są przykłady jak szybko  i skutecznie można wykorzystać technologie w nieuczciwym celu. Niestety skala tego typu nadużyc będzie tylko rosła.

Coraz częściej motyw wykorzystania głosu pojawia się też w produkcjach filmowych. Mowa o kultowym Top Gun Maverick, gdzie zsyntezowano głos Val Kilmera. Podobnie dzieje się w najnowszym sezonie polskiego serialu Rojst, w którym Filip Pławiak (młody Kociołek) mówi głosem  Piotra Fronczewskiego (Kociołek). Efekt konwersji głosu, czyli zabieg, z którym mamy tu do czynienia nie jest już żadnym wyzwaniem w dobie inwazji AI. O ile aspekt ten został z pewnością uregulowany na potrzeby produkcji Rojst, pojawia się pytanie o wykorzystywanie w filmach syntezowanego głosu aktorów po ich śmierci. W obszarze syntezy głosu interesujące jest również aspekt podejścia producentów do wskaźników spójności biometrycznej.

Dysponując odpowiednimi narzędziami pokusiliśmy się o porównanie biometryczne głosów Fronczewskiego i Pławiaka. Wyniki analizy  pokazują, że ich głosy biometrycznie NIE są spójne (Pławiak wypowiedź vs Fronczewski VP  – tylko 15% zgodności, Fronczewski wypowiedź vs Pławiak VP – 11%), ale co ciekawe nie dostrzega się tych różnic na poziomie ucha. W naszym odbiorze głosy Pławiaka i Fronczewskiego są wręcz identyczne. I o to w konsekwencji tutaj chodzi.

Dla obu postaci płeć oraz narodowość zostały rozpoznane z minimalną niepewnością (wynik prawie 100%). Została również wykryta różnica wieku między postaciami, oszacowana  na 20 lat.
Badanie przeprowadzono w naszym laboratorium cyfrowego przetwarzania sygnałów, do tego celu użyliśmy 25 sekund łącznych wypowiedzi obu postaci, złożonych z kilku fragmentów ich oryginalnej mowy, na bazie oryginalnej ścieżki filmowej.

Wnioski płynące z tego eksperymentu wskazują na fakt jak pomocna i skuteczna może być biometria w identyfikowaniu osoby mówiącej, oceny prawdziwości jej głosu a w konsekwencji wykrywaniu nadużyć na  bazie głosu. Czy to wystarczy by w przyszłości ograniczyć wykorzystywanie w nieuczciwy sposób głosu znanych osób? I co najważniejsze, czy jesteśmy w stanie uregulować rynek tak, aby zadbać o głos znanych osób po ich śmierci?