Czy wiecie czym jest watermarking w biometrii głosowej? To metoda cyfrowego znakowania audio. Polega ona na osadzaniu w pliku dźwiękowym niesłyszalnego na poziomie ucha znacznika tzw. identyfikatora. Celem jest ochrona nagrania przed jego nieautoryzowanym użyciem jak również weryfikacja jego autentyczności.

Watermarking to narzędzie podnoszące w znacznej mierze bezpieczeństwo systemów biometrii głosowej, głównie przez uniemożliwianie ataków na bazie głosu tzw. deepfake’ów.

W jednym ze swoich projektów badawczych opracowaliśmy na bazie tej właśnie metody autorską, unikalną technikę, zabezpieczającą nagrania audio przed ich nielegalnym wykorzystaniem do syntezy lub konwersji głosu. Metoda jak na razie jest wykorzystywana do dalszych celów badawczych.

Dobiega końca 2. etap projektu Vesper, komunikatora głosowego opartego na biometrii. W ramach tego etapu pracowaliśmy nad stworzeniem technologii augmentacji strumieni audio. Czym jest taka augmentacja pisaliśmy tutaj https://biometriq.pl/augmentacja-strumienia-glosowego-co-to-takiego/

Nasz autorski silnik augmentacji strumienia głosowego jest obecnie w fazie testów percepcyjnych (odsłuchowych) i testu ślepej próby. Ich celem jest obiektywna ocena dla potwierdzenia prawidłowego działania silnika zgodnego z założonymi parametrami jakościowymi. Uzupełniając, wbudowana technologia augmentacji strumienia głosowego w komunikatorze głosowym ma wspomagać wykrywanie nieuprawnionego wykorzystania głosu do dalszej syntezy/ konwersji nie powodując przy tym degradacji dźwięku z poziomu ucha ludzkiego. Wszystko po to, aby zapobiec kradzieży głosu i zapewnić najskuteczniejsze działanie usługi.

Warto wspomnieć, że dotychczasowe rozwiązania na rynku takie jak SKYPE, ZOOM, DISCORD, Google Meet, TEAMS, WhatsApp, Signal, Threema, Viber czy Telegra nie posiadają zintegrowanej biometrycznej autentykacji rozmówcy.
Jesteśmy pod tym kątem pionierami.

Ukończenie kompleksowe projektu zaplanowane jest na wrzesień 2026.

W 1. etapie projektu głownie testowaliśmy algorytm prawdziwości źródła strumienia głosowego dalekiego końca, o czym informowaliśmy Was tutaj https://biometriq.pl/uruchomilismy-wersja-testowa-komunikatora-z-modulem-detekcji-prawdziwosci-zrodla-strumienia-glosowego-etap1-projektu/


Więcej o projekcie przeczytacie na stronie https://biometriq.pl/vesper-bezpieczna-platforma-komunikacji-glosowej-z-integracja-uslug-biometrycznych/


Projekt finansowany ze środków UE.

Jesteście ciekawi/e końcowego rozwiązania?

Okazuje się, że deepfake audio może być groźniejszy niż wideo! Wg raportu Pindrop w ciągu dwóch lat 2023-2024 nastąpił wzrost liczby tego rodzaju deepfake’ów (audio) aż o 760 %.


W dobie nasilających się ataków samoświadomość wydaje się być tutaj kluczową barierą ochronną człowieka przed tego typu zagrożeniami. Chodzi o:

●  ograniczone zaufanie do asystentów głosowych,
● znajomość socjotechnik stosowanych przez oszustów,
● kontrolę nad treściami publikowanymi przez siebie w necie.

W rozwiązaniach systemowych oczywistym jest stosowanie zaawansowanych technologii biometrycznych i metodologii do wykrywania deepfake’ków w czasie rzeczywistym.

Na przykład Pindrop jako jedną z możliwości wykorzystuje technikę zwaną akustycznym odciskiem palca. Polega ona na utworzeniu cyfrowego podpisu dla każdego głosu w oparciu o jego właściwości akustyczne, takie jak wysokość, ton i kadencja. Podpisy te są następnie wykorzystywane do porównywania i dopasowywania głosów w różnych połączeniach i interakcjach. Większą dawkę wiedzy o deepfake’ach znajdziecie w podkaście z udziałem Vijay Balasubramaniyan,CEO Pindrop. Link poniżej
https://www.biometricupdate.com/202504/biometric-update-podcast-digs-into-deepfakes-with-pindrop-ceo

Dla przypomnienia Pindrop to firma z siedzibą w Atlancie, USA. Rozwiązania tej firmy wyznaczają drogę ku przyszłości komunikacji głosowej, ustanawiając standardy tożsamości, bezpieczeństwa i zaufania w przypadku każdej interakcji głosowej. Więcej na pindrop.com

Dobiega końca 1 etap projektu Vesper. Uruchomiliśmy wersją testową komunikatora z zaimplementowanym modułem detekcji prawdziwości źródła strumienia głosowego dalekiego końca. Testy są prowadzone na 3 różnych środowiskach Win, Android oraz iOS. Otrzymane wyniki są zgodne z KPI projektu. Pracujemy aby wskaźniki jakościowe spełniały nie tylko min. projektowe, ale o ile to możliwe przewyższały założone cele. Naszym priorytetem jest przygotowanie produktu, odpowiadającego potrzebom użytkowników w celu budowania ich pozytywnych doświadczeń.

Eksperymenty prowadzimy na bazie 40 mówców, dla 20 sekundowych nagrań, testując każde nagranie dla 5 kanałów, otrzymując ponad 171 500 embedingów. Przygotowana w ten sposób liczba konfiguracji nagrań ma pomóc osiągnąć docelowe parametry czym potwierdzimy skuteczność naszego komunikatora.

Komunikator Vesper ma być odpowiedzią na nasilające się problemy związane z cyberbezpieczeństwem i kradzieżą tożsamości.

Więcej o projekcie https://biometriq.pl/vesper-bezpieczna-platforma-komunikacji-glosowej-z-integracja-uslug-biometrycznych/

Jak skutecznie wykrywać oszustwa na bazie głosu? Jak odróżnić głos prawdziwy od fejkowego, czyli np. tego wygenerowanego na bazie AI? Odpowiedź jest prosta. Do tego są potrzebne zaawansowane narzędzia z zakresu biometrii głosowej i szereg analiz. Publikujemy tu dwa przykłady, które jakiś czas temu poddaliśmy analizie w naszym laboratorium i dzięki autorskiemu algorytmowi oceniliśmy z bardzo dużym prawdopodobieństwem czy głos jest prawdziwy lub fałszywy oraz w jakim stopniu jest on spójny z głosem danej osoby.

Analizy dotyczą:

● rozpoznania głosu jednego z rosyjskich pranksterów Prezydenta Dudy udającego Prezydenta Macrona

● oceny zbieżności głosów aktorów Piotra Fronczewskiego i Filipa Pławiaka w filmie Rojst. Panowie grają w produkcji odpowiednio tę samą osobę (Kociołek) w wieku dorosłym oraz w młodości.

Dzielimy się z Wami wnioskami z tych eksperymentów.

Porównanie biometryczne głosów Fronczewskiego i Pławiaka.

Do tego celu użyliśmy 25 sekund łącznych wypowiedzi obu postaci, złożonych z kilku fragmentów ich oryginalnej mowy, na bazie oryginalnej ścieżki filmowej. Jaką uzyskaliśmy zgodność?
Wyniki analizy  pokazały, że głosy biometrycznie aktorów NIE są spójne. Pławiak wypowiedź vs Fronczewski VP  – tylko 15% zgodności, Fronczewski wypowiedź vs Pławiak VP – 11%, ale co ciekawe nie dostrzega się tych różnic na poziomie ucha. W naszym odbiorze głosy Pławiaka i Fronczewskiego są wręcz identyczne. I o to w konsekwencji tutaj chodzi.

Dla obu postaci płeć oraz narodowość zostały rozpoznane z minimalną niepewnością (wynik prawie 100%). Została również wykryta różnica wieku między postaciami, oszacowana  na 20 lat.

Analiza głosów rosyjskich pranksterów Władimira Kuzniecowa (Vovan) i Aleksieja Stoljarowa (Lexus) podszywających się pod Prezydenta Macrona.


W tym przypadku poddaliśmy analizie biometrycznej nagrania z głosami pranksterów i porównaliśmy je z głosem prawdziwego Macrona (w wersji zarówno polskiej jak i angielskiej). Wszystkie próbki głosu w postaci pojedynczych nagrań pobraliśmy z domeny publicznej You Tube. Naszym celem było potwierdzenie skuteczności systemów biometrycznych dla tej konkretnej sytuacji – identyfikację oszustwa.

Okazało się, że głos jednego z pranksterów „Lexusa” jest w niewiele ponad 50% spójny z głosem Prezydenta Francji natomiast aż w 97 % zgodny z głosem fałszywego prezydenta. Głos drugiego – „Vovana” nie wykazał żadnych podobieństw (0%) do fake’owego prezydenta.

 To jednoznacznie dowodzi, że dzięki biometrycznej analizie udało się nam:

● wykryć fakt,  i to zaledwie po upływie 1 minuty,  że w rozmowie brał udział fałszywy prezydent
● zidentyfikować  tożsamość fikcyjnego prezydenta (Lexus)
● potwierdzić, że domena publiczna jest bardzo dobrym źródłem próbek głosu, który może być wykorzystany nie zawsze w szczytnych celach  
● wzmocnić tezę, że najskuteczniejsze ataki to te z wykorzystaniem socjotechnik, a w tym przypadku był nią wybór odpowiedniego czasu, w którym Prezydent miał do czynienia z wzmożonym stresem (upadek rakiety). 

To tylko wybrane przykłady zastosowania specjalistycznych narzędzi biometrycznych do potwierdzania tożsamości osób. Implementowane w przyszłości mogą pomagać w wykrywaniu nadużyć na bazie głosu.

Zarejestrowano aż 230 milionów skradzionych tradycyjnych haseł mimo spełnionych standardowych wymagań dotyczących ich złożoności (min. 8 znaków, 1 wielka litera, 1 cyfra, i znak specjalny), podaje Specops Breached Password Report z 2025 r. To oznacza, że poziom tradycyjnych zabezpieczeń jest niewystarczający i potrzeba skuteczniejszych narzędzi do ochrony. Czy hasło biometryczne może okazać się bezpieczniejszym hasłem? Jak najbardziej tak!

Biometria jest bowiem jednym z bezpieczniejszych sposobów logowania gdyż bazuje na cechach biometrycznych osób takich jak twarz, źrenica oka czy głos. Identyfikatory biometryczne są unikalne dla danej osoby i stanowią wyróżnik na tle innych.

Wyższość biometrii polega wiec na jej niezrównanej dokładności i wygodzie. W przeciwieństwie do tradycyjnych metod, takich jak hasła czy PIN-y, które można łatwo zapomnieć lub ukraść, identyfikatory biometryczne są nierozerwalnie związane z człowiekiem. To nieodłączne powiązanie między osobami i ich cechami biometrycznymi znacznie utrudnia nieupoważnionym osobom podszywanie się pod inną osobę.


Przykładem bezpiecznego logowania z użyciem biometrii może być VoiceToken od BiometrIQ, czyli narzędzie do uwierzytelniania za pomocą głosu, które zapewnia bardzo silną, dwustopniową autentykację. Przypominamy jak ona się odbywa.


Podczas wypowiadania słów weryfikowane są jednocześnie zgodność odczytanych słów (pierwszy stopień) z wzorcem jak również biometryczna zgodność głosu mówcy z jego VoicePrintem (drugi stopień).
Niezmiernie wysokie bezpieczeństwo zapewnia algorytm wyboru słów do odczytania ograniczający niemalże do zera możliwość odgadnięcia sekwencji słów, która wyświetli się na ekranie. Mechanizm Speech To Text (STT) w połączeniu z innowacyjnym silnikiem biometrycznym gwarantują wysoką skuteczność, nawet w przypadku ataków na bazie syntezy mowy. Więcej o VoiceToken

Jesteście gotowi na zmiany?


Nowy Rok rozpoczynamy od ciekawostki dla fanów piłki nożnej i innych wydarzeń na żywo. Typowy, tradycyjny bilet już wkrótce może zastąpić biometryczna weryfikacja tożsamości. Z badań wynika, że taki plan ma blisko 50% obiektów sportowych.

Bezbiletowy system Go-Ahead Entry” MLB z weryfikacją biometryczną, może skrócić czas oczekiwania wejścia na obiekt prawie o 70%.

Dlatego uwierzytelnianie biometryczne podczas wydarzeń sportowych może stać się hitem. Wyzwaniem, jak zawsze przy dużych przedsięwzięciach, jest aspekt finansowy związany z kosztami wdrożenia systemów oraz inwestycjami w specjalistyczny sprzęt, szkolenia i integrację narzędzi. To właśnie ten aspekt, jak wynika z raportu PYMNTS, może decydować o wdrożeniu rozwiązań biometrycznych przez mniejsze obiekty.

Go-Ahead Entry to opatentowany przez MLB system dostępu bez biletów, wykorzystujący dane biometryczne dostarczane przez NEC. Statystyki pochodzą z pilotażu przeprowadzonego w 2023 r. w Citizens Bank Ballpark w Filadelfii, który wykazał, że linie biometryczne poruszają się o 68% szybciej i umożliwiają przejście 2,5 razy większej liczbie osób niż najszybszy pas przy użyciu biletów fizycznych czy na smartfonach.

Jesteśmy ciekawi jak ta sytuacja się rozwinie. A według Was to dobry pomysł?

Więcej w artykule


Z końcem roku, na antenie Radia Lublin odbyła się interesująca audycja na temat bezpieczeństwa w sieci. Poruszone w niej zostały między innymi zagadnienia dotyczące tożsamości cyfrowej, prywatności i jej sposobów ochrony a także zjawisko rosnącej w zastraszającym tempie liczby danych w Internecie i wpływu tego zjawiska na rozwój narzędzi, AI oraz życie społeczeństwa. Rozmowa odbyła się w ramach cyklu „XX/XXI – ogród o rozwidlających się ścieżkach”, a uczestnikiem tej inspirującej rozmowy był Andrzej Tymecki, Dyrektor Zarządzający BiometrIQ. Poniżej dzielimy się kilkoma wybranymi stwierdzeniami, które stanowią krótkie podsumowanie tego spotkania.

👉 Ilość danych rośnie niesamowicie szybko. Dla zobrazowania tematu, gdybyśmy nagrali na płyty DVD dane wytwarzane na świecie w ciągu jednego dnia i ułożyli je jedna za drugą, to zajęłyby one 106 tysięcy km, co oznacza, że ich długość wystarczyłaby aby opleść Ziemię ponad 2 razy.

👉 Pojęcie prywatności ciągle ewoluuje ze względu na postęp technologii i pojawiających się nowych możliwości. Nie są już to tylko tradycyjne dane osobowe typu nazwisko, pesel czy adres ale również zdjęcia, cechy biometryczne jak głos, dotyk palca, tęczówka oka. To powoduje, że ochrona prywatności staje się coraz trudniejsza.

👉Na dzień dzisiejszy bardzo łatwo dokonać kradzieży tożsamości ze względu na postęp technologii i rozwój AI. Ochrona przed utratą prywatności i kradzieżą tożsamości wymusza ostrożność w publikacji jakichkolwiek treści w Internecie.

👉Prawo do bycia zapomnianym, wprowadzone do Ustawy RODO w 2014 r., daje możliwość usunięcia naszych danych z bazy.

👉Stosowanie zaawansowanych metod zabezpieczających nagrania np. za pomocą znaków wodnych. może nie wystarczyć aby ustrzec się przed kradzieżą tożsamości. Potrzebna jest dobra wola osób znajdujących się po drugiej stronie (zarządzający platformami), którzy będą weryfikowali nagrania pod kątem ich prawdziwości.

👉Procedury są bardzo istotną kwestią w zapewnieniu bezpieczeństwa. Procedur nie można zastąpić technologią. To Technologia ma wspierać i ułatwiać ich wykonanie.


👉 Kluczową rolę pod względem bezpieczeństwa odgrywają centra danych, których w Polsce jest aż 144. Potęgą w tym zakresie jest niewątpliwie USA, które posiada ok 5300 obiektów.

o samej audycji, jak również o całym cyklu przeczytacie tutaj

Od  kilku dni nie milkną echa głośnego pranku na Prezydencie Dudzie, który zamiast z Prezydentem Macronem prowadził rozmowę z rosyjskimi pranksterami – Władimirem Kuzniecowem (Vovan) i Aleksiejem Stoljarowem (Lexus). 

W ramach naszej bieżącej aktywności badawczo-rozwojowej poddaliśmy analizie biometrycznej nagrania z głosami pranksterów i porównaliśmy je z głosem prawdziwego Macrona (w wersji polskiej i angielskiej). Wszystkie próbki głosu w postaci pojedynczych nagrań pobraliśmy z domeny publicznej You Tube. Naszym celem było potwierdzenie skuteczności systemów biometrycznych dla tej konkretnej sytuacji – identyfikację oszustwa.

Co pokazała analiza #Biometriq? Okazało się, że głos jednego z pranksterów „Lexusa” jest w niewiele ponad 50% spójny z głosem Prezydenta Francji natomiast aż w 97 % zgodny z głosem fałszywego prezydenta. Głos drugiego – „Vovana” nie wykazał żadnych podobieństw (0%) do fake’owego prezydenta.

 To jednoznacznie dowodzi, że dzięki biometrycznej analizie udało się nam:

=> wykryć fakt,  i to zaledwie po upływie 1 minuty,  że w rozmowie brał udział fałszywy prezydent

=> zidentyfikować  tożsamość fikcyjnego prezydenta (Lexus)

=> potwierdzić, że domena publiczna jest bardzo dobrym źródłem próbek głosu, który może być wykorzystany nie zawsze w szczytnych celach  

=> wzmocnić tezę, że najskuteczniejsze są ataki z wykorzystaniem socjotechnik, a w tym przypadku był nią wybór odpowiedniego czasu, w którym mamy do czynienia ze wzmożonym stresem (upadek rakiety). 


Kulisy rozmowy oraz sylwetki pranksterów ciekawie opisuje Dziennik Gazeta Prawna 
https://www.gazetaprawna.pl/magazyn-na-weekend/artykuly/8595558,duda-macron-rozmowa-rosyjscy-pranksterzy-wowan-lexus.html