Z końcem roku, na antenie Radia Lublin odbyła się interesująca audycja na temat bezpieczeństwa w sieci. Poruszone w niej zostały między innymi zagadnienia dotyczące tożsamości cyfrowej, prywatności i jej sposobów ochrony a także zjawisko rosnącej w zastraszającym tempie liczby danych w Internecie i wpływu tego zjawiska na rozwój narzędzi, AI oraz życie społeczeństwa. Rozmowa odbyła się w ramach cyklu „XX/XXI – ogród o rozwidlających się ścieżkach”, a uczestnikiem tej inspirującej rozmowy był Andrzej Tymecki, Dyrektor Zarządzający BiometrIQ. Poniżej dzielimy się kilkoma wybranymi stwierdzeniami, które stanowią krótkie podsumowanie tego spotkania.

👉 Ilość danych rośnie niesamowicie szybko. Dla zobrazowania tematu, gdybyśmy nagrali na płyty DVD dane wytwarzane na świecie w ciągu jednego dnia i ułożyli je jedna za drugą, to zajęłyby one 106 tysięcy km, co oznacza, że ich długość wystarczyłaby aby opleść Ziemię ponad 2 razy.

👉 Pojęcie prywatności ciągle ewoluuje ze względu na postęp technologii i pojawiających się nowych możliwości. Nie są już to tylko tradycyjne dane osobowe typu nazwisko, pesel czy adres ale również zdjęcia, cechy biometryczne jak głos, dotyk palca, tęczówka oka. To powoduje, że ochrona prywatności staje się coraz trudniejsza.

👉Na dzień dzisiejszy bardzo łatwo dokonać kradzieży tożsamości ze względu na postęp technologii i rozwój AI. Ochrona przed utratą prywatności i kradzieżą tożsamości wymusza ostrożność w publikacji jakichkolwiek treści w Internecie.

👉Prawo do bycia zapomnianym, wprowadzone do Ustawy RODO w 2014 r., daje możliwość usunięcia naszych danych z bazy.

👉Stosowanie zaawansowanych metod zabezpieczających nagrania np. za pomocą znaków wodnych. może nie wystarczyć aby ustrzec się przed kradzieżą tożsamości. Potrzebna jest dobra wola osób znajdujących się po drugiej stronie (zarządzający platformami), którzy będą weryfikowali nagrania pod kątem ich prawdziwości.

👉Procedury są bardzo istotną kwestią w zapewnieniu bezpieczeństwa. Procedur nie można zastąpić technologią. To Technologia ma wspierać i ułatwiać ich wykonanie.


👉 Kluczową rolę pod względem bezpieczeństwa odgrywają centra danych, których w Polsce jest aż 144. Potęgą w tym zakresie jest niewątpliwie USA, które posiada ok 5300 obiektów.

o samej audycji, jak również o całym cyklu przeczytacie tutaj

Płatności za pomocą głosu? Dlaczego nie! Blisko 50% Polaków chciałaby korzystać z innowacyjnych metod płatności na bazie biometrii. Autoryzowanie wydatków za pomocą głosu wskazało 7% Polaków, za pomocą twarzy 8% a tęczówki oka 9%. Najpopularniejsze okazały się płatności za pomocą palca i dłoni ze wskazaniem 20 % grupy respondentów.

Tak wynika z raportu „Płreferencje płatnicze Polaków 2024” przeprowadzonego w tym roku (2024) przez PolCard from Fiserv. Więcej o tym badaniu przeczytacie tutaj

Według nas stosowanie autoryzacji biometrycznej będzie z roku na rok rosnąć, głównie z uwagi na jej wysoką skuteczność. Biometryczne zabezpieczenia po prostu są bezpieczniejsze niż tradycyjne takie jak hasła czy pin i o wiele trudniej je obejść. Głównymi czynnikami determinującymi rozwój technologii biometrycznych będzie:


👉 bezpieczeństwo
👉 ochrona prywatności
👉 zaufanie do technologii oraz
👉 koszty implementacji

A Wy z jakiej metody skorzystalibyście najchętniej?

Zastanawialiście/ łyście się kiedykolwiek czy głos jest częścią wizerunku?
Jeśli przyjmiemy, że na wizerunek składają się cechy fizyczne, po których można rozpoznać osobę ( jak podaje Wikipedia czy słownik PWN ) to głos jest niewątpliwie istotnym elementem takiej identyfikacji.

Według nas głos jest nie tylko elementem wizerunku ale unikalną cechą biometryczną potwierdzającą tożsamość.


Co przemawia za tym faktem?
Każda osoba ma unikalny głos, składający się z wielu odrębnych elementów. Mimo, że może być on podobny do głosu innej osoby, to w swojej charakterystyce będzie miał cechy mówiące o jego unikalności. Pozwala on na skuteczną identyfikację mówcy nie tylko dzięki rozpoznawalności barwy ale również ocenie biometrycznej. Stosując zaawansowane algorytmy biometrii, jesteśmy w stanie z bardzo wysokim, ponad 90 procentowym prawdopodobieństwem określić czy głos należy do danej osoby i czy nie jest fałszywy (wygenerowany przez AI).

Język biometrii jest nieznany większości, mimo że technologia staje się wszechobecna.

Osoby korzystające z danych biometrycznych niekoniecznie wiedzą, że są to „dane biometryczne”. 

Zespół niemieckich naukowców z Uniwersytetu Bundeswehry w Monachium i Uniwersytetu Duisburg-Essen przeprowadził ankietę internetową obejmującą ogólne zrozumienie przez uczestników biometrii fizjologicznej i behawioralnej oraz ich postrzeganą użyteczność i bezpieczeństwo. Kluczowe pytania badawcze dotyczyły umiejętności czytania i pisania, percepcji i wykorzystania oraz użyteczności i bezpieczeństwa.

Czy ludzie wiedzą, czym są dane biometryczne?

Jaką wartość widzą w ich używaniu?

Co sprawia, że ​​systemy wydają się użyteczne i bezpieczne?

Wyniki pokazują, że chociaż większość uczestników była w stanie wymienić przykłady i twierdziła, że ​​korzysta z technologii biometrycznych w życiu codziennym, miała trudności z definicjami i opisem danych biometrycznych. Tylko około 1/3 uczestników podała konkretne przykłady wykorzystania danych biometrycznych, takich jak odciski palców, rozpoznawanie twarzy, dowody osobiste i podpisy.

Badacze upatrują sens w dalszym prowadzeniu badań nad postrzeganiem i rozumieniem danych biometrycznych przez użytkowników oraz projektowaniu interfejsów biometrycznych, które mogą zwiększyć wiedzę w zakresie metod biometrycznych i zapewnić większą kontrolę nad nimi.

więcej https://www.biometricupdate.com/202410/language-of-biometrics-is-unfamiliar-to-most-even-as-tech-becomes-ubiquitous

Dzisiaj świętujemy 5 lat ! To ważne dla nas 5 lat doświadczeń na polu biometrii głosowej, które zaowocowały stworzeniem nowej jakości rozwiązań biometrycznych: nowatorskiego narzędzia do uwierzytelniania VoiceToken, który obecnie objęty jest procedurą patentową EU oraz pracą nad komunikatorem głosowym o unikalnych własnościach funkcjonalnych podnoszących bezpieczeństwo i komfort użytkowania, również osób z niepełnosprawnościami.

Ponieważ ważne jest dla nas dostarczanie rozwiązań o wysokim stopniu bezpieczeństwa ciągle poszukujemy nowych możliwości współpracy wśród najlepszych zespołów na świecie. W 2022 r. podpisaliśmy umowę na wdrażanie nowoczesnych rozwiązań biometrycznych z ID R&D z USA., przez co uzyskaliśmy dostęp do biometrycznego know-how liczącego się na rynku giganta.

Doceniamy coroczne finansowanie z instytucji badawczych PARP i NCBiR które jest dowodem na to jak nowatorskie i perspektywiczne są nasze projekty. Jest to blisko 15 milionów złotych otrzymanych w ciągu tych 5 lat.

Wielkie DZĘKUJĘ❤️ kierujemy w tym dniu do naszych partnerów, klientów i całego zespołu BiometrIQ za zaufanie, współpracę i serce zostawione przy realizowanych projektach.


To dzięki Wam rozwijamy się, kreując nową, bezpieczną rzeczywistość.

Eksperci prognozują, że do  2025 r. 90% treści w Internecie będzie generowanych przez sztuczną inteligencję , co oznacza, że

=> coraz trudniej będzie odróżnić treści prawdziwe od syntetycznych

=> wykrywanie deepfaków będzie coraz bardziej skomplikowane i będzie wymagać stosowania coraz to nowszych i dokładniejszych technologii 

=> technologie wykrywania będą musiały umożliwiać dokładne przetwarzanie różnych typów danych oraz potrafić rozpoznać sygnatury z konkretnych modeli użytych do produkcji treści deepfake.

=> w wykrywaniu deepfaków kluczową  rolę odegrają narzędzia umożliwiające ustalenie pochodzenia i autentyczności zasobów cyfrowych takie jak metadane (C2PA), znak wodny czy odciski palców

=> niezbędna będzie odpowiednia polityka i standardy do odpowiedzialnego wykorzystywania AI ( co już się dzieje – np. wdrożenie w wielu krajach ACT AI) 

Więcej o wyzwaniach związanych z deepfake’kami przeczytacie poniżej w raporcie ITU powstałym po warsztatach z udziałem firm technologicznych, organizacji normalizacyjnych i międzynarodowych oraz mediów, które odbyły się  w maju b.r. 

Kilka dni temu uruchomiliśmy nową odsłonę dema spójności głosów, w którym można sprawdzić czyj głos ze znanych polskich sportowców jest najbliższy Twojemu. Na naszej liście zalazły się nazwiska takich olimpijczyków jak Iga świątek, Michał Kwiatkowski, Anita Włodarczyk czy Hubert Hurkacz. W sumie wytypowaliśmy dla Was aż 20 osób z 13 różnych dyscyplin.

Jak działa demo ?
Aby sprawdzić do kogo podobny jest Twój głos wystarczy wejść na stronę https://demo.biometriq.pl:8443/ i przeczytać przygotowany przez nas tekst, którego czas czytania wynosi jedynie 30 sekund. W tym czasie rejestrujemy próbkę głosu, która jest równolegle porównywana z głosem wybranych 20 sportowców. Wyniki są wyświetlane natychmiast w kolumnie w formie % zbieżności.

Wynik może pokazać:
=> zbieżność tylko z jedną osobą w znacznym %
=> nie pokazać żadnej zbieżności, wówczas tablica pozostanie bez zmian i wszędzie pokaże się 0
=> zbieżność z kilkoma osobami (tak dzieje się najczęściej).

Pamiętajcie, że głosy mogą być  łudząco podobne do siebie, ale nie być spójne biometrycznie. I odwrotnie, mogą być spójnie biometrycznie ale nie będą podobne na poziomie słyszalności. Dzieje się tak dlatego, że ucho ludzkie odbiera przede wszystkim natężenie i ton dźwięku wraz z lokalizacją jego źródła, zaś systemy biometryczne wyodrębniają ze strumienia audio i analizują kilkanaście cech stanowiących o unikalności biometrycznej analizowanego głosu.   

Co nam daje badanie spójności biometrycznej i kiedy jest ono pomocne ?

Algorytm użyty w tym ćwiczeniu może być w przyszłości wykorzystany komercyjnie w systemach do weryfikacji tożsamości osób oraz do wykrywania oszustw na bazie głosu, tzw. deepfaków. Model ten jest na bieżąco przez nas rozwijany i udoskonalany, tak, aby uzyskać jak największą jego skuteczność i niezawodność, co wiąże się z uzyskaniem  prawdopodobieństwa oceny prawdziwości mówcy sięgającego powyżej 90%.

Od stycznia 2024r. realizujemy projekt Vesper, w ramach którego ma powstać inowacyjny komunikator głosowy. O projekcie informowaliśmy tutaj https://biometriq.pl/vesper-bezpieczna-platforma-komunikacji-glosowej-z-integracja-uslug-biometrycznych/

Celem pierwszego etapu projektu, kończącego się 31. grudnia b.r., jest opracowanie innowacyjnej metody detekcji prawdziwości mówcy i strumienia głosowego dalekiego końca.
Implementacja tej metody w komunikatorze pozwoli ocenić zgodność rozmówcy komunikującego się za pomocą np. smartfonu czy komputera z oczekiwaniami oraz zapobiec atakom na bazie głosu.

A o to szczegółowy zakres wykonanych prac w 1. półroczu 2024r:
1. Opracowaliśmy strukturę podsystemu.
2. Opracowaliśmy wstępne wymagania w zakresie metodyki detekcji prawdziwości źródła głosu dalekiego końca na podstawie odbieranego sygnału w urządzeniu bliskiego końca.
3. Opracowaliśmy wytyczne dla metodyk pomiarów z uwzględnieniem statystycznej istotności wyników.
4. Opracowaliśmy wstępną wersję procedur badawczych z uwzględnieniem opracowanych scenariuszy badawczych dla etapu 1. Scenariusze oraz procedury badawcze opracowane zostały z uwzględnieniem stanu wiedzy naukowej na dzień prac.
5. Przygotowaliśmy zbiór danych do treningu sieci neuronowych.
6. Przeprowadziliśmy pierwsze treningi sieci neuronowych oraz dobór i optymalizację funkcji kosztu.
7. Dokonaliśmy szczegółowej analizy metodyk oceny QoE w powiązaniu z jakościowymi parametrami obiektywnymi oraz zaproponowaliśmy szkielet autorskiego rozwiązania w przedmiotowym zakresie.
8. Przeprowadziliśmy analizę możliwości sterowania i ingerencji w tor audio dla dostępnych na rynku telefonów komórkowych.
9. Przygotowaliśmy i skonfigurowaliśmy pierwszą wersję platformy testowej VESPER w oparciu o framework Signal dla systemów Windows oraz Android.
10. Wynajęliśmy laboratorium DSP
11. Nabyliśmy korpus mowy do testów
12. Nabyliśmy licencje silników Voice Convertion

Pomysły na wykorzystanie najnowszych technologii mogą zaskakiwać. Na rynku pojawiły się deadboty (znane też jako griefbots lub postmortem avatars) czyli repliki osób zmarłych komunikujące się z bliskimi w rodzimym języku i własnym głosem. Są to  aplikacje czy programy komputerowe zbudowane w oparciu o dane pozyskane z Internetu, które mają stworzyć iluzję zmarłego i zapewnić wsparcie emocjonalne po starcie bliskich osób.

I choć cel wydaje się słuszny to naukowcy z Uniwersytetu w Cambridge zwracają uwagę na ilość zagrożeń związanych z tą technologią. Na podstawie przeanalizowanych 3 scenariuszy ( sprzedaż produktów z wykorzystaniem wizerunku zmarłego,, awatar rodzic dla dziecka, zakup długoletniej subskrypcji deadbota dla bliskich ) jako główne wymieniają: 

=> możliwość manipulacji i wpływania na osoby w żałobie

=> wykorzystanie wizerunku osób po śmierci bez ich uprzedniej zgody  (konieczność regulowania tego aspektu poprzez pozyskanie zgód na wykorzystanie, również w zakresie głosu)

=> monetyzację doświadczenia żałoby i chęć obchodzenia regulacji dla celów sprzedaży przez firmy produkujące deadboty

=> niekorzystny wpływ technologii na niektóre grupy społeczne, głównie dzieci (wskazanie wprowadzenia ograniczenia wiekowego do korzystania z tego rodzaju rozwiązań)

Jak podaje Newseria  naukowcy nie odrzucają całkowicie takiego rozwiązania. Jako korzyści wskazują:

=> edukację społeczeństwa, deadbot jako międzypokoleniowa wymiana historii i doświadczeń (np. ocalali z Holokaustu opowiadają o swoich przeżyciach)

=> źródło utrzymania rodzin po śmierci znanych twórców czy dziennikarzy

Deadboty to kolejny przykład wskazujący na konieczność wdrożenia regulacji prawnych dla usług tworzonych na bazie AI. To pozwoliłoby uniknąć naruszeń wykorzystujących wizerunek i głos po ich śmierci.

A Wy jakie macie zdanie na temat deadbotów? Przekonuje Was ten rodzaj usług? 

Więcej w materiale https://biznes.newseria.pl/news/deadboty-moga-byc,p262956223

Dowiedz się więcej: Deadboty, więcej zagrożeń czy korzyści?

Czy to zjawisko jest w jakiś sposób uregulowane prawnie? A jeśli tak, to czy regulacje te są wystarczające by chronić autora? Bo przecież głos jest nie tylko elementem wizerunku, ale unikalną cechą biometryczną, służącą identyfikacji. Dlatego też powinien być chroniony podobnie jak dane osobowe.

Postęp w rozwoju sztucznej inteligencji sprawia, że oszustwa na bazie głosu (podszywanie się pod inne osoby) stają się coraz powszechniejsze i są przedmiotem wyłudzeń finansowych, ataków politycznych, kradzieży danych lub też nieuczciwej promocji. Pamiętacie podrobiony głos Prezydenta USA Joe Bidena wykorzystany w automatycznych połączeniach telefonicznych zniechęcających do udziału w prawyborach, albo użycie fakowego głosu Taylor Swift w reklamie, wyłudzającej dane pod przykrywką rozdawania garnków? To są przykłady jak szybko  i skutecznie można wykorzystać technologie w nieuczciwym celu. Niestety skala tego typu nadużyc będzie tylko rosła.

Coraz częściej motyw wykorzystania głosu pojawia się też w produkcjach filmowych. Mowa o kultowym Top Gun Maverick, gdzie zsyntezowano głos Val Kilmera. Podobnie dzieje się w najnowszym sezonie polskiego serialu Rojst, w którym Filip Pławiak (młody Kociołek) mówi głosem  Piotra Fronczewskiego (Kociołek). Efekt konwersji głosu, czyli zabieg, z którym mamy tu do czynienia nie jest już żadnym wyzwaniem w dobie inwazji AI. O ile aspekt ten został z pewnością uregulowany na potrzeby produkcji Rojst, pojawia się pytanie o wykorzystywanie w filmach syntezowanego głosu aktorów po ich śmierci. W obszarze syntezy głosu interesujące jest również aspekt podejścia producentów do wskaźników spójności biometrycznej.

Dysponując odpowiednimi narzędziami pokusiliśmy się o porównanie biometryczne głosów Fronczewskiego i Pławiaka. Wyniki analizy  pokazują, że ich głosy biometrycznie NIE są spójne (Pławiak wypowiedź vs Fronczewski VP  – tylko 15% zgodności, Fronczewski wypowiedź vs Pławiak VP – 11%), ale co ciekawe nie dostrzega się tych różnic na poziomie ucha. W naszym odbiorze głosy Pławiaka i Fronczewskiego są wręcz identyczne. I o to w konsekwencji tutaj chodzi.

Dla obu postaci płeć oraz narodowość zostały rozpoznane z minimalną niepewnością (wynik prawie 100%). Została również wykryta różnica wieku między postaciami, oszacowana  na 20 lat.
Badanie przeprowadzono w naszym laboratorium cyfrowego przetwarzania sygnałów, do tego celu użyliśmy 25 sekund łącznych wypowiedzi obu postaci, złożonych z kilku fragmentów ich oryginalnej mowy, na bazie oryginalnej ścieżki filmowej.

Wnioski płynące z tego eksperymentu wskazują na fakt jak pomocna i skuteczna może być biometria w identyfikowaniu osoby mówiącej, oceny prawdziwości jej głosu a w konsekwencji wykrywaniu nadużyć na  bazie głosu. Czy to wystarczy by w przyszłości ograniczyć wykorzystywanie w nieuczciwy sposób głosu znanych osób? I co najważniejsze, czy jesteśmy w stanie uregulować rynek tak, aby zadbać o głos znanych osób po ich śmierci?