Język biometrii jest nieznany większości, mimo że technologia staje się wszechobecna.

Osoby korzystające z danych biometrycznych niekoniecznie wiedzą, że są to „dane biometryczne”. 

Zespół niemieckich naukowców z Uniwersytetu Bundeswehry w Monachium i Uniwersytetu Duisburg-Essen przeprowadził ankietę internetową obejmującą ogólne zrozumienie przez uczestników biometrii fizjologicznej i behawioralnej oraz ich postrzeganą użyteczność i bezpieczeństwo. Kluczowe pytania badawcze dotyczyły umiejętności czytania i pisania, percepcji i wykorzystania oraz użyteczności i bezpieczeństwa.

Czy ludzie wiedzą, czym są dane biometryczne?

Jaką wartość widzą w ich używaniu?

Co sprawia, że ​​systemy wydają się użyteczne i bezpieczne?

Wyniki pokazują, że chociaż większość uczestników była w stanie wymienić przykłady i twierdziła, że ​​korzysta z technologii biometrycznych w życiu codziennym, miała trudności z definicjami i opisem danych biometrycznych. Tylko około 1/3 uczestników podała konkretne przykłady wykorzystania danych biometrycznych, takich jak odciski palców, rozpoznawanie twarzy, dowody osobiste i podpisy.

Badacze upatrują sens w dalszym prowadzeniu badań nad postrzeganiem i rozumieniem danych biometrycznych przez użytkowników oraz projektowaniu interfejsów biometrycznych, które mogą zwiększyć wiedzę w zakresie metod biometrycznych i zapewnić większą kontrolę nad nimi.

więcej https://www.biometricupdate.com/202410/language-of-biometrics-is-unfamiliar-to-most-even-as-tech-becomes-ubiquitous

Dzisiaj świętujemy 5 lat ! To ważne dla nas 5 lat doświadczeń na polu biometrii głosowej, które zaowocowały stworzeniem nowej jakości rozwiązań biometrycznych: nowatorskiego narzędzia do uwierzytelniania VoiceToken, który obecnie objęty jest procedurą patentową EU oraz pracą nad komunikatorem głosowym o unikalnych własnościach funkcjonalnych podnoszących bezpieczeństwo i komfort użytkowania, również osób z niepełnosprawnościami.

Ponieważ ważne jest dla nas dostarczanie rozwiązań o wysokim stopniu bezpieczeństwa ciągle poszukujemy nowych możliwości współpracy wśród najlepszych zespołów na świecie. W 2022 r. podpisaliśmy umowę na wdrażanie nowoczesnych rozwiązań biometrycznych z ID R&D z USA., przez co uzyskaliśmy dostęp do biometrycznego know-how liczącego się na rynku giganta.

Doceniamy coroczne finansowanie z instytucji badawczych PARP i NCBiR które jest dowodem na to jak nowatorskie i perspektywiczne są nasze projekty. Jest to blisko 15 milionów złotych otrzymanych w ciągu tych 5 lat.

Wielkie DZĘKUJĘ❤️ kierujemy w tym dniu do naszych partnerów, klientów i całego zespołu BiometrIQ za zaufanie, współpracę i serce zostawione przy realizowanych projektach.


To dzięki Wam rozwijamy się, kreując nową, bezpieczną rzeczywistość.

Pomysły na wykorzystanie najnowszych technologii mogą zaskakiwać. Na rynku pojawiły się deadboty (znane też jako griefbots lub postmortem avatars) czyli repliki osób zmarłych komunikujące się z bliskimi w rodzimym języku i własnym głosem. Są to  aplikacje czy programy komputerowe zbudowane w oparciu o dane pozyskane z Internetu, które mają stworzyć iluzję zmarłego i zapewnić wsparcie emocjonalne po starcie bliskich osób.

I choć cel wydaje się słuszny to naukowcy z Uniwersytetu w Cambridge zwracają uwagę na ilość zagrożeń związanych z tą technologią. Na podstawie przeanalizowanych 3 scenariuszy ( sprzedaż produktów z wykorzystaniem wizerunku zmarłego,, awatar rodzic dla dziecka, zakup długoletniej subskrypcji deadbota dla bliskich ) jako główne wymieniają: 

=> możliwość manipulacji i wpływania na osoby w żałobie

=> wykorzystanie wizerunku osób po śmierci bez ich uprzedniej zgody  (konieczność regulowania tego aspektu poprzez pozyskanie zgód na wykorzystanie, również w zakresie głosu)

=> monetyzację doświadczenia żałoby i chęć obchodzenia regulacji dla celów sprzedaży przez firmy produkujące deadboty

=> niekorzystny wpływ technologii na niektóre grupy społeczne, głównie dzieci (wskazanie wprowadzenia ograniczenia wiekowego do korzystania z tego rodzaju rozwiązań)

Jak podaje Newseria  naukowcy nie odrzucają całkowicie takiego rozwiązania. Jako korzyści wskazują:

=> edukację społeczeństwa, deadbot jako międzypokoleniowa wymiana historii i doświadczeń (np. ocalali z Holokaustu opowiadają o swoich przeżyciach)

=> źródło utrzymania rodzin po śmierci znanych twórców czy dziennikarzy

Deadboty to kolejny przykład wskazujący na konieczność wdrożenia regulacji prawnych dla usług tworzonych na bazie AI. To pozwoliłoby uniknąć naruszeń wykorzystujących wizerunek i głos po ich śmierci.

A Wy jakie macie zdanie na temat deadbotów? Przekonuje Was ten rodzaj usług? 

Więcej w materiale https://biznes.newseria.pl/news/deadboty-moga-byc,p262956223

Dowiedz się więcej: Deadboty, więcej zagrożeń czy korzyści?

Incydent ze Scarlett Johansson potwierdza fakt, że kwestia regulacji prawnych oraz skutecznych narzędzi jest obecnie najwyższym priorytetem w kontekście zapobiegania deepfakom, czyli atakom na bazie głosu. Wykorzystywanie bezprawne głosu znanych osób do promocji lub też ich dyskredytacji jest nagminne i stanowi nie lada wyzwanie w świecie social mediów.

Spór jaki toczy Johansson z Open AI, który użyl rzekomo jej głosu z filmu „Her ” do stworzenia asystenta Czata GPT  jest tutaj idealnym przykładem pokazującym jak w łatwy sposób da się wykorzystać głos i jak trudno udowodnić, że głos należy do danej a nie innej osoby.

Krótko mówiąc Open AI pomimo braku zgody Johansson na udzielenie licencji na jej głos do uworzenia asystenta głosowego czata GPT przedstawił swój produkt wykorzystujący głos o nazwie „Sky” łudząco do niego podobny.
Brak zabezpieczeń  prawnych w tym zakresie niestety nie działa na korzyść aktorki. Natomiast wyraźnie zwraca uwagę na konieczność ochrony pracy twórczej artystów do zasilania narzędzi sztucznej inteligencji.

O sprawie wykorzystania głosu S. Johansson przeczytacie w oryginalnym artykule

https://www.npr.org/2024/05/20/1252495087/openai-pulls-ai-voice-that-was-compared-to-scarlett-johansson-in-the-movie-her

Mówimy o tym nie bez powodu. Jeśli chodzi o narzędzia chroniące przed deepfakami BiometrIQ jako firma badawcza specjalizuje się w tworzeniu algorytmów pomagających w wyrywaniu oszustw, poprzez analizę porównawczą głosu prawdziwego z wygenerowanym przez AI. Za pomocą autorskich narzędzi możemy ocenić z bardzo wysoką pewnością czy głos został podrobiony czy nie. Zastosowanie algorytmu opartego na biometrii jest z pewnością najskuteczniejszym sposobem na walkę z deepfakami w Internecie.

Dysponujemy też algorytmem, który pomaga już na etapie tworzenia nagrań, znakować je tak, aby nie można było ich skutecznie użyć do dalszej konwersji czy syntezy głosu. Takie narzędzie, na pewno pomogłoby w zmniejszeniu przypadków kradzieży głosu.

Dowiedz się więcej: Regulacje prawne mogą zapobiec deepfakom. Case Scarlett Johansson

To się już dzieje. Szacowanie wieku za pomocą biometrii w punktach dla artykułów o ograniczonej sprzedaży w Wielkiej Brytanii. Czy byłaby przestrzeń na pojawienie się takiego rozwiązania w Polsce?

Innovative Technology (ITL) potwierdziła partnerstwo władz głównych z Buckinghamshire & Surrey Trading Standards w zakresie korzystania z ich technologii biometrycznego szacowania wieku przez sprzedawców detalicznych sprzedających towary z ograniczeniami wiekowymi. 

Produkty ITL do biometrycznego szacowania wieku, MyCheckr i MyCheckr Mini, anonimowo szacują wiek w punkcie sprzedaży uniemożliwiając w ten sposób nieletnim dostęp do alkoholu i papierosów.

https://www.biometricupdate.com/202402/global-demand-for-age-estimation-verification-drives-deals-for-itl-new-entrants
Dowiedz się więcej: Weryfikacja wieku za pomocą biometrii dla artykułów o ograniczonej sprzedaży

Czy to zjawisko jest w jakiś sposób uregulowane prawnie? A jeśli tak, to czy regulacje te są wystarczające by chronić autora? Bo przecież głos jest nie tylko elementem wizerunku, ale unikalną cechą biometryczną, służącą identyfikacji. Dlatego też powinien być chroniony podobnie jak dane osobowe.

Postęp w rozwoju sztucznej inteligencji sprawia, że oszustwa na bazie głosu (podszywanie się pod inne osoby) stają się coraz powszechniejsze i są przedmiotem wyłudzeń finansowych, ataków politycznych, kradzieży danych lub też nieuczciwej promocji. Pamiętacie podrobiony głos Prezydenta USA Joe Bidena wykorzystany w automatycznych połączeniach telefonicznych zniechęcających do udziału w prawyborach, albo użycie fakowego głosu Taylor Swift w reklamie, wyłudzającej dane pod przykrywką rozdawania garnków? To są przykłady jak szybko  i skutecznie można wykorzystać technologie w nieuczciwym celu. Niestety skala tego typu nadużyc będzie tylko rosła.

Coraz częściej motyw wykorzystania głosu pojawia się też w produkcjach filmowych. Mowa o kultowym Top Gun Maverick, gdzie zsyntezowano głos Val Kilmera. Podobnie dzieje się w najnowszym sezonie polskiego serialu Rojst, w którym Filip Pławiak (młody Kociołek) mówi głosem  Piotra Fronczewskiego (Kociołek). Efekt konwersji głosu, czyli zabieg, z którym mamy tu do czynienia nie jest już żadnym wyzwaniem w dobie inwazji AI. O ile aspekt ten został z pewnością uregulowany na potrzeby produkcji Rojst, pojawia się pytanie o wykorzystywanie w filmach syntezowanego głosu aktorów po ich śmierci. W obszarze syntezy głosu interesujące jest również aspekt podejścia producentów do wskaźników spójności biometrycznej.

Dysponując odpowiednimi narzędziami pokusiliśmy się o porównanie biometryczne głosów Fronczewskiego i Pławiaka. Wyniki analizy  pokazują, że ich głosy biometrycznie NIE są spójne (Pławiak wypowiedź vs Fronczewski VP  – tylko 15% zgodności, Fronczewski wypowiedź vs Pławiak VP – 11%), ale co ciekawe nie dostrzega się tych różnic na poziomie ucha. W naszym odbiorze głosy Pławiaka i Fronczewskiego są wręcz identyczne. I o to w konsekwencji tutaj chodzi.

Dla obu postaci płeć oraz narodowość zostały rozpoznane z minimalną niepewnością (wynik prawie 100%). Została również wykryta różnica wieku między postaciami, oszacowana  na 20 lat.
Badanie przeprowadzono w naszym laboratorium cyfrowego przetwarzania sygnałów, do tego celu użyliśmy 25 sekund łącznych wypowiedzi obu postaci, złożonych z kilku fragmentów ich oryginalnej mowy, na bazie oryginalnej ścieżki filmowej.

Wnioski płynące z tego eksperymentu wskazują na fakt jak pomocna i skuteczna może być biometria w identyfikowaniu osoby mówiącej, oceny prawdziwości jej głosu a w konsekwencji wykrywaniu nadużyć na  bazie głosu. Czy to wystarczy by w przyszłości ograniczyć wykorzystywanie w nieuczciwy sposób głosu znanych osób? I co najważniejsze, czy jesteśmy w stanie uregulować rynek tak, aby zadbać o głos znanych osób po ich śmierci? 

Czym jest dostępność? 

Dostępność (z ang.accessibility) to szerokie pojęcie, opisujące stopień, w jakim dany system może być używany przez możliwie dużą grupę ludzi. 

To właściwość środowiska (przestrzeni fizycznej, rzeczywistości cyfrowej, systemów informacyjno-komunikacyjnych, produktów czy usług), która pozwala osobom z trudnościami funkcjonalnymi (fizycznymi, poznawczymi) na korzystanie z niego na zasadzie równości z innymi. 

Regulacje w Polsce – Dyrektywy WCGA2.0 i WCAG2.1 

Z  myślą o osobach z niepełnosprawnościami został stworzony standard WCAG 2.0  (Web Content Accessibility Guidelines) – obszerny zbiór rekomendacji na temat dostępności treści internetowych – jest to 12 wytycznych definiujących cechy poszczególnych elementów treści w Internecie, które mają wpływ na ich dostępność. Dotyczy to  sklepów online, klientów pocztowych oraz aplikacji mobilnych. 

WCAG2.1 to rozszerzony standard WCAG 2.0 o dodatkowych 17 wytycznych związanych z udostępnianiem treści na urządzeniach mobilnych. m.in. możliwość oglądania obrazu na urządzeniach mobilnych w orientacji pionowej i poziomej, dopasowanie treści strony do okna urządzenia, bez konieczności przewijania obrazu, stosowanie odpowiednich odstępów między liniami, stosowanie odpowiedniego współczynnika kontrastu czy możliwość wyłączenia animacji po interakcji.

Póki co, do obligatoryjnego stosowania tych Dyrektyw są zobowiązane instytucje publiczne, ale myśląc o upowszechnieniu rozwiązań, powinniśmy zadbać o to, aby nowopowstałe produkty/usługi w jak największym stopniu spełniały te wymagania. 

Co oznacza dostępność dla nas jako firmy?

Dostępność dla nas jest jedną z głównych 4 wartości (obok innowacyjności, współpracy, bezpieczeństwa), do której przykładamy ogromną rolę podczas projektowania rozwiązań  z zakresu biometrii głosowej i ulepszania systemów tego rodzaju. Rozwijamy nasze technologie z myślą o jej powszechności, o osobach, którym brakuje wiedzy lub ich wiedza na temat zagrożeń w sieci jest znikoma. Tworząc rozwiązania już na etapie prac badawczych dbamy o to, aby jak najwięcej osób mogło z nich korzystać, priorytetowo traktując osoby nie w pełni sprawne np. z ograniczonymi możliwościami widzenia. Staramy się w ten sposób niwelować różnice, mówiąc wprost przeciwdziałać  wykluczeniu cyfrowemu. Wierzymy, że takie podejście  zdecydowanie podnosi jakość i komfort życia osób z niepełnosprawnościami. Jak podaje GUS w Polsce takich osób (zarejestrowanych prawnie) jest ponad 3 mln, co stanowi 10% całego społeczeństwa.

Komunikator głosowy Vesper 

Obecnie pracujemy nad nowym, innowacyjnym rozwiązaniem do komunikacji za pomocą głosu. Jego zaletą będzie wysoka jego dostępność właśnie dla osób z niepełnosprawnościami. Z racji na fakt, że rozwiązanie udostępnione zostanie również na urządzeniach mobilnych przy projektowaniu  bazować będziemy na standardzie WCAG2.1. Produkt cechować się będzie czytelnym i domyślnym interfejsem, zapewniającym prostą i intuicyjną obsługę oraz dużą elastycznością w użytkowaniu. Komunikator głosowy zapewni użytkownikom m.in. możliwość czytelnego przybliżania tekstu czy zastosowania opisów alternatywnych. Warto podkreślić, że żaden z istniejących na rynku komunikatorów nie posiada takich funkcjonalności.

Projekt jest realizowany dzięki dotacji Unii Europejskiej.

więcej o projekcie Vesper