Z końcem roku, na antenie Radia Lublin odbyła się interesująca audycja na temat bezpieczeństwa w sieci. Poruszone w niej zostały między innymi zagadnienia dotyczące tożsamości cyfrowej, prywatności i jej sposobów ochrony a także zjawisko rosnącej w zastraszającym tempie liczby danych w Internecie i wpływu tego zjawiska na rozwój narzędzi, AI oraz życie społeczeństwa. Rozmowa odbyła się w ramach cyklu „XX/XXI – ogród o rozwidlających się ścieżkach”, a uczestnikiem tej inspirującej rozmowy był Andrzej Tymecki, Dyrektor Zarządzający BiometrIQ. Poniżej dzielimy się kilkoma wybranymi stwierdzeniami, które stanowią krótkie podsumowanie tego spotkania.

👉 Ilość danych rośnie niesamowicie szybko. Dla zobrazowania tematu, gdybyśmy nagrali na płyty DVD dane wytwarzane na świecie w ciągu jednego dnia i ułożyli je jedna za drugą, to zajęłyby one 106 tysięcy km, co oznacza, że ich długość wystarczyłaby aby opleść Ziemię ponad 2 razy.

👉 Pojęcie prywatności ciągle ewoluuje ze względu na postęp technologii i pojawiających się nowych możliwości. Nie są już to tylko tradycyjne dane osobowe typu nazwisko, pesel czy adres ale również zdjęcia, cechy biometryczne jak głos, dotyk palca, tęczówka oka. To powoduje, że ochrona prywatności staje się coraz trudniejsza.

👉Na dzień dzisiejszy bardzo łatwo dokonać kradzieży tożsamości ze względu na postęp technologii i rozwój AI. Ochrona przed utratą prywatności i kradzieżą tożsamości wymusza ostrożność w publikacji jakichkolwiek treści w Internecie.

👉Prawo do bycia zapomnianym, wprowadzone do Ustawy RODO w 2014 r., daje możliwość usunięcia naszych danych z bazy.

👉Stosowanie zaawansowanych metod zabezpieczających nagrania np. za pomocą znaków wodnych. może nie wystarczyć aby ustrzec się przed kradzieżą tożsamości. Potrzebna jest dobra wola osób znajdujących się po drugiej stronie (zarządzający platformami), którzy będą weryfikowali nagrania pod kątem ich prawdziwości.

👉Procedury są bardzo istotną kwestią w zapewnieniu bezpieczeństwa. Procedur nie można zastąpić technologią. To Technologia ma wspierać i ułatwiać ich wykonanie.


👉 Kluczową rolę pod względem bezpieczeństwa odgrywają centra danych, których w Polsce jest aż 144. Potęgą w tym zakresie jest niewątpliwie USA, które posiada ok 5300 obiektów.

o samej audycji, jak również o całym cyklu przeczytacie tutaj

Język biometrii jest nieznany większości, mimo że technologia staje się wszechobecna.

Osoby korzystające z danych biometrycznych niekoniecznie wiedzą, że są to „dane biometryczne”. 

Zespół niemieckich naukowców z Uniwersytetu Bundeswehry w Monachium i Uniwersytetu Duisburg-Essen przeprowadził ankietę internetową obejmującą ogólne zrozumienie przez uczestników biometrii fizjologicznej i behawioralnej oraz ich postrzeganą użyteczność i bezpieczeństwo. Kluczowe pytania badawcze dotyczyły umiejętności czytania i pisania, percepcji i wykorzystania oraz użyteczności i bezpieczeństwa.

Czy ludzie wiedzą, czym są dane biometryczne?

Jaką wartość widzą w ich używaniu?

Co sprawia, że ​​systemy wydają się użyteczne i bezpieczne?

Wyniki pokazują, że chociaż większość uczestników była w stanie wymienić przykłady i twierdziła, że ​​korzysta z technologii biometrycznych w życiu codziennym, miała trudności z definicjami i opisem danych biometrycznych. Tylko około 1/3 uczestników podała konkretne przykłady wykorzystania danych biometrycznych, takich jak odciski palców, rozpoznawanie twarzy, dowody osobiste i podpisy.

Badacze upatrują sens w dalszym prowadzeniu badań nad postrzeganiem i rozumieniem danych biometrycznych przez użytkowników oraz projektowaniu interfejsów biometrycznych, które mogą zwiększyć wiedzę w zakresie metod biometrycznych i zapewnić większą kontrolę nad nimi.

więcej https://www.biometricupdate.com/202410/language-of-biometrics-is-unfamiliar-to-most-even-as-tech-becomes-ubiquitous

Dzisiaj świętujemy 5 lat ! To ważne dla nas 5 lat doświadczeń na polu biometrii głosowej, które zaowocowały stworzeniem nowej jakości rozwiązań biometrycznych: nowatorskiego narzędzia do uwierzytelniania VoiceToken, który obecnie objęty jest procedurą patentową EU oraz pracą nad komunikatorem głosowym o unikalnych własnościach funkcjonalnych podnoszących bezpieczeństwo i komfort użytkowania, również osób z niepełnosprawnościami.

Ponieważ ważne jest dla nas dostarczanie rozwiązań o wysokim stopniu bezpieczeństwa ciągle poszukujemy nowych możliwości współpracy wśród najlepszych zespołów na świecie. W 2022 r. podpisaliśmy umowę na wdrażanie nowoczesnych rozwiązań biometrycznych z ID R&D z USA., przez co uzyskaliśmy dostęp do biometrycznego know-how liczącego się na rynku giganta.

Doceniamy coroczne finansowanie z instytucji badawczych PARP i NCBiR które jest dowodem na to jak nowatorskie i perspektywiczne są nasze projekty. Jest to blisko 15 milionów złotych otrzymanych w ciągu tych 5 lat.

Wielkie DZĘKUJĘ❤️ kierujemy w tym dniu do naszych partnerów, klientów i całego zespołu BiometrIQ za zaufanie, współpracę i serce zostawione przy realizowanych projektach.


To dzięki Wam rozwijamy się, kreując nową, bezpieczną rzeczywistość.

Pomysły na wykorzystanie najnowszych technologii mogą zaskakiwać. Na rynku pojawiły się deadboty (znane też jako griefbots lub postmortem avatars) czyli repliki osób zmarłych komunikujące się z bliskimi w rodzimym języku i własnym głosem. Są to  aplikacje czy programy komputerowe zbudowane w oparciu o dane pozyskane z Internetu, które mają stworzyć iluzję zmarłego i zapewnić wsparcie emocjonalne po starcie bliskich osób.

I choć cel wydaje się słuszny to naukowcy z Uniwersytetu w Cambridge zwracają uwagę na ilość zagrożeń związanych z tą technologią. Na podstawie przeanalizowanych 3 scenariuszy ( sprzedaż produktów z wykorzystaniem wizerunku zmarłego,, awatar rodzic dla dziecka, zakup długoletniej subskrypcji deadbota dla bliskich ) jako główne wymieniają: 

=> możliwość manipulacji i wpływania na osoby w żałobie

=> wykorzystanie wizerunku osób po śmierci bez ich uprzedniej zgody  (konieczność regulowania tego aspektu poprzez pozyskanie zgód na wykorzystanie, również w zakresie głosu)

=> monetyzację doświadczenia żałoby i chęć obchodzenia regulacji dla celów sprzedaży przez firmy produkujące deadboty

=> niekorzystny wpływ technologii na niektóre grupy społeczne, głównie dzieci (wskazanie wprowadzenia ograniczenia wiekowego do korzystania z tego rodzaju rozwiązań)

Jak podaje Newseria  naukowcy nie odrzucają całkowicie takiego rozwiązania. Jako korzyści wskazują:

=> edukację społeczeństwa, deadbot jako międzypokoleniowa wymiana historii i doświadczeń (np. ocalali z Holokaustu opowiadają o swoich przeżyciach)

=> źródło utrzymania rodzin po śmierci znanych twórców czy dziennikarzy

Deadboty to kolejny przykład wskazujący na konieczność wdrożenia regulacji prawnych dla usług tworzonych na bazie AI. To pozwoliłoby uniknąć naruszeń wykorzystujących wizerunek i głos po ich śmierci.

A Wy jakie macie zdanie na temat deadbotów? Przekonuje Was ten rodzaj usług? 

Więcej w materiale https://biznes.newseria.pl/news/deadboty-moga-byc,p262956223

Dowiedz się więcej: Deadboty, więcej zagrożeń czy korzyści?

Incydent ze Scarlett Johansson potwierdza fakt, że kwestia regulacji prawnych oraz skutecznych narzędzi jest obecnie najwyższym priorytetem w kontekście zapobiegania deepfakom, czyli atakom na bazie głosu. Wykorzystywanie bezprawne głosu znanych osób do promocji lub też ich dyskredytacji jest nagminne i stanowi nie lada wyzwanie w świecie social mediów.

Spór jaki toczy Johansson z Open AI, który użyl rzekomo jej głosu z filmu „Her ” do stworzenia asystenta Czata GPT  jest tutaj idealnym przykładem pokazującym jak w łatwy sposób da się wykorzystać głos i jak trudno udowodnić, że głos należy do danej a nie innej osoby.

Krótko mówiąc Open AI pomimo braku zgody Johansson na udzielenie licencji na jej głos do uworzenia asystenta głosowego czata GPT przedstawił swój produkt wykorzystujący głos o nazwie „Sky” łudząco do niego podobny.
Brak zabezpieczeń  prawnych w tym zakresie niestety nie działa na korzyść aktorki. Natomiast wyraźnie zwraca uwagę na konieczność ochrony pracy twórczej artystów do zasilania narzędzi sztucznej inteligencji.

O sprawie wykorzystania głosu S. Johansson przeczytacie w oryginalnym artykule

https://www.npr.org/2024/05/20/1252495087/openai-pulls-ai-voice-that-was-compared-to-scarlett-johansson-in-the-movie-her

Mówimy o tym nie bez powodu. Jeśli chodzi o narzędzia chroniące przed deepfakami BiometrIQ jako firma badawcza specjalizuje się w tworzeniu algorytmów pomagających w wyrywaniu oszustw, poprzez analizę porównawczą głosu prawdziwego z wygenerowanym przez AI. Za pomocą autorskich narzędzi możemy ocenić z bardzo wysoką pewnością czy głos został podrobiony czy nie. Zastosowanie algorytmu opartego na biometrii jest z pewnością najskuteczniejszym sposobem na walkę z deepfakami w Internecie.

Dysponujemy też algorytmem, który pomaga już na etapie tworzenia nagrań, znakować je tak, aby nie można było ich skutecznie użyć do dalszej konwersji czy syntezy głosu. Takie narzędzie, na pewno pomogłoby w zmniejszeniu przypadków kradzieży głosu.

Dowiedz się więcej: Regulacje prawne mogą zapobiec deepfakom. Case Scarlett Johansson