Dowiedz się więcej: Deadboty, więcej zagrożeń czy korzyści?Pomysły na wykorzystanie najnowszych technologii mogą zaskakiwać. Na rynku pojawiły się deadboty (znane też jako griefbots lub postmortem avatars) czyli repliki osób zmarłych komunikujące się z bliskimi w rodzimym języku i własnym głosem. Są to aplikacje czy programy komputerowe zbudowane w oparciu o dane pozyskane z Internetu, które mają stworzyć iluzję zmarłego i zapewnić wsparcie emocjonalne po starcie bliskich osób.
I choć cel wydaje się słuszny to naukowcy z Uniwersytetu w Cambridge zwracają uwagę na ilość zagrożeń związanych z tą technologią. Na podstawie przeanalizowanych 3 scenariuszy ( sprzedaż produktów z wykorzystaniem wizerunku zmarłego,, awatar rodzic dla dziecka, zakup długoletniej subskrypcji deadbota dla bliskich ) jako główne wymieniają:
=> możliwość manipulacji i wpływania na osoby w żałobie
=> wykorzystanie wizerunku osób po śmierci bez ich uprzedniej zgody (konieczność regulowania tego aspektu poprzez pozyskanie zgód na wykorzystanie, również w zakresie głosu)
=> monetyzację doświadczenia żałoby i chęć obchodzenia regulacji dla celów sprzedaży przez firmy produkujące deadboty
=> niekorzystny wpływ technologii na niektóre grupy społeczne, głównie dzieci (wskazanie wprowadzenia ograniczenia wiekowego do korzystania z tego rodzaju rozwiązań)
Jak podaje Newseria naukowcy nie odrzucają całkowicie takiego rozwiązania. Jako korzyści wskazują:
=> edukację społeczeństwa, deadbot jako międzypokoleniowa wymiana historii i doświadczeń (np. ocalali z Holokaustu opowiadają o swoich przeżyciach)
=> źródło utrzymania rodzin po śmierci znanych twórców czy dziennikarzy
Deadboty to kolejny przykład wskazujący na konieczność wdrożenia regulacji prawnych dla usług tworzonych na bazie AI. To pozwoliłoby uniknąć naruszeń wykorzystujących wizerunek i głos po ich śmierci.
A Wy jakie macie zdanie na temat deadbotów? Przekonuje Was ten rodzaj usług?
Więcej w materiale https://biznes.newseria.pl/news/deadboty-moga-byc,p262956223
Tag: lowregulation
Dowiedz się więcej: Regulacje prawne mogą zapobiec deepfakom. Case Scarlett JohanssonIncydent ze Scarlett Johansson potwierdza fakt, że kwestia regulacji prawnych oraz skutecznych narzędzi jest obecnie najwyższym priorytetem w kontekście zapobiegania deepfakom, czyli atakom na bazie głosu. Wykorzystywanie bezprawne głosu znanych osób do promocji lub też ich dyskredytacji jest nagminne i stanowi nie lada wyzwanie w świecie social mediów.
Spór jaki toczy Johansson z Open AI, który użyl rzekomo jej głosu z filmu „Her ” do stworzenia asystenta Czata GPT jest tutaj idealnym przykładem pokazującym jak w łatwy sposób da się wykorzystać głos i jak trudno udowodnić, że głos należy do danej a nie innej osoby.
Krótko mówiąc Open AI pomimo braku zgody Johansson na udzielenie licencji na jej głos do uworzenia asystenta głosowego czata GPT przedstawił swój produkt wykorzystujący głos o nazwie „Sky” łudząco do niego podobny.
Brak zabezpieczeń prawnych w tym zakresie niestety nie działa na korzyść aktorki. Natomiast wyraźnie zwraca uwagę na konieczność ochrony pracy twórczej artystów do zasilania narzędzi sztucznej inteligencji.O sprawie wykorzystania głosu S. Johansson przeczytacie w oryginalnym artykule
Mówimy o tym nie bez powodu. Jeśli chodzi o narzędzia chroniące przed deepfakami BiometrIQ jako firma badawcza specjalizuje się w tworzeniu algorytmów pomagających w wyrywaniu oszustw, poprzez analizę porównawczą głosu prawdziwego z wygenerowanym przez AI. Za pomocą autorskich narzędzi możemy ocenić z bardzo wysoką pewnością czy głos został podrobiony czy nie. Zastosowanie algorytmu opartego na biometrii jest z pewnością najskuteczniejszym sposobem na walkę z deepfakami w Internecie.
Dysponujemy też algorytmem, który pomaga już na etapie tworzenia nagrań, znakować je tak, aby nie można było ich skutecznie użyć do dalszej konwersji czy syntezy głosu. Takie narzędzie, na pewno pomogłoby w zmniejszeniu przypadków kradzieży głosu.