Czym jest dostępność? 

Dostępność (z ang.accessibility) to szerokie pojęcie, opisujące stopień, w jakim dany system może być używany przez możliwie dużą grupę ludzi. 

To właściwość środowiska (przestrzeni fizycznej, rzeczywistości cyfrowej, systemów informacyjno-komunikacyjnych, produktów czy usług), która pozwala osobom z trudnościami funkcjonalnymi (fizycznymi, poznawczymi) na korzystanie z niego na zasadzie równości z innymi. 

Regulacje w Polsce – Dyrektywy WCGA2.0 i WCAG2.1 

Z  myślą o osobach z niepełnosprawnościami został stworzony standard WCAG 2.0  (Web Content Accessibility Guidelines) – obszerny zbiór rekomendacji na temat dostępności treści internetowych – jest to 12 wytycznych definiujących cechy poszczególnych elementów treści w Internecie, które mają wpływ na ich dostępność. Dotyczy to  sklepów online, klientów pocztowych oraz aplikacji mobilnych. 

WCAG2.1 to rozszerzony standard WCAG 2.0 o dodatkowych 17 wytycznych związanych z udostępnianiem treści na urządzeniach mobilnych. m.in. możliwość oglądania obrazu na urządzeniach mobilnych w orientacji pionowej i poziomej, dopasowanie treści strony do okna urządzenia, bez konieczności przewijania obrazu, stosowanie odpowiednich odstępów między liniami, stosowanie odpowiedniego współczynnika kontrastu czy możliwość wyłączenia animacji po interakcji.

Póki co, do obligatoryjnego stosowania tych Dyrektyw są zobowiązane instytucje publiczne, ale myśląc o upowszechnieniu rozwiązań, powinniśmy zadbać o to, aby nowopowstałe produkty/usługi w jak największym stopniu spełniały te wymagania. 

Co oznacza dostępność dla nas jako firmy?

Dostępność dla nas jest jedną z głównych 4 wartości (obok innowacyjności, współpracy, bezpieczeństwa), do której przykładamy ogromną rolę podczas projektowania rozwiązań  z zakresu biometrii głosowej i ulepszania systemów tego rodzaju. Rozwijamy nasze technologie z myślą o jej powszechności, o osobach, którym brakuje wiedzy lub ich wiedza na temat zagrożeń w sieci jest znikoma. Tworząc rozwiązania już na etapie prac badawczych dbamy o to, aby jak najwięcej osób mogło z nich korzystać, priorytetowo traktując osoby nie w pełni sprawne np. z ograniczonymi możliwościami widzenia. Staramy się w ten sposób niwelować różnice, mówiąc wprost przeciwdziałać  wykluczeniu cyfrowemu. Wierzymy, że takie podejście  zdecydowanie podnosi jakość i komfort życia osób z niepełnosprawnościami. Jak podaje GUS w Polsce takich osób (zarejestrowanych prawnie) jest ponad 3 mln, co stanowi 10% całego społeczeństwa.

Komunikator głosowy Vesper 

Obecnie pracujemy nad nowym, innowacyjnym rozwiązaniem do komunikacji za pomocą głosu. Jego zaletą będzie wysoka jego dostępność właśnie dla osób z niepełnosprawnościami. Z racji na fakt, że rozwiązanie udostępnione zostanie również na urządzeniach mobilnych przy projektowaniu  bazować będziemy na standardzie WCAG2.1. Produkt cechować się będzie czytelnym i domyślnym interfejsem, zapewniającym prostą i intuicyjną obsługę oraz dużą elastycznością w użytkowaniu. Komunikator głosowy zapewni użytkownikom m.in. możliwość czytelnego przybliżania tekstu czy zastosowania opisów alternatywnych. Warto podkreślić, że żaden z istniejących na rynku komunikatorów nie posiada takich funkcjonalności.

Projekt jest realizowany dzięki dotacji Unii Europejskiej.

więcej o projekcie Vesper

Czy to możliwe? Eksperyment badawczy otwiera nowe możliwości w tym zakresie. 

Naukowcy z Wielkiej Brytanii stworzyli zbiór danych zawierający ruchy fizyczne generujące dźwięki mowy. Zbiór ten może posłużyć w przyszłości do opracowania systemów rozpoznawania mowy syntetyzujących głosy osób z wadami wymowy. Może to przyczynić się także do opracowania nowej metody rozpoznawania cichej mowy a nawet nowej biometrii behawioralnej. 

Oznacza to, że w niedalekiej przyszłości  urządzenia sterowane głosem, np. smartfony, będą prawdopodobnie mogły czytać z ruchu warg użytkowników i być wykorzystywane do uwierzytelniania aplikacji bankowych i innych wrażliwych aplikacji poprzez identyfikację unikalnej mimiki użytkownika. Innymi słowy, uwierzytelnienie osoby mogłoby się odbywać na podstawie ruchów jej warg i twarzy.

W niniejszym eksperymencie bazę danych zbudowano na podstawie czytania z ruchu warg i analizy ruchów twarzy. Aby uchwycić ruch skóry twarzy, języka oraz krtani uczestników badania podczas mówienia użyte zostały dane z radarów z falą ciągłą. Naukowcy wykorzystali między innymi system wykrywania spekli laserowych z superszybką kamerą do uchwycenia wibracji na powierzchni skóry a także kamerę Kinect V2 do odczytania zmian kształtu ust podczas formowania różnych dźwięków.

Baza danych, utworzona na podstawie analizy 400 minut mowy zostanie udostępniona badaczom bezpłatnie, w celu dalszego rozwoju technologii.

W skład grupy badawczej weszli naukowcy z Uniwersytetu w Dundee i University College London. W eksperymencie wykorzystano też technologię z Centrum Komunikacji, Wyczuwania i Obrazowania na Uniwersytecie w Glasgow.

szczegóły