Czy bot może być szczery? Czy może wyrazić skruchę kiedy przeprasza? Takie pytania zadają sobie badacze w kontekście możliwego wykorzystania AI w obsłudze skarg.

Mowa tu o zautomatyzowaniu całego procesu. O ile jego obsługa wydaje się nie być problematyczna to najtrudniejszym wyzwaniem może okazać się pokazanie przez bota emocji, w tym przypadku przeprosin.

Badania sugerują, że kiedy ludzie oczekują przeprosin, liczą na szczerą skruchę i autentyczność. Ważna jest też spontaniczność, a to są już typowe cechy ludzkie, z którymi nie zawsze idealnie poradzi sobie maszyna. Na ile więc przepraszająca sztuczna AI może być wiarygodna?

Więcej w artykule https://www.biometricupdate.com/202505/apologetic-intelligence-should-bots-handle-complaints

Z ang. „voice stream augmentation” to technika polegająca na wzmacnianiu lub modyfikowaniu strumienia głosowego w czasie rzeczywistym w celu poprawy zmiany jego jakości. W skrócie chodzi tu o wykorzystanie urządzeń elektronicznych typu mikrofony, głośniki, wzmacniacze lub algorytmów programowych do zmiany charakterystyki dźwięku, np. barwy głosu.

Nie trudno więc się domyślić, że augmentację stosuje się w systemach rozpoznawania mowy, w grach, a nawet w sztucznej inteligencji, gdzie pozwala ona na generowanie sztucznych głosów i poprawę ich naturalności.

Obecnie w jednym z projektów tworzymy autorski silnik augmentacji strumienia głosowego. Ma on na celu wspomagać wykrywanie nieuprawnionego wykorzystania głosu w komunikatorze do dalszej syntezy/ konwersji nie powodując przy tym degradacji dźwięku słyszanego z poziomu ludzkiego ucha. Wszystko po to, aby zapobiec kradzieży głosu i zapewnić jak najskuteczniejsze działanie usługi.