Nasze uśmiechy firmy przeliczą na dolary

opublikowano: 25 stycznia 2020
Nasze uśmiechy firmy przeliczą na dolary lupa lupa
Powstanie technologii, która skutecznie odczytuje emocje wyłącznie na podstawie wyrazu twarzy, jest tylko kwestią czasu, fot. Pixabay

Tak uśmiech, jak i grymas, to niewerbalne sposoby komunikacji międzyludzkiej. Umiejętność odszyfrowania tego, co oznaczają, to prawie jak czytanie w myślach. Już niedługo taki dar posiądzie biznes.

Według firm analitycznych, sektor światowej gospodarki zajmujący się automatycznym rozpoznawaniem emocji już w 2021 osiągnie wartość 40 mld dol., a zaledwie trzy lata później – okrągłe 100 mld dol.

Mimika twarzy to wyjątkowy dar, którym człowiek posługuje się prawdopodobnie jako jedyny organizm na Ziemi. Robi to, by wyrazić swoje emocje lub… je pozorować, dlatego ich poprawne odczytanie nie jest takie łatwe i oczywiste. Uśmiech nie zawsze oznacza radość, a grymas złość.

– Umiejętność odczytywania ludzkich emocji poprzez analizę i interpretację sygnałów niewerbalnych fascynuje i intryguje od dawna, ma to nawet swoją nazwę – synergologia. Dotychczasowe próby zbudowania maszyny, która pozwoli odgadywać ludzkie emocje, okazały się nieskuteczne. I pewnie jeszcze długo by się nic w tej dziedzinie nie zmieniło, gdyby nie inicjatywy podejmowane przez wielkie korporacje, które chcą jak najlepiej poznać swojego klienta, a następnie przekuć tę wiedzę na zyski – mówi Sascha Stockem, założyciel i CEO Nethansy, polskiej firmy specjalizującej się we wsparciu sprzedaży na Amazonie.

Aby lepiej poznać potrzeby klienta, już dziś biznes wykorzystuje wielkie zbiory danych zwane Big Data oraz algorytmy sztucznej inteligencji, które niczym detektyw rozwiązują zagadki, jakim ludzki umysł nie jest w stanie podołać. Rozwój tych dziedzin odmienił sposób, w jaki firmy funkcjonują oraz generują zyski. Według najnowszego raportu BARC, przedsiębiorstwa wykorzystujące potencjał analityki Big Data odnotowały 8-procentowy wzrost zysku i 10-procentowy spadek całkowitych kosztów.

Twarz warta majątek

Ponieważ sztuczna inteligencja stoi za coraz większą liczbą podejmowanych decyzji, mających wpływ nie tylko na wyniki biznesowe, lecz również na życie konsumentów, inżynierowie nieustannie szukają sposobów, aby uczynić ją wrażliwą na ludzkie uczucia. Temu zadaniu podołać mają specjalne algorytmy inteligencji emocjonalnej – niezbędnej do zrozumienia ludzkiej natury oraz sposób, w jaki podejmujemy decyzje.

Microsoft, IBM i Amazon opracowały tak zwane algorytmy rozpoznawania emocji, które na podstawie analizy twarzy wywnioskują, jak ludzie się czują. Na przykład jeśli ktoś ma zmarszczone czoło i zaciśnięte usta, oznacza to, że jest zły. Jeśli oczy są szeroko otwarte, brwi uniesione, a usta rozciągnięte, komputer odczytuje to jako strach i tak dalej – wylicza Sascha Stockem.

Według Markets&Markets wartość sektora rozpoznawania emocji przy użyciu sztucznej inteligencji wyniesie w 2021 r. blisko 40 mld dol. To prawie sześć razy więcej niż w 2016. Prognozy te potwierdzają inne firmy badawczo-analityczne. Jedna z nich to Markets Research Future, która przewiduje, że wartość rynku komputerowego rozpoznawania emocji w 2023 wyniesie 65 mld dol. i chociaż to nie licytacja, to najdalszą i najwyższą ofertę przedstawia Mordor Intelligence, która twierdzi, że w 2024 r. rynek ten wart będzie zawrotne 100 mld dol..

Analiza sygnałów twarzy, tj. ekspresji w celu określenia emocji wewnętrznych, to jeden z głównych punktów na liście TO DO korporacji na najbliższe lata. Taką wiedzę można wykorzystać do uruchomienia lub zmiany procesu decyzyjnego klienta, a w szerszym ujęciu: do osiągnięcia nieznanego dotychczas poziomu personalizacji doświadczeń e-konsumentów – tłumaczy CEO Nethansy.

E-mocje, czyli jak komputery uczą się reakcji ludzi

Według badań Business Insider do 2020 r. na całym świecie zostanie zainstalowanych ponad 24 mld urządzeń ze świata internetu rzeczy (IoT) – to więcej niż cztery dla każdej osoby na świecie. Więcej urządzeń oznacza, że ludzkość będzie generować jeszcze więcej danych o jeszcze większej dokładności.

Podobnie jak w przypadku większości aplikacji do uczenia maszynowego, postęp w wykrywaniu emocji zależy od dostępu do danych wysokiej jakości – im więcej, tym lepiej. Nie dziwi więc fakt, że tak gwałtowny wzrost zainteresowania tematem wykrywania i rozpoznawania emocji nastąpił w momencie, gdy rewolucja informacyjna znajduje się w fazie rozkwitu.

Najwięksi giganci technologiczni od jakiegoś czasu intensywnie pracują nad własnymi rozwiązaniami. Amazon, Microsoft, Alphabet i Apple testują kolejne technologie, a niektóre z nich doczekały się już uruchomienia projektów pilotażowych. Wersja demonstracyjna programu Microsoft Project Oxford zyskała nawet viralową popularność. – Idea tego programu polega na tym, że przesyłasz zdjęcie, a algorytmy wykrywają emocje na podstawie mikroekspresji danej osoby, wybierając spośród siedmiu podstawowych: pogarda, wstręt, strach, szczęście, smutek, niespodzianka lub stan obojętności – wyjaśnia Sascha Stockem.

Inny globalny gracz, Apple, nabył Emotient, start-up, którego dorobkiem jest autorska technologia skanowania twarzy i czytania ludzkich emocji. Gigant z Cupertino od dawna romansuje z tą technologią, czego efektem jest funkcja odblokowania urządzeń mobilnych poprzez skanowanie twarzy czy autoryzacja płatności w ramach usługi Apple Pay. Autorskie rozwiązanie Face ID wykorzystywane jest nieprzerwanie od premiery jubileuszowego iPhona X i opiera się nie tylko na specjalistycznych podzespołach, lecz również na zaawansowanym algorytmie uczenia maszynowego, który codziennie uczy się naszej twarzy. W wywiadzie na temat bezpieczeństwa biometrycznego wiceprezes firmy Apple, Greg Joswiak, zapowiedział, że ta technologia przenoszona będzie do kolejnych urządzeń. – Oczywiście będziemy kontynuować rozwój Face ID w coraz większej liczbie urządzeń, ale jednocześnie nie rezygnujemy z innych rozwiązań, jak Touch ID – oznajmił Joswiak.

Trudna lekcja Amazona

Jednak najpopularniejszym przykładem oprogramowania, które pozwala na analizę obrazu i odczytywanie emocji jest Amazon Rekognition. To zaawansowany system sieci neuronowych przeszkolony w zakresie dużych zbiorów danych (czyli wykorzystujący gigantyczną liczbę zdjęć i filmów), który rozpoznaje i oznacza obiekty, ludzi, emocje i czynności.

Amazon nie wyjaśnia, jak dokładnie funkcjonują sieci neuronowe Rekognition – to w końcu tajemnica handlowa. Możemy się jednak domyślać, że identyfikują one wszystkie elementy obrazu, w tym również emocje, posługując się schematami. W ten sposób określone wzory mimiki twarzy mogą być przypisane do odpowiednich stanów emocjonalnych. Chociaż, jak zauważa CNBC, wielu ekspertów jest zdania, że mimika twarzy niekoniecznie odzwierciedla zmianę emocji – tłumaczy CEO Nethansy.

W sierpniu 2019 r. firma Jeffa Bezosa poinformowała o tym, że do zbioru identyfikowalnych przez system emocji dołączyła nowa – strach. Dzięki uczeniu maszynowemu algorytm działa coraz sprawniej i odczytuje uczucia z coraz większą skutecznością. Coraz lepiej radzi sobie również z wykrywaniem płci oraz przedziału wiekowego. W połączeniu z wyżej wymienioną listą innych obiektów, które Rekognition potrafi już zidentyfikować, jasne jest, że Amazon chce, aby to oprogramowanie mogło skutecznie analizować każdy rodzaj obrazu.

W amerykańskich mediach nie szczędzi się krytyki pod adresem Amazona, po tym jak spółka sfinalizowała kontrakt, zakładający udostępnienie Rekognition agencjom rządowym. To nie wszystko! System ma również trafić również do Urzędu Imigracyjnego i Celnego za ewentualną kwotę 950 mln dol. – mówi Sascha Stockem.

Mniejszy nie znaczy gorszy

W szranki z sieciami neuronowymi Amazona stają nie tylko technologiczni giganci, lecz również mniejsi gracze. Jednym z tych ostatnich jest firma Affectiva, która wyrosła z laboratorium obliczeń emocjonalnych Massachusetts Institute of Technology. Według oficjalnych informacji posiada ona największe na świecie repozytorium danych o emocjach, z bankiem twarzy liczącym ponad 7,5 mln wizerunków, które zebrane są z 87 krajów.

Zgromadzone materiały analizowane są w biurze w Kairze, gdzie 35 pracowników Affectiva dokładnie ogląda zebrane filmy i przyporządkowuje mimikę do odpowiednich emocji. Następnie dane wykorzystywane do trenowania algorytmu, który uczy się dopasowywać mimikę twarzy do konkretnych emocji.

W 2013 r. amerykański Forbes nazwał system opracowany przez Affectiva jedną z pięciu najbardziej przełomowych technologii. Podobny projekt o nazwie Emotient zrealizowany został przez absolwentów California Institute w San Diego. Wzbudził on równie duże zainteresowanie, co zaowocowało zebraniem 8 mln dol. od inwestorów, w tym Intel Capital. Międzynarodowe środowisko to doskonała szansa dla biznesu na rozwój, nie tylko dla start-upów.

Problem dwuznaczności
To, że dana osoba wygląda na szczęśliwą, nie oznacza, że tak się czuje. Śmiech może być ironiczny, a łzy płyną również ze szczęścia.

Coś tak złożonego jak emocje wymyka się łatwej klasyfikacji. Ludzie zwykle instynktownie wykorzystują inne środki komunikacji niewerbalnej, takie jak język ciała lub ton głosu, aby dokończyć ocenę emocjonalną. Algorytmy do wykrywania emocji na chwilę obecną nie są przystosowane do analizy tak wielu zmiennych. Nie mają zresztą wglądu w tak wiele informacji – tłumaczy prezes zarządu firmy Nethansa.

Powstanie technologii, która skutecznie odczytuje emocje wyłącznie na podstawie wyrazu twarzy, byłoby przełomem. Jej potencjalnych zastosowań nie widać końca. Marketerzy przy jej pomocy mogliby badać reakcje widzów na wyświetlane im reklamy, komputery samochodowe mogłyby oceniać stan, w jakim znajduje się kierowca, a działy HR już na etapie wstępnej selekcji kandydatów mogłyby automatycznie eliminować tych znudzonych lub niezainteresowanych.

Oprogramowanie do interpretacji emocji testuje się już w diagnostyce klinicznej i badaniach rynkowych. Tymczasem nowe badanie naukowe opracowane przez grupę czołowych ekspertów w dziedzinie nauk psychologicznych, które pojawiło się na łamach Przeglądu Stowarzyszenia na Rzecz Nauk Psychologicznych, dowodzi, że ruchy twarzy są niedostatecznym miernikiem uczuć, zachowań lub intencji człowieka. – Firmy mogą mówić, co tylko chcą, ale sprawa jest jasna! – studzi emocje Lisa Feldman Barrett, profesor psychologii w Northeastern University i jeden pięciu autorów wspomnianego badania. – To, że dany system jest w stanie dostrzec grymas na twarzy, nie oznacza, że wykrywa on złość czy gniew – przekonuje w rozmowie z portalem The Verge.

Profesorska krytyka nie powstrzyma pracy na algorytmami rozpoznawania emocji – tego możemy być pewni. A to, czy okażą się wystarczająco skuteczne, zweryfikuje rynek.

Źródło: materiały prasowe Nethansa

 

 

Zaloguj się, by uzyskać dostęp do unikatowych treści oraz cotygodniowego newslettera z informacjami na temat najnowszego wydania

Zarejestruj się | Zapomniałem hasła