Dzień dobry, mówi komputer
Coraz częściej sekretarki i asystentów wyręczają inteligentne komputery. O tzw. cyfrowych asystentach i chatbotach opowiada Przemysław Buczkowski, ekspert w dziedzinie uczenia maszynowego z Ośrodka Przetwarzania Informacji - Państwowego Instytutu Badawczego.
Nauka w Polsce: Z komputerem można coraz częściej rozmawiać podobnie, jak z człowiekiem. Co potrafią komunikujące się z człowiekiem inteligentne aplikacje?
Przemysław Buczkowski: Największe możliwości mają asystenci osobiści, tacy jak Siri, Google Assistant czy Alexa. Potrafią robić dosyć spektakularne rzeczy. Integrują się na przykład z domowymi urządzeniami – światłem, otwieraniem garażu, bramą i całą masą różnorodnych akcesoriów. Potrafią stworzyć w naszym kalendarzu przypomnienie czy też wydarzenie. Mogą rozpocząć dla nas połączenie telefoniczne ze znajomym lub wysłać podyktowanego im SMS-a. Można również poprosić asystenta o włączenie ulubionej muzyki. Google pracuje obecnie nad rozwiązaniem o nazwie Duplex, które pozwolą asystentowi zadzwonić w naszym imieniu do restauracji lub fryzjera i zarezerwować stolik czy wizytę. Cała interakcja z tego typu rozwiązaniami zachodzi za pomocą najbardziej naturalnego dla człowieka interfejsu – języka naturalnego.
NwP: Jednocześnie, coraz więcej firm i instytucji wprowadza na swoich stronach www tzw. chatboty – podobnie działające programy, z którymi porozumiewamy się za pomocą klawiatury...
PB: Systemy udające człowieka, komunikujące się za pomocą słowa pisanego, powstawały już w latach 60. Pierwszy taki program, po którym pozostał ślad, stworzono w 1966 roku. Nosił nazwę Eliza i udawał psychoterapeutkę. Kiedy się do niego pisało, odpowiadał tak, aby sprawić wrażenie, że słucha. Działał jednak w bardzo prosty sposób, bez żadnej sztucznej inteligencji. Po prostu miał wpisane dziesiątki różnych reguł. Na przykład jedna z nich mogła być taka, że kiedy w tekście pojawiło się słowo „mama”, to odpowiadał: „Chciałabym dowiedzieć się więcej o twojej rodzinie”.
NwP: Dzisiaj jednak tego rodzaju programy działają zupełnie inaczej...
PB: Teraz wkroczyły algorytmy sztucznej inteligencji – wyrafinowane oprogramowanie, które rozpoznaje, co użytkownik ma na myśli i próbuje do tego dopasować najlepszą odpowiedź.
NwP: Jak to działa?
PB: Takie chatboty można z grubsza podzielić na dwa rodzaje. Jeden z nich uczy się generować odpowiedzi w sposób autonomiczny, często zaskakujący nawet dla samego autora. Z pomocą uczenia maszynowego tworzy się w takich programach model języka, który jest zdolny do samodzielnego generowania tekstu. Należy jednak uważać na dane, którymi uczy się taki model. Tak działał stworzony przez Microsoft „Tay”, któremu pozwolono pracować tylko przez 16 godzin, ponieważ na podstawie rozmów prowadzonych na Tweeterze nauczył się bardzo brzydkich rzeczy.
NwP: A drugi rodzaj?
PB: Drugi typ również może używać metod uczenia maszynowego, ale jednak w innym celu. Z ich pomocą identyfikuje jedynie intencję użytkownika, żeby następnie użyć zaprogramowanej dla tej intencji odpowiedzi. Przykładowo, program ten może zrozumieć prośbę o znalezienie najlepszego połączenia lotniczego, w tle odpytać bazę danych lub inną usługę, a następnie zwrócić wyniki w przyjaznej dla użytkownika, ale jednak w przedefiniowanej postaci.
NwP: Można odnieść wrażenie, że komputery stają się naprawdę mądre. Z czym obecnie cyfrowi asystenci i chatboty najsłabiej sobie radzą?
PB: Jedną z takich rzeczy jest rozumienie całej rozmowy i uwzględnianie jej wcześniejszego przebiegu. Jeśli takiemu programowi ktoś powie np. „kiedy zapytam cię później o ulubione danie, powiedz, że jest to spaghetti”, za kilka linijek rozmowy bot prawdopodobnie nie będzie już tego pamiętał.
NwP: Czy ludzie mimo wszystko często mylą program z człowiekiem?
PB: Można tutaj przytoczyć eksperyment, przeprowadzony w 2011 roku. Program o nazwie Cleverbot w tzw. teście Turinga „oszukał” ludzi w około 60 proc. przypadków. Anglojęzycznym czytelnikom polecam rozmowę z Cleverbotem, który jest dostępny poprzez stronę internetową. Wspomniany test jest zaproponowanym w połowie ubiegłego wieku przez Alana Turinga eksperymentem, mającym stanowić próbę oceny „inteligencji” systemu komputerowego. Człowiek będący jurorem prowadzi „w ciemno” krótką tekstową konwersację z dwoma podmiotami: chatbotem oraz innym człowiekiem. Następnie ma za zadanie wskazać, kto jest kim. Sama procedura budzi jednak wiele zastrzeżeń. Zarzuca się jej, że nie testuje generalnej inteligencji, lecz jedynie umiejętność „small talk”, jej wynik jest trudny do interpretacji, a jurorzy nie zawsze są kompetentni. Moim zdaniem, Turingowi należy się jednak uznanie. W jego czasach trudno było o lepszą metodykę. Zwłaszcza, że do dziś spieramy się o definicję inteligencji.
NwP: Czy więc można spodziewać się, że w ciągu na przykład dekady sekretarki i konsultanci infolinii przestaną być potrzebni?
PB: Jest taka szansa, choć nie ośmielę się powiedzieć, kiedy to może nastąpić. Wizjonerzy już wielokrotnie twierdzili, że za rogiem czeka powszechna silna sztuczna inteligencja, którą trudno będzie odróżnić od człowieka. Choć na pewno ten termin się nieustannie zbliża. Chatboty rozwiązują coraz więcej problemów. Na przykład rozmawiają z klientami i dopiero wtedy, kiedy sobie z czymś nie radzą, kierują ich do żywego pracownika. Odsetek spraw załatwianych przez komputer będzie rósł.
NwP: Na pewno istnieją też zagrożenia...
PB: Chatboty mogą ułatwiać niektóre przestępcze ataki. Przykładowo, istnieje znana od dawna metoda o nazwie "nigeryjski szwindel". Użytkownik dostaje informacje od kogoś, kto rzekomo odziedziczył duży majątek i szuka pomocy w przeniesieniu pieniędzy za granicę. Jeśli część osób odpowie na taką wiadomość, przestępcy muszą z nim porozmawiać, aby sfinalizować oszustwo. Może to za nich zrobić chatbot. Inna metoda polega na tym, że ktoś włamuje się na konta użytkowników mediów społecznościowych. W przypadku wielu kont można to zrobić, stosując łatwo dostępną listę najpopularniejszych haseł. Oszust może potem podszyć się pod właścicieli takich kont z pomocą chatbota i masowo prosić ich znajomych o pożyczenie pieniędzy.
NwP: Będziemy zatem potrzebowali programów do wykrywania chatbotów?
PB: Tak, może to się okazać potrzebne. Możemy sobie wyobrazić programy rozpowszechniające tzw. fałszywe wiadomości (ang. fake news) za pomocą czatów czy komentarzy. Sztuczna inteligencja coraz lepiej samodzielnie generuje nowe treści, obok tekstowych mogą to być również obrazy czy wideo. Przykładem tego ostatniego jest popularne ostatnio narzędzie deepfake, które potrafi podmienić twarz aktora na dowolną inną. Takie modele generujące treść często wykorzystują sztuczne sieci neuronowe typu GAN, w których dwie „podsieci” próbują się nawzajem pokonać. Pierwsza, zwana generatorem, próbuje wygenerować treść, a druga, zwana dyskryminatorem, próbuje zgadnąć, czy patrzy na treść prawdziwą, czy wygenerowaną. W ten sposób podczas uczenia obie stają się z czasem coraz lepsze. Mamy zatem do czynienia ze swoistym wyścigiem zbrojeń i – o ile daje to nadzieję na obronę przed zalewem Internetu złośliwą treścią – należy zakładać, że programy rozpoznające generowaną treść nie będą miały stuprocentowej skuteczności. Może to spowodować przemiany społeczne, które w tej chwili są trudne do przewidzenia.
Źródło: pap.pl
wstecz Podziel się ze znajomymi