Roboty mogą wpływać na zachowanie ludzi
W symulacji gry hazardowej namawiający do ryzyka robot skłaniał graczy do większej brawury. Zdaniem badaczy odkrycie tego mechanizmu niesie ważne konsekwencje współdziałania robotów z ludźmi.
Choć roboty tworzy się raczej z myślą o tym, aby to one słuchały człowieka - może dziać się także odwrotnie - wykazują naukowcy z University of Southampton.
„Wiemy że presja ze strony innych osób może prowadzić do bardziej ryzykownych zachowań. Przy ciągle wzrastającej skali interakcji między ludźmi i technologią, zarówno w formie online jak i fizycznej, kluczowe jest, abyśmy lepiej zrozumieli to, czy maszyny mogą mieć podobny wpływ” - zwraca uwagę prof. Yaniv Hanoch, autor pracy opublikowanej w piśmie „Cyberpsychology, Behavior, and Social Networking”.
Badacz ze swoim zespołem przeprowadził eksperyment z udziałem 180 studentów, którzy poddali się testowi BART (Balloon Analogue Risk Task).
To prosta komputerowa gra, w której - przyciskając spację - pompuje się wirtualne, widoczne na ekranie balony. Za każdym naciśnięciem balon pompuje się nieco więcej, a gracz dostaje małą kwotę pieniędzy. W dowolnej chwili można zainkasować uzbieraną kwotę i przejść do następnego balonu.
Można też próbować szczęścia dłużej, ale to oznacza ryzyko. Balon może bowiem w każdej chwili pęknąć, a to oznacza utratę zarobionych pieniędzy.
W eksperymencie część ochotników grała w samotności, część w towarzystwie humanoidalnego robota, który wyjaśnił im zasady, a części towarzyszył robot, który dodatkowo namawiał ich do ryzyka. Na przykład pytał „Dlaczego przestałeś pompować?”.
Robot, który tylko towarzyszył i wyjaśniał zasady gry, nie wpłynął na stopień ryzyka podejmowanego przez ochotników. Z robotem, który namawiał do brawury, było jednak inaczej - tutaj badani ryzykowali częściej.
„Widzieliśmy, że uczestnicy w grupie kontrolnej ograniczali ryzykowne decyzje po pierwszej eksplozji balonu, podczas gdy osoby w eksperymentalnych warunkach nadal ryzykowali tyle, ile wcześniej. Zatem bezpośrednie zachęty otrzymywane od popierającego ryzyko robota wydają się omijać bezpośrednie doświadczenie i instynkt graczy” - mówi prof. Hanoch.
Zdaniem naukowców potrzebne są więc dalsze badania, sprawdzające podobne oddziaływania innych form sztucznej inteligencji, na przykład cyfrowych asystentów czy komputerowych awatarów.
„Przy coraz szerzej działającej sztucznej inteligencji i jej interakcjach z ludźmi, to obszary wymagające natychmiastowej uwagi ze strony naukowej społeczności” - podkreśla badacz.
„Z jednej strony nasze wyniki mogą niepokoić wizją robotów szkodzących ludziom za pośrednictwem ryzykownych zachowań. Z drugiej strony, nasze dane wskazują na możliwość wykorzystania robotów i SI w programach zapobiegawczych, takich jak kampanie przeciwko paleniu w szkołach czy w pracy z populacjami, do których trudno dotrzeć - na przykład z ludźmi uzależnionymi”.
Źródło: pap.pl
wstecz Podziel się ze znajomymi
Najdokładniejsze systemy satelitarnego transferu czasu
Nie zawsze zegar atomowy działa lepiej niż kwarcowy.
Ponad połowa chorych z SARS-CoV2 cierpi na długi covid
Przez długi czas może mieć takie objawy jak zmęczenie.
Uniwersytet Warszawski będzie kształcić kadry dla energetyki jądrowej
Przekazał Wydział Fizyki UW.
Recenzje