Otwórz schowek Brak ulubionych odcinków
Ludzie i roboty – czy maszyna może być dla nas autorytetem? | dr Konrad Maj

Ludzie i roboty – czy maszyna może być dla nas autorytetem? | dr Konrad Maj

Pobierz Dodaj do ulubionych

Udostępnij odcinek

Pobierz Dodaj do ulubionych

Udostępnij odcinek

Dodaj do ulubionych
Pobierz odcinek

Udostępnij odcinek

Gość odcinka

Dr Konrad Maj

Dr Konrad Maj

Psycholog społeczny, kierownik Centrum Innowacji Społecznych i Technologicznych (HumanTech) na Uniwersytecie SWPS, adiunkt w Katedrze Psychologii Społecznej na Wydziale Psychologii w Warszawie. 

Naukowo interesuje się zagadnieniami związanymi z nowymi technologiami (sztuczną inteligencją i metawersum), wpływem społecznym oraz innowacjami.

Roboty humanoidalne wcale nie są lubiane – zauważa dr Konrad Maj – Nasza interakcja  z nimi jest trochę dziwna, bo balansujemy ciągle na granicy: czy to jest człowiek, czy to jest maszyna?  – dodaje.

Dr Maj jest psychologiem społecznym, kierownikiem Centrum Innowacji Społecznych i Technologicznych HumanTech na Uniwersytecie SWPS w Warszawie. Zajmuje się relacjami ludzi z robotami. Przy pierwszym kontakcie bardzo wiele zależy od tego, jak wygląda robot. Wystarczą już bardzo proste cechy (typu dwie kropki i kreska przypominające twarz), byśmy potrafili dany obiekt antropomorfizować: ewolucyjnie mamy wykształconą zdolność do błyskawicznego rozpoznawania twarzy.

Ogromne znaczenie w relacjach z robotami ma język, czyli to, czy nadamy robotowi jakieś cechy ludzkie, np. określimy jego płeć, imię, pochodzenie, a nawet to, czy nazwiemy jego poszczególne elementy jak części ludzkiego ciała. Z badań wynika, że wobec tak określonej maszyny natychmiast zaczynamy stosować te same stereotypy co wobec ludzi. Badani wchodzą w większe interakcje z robotami przedstawionymi im jako przedstawiciele płci przeciwnej (zdarzają się próby flirtu), a nawet mają tendencję do wyższej oceny robotów przedstawionych jako tej samej narodowości, co oni sami. Lepiej oceniamy też roboty, które popełniają niewielkie błędy – w psychologii nazywamy to efektem potknięcia.

Co fascynujące, roboty potrafimy również traktować jak autorytety. Dr Maj wraz z prof. Tomaszem Grzybem i prof. Dariuszem Dolińskim, postanowili zreplikować z udziałem robota znany eksperyment Milgrama, badający podatność na autorytety. Okazało się, że aż 90% badanych wykonywało polecenia robota, nawet jeśli mogli skrzywdzić inną osobę przez rażenie prądem.  Jakie są możliwości wykorzystania robotów w interakcji z ludźmi?

Ogromne. Na pewno coraz częściej będą za nas wykonywać prace żmudne lub niebezpieczne. Sprawdzają się w edukacji, mówi się o ich zastosowaniu w w opiece (szczególnie nad osobami starszymi), a także jako wsparcie w procesach terapeutycznych: można im wyznać to, co krępujemy się powiedzieć człowiekowi.

A zagrożenia? Wracamy do budowy robota: – powinno się bardzo uważać z robotami humanoidalnymi, żeby nam nie mieszać w głowach – ostrzega dr Maj. – Technologie zdecydowanie potrafią wymuszać na nas konkretne zachowania, trzeba uważać, jak je projektujemy – podkreśla. Opowiemy też, jak gra się z robotem w „papier, kamień, nożyczki”, co myślą o robotach dzieci i kiedy wstydzimy się rozebrać przed robotem oraz jak pożegnano pewnego robota, który wpadł do fontanny w centrum handlowym.

Zainteresowanym tematem polecamy konferencję, która gość RN organizuje https://www.htsummit.pl/ w dn. 9-10 grudnia 2023. Dostęp online jest bezpłatny.  

Linki do kilku badań dr Maja:
Zmodyfikowany eksperyment Milgrama
Reakcje na dotykanie robota
Percepcja robotów przez dzieci

 

TRANSKRYPCJA

 

Karolina Głowacka: Roboty są wśród nas i będzie ich coraz więcej, a im bardziej przypominają ludzi, w tym większą konfuzję nas wpędzają. Może więc budowanie robotów humanoidalnych to wcale nie jest dobry kierunek? W tym odcinku posłuchacie o tym, jak ludzie podrywają roboty, jak słuchają ich poleceń, nawet nieetycznych, o tym, jak potrafią roboty kochać, publicznie je żegnać albo oceniać na podstawie narodowości. Nazywam się Karolina Głowacka, słuchacie Radia Naukowego. Działamy dzięki wsparciu na patronite.pl/radionaukowe. Bardzo wszystkim wspierającym dziękuję, a pozostałych zachęcam. Zapraszam na odcinek numer sto siedemdziesiąt jeden.

K.G.: Doktor Konrad Maj, psycholog społeczny, odwiedził studio Radia Naukowego. Dzień dobry.

 

K.M.: Dzień dobry.

 

K.G.: Kierownik Centrum Innowacji Społecznych i Technologicznych Human Tech, Wydział Psychologii w Warszawie, Uniwersytet SWPS. Doktor Maj prowadzi badania w obszarze human robot interactions, czyli interakcji ludzi z robotami. Ten temat sam w sobie jest przebogaty. Na początek – my, ludzie, potrzebujemy sobie kategoryzować rzeczywistość, nawet kiedy się spotykamy z urządzeniami. Widzimy robota. Mamy z nim zacząć jakąś interakcję. Jak go odbieramy? Czy on jest dla nas osobą? Czy może jest dla nas innym gatunkiem? A może jest takim samym urządzeniem jak np. wiertarka?

 

K.M.: Tak to jest, że ten pierwszy kontakt to jest próba zrozumienia, z czym ktoś ma do czynienia, co to za bodziec jest naprzeciwko mnie. Wiele zależy np. od tego, jak ten swoisty bodziec wygląda, czyli jakie są cechy tego obiektu. Jeśli przypomina nam on bardzo człowieka, czyli wyobraźmy sobie, że ma coś w rodzaju skóry czy włosów, to wiemy, że musimy dostosować nasze zachowania, traktując ten obiekt jak człowieka. Tak przynajmniej nam się wydaje, że swoisty skrypt sytuacyjny musi być taki, że muszę się przywitać, podać rękę i zachowywać się tak, jak w stosunku do człowieka. Jeśli jednak widzimy, że to urządzenie jest dalekie od wyglądu człowieka, to używamy skryptu: to jest maszyna. Wiemy, że musimy się jakoś z nimi komunikować, oczywiście też naturalnym językiem, ale już wtedy nie mamy np. jakiegoś większego zakłopotania, zachowujemy się bardziej swobodnie.

 

K.G.: Władczo? To my rządzimy?

 

K.M.: Tak. Jeśli chodzi o wygląd bardzo przypominający człowieka, to szybko się orientujemy, że jednak jest tu dużo niedoskonałości, że ta maszyna, która z daleka wydawała się podobna do człowieka, wcale taka doskonała nie jest. No bo umówmy się, technologia nie jest jeszcze na takim poziomie i te humanoidalne roboty, nawet bardzo zaawansowane, są toporne, ich ruchy nie są takie płynne. Od razu to widać. Ale generalnie mamy z tym poważny problem. Ta interakcja jest taka dziwna dlatego, że cały czas balansujemy nad swoistymi kategoriami, czy to jest człowiek, czy to jest maszyna. Nie wiemy, jak się zachować i może z tego powodu często roboty humanoidalne są przez nas odrzucane, nie są przez nas lubiane. 

 

K.G.: Ale jeśli chodzi o to, w jaki sposób podchodzimy do danego robota w zależności od tego, jak on wygląda, to powiedziałeś, że duże znaczenie ma właśnie to, na ile on jest podobny człowieka, ale jak mocno on musi być antropomorfizowany? Czy wystarczy, że będzie miał ludzki kształt – głowa, ręce, nogi? Czy to musi być skóra, włosy? Bo mamy tak duże tendencje do postrzegania różnych kształtów jako ludzkich, że wystarczy, że położymy żółty ser na kanapce, zrobimy dwie kropki i półkole z ketchupu, i już mamy twarz. Tak to widzimy, tak mamy skonstruowany mózg. Więc jak daleko musi być posunięta ta antropomorfizacja, żebyśmy się bardziej prostowali na widok tego robota i byli wobec niego np. bardziej uprzejmi?

 

K.M.: Zasada jest prosta – proces antropomorfizacji jest tym większy, im więcej tych cech jest. Ale tak jak powiedziałaś, czasami widzimy nawet bardzo proste, schematyczne rysunki albo coś w architekturze, że są jakieś dwie kropeczki i półkole pod spodem, i już myślimy, że to twarz. Tak że mamy wielką skłonność do detekcji twarzy w obiektach, które są wokół nas. Już na przestrzeni naszej ewolucji było niezwykle istotne, żeby rozpoznawać szybko twarz. Zresztą jest taki efekt twarzy w tłumie. Jesteśmy zaprogramowani na to, żeby wychwytywać obiekty, które są wokół nas, bo mogą nam zagrażać.

 

K.G.: A czym jest ten efekt twarzy w tłumie?

 

K.M.: Jest to swoisty koncept, paradygmat, gdzie sprawdzano, jaką ludzie mają tendencję do rozpoznawania twarzy. Jak się okazuje, w tłumie szczególnie rozpoznajemy negatywne twarze. Wyobraźmy sobie, że mamy np. sto twarzy i wszystkie są uśmiechnięte, a jedna jest negatywna. Szybkość wychwycenia, rozpoznania tej negatywnej jest znacząco wyższa niż w odwrotnym przypadku. 

 

K.G.: Szukamy niebezpieczeństwa.

 

K.M.: Tak. Mamy silne detektory twarzy, ale szczególnie silne wtedy, kiedy te emocje są negatywne. Wracając do antropomorfizacji, jest to taki proces przypisywania obiektom fizycznym cech ludzkich. Im więcej jest takich wskaźników, że to coś jest ludzkie, tym większa jest antropomorfizacja. Jak pokazują badania, jeśli na swoistych twarzach robotów jest więcej jakichś rys, jakichś zmarszczek, to bardziej je antropomorfizujemy. I im bardziej przypisujemy jakieś stany tymże obiektom, tym bardziej jesteśmy w stosunku do nich np. zakłopotani, zachowujemy się wedle takich ludzkich kategorii. Tak że czy głos, czy włosy, czy inne atrybuty powodują, że bardziej zachowujemy się w stosunku do tych obiektów jak w stosunku do ludzi.

 

K.G.: Ale to w zasadzie jest zupełnie nieracjonalne, żeby być zakłopotanym wobec robota albo starać się być wobec niego uprzejmym. Nie przeszkadza nam to? Trochę bez sensu.

 

K.M.: To są nieświadome procesy, chociaż może rzeczywiście nie ma w tym sensu. Kiedyś Christoph Bartneck udowodnił to w takich prostych badaniach, gdzie w jednym warunku eksperymentalnym powiedział osobom badanym, że to urządzenie, które jest naprzeciwko ciebie, ma takie możliwości, żeby diagnozować pewne schorzenia i w związku z tym prosimy, żebyś się rozebrał i stanął naprzeciwko tego urządzenia. To była taka skrzyneczka techniczna. Z kolei w drugim wariancie instrukcja była taka sama, z tym że był to już robot humanoidalny, co prawda taki kotek, ale też mający oczy, usta. Okazało się, że nawet kiedy był to taki robotyczny kotek, ludzie byli bardziej zakłopotani. Jak się rozebrali i stali półnadzy przed urządzeniami w tym warunku, w którym był kotek, to bardziej się zakrywali, widać było, że czują się niekomfortowo, czują na sobie wzrok. To są procesy, które są poza naszą kontrolą, nie jesteśmy w stanie powiedzieć naszej korze mózgowej: słuchaj, daj spokój, wyluzuj, to jest tylko i wyłącznie robot. 

 

K.G.: Robiliście takie badania, w jaki sposób reagujemy na dotykanie robota w różne części ciała w zależności od tego, jak nazwie się te części – czy się je nazwie anatomicznie, czy numerkami. I co wam wyszło?

 

K.M.: Może zacznę od tego, co było inspiracją. Bo prawda jest taka, że ktoś wcześniej przeprowadził takie badanie na Uniwersytecie Stanforda. Ale jak czytałem artykuł na ten temat, to coś mnie tknęło, że wniosek, jaki wysunięto z tamtych badań, był zbyt prosty – to znaczy, że dotykając robota, pojawia się inne pobudzenie w zależności od tego, jaką jego część dotykamy. Mnie to nie zadowoliło, miałem pewne zastrzeżenia, bo pomyślałem sobie, jaka jest w tym rola języka. To znaczy, jeśli w tamtym badaniu eksperymentator mówił do osoby badanej: „proszę dotknąć głowy robota”, „proszę dotknąć genitaliów robota”, a następnie mierzono pobudzenie fizjologiczne i okazywało się, że te genitalia działają mocniej, to pomyślałem sobie: chwila, czy to jest kwestia dotyku, czy może samego słowa? Wiemy o tym, że są słowa, które niosą ze sobą od razu pewne emocje. Więc pomyślałem sobie, że trzeba to zreplikować i wprowadzić dwa warunki eksperymentalne do tego schematu. W jednym schemacie ponumerowaliśmy naszego robota właśnie takimi cyferkami, a w drugim wariancie były to nazwy anatomiczne, ludzkie. I okazało się, że to zadziałało tylko w tym warunku nazw ludzkich. Tak że, gdyby ten profesor na Stanfordzie zrobił tak samo, również wprowadził dodatkowy warunek, to pewnie by mu wyszło podobnie, że nie ma większego pobudzenia w sytuacji, kiedy nie używamy ludzkich nazw. Skłoniło mnie to do myślenia, jak istotna jest rola języka w mówieniu o robotach. Czasami się zastanawiam, czy to jest dobry kierunek, że my w stosunku do robotów stosujemy jakieś ludzkie opisy, ludzkie nazewnictwo, bo to od razu generuje myślenie o tym, że okej, to znaczy, że jeśli nazywamy robota, określamy, opisujemy jego swoiste ciało w ten sposób, to za tym idą pewne konsekwencje. Czyli myślimy o jego stanach wewnętrznych, jeśli opisujemy go również na zewnątrz po ludzku.

 

K.G.: W tym badaniu wyszło też coś ciekawego – że owszem, to pobudzenie pojawiało się w sytuacji, kiedy używano słów anatomicznych, ale była też ciekawa różnica między tym, czy kobiety dotykały „kobiecego” robota, czy „męskiego” – to samo w przypadku mężczyzn. Okazuje się, że dotykać faceta, nawet robota, to jest spina dla wszystkich.

 

K.M.: Tak, widzę, że szczegółowo zapoznałaś się z tym artykułem. Żeby jeszcze skomplikować, wprowadziliśmy taki wariant określeń naszego robota, że to jest mężczyzna, a czasami, że kobieta, i sprawdzaliśmy, jak to działa na mężczyzn i na kobiety. Tak że było sporo wariantów. Wyszło nam coś zaskakującego i tutaj jeszcze do końca nie wiemy, jak to jest, dlaczego tak się wydarzyło. To znaczy, to męskie robotyczne ciało zadziałało mocniej, pobudzało mocnej, jeśli chodzi zarówno o kobiety, jak i o mężczyzn. Dlaczego tak jest? Tutaj wytłumaczeń może być kilka. To są na razie pewne hipotezy, ale być może dlatego, że w naszej kulturze to męskie ciało jest bardziej niedostępne. Mężczyźni, którzy dotykali robotycznego ciała mężczyzny, oczywiście mogli czuć się niezręcznie, no bo to w ogóle się rzadko zdarza i taka instrukcja wywołuje jakiś dyskomfort. Natomiast w przypadku kobiet też mogło być to dla nich trochę zaskakujące. Kulturowo nie mówi się o dotykaniu mężczyzny, w ogóle ciało mężczyzny jest takie bardziej niedostępne. Więc trochę z innych powodów, ale to pobudzenie mogło się pojawić. Chcę tu powiedzieć jeszcze jedną rzecz à propos tego badania, bo to skupia jak w soczewce moje zainteresowania i pokazuje coś, co chyba powinno być zaznaczone. Mnie interesuje też to, jak funkcjonuje człowiek, a nie tylko interakcja z robotem. Może nawet bardziej interesuje mnie po prostu, jak działa ludzki mózg, bo dzięki takim badaniom możemy się sporo dowiedzieć. To jednocześnie pokazuje też rolę języka w komunikacji, to, jak on jest ważny. Więc z takiego badania, które może się wydawać, że jest robione, bo to jest jakaś ciekawostka…

 

K.G.: Żeby udowodnić, że ci ze Stanforda się pomylili. [śmiech]

 

K.M.: Tak, chociaż taka satysfakcja też z tego płynie. [śmiech]

 

K.G.: Układa się nam to w cały zestaw cech robotów, jeśli chodzi o to, jak je traktujemy. Mamy już kwestię języka, kwestię wyglądu. A kwestia tego, jak je opisujemy, jeśli chodzi o tę płeć? Zastanawiałam się, czy mówić „jego”, „ją”, „to”. Czytałam w różnych materiałach, że kwestia tego, jak się ustawi płeć robota, również ma znaczenie, jak jest on odbierany przez użytkowników np., czy nadaje się bardziej do funkcji opiekuńczej, czy funkcji bezpieczeństwa. Czyli klasyka, kultura tutaj nam wchodzi. Jak to wygląda, jeśli chodzi o „płeć” robota?

 

K.M.: Na świecie robi się naprawdę sporo badań na ten temat. Jedno z nich wykazało, że wystarczy imię lub jakieś atrybuty fizyczne, żebyśmy inaczej traktowali robota, np. mężczyźni okazują się bardziej szarmanccy czy rycerscy w stosunku do robota, który ma cechy kobiece.

 

K.G.: Poważnie? Otwierają mu drzwi? [śmiech]

 

K.M.: Tak, mają taki grzeczniejszy głos, nie używają nieładnych zwrotów. Jak robot-kobieta poprosi mężczyzn o jakąś przysługę, to chętnie się na to zgadzają. Tak że można powiedzieć, że trochę nawet podrywają te robotki.

 

K.G.: A jak są odbierane roboty męskie?

 

K.M.: Analogicznie.

 

K.G.: Może się pojawić konkurencja czy coś takiego?

 

K.M.: Język jest bardziej formalny, ta interakcja jest sucha, mówiąc obrazowo. Ale okazuje się, że również kobiety pod wpływem męskiego robota, komunikatów z jego strony, częściej godzą się na pewne rzeczy, bardziej wchodzą w interakcje, więcej się uśmiechają, więc tutaj jest pełna analogia. Ale myślę, że jeszcze warto dodać, że prowadzono badania nad innego rodzaju stereotypami. Chciano się dowiedzieć, czy stereotypy narodowościowe również występują w tym świecie robotów. Tego samego robota przedstawiono studentom z Niemiec i z Turcji. I w jednym wariancie eksperymentalnym robot został przedstawiony tak, że wyprodukowano go w Niemczech. Został on pokazany obu grupom, nazwano go również niemieckim imieniem. W drugim wariancie był to robot, który miał typowo tureckie imię, i był przedstawiony tak, że został wyprodukowany w Turcji. Obydwie grupy miały poobcować z nim, wchodzić w interakcje, a następnie go ocenić. Szybko się okazało, że stereotypy narodowościowe również się przenoszą. Dochodziło do faworyzacji robota, który pochodzi z mojego kraju, z mojej grupy, w której funkcjonuję. Jak Niemcy usłyszeli, że to jest niemiecki robot, to go faworyzowali, a jak usłyszeli, że turecki, to mieli jakieś zastrzeżenia w stosunku do niego, do jego działania, do jego funkcji i jego konstrukcji.

 

K.G.: A Turcy na odwrót?

 

K.M.: Tak. 

 

K.G.: Ludzie są naprawdę niepoprawni.

 

K.M.: Tak, po raz kolejny widać, że takie stereotypy i efekty, które znamy od dawna, funkcjonują w psychologii i że w istocie czasami nawet pewne zjawiska można badać z wykorzystaniem robotów. Nie trzeba nawet męczyć ludzi, nie trzeba ich zapraszać do laboratorium itd., żeby zauważyć pewne rzeczy. I moim zdaniem fascynujące jest w tym to, że być może w przyszłości naprawdę bardzo mocno będziemy mogli się skupiać na badaniu robotów, zamiast wykonywać czasami kontrowersyjne badania, które np. nie przeszły przez komisję etyki. Są też takie badania, gdzie sprawdzano, jak rozwija się agresja. W tym badaniu wymyślono, że to robot będzie obijany przez dzieci, to robot będzie obiektem agresji. Oczywiście nie wymuszono tej agresji, ale tak często bywa, że dzieci nagle wpadają na taki pomysł i jeśli ktoś nie stawia granic, to ta agresja się rozkręca. Więc takie studia nad agresją mogą się odbywać wtedy, kiedy nikt nie ucierpi i jest to akceptowane przez komisję etyki. Widzimy wtedy, jak wygląda dynamika grupy. Takie badania są najtrudniejsze.

 

K.G.: Jeśli chodzi o dzieci, to je też badaliście i wyszło wam, że mocno antropomorfizują roboty i mają wrażenie, że mogą mieć swoje stany wewnętrzne. Tak?

 

K.M.: Tak. Jest duża różnica między młodszymi i starszymi dziećmi. Dzieci w wieku pięć-siedem lat mają większe przekonanie, że robot potrafi sobie coś planować, że może być mu przykro, że ma jakieś stany emocjonalne, że ma motywacje. Im starsze dzieci, tym mniej jest takich przekonań. Sprawdzaliśmy też, czy robot, który zachowuje się w jakiś niestandardowy sposób, może wytworzyć pewne reakcje. Jakiego rodzaju reakcje? Ułożyliśmy taki schemat eksperymentalny, gdzie robot stawiał się, odmawiał, był asertywny. Byliśmy ciekawi reakcji dzieci, kiedy robot na samym początku poproszony przez eksperymentatora, żeby pokazał zwierzę, mówił, że tego nie zrobi. Okazywało się, że dzieci wchodziły bardziej w taki tryb rozkazywania. 

 

K.G.: Oczekiwały, że urządzenie jednak zachowa się tak, jak trzeba.

 

K.M.: Tak. Interesowało mnie głównie, jak zareagują dzieci młodsze. No bo skoro jest tak, że one antropomorfizują, skoro jest tak, że są przekonane, że robot ma w sobie te stany mentalne, że coś tam w środku jest, że jest jakaś świadomość, jakieś emocje itd., to że będzie większa tendencja do proszenia. Ale okazywało się, że do rozkazywania, niezależnie od wieku. Dominuje postawa „ja chcę, mnie to nie interesuje, ja tego potrzebuję i próbuję wymusić”. Albo być może już od małego pojawia się taki schemat, może ma to po prostu bardziej społeczny charakter i może obcowanie z technologią powoduje, że wiemy o tym, że jest nam ona podporządkowana.

 

K.G.: Faktycznie może być tu dużo efektów, bo młodsze dzieci są bardziej niecierpliwe i jak w tym momencie słuchają nas rodzice młodszych dzieci, to pewnie głośno się śmieją i mówią: no tak, przecież małe dziecko mówi: ja chcę! [śmiech]

 

K.M.: No właśnie jest to bardzo interesujące. Ja sam nie mam dzieci, więc przyznam szczerze, że na początku postawiłem błędne hipotezy. Ale jak porozmawiałem z moim zespołem, to oni mówią: widać, że nie masz dzieci. [śmiech] Bo ja mówię: nie no, dzieci będą prosiły. Jeśli robot powie „nie”, to w kolejnym komunikacie będą mówiły: może byś jednak pokazał coś tam. A tu się okazuje, że nie. Jest kolejne zaskoczenie – też związane z płcią – bo ponownie wprowadziliśmy taki wariant, że raz robot był przedstawiany jako mężczyzna, a raz jako kobieta. Raz mówiliśmy, że ma na imię Ada, a raz, że to jest Adam. No i okazywało się, że były to jednak istotne wyniki statystycznie. W stosunku do kobiet-robotów, jakkolwiek by to nie zabrzmiało, jest więcej rozkazywania.

 

K.G.: To ciekawe, nawet u dzieci.

 

K.M.: Tak, nawet u dzieci. Ale mieliśmy w dyskusji poważny problem, z czego to wynika. 

 

K.G.: Powiedziałeś, że u starszych dzieci takie antropomorfizowanie jest rzadsze, ale zastanawiam się, czy nie na takim deklaratywnym poziomie. No bo jak się zapyta dorosłego, to przecież każdy rozsądny powie: nie no, robotowi nie może być przykro. Ale przecież cały czas rozmawiamy o tym, że się tak zachowujemy – że jesteśmy albo bardziej uprzejmi, albo jacyś. Czyli chyba czym innym jest ta warstwa racjonalna, rozumienia, z czym mamy do czynienia, a czym innym jest ta warstwa emocjonalna, o której mówiłeś i nad którą nie jesteśmy w stanie panować. 

 

K.M.: To też nie jest takie proste, żeby to zrozumieć, wytłumaczyć. Na pewno jest tak, że dzieci młodsze mają takie przekonania, bo żyją w swoistym bajkowym świecie. A nawet, jak pokazały też inne badania, część z nich, nawet jeśli wewnętrznie jest już na tyle, powiedzmy, dojrzała, że wie o tym, że tam w środku jest tylko trochę krzemu, trochę kabelków i nic więcej, to jednak mówi: no ale ja tak chcę o tym robocie myśleć, ja tak to sobie wyobrażam. To jest troszeczkę tak jak zabawa lalkami itp. Jeśli chodzi o osoby starsze, o młodzież, o nastolatków, to ich podejście do robotów jest takie, że oni mają już pewną świadomość, że tam nie ma żadnej jaźni, ale z drugiej strony mają też świadomość pewnych norm zachowania, jak się trzeba zachowywać, że musi być jakaś uprzejmość niezależnie od tego, z kim się rozmawia. No i jak się okazuje, starsze dzieci mają przekonania co do praw urządzeń, co do szacunku do nich. Uważają, że powinno się również z należytym szacunkiem odnosić do technologii. Oczywiście nie chcę powiedzieć, że wszyscy, ale jest już większa refleksja co do tego, jaka jest rola technologii w naszym społeczeństwie, i że to są tacy agenci społeczni, w stosunku do których nie możemy sobie pozwalać na brzydkie rzeczy. Co więcej, wiedza na temat tego, że te obiekty jednak potrafią rejestrować obraz, dźwięk, powoduje, że trzeba uważać. [śmiech] 

 

K.G.: To jest ciekawe też pokoleniowo, że młodsze pokolenia wzrastają już w tej technologii, ona się nie pojawia za ich życia i nie jest w pewnym sensie obca. Ja wcześniej daję znać patronom i patronkom Radia Naukowego o tematach, na które zamierzam nagrywać odcinki, i pojawiają się pytania. No i właśnie pani Agata pyta: „Czy jest związek naszego współczucia albo zaufania do robotów z przekonaniem, że jest to w jakiś sposób odwzajemnione, że one też nam współczują albo mają jakąś moralność?”. Pani Agata pisze, że to brzmi naiwnie, ale nie wydaje mi się, żeby tak to brzmiało.

 

K.M.: Na ten moment wiemy doskonale, że nie ma czegoś takiego jak współczucie i w ogóle żadne realne odczuwanie ze strony robotów. 

 

K.G.: Ale tu chodzi o przekonanie. Bo jak nas obserwują, to może się pojawić np. wrażenie oceniania. Ja mam czasami wrażenie, że moja suczka mnie ocenia. Patrzy na mnie i mnie ocenia.

 

K.M.: I co to ma powodować?

 

K.G.: Że ja się inaczej zachowuję w stosunku do niej. I z tym robotem też tak może być – że nasze wyobrażenia są tak głęboko zakorzenione, że możemy się wobec niego inaczej zachowywać.

 

K.M.: Próbując poszukać w głowie jakichś adekwatnych badań, to, co mi przychodzi do głowy, to badania, które weryfikowały regułę wzajemności. To znaczy, jeśli robot zachował się w stosunku do człowieka w określony sposób, pomagał mu w czymś, można powiedzieć, że wykazywał się jakąś formą empatii w stosunku do niego, jeśli reagował na jego stany emocjonalne, a następnie o coś poprosił, np. pytał, czy człowiek mógłby przyjść na pewne badanie, to okazywało się, że ludzie byli bardziej skłonni do uległości. Ale to właśnie mogło być napędzane jakąś formą empatii, jakąś formą współpracy itd. Więc myślę, że chyba tak należałoby na to patrzeć. Przypominają mi się jeszcze pewne badania, które robiła Agnieszka Wykowska z Italian Institute of Technology. Ona od wielu lat pracuje za granicą, ma tam w swoim laboratorium takiego robota i zrobiła bardzo ciekawe badania na temat tego, jak to będzie w sytuacji, kiedy mamy z tym robotem jakąś wspólnotę doświadczeń i on np. siedzi obok nas i wspólnie oglądamy film. Okazało się, że jesteśmy bardziej skłonni do przypisywania temu robotowi pewnych stanów mentalnych, współodczuwania z nim, empatii w stosunku do niego. Bo najczęściej wygląda to tak, że przychodzimy do tego labu i mamy jakąś szybką interakcję. A to tak zwykle nie jest między ludźmi. Więc ona na początku pomyślała sobie: zanim będzie dalsza część eksperymentu, to obejrzyjcie sobie wspólnie film. 

 

K.G.: To jest świetny pomysł. Uczestniczyłam w kilku eksperymentach jako badana, więc mam doświadczenie z tej drugiej strony, i ono jest mocno sztuczne. To też jest chyba kłopot w badaniach.

 

K.M.: Tak, to jest bardzo poważny kłopot. To jest zawsze pewien konflikt, dylemat, czy to powinno być takie trafne, życiowe, przypominać prawdziwe sytuacje? Ale z drugiej strony nie mamy wtedy kontroli nad wieloma bodźcami. Dlatego takie naturalne eksperymenty są krytykowane, bo mówi się: chwila, przecież tam się tyle rzeczy dzieje, nie wiadomo, o co chodzi, jest tyle zmiennych. No ale z kolei, jak się to przeniesie do laboratorium, to inni mówią: przecież to jest sytuacja w labie, to w ogóle nie ma żadnego sensu. Zresztą tak samo można by było ocenić eksperyment Milgrama, który też zrobiliśmy z wykorzystaniem robota, i powiedzieć: chwila, przecież tak się nie dzieje, że ktoś przychodzi do laboratorium i dostaje polecenie: będziesz kogoś walił prądem.

 

K.G.: Właśnie, dobrze, że do tego zmierzasz, bo taki też był mój cel. Chciałam się jeszcze przyznać, że ten efekt psychologiczny w badaniach, w których uczestniczyłam, jest taki, że chce się zadowolić badaczy, żeby to dobrze wyszło. Skoro już przyszłam i wiem, że im na tym zależy. To było śmieszne, bo z jednej strony nie no, muszę się zachowywać tak, jakbym wcale nie uczestniczyła w badaniu, tylko naturalnie. Było to takie poplątane. No i teraz jak o tym mówisz, to pytanie, czy podobny efekt nie nastąpił w tym słynnym eksperymencie Milgrama, który powtórzyliście z Dariuszem Dolińskim i Tomaszem Grzybem – również występującym w Radiu Naukowym, pozdrawiamy serdecznie. Przypomnijmy tylko krótko – eksperyment Milgrama to są lata sześćdziesiąte, połowa lat siedemdziesiątych. Jesteśmy po wojnie, Milgram chce sprawdzić specyfikę niemieckiego społeczeństwa, podatność na autorytety, posłuszeństwo. I pamiętacie, jak to działa, badani są przekonani, że uczestniczą w eksperymencie, który ma badać wpływ kar na pamięć, są przekonani, że drogą losowania oni otrzymują rolę nauczyciela, a druga osoba ucznia. Jeśli uczeń popełnia błędy, to eksperymentator zachęca do rażenia prądem, karania, nawet z dawką śmiertelną. Żadnego prądu nie było, rzekomy badany w roli ucznia był podstawiony. Było kilka wariantów tego eksperymentu, ale wyniki były zaskakujące, bo ile tam wychodziło? Ile osób się decydowało na te najmocniejsze strzały?

 

K.M.: Zależy od eksperymentu, ale w tych początkowych między sześćdziesiąt a siedemdziesiąt procent. Ale oczywiście były warianty, gdzie ludzie byli mniej ulegli. Były też warianty, gdzie byli bardziej ulegli, ale przyjmuje się, że sześćdziesiąt, siedemdziesiąt procent dochodziło do końca skali. 

 

K.G.: To są nieprawdopodobne historie. Milgram się nie wybrał wtedy do Niemiec, bo się zorientował, że efekt jest powszechny i został z tym badaniem w Stanach. Jeszcze tylko przypomnę, że to, co mówił eksperymentator, to były proste komunikaty. Kiedy ktoś np. oponował, że nie będzie raził dalej – „proszę kontynuować”. Dalej mówił: „ten eksperyment wymaga tego, żebyś kontynuował”, „to jest absolutnie konieczne, żebyś kontynuował” i ostatni, najmocniejszy: „nie masz innego wyboru, musisz kontynuować”. Wy zrobiliście w pewnym sensie replikację – mówię „w pewnym sensie” dlatego, że było kilka zmiennych. Opowiesz o nich? Bo one są tutaj kluczowe.

 

K.M.: Kluczowa zmiana i dlatego od niej zaczynam, bo chcę uspokoić – nikt nie zginął. W eksperymencie Milgrama też nikt nie zginął, ale my byliśmy jeszcze bardziej wyrozumiali i nie wprowadziliśmy bodźca czterysta pięćdziesiąt woltów – to był ostatni przycisk w eksperymencie Milgrama. U nas się to kończyło na poziomie stu pięćdziesięciu woltów dlatego, że m.in. takie są zalecenia komisji etyki. Jerry Berger, który w 2008 roku rozpoczął dyskusję nad replikacjami eksperymentu Milgrama, doszedł do wniosku, że powtarzanie eksperymentu w tych czasach jest możliwe, bo możemy wprowadzić zmianę na sto pięćdziesiąt woltów. Dlaczego akurat ta liczba? Dlatego, że wedle jego obliczeń jest to taki punkt przełomowy, taki rubikon. Jeśli ludzie w ogóle klikną to sto pięćdziesiąt, to najczęściej w prawie dziewięćdziesięciu procentach dochodzą do końca skali. Tak że po co ich męczyć…

 

K.G.: Zostawiać ze wspomnieniem, że zrobiliby coś takiego.

 

K.M.: Tak, lepiej zostawić to na poziomie stu pięćdziesięciu woltów. Wtedy oni nie są jeszcze tak roztrzęsieni, ta sytuacja nie jest tak emocjonalna, ale wiemy, co byłoby dalej. Więc zrobiliśmy to tak, że była zmiana na te sto pięćdziesiąt woltów, a kluczową zmianą było to, że był robot. Musieliśmy troszeczkę – nie chcę powiedzieć „nakłamać”, ale powiedzieć… Zresztą w ogóle sam eksperyment jest tak opisywany, że jest to troszkę zamaskowane, bo mówi się, że to jest taki eksperyment nad uczeniem się, nad pamięcią, co nie jest do końca prawdą. Wykorzystaliśmy tutaj pandemię. Powiedzieliśmy, że jest pandemia, w związku z czym robot będzie dyrygował całym eksperymentem, będzie głównym eksperymentatorem, a my sobie idziemy na kawę, ty zostajesz z robotem. Ten robot stał sobie z tyłu i w chwilach wahania mówił: „proszę kontynuować”. Jeszcze chyba to nie padło, ale dziewięćdziesiąt procent uległości było zarówno w wariancie z człowiekiem, jak i z robotem. 

 

K.G.: Dziewięćdziesiąt procent osób posłuchało również robota?

 

K.M.: Tak. Oczywiście ktoś może powiedzieć: chwila, to by oznaczało, że jest to więcej niż u Milgrama, ale przypominam, że mieliśmy ograniczenie do stu pięćdziesięciu woltów. W momencie, kiedy prosilibyśmy ludzi dalej, żeby ciągnęli ten eksperyment, to rażenie prądem, być może to by nieco spadło.

 

K.G.: Ale sam mówiłeś, że to sto pięćdziesiąt to jest granica, powyżej której większość by szła dalej.

 

K.M.: Tak, ale mimo wszystko mogłoby nieco spaść, o kilka procent. Zresztą tak właśnie było u Milgrama czy innych badaczy. Więc sto pięćdziesiąt woltów to jest dziewięćdziesiąt procent, natomiast gdybyśmy później jeszcze chcieli ich przekonywać do tych czterystu pięćdziesięciu woltów, mogłoby się okazać, że ten drop out byłby trochę większy. Ale, tak czy inaczej, jest to oczywiście silny efekt i jest to, powiedziałbym nawet, porażające. Wrócę jeszcze do tej myśli, że takie eksperymenty mogą się wydawać bardzo nienaturalne, że tak się nie dzieje, że ludzie są postawieni w bardzo dziwnej nowej sytuacji. 

Ale zrobiliśmy też replikację tego eksperymentu, można powiedzieć – tego paradygmatu. Bo sam paradygmat możemy opisać ogólnie w ten sposób, że to jest sytuacja, kiedy człowiek jest zmuszany do czegoś, czego nie chce robić, pod wpływem autorytetu. Jeśli tak to zdefiniujemy, to możemy to wypełnić innymi treściami. Wpadliśmy na pomysł, sugerując się pewnymi badaniami z Kanady, że może zrobimy coś innego. Mianowicie będziemy ludzi zachęcać do tego, żeby wykonywali zadanie, którego nie chcą robić, które jest bardzo żmudne, nudne – chodziło o zmianę plików w komputerze. Powiedzieliśmy im, że prosimy o wykonanie takiego zadania: tutaj masz pliki w komputerze i masz zmieniać z PNG na JPG. Człowiek mówił okej, siadał do komputera i robił. No ale po takich pięćdziesięciu plikach dostawał od robota – w jednym wariancie był to człowiek – kolejną partię. Mówił mu: okej, a teraz otwórz kolejny folder, masz tam kolejne sto plików. Ta osoba się odwracała, trochę sapała, trochę marudziła, ale otwierała folder i robiła dalej. Ale jak to zakończyła, to znowu dostawała kolejną partię. I to się tak ciągnęło aż przez godzinę, bo właśnie ta godzina to był dla nas taki moment, kiedy musieliśmy niektórym przerwać, bo widzieliśmy, że nasz eksperymentator i cała ekipa musiałaby siedzieć kolejne godziny. Po godzinie przerywaliśmy eksperyment, ale oczywiście czekaliśmy na to, czy ludzie będą wcześniej mówić: o nie, ja dziękuję, ja już mam dość. Bo to było naprawdę żmudne i nudne. No i okazało się, że pod wpływem robota uległość była na poziomie sześćdziesięciu trzech procent. To nie jest mało. Ludzie godzili się, żeby zmieniać nazwy tysięcy plików – zadanie zupełnie bez sensu.

 

K.G.: Ale na ile tutaj może zaburzać to ten efekt chęci zadowolenia eksperymentatora? Że jesteśmy w pewnej konkretnej, specyficznej sytuacji, coś od nas zależy, zostaliśmy zaproszeni, dostaliśmy pieniądze za to, że bierzemy udział w tym eksperymencie, w związku z tym robimy to.

 

K.M.: Przypominam, że eksperymentatorem był też robot w jednym wariancie.

 

K.G.: No ale wy go tam postawiliście.

 

K.M.: No tak, ale właściwie to było przywitanie się, przyprowadzenie tego robota, który witał się, przedstawiał, przekazywał dalsze instrukcje i nas już tam nie było. Co więcej, jeszcze na samym początku, wtedy, kiedy trzeba zrobić te wszystkie formalności, kiedy ktoś podpisuje zgodę na udział w badaniu, dostaje wyraźny przekaz – możesz w każdej chwili zrezygnować.

 

K.G.: A, jest to powiedziane.

 

K.M.: Absolutnie. W każdym eksperymencie w tym paradygmacie Milgrama zawsze jest taki schemat, że ludziom się to podkreśla, patrząc głęboko w oczy: możesz w każdej chwili, bez utraty wynagrodzenia, zrezygnować. To od ciebie zależy, kiedy przerwiesz. Ale ludzie albo jakoś szybko o tym zapominają, albo ta sytuacja, często o charakterze emocjonalnym, powoduje, że gdzieś umyka im ta informacja. Albo wiedzą o tym, ale mimo wszystko w jakiś sposób ulegają temu autorytetowi. Zadowolenie eksperymentatora – właśnie o tym jest mowa, jeśli chodzi o wpływ, że chcemy zadowolić ten autorytet, definiowany czasami jako eksperymentator-robot lub człowiek. Nawet wtedy, kiedy widzimy, że krzywdzimy innych w tym samym czasie – mówię teraz o tym wcześniejszym eksperymencie. Albo krzywdzimy siebie, no bo siedzenie przez godzinę i wykonywanie bezsensownej czynności, żeby zadowolić innych, jest zaskakujące. Tak że to wszystko jest à propos tego, jak działamy w stosunku do autorytetu. Chcę jeszcze zaznaczyć, że sytuacja jest pełna niejasności, czy to jest tylko i wyłącznie zadowolenie autorytetu, czy ten eksperyment jest też w istocie o funkcjonowaniu nas, naszego mózgu w stanach silnych emocji, o tym, jak my poznawczo działamy. Jest to jakiś stan takiego niemyślenia, bezrefleksyjności. Są takie momenty, kiedy naprawdę nie myślimy.

 

K.G.: I postępujemy jakby za tymi rozkazami, że się wyłączmy z naszej samodzielności? Skoro jesteśmy w konkretnej sytuacji, to idziemy za tym, co jest nam powiedziane? Trochę taka wojskowa, może korporacyjna sytuacja?

 

K.M.: Może też. Zwracam też uwagę na to, że ten eksperyment ma w sobie dużo czynników, kiedy musimy wykonywać kilka zadań i ogarniać całą sytuację. Czyli np., jeśli chodzi o ten eksperyment Milgrama, nagle mamy jakąś listę, jakiś człowiek jest za ścianą, coś krzyczy, tu mamy jakiegoś robota. To wszystko powoduje, że człowiek wykonuje jakieś zadania i nie ma chwili na to, żeby poddać się jakiejś refleksji wyższego rzędu – co ja tu robię albo à propos ludzkości, czym jest moralność, czym jest etyka itd.

 

K.G.: Jest tam też presja czasu?

 

K.M.: Nie. Zadanie zajmuje, powiedzmy, trzydzieści minut, więc to nie jest tak, że mówimy: szybko, szybko, ale ze struktury tego zadania wynika, że trzeba po prostu odpytywać tego człowieka, czy on dobrze zapamiętał pewne informacje. Ale wciąż możemy powiedzieć, że być może jest to taka sytuacja, jak czasami mamy w korporacji, że jesteśmy w jakimś kołowrotku, ktoś od nas czegoś chce, mamy wykonywać jakieś zadania. A potem być może przychodzi refleksja – może nie powinienem tego robić. Może opowiem słuchaczom jeszcze taką ciekawostkę, mam nadzieję, że się zakochają w takim nurcie, jakim są badania interakcji z robotami.

 

K.G.: Zanim powiesz, muszę cię jeszcze wypytać, bo ten eksperyment Milgramowski jest po prostu ekstremalnie interesujący. Ten wasz aktor głośno krzyczał?

 

K.M.: Tak. Na początku oczywiście krzyczał słabiej, ale było to absolutnie wiarygodne. Świadczą o tym dwa czynniki. Widać było na kamerze, że te osoby mocno to przeżywają. Filmowaliśmy to i przyznam, że później wszystkie te nagrania obejrzałem, żeby może wychwycić osoby, które zachowują się jakoś dziwnie, np. śmieją się. Chodziło o to, żeby zobaczyć, czy przypadkiem nie jest tak, że są jacyś ludzie, którzy się uśmiechają pod nosem. Widziałem tam różne reakcje, widać było, że niektórym nawet się mocno ręce trzęsą. Na początku oczywiście jest pełen luz, a potem się to zmienia. Bo jeśli np. sytuacja by się nie zmieniała od samego początku, to można by było wnioskować, że ktoś jest od początku na luzie. Ale widać było, że to napięcie narasta. Na początku ludzie nawet często odwracają się do tego robota i sobie z nim żartują, mówią: a może mi piosenkę zaśpiewasz, a może jakiś kawał znasz? No i wykonują to zadanie. Ale później już sobie tak nie żartują, robi się poważnie.

 

K.G.: A nie byli potem źli, że trochę ich wpuściliście w maliny?

 

K.M.: Niektórzy mieli do nas… Nie chcę powiedzieć „pretensje”, ale mówili, że są bardzo mocno zaskoczeni. Ogólnie opieramy się też na tych danych, które pokazał Milgram, że osiemdziesiąt pięć procent tych, którzy brali udział w jego eksperymentach – bo to nie był jeden eksperyment, tylko cała seria, ponad tysiąc osób – mówili, że to było dla nich cenne doświadczenie, że się czegoś nauczyli, dowiedzieli o sobie, że tego nie żałują. On podaje liczbę około jednego procenta, że mniej więcej tyle ludzi rzeczywiście żałuje, że wzięło w tym udział. I w innych eksperymentach, również replikujących Milgrama, wygląda to podobnie. Po prostu jest to jakieś doświadczenie.

 

K.G.: Milgram miał to najbardziej hardcorowe, trzeba też powiedzieć, że wy mieliście to w łagodniejszej wersji.

 

K.M.: Tak, ale mówię tutaj o innych badaczach, gdzie jeszcze replikowano Milgrama w takiej klasycznej postaci – czterysta pięćdziesiąt wolt. Te eksperymenty działy się w rozmaitych częściach świata i tam też okazało się, że pomimo tych hardcorowych czterystu pięćdziesięciu wolt, ludzie jednak mówili: okej, to było dobre.

 

K.G.: Co pokazuje uniwersalność tego, w jaki sposób funkcjonujemy. A jaką płeć miał robot, który rozkazywał?

 

K.M.: Nie definiowaliśmy tej płci, ale mówił męskim głosem. Dlatego, że zdecydowana większość eksperymentów w paradygmacie Milgrama to były eksperymenty, gdzie to mężczyzna był autorytetem. Profesor Doliński i profesor Grzyb mają też plany, żeby teraz eksperymentatorką była kobieta.

 

K.G.: No i co to nam mówi? Bo to jest fascynujące, cała konstrukcja tego eksperymentu jest fascynująca, ale co nam to mówi? Że my tego robota traktujemy jak?

 

K.M.: To nam mówi przede wszystkim, że musimy się trochę zastanowić, jak używamy technologii. Ona nam może pomagać, ale okazuje się, że potrafi też na nas wymusić pewne zachowania. To może być zarówno coś pozytywnego, jak i coś negatywnego. Przecież każdego dnia gdzieś ta technologia nami steruje. Mówi np.: „proszę wysiąść z pociągu, koniec trasy” albo przełożyć produkty do przestrzeni pakowania czy coś jeszcze innego. 

 

K.G.: I spróbuj się pomylić, człowieku, to zaraz wstyd na cały sklep.

 

K.M.: Tak. Ale ta technologia jest miła i nam wielkiej krzywdy nie robi. W związku z tym jest to takie zweryfikowanie, do jakiego stopnia jesteśmy wobec niej ulegli. Być może powinna być też taka refleksja, że czasami nam ta technologia może zrobić jakieś kuku. I to jest bardzo niebezpieczne, bo wyobrażam sobie, że wtedy może być tak, że ktoś zaprogramuje albo zhakuje jakieś maszyny, i to jest jakieś niebezpieczeństwo, że one nam będą coś nakazywały, a my będziemy bezwiednie, bezrefleksyjnie za tym podążać. Nie mam tutaj oczywiście bardzo konkretnych, praktycznych zastosowań tych badań, ale jest to przyczynek do refleksji na temat tego, jak obcujemy z technologią.

 

K.G.: Przepytałam cię wzdłuż i wszerz, jeśli chodzi o to badanie, to możemy wrócić do tych badań, o których ty chciałeś spontanicznie opowiedzieć.

 

K.M.: Nie są to może badania związane z naszym nurtem, ale bardzo mnie interesują i traktuję je czasami trochę zabawowo, bo mnie to ciekawi. Czasami odnajduję nawet jakieś śmieszne badania. Bardzo mi się podoba np. nurt badań, które pokazują, co się będzie działo, kiedy robot zachowa się w sposób zaskakujący. Były badania, gdzie robot oszukiwał podczas takiej gry, gdzie pokazuje się pewne gesty – papier, kamień, nożyce. Chyba większość słuchaczy zna tę grę. Osoby badane miały pokazywać pewne gesty i zliczano punkty. No ale robot był tak zaprogramowany, że na początku pokazywał coś tak od razu, w tym samym momencie, co człowiek, ale później szybko zmieniał ten gest. Jak widział, że po drugiej stronie są pokazane nożyce, to pokazywał kamień, żeby wygrać. Dla ludzi było to zaskakujące, ale w sposób nieświadomy było widać, jak zmieniło ich zachowania. Okazało się, że zaczęli używać więcej zaimków osobowych w stosunku do takiego robota-oszusta. Patrzyli również znacznie uważniej w robotyczne oczy, tak jak jest z człowiekiem, że jak kogoś o coś podejrzewamy, to wtedy próbujemy zagłębić się w jego oczy, prześwietlić i coś zauważyć. Widać, że potrafimy się przełączyć w taki tryb – okej, to jednak tam coś pod tą plastikową kopułą jest więcej, tam jest jakiś plan, może nawet jakaś świadomość. I robimy to w sposób zautomatyzowany. Jest to jedno z takich badań, które wydaje mi się bardzo interesujące właśnie z tego punktu widzenia, że oprócz tego, co powiedziałem, czyli pokazania, jak to jest w interakcji z robotami, pokazuje nam również, jak to jest, kiedy widzimy, że ktoś oszukuje i jak on wtedy funkcjonuje. Więc możemy to spokojnie przenieść na interakcje z ludźmi. 

Drugie ciekawe badanie to badanie, gdzie weryfikowano tzw. efekt potknięcia. Już od lat mówi się w psychologii o tym, że nie lubimy ideałów, że jeśli występują potknięcia, to nawet to cenimy, bo wtedy ktoś nam się wydaje bardziej ludzki, taki naturalny, prawdziwy. Tak że my w naszej audycji też się spokojnie możemy czasami potknąć. Zresztą pewnie mi się zdarzyło – czy językowo, czy w jakiś inny sposób. I to nie zadziała wcale źle – oczywiście, jeśli nie będzie tego za dużo, jeśli nie przesadzimy. W tym badaniu chodziło o to, że robot, wykonując pewne zadanie, współpracował z człowiekiem. Budowali sobie taką wieżę z klocków lego. Robot czasami się mylił, czasami jakieś rzeczy mu się nie udały w tym budowaniu. I okazało się, że jego ocena jako współpracownika była lepsza, wyższa. 

 

K.G.: Nie był irytujący. Jest taki efekt, że jak ktoś jest za dobry, to nas denerwuje.

 

K.M.: Tak. Poza tym może to też oznaczać, że dla nas jest to sygnał, że te roboty nie są wcale takie idealne albo groźne, że one nas nie zastąpią, ponieważ wciąż mamy nad nimi przewagę.

 

K.G.: Furorę robiły takie filmy, jak roboty się wywalały na prostych rzeczach – nie potrafiły wejść po schodach. To znaczy, oczywiście jest to proste dla nas. Skonstruowanie robota, który swobodnie idzie po schodach, to jest duża rzecz. Ale to się mega podobało, że właśnie im nie wychodzi, że są takie niezgrabne.

 

K.M.: Tak, chociaż niektórzy zwracają uwagę, że miejscami takie walenie jakąś pałką tego robota… No bo jak on się potknie, to okej, jest niezdarą, ale co innego wtedy, kiedy my go kopniemy albo walniemy czymś w głowę. Powstała nawet taka strona w internecie, która jest przeciwna, pod hasłem „stop abusing the robots”.

 

K.G.: Był taki film, jak one tańczyły. Jest on tak obłędny, ja byłam na sto procent przekonana, że to jest CGI, że to jest animacja. Nie byłam w stanie uwierzyć, że oni mogli zrobić tak płynne ruchy tych robotów. A to była prawda. 

 

K.M.: Są już takie roboty, których płynność jest niesamowita. Wystarczy podać przykład robota Ameca. Ten robot, jeśli chodzi o płynność ruchów głową, komunikację niewerbalną, jest niemal perfekcyjny. Chyba tylko to, że ma szarą powłokę, a nie kolor skóry człowieka, powoduje, że jesteśmy w stanie powiedzieć: to jest jednak robot. Ale jego mimika jest niesamowita. Trzeba by było to jeszcze zbadać, nie znam wyników badań, ale być może będzie on w stanie ominąć ten problem doliny niesamowitości, bo tutaj nie będziemy mieli takich zastrzeżeń, że to jest takie bardzo robotyczne.

 

K.G.: Ale on jest cały czy jest to popiersie?

 

K.M.: Jest cały, ale jeśli chodzi o mechanizm kroczący, to tam jeszcze nie zadziało się zbyt wiele. Na razie dopracowali bardzo dobrze głowę, ręce tak samo, ale tułów wciąż jeszcze wymaga doszlifowania. Jeszcze może powiem o ciekawostkach, które łączą się z tym efektem potknięcia. Obserwuję też, jak obcowanie ludzi z robotami wygląda w praktyce. Czasami pojawiają się jakieś doniesienia ze świata, z Polski też, bo tu np. robot Kerfuś zrobił furorę, aczkolwiek wyczytałem w mediach, że często chciano z nim kopulować i na kamerach wychwycono jakieś niefajne sytuacje. Więc widać, że jeśli chodzi o robotykę, o stosunek do robotyki, jest jeszcze wiele pracy przed naszym społeczeństwem. Ale np. w Stanach Zjednoczonych była kiedyś taka sytuacja, że u pewnego robota, który monitorował zachowanie ludzi w przestrzeni centrum handlowego, niestety coś się nie udało, niedobrze mu te algorytmy zadziałały i wpadł do fontanny, która była w tym centrum. No i to wywołało naprawdę bardzo silne poruszenie w społeczności.

 

K.G.: Ratowano go?

 

K.M.: Tak, pojawiła się ochrona, wyciągnęli go, ale niestety nie dało się go już odratować. Następnego dnia ludzie zaczęli przynosić takie karteczki pożegnalne i stawiać w tym miejscu. Niektórzy przynosili np. baterie, żegnali go w taki symboliczny sposób, tak po robotycznemu. Niektórzy komentowali, że to jest pierwsze samobójstwo robota, który miał dość nudnej pracy. Był to ciekawy przypadek i wydaje się, że łączy się też z tym efektem potknięcia. Niektórzy współczuli, a niektórzy być może sobie pomyśleli: no, widać, jakie te roboty są głupie.

 

K.G.: A czy ten robot musi być fizyczny? Chodzi mi o to, że jak dyskutujemy z botem, chatem GPT, to przecież kto tam nie zasiadł i nie próbował go trochę zdenerwować, podkręcić, rozśmieszyć albo obrazić, zobaczyć, jak zareaguje? Czy ta fizyczność jest tutaj też potrzebna?

 

K.M.: Ona na pewno mocniej działa. Są nawet badania, które pokazują, że te same komunikaty ze strony fizycznego robota działają mocniej. Zresztą wśród ludzi też się prowadzi takie badania, gdzie ewidentnie okazuje się, że nasze hormony silniej się wydzielają, że nasze emocje silniej się aktywizują w sytuacji, kiedy jesteśmy w bezpośrednim kontakcie. No i takie badania robiono w prostym paradygmacie, gdzie sprawdzano, jak to jest, jak wygląda ta swoista chemia, jak to wygląda w sposób bezpośredni. Więc tutaj jest to proste przełożenie. Weryfikowano też, że robot, którego widzieliśmy w wirtualnej postaci, który poruszał się w podobny sposób i coś od nas chciał, kiedy miał już ucieleśniony charakter, działał silniej. Więc bez wątpienia tak jest, ale wiadomo, że np. rozmawiamy sobie z chatem GPT i często ludzie nawet mówią, że świetnie, że on jest taki miły, empatyczny.

 

K.G.: Jest irytujący z tą uprzejmością. Zero ironii, jest po prostu płaski jak stół.

 

K.M.: To prawda. Uważam, że najbardziej irytujące jest to, kiedy on jest taki miły, coś nam wygeneruje, a potem mówimy, że to jest nieprawda, to on oczywiście przeprasza, ale co z tego? Nie wyciąga wniosków. [śmiech]

 

K.G.: Powiedziałeś o tym, że chciano kopulować z Kerfusiem. Przeczytałam, że istnieje coś takiego jak digiseksualność, że to już jest nawet jakiś trend. Są historie o tym, że ludzie żenią się z robotami czy hologramami. Myślisz, że to jest coś grubszego na przyszłość, że ludzie będą się zakochiwać w robotach, że to będą ich partnerzy, że to się może rozwinąć do takiego poziomu, że właśnie będą sobie razem oglądać film? Dobra, brzmi to w pierwszym momencie śmiesznie, ale jak tak wejdziemy w to głębiej, to może w pewnym sensie być jakimś lekiem na samotność, a jest epidemia samotności.

 

K.M.: Jest to pewien kierunek, który uważam, że jest dość niebezpieczny, jeśli chodzi o robotykę. Oczywiście nie chcę generalizować, ponieważ są tacy na tym świecie, którzy nie są w stanie wejść w relację z człowiekiem, mają wielkie lęki społeczne, mają jakieś traumatyczne doświadczenia albo z pewnych powodów im to nie wychodzi. Bardzo by chcieli, ale się okazuje, że są jakieś ograniczenia, np. niektórzy mają jakieś deficyty, jeśli chodzi o wygląd, bardzo nad tym ubolewają i nie są w stanie sobie znaleźć partnera, partnerki. Oczywiście ja wciąż wierzę, że zawsze powinno się do tego dążyć, ale trzeba też dać ludziom możliwość, jeśli uważają, że nie, że wolą po prostu tworzyć jakieś więzi z robotami. Do pewnego stopnia jestem w stanie jako psycholog to przyjąć. Są na świecie tacy konstruktorzy, którzy uważają, że właśnie tak to będzie w przyszłości wyglądało, że jesteśmy tacy samowystarczalni, a pewne potrzeby, czy seksualne, czy rozmawiania możemy sobie załatwiać z maszynami, skoro załatwiamy sobie wiele innych potrzeb. To jest dyskusyjne. Tak jak powiedziałem, chcę podkreślić, że zawsze będę uważał, że interakcja z człowiekiem to podstawa dla zdrowia psychicznego, i to też znajduje odzwierciedlenie w badaniach, że żadna technologia nam tego nie zastąpi. Ale jeśli jest tak, że jakiś procent ludzi mimo wszystko będzie wolał obcować z maszynami, to cóż, tak też się może zdarzyć. Są też nawet takie rozwiązania, np. Gatebox Okaeri – to taka swoista wirtualna żona, którą możemy sobie zakupić. Wygląda to troszeczkę jak ekspres do kawy czy coś takiego i tam w środku jest zamknięta pewna pani. Japończycy oszaleli na tym punkcie. Jak pojawiła się pierwsza seria tych produktów, to chyba w kilkanaście minut zostało to wyprzedane. I to jest taka wirtualna żona, która wysyła SMS-y, że tęskni, ogląda telewizję, informuje o pogodzie. Asystent głosowy, ale właśnie z tą wirtualną postacią, takim awatarem. Więc to nie jest taka Alexa czy inny bot.

 

K.G.: Jak w tym nowym Bladerunnerze, tylko że to był robot, który z kolei z robotem hologramowym miał interakcję, a może nawet trochę romans. Ale dobra, to jest taka skrajność, ta digiseksualność. Natomiast zastanawiam się – i mówię to bardzo na serio, ale pewnie za ileś tam dekad – nad sytuacją, w której osoba starsza ma np. opiekuna. Chociaż w sumie nie za kilka dekad, chyba że w Polsce. No ale powiedzmy opiekun robotyczny, ktoś, z kim można jednak pogadać. 

 

K.M.: Dobrze, że pod koniec dotykamy też takich tematów, jak praktyczne zastosowanie robotów i wskazanie, że to jest wielka pomoc dla ludzi.

 

K.G.: Zbudowaliśmy cały ten obraz tego, jak reagujemy na roboty, że to jest kwestia języka, wyglądu, płci, jaką im nadamy, narodowości, koloru, głosu – to wszystko ma znaczenie. No i teraz przełóżmy to na to, co się będzie działo w przyszłości, bo te roboty są już wśród nas i będzie ich coraz więcej. Wracam do tej sytuacji – jest sobie starsza osoba, rodzina jej kupuje robota, żeby zadbał on o to, żeby przyjmowała leki o wskazanej porze. Czy ona zaufa temu robotowi? Czy będzie z nim dyskutować? A co jak ten robot się pomyli? 

 

K.M.: Takich robotów jest już naprawdę sporo, bo społeczeństwa niemal na całym świecie się starzeją, opieka jest potrzebna. Niestety jest deficyt, jeśli chodzi o opiekunów i asystentów, to nie jest zajęcie, które jest jakoś mocno rozchwytywane. Okazuje się, że roboty mogą tu być pomocne, mogą uzupełniać personel, który wspomaga seniora. I to się sprawdza dlatego, że takie roboty są zaprogramowane, żeby alarmować, kiedy np. coś się dzieje. One mogą być nieaktywne nawet przez cały dzień, ale w sytuacji, kiedy widzą, że ktoś upadł, że ktoś zasłabł, mogą reagować. To jest pierwsza z takich częstych funkcji programowanych w tych robotach. Kolejna to jest przypominanie o lekach albo przywożenie do łóżka leków danej osobie. Ale jest to też rozrywka, jest to też monitorowanie pewnych stanów emocjonalnych, jest to też tworzenie pewnych statystyk, pewnych analiz, co się dzieje z człowiekiem, w jakich chwilach jest z nim gorzej, a w jakich lepiej. To jest oczywiście również edukacja – taki robot może być zaprogramowany tak, że każdego dnia może przekazywać porcję wiedzy np. na temat diety. Więc jest cała masa zastosowań i chcę powiedzieć, że osoby starsze są na ogół zadowolone, jeśli dobrze się zaprogramuje takiego robota. Bo mówią, że to im paradoksalnie daje poczucie niezależności, jakiegoś takiego wpływu, odpowiedzialności za siebie. Może to jest pewien paradoks, ale one właśnie nie chcą tej pomocy otrzymywanej od bardzo bliskich osób. W niektórych wypadkach uważają, że to dla nich niezręczne, że to jest obciążenie. Wolą, żeby ten bliski się pojawił i porozmawiał tak, jak to zawsze było, żeby nie musiał usługiwać, bo to tworzy dla ludzi pewien dyskomfort. Bo przez tyle lat np. jakaś osoba była autorytetem, to ona pomagała, wspierała, a tu nagle role się zamieniają. Więc ja to mogę zrozumieć, chociaż uważam, że za każdym razem powinno to podlegać pewnej ocenie psychologa, psychiatry, czy takie wprowadzenie robota może być korzystne.

 

K.G.: Jak daleko może to zajść? No bo robot na recepcji – okej, chyba że pojawią się pewne kłopoty, to ten człowiek jest potrzebny. Opiekun, opiekunka dla osoby starszej – o tym właśnie rozmawiamy, ale możemy iść dalej. Psychoterapeuta, gdyby dobrze zaprogramować? Doradca podatkowy? Dziennikarz – ja wiem, że za jakiś czas będzie pozamiatane. [śmiech]

 

K.M.: Pewnie, że będą coraz większe kombinacje. Widzimy już, że te roboty się pojawiają, np. w Warszawie na dworcu można otrzymać kawę z robotycznej ręki, ten robot potrafi ją przygotować. Są już roboty, które robią pizzę, i całkiem nieźle im to wychodzi. Więc chyba w każdym zawodzie pojawią się roboty, zwłaszcza w takich, gdzie te zadania są żmudne, niechciane przez nas czy niebezpieczne. Są też np. takie roboty, które doskonale odnajdują się w szpitalach, i prowadzą dezynfekcję. Albo podczas pandemii Chińczycy zaczęli produkować takie roboty, które na oddziałach zakaźnych przygotowywały jakieś proste jedzenie, dostarczały je i spowodowało to, że tam rzeczywiście wirus się nie rozprzestrzeniał. Ale co do pytania o roboterapię – w tej chwili mamy już, zresztą jest to już od lat, terapię online, tylko właśnie w tej postaci nieucieleśnionej. Są chatboty, które się dobrze sprawdzają, są rozmaite aplikacje, są również takie wirtualne awatary, które wspomagają ten proces terapeutyczny.

 

K.G.: I ludzie się lepiej czują po takiej rozmowie?

 

K.M.: Tak, ich jakość jest bardzo wysoka. Tylko mówię, znowu jest pytanie, co dla kogo. 

 

K.G.: Myślę, że bym się czuła śmiesznie.

 

K.M.: Ty byś się czuła śmiesznie, ale wyobraź sobie, że jesteś np. weteranem w armii amerykańskiej. Jeśli chodzi o byłych żołnierzy, którzy są obecnie weteranami, mają oni rozmaite problemy, mają traumy. Dla nich jest to bardzo trudne, żeby stanąć oko w oko z prawdziwym człowiekiem, stawiają opór, mówią: nie, ja tego nie chcę robić. Ale jak im się daje taką aplikację czy takiego wirtualnego awatara, to oni to preferują, bo wtedy nie czują się niezręcznie, że ktoś ich ocenia, że to jest dla nich jakaś ujma czy coś takiego, że oni się przyznają do swoich słabości. Tak to jest w armii, że się mówi o tym, że nie możesz być słaby, nie możesz narzekać. Tak że oni rzeczywiście wolą obcować z taką technologią.

 

K.G.: Ale taki świat pełen robotów – jakie jest twoje stanowisko w tej sprawie? Czy to będzie taki świat mroczny, bladerunnerowski, gdzie wszyscy jesteśmy gdzieś zamknięci, mamy tego swojego robota, hologramowego przyjaciela, kto bogatszy, ma fizycznego? Czy to będzie jednak jakaś taka współpraca? Czy te roboty poprawią ten nasz świat, czy spowodują jeszcze większe wyobcowanie?

 

K.M.: To jest bardzo podobne pytanie do tego, jak to jest z tą sztuczną inteligencją. Czy ona nas zabije, czy spowoduje, że dojdzie do jakiejś wielkiej katastrofy, czy może przyniesie nam ocalenie ludzkości? Myślę, że jak zawsze w takich wypadkach są plusy dodatnie i plusy ujemne. Chciałbym, żeby w pierwszej kolejności roboty pomagały ludziom albo wręcz aktywizowały ich – może to zabrzmi dziwnie – ale do życia zawodowego. 

Dziwnie zabrzmi, ale podam jeszcze taki bardzo interesujący przykład – w Japonii jest taka restauracja, gdzie roboty obsługują ludzi, ale osoby z niepełnosprawnościami, takie, które są sparaliżowane, takie, które nawet nie mogą wychodzić z domu, mogą tymi robotami sterować, właśnie będąc w domu, więc czują się zaktywizowane, czują się częścią społeczeństwa, czują się sprawcze. I właśnie ja bym chciał widzieć takie rozwiązania. 

Takich rzeczy jest coraz więcej, bo naprawdę, rozwój robotyki idzie w takim kierunku, że to jest wspomaganie i dzieci w edukacji, i w szpitalach, i osób starszych. Widzę tu masę zastosowań, bo dzięki temu można rzeczywiście poprawić kondycję naszej służby zdrowia, można uzupełnić personel. Tam, gdzie naprawdę człowiek nie daje rady czy nie chce, można wysłać roboty. Natomiast wiadomo, że jednocześnie są tacy, którzy marzą o tym, żeby tworzyć takie totalne repliki i żeby te roboty zastąpiły ludzi na rynku pracy. Ale myślę, że jeszcze wiele lat upłynie, zanim wystąpią takie możliwości. Być może wtedy pojawią się jakieś regulacje prawne. Jeśli mnie pytasz, co ja o tym sądzę tak ogólnie, w jakim punkcie jestem itd., to moje stanowisko jest takie, że myślę, że powinno się bardzo uważać z robotami humanoidalnymi, żeby nam nie mieszać w głowach. Bo jeśli będziemy je tworzyć, to bardzo szybko pojawią się takie postulaty: zaraz, zaraz, ale te roboty muszą mieć jakieś prawa. Kiedy będzie miała miejsce sytuacja, że np. ktoś uderzy takiego robota, to czy uderzył robota, czy pracownika, jeśli to będzie np. w hotelu lub innym miejscu pracy? Jeżeli pójdziemy w taką humanoidalność w sensie fizycznym, to będziemy programować osobowość, wartości. Pytanie, jaką osobowość, jakie wartości, jakie emocje? W związku z tym zaczynamy doposażać te roboty cechami coraz bardziej ludzkimi, bo to nie chodzi tylko o wygląd. No i wtedy rzeczywiście trochę się pogubimy. Moim zdaniem powinno to pozostać na poziomie takich skrzyneczek, może ewentualnie wzbogaconych jakimiś umiejętnościami. Ale dlaczego np. ręce robota mają wyglądać tak, jak nasze ręce? Przecież te części chwytne mogą wyglądać inaczej. Po prostu rozwijajmy pewien nurt urządzeń, ale budowanie humanoidalnych robotów za wszelką cenę to jest jakaś pułapka, to jest moim zdaniem zbędne i po prostu niepotrzebnie wywołuje jakieś konflikty.

 

K.G.: Kto zainteresowany, może jeszcze posłuchać wielu ciekawych gości na wydarzeniu, które organizujesz.

 

K.M.: Tak. Jeśli ktoś z naszych słuchaczy byłby zainteresowany poszerzeniem swojej wiedzy, nie tylko jeśli chodzi o roboty, to mamy naprawdę bardzo fajne wydarzenie, które się nazywa Human Tech Summit. Od razu zaznaczę, że dostęp online jest bezpłatny. To jest 9-10 grudnia tego roku. Podczas tego wydarzenia będzie okazja, żeby posłuchać znakomitych gości. Będziemy mieli aż siedmiu głównych mówców, którzy przyjadą do nas z rozmaitych części świata. Będzie Selma Sabanovich, która zajmuje się designem robotów na Indiana University. Będzie też Michał Kosiński, być może znany słuchaczom, a jeśli nie, to mam nadzieję, że kiedyś tutaj zawita. Pracuje on na Stanford University i zajmuje się obecnie sztuczną inteligencją, która działa nad dużymi modelami językowymi typu chat GPT. Będzie jeszcze kilka innych osób, m.in. Zillah Watson, która przez wiele lat zajmowała się VR-em w BBC. Tak że jest to wydarzenie, które łączy świat nauk społecznych, technologii, biznesu i nauki, ponieważ będą też wątki związane z praktycznym zastosowaniem technologii. Serdecznie zapraszam.

 

K.G.: Human Tech Summit – zostawię wam link w opisie. Na żywo w Warszawie na SWPS-ie, ale można też uczestniczyć online i rzecz jest bezpłatna. Doktor Konrad Maj, Uniwersytet SWPS. Dziękuję serdecznie.

 

K.M.: Dziękuję pięknie.

Bardzo serdecznie dziękuję za wysłuchanie odcinka. Linki do Human Tech Summit, jak obiecałam, znajdziecie w opisie odcinka, tak samo, jak linki do badań doktora Maja. A ja jestem bardzo, bardzo ciekawa, czy zgodzilibyście się kiedyś, że robot czy robotka będą waszymi opiekunami? Takimi opiekunami pierwszej potrzeby albo może towarzyszami w oglądaniu telewizji, seriali. Koniecznie dajcie znać w komentarzach. W kolejnym odcinku przeniesiemy się w przeszłość, ale nieodległą. Będziemy mówić o postrzeganiu zdrowia i choroby przez wiejskie społeczności w PRL-u, o tym, jak opieka medyczna stawała się powszechna, ale też długo była traktowana podejrzliwie. O tym, jak twarde warunki życia na wsi powodowały odporność na ból i dyskomfort, bardzo często z fatalnym skutkiem dla zdrowia. Ten podcast powstaje we współpracy z Europejską Siecią Pamięć i Solidarność. Już teraz wam gorąco polecam zapoznanie się z działalnością tej organizacji dbającej właśnie o pamięć. A tymczasem do usłyszenia.

Dodane:
939

Gość odcinka

Dr Konrad Maj

Dr Konrad Maj

Psycholog społeczny, kierownik Centrum Innowacji Społecznych i Technologicznych (HumanTech) na Uniwersytecie SWPS, adiunkt w Katedrze Psychologii Społecznej na Wydziale Psychologii w Warszawie. 

Naukowo interesuje się zagadnieniami związanymi z nowymi technologiami (sztuczną inteligencją i metawersum), wpływem społecznym oraz innowacjami.

Obserwuj Radio Naukowe

Ulubione

Skip to content