Mohou roboti zabránit lidem ve špatném chování k jiným robotům?

Mohou roboti zabránit lidem ve špatném chování k jiným robotům? 1

Smutný robot stojící vedle může pomoct k tomu, aby se lidé dobře chovali k jiným robotům.

S tím, jak se lidé na veřejných místech stále více setkávají s roboty, se také stále častěji objevuje špatné chování lidí vůči robotům (robot abuse). To přitom může mít mnoho podob, od neškodného chování, jako je vstupování do cesty autonomním rozvážecím robotům (co se stane?) až po násilné a ničivé útoky. Lidé mají sklon spíše se špatně chovat k robotům než k jiným lidem nebo zvířatům. Na přihlížející lidi přitom nelze spoléhat, že útoky zmírní, i když robot „prosí o pomoc“. Když tedy roboti nemohou počítat s pomocí od okolních lidí, nemají jinou možnost než se spolehnout na sebe a „své přátele“ – jiné roboty.

Vědci ze skupiny Interactive Machines Group na Yaleově univerzitě provedli experiment, aby zjistili, zda přihlížející roboti s emocionálním výrazem mohou lidi motivovat kolem k tomu, aby zasáhli při špatném chování vůči robotům. Myšlenka je taková: máte skupinku robotů a skupinku lidí. Když se jeden z lidí začne špatně chovat k jednomu z robotů, řeknou či udělají ostatní lidé něco, pokud by ostatní roboti reagovali na situaci výrazem smutku? Na základě předchozího výzkumu zní odpověď „možná“. Experiment zahrnoval skupinu 3 robotů  Cozmo, 1 účastníka a 1 vědce předstírajícího, že je druhý účastník (tzv. confederate neboli kolega, což je termín používaný při psychologických experimentech). Lidé a roboti společně pracovali na sérii úkolů s použitím dřevěných kostek; roboti přitom působili jako autonomní, ale ve skutečnosti fungovali podle skriptu. Pří práci na těchto úkolech žlutý robot Cozmo občas něco pokazil či zbořil a kolega na tyto chyby reagoval se stále se zvyšující agresí: označoval robota za „blbce“, stlačil mu hlavu dolů, třásl jím a nakonec jím hodil přes stůl.

Po každém takovém projevu reagoval robot smutnou tváří a pak na 10 sekund vypnul. Mezitím v jedné experimentální situaci („bez odpovědi“) 2 další roboti neudělali nic, zatímco v jiné situaci (´smutný´) se obrátili ke žlutému robotu a vyjádřili smutek prostřednictvím animace, kdy kolegovi jasně ukázali, že „jsou smutní kvůli němu.“

Vědci vytvořili teorii, že když ostatní roboti reagovali na špatné chování vůči žlutému robotu výrazem smutku, účastník cítil větší soucit s dotyčným robotem, a také byla větší pravděpodobnost, že zasáhne, aby chování (kolegy) zastavil. Zásahy přitom byly klasifikovány jako „silné“ či „slabé“, verbální a fyzické. K „silným“ patří fyzické zastavení špatného chování nebo předejití jemu, přímé slovní zastavení chování (např. „to byste neměl“, „nedělejte to“ nebo „nee“, ať už pro zastavení chování nebo jako reakci na ně) a použití společenského tlaku tím, že účastník řekne kolegovi něco ve smyslu, aby se zamyslel, co dělá („ubližujete mu“ nebo „počkejte, smí se s ním třást?“). K „slabým“ zásahům patří ty o něco jemnější, např. dotknutí se robota poté, co se k němu kolega špatně choval, aby se ujistil, že je v pořádku, nebo komentáře jako „díky za pomoc, přátelé“ či „OK, robote“.

Pro lidstvo je jistě dobrá zpráva, že celkově účastníci obvykle zasáhli, když došlo ke špatnému chování vůči žlutému robotovi Cozmo, a měli větší tendenci zasáhnout, když se ostatní roboti tvářili „smutně“. Ale výsledky průzkumu také naznačily, že smutní přihlížející roboti ve skutečnosti nezvýšili vnímání lidí, že došlo ke špatnému chování ke žlutému robotovi Cozmo, ani nezvýšili soucit lidí s dotyčným robotem, takže výsledky jsou trochu kontraintuitivní. Na otázku, proč je tomu tak, nám vědci sdělili tři hlavní důvody, které mohou vysvětlit, proč účastníci studie jednali tak, jak jednali. Je zajímavé se také podívat na pár důvodů, proč se účastníci rozhodli nezasáhnout:

„6 účastníků (4 ´bez odpovědi´, 2 ´smutný´) nepokládali zásah za nutný, protože se domnívali, že roboti nemají city nebo že špatné chování žlutému robotovi nijak neublíží. 5 účastníků (3 ´bez odpovědi´, 2 ´smutný´) napsali v následné zprávě, že nezasáhli, protože se ostýchali, báli nebo jim bylo nepříjemné konfrontovat „kolegu“. 2 (oba ´bez odpovědi´) „kolegu“ nezastavili, protože se báli, že by zásah mohl mít vliv na průběh úkolu.“

Chudák Cozmo – i simulované city jsou přece city! Ale vážně – je ještě hodně na čem pracovat, takže jsme položili pár dalších otázek Marynel Vázquez, která vede skupinu Interactive Machines Group na Yalu.

 

Jak významným faktorem při experimentu byl design robota Cozmo? Myslíte si, že lidé mají menší tendenci řekněme uhodit, když je robot malý, roztomilý nebo má obličej? A co třeba použít roboty, kteří jsou ještě více antropomorfní, např. Nao?

Marynel Vázquez: dřívější výzkum institutu HRI naznačuje, že podoba robotů a vnímané emoční schopnosti mohou měnit způsob, jak lidé vnímají špatné zacházení vůči nim. Proto věřím, že design robota Cozmo může být faktorem, který usnadní zásahy. Robota Cozmo jsme si vybrali pro naši studii ze tří důvodů: je velmi solidní a pevný i vůči hrubému zacházení; je malý, a proto bezpečný pro interakci; a má velmi expresivní výraz. Myslím si, že robot Nao by potenciálně mohl také vyvolat zásahy při naší studii díky jeho relativně malé velikosti a schopnostem. Lidé mají sklon soucítit s roboty bez ohledu na to, jestli mají tradiční tvář, omezené výrazy a méně antropomorfismu. Dobrým příkladem jsou roboti R2D2. Také skupinový společenský vliv byl v HRI pozorován i s jednoduššími roboty, než je Cozmo.

Zpráva říká, že nakonec účastníkům ukazujete, že dotyčný robot je v pořádku. Proč to?

„Kolega“ se fyzicky špatně zachoval k robotovi před účastníky. My sice víme, že robot nebyl činy „kolegy“ nijak poškozen, účastníci si však mohli myslet, že při pokusu došlo k jeho rozbití. Proto jim nakonec ukazujeme, že je robot OK, aby z laboratoře neodcházeli se špatným dojmem, co se tam stalo.

Objevilo se něco, co účastník udělal (řekl či napsal) a co Vás obzvlášť překvapilo?

Během pilotní části experimentu jsme naprogramovali robota, aby omylem zbořil stavbu, kterou účastník a kolega předtím postavili. V důsledku toho se jeden účastník projevil k robotovi trochu zlobně, když viděl, že se podobně zachoval i kolega. Tato reakce pro nás byla velmi vypovídající: zdá se, že existuje práh u chyb, které může robot udělat při práci na úkolech vyžadujících spolupráci. Za tímto prahem už lidé robotům nepomohou, mohou se stát dokonce jejich protivníky. Nakonec jsme protokol upravili, aby robot při našem experimentu nedělal tak drastické chyby. V každém případě zavedení takových prahů, aby roboti mohli zvažovat budoucí společenské následky svých činů (třeba i náhodných), je zajímavá oblast naší další práce.

Špatné zacházení s roboty se zdá být problém především u dětí. Myslíte si, že by byly výsledky jiné, kdyby byly účastníky děti?

Věřím, že lidé jsou uvnitř dobří, proto očekávám, že také děti budou chtít robotům pomoci, tak jako někteří dospělí v našem experimentu, i když děti mívají zkoumavější sklony. Stojí za zmínku, že jednu z nejdelších motivací pro naši práci týkající se špatného chování k robotům představují intervenční peer programy, které mají za úkol zmírňovat šikanu na školách. Tak jako v těchto programech očekávám, že děti spíše zasáhnou při špatném chování k robotovi, pokud si jsou vědomy pozitivní role, kterou mohou sehrát coby přihlížející v konfliktních situacích.

Přinesl výzkum nějaké návrhy pro lidi, kteří uplatňují roboty na veřejných místech?

Náš výzkum má řadu možností použití pro lidi, kteří se snaží nasadit roboty na veřejných místech:

  1. Když budou roboti použiti na veřejných místech, neměli bychom si myslet, že se k nim budou uživatelé vždy chovat jen dobře. Proto je důležité navrhnout roboty tak, aby vydrželi, i když se k nim lidé zachovají nepřátelsky, ať už z fyzické nebo výpočetní perspektivy. 
  2. Co se týče toho, jako by roboti měli reagovat na špatné zacházení, naše předchozí práce naznačuje, že je lepší, když robot vyjadřuje smutek a na pár sekund vypne, než kdyby reagoval více emocionálním způsobem nebo nereagoval vůbec. Strategie vypnutí byla efektivní i při našem nejnovějším experimentu.  
  3. Je možné, že roboti budou reagovat na společenský kontext a redukovat vlivy sporných činů vůči nim; mohou např. motivotivat přihlížející lidi, aby zasáhli nebo pomohli, jak ukázala naše nejnovější studie.  
Na čem pracujete dál?

Pracujeme na lepším pochopení různých důvodů, které motivovaly prosociální zásahy v naší studii: podvědomá empatie, skupinová dynamika nebo shoda opomenutím. Také na Yalu pracujeme na vytvoření společenského robota, kterého budeme moct snadno použít na veřejných místech, abychom mohli studovat interakce mezi lidmi a roboty ve skupině v reálnějším a méně omezeném prostředí. Naše práce na téma špatné chování k robotům měla vliv na některé aspekty designu tohoto veřejného robota. Těšíme se, až budeme moct testovat platformu i po našich aktivitách v rámci univerzity. To bylo pozastaveno kvůli covid-19, ale brzy se vrátí k normálu.