Westworld е един от най-въздействащите сериали в последните години, но страховитото му послание далеч не е ново. Пигмалион вае скулптура на жена, която оживява. Голем e одухотворен от човека. Направеният от чужди телесни части Франкенщайн се сепва от смъртния си сън, за да се превърне в убиец. Мотивът за човека, създал живот по свой образ и подобие, е ключова тема във вселената на фантастиката и митологията.
Доскоро си оставаше точно там, в света на художествената измислица. Днес обаче най-сложните роботи се трансформират от движещи се машини с вид на анимационни герои към все по-реалистични и интелигентни същества. Всички те са толкова вдъхновяващи, че е твърде лесно да забравим колко етични проблеми могат да провокират.
Не в убийствения смисъл на Westworld - андроидите изобщо не са достигнали до това ниво на интелигентност или физическа сила, че да си заслужава дори да спекулираме на тази тема. Но по-спешният проблем за решаване са изненадващите социални казуси, които ще възникнат с използването на реалистично изглеждащите хуманоидни роботи като заместители на хора-работници или компаньони.
Google се сблъска с първичната проява на тези проблеми преди месец, когато представи новия си гласов асистент с изкуствен интелект Duplex.
Звуковият алгоритъм е достатъчно реалистичен, за да внуши на хората, че общуват с друг човек. Там е работата, че хората не обичат да бъдат заблуждавани. В Google се принудиха да обяснят, че асистентът от Duplex винаги ще се представя като робот преди началото на всеки разговор. И все пак, не обезсмисля ли това усилията за създаване на реалистичен гласов помощник?
Подобни етични противоречия могат да създадат пречки и пред отношенията между самите хора и машини. Да вземем за пример ElliQ - комбинация от робот и таблет, който напомня на възрастните хора да поддържат физическата си активност и едновременно с това им служи като прозорец към публикациите на близките им в социалните мрежи.
Дизайнерите са положили специални усилия за това потребителят да не забравя, че разговаря с робот. Гласът му използва специфичен акцент, така че да прилича изцяло на човешкия говор.
ElliQ има нещо като глава, но няма очи. Ако това ви звучи притеснително, имайте предвид, че хората са склонни да "одухотворят" почти всеки обект, в който могат да разпознаят очи. Убеждаването на потребителя, че изкуственият интелект или хуманоидният робот са човешки същества, е опасна игра. Това създава неправилно очакване за общуването, своеобразно антиутопично преживяване, казва създателят му Дор Скълър пред Wired.
"Не мисля, че искаме да живеем в свят, в който изкуственият интелект се преструва на човек и се опитва да внушава на потребителя си, че роботът изпитва човешки чувства или емоции", казва той.
Това не означава, че можем или сме длъжни да спрем хората от формирането на връзки с машините - неизбежно е да се случи.
Дори при бета тестове с ранни версии на домашни роботи като ElliQ, хората възприемат машините като "ново попълнение в живота си", а на като устройство. Знаят много добре, че става дума за технически инструмент, но все пак изпитват усещане за благодарност, че има нещо, което им прави компания. И тук става дума за много базов и относително прост робот-компаньон.
Представете си връзките, които ще формираме с по-усъвършенстваните машини. Да приемем, че след 50 години вече ще има реалистични хуманоиди по улиците на градовете. Вероятно ще имат малко странни движения, мимиките им ще са някак вдървени - т.е. ще издават, че са машини.
След още половин век обаче е напълно възможно да се изненадате, когато колегата в офиса внезапно започне да засича на последната дума от изречението си и разберете, че пред вас стои не човек, а робот.
Това, от което всеки има нужда в самото начало, е честност. Може да се каже, че роботът има етично задължение да се представя като машина, независимо че е неодухотворен обект.
Бъдещите етични кодекси за роботите вероятно ще се различават в отделните държави.
Ако поставите робот с изражение на детско лице в търговски център в Япония, хората вероятно ще му се зарадват. Ако го поставите в мол в Щатите, посетителите ще се възмутят дълбоко. Разработчиците са длъжни да вземат предвид културния контекст, когато проектират моделите за взаимоотношения между хората и роботизираните им аналози.
Освен това ще трябва да се адаптират към променящите се перспективи на поколенията.
Децата, които израстват в света на роботите, ще имат голямо влияние върху най-широките обществени нагласи към този вид отношения.
Именно децата трябва да бъдат наблюдавани от разработчиците, за да се види какво би било "нормално" общуване за тях. По този начин ще се въведат законите за поведение в новата култура.
В идеалния случай, тези закони няма да допускат третирането на хуманоидни роботи като нищожества - по примера на Westworld. И все пак вече имаме един лош пример - експеримент от 2015 г., проведен в Япония, показва как деца пребиват робот без придружител и го наричат идиот.
Ако знаете, че андроидът е андроид, а не човек, дали няма да се изкушите да му посегнете? Дали връзките, които създаваме с творенията си, ще останат на нивото на подчинението, без да преминават към привързаност и обич?
Хората се справят чудесно с развиването на нови социални категории. Отнасят се различно към познати и непознати, към колеги и лекари, към подчинени и началници.
Непрекъснато променяме социалните си интеракции според това с кого общуваме. Не е трудно да предскажем бъдеще, в което различните типове роботи ще получават различни нива на уважение и обич.
Може да сте сърдечни приятели с домашния си хуманоид, но да се държите с презрение към хуманоида-секретар в офиса си, защото... ами, защото просто няма чувства и мисли, а само нули и единици в процесора си.