Представете си автомобил, който се движи с 80 км/час по път в ненаселено място. Вътре пътува малко момиченце и то е само - защото става дума за самоуправляващ се на 100% автомобил - един от онези, за които големите производители твърдят, че до 4 години ще влезат в производство.
Внезапно три други деца се появяват на пътя съвсем неочаквано и автомобилът трябва да вземе решение, според това, как е програмиран: да продължи напред и да блъсне децата или да завие настрани и да се забие в стената, заедно с малката пътничка вътре.
Как е редно да постъпи един самоуправляващ се автомобил?
Най-вероятно, според настройките си, които следват правилото за възможно по-малък брой жертви, колата ще се забие в стената, спасявайки живота на трите деца и жертвайки детето вътре.
А сега си представете, че в автомобила се вози вашето собствено дете. Бихте ли купили на семейството си кола, която ще предпочете да го убие, за да спаси три чужди деца?
Познахте: повечето от хората не биха си купили автомобил, който би пожертвал живота на пътуващия в него, само защото настройките са преценили, че това е най-добрата възможна опция.
Принципът за най-малкото зло, според законите на логиката, не важи, когато става дума за нас самите или близките ни.
Точно това показват и данните от изследване, проведено от американското списание Science. Серия въпроси на учените проверяват настроенията сред американците относно дилемите, които поставят самоуправляващите се коли.
Първият извод, който се налага според данните в анкетата, е парадоксален: запитаните намират за логично самоуправляващите се автомобили да са настроени според универсалната логика и морал: по-добре да убиеш един човек - в случая шофьора, отколкото да смачкаш 10 други души. И все пак мнозинството заявява, че не - не би си купило подобен автомобил, който работи с такъв алгоритъм.
Именно в това се състои голямата пародия на интелигентните автомобили на бъдещето.
Тяхната перфектност ще бъде безкомпромисна в момента, в който трябва да се намалят смъртните случаи, но собствениците на интелигентни автомобили едва ли могат да се примирят с факта, че в повечето случаи именно те ще бъдат жертвите.
Този парадокс, който за момента звучи чисто теоретично, може да се окаже основният мотив за забавянето на масовото производство на самоуправляващите се автомобили - и то в много по-голяма степен, отколкото чисто техническите детайли.
А с всяка една година, в която производството на самоуправляващи се автомобили се забавя - се забавя и намаляването на пътните инциденти в следствие на човешка грешка - което са около 90% от настоящите инциденти, според статистиките.
Но пред дилемата нашите автомобили да ни убият, ако на пътя има повече хора, отколкото се возят в колата - ние сякаш продължаваме да предпочитаме черната хроника, създадена от собственото си шофиране.
Според един от авторите на изследването Азим Шариф, специалист по етика от университета в Орегон, ще се наложи създаването на нови алгоритми за самоуправляващите се автомобили, в които ще има различни ситуации.
"Има неща, които няма как да се избегнат. Ще има ситуации на пътя, в които общите правила ще влизат в конфликт с конкретните случаи и ще се наложи създаването на алгоритми и за такива ситуации".
Всъщност самоуправляващите се автомобили ще се сблъскат с класическа морална дилема, наречена "дилемата на трамвая".
Тя гласи следното: "Ако се возите в трамвай, който се движи по инерция и не може да спре, ще бутнете ли най-тежкия човек от возещите се на релсата, за да спре с тялото си машината? С една дума, убивайки го, бихте ли спасили живота на останалите пет души в трамвая?"
Обикновено около 30% от хората отговарят, че биха постъпили по този начин.
Е, представете си колко сложна става ситуацията, ако трябва да програмираме самоуправляващите се автомобили спрямо различни фактори, като например дали в колата се вози бременна или тежко болен човек. И как да решат проблема автомобилите, ако трябва да избират дали да бутнат пресичащо дете или възрастен човек?
Пред бъдещето на самоуправляващите се коли все още има твърде много морални дилеми - и е ясно, че те ще могат да ги решават само по начина, по който са програмирани - и то без никакво колебание.
"В дебата за бъдещето на самоуправляващите се автомобили не е много ясно кой трябва да поеме отговорността", коментира Рамон Лопез де Мантарас, директор на испанския институт за разучаване на изкуствения интелект IIIA, цитиран от El Pais. "Кой трябва да реши как да постъпват автомобилите: правителствата, производителите, потребителите?".
Според изследването на списание Science, хората не искат правителствата да регулират моралния код на самоуправляващите се автомобили, а големите производители на автоматизиран транспорт (Uber, Google, Volvo, Ford) вече се обединиха, за да упражнят възможно най-голям лобистки натиск върху политическите решения, които предстоят в областта.
Лопез де Мантарас предполага, че е възможно, докато се появят първите абсолютно самоуправляващи се автомобили, изкуственият интелект вече да се развил до степен, в която да може да взема собствени автономни морални решения.
"Но тогава ще възникне нов проблем: автомобилите ще излизат от фабриката еднакви, но всеки един ще може да се самообучава, така че ще достигне някакво собствено етично ниво", подчертава той. "И във всички случаи, контролирането на изкуствения интелект трябва да става по абсолютно прозрачен начин".
Е, това не е много успокоително за потребителите, които едва ли скоро ще забравят скандалите, засегнали големите производители, що се отнася до скриването на реалните данни за вредните емисии в атмосферата и едва ли скоро ще повярват в "ангелските" намерения на корпорациите.
Добре де, нали този който плаща за колата, той поставя условията? Тогава какво по- логично има, колите да са програмирани да изпълняват правото - "газиш и продължаваш".