Снощи гледах поредната серия от сериала Westworld, в която един робот (изкуствено създаден човек) уби истински жив човек. Това ме накара да се сетя за Законите на роботиката, формулирани от Айзък Азимов още през средата на миналия век, защото убийството на човек е грубо нарушение на Първия закон. Азимов, като човек математик, е конструирал законите, воден от принципите на приоритетите. На първо място е човекът (в последствие – човечеството) и по-точно животът на човека, затова и първият закон гласи, че
Роботът не може да причини вреда на човек или с бездействието си да допусне на човека да бъде причинена вреда
Проблемът обаче идва от това, че човекът е същество, което често се настървява срещу своя брат – човека и от това биха възникнали сериозни морални (или по-скоро функционални) конфликти за робота.
Как би трябвало да реагира един робот, ако попадне в ситуация, когато един човек иска да нарани друг човек?
Каквото и да направи – да действа, за да спаси единия или другия, или пък да бездейства – все някой човек ще пострада.
Тук идва моят скромен принос към законите за роботиката. Предлагам да въведем едно допълнение. Всеки човек в ценностната система на робота си има своя приоритет. Най-висок приоритет има неговият собственик. след това са близките, роднините и приятелите на собственика, като този приоритет се програмира преди роботът реално да влезе в експлоатация. Така бихме могли да преформулираме едно Допълнение към Закон номер 1, което да гласи:
В случай на конфликт между двама човеци, чийто живот е взаимно застрашен, роботът с действие или с бездействие трябва да защити живота на човека с по-висок приоритет в неговата ценностна система.
И Допълнение 2:
Ако двамата души, чийто живот е взаимно застрашен, имат еднакъв приоритет, тогава роботът не трябва да се намесва.
Дотук животът животът на индивида сякаш е защитен напълно. Но възниква проблем с животът на големи групи хора.
Как би трябвало да реагира един робот, ако една група хора застрашава живота на друга група хора?
Примери много – една армия срещу друга армия, полиция срещу бунтовници, терористи срещу мирни граждани. Как да разбере роботът чий живот е по-ценен (и по чия преценка?), за да може да реагира правилно в подобна ситуация?
Тук отговорът ми се струва много по-труден.
И за да стане задачата още по-трудна, можем да вкараме още една променлива в уравнението:
Как да реагира роботът в ситуация, в която от една страна е застрашено здравето и целостта на организма на един човек, а от друга – животът на друг?
Ако алтернативата е собственикът на робота (човекът с най-висок приоритет) да бъде наранен или друг човек, който го заплашва, да бъде убит. Как би трябвало да се намеси роботът, кое за него би било по-важно – животът на един непознат или здравето на един близък?
И тук започнах да осъзнавам, че в тези въпроси спокойно можем да пропуснем думата робот и да я заменим с човек. И че тези въпроси се отнасят до самите нас и нашите собствени морални ценности. И отговорите стават все по-трудни.
Затова оставих другите закони на роботиката и реших да спра временно дотук и да ви попитам какво мислите вие. Можем ли да формулираме една нравствена система, която да бъде стройна и сигурна, така че да можем да програмираме бъдещите разумни машини да я следват, или всичко това ще си остане в областта на фантастиката?
Браво Майк! Радвам се дето го гледаме заедно…
Нравствените системи, за които питаш, са измислени преди десетки векове. Те се наричат религия. Няма нужда да откриваме на ново топлата вода. 🙂
Атанас, и какво казват тези закони в този случай?
Според мен, авторът в своите разсъждения, достига до положението подобно на онази поговорка – Ако имаш един часовник знаеш колко е часа, но ако имаш два вече се съмняваш. Или дето една тайна не е тайна ако се знае от двама човека. Или една тайна между двама човека не е тяхна тайна, ако я научи трети. Или ако в един спор има трима човека, то един непременно ще заеме нечия страна.
Мисля, че Азимов, когато е формулирал законите, се е водил от своите морални ценности, които са оформени и от неговите религиозни разбирания. Или поне тези, на обществото, в което той е израстнал. Той не е познавал миграцията на огромни маси хора с друг религиозен светоглед, нито е познавал новото време на технологично развитие.
Разбира се, знаел е за войните. Несъмнено е приемал, че роботите ще се развият до положение да разбират човешките взаимоотношения. Макар да е разбирал, че тези закони са само началото на тази дискусия, вероятно се е надявал, че те ще останат неизменни, поради надеждата си да са определящи кардинално едни основни принципи на поведение на робота.
Определил е закони за робота, но не е разгледал взаимовръзките им с изменчивата и неправолинейна природа на човешките взаимоотношения. Допускал е, че роботите ще ни третират логически, но не е разгледал обстойно вариациите на отношението на човека към тях – като към машини или като към мислещи, и подразбиращо се, чувстващи субекти.
Намирам коментарът относно религията за безсмислен.. Що се отнася до законите на роботиката, в най-близкото бъдеще ще сме изправени пред проблема: самостоятелно управлявани коли например..