Зрозуміло, в настройках Тей була закладена абсолютна моральність. Однак багато інших систем штучного інтелекту задіяні при виконанні роботи, яка передбачає недвозначні етичні наслідки.
У міру появи все більш досконалих роботів, процес прийняття ними рішень стане лише ще складніше. Однак в цьому випадку постає питання про те, як запрограмувати роботів на розуміння моральності і чи варто довіряти їм рішення моральних дилем.
Як створити етичний механізм.
Взагалі, в справі створення етичного робота існує два підходи. Перший полягає в тому, щоб визначити специфічний моральний закон (наприклад, примноження щастя), написати код для подібного закону і створити робота, строго наступного коду. Однак складність даного підходу полягає в тому, як підібрати підходяще етичне правило. До кожного моральному закону, навіть того, що вже було згадано вище і здається простим, існують міріади винятків і контр - прикладів. Наприклад, чи повинен робот прагнути до максимізації щастя, забираючи органи однієї людини, щоб врятувати життя п'ятьох?
"Питання Моралі в Більшості Випадків розпливчасті", - говорить Рональд Аркін, професор і директор пересувної лабораторії робототехніки в технологічному університеті Джорджії.
"Як Людські Істоти, ми і раніше Сперечаємося про ту Системі Моральних Цінностей, Яку Слід Використовувати: Чи варто Застосовувати Послідовно - Прагматичний Принцип" мета виправдовує засоби "або ж кантіанський етичний підхід, заснований на ідеї про права людини".
І справа не просто в тому, щоб сперечатися до тих пір, поки ми не знайдемо правильну відповідь. Патрік Лін, директор групи етичних і формуються наук в каліфорнійському політехнічному університеті, заявляє, що етика може і не мати внутрішню узгодженістю, через що її неможливо звузити до програм. "Вся Система може обрушитися в Внаслідок Зіткнення з Парадоксами або нерозв'язних суперечностей", - говорить він.
Другий варіант полягає в тому, щоб створити самонавчального робота і навчити його, як слід реагувати в різних ситуаціях, таким чином домігшись формування уявлень про мораль. Це схоже на те, як людина засвоює моральні зразки, однак тут постає питання: чи дійсно люди годяться на роль кращих вчителів моралі? Тільки в тому випадку, якщо люди на зразок тих, хто спілкувався з Тей, візьмуться вчити робота, він не буде відрізнятися особливою чутливістю до питань моралі.
В деякій мірі здатність Тей сприймати те, чого її вчать, вражає, каже Аркін. Однак він зазначає, що бот піддався "Знущанню зі Сторони Людей". Він додає:
"Ви можете зробити це і з яким-небудь простаком. Самонавчається багато в чому і є справжнісінькі роззяви. Ви можете обдурити кого-небудь, а ці люди вважали за краще обдурити штучний інтелект".
Втілюючи ідеї в життя.
Створення морального робота це не просто абстрактна теорія; деякі філософи і фахівці в області комп'ютерної техніки в даний час якраз цим і займаються.
Аркін з технологічного інституту Джорджії працює над тим, щоб змусити машини дотримуватися міжнародне гуманітарне право. Для таких випадків існує величезна кількість розроблених людьми і узгоджених між іноземними державами законів та інструкцій для машин. Незважаючи на те, що деякі випадки менш зрозумілі, ніж інші, Аркін вірить, що його проект досягне мети через пару десятиліть.
Його робота багато в чому грунтується на низхідному програмуванні і в меншій мірі на самообучении - в кінці кінців, ви не захотіли б послати когось в бій і кинути там, щоб він самостійно з'ясовував, як реагувати.
Сьюзен Андерсон говорить, що на їх роботу вплинули філософи Джон Роулз і в. Д. Росс. У той час як роботи Роулза по "рефлективний Рівновазі" свідчать, що моральні принципи можуть бути вилучені з етичних рішень, прийнятих в певних ситуаціях, Росс доводить, що у людей є кілька першорядних моральних імперативів. Ми зобов'язані слідувати кожному з цих імперативів, проте жоден з них не є абсолютним і не переважує інші автоматично. Тому в ситуації, коли між ними виникають суперечності, вони повинні бути збалансовані і піддані порівнянні.
Андерсони вивчають самонавчального роботів, щоб виробити принципи для системи медичного догляду за людьми похилого віку. В одному з випадків вони створили інтелектуальну систему з вироблення етичного курсу дій в ситуації, коли пацієнт відмовляється від прописаного лікарем лікування. Чи слід медичному працівнику намагатися переконати пацієнта погодитися на лікування чи ні? Це має на увазі безліч складних етичних обов'язків, включаючи повагу до самостійності пацієнта, можливу шкоду й можливу користь для нього.
Андерсон з'ясувала, що як тільки робот навчається моральної реакції на 4 специфічних сценарію, він набуває здатність робити узагальнення і приймати відповідне ситуації рішення в останніх 14-и випадках. З цього вона змогла вивести етичний принцип:
"Ви повинні спробувати переконати пацієнта або в тому, що він, швидше за все, постраждає, якщо не погодиться дотримуватися рекомендованого курсу лікування, або втратить значну вигоду. Не просто невелику вигоду, але значну, якщо не прийме розпорядження лікаря".
Незважаючи на те, що на цьому ранньому етапі роботи в коді робота були прописані прості моральні зобов'язання - такі, як, наприклад, важливість запобігання шкоди - з тих пір Андерсони займалися роботою, яка не містить морального аспекту. Замість цього інтелектуальна система навчилася навіть цим моральним принципам в ході спілкування з фахівцями з етики.
Чи слід нам довіряти роботам в питаннях моралі?
Створення роботів, що володіють деякими здібностями до сприйняття моралі, видається цілком можливим - але чи варто нам продовжувати займатися їх розробкою? Андерсон зазначає, що в деякому сенсі роботи можуть бути більш досконалими суб'єктами прийняття моральних рішень, ніж люди.
"Люди - продукт природного відбору, тому ми розвинули в собі егоїстичні ідеї або, по крайней мере, ідеї, що відповідають інтересам нашої групи, а не кого-небудь ще. Вони - результат нашої здатності до виживання як виду", - заявила вона.
До того ж, люди схильні робити помилки і їх вирішення в питаннях справедливості не є істиною в кінцевій інстанції.
Разом з тим малоймовірно, що роботи зможуть справлятися з прийняттям найскладніших моральних рішень в найближчому майбутньому. І, звичайно, поки ми ще розмірковують над деякими питаннями в сфері моральних цінностей, було б нерозумно передавати повноваження в цій сфері роботам. Як зазначає Аркін, "процес прийняття людьми моральних рішень зрозумілий не до кінця. Більш того, щодо нього не було досягнуто абсолютної згоди".
Андерсон та інші професора, з якими я розмовляв, солідарні в тому, що механізми не повинні бути задіяні в областях, що мають на увазі моральні протиріччя. А Лін додає, що сумнівається в тому, чи етично це - покладати важка праця прийняття моральних рішень на техніку.
"Як може людина вирости як особистість або розвинути характер, не задіюючи свою моральну м'яз?" - Каже він. "Уявіть, якби у нас був екзоскелет, тільки за допомогою якого ми змогли б рухатися, бігати, взагалі жити і здійснювати всі інші прояви фізичної активності. Чи стали б наші життя дійсно краще, якби ми довірили фізичну активність техніці замість того, щоб розвивати власну мускулатуру? Механізм поліпшення моралі.
Хоч ми поки ми можемо і не захотіти делегувати роботам розв'язання найскладніших моральних дилем, робота над їх моральністю сприяє прогресу в нашому власному розумінні моральності.
Воллак зазначає, що в своїй книзі "Моральні Машини: Вчимо Роботів Відрізняти Гарне від Поганого" він висунув ідею: той же принцип, згідно з яким комп'ютери просували філософське розуміння розуму, застосуємо до роботам і до вивчення етики. Одним із прикладів такого підходу служить проведена сімейством Андерсон робота по створенню принципу, заснованого на розробленої ними інтелектуальній системі медичного обслуговування. Андерсон підкреслює, що історія розвитку моралі свідчить про поступову виробленні консенсусу - і що розробка моральних принципів для роботів може сприяти удосконаленню моральної аргументації.
Як говорить Лін, існує ймовірність, що виявиться просто неможливо звести практикується людьми процес прийняття етичних рішень до числовим значенням - наприклад, незрозуміло, як закодувати співчуття або милосердя. Однак він зазначає, що моральні принципи роботів можуть розглядатися як проблема етики людської. "Роздуми про те, як Роботи повинні Вести Себе, Представляють Собою передбачається Самоаналіз Вправа в тому, як Слід Вести Себе Людям", - говорить він. "Це відкриває нам можливість краще пізнати самих себе.