Минуло 50 років з тих пір, як Айзек Азімов придумав свої знамениті три закони робототехніки - набір правил, яким має слідувати будь-який поважаючий себе робот. Хоча спочатку це був всього-лише літературний прийом, три закони стали оригінальним рецептом по уникненню «роботокаліпсіса». На щастя, є експерти, які вивчають напевно, чи витримали гарантії Азімова перевірку часом. На жаль, всі вони говорять: немає.
Для початку нагадаємо ці самі три закони:
- Робот не може заподіяти шкоду людині або своєю бездіяльністю допустити, щоб людині було завдано шкоди.
- Робот повинен коритися всім наказам, які дає людина, крім тих випадків, коли ці накази суперечать Першому Закону.
- Робот повинен піклуватися про свою безпеку в тій мірі, в якій це не суперечить Першому і Другому Законам.
Пізніше Азімов додав четвертий, або нульовий, закон, який передував іншим з точки зору пріоритету:
0. Робот не може заподіяти шкоди людині, якщо тільки він не доведе, що в кінцевому рахунку це буде корисно для всього людства.
У фантастичній всесвіту Азімова цим законам повинні були слідувати майже всі роботи. Це були не просто пропозиції або керівні принципи - закони були вбудовані в програмне забезпечення. Крім того, ці правила не можна обійти, переписати або переглянути.
Як показав сам Азімов, недосконалість, лазівки і неясності в цих законах часто приводили до дивним і нелогічного поведінки роботів. Закони були занадто розпливчастими і часто не могли визначити і відрізнити «людей» від «роботів». Крім того, роботи могли неусвідомлено порушувати закони, якщо повна інформація була їм недоступна. Також надто хитромудрий робот або штучний інтелект повинен був знаходитися під тиском, щоб не перепрограмувати своє ядро.
«Коли хтось запитує мене, що було б, якби три моїх закони робототехніки насправді використовувалися для визначення поведінки роботів, відповідь уже готовий. Зрозуміло, за умови, що роботи будуть досить гнучкими і універсальними, щоб володіти різною поведінкою. Я відповідаю: так, три закони - це єдиний варіант, за яким люди можуть взаємодіяти з роботами - або з чим-небудь ще.
Майже через тридцять років ми наблизилися до реальності, в якій у нас будуть роботи - або, якщо точніше, штучний інтелект, який ними керує - досить гнучкі і універсальні для різних курсів поведінки. Залишається лише питання часу: коли машина перевершить людини в усіх відношеннях, починаючи фізичною силою і закінчуючи силою уяви.
Лякає те, що права на помилку практично немає. Якщо штучний сверхінтеллект буде погано запрограмований або байдужий до людей, це призведе до катастрофи. Ми повинні переконатися в безпеці штучного інтелекту, якщо хочемо пережити його поява ».
Азімовское майбутнє?
Бесіда з Герцелия і Хельм почалася з того, в чому Азімов не помилився, пророкуючи майбутнє, а в чому помилився.
«Думаю, що тип роботів, яких передбачав Азімов, стане можливим у недалекому майбутньому, - відповідає Герцель. - Тим не менш, в більшості своїх вигаданих світів, письменник припускав, що людиноподібні роботи будуть вершиною робототехніки та інженерії штучного інтелекту. Це навряд чи. Дуже скоро, після досягнення статусу азімовскіх роботів, стане доступним і створення штучного сверхінтеллекта і сверхроботов ».
Таким чином, типовий світ майбутнього в оповіданнях про роботів у Азімова, на думку Герцелия, буде схожий на той, в якому ми живемо сьогодні, але з розумними роботами, що гуляють по вулицях.
«Навряд чи це станеться, а якщо і станеться, то затримається ненадовго».
Для Хельма роботи представляються абсолютно іншими.
«Основним питанням, яке, на мій погляд, буде найважливішим для людства, залишається моральне регулювання гігантської кількості наполовину розумних гуманоїдів, а в кінцевому підсумку розвиток передових форм штучного інтелекту (в будь-якому тілі). Це розвиток сверхінтеллекта - фільтр, через який має пройти людство в кінці кінців. Саме тому розробка стратегії безпеки для цього переходу настільки важлива. Мені бачиться зовсім дивним те, що роботи, андроїди або «емуляції» будуть існувати десять років або трохи більше до тих пір, поки людство зіткнеться з цією проблемою розробки машинної етики для сверхінтеллекта ».
Гарний початок?
Якщо взяти до уваги, що три азімовскіх закони робототехніки були першою щирою спробою вирішити дуже серйозну проблему - проблему безпечної поведінки машин з штучним сверхінтеллектом - варто пошукати і ті моменти, в яких закони можуть бути все ще ефективними (або хоча б надихаючими).
«Чесно кажучи, я не знаходжу ніякого натхнення в цих трьох законах робототехніки, - каже Хельм. - Суть машинної етики в тому, що вони не задовольняють базису машинної етики. Можливо, три закони робототехніки широко відомі, але насправді використовувати їх в якості основи для програмування марно ».
«З різних причин система добропорядної етики - так звана деонтологія - стала ненадійною основою для етики. Є ряд філософів, які намагаються виправити проблеми деонтології, але вони здебільшого залишаються тими ж людьми, що шукають «розумний задум» і «божественне втручання». Ніхто не сприймає їх серйозно ».
Недоліки трьох законів робототехніки Азімова зводяться до наступних:
- Змагальність за своєю суттю
- Засновані на изжившей себе етичної теорії (деонтології)
- Не працюють навіть у фантастиці
«Завданням трьох законів було порушити їх цікавим способом; ось чому розповіді з їх участю особливо цікаві. Тому три закони можуть залишитися лише повчальним прикладом того, як робити не треба. Якщо взяти їх за основу, в них неминуче знайдуться лазівки ».
Герцель вважає, що в реальності ці закони працювати не будуть, оскільки терміни з їх участю неоднозначні і залишаються предметом тлумачення - а значить, вкрай залежні від тих, хто робить переклади.
Упередження проти роботів?
Інший аспект (і потенційний недолік) трьох законів в очевидному шовінізмі -предположеніе про те, що роботи повинні залишатися, незважаючи на їх перевершує потужність, в підпорядкуванні у людини, людських потреб і пріоритетів.
«Суспільство майбутнього у Азімова складається суцільно з шовіністів: у людей прав набагато більше, ніж у роботів. Три закони робототехніки були створені, щоб підтримувати саме такий суспільний порядок ».
Хельм дивиться на цю проблему трохи по-іншому, стверджуючи, що якщо ми опинимося в такій ситуації - це саме по собі буде свідченням того, що ми зайшли занадто далеко.
«Я думаю, було б нерозумно проектувати систему штучного інтелекту або робота з самосвідомістю. І на відміну від фільмів або книг, в яких творці штучного інтелекту «випадково» приходять до розумних машин, я не вірю, що в реальному житті це може статися. Для цього знадобиться дуже багато зусиль і знань. І більшість розробників ІІ - етично підковані люди, тому вони будуть уникати створення того, що філософи називають «морально значущими істотами». Особливо коли вони з легкістю можуть створити просунуту машину, яка не буде мати етичними завдатками ».
Хельм не переймається необхідністю розробки асиметричних законів, що регулюють значимість роботів в порівнянні з людьми, стверджуючи (і сподіваючись), що майбутні творці штучного інтелекту будуть спиратися на деякі етичні обмеження.
«Я як би думаю, що люди зроблені з атомів, тому в теорії інженер може створити синтетичну форму життя або робота з моральним значенням. Я хотів би думати, що ніхто цього не зробить. Думаю, більшість людей теж. Але неминуче з'явиться якийсь дурень, спраглий популярності першопрохідника, навіть якщо це неетично і нерозумно ».
Три закони робототехніки 2.0?
З огляду на очевидні недостакі трьох законів робототехніки Азімова, ресурс io9 задався питанням: чи можна їх виправити або внести доопрацювання? Насправді, багато письменники-фантасти багаторазово намагалися зробити це, вносячи поправки протягом багатьох років.
«Ні, - вважає Хельм. - Немає жодних «патчів» для трьох законів ».
Крім своєї суперечливої природи, закони ще й змагальності за своєю природою.
«Я прихильник підходів машинної етики, яка більш кооперативна, більш послідовна і спирається на нормативи, а значить може оговтатися від непорозумінь або виправити неправильне програмування».
Герцель луною вторить твердженнями Хельма.
«Визначення набору етичних заповідей як ядра машинної етики буде безнадійним, якщо в основі машини буде гнучкий загальний штучний інтелект. Якщо він буде задуманий як інтуїтивний, гнучкий, адаптивний або етичний - в цьому контексті етичні заповіді будуть корисні для системи тільки як грубий орієнтир для застосування власної етичної інтуїції. Але в цьому випадку заповіді не стануть основою етичної системи, а тільки лише аспектом. Це можна розглянути на прикладі людей - етичні принципи, які ми вивчаємо, працюють, але не в якості керівних принципів, вони лише підштовхують нашу інтуїцію і етичні інстинкти. Ми практично незалежні від етичних принципів ».
Як створити безпечний штучний інтелект?
З огляду на неадекватність правового підходу, можна поцікавитися у Герцелия і Хельма з приводу сучасних підходів до проблеми «безпечного ІІ».
«Далеко не всі дослідники загального штучного інтелекту вважають, що є можливість створити систему, яка буде повністю безпечною, - каже Герцель. - Але це не турбує більшість, оскільки в цьому житті взагалі не можна нічого гарантувати ».
Герцель вважає, що як тільки ми створимо систему загального штучного інтелекту або її зародок, ми зможемо провести дослідження і експерименти, які розкажуть нам про етику ІІ куди більше, ніж ми знаємо.
«Сподіваюся, таким чином ми зможемо сформулювати хороші теорії з етики штучного інтелекту, які дозволять нам заглибитися в цю тему. Але зараз теоретизувати про етику ІІ досить важко, оскільки у нас немає не просто хороших теорій, у нас взагалі жодних теорій немає ».
«А людям, які дивилися занадто багато« термінаторів », процес створення штучного інтелекту може здатися страшним, оскільки вони втрачають слово« примітивний »в цьому контексті. Проте, найрадикальніші зміни траплялися саме таким чином ».
«Коли група розумних печерних людей винайшла мову, вони не чекали розробки міцної формальної теорії мови, яка могла б допомогти спрогнозувати майбутні зміни, викликані появою мови в суспільстві».
Перш ніж вважати розробку чергових «трьох законів» технічною проблемою, потрібно провести масу досліджень. І в цьому Хельм і Герцель сходяться.
«Мій колега з MIRI Люк Мюельхаузер підвів підсумки наших міркувань наступним чином. Він сказав, що проблеми часто переходять з області філософії в математику, а потім в інженерію. Філософія часто задається правильними запитаннями, але самим непрактичним чином. Ніхто не може напевно сказати, чи є який-небудь прогрес у вирішенні питання. Якщо ми зможемо переформулювати важливі філософські проблеми, пов'язані з розумом, ідентифікацією і цінністю в точні формули, з якими зможе впоратися математика, тоді можна буде побудувати деяку модель. В один прекрасний день дійде і до інженерії ».
Хельм вважає цю проблему складної для науки і філософії, але прогрес можливий.
«Я скептично ставлюся до того, що філософія зможе вирішити питання, над яким б'ється більше 3000 років. Але ми теж не можемо взяти і почати складати математичні моделі питань, яких немає технічно. Потрібно ще багато теоретичних і навіть практичних напрацювань ».
Чи зможуть «три закони робототехніки» захистити нас? Ілля Хель