Роботи будуть створювати самі правдоподібні інформаційні фальшивки

Уявіть собі, що одного разу якийсь вундеркінд винайшов би технологію, що дозволяє людям або матеріальних предметів проходити крізь стіни, і розмістив би в інтернеті інструкцію, як дешево побудувати таку чудо-машину з загальнодоступних побутових матеріалів. Як змінився б світ?

Роботи будуть створювати самі правдоподібні інформаційні фальшивки

Багато галузей промисловості, ймовірно, стали б значно більш продуктивними. Можливість проходити крізь стіни замість необхідності використовувати двері, полегшила б пересування людей по офісах, переміщення товарів на складах і виконання незліченних повсякденних побутових завдань. Однак, негативні наслідки цілком могли б переважити позитивні. Збереження цінностей під замком втратило б будь-який сенс. Будь-який бажаючий міг би легко увійти в приміщення складу, забратися в банківський сейф або будинок.

Вищесказане ілюструє загальний принцип: технологічні інновації не завжди корисні для суспільства, по крайней мере, в короткостроковій перспективі. Технології здатні створювати негативні зовнішні ефекти, екстерналії. Цей економічний термін означає шкоду, заподіяну третім особам або сторонам. Якщо ці негативні екстерналії переважують корисність самої технології, винахід фактично робить світ гірше, а не краще, принаймні, на деякий час.

Машинне навчання, особливо його різновид, відома як глибоке навчання, можливо, є «найгарячішим» технологічним проривом на планеті. Воно дає комп'ютерів можливість виконувати безліч завдань, які раніше могли виконувати лише люди: розпізнавати зображення, керувати автомобілями, торгувати на фондовому ринку і багато іншого. Це породило у деяких людей тривогу в зв'язку з тим, що машинне навчання може зробити людину непотрібним і марним на робочому місці. І це насправді можливо, але існує набагато серйозніша небезпека машинного навчання, яка до цих пір не привернула досить пильної уваги. Йдеться про те, що якщо машини здатні вчитися, значить, вони можуть навчитися в тому числі і брехати.

Ті, хто схильний розглядати подібні екстремальні сценарії як алармістом, обгрунтовано вкажуть, що будь-яку підробку можна буде виявити, оскільки для їх виявлення будуть використовуватися ті ж технології машинного навчання, що і для створення. Але це не означає, що нам не загрожує небезпека опинитися в світі, заповненому всюдисущими підробками. Як тільки фальшивки стануть досить правдоподібними, що люди не зможуть самостійно їх виявляти, ми назавжди втратимо довіри до того, що бачимо і чуємо. Замість того, щоб довіряти нашим власним органам почуттів, ми будемо змушені сподіватися на алгоритми, використовувані для виявлення підробок і встановлення автентичності інформації. Протягом всієї еволюції ми вчилися довіряти власним почуттям, і передача цих функцій машинного інтелекту може виявитися для більшості людей занадто різкою зміною.

Це може стати поганою новиною для економіки. Мережі ділового співробітництва і комерції спираються на довіру і спілкування. Якщо машинне навчання одного разу вкине в громадську інформаційну сферу безкрайній ураган ілюзій і фальшивок, стіни, створені еволюцією для того, щоб відрізняти реальність від вигадки, впадуть. У цьому випадку рівень довіри в суспільстві може стрімко впасти, що не забариться негативно позначитися на глобальному благополуччя людства.

СХОЖІ ЗАПИСИ