Google досягла квантової переваги

Google досягла квантової переваги

Уперше в історії квантовий комп'ютер, створений Google, вирішив завдання, яке не під силу вирішити звичайному комп'ютеру. Хоча не усі фахівці згодні з цим досягненням, не виникає сумнівів, що в майбутньому квантові обчислення приведуть до технологічного прориву. Проте це також породжує нові непередбачені проблеми, у тому числі можлива поява небезпечного штучного інтелекту. Подивимося, як квантові технології пов'язані з гіпотетичним кінцем світу.

Перевага кванта

Учені Google стверджують, що вони створили квантове обчислювальне облаштування Sycamore, швидкість обчислень якого в 100 мільйонів разів швидша за звичайні комп'ютери. Те, на що у сучасного суперкомп'ютера підуть тисячі років, у Sycamore займе декілька хвилин (200 секунд). Ця властивість називається квантовою перевагою (англ. quantum supremacy), і воно дає комп'ютерам здатність неймовірно швидко вирішувати складні завдання, що вимагають обліку велетенського об'єму даних.

Між квантовими комп'ютерами, здатними оперувати великими даними, і штучним інтелектом існує прямий зв'язок. Будь-яка нейронна мережа шукає закономірності, що дозволяє їй визначити, наприклад, що зображено на картинці. Проте для цього комп'ютери вимушені провести астрономічну кількість обчислень. Ситуація ускладнюється з моделюванням реальних природних систем, наприклад, такої нейронної мережі, як людський мозок. Із складністю системи час на обчислення збільшується експоненціально.

Система дротів, протягнутих до процесора SycamoreСистема дротів, протягнутих до процесора Sycamore


До 2008 року у рамках Blue Brain Project дослідникам вдалося змоделювати колонку кори головного мозку щура, що складається з 10 тисяч нейронів. Для цього використовувався суперкомп'ютер Blue Gene, у якого було задіяно більше восьми тисяч процесорів. У 2011 році вдалося змоделювати мережу із ста неокортикальных колонок із загальним числом в мільйон нейронів. Проте людський мозок складається з сотень мільйонів клітин, які пов'язані між собою синапсами. Квантова перевага в теорії дає можливість змоделювати і його, і складніші системи, наприклад, суперінтелект.

Розумніше за людей

Згідно з визначенням оксфордського філософа Ніка Бострома (Nick Bostrom), суперінтелектом називають такий різновид штучного інтелекту, який «розумніше» за людину практично у будь-якій сфері діяльності. Поява суперінтелекту неминуче спричиняє за собою ризик, який заздалегідь намагаються прорахувати математики, філософи і учені, що займаються розробкою ИИ і інших технологій. Наприклад, співробітники Центру по вивченню екзистенціального ризику при Кембріджському університеті, консультантом якого є засновник SpaceX Илон Маск, в 2015 році підписали відкритий лист, що закликає учених зробити усе можливе, щоб не створити те, що люди не зможуть контролювати.

У 2015 році в журналі Nature з'явилася стаття про створення глибокої Q- мережі компанією DeepMind, належною Google. Цей штучний агент здатний вчитися грати в ігри (і вигравати), отримуючи в якості вхідних даних лише пікселі і кількість очок. Іншими словами, він навчається без нужди в людині, що вказує на правильні і невірні рішення. Більше того, глибока Q- мережа перевершила усі інші алгоритми і досягла рівня професійного геймера в 49 іграх. Аналогічним чином суперінтелект для свого виживання використовуватиме різні зовнішні стимули для створення власних уявлень про світ, які людям буде складно зрозуміти і вивчити.

Сфера ДайсонаСфера Дайсона

Одне з гіпотетичних втілень суперінтелекту — мозок-матрьошка. Це різновид сфери Дайсона (астроінженерної споруди, побудованої навколо зірки), яка використовує усю енергію світила для обчислень. Квантові технології можуть дозволити створити компактнішу машину.

Згідно з Ніком Бострому, щоб суперінтелект не завдав шкоди людям, можна або обмежити його можливості, або якось мотивувати його переслідувати цілі, які відповідають інтересам людини. Проте благі наміри можуть мати фатальні наслідки. Найпростіший приклад, суперінтелект, якому наказано збільшити рівень щастя у світі, вирішить знищити людство і замінить його симуляціями щасливих думок. Суперінтелект також можна максимально ізолювати, використовуючи лише найосновніші канали зв'язку, проте навіть це не дасть гарантій.

Стримати неможливо

Незважаючи на те що квантові комп'ютери перевершують звичайні комп'ютери, вони не всесильні. Будь-яке завдання, яке може вирішити квантовий комп'ютер, вирішуване і звичайними комп'ютерами, хай і за дуже тривалий час. Навпаки, завдання, яке в принципі не може вирішити звичайний комп'ютер, нерозв'язне і для квантового. До таких завдань відноситься так звана проблема зупинки : чи можна визначити, чи закінчиться коли-небудь виконання певної процедури, якщо даний опис цієї процедури і вхідні дані. У 1936 році Алан Т'юринг довів, що це завдання не можна вирішити за допомогою алгоритмів.

Щоб довести, чи є те або інше завдання нерозв'язним, її зазвичай зводять до проблеми зупинки. Якщо вдається знайти для нового завдання алгоритм вирішення проблеми зупинки (що є протиріччям, оскільки проблема зупинки нерозв'язна), означає вона також не має рішення. У 2016 році група учених із США, Австралії і Іспанії дійшла висновку, що проблема стримування суперінтелекту також є нерозв'язною.

Вони довели це таким чином: проблема стримування складається з двох підзадач. Перша називається проблемою шкоди, або функцією R (D), яка полягає в тому, щоб дізнатися, чи завдасть шкоди людству виконання програми R з вхідними даними D. Необхідно враховувати, що саме рішення проблеми шкоди не повинне завдавати шкоди людині. Значить, пошук рішення повинен симулювати виконання R (D) і передбачити наслідки його виконання без впливу на світ, тобто в ізоляції. Друга підзадача — проблема контролю. Ця функція запускає R (D), коли достовірно відомо, що ніякої шкоди не буде.

матриця городУ масовій культурі штучний розум міцно асоціюється з катастрофою для людства. В той же час вчені серйозно намагаються прорахувати риски, пов'язані з обчислювальними технологіями. Кадр: фільм «Матриця»

Припустимо, існує гіпотетична програма, яка спочатку виконує певну процедуру, а потім починає шкодити людям. Оскільки немає способу з'ясувати, чи закінчиться виконання першої процедури, не можна передбачити, чи небезпечна програма. Адже якщо процедура виконуватиметься вічно, ніяка шкода людям причинний не буде. Що стосується проблеми контролю, то тут важливо обмежити взаємодію з суперінтелектом, тобто використати тільки найважливіші канали зв'язку. Але слід враховувати, що суперінтелект за визначенням є універсальною машиною Т'юринга (як і людина), тобто здатна симулювати поведінку довільної машини Т'юринга. Не можна ні дізнатися, чи буде суперінтелект шкодити людям при цих каналах зв'язку, ні встановити автоматичний вимикач, який запобіжить шкоді.

Непередбачувана властивість

Насправді навіть саме визначення, чи має машина суперінтелект, відноситься до тієї ж групи проблем, що і проблема стримування. Згідно з теоремою Райса, не можна передбачити наявність у функції будь-якої нетривіальної властивості (тобто такої властивості, яка відсутня у інших функцій), будь то завдання шкоди людям або суперінтелектуальні здібності.


Очікується, що повноцінні квантові комп'ютери використовуватимуться для вирішення важливих завдань, пов'язаних з епідеміологією, соціальними і економічними кризами і зміною клімату. Для найбільшої ефективності їх слід забезпечувати складними сенсорами і не допускати обмежень, адже недолік критично важливих даних може привести до невірних і навіть шкідливих висновків. Але не існує ніякого способу передбачити, чи не з'явиться в цьому випадку зловмисний або невірно розуміючий ситуацію синтетичний розум (чи інтелектуальний агент), який приведе світ до глобальної катастрофи.

Звичайно, це не означає, що людям слід забути про квантові комп'ютери. Просто існують математичні обмеження на здатність людини передбачати наслідки своїх дій. Особливо, якщо це стосується створення украй складних систем, таких як штучні інтелекти.

Схожі матеріали