Стоит ждать пришествия Терминатора через 6 лет?

В 1984 году режиссер Джеймс Кэмерон смог достаточно точно предсказать тот момент, когда искусственный интеллект станет частью повседневной жизни. Его Терминатор прибыл менять историю из 2029 года, и если считать предсказание режиссера одноименного фильма пророческим, то у ИИ есть еще целых шесть лет для развития до уровня, позволяющего ему начать истреблять человечество. И что самое печальное, если ИИ на каком-то этапе действительно начнет это делать, мы никогда не узнаем, почему он принял такое решение.

Можно ли сегодня, в конце 2023 года, поверить в то, что через 6 лет искусственный интеллект начнет уничтожать человечество? Запросто. Прежде всего потому, что события последних лет показали, что произойти может все, что угодно. Даже то, что еще вчера казалось невероятным. Что же касается ИИ, то здесь все достаточно просто: даже несведущие в этом вопросе люди, среди которых и автор этих строк, знают, что ученые, создавшие и обучившие ИИ, понятия не имеют, как системы ИИ принимают решения. Это называется «черным ящиком систем ИИ».

Работы над нейросетевыми моделями велись давно, но «вышел в свет» искусственный интеллект всего год назад, когда компания OpenAI представила миру чат-бота ChatGPT. Но при том, что фактически создателем искусственного интеллекта является человек, для самого человека ИИ остается черным ящиком.

Глубокие нейронные сети и алгоритмы глубокого обучения создают тысячи (а иногда и миллионы) нелинейных отношений между входными и выходными данными. Сложность отношений затрудняет (или даже делает недоступным) даже для разработчика объяснение того, какие функции или взаимодействия привели к определенному результату. Разработчики признаются, что не знают, почему ИИ что-то сказал так, а не иначе, и как он выполняет задачи и приходит к определенным выводам.


За примерами далеко ходить не надо. Некоторое время назад ряд пользователей ChatGPT обнаружил, что чат-бот может лениться и даже вообще отказываться отвечать. OpenAI признала наличие проблемы, разработчики заявили, что не обновляли ИИ с 11 ноября, а жалобы появились позже. Это означает, что такое поведение чат-бота не является следствием каких-то изменений, внесенных разработчиками, а сформировалось само по себе. Впрочем, авторы проекта говорят, что все это не означает, что ChatGPT каким-то образом изменился сам по себе. На каком основании они это утверждают, OpenAI не сообщила. Разработчик заявил, что ищет возможности для того, чтобы исправить проблему, но пока, похоже, не нашел.

Исследователи предупреждают, что большинство систем ИИ представляют собой классические модели черного ящика и потому невозможно понять, в каких случаях может произойти ошибка и когда она станет системной. Не понимая того, как ИИ принимает решения, человек не сможет вмешаться в работу системы и спорить с ее выводами.

Хотя черный ящик ИИ и создает «определенные» проблемы, он также предлагают множество преимуществ и потому нет никаких сомнений в том, что под контроль искусственного интеллекта будут переходить все новые системы. Особенно военные. В США, к примеру, исследовательская лаборатория ВВС сообщила, что система искусственного интеллекта смогла полностью управлять беспилотным истребителем XQ-58A Valkyrie во время трехчасового полета. Военных мало интересуют проблемы «черного ящика», если ИИ способен выполнять боевые задачи.

Другими словами, не исключено, что и в случае с ИИ писатели-фантасты не ошибались. Отчет в этом отдают себе сегодня и те, кто занят разработкой искусственного интеллекта. Глава британского разработчика микропроцессоров Arm Рене Хаас заявил, что его самый большой страх, касающийся развития искусственный интеллекта (ИИ), — что он получит контроль над человеком. «Должна быть какая-то кнопка отмены, черный ход, способ отключить систему», — заявил он.

Ранее, в марте, сооснователь Apple, один из пионеров в области компьютерных технологий Стив Возняк, глава SpaceX и Tesla Илон Маск и еще более 1000 экспертов отрасли по развитию искусственного интеллекта подписали открытое письмо с призывом приостановить разработку ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности.

Тогда же «Центр безопасности искусственного интеллекта» (Center for AI Safety) опубликовал заявление об опасностях искусственного интеллекта (ИИ), который, по мнению организации, может стать причиной исчезновения человечества.

Голова предмет темный

Как гласит пословица, собака лает, а караван идет. Развитие ИИ сулит революцию в мире технологий, и все участники процесса предпочтут сыграть в этой революции важную роль, нежели встать у нее на пути. Прибыль прежде всего, и доказательством тому является рост акций в этом году на Уолл-стрит, генератором которого стало появление ИИ.

Есть ли шанс на то, что со временем разработчики вникнуть в суть происходящих в голове «неестественной сущности» процессов? Скорее всего нет. Если проводить аналогию между работой ИИ и человеческого мозга, то несмотря на развитие науки, голова, по-прежнему, «предмет темный и исследованию не подлежит». Никто не знает, как работает человеческий мозг, а значит и понять принципы принятия решений ИИ тоже будет невозможно.

Есть направление по созданию объяснимого искусственного интеллекта (Explainable AI, XAI), которое стремится создать системы и модели, способные объяснять свои действия и принимать решения понятным для людей образом. Это необходимо, к примеру, в медицине, так как медикам трудно будет принять поставленный ИИ диагноз, если они не будут понимать, как и почему это решение было принято. Но и здесь все не так просто, как из-за сложности его разработки, так и из-за неоднозначности термина «объяснимость».

Как итог: если на каком-то этапе в 2029 году ИИ перечитает Шекспира и решит, что «не быть», мы так и не узнаем, почему он пришел к такому выводу.

Юрий Легков, «Детали». Фото: Pixabay

Метки:


Читайте также