Разработчик нейросетей предупреждает об их опасности

Джеффри Хинтон стоял у истоков искусственного интеллекта в его нынешнем виде. Теперь ученый уверен: его изобретение очень разумно и весьма опасно. На днях он покинул Google и дал серию интервью, чтобы предупредить человечество.

«Эти штуки полностью отличаются от нас. Иногда мне кажется, будто прилетели инопланетяне, а люди этого не заметили, потому что те уж очень хорошо говорят по-английски», — с таких слов ученый начал разговор о больших языковых моделях вроде ChatGPT в беседе с журналистом MIT Technology Review.

Джеффри Хинтон родился в семье биолога, и, возможно, именно это повлияло на его интерес к нейросетям. Тогда, в 1980-е мало кто воспринимал это направление искусственного интеллекта всерьез. А Хинтону нравилась идея, что ученые фактически имитируют устройство настоящей биологической нервной системы. Он разработал некоторые решения, которые позволили этому направлению стать самым успешным ИИ. Теперь ученый уверен: пытаясь имитировать то, что делает биологический мозг, о мы придумали нечто лучшее.

«В нашем мозгу 100 триллионов соединений. Большие языковые модели имеют максимум до триллиона. И все же GPT-4 знает в сотни раз больше, чем любой человек, - объясняет ученый. - Так что, возможно, у него на самом деле гораздо лучший алгоритм обучения, чем у нас».


Конечно, ChatGPT далек от совершенства. Например, временами он просто выдумывает факты. Это явление называют «галлюцинациями ИИ» и приводят в пример, как фундаментальную слабость нейросетей. Но Хинтон считает, что не так уж эта слабость и значима. Что нейросеть просто иногда «болтает ерунду», как и все мы. И если мы прощаем это людям, то почему-то слишком строго судим компьютер. Ученый твердо уверен, что перед нами «новая и лучшая форма интеллекта».

Когда в следующем интервью журналисты Би-би-си попросили Хинтона уточнить, что он под этим понимает, тот высказался более развернуто:

«Мы биологические системы, а это цифровые системы. Цифровые системы могут иметь много копий одного и того же набора переменных и одной и той же модели мира. И все эти копии могут учиться по отдельности, но мгновенно делиться друг с другом своими знаниями. Это как если бы у вас было 10 тысяч человек, и всякий раз, когда один из них что-то узнает, это автоматически узнавали бы все остальные. Вот почему эти чат-боты могут знать гораздо больше, чем любой человек».

Ученый уверен, что мы уже сейчас близки к тому, что ИИ станут умнее нас. «А в будущем они будут намного умнее нас, — продолжает он. — Как мы это переживем?»

Недавно Джеффри Хинтону исполнилось  75 лет. И он решил уйти из Google, чтобы свободно и без оглядки на работодателя говорить об опасности искусственного интеллекта. И первая опасность в том, что умные машины попадут к плохим людям, таким, как Путин.

«Они захотят использовать их для победы в войнах или манипулирования электоратом, - предупреждает ученый. – Я ни секунды не сомневаюсь в готовности Путина создавать сверхразумных роботов, чтобы убивать украинцев».

Но даже безо всяких злоумышленников все может пойти не так.  Хинтон считает, что следующим шагом для умных машин станет способность создавать собственные подцели, промежуточные шаги, необходимые для выполнения основной задачи. Простой такой подцелью, совершенно обычной в биологии, было бы получить побольше энергии.

«Так что первое, что может случиться, это то, что эти роботы скажут: давайте получим больше мощности, давайте перенаправим все электричество на наши чипы, - рассуждает Хинтон. - Еще одна замечательная подцель — сделать больше копий самого себя. Здорово звучит?»

Ученик Хинтона профессор Монреальского университета Йошуа Бенджио, еще один отец современного ИИ, согласен с опасениями учителя. Недавно он подписал коллективное письмо ученых, мыслителей и IT-предпринимателей об опасности искусственного интеллекта. И вместе со всеми ими призвали ограничить тренировку систем мощнее GPT-4.

«Я слышу людей, которые принижают эти опасения, но я не вижу ни одного веского аргумента, который убедил бы меня в том, что рисков того масштаба, о каком рассуждает Джефф, не существует», — отмечает Бенджио.

Сейчас Джефф Хинтон предлагает лидерами технологической отрасли собраться вместе и договориться о рисках и о том, что с ними делать. Хорошим примером для подражания, сказал он MIT Technology Review, может служить международный запрет на химическое оружие.

В разговоре с Би-би-си ученый уточнил, что все-таки не стоит объявлять нейросети вне закона подобно отравляющим газам. В краткосрочной перспективе, объяснил он, ИИ несет гораздо больше пользы, чем рисков. Кроме того, Хинтон отметил, что «даже если все в США прекратят разработку ИИ, Китай просто получит большое преимущество».

Но это не значит, что надо пускать дело на самотек. Как лучше регулировать ИИ – решать политикам и общественным деятелям. Хинтон же ученый, и его дело предупредить.

Никита Аронов, НЭП. Фото: AP Photo Noah Berger

Метки:


Читайте также