Перейти к содержанию

7.1.3 Варианты преодоления рисков развития ИИ

Материал из Охота на электроовец: Большая Книга Искусственного Интеллекта

В своей знаменитой статье 2000 г. «Почему мы не нужны будущему» (Why the Future Doesn’t Need Us) для издания Wired Джой рисует мрачную картину превращения нашего мира в «серую слизь» [gray goo], что, по его мнению, станет результатом деятельности нанороботов. «Единственной практической альтернативой, которую я вижу, — пишет Джой, — является отказ: надо ограничить развитие слишком опасных технологий путём ограничения нашего стремления к определённым родам знаний»[1].

Может, действительно стоит ввести ограничения на развитие технологий ИИ, подобные международным договорам о ядерном, биологическом и химическом оружии? По сути, такие договоры можно считать установлением ограничений на развитие физики, биологии и химии в военных целях.

Лично мне такой путь представляется не слишком реалистичным.

Во-первых, развитие технологий сложно ограничивать вообще. На уровне международных договоров можно разве что ввести подобный запрет для отдельных стран. Но, как показала практика, даже небольшая находящаяся в изоляции Северная Корея смогла создать ядерное оружие и ракетно-космическую программу. Поэтому если новая технология действительно может оказаться прорывной, то ведущие государства мира всё равно будут, несмотря на ограничения и запреты, развивать её в секретном режиме, и никто не сможет этому воспрепятствовать.

Во-вторых, неясно, как возможно ограничить развитие ИИ в нынешнее время — ведь развитие этой отрасли не требует каких-либо уникальных ресурсов и доступно многим государствам и компаниям. Не исключено, что универсальный ИИ можно будет создать при помощи машин общего назначения, предназначенных для решения повседневных задач. Поэтому попытки ограничения развития ИИ приведут к тому, что пострадают полезные применения ИИ (медицинское, образовательное и др.), при этом военные исследования как раз не пострадают.

Трудность запрета универсального ИИ подчёркивает в своей книге «Совместимость. Как контролировать искусственный интеллект» (Human Compatible: AI and the Problem of Control) уже знакомый нам профессор Стюарт Рассел:

Прогресс в разработке универсального ИИ достигается главным образом в дискуссиях учёных из исследовательских лабораторий по всему миру, по мере возникновения и решения математических задач. Мы не знаем заранее, какие идеи и уравнения запрещать, и, даже если бы знали, не приходится ожидать, что подобный запрет будет осуществимым или действенным.

Ещё больше осложняет проблему то, что исследователи, двигающие вперёд разработку универсального ИИ, часто работают над чем-то ещё. Как я уже замечал, изучение инструментального ИИ — специализированных безобидных приложений наподобие игровых программ, медицинской диагностики и планирования путешествий — часто ведёт к развитию методов универсального характера, применимых к широкому спектру других задач, и приближает нас к ИИ человеческого уровня.

Рассуждая о возможности свёртывания исследований в области ИИ, Рассел пишет: «Как большинство исследователей ИИ, я содрогаюсь при мысли об этом. Кто смеет указывать мне, о чём можно думать и о чём нельзя? Любой, кто предлагает покончить с изучением ИИ, должен быть очень убедительным. Прекратить исследования ИИ означало бы отказаться не просто от одного из главных путей к пониманию того, как устроен человеческий разум, но и от уникальной возможности улучшить положение человека — создать намного более совершенную цивилизацию. Экономическая ценность ИИ человеческого уровня измеряется в тысячах триллионов долларов, и следует ожидать колоссального импульса на продолжение этих исследований со стороны корпораций и властей. Он пересилит туманные возражения философа, как бы тот ни почитался в качестве «обладателя особого знания», по выражению Батлера»[2], [3].

Какой же тогда путь снижения рисков следует избрать?

Надо заметить, что большая часть обеспокоенных экзистенциальными ИИ-рисками учёных не являются сторонниками таких радикальных мер, как введение ограничений на исследования в области ИИ. Тот же Бостром, например, предлагает организовать мониторинг развития в этой области, расширить международное сотрудничество между командами, занимающимися исследованиями в области ИИ (чтобы избежать «гонки вооружений» в этой области). Бостром рекомендует ограничение области принятия решений ИИ-агентами, предлагает различные способы влияния на обучение моделей (например, создание этически выверенных датасетов) и так далее[4]. Его анализ этой области, безусловно, заслуживает внимания, хотя некоторые его выводы и идеи, на мой взгляд, являются небесспорными.

Ещё с начала 1970-х гг. учёные исследуют так называемую «проблему ограничения свободы» компьютерных программ. В рамках этой парадигмы современные исследователи рассматривают и различные механизмы контроля систем ИИ, близких к сверхинтеллекту. Так, например, Роман Ямпольский, основатель и директор Лаборатории кибербезопасности в Луисвиллском университете (University of Louisville, UofL), в своей работе «Герметизация сингулярности. Проблема ограничения свободы искусственного интеллекта» (Leakproofing the Singularity. Artificial Intelligence Confinement Problem), отталкиваясь от идеи «герметично замкнутой» сингулярности, предложенной австралийским философом Дэвидом Чалмерсом, предлагает конкретный протокол, цель которого — создать безопасную замкнутую среду, способную «ограничить свободу» сверхинтеллекта при его использовании человечеством[5], [6].

Если говорить об Илоне Маске, то и он, несмотря на использование вульгарных метафор, не является противником научно-технического прогресса. Маск хоть и высказывается (или даже действует в духе максимы «Не можешь победить — возглавь»), но активно способствует развитию технологий машинного обучения, стремясь скорректировать вектор технологического развития. В 2015 г. он пожертвовал 10 млн долларов волонтёрской организации «Институт будущего жизни» (Future of Life Institute), работа которой направлена на «смягчение рисков, грозящих человечеству в будущем». Эта некоммерческая организация, в частности, занимается исследованием угроз, которые несёт в себе искусственный интеллект[7]. Осенью того же года Маск вместе с другими предпринимателями и специалистами из Кремниевой долины основал неоднократно упомянутую в книге компанию OpenAI. В число основателей, помимо самого Маска, вошли Сэм Альтман, Грэг Брокман, Джон Шульман, а также уже знакомые нам Илья Суцкевер и Войцех Заремба. Создание компании поддержали Рейд Хоффман — сооснователь компании LinkedIn, Питер Тиль — сооснователь PayPal и Джессика Ливингстон — партнёр-основатель венчурного фонда Y Combinator.

Суммарные стартовые инвестиции в компанию составили миллиард долларов. Цель OpenAI — способствовать повышению открытости разработки в области ИИ. Организация заявляет, что будет «свободно сотрудничать» [freely collaborate] с другими учреждениями и исследователями, сделав свои патенты и исследования открытыми для общественности[8], [9], [10], [11], [12], [13].

Маск и Альтман заявили, что одним из мотивов создания OpenAI стали опасения по поводу экзистенциальных рисков со стороны универсального ИИ [artificial general intelligence][14], [15]. OpenAI заявляет: «Трудно представить себе, в какой мере система ИИ человеческого уровня может принести пользу обществу, и столь же трудно понять, насколько она может навредить обществу в случае ошибок, допущенных при её создании, неправильного применения <…> Из-за удивительной истории развития ИИ трудно предсказать, когда ИИ человеческого уровня окажется в пределах досягаемости»[16]. OpenAI заявляет, что ИИ «должен воплощать желания людей и в соответствии с духом свободы должен быть как можно более широко и равномерно распределённым…»[17]

В связи с этим возникает риторический вопрос: «Действительно ли мы готовы позволить проникнуть в наше общество автономным программным и аппаратным агентам, детали работы которых известны лишь немногим избранным? Конечно, нет»[18].

Альтман ожидает, что рассчитанный на десятилетия проект позволит создать системы ИИ, превосходящие людей в интеллектуальном плане[19].

Однако возможность реализации контринтуитивной стратегии Маска и Альтмана, направленной на снижение рисков развития ИИ путём предоставления возможностей ИИ как можно большему числу людей, вызывает сомнения у более радикально настроенных «алармистов». Например, Бостром полагает, что в ситуации «плохой кнопки» основатели OpenAI изменят своей стратегии и не будут её раздавать всем («Если у вас будет кнопка, которая может причинить вред миру, вы не захотите дать её всем»)[20]. Масло в огонь подлил факт выдачи лицензии компании Microsoft на использование GPT-3 в её собственных продуктах и сервисах. И хотя OpenAI и заявила, что «сделка не повлияет на дальнейший доступ [пользователей] к модели GPT-3 через API OpenAI»[21], у многих людей возник вполне резонный вопрос: значит ли это, что OpenAI будет руководствоваться в предоставлении доступа к передовым разработкам в области ИИ чисто коммерческой логикой, усиливая тем самым доминирование крупных корпораций в обществе? И насколько такая логика сочетается с декларированными OpenAI лозунгами о демократизации ИИ и снижении ИИ-рисков за счёт расширения доступа к технологиям?

Есть ещё одно из направлений деятельности Маска, которое в некоторой степени связано с проблемой ИИ-рисков. Речь идёт о компании Neuralink, делящей с OpenAI здание Pioneer Building в Сан-Франциско. Эта компания специализируется на исследованиях в области интерфейсов «машина — мозг» (Brain Computer Interfaces, BCI), что по замыслу позволит людям тесно интегрироваться с будущими системами ИИ[22]. Можно сказать, что они стремятся сделать человечество частью будущего сверхразума, чтобы оно смогло избежать роли тупиковой ветви эволюции.

Идеи, подобные идеям Маска, высказывают и другие известные предприниматели из сферы информационных технологий. Например, основатель компании Microsoft Билл Гейтс формулирует свои взгляды следующим образом: «Я принадлежу к лагерю тех, кто озабочен возникновением сверхинтеллекта. Сначала машины будут делать для нас много полезной работы и не будут обладать сверхинтеллектом. Это будет позитивным явлением, если мы нормально управляем процессом. Однако через несколько десятилетий ИИ станет достаточно сильным, чтобы вызвать беспокойство. Я согласен с Илоном Маском и другими на этот счёт и не понимаю, почему некоторые люди не чувствуют такого же беспокойства»[23]. При этом Билл Гейтс поясняет, что не пытается притормозить научно-технический прогресс, а всего лишь хочет привлечь внимание к двум потенциальным проблемам: 1) ИИ начинает выполнять работу, к которой привыкли люди; 2) универсальный ИИ может эволюционировать в состояние, «конфликтующее с целями человеческих систем»[24].

В целом, анализируя мнения учёных и бизнесменов относительно ИИ-рисков, заметно, что в действительности между взглядами, скажем, Бострома и Цукерберга, Маска и Ына мы не находим никакой зияющей пропасти. Даже Бостром, заслуживший себе репутацию алармиста, весьма далёк от идей Батлера. Набор мер, предлагаемый Бостромом, вовсе не предполагает «возврата в пещеры» и даже запрета развития ИИ.

Если рассматривать позицию представителей противоположного лагеря, взяв в качестве примера, скажем, Марка Цукерберга, то его взгляды на деле далеки от шапкозакидательского оптимизма. Даже в неформальных рассуждениях на тему ИИ-рисков за приготовлением говяжьих рёбрышек видно, что он вовсе не отрицает наличия этих рисков и необходимости принимать их в расчёт[25]. На поверку вопрос об ИИ-рисках становится вопросом меры: как мы оцениваем те или иные риски? Когда и в какой мере следует уделять им внимание? Какие из них переоценены, а какие недооценены в глазах общественности?

Анализируя опасения, высказываемые в отношении развития ИИ, можно выделить несколько групп рисков, безусловно заслуживающих более подробного рассмотрения. Давайте попробуем приглядеться к этим группам поближе, чтобы лучше понять все pro et contra в отношении их серьёзности.

  1. Joy B. (2000). Why the Future Doesn't Need Us / Wired, 04.01.2000 // https://www.wired.com/2000/04/joy-2/
  2. Russell S. (2019). Human Compatible: AI and the Problem of Control. Penguin UK // https://books.google.ru/books?id=Gg-TDwAAQBAJ
  3. Рассел С. (2021). Совместимость: как контролировать искусственный интеллект. — М.: Альпина нон-фикшн // https://www.google.ru/books?id=OacEEAAAQBAJ
  4. Bostrom N. (2014). Superintelligence. Oxford University Press // https://books.google.ru/books?id=7_H8AwAAQBAJ
  5. Yampolskiy R. V. (2012). Leakproofing the Singularity: Artificial intelligence confinement problem / Journal of Consciousness Studies, Vol. 19 (1—2), pp. 194—214 // http://cecs.louisville.edu/ry/LeakproofingtheSingularity.pdf
  6. Ямпольский Р. (2012). Герметизация сингулярности. Проблема ограничения свободы искусственного интеллекта / Пер. с англ. Горлова А. // https://22century.ru/popular-science-publications/leakproofing-the-singularity
  7. Kosoff M. (2015). Elon Musk Is Donating $10 Million To Keep Killer Robots From Taking Over The World / Business Insider, Jan 15, 2015 // https://www.businessinsider.com/elon-musk-donates-10-million-to-the-future-of-life-institute-2015-1
  8. Brockman G., Sutskever I. (2015). Introducing OpenAI / OpenAI Blog, December 11, 2015 // https://openai.com/blog/introducing-openai/
  9. Danti A. (2015). Tech giants pledge $1bn for 'altruistic AI' venture, OpenAI / BBC News, 12 December 2015 // https://www.bbc.com/news/technology-35082344
  10. Bass D. (2019). Microsoft to invest $1 billion in OpenAI / Los Angeles Times, 22 July 2019 // https://www.latimes.com/business/story/2019-07-22/microsoft-openai
  11. Markoff J. (2015). Silicon Valley investors to bankroll artificial-intelligence center / The Seattle Times, 13 December 2015 // https://www.seattletimes.com/business/technology/silicon-valley-investors-to-bankroll-artificial-intelligence-center/
  12. Etherington D. (2019). Microsoft invests $1 billion in OpenAI in new multiyear partnership / TechCrunch, July 22, 2019 // https://techcrunch.com/2019/07/22/microsoft-invests-1-billion-in-openai-in-new-multiyear-partnership/
  13. Liedtke M. (2015). Elon Musk, Peter Thiel, Reid Hoffman, others back $1 billion OpenAI research center / San Jose Mercury News, December 15, 2015 // https://www.mercurynews.com/2015/12/15/elon-musk-peter-thiel-reid-hoffman-others-back-1-billion-openai-research-center/
  14. Lewontin M. (2015). Open AI: Effort to democratize artificial intelligence research? / The Christian Science Monitor, December 14, 2015 // https://www.csmonitor.com/Technology/2015/1214/Open-AI-Effort-to-democratize-artificial-intelligence-research
  15. Metz C. (2016). Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free / Wired, 04.27.16 // https://www.wired.com/2016/04/openai-elon-musk-sam-altman-plan-to-set-artificial-intelligence-free/
  16. Introducing OpenAI (2015) / OpenAI Blog, December 11, 2015 // https://openai.com/blog/introducing-openai/
  17. Danti A. (2015). Tech giants pledge $1bn for 'altruistic AI' venture, OpenAI / BBC News, 12 December 2015 // https://www.bbc.com/news/technology-35082344
  18. Smith G. W. (2018). Re: Sex-Bots—Let Us Look before We Leap / Arts, Vol. 7 (2) // https://doi.org/10.3390/arts7020015
  19. Metz C. (2015). Elon Musk's Billion-Dollar AI Plan Is About Far More Than Saving the World / Wired, 12.15.15 // https://www.wired.com/2015/12/elon-musks-billion-dollar-ai-plan-is-about-far-more-than-saving-the-world/
  20. Metz C. (2016). Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free / Wired, 04.27.16 // https://www.wired.com/2016/04/openai-elon-musk-sam-altman-plan-to-set-artificial-intelligence-free/
  21. OpenAI Licenses GPT-3 Technology to Microsoft (2020) / OpenAI Blog, September 22, 2020 // https://openai.com/blog/openai-licenses-gpt-3-technology-to-microsoft/
  22. Urban T. (2017). Neuralink and the Brain’s Magical Future / Wait But Why, April 20, 2017 // https://waitbutwhy.com/2017/04/neuralink.html
  23. Holley P. (2015). Bill Gates on dangers of artificial intelligence: ‘I don’t understand why some people are not concerned’ / The Washington Post, Jan. 29, 2015 // https://www.washingtonpost.com/news/the-switch/wp/2015/01/28/bill-gates-on-dangers-of-artificial-intelligence-dont-understand-why-some-people-are-not-concerned
  24. Levy S. (2015). Bill Gates on Mobile Banking, Connecting the World and AI // https://medium.com/backchannel/bill-gates-on-mobile-banking-connecting-the-world-and-ai-937f35c8a110
  25. Clifford C. (2017). Facebook CEO Mark Zuckerberg: Elon Musk’s doomsday AI predictions are ‘pretty irresponsible’ / CNBC, Jul 24 2017 // https://www.cnbc.com/2017/07/24/mark-zuckerberg-elon-musks-doomsday-ai-predictions-are-irresponsible.html
Loading comments...