Проблемы ИИ и их решения
Мы живем в переходный период истории Земли. Мир вокруг нас нестабилен, словно камень, балансирующий на пике горы. Ситуация не может оставаться в том состоянии, в котором она находится сейчас: ИИ появится с минуты на минуту — при условии, что научный прогресс продолжит свое движение. Уже скоро мы покатимся, чтобы наконец приземлиться — с одной стороны горы или с другой.
Одним из мест приземления камня может стать вымирание человечества. («Вымирание? Нет, давайте лучше постоим на месте»). Другим — стабильный глобальный тоталитаризм, удерживающий научный прогресс; однако такой сценарий кажется маловероятным.
Есть еще искусственный интеллект. Появление ИИ повлечет за собой интеллектуальный взрыв, и так как мы не знаем, как заставить ИИ преследовать благие для нас цели, интеллектуальный взрыв по умолчанию приведет мир к неожиданно трагическому концу. С другой стороны, контролируемый интеллектуальный взрыв мог бы дать отличные результаты. (Больше об этом варианте в следующей главе.)
Я всем своим весом давлю в сторону последнего варианта — контролируемого интеллектуального взрыва.
Прямо сейчас, в этот ускользающий момент истории, мы осознаем (хоть и не вполне), в какой ситуации находимся, и можем повлиять на движение камня, выбрать, в какую сторону катиться. Что же нам следует предпринять?
Дифференцированный интеллектуальный прогресс
Нам нужен дифференцированный интеллектуальный прогресс:
Дифференцированный интеллектуальный прогресс состоит в том, чтобы оказывать предпочтение снижающему, а не повышающему риск интеллектуальному прогрессу. Если говорить конкретно о риске, связанном с ИИ, то дифференцированный интеллектуальный прогресс указывает сперва разобраться с философскими, научными и техническими вопросами безопасности ИИ, а уже потом углубляться в вопросы его мощности — чтобы таким образом создать безопасный, а не произвольный сверхразумный ИИ. Наш первый ИИ должен быть безопасным, иначе у нас не будет шанса создать второй.
Говоря проще, исследования по безопасности ИИ соревнуются с исследованиями по мощности ИИ. Прямо сейчас исследования по мощности выигрывают, более того — идут с большим отрывом. Люди способствуют исследованиям по мощности ИИ куда активней, чем исследованиям по его безопасности.
Если исследования по мощности ИИ выиграют, проиграет все человечество. Если выиграют исследования по безопасности, выиграют и люди.
Многие знают, в чем заключаются исследования по мощности ИИ. Большая часть работ об ИИ именно об этом. Но в чем заключаются исследования по безопасности ИИ?
В этой статье приводится длинный список проблем, связанных с исследованиями по безопасности ИИ. Я приведу несколько примеров. (Пролистайте вниз, если не хотите углубляться в устрашающий технический жаргон).
-
Когда индивид решает радикально изменить свой механизм принятия решений, как он может быть уверен, что это решение повысит его ожидаемую полезность? Все современные теории принятия решений на этом вопросе спотыкаются о теорему Лёба, так что нам необходима новая «последовательно разумная» теория принятия решений.
-
Функция полезности индивида может зависеть от состояния или от внутренних сущностей его бытия. Но, как отмечает Питер де Блан (Peter de Blanc): «Если индивид изменит или заменит свое бытие, наступит кризис: первоначальная [функция полезности] индивида может не вполне соответствовать новому бытию». Нам нужна гарантия, что после того, как мы наделим ИИ благими намерениями, они не приведут в ад, когда ИИ сменит свое бытие.
-
Как перевести с языка прихотей на язык желаемой полезной функции? Современные методы перевода пожеланий не отвечают требованиям: нам нужны новые, более мощные универсальные алгоритмы для перевода пожеланий. Или нам нужно заставить самих людей размышлять о своих пожеланиях до тех пор, пока они не достигнут своеобразного «рефлективного равновесия» в своих пожеланиях. Идя по этому последнему пути, мы могли бы создать эмуляцию мозга — но как мы сумеем этого достигнуть, не создав сперва опасный самообучающийся ИИ, конструкция которого будет основана на конструкции мозга?
-
Вероятно, нам не так уж необходимо решать проблемы теории ценностей до создания ИИ. Возможно, вместо этого нам нужна теория по тому, как справляться с этой нормативной неопределенностью: например что-то вроде предложенной Бостромом (Niklas Boström) Модели Парламента.
Кроме проблем «технических» исследований нам следует принять во внимание рекомендации дифференцированного интеллектуального прогресса по ряду проблем «стратегических» исследований.
Разработку каких технологий следует спонсировать, каким следует урезать финансирование? Что нам следует предпринять, чтобы снизить риск гонки вооружений ИИ? Поможет ли снизить риск ИИ широкое распространение курсов по обучению рациональности или курсов по обучению доброжелательности? Каким средствам стоит отдавать предпочтение?
Что можно предпринять сейчас
Первый шаг на пути к решению проблемы риска ИИ — дифференцированный интеллектуальный прогресс. Второй — действовать сообразно лучшей стратегии исследований из тех, что мы сумеем разработать. К примеру, указанные ниже действия могут снизить риск ИИ:
-
Делайте пожертвования для организаций, занимающихся исследованиями по безопасности ИИ, которые мы обсуждали выше — таких организаций, как Институт Сингулярности или Институт Будущего Человека.
-
Убеждайте людей принимать проблемы безопасности ИИ всерьез, особенно исследователей ИИ, филантропов, юные светлые умы и людей, наделенных властью.
Сайт «Как достигнуть снижения риска ИИ» (How to Purchase AI Risk Reduction) предоставляет больше деталей по специализированным проектам, направленным на снижение риска ИИ; также он дает оценку стоимости каждого из этих проектов.
Возможности
До сих пор я говорил о риске ИИ; однако также важно не забывать о возможностях ИИ:
Обычно мы не проводим ассоциации между лекарством от рака или экономической стабильностью и искусственным интеллектом. Но в конечном счете, проблемы рака и проблемы экономики не решены до сих пор лишь потому, что нам не достает ума. Какие бы цели перед нами не стояли, все они могут быть достигнуты с помощью приложения достаточно развитого интеллекта.
В последней главе я постараюсь объяснить, насколько все может быть хорошо, если мы решим принять надлежащие меры и сделаем все правильно.
Да, мы должны помнить, что ни один закон физики не препятствует действительно паршивому результату. Но ничего и не препятствует самым великолепным результатам, какие только могут представить наши примитивные обезьяньи мозги.