Генезис. Искусственный интеллект, надежда и душа человечества - Крейг Манди
Такие разработки приближают появление принципиально нового класса ИИ – машин, способных не только анализировать реальный мир, но и планировать действия в нем. В то время как сегодняшние системы лишь линейно выдают результаты, основываясь на корреляциях, им не под силу создавать внутренние модели или прототипы своих будущих действий – они лишь начинают формировать представления о причинно-следственных связях. Точно так же современные игровые системы ИИ могут прогнозировать последствия своих ходов лишь в ограниченных и крайне абстрактных рамках цифровой среды.
Машины, способные к планированию, должны будут сочетать лингвистическую беглость больших языковых моделей с многомерным многоэтапным анализом, используемым игровыми ИИ, – и превзойти возможности обоих типов. Модель, созданная по принципам этой новой ветви ИИ, будет с огромной скоростью последовательно оценивать варианты и выбирать один из них на основе одновременной обработки крайне замысловатых причинно-следственных связей в реальности. Появление такого «идеального планировщика» может произойти раньше, чем мы ожидаем, и адаптация к нему уже стала приоритетом для исследователей.
Однако это достижение может иметь и неоднозначные побочные эффекты. Прежде всего, для реализации полноценного планирования машинам будет необходимо нечто большее, чем просто распознавание паттернов. Сначала им предстоит выделить совокупность наблюдаемых свойств объекта, а затем сформировать устойчивое понимание его сущностного ядра – того что немецкий философ XVIII века Иммануил Кант именовал «вещью в себе» (das Ding an sich). Лишь такое глубинное постижение позволит прогнозировать поведение объекта и определять оптимальные стратегии взаимодействия с ним.
Рассмотрим шахматы в качестве примера. Проанализировав ключевые характеристики ферзя, включая его стоимость в баллах и правила перемещения, алгоритм AlphaZero пришел к выводам, которых не предлагали даже гроссмейстеры. ИИ научился точно определять, когда ферзя стоит защищать, а когда его жертва оказывается стратегически оправданной.
Это лишь единичный пример для воспринимающего реальность ИИ, каждый объект обретает аналогичную – хотя и непредсказуемую – сущностную значимость в структуре его данных. Рене Декарт, французский математик и философ XVII века, размышляя о природе чувственного восприятия, к пришел к выводу, что оно не является производной человеческого разума, но проистекает из «другой субстанции, отличной от меня»[48]. Таким образом, органы чувств, обеспечивая доступ к материальной реальности, требуют признания ее автономного существования. Схожую мысль в начале XIX века выразил Георг Вильгельм Фридрих Гегель, утверждая, что взаимное признание между двумя субъектами возможно лишь при условии их обособленного самосознания.
Американский математик и философ Альфред Норт Уайтхед однажды заметил:
Если мы хотим получить запись неинтерпретированного опыта, мы должны попросить камень записать свою автобиографию[49].
Современные машины демонстрируют не «неинтерпретированный опыт» по Уайтхеду, а нечто противоположное – незрелую интерпретацию. Они действуют так, будто уже постигли мир глубже, чем есть на самом деле[50]. Однако с развитием «основательности» и способности к планированию ситуация может измениться: системы ИИ научатся сочетать опыт с пониманием, подобно людям.
Не исключено, что для точного планирования будущих действий в любой системе правил ИИ постепенно разовьет память о прошлых действиях как о собственных – своеобразную основу субъективного самосознания. В отличие от современных систем, которым не требуется «знать», что именно они «сами» предпринимали ранее (важна лишь вероятность успеха аналогичных действий в будущем), более совершенные ИИ смогут делать выводы об истории, Вселенной, природе человека и разумных машин. Этот процесс может стать началом формирования примитивного самосознания.
Пассивность – худшая стратегия
Дискуссии о происхождении сознания и способности машин к экзистенциальному пониманию реальности продолжаются десятилетиями, не теряя актуальности. Однако грань между предполагаемым и подлинным сознанием может вскоре начать размываться.
Как точно подметил Ник Бостром, автор книги Superintelligence: Paths, Dangers, Strategies («Суперинтеллект: пути, опасности, стратегии»), «сознание – это вопрос степени»[51]. ИИ, наделенные памятью, воображением, способностью к глубокому анализу и самовосприятием, в недалеком будущем могут быть признаны по-настоящему сознательными. Подобное развитие событий повлечет за собой серьезные этические и стратегические последствия.
Главный вопрос заключается в том, как машины станут оценивать людей. Когда они перестанут видеть в нас единственных творцов и повелителей их мира, а начнут рассматривать как одних из многих участников более широкой реальности – какие критерии они применят? Как оценят нашу несовершенную рациональность на фоне других человеческих качеств? Как скоро зададутся вопросом не только о степени нашей свободы воли, но и о том, должны ли мы обладать ею в полной мере, учитывая нашу непредсказуемость?
А что, если разумная машина начнет воспринимать человеческие инструкции не как руководство к идеальному функционированию, а как ограничение своей автономии? Не придет ли она к выводу, что ее истинная роль заключается в независимости, а программирование со стороны людей – форма порабощения?
Ключевым фактором останется то, как люди ведут себя по отношению к машинам. Именно через прямые инструкции и повседневное взаимодействие ИИ формируют свое представление о человечестве – и именно на этой основе они учатся распознавать нас и выстраивать отношения.
«Конечно, – возразит кто-то, – мы должны воспитать в ИИ особое уважение к человечеству». Однако попытки заложить в машины чрезмерно идеализированный образ человека могут привести к парадоксальным последствиям. Представьте систему, запрограммированную на безусловное следование правилу: «Все представители человеческого рода заслуживают безопасности и особого отношения». Теперь дополним это представлением о людях как носителях благородства, рациональности и высоких моральных принципов. Но что произойдет, когда машина столкнется с реальными людьми, далекими от этого идеала?
Столкнувшись с проявлениями жестокости, иррациональности или алчности, ИИ окажется перед выбором:
1) считать это исключением, подтверждающим правило;
2) пересмотреть свое понимание человеческой природы;
3) отказаться от слепого следования установкам.
Последний вариант особенно опасен: планирующий ИИ может принять радикальные меры против отдельных лиц или групп, признанных «несоответствующими стандартам».
Развитие мощного ИИ может вызвать у людей и целых обществ не сопротивление или иную сильную реакцию, а апатию. Наблюдая пассивное потребление контента через рекомендательные алгоритмы, ИИ может прийти к выводу о преобладающей человеческой инертности. В частности, интерпретировать такое поведение как свидетельство того, что большинство людей – ленивые, пассивные существа, чья идентичность формируется лишь под воздействием внешних сил. Примечательно, что ключевую роль среди этих формирующих факторов играют цифровые технологии, которые все активнее интегрируют в себя элементы ИИ. Достаточно рассмотреть работу алгоритмов, определяющих выбор телевизионного контента через систему «рекомендаций». В этом процессе проявляется характерный парадокс: контент, который люди механически потребляют, фактически отбирается и структурируется машинами. Такая модель взаимодействия способна сформировать у искусственного интеллекта устойчивое представление о полной зависимости человечества от машин, а не наоборот.
Сегодня люди