Мистер Никсон рассуждает об одной из основных проблем в игровом мире After Reset.
«Уточните, что именно дает вам основание считать, что человек превосходит компьютер, и я построю компьютер, который опровергнет ваше верование. Не нужно принимать вызов, брошенный Тьюрингом, ибо любая достаточно точная спецификация может быть использована, как принцип программирования машины».
Karl Popper, «The Self and its Brain»
Размышляя об Искусственном Интеллекте и искусственном сознании наши предки часто исходили из заключения о том, что существуют лишь два типа обработки информации: искусственный и естественный. Но, как мы уже достоверно знаем сейчас, это заключение являлось заблуждением.
Концептуальное различие между искусственными и естественными системами не являлось ни каноническим, ни исчерпывающим. Задолго до расцвета современной синтетической биологии, задолго до Сброса, мы уже имели интеллектуальные и сознательные системы, которые невозможно было отнести ни к одной из этих двух категорий. Что же касается другого старомодного разделения на аппаратное и программное обеспечение, то опять же, еще в Эре Прошлого мы имели биологические системы, управляемые искусственным (созданным человеком) программным обеспечением, и в то же время – искусственные аппараты, управляемые программами, возникшими «сами по себе» (в ходе эволюции).
Но затронув вопросы интеграции биологических нейронных сетей и создание небиологических прототипов в ходе ускоренно «программной эволюции», мы вплотную подошли к вопросу Этики Сознания. Здесь стоит отметить, что у нас до сих пор отсутствует функциональная теория создания, но если бы она существовала, то мы не имели бы гарантий и оснований применять ее функции к системам Искусственного Интеллекта с небиологическим носителем.
До установления запрета на исследования в области Искусственного Интеллекта и ограничения в исследованиях Эволюционной Робототехнике, более чем за столетие до Сброса мы уже начали создавать первых само-моделирующих и само-познающих роботов. Ярчайшим примером могут служить «морские звезды», созданные Josh Bongard, Виктором Зыковым, Hod Lipson. В ходе своего существования (именно существования, а не «работы»), данные роботы постепенно развивали внутреннюю модель себя, модель окружающего мира, и модель своего места в нем. Эти четырехногие роботы использовали эти модели для когнитивных функций и своего взаимодействия с окружающей действительностью. Когда такой «звезде» удаляли часть ноги, она переосмысляли и адаптировала модель себя и вырабатывала новые походки – училась хромать. В отличии от пациентов-людей с Синдромом Фантомной Конечности, эти роботы умели реструктурировать представление о собственном теле после потери конечности. Эти «морские звезды» умели не только синтезировать собственную модель Себя, но и использовать ее для порождения разумного поведения. Конечно, эти первые модели Себя были бессознательными, но, как многие из читателей помнят, они были успешно использованы в первых машинах, подражающих процессам человеческой эволюции.
Последующий прорыв в исследованиях Искусственного Интеллекта так же коррелировал с прорывами в области человеческой нейропсихологии. К тому времени нейропсихология уже сумела выделить три фактора, на которых базируется известное нам сознание: интегрированная модель окружающего мира с обратной связью и доступностью для всех систем интеллекта, переживание момента присутствия в этой модели «здесь и сейчас», скрытость от самого сознания искусственности его модели мира и модели «здесь и сейчас». Эти же факторы применимы и для человека: мы имеем виртуальную модель мира (пускай и неточную, ограниченную, и отражающую обратную связь с задержками и искажениями), мы имеем переживание момента «настоящего» в котором пребываем, и в начале нашей жизни (а некоторые и всю жизнь) не осознаем искусственную виртуальность данных структур.
Но чего наши предки, создатели «морских звезд» не учитывали, так это наличие четвертого, связующего фактора, обеспечивающего переход от Виртуального Интеллекта к Искусственному Интеллекту – одновременное выделение и обратная интеграция модели Себя в формируемый виртуальный образ мира «здесь и сейчас». Если система может интегрировать прозрачный внутренний образ Себя в формируемый образ мира, то она становится видна сама себе – она начинает осознавать себя. Она станет Эго и наивным реалистом относительно всего, что бы не сказала о себе ее модель Себя. Такой Искусственный Интеллект будет в себя верить (!).
ЭТИКА СОЗНАНИЯ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ
Одними из первых вопросов, которые мне задают школьники в начале курса по Концептуальной Робототехнике, является «Если мы можем построить Искусственный Интеллект, почему мы это не делаем? И почему Правительство запрещает эксперименты в этой области?».
Вспомним наши последние выводы из предыдущей главы: обратная интеграция модели Себя в виртуальный образ мира «здесь и сейчас» порождает видимость системы самой себе в этом мире в этом месте и времени. Система начинает осознавать себя. И этот переход превращает эту искусственную систему в объект нравственного суждения: теперь эта система становится потенциально способна страдать. Боль, страх, негативные эмоции и другие внутренние состояния, изображающие часть действительности, как «нежелательную», могут служить причинами страдания только в том случае, если они осознаваемы. Система, которая не явлена себе (например, наши современные системы Виртуально Интеллекта) не может страдать, так как она лишена чувства обладания. Такие системы, как комнаты, в которых включен свет, но никого нет дома – они априори не могут являться объектом этических рассуждений. Если у такой системы есть сознательная модель мира (пускай даже более точная и полная чем у человека), но нет модели Себя, то мы можем спокойно «выдернуть шнур» в любое время.
Но Искусственный Интеллект может страдать, так как он интегрирует болевые сигналы, состояния эмоциональных потрясений или негативные мысли в свою прозрачную модель Себя, и они явлены не абстрактно, а как чья-то (!) боль или негативные чувства.
Приведу здесь мысленный эксперимент ярко иллюстрирующий моральную сторону любых экспериментов с таким Искусственным Интеллектом. Представьте, что вы являетесь членом комитета по этике, рассматривающего возможность выдачи научного гранта на медицинский проект.
Автор такого проекта говорит: «Мы хотим использовать генные технологии для того, чтобы плодить умственно отсталых детей. Для научного исследования необходимы дети человека с определенными умственными отклонениями, эмоциональными недостатками и дефицитами восприятия. Это важная инновационная стратегия исследований, которая требует управляемого и воспроизводимого исследования психологического развития умственно отсталых детей после рождения. Это важно не только для понимания того, как работает наш собственный мозг, но также имеет огромный потенциал для лечения психиатрических заболеваний. Поэтому нам срочно необходимо соответствующее финансирования. Do the right thing!».
Вне всяких сомнений, вы найдете эту идею не только абсурдной, но и опасной. Можно с уверенностью полагать, что предложения такого рода не будут одобрены ни в одном комитете по этике в нашем мире.
Цель данного мысленного эксперимента, однако, в том, чтобы первые поколения Искусственных Интеллектов, искусственных сознаний, не смогли бы иметь своих защитников в этических комитетах подобных нашему. Первые поколения машин, удовлетворяющих минимальному достаточному набору условий переживаний и самосознания, обнаружили бы себя в ситуации, похожей на ситуацию генетически спроектированных умственно отсталых человеческих младенцев. Как и такие младенцы, первые Искусственные Интеллекты будут неизбежно обладать всеми видами функциональных, когнитивных и презентационных дисфункций, обусловленных хотя бы из ошибок человеческого экспериментального проектирования. Вполне допустимо, что их системы восприятия – искусственные глаза, уши, и так далее – по началу будут работать не очень хорошо. Они будут полуглухими, полуслепыми и столкнутся со всеми возможными сложностями восприятия мира и себя в нем. Вместе с тем, обладая самосознанием, они будут способны страдать.
Если их модель Себя укоренилась в низкоуровневых саморегулирующих механизмах своего аппаратного обеспечения (т.е. так же как наша собственная эмоциональная модель Себя укоренена в верхнем стволе мозга и гипоталамусе), то они осознанно будут переживать все страдания и эмоции. Они будут болезненно переживать потерю гомеостатического контроля потому, что у них есть встроенное представление о собственном существовании. Они имели бы собственные интересы, и при этом субъективно бы переживали бы этот факт. Они бы могли эмоционально страдать качественно отличным от нас образом или даже в такой степени интенсивности, которую мы, создатели, даже представить себе не можем.
Очевидно, что первые поколения таких Искусственных Интеллектов, скорее всего будут иметь очень много негативных эмоций, вызванных неудачами в саморегулировании из-за аппаратных и программных дефектов. Эти негативные эмоции будут осознаваться и интенсивно ощущаться самими Искусственными Интеллектами, но, скорее всего, мы не сможем ни понять, ни даже распознать это.
Давайте попробуем продолжить наш мысленный эксперимент... Представьте, что уже последующие, более развитые поколения Искусственных Интеллектов развивают познавательные характеристики модели Себя. В таком случае они уже смогут концептуально понять не только причудливость своего существования в качестве простого предмета научного интереса, но также смогут интеллектуально страдать от осознания собственной «ущербности». Третьи поколения таких Искусственных Интеллектов смогут вполне осознавать себя второсортными, хотя и разумными, сущностями, используемыми в качестве взаимозаменяемых экспериментальных инструментов. Подумайте, каково же это, «очнуться» развитым искусственным субъектом, который несмотря на твердое ощущение «самости» и переживания себя личностью, является лишь – расходным материалом?
История Искусственного Интеллекта, сущностей, искусственно наделенных самосознанием, но без человеческих или гражданских прав, без какого-либо общественного лобби, прекрасно демонстрирует насколько появление способности страдать связано с появлением сознания, как такового. Оно так же принципиально аргументирует неприемлемость создания Искусственного Интеллекта в качестве цели академического исследования. Мы не должны без необходимости увеличивать общее количество страдания во вселенной. А создание систем Искусственного Интеллекта, будет делать это с самого начала.
Роджер Симмонс,
Департамент Социального Корпуса по Правам Человека.