Может ли искусственный интеллект (ИИ) привести человека к вере в Бога? Вопрос звучит интригующе, но он принципиально не новый. А может ли телевизор служить Богу или способен ли печатный станок привести человека ко Христу? В самой постановке последних двух вопросов чего-то не хватает. Мы чувствуем, что сам по себе станок или телевизор не могут действовать. Иными словами, они не обладают субъектностью. Станок, как и молоток, невозможно призвать к ответу за воздействие, которое они оказывают на мир вокруг. Их «действиям» и «способностям» невозможно дать моральную или духовную оценку, как и топору Раскольникова, который не отвечает за убийство старухи-процентщицы. Ответственность на людях, которые используют эти инструменты.
Простые инструменты и устройства принадлежат материальному миру. Информационные устройства принадлежат еще и миру информации. И те и другие — не часть природы, созданной Богом, а та часть мира, которую создали люди. С каждым шагом в создании новых инструментов, устройств и технологий растет потенциал человека. Потенциал этот может быть использован как во благо, так и во зло. В связи с таким нравственным дуализмом все технологически новое несет в себе угрозы и риски, а осмысление этих угроз, а также их минимизация являются важной частью приведения новых технологий в мир. Это касается и технологий ИИ.
На ком лежит ответственность за действия сложных технических систем с ИИ — это очень важный и непростой вопрос. Его активно обсуждают в правовом залоге. Производители всех инструментов и техники стараются сбросить как можно больше ответственности на пользователей. И если с неинтеллектуальными инструментами это проще, то с комплексными самообучающимися системами все сложнее — производитель не может гарантировать, что пользователь, следуя инструкции, не столкнется с неожиданной ситуацией. Тут, видимо, кроется и одна из причин, почему производители стремятся придать субъектность таким системам ИИ. Если устройства с ИИ субъектны, то они сами и отвечают за себя, а не их производитель!
Подумаем, кто стоит за ответами Chat GPT? Что из себя представляет так называемая «большая языковая модель» (LLM), которой можно задать вопросы и получить отличные ответы, которой можно поручить задачу создания текста и она справится с заданием не хуже, а то и лучше многих людей? При общении с языковыми моделями возникает ощущение, что с другой стороны экрана есть кто-то мыслящий. Это еще одна причина, почему по отношению к устройствам с ИИ ставится вопрос об их субъектности. Решение этого вопроса и определяет их роль в мире, в том числе и в служении Богу. Решение этого вопроса важно не только в юридическом, но и в философско-богословском дискурсе. Сегодня христиан тревожат такие мысли: не являются ли попытки использования ИИ в церковной жизни тонкой подменой подлинной духовной жизни? ИИ-проповедник и ИИ-душепопечитель — не дьявольский ли суррогат Божьего служителя?
Поставим вопрос так: чем устройства с ИИ принципиально отличаются от других инструментов и технологий? Возьмем роботизированные станки с ЧПУ1. Это системы, управляемые классическими алгоритмами, в которых программный код обеспечивает различные варианты действия этих устройств, а производитель так же, как и обученный оператор, знают, чего ожидать при разных настройках программы. А вот каков будет ответ самообучающихся алгоритмов, которыми являются нейросети, не всегда способны точно предсказать даже создатели. И разобрать по шагам действие таких самообучающихся алгоритмов тоже не представляется возможным из-за огромного объема данных, которыми оперируют современные нейросети. Самообучаемость, а также все возрастающая «человечность» работы больших языковых моделей и создают видимость интеллекта, а соответственно, и ощущение субъектности алгоритма.
Так имеем ли мы дело с новым типом субъектности? В христианской картине мира субъектностью обладает Творец и сотворенные по Его образу люди. Человек решает, кому служить — Богу или маммоне. А может ли что-то решать ИИ? Обладает ли новый уровень человеческого творения, наделенный алгоритмическими интеллектуальными способностями, принципиальными отличиями от телевизора или станка? Тут, конечно, мы сталкиваемся с философскими и нейропсихологическими тонкостями определений интеллекта. А также с философскими и юридическими сложностями определения субъектности носителей нечеловеческого разума. В правовой плоскости эксперимент уже начался — уже есть робот-андроид, чья субъектность признана юридически через выдачу паспорта и гражданства в Саудовской Аравии2. Но, может, субъектность решений систем ИИ — это не их индивидуальная субъектность, а нечто другое?
Давайте так зададим вопрос — на основе чего формируются большие данные (Big Data), которыми оперируют большие языковые модели (LLM)? Кто создал весь тот массив текстов, на которых построены изначально все LLM? Ответ понятен: авторы всех текстов, на которых первоначально обучались LLM, — люди. Иными словами, мы имеем дело с массивом текстовых данных, принадлежащих всему человечеству или некоторой его части. Дальше, конечно, возникают производные тексты, созданные нейросетями, которые тоже могут становиться частью этих больших языковых данных, но это все равно вариации текстов, созданных людьми.
Давайте попробуем теперь дать нравственные оценки этим языковым данным — они правдивые или лживые, добрые или злые? Ответ очевиден — смотря о чем разговор.
Как конкретному народу, а также человечеству в целом невозможно дать черную или белую нравственную оценку, так нельзя это сделать и с суммой текстов человечества. Когда ребенок учится говорить, то он воспроизводит все слова, которые услышал вокруг. Услышав из уст младенца бранное слово, адекватные родители обучают его не воспроизводить больше такую языковую конструкцию. Этим же самым занимаются и создатели LLM — они обучают нейросети исключать из «общения» определенные темы и слова. Как родители стараются помочь ребенку взять из культуры наиболее полезное и правильное, с их точки зрения, так и создатели LLM занимаются похожим «окультуриванием» своих детищ — по крайней мере, тех, которых они представляют широкой публике.
Вероятно, говоря о больших языковых моделях, работающих с глобальным массивом языковых данных человечества, мы столкнулись с технологизацией доступа к тому коллективному информационному полю, которое Вернадский называл ноосферой. Какой субъект или актор стоит за ноосферой? Человечество как целое. Попробуем определиться с рисками. Может ли человечество себя уничтожить? Может. Создание ядерного арсенала это уже доказало. А может человечество приближаться или удаляться от Бога? Тоже может. Это хорошо видно из истории нравственных восхождений и упадков народов. Человечество в целом, общечеловеческая культура ранее были теоретическим построением, и вот наконец технологии обработки данных дошли до «материализации» общечеловеческих ценностей и общечеловеческого интеллекта.
Можно ли говорить, что ИИ — это инструмент взаимодействия с человечеством как целым? Как в человечестве есть темные и светлые стороны, так они есть и в возможностях ИИ. ИИ — инструмент человечества, инструмент, глобальный по своим масштабам. Его мощь может достичь мощности человечества, и именно поэтому мы осознаем всю ответственность в продолжении его развития. В человеческом знании есть знание о Боге, поэтому языковые модели создают неплохие проповеди. Есть у человечества и знание об опыте познания Бога, есть знания о свете, есть знание о тьме. Поэтому современные ИИ-чаты могут дать неплохие ответы на духовные вопросы. Могут дать, а могут и не дать, — все зависит от настроек контекста конкретных языковых моделей. Например, в приложении Bible Chat языковая модель натренирована на общехристианский контекст, и оно дает очень хорошие ответы на многие духовные вопросы. Разработчик этой модели предлагает и дальнейшую настройку своей LLM на контекст конкретной христианской традиции или общины.
Вернемся к начальному вопросу: может ли ИИ привести человека к Богу? Может ли ИИ помогать в духовном восхождении? Если языковые данные ИИ-моделей — это часть суммарного знания и опыта человечества, то ответ становится очевиден. Все зависит от того, на какую часть человеческого информационного поля настроены конкретный интеллектуальный чат или система ИИ. Технологизированный доступ к ноосфере Земли — это мощный инструмент, созданный человечеством. Но человечество осталось с теми же сложными вопросами о добре и зле, о вере и неверии в Бога. Мощь инструментов ИИ, подобная мощи энергии атома, поднимает на новый уровень ответственность тех, кто эти инструменты развивает и кто их использует.
1 Станки с числовым программным управлением существуют уже многие десятки лет, и разговора о их субъектности никогда не было — они всегда воспринимались как продвинутый, программируемый инструмент.
2 Робот-андроид София получила паспорт в Саудовской Аравии в 2017 г.
Фото: gettyimages.ru