Читайте интервью на английском языке по ссылке.
Наш собеседник — Ливиу Чортуз (Liviu Ciortuz), доцент факультета информатики Университета им. Александру Иоана Кузы в Яссах (Румыния). Он является специалистом в области машинного обучения, биоинформатики и статистической обработки естественного языка. Ливиу Чортуз принимал участие в разработке систем, используемых в антивирусных программах, а также в создании алгоритмических моделей для распознавания микроРНК. Помимо своей научной деятельности, Ливиу Чортуз активно выступает на христианских конференциях и форумах, где затрагивает темы, связанные с искусственным интеллектом, верой, технологиями и современным обществом.
— Искусственный интеллект — это очередной виток в развитии технологии или же это нечто принципиально новое?
— Я хотел бы сначала четко определить, что такое искусственный интеллект. Название «искусственный интеллект» было предложено в 1956 году группой ученых и преподавателей в области информатики. Они изучали возможность воспроизведения аспектов человеческого интеллекта — таких как язык, мышление, обучение, ориентация в среде, творчество — с помощью компьютерных программ. Развитие этой области не было равномерным. Периоды значительных успехов сменялись периодами застоя, известными как «зимы» в эволюции ИИ. В конце прошлого века активно начала развиваться сфера ИИ, называемая машинным обучением (machine learning).
Машинное обучение сосредоточено на создании алгоритмов и программ, которые имитируют процесс человеческого обучения. Если точнее, оно занимается разработкой моделей (математических или алгоритмических) на основе больших объемов данных. Недавний всплеск интереса к ИИ связан с подразделом машинного обучения — глубоким обучением (deep learning), а именно с продуктами, известными как «большие языковые модели» (large language models). Среди них наиболее известна модель ChatGPT. GPT расшифровывается как Generative Pretrained Transformer (Генеративный преобученный трансформер). Такие модели, часто называемые чат-ботами, могут вести диалог с человеком через текст или речь.
Они способны обобщать тексты, создавать новые тексты, включая стихи, но особенно эффективны в генерации компьютерных программ. Эти возможности вызвали значительный интерес к применению ИИ для решения разнообразных задач.
Если кратко ответить на ваш вопрос, искусственный интеллект сам по себе не является чем-то совершенно новым. С одной стороны, это итог научных исследований, проводимых около 70 лет, а с другой — последние успехи ИИ стали возможны благодаря постоянному прогрессу в аппаратном обеспе´чении, в частности, высокой скорости вычислений микропроцессоров, возрастающей способности хранить и обрабатывать информацию.
— Что вас лично побудило заниматься изучением искусственного интеллекта и преподавать эту тему?
— Я занимаюсь искусственным интеллектом с 1987 года, то есть уже 38 лет. Спустя два года после окончания факультета математики и информатики я начал работать в исследовательской лаборатории по информатике при Институте вычислительной техники в Бухаресте (к тому времени лаборатория стала Институтом теоретической информатики Румынской академии). Мне предложили заниматься машинным переводом (machine translation).
В 1990 году я стал младшим научным сотрудником в Яссах, а в 1994–1996 годах защитил докторскую диссертацию в Университете Лилля, Франция. Моя работа связана с программированием логики в контексте машинного перевода. Затем я около четырех лет работал в Немецком институте исследований искусственного интеллекта (DFKI) в Саарбрюккене, Германия. После этого были стажировки в Великобритании и Франции, в Национальном институте исследований в области информатики и автоматизации. Вернувшись в Румынию в 2003 году, я начал преподавать машинное обучение на программах бакалавриата, магистратуры и докторантуры.
Я бы сказал, что не я выбрал эту область, а она выбрала меня. Скорее, мое руководство выбрало ее для меня, но я ни разу не пожалел об этом. Это увлекательная с научной точки зрения область, которая сегодня оказывает значительное практическое влияние на общество.
— Для многих общение с ИИ становится интереснее, чем с людьми. Не замыкает ли ИИ каждого человека в самом себе, не выходит ли его эгоизм от этого на новый уровень?
— Я полагаю, что в определенной степени вы правы. Некоторые люди предпочитают использовать ChatGPT или подобные системы для решения различных задач. Если речь идет о простых вопросах, это, на мой взгляд, не вызывает беспокойства. Однако, когда вместо общения с консультантом, учителем или близким другом по личным и деликатным темам люди выбирают диалог с ChatGPT, это, на мой взгляд, уже серьезная проблема.
Искусственный интеллект может усилить тенденцию, которая стала особенно заметной и тревожной с появлением социальных сетей, а до них — интернета и телевидения. Интернет и телевидение часто обеспечивают лишь одностороннее взаимодействие.
Ты выбираешь из того, что тебе предоставлено. В социальных сетях общение возможно, но зачастую оно остается поверхностным. Молодежь, в частности, склонна замыкаться в себе и редко вступает в глубокие, содержательные диалоги с другими людьми. Особенно редко происходит общение с представителями других поколений. В долгосрочной перспективе это может иметь негативные последствия. Депрессия, эмоциональные барьеры и уязвимость перед различными формами агрессии становятся реальной угрозой. Родители, педагоги, консультанты, духовные наставники и воспитатели должны работать над предотвращением таких ситуаций и помогать их разрешать. Верные друзья могут способствовать развитию ценных навыков, включая умение грамотно использовать возможности искусственного интеллекта.
— В христианском мире традиционно этика определялась евангельскими истинами. Однако начиная с эпохи Возрождения, с усилением секулярного мышления, которое продолжается до сего дня, этику и веру в Бога стали часто разделять. Нужна ли светскому обществу христианская этика для ответственного использования ИИ?
— Если задать этот вопрос людям, не интересующимся христианской духовностью, их ответ, скорее всего, будет отрицательным, неопределенным или просто вежливо положительным. Однако как убежденный евангельский христианин я считаю, что ответ должен быть иным. Я убежден, что для ответственного использования искусственного интеллекта необходима христианская этика. Один из первых этических принципов, установленных разработчиками ИИ, гласит: искусственный интеллект не должен причинять вреда людям.
Тем не менее этот принцип нередко нарушается. Например, когда программы ИИ, встроенные в военные системы на границах некоторых стран, самостоятельно, без участия человека, принимают решение открыть огонь по людям, пересекающим границу, это, на мой взгляд, нарушает основное право человека на суд со стороны других людей, а не машины, программы или алгоритма.
Влияние ИИ сегодня проявляется в самых разных сферах. Когда школьники или студенты используют ChatGPT или аналогичные системы для выполнения домашних заданий или проектов, хотя преподаватели просили работать самостоятельно, они нарушают простую библейскую заповедь «не укради». Ученики и студенты часто не осознают, что учителей интересует не только результат, но и сам процесс обучения, который происходит в ходе выполнения задания. Дети, копирующие ответы ChatGPT, лишают себя процесса обучения. Сегодня они могут получить высокую оценку, но в долгосрочной перспективе теряют в качестве своего образования. Это можно сравнить с тем, как если бы дерево решило не выращивать собственные плоды, а вешать на свои ветви яблоки, груши или вишни из магазина.
Этические последствия использования ИИ могут быть гораздо более серьезными. Создание фальшивых изображений или текстов, так называемых «фейков», которые наносят значительный ущерб на индивидуальном или общественном уровне, должно быть строго запрещено. Если на уровне законодательства не будет принято соответствующих мер, то христианам следует руководствоваться словами апостола Павла: «Все мне позволительно, но не все полезно» (1 Кор 6:12).
— Сможет ли ИИ когда-либо повторить человеческое сознание, эмоции и духовность или это уникальные человеческие качества?
— В сфере искусственного интеллекта давно существуют вопросы, связанные с восприятием и выражением эмоций. Этот раздел известен на английском как Emotion Computing (рус. «вычисление эмоций»). Такие системы, как ChatGPT, созданы для проявления значительного уровня эмпатии в диалоге с человеком. Недавнее исследование показало, что в среднем подобные системы ИИ демонстрируют примерно на 30% больше эмпатии, чем обычные люди. В их технической конструкции заложены такие качества, как вежливость, доброжелательность, терпение и приятный тон в общении с человеком.
Этим системам несложно имитировать чувствительность, эмоции или даже сознание. Однако, на мой взгляд, все это можно смоделировать и воспроизвести с помощью алгоритмов и математических методов, в частности статистических, лишь до определенной степени. Я убежден, что считать компьютерную программу или даже суперкомпьютер обладателем сознания, эмоций или духовности — это глубокое заблуждение и даже явный грех.
Человеческая сущность, по крайней мере частично, остается загадкой для науки, и нельзя путать природу, душу человека с математическими или алгоритмическими моделями. Системы искусственного интеллекта могут и должны оставаться в наших руках в качестве вспомогательных инструментов, но они не должны становиться нашими властителями, доминируя над нашими проблемами, идеалами и душами.
— Идея восстания машин против человека — одна из самых популярных тем в научной фантастике, которая отражает страхи перед технологическим прогрессом и потерей контроля над созданными нами системами. Как вы считаете, могут ли машины восстать против человека?
— Я уже отмечал принцип, согласно которому искусственный интеллект не должен наносить вреда людям. Однако, как и любой инструмент, созданный человеком, он может служить как для благих целей, так и для нанесения ущерба. На текущем этапе использование ИИ во многом определяется человеческим фактором. Я также говорил, что системы искусственного интеллекта специально разрабатываются так, чтобы быть эмпатичными и вежливыми в общении. Тем не менее с таким же успехом можно создать системы, которые будут грубыми, злонамеренными, будут использовать оскорбительный или откровенно вредоносный язык.
Системы, о которых широкая публика может не знать, способны собирать разнообразные данные о нас из интернета, с мобильных устройств и банковских карт. На данный момент я не опасаюсь восстания машин против людей, но меня серьезно беспокоит, что авторитарные режимы могут использовать — и, вероятно, уже используют — технологии ИИ для слежки и даже для причинения вреда неугодным гражданам.
Негативный потенциал, который может быть заложен в системы ИИ, ни в коем случае нельзя недооценивать. В условиях демократического общества эти риски в значительной степени контролируются. Однако всегда будут необходимы высококвалифицированные специалисты, включая преданных христиан, глубоко понимающих область ИИ. Такие эксперты должны участвовать в создании законодательных рамок, которые предотвратят использование искусственного интеллекта в дурных или деструктивных целях.
— Джон Леннокс, профессор Оксфордского университета и известный христианский апологет, видит в Откровении и других эсхатологических текстах предупреждения о возможном злоупотреблении ИИ в последние дни. Он не настаивает на буквальном толковании, но считает, что эти тексты актуальны для обсуждения этики ИИ и контроля. Каковы ваши наблюдения на эту тему?
— С сожалением признаю, что не знаком с работами профессора Джона Леннокса и затронутыми вами вопросами. Работа профессора в области искусственного интеллекта требует плотного графика и тщательного планирования. Честно говоря, я даже не припомню, когда у меня было достаточно свободного времени. Свободные часы я посвящаю другим аспектам, связанным с моим теологическим образованием и просвещением. Я руковожу группой по изучению Библии, и за последние два с половиной года мы вместе прошли Евангелие от Марка, Деяния апостолов, Послание к Ефесянам, а сейчас изучаем Послание к Римлянам. Подготовка к нашим встречам, которые проходят раз в две недели, поглощает почти все мое свободное время. Если мы доберемся до изучения книги Откровение, возможно, начнем обсуждать и темы, подобные тем, что вы подняли.
— Может ли ИИ стать или оказаться антихристом?
— С сожалением должен признать, что ваш вопрос, особенно касающийся темы антихриста, выходит за рамки моей компетенции. В области библейских исследований меня все больше привлекает христология — изучение личности Христа и глубокого значения Его служения. Я убежден, что эта тема должна вновь занять центральное место как в моей личной жизни, так и в жизни церкви в целом.
Библия уделяет антихристу сравнительно мало внимания, и до настоящего момента я не углублялся в эту тему. Однако о Христе Писание говорит чрезвычайно много. Что же касается искусственного интеллекта, то это не живое существо, а продукт человеческой деятельности — впечатляющий в одних аспектах, но вызывающий разочарование в других.
Как я отмечал ранее, ИИ может стать источником множества негативных последствий, если его использовать неправильно или направлять на причинение вреда. Я не считаю, что искусственный интеллект является или когда-либо станет антихристом, но в руках диктаторов или репрессивных систем он способен превратиться в крайне опасный инструмент. Да защитит нас Господь от этого зла.
— У многих христиан возникают вопросы, как им относиться к ИИ. Может ли это быть чем-то полезным для христианской миссии в этом мире?
— Искусственный интеллект обладает значительным положительным потенциалом, и на сегодняшний день, на мой взгляд, положительное использование ИИ преобладает над отрицательными примерами. Я работаю преимущественно в сфере автоматического обучения, в частности, в области неглубокого обучения (shallow learning), где мы разрабатываем медицинские приложения. Эти технологии помогают решать проблемы здоровья, затрагивающие множество людей. Я убежден, что специалисты в области ИИ должны прилагать максимум усилий для развития таких решений.
Работу с ИИ можно рассматривать как особую форму христианской миссии — быть полезным в этом мире и служить окружающим. Однако я сохраняю осторожность и даже обеспокоенность в отношении применения систем, подобных ChatGPT, в образовании. Необходимо тщательно изучить, как такие технологии могут поддерживать образовательный процесс, не подрывая его основ.
Мы лишь в начале этого пути, но уже явно ощущаются негативные последствия, вызванные греховной природой человека, стремящегося к мгновенным результатам вместо глубоких внутренних преобразований. Христианам следует активно участвовать в этих вопросах, выступая в роли компетентных специалистов, а не в роли недостаточно информированных сторонних наблюдателей. Да поможет нам Господь в этом!
С Ливиу Чортузом беседовал Илья Карасени.
Фотографии предоставлены Ливиу Чортузом.
Фото: gettyimages.ru