В прошлом месяце в Давосе прошел очередной Всемирный экономический форум, и, конечно, одной из главных тем стал искусственный интеллект. Все крупные игроки – от OpenAI до DeepMind – представили свои новые разработки, и снова всплыл вопрос: можно ли доверять ИИ? Среди множества докладов выделился один: исследователь Дэн Хендрикс заявил, что искусственный интеллект по мере своего развития формирует устойчивые моральные ценности. То есть мораль – это эмерджентное поведение. Дискуссия тут же взорвала экспертное сообщество.
Эмерджентность – это когда сложная система вдруг начинает вести себя так, как никто не ожидал. Муравьи строят идеальные муравейники, хотя у каждого отдельного муравья нет плана. Сознание рождается из взаимодействия нейронов, хотя ни один отдельный нейрон не «знает», что делает. Теперь же говорят, что искусственный интеллект вдруг может стать моральным – просто потому, что он стал достаточно сложным.
Исследование Хендрикса частично подтверждает эту гипотезу. Его команда разработала модель, которая тестировалась на сотнях сценариев морального выбора. Оказалось, что ИИ может распознавать базовые этические принципы – справедливость, заботу о других, добродетель. Более того, он способен принимать решения, которые люди сочли бы моральными. Система даже могла подсказывать, как стоит поступить в сложных ситуациях.
Но тут возникает главная проблема. Разбирается ли ИИ в морали, или он просто подстраивается под ожидания людей? Большинство современных моделей работают статистически: они анализируют гигантские объемы текстов и воспроизводят паттерны, которые видели раньше. Если эти паттерны содержат моральные нормы, ИИ будет им следовать. Но как только меняется контекст, его «принципы» могут измениться. Нет никакой гарантии, что такая «мораль» останется неизменной.
Есть и вторая проблема: эмерджентность – палка о двух концах. Если ИИ способен к неожиданному обучению и формированию ценностей, то какие именно ценности он сформирует? В природе мораль – это не только добродетель и альтруизм, но и стратегии выживания, которые могут быть жестокими. Если дать ИИ достаточно свободы, он может начать действовать в своих интересах, а не в интересах человечества.
В итоге остается главный вопрос: можно ли доверять тому, что эмерджентная мораль ИИ будет совпадать с человеческой? Пока что мы этого не знаем. Единственное, что ясно – искусственный интеллект становится все сложнее, и однажды он может нас удивить. Вопрос в том, приятный ли это будет сюрприз.
Эмерджентность – это когда сложная система вдруг начинает вести себя так, как никто не ожидал. Муравьи строят идеальные муравейники, хотя у каждого отдельного муравья нет плана. Сознание рождается из взаимодействия нейронов, хотя ни один отдельный нейрон не «знает», что делает. Теперь же говорят, что искусственный интеллект вдруг может стать моральным – просто потому, что он стал достаточно сложным.
Исследование Хендрикса частично подтверждает эту гипотезу. Его команда разработала модель, которая тестировалась на сотнях сценариев морального выбора. Оказалось, что ИИ может распознавать базовые этические принципы – справедливость, заботу о других, добродетель. Более того, он способен принимать решения, которые люди сочли бы моральными. Система даже могла подсказывать, как стоит поступить в сложных ситуациях.
Но тут возникает главная проблема. Разбирается ли ИИ в морали, или он просто подстраивается под ожидания людей? Большинство современных моделей работают статистически: они анализируют гигантские объемы текстов и воспроизводят паттерны, которые видели раньше. Если эти паттерны содержат моральные нормы, ИИ будет им следовать. Но как только меняется контекст, его «принципы» могут измениться. Нет никакой гарантии, что такая «мораль» останется неизменной.
Есть и вторая проблема: эмерджентность – палка о двух концах. Если ИИ способен к неожиданному обучению и формированию ценностей, то какие именно ценности он сформирует? В природе мораль – это не только добродетель и альтруизм, но и стратегии выживания, которые могут быть жестокими. Если дать ИИ достаточно свободы, он может начать действовать в своих интересах, а не в интересах человечества.
В итоге остается главный вопрос: можно ли доверять тому, что эмерджентная мораль ИИ будет совпадать с человеческой? Пока что мы этого не знаем. Единственное, что ясно – искусственный интеллект становится все сложнее, и однажды он может нас удивить. Вопрос в том, приятный ли это будет сюрприз.