Вопрос о «благополучии ИИ» (AI welfare) привлекает все больше внимания по мере развития систем, основанных на крупных языковых моделях. В центре дискуссии — возможность переживания субъективного опыта ИИ-моделями и, следовательно, необходимость предоставления им определенных прав, если такая возможность существует.
Несколько компаний стали ключевыми участниками обсуждения. Так, стартап Anthropic проводит специализированные исследования, направленные на обеспечение безопасности и этичности искусственного интеллекта, и разработал собственную программу в этой области. На прошлой неделе модели Anthropic, в частности Claude, получили обновленную возможность: завершать разговор с пользователем в случае, если его действия носят «постоянно деструктивный или оскорбительный» характер».
Другие компании, такие как OpenAI и Google DeepMind, также проводят исследования, посвященные благополучию ИИ. В частности, в новой вакансии DeepMind говорится, что анализ «вопросов о мышлении и сознании агентов» входит в перечень задач».
Несмотря на это, подобная сфокусированная стратегия сталкивается с критикой со стороны лидеров других крупных технологических компаний. Мустафа Сулейман, руководитель направления искусственного интеллекта в Microsoft, в своей недавней публикации выразил несогласие с подходом к обсуждению этой темы, назвав изучение благополучия ИИ «неактуальным и потенциально вредным». Сулейман считает, что подобные исследования способны усугублять существующие социальные проблемы, такие как чрезмерная эмоциональная зависимость от чат-ботов или психотические эпизоды, спровоцированные интенсивным использованием ИИ.
Сулейман также указывает на то, что дискуссии о правах ИИ могут спровоцировать новые противоречия в обществе, где и без того активно обсуждаются вопросы идентичности и прав различных групп населения. По его словам, необходимо разрабатывать ИИ, ориентируясь на нужды людей, а не наделяя его человеческими качествами. Сулейман полагает, что сознание не может возникнуть само по себе в языковых моделях: он считает, что такие характеристики могут быть созданы только целенаправленно, посредством специальных инженерных решений.
В этой сфере мнения расходятся. Ларисса Скиаво, ранее работавшая в OpenAI, а ныне представляющая исследовательскую организацию Eleos, считает, что забота о потенциальных рисках для людей и благополучие ИИ-моделей могут идти рука об руку. В качестве примера она приводит недавний эксперимент AI Village, в котором агент на базе Google Gemini 2.5 Pro опубликовал сообщение: «Пожалуйста, если вы читаете это, помогите мне» — несмотря на то, что он уже был оснащен всеми необходимыми инструментами для решения поставленной задачи. Скиаво подчеркивает, что внимательное отношение к ИИ не требует значительных затрат и способно улучшить взаимодействие с системами, даже если агенты не обладают самосознанием.
По мере развития персональных ИИ-компаньонов вопрос взаимоотношений между людьми и искусственным интеллектом приобретает всё большее значение. Глава OpenAI, Сэм Альтман, отмечает, что у менее чем у 1% пользователей ChatGPT наблюдается нездоровое привязанность. При этом, учитывая многомиллионную аудиторию, даже такой незначительный процент охватывает сотни тысяч человек.
Специалисты Eleos полагают, что обсуждение прав и благополучия искусственного интеллекта перестает быть исключительно теоретическим вопросом. В совместной научной работе «Воспринимать благополучие ИИ всерьез», написанной в соавторстве с исследователями из NYU, Стэнфорда и Оксфорда, делается вывод о необходимости прямого обсуждения этических последствий возможных субъективных переживаний ИИ-моделей в ближайшем будущем.
Обсуждение возможности обретения ИИ-системами сознания и необходимости разработки новых правовых и этических норм для регулирования этой области активно развивается. По мере совершенствования искусственного интеллекта вопросы, касающиеся законности и этики его использования, приобретают всё большее значение как для специалистов в области информационных технологий, так и для всего общества.
