Совместная разработка Microsoft и биологов выявила недостатки в проверке генетических последовательностей, созданных искусственным интеллектом.

Генеративный искусственный интеллект приобретает всё большую значимость в биологических исследованиях, открывая возможности для разработки новых вариантов молекул. Тем не менее, специалисты отмечают, что широкая доступность этих технологий сопряжена с определёнными опасностями, что обуславливает необходимость срочного внедрения мер предосторожности в области биобезопасности.

В 2024 году лауреат Нобелевской премии Дэвид Бейкер, разработчик модели RoseTTAFold, которая позволяет предсказывать структуру белка, исходя из последовательности аминокислот, и генетик Джордж Черч из Гарварда обратили внимание на важность добавления «штрихкодов» в генетические последовательности новых белков для того, чтобы можно было отслеживать их происхождение.

Тем не менее, последние исследования, проведенные компанией Microsoft, свидетельствуют о том, что принятых мер недостаточно. Искусственный интеллект способен создавать генетические последовательности, которые успешно обходят существующие системы защиты в области биобезопасности. Программы, предназначенные для анализа ДНК, не идентифицируют потенциально опасные последовательности, если в их составе присутствуют «безопасные» участки.

В новой научной работе авторы настоятельно рекомендуют разработать всеобъемлющую систему биобезопасности, чтобы предотвратить необратимые последствия. Искусственный интеллект уже обладает возможностью проектирования не только белков, но и РНК, а также целых клеток и тканей. Например, модели RFdiffusion2 и PocketGen позволяют конструировать белки с атомной точностью для решения конкретных задач, таких как инициирование биологических процессов или взаимодействие с лекарственными средствами. РНК-терапия представляет собой многообещающее направление, не изменяющее генетический код, но создание РНК-препаратов затруднено из-за сложности формирования их трёхмерной структуры.

Не пропустите:  Baseus EnerGeek GX11: внешний аккумулятор с функцией 4G роутера

Исследователи показали, что алгоритмы способны применяться для разработки опасных биологических веществ. В ходе одного из экспериментов искусственный интеллект создавал токсичные белки, которые эффективно преодолевали системы защиты в биологических лабораториях. Кроме того, программа, изначально предназначенная для поиска противовирусных соединений, предложила известный нейротоксин в качестве возможного лекарственного средства.

Решение обозначенных проблем требует установления четких правил и осуществления контроля на всех этапах взаимодействия с искусственным интеллектом в биологии. В Великобритании уже подготовлены руководства по контролю синтеза ДНК, а в США вопросы биобезопасности включены в стратегию действий при создании ИИ-моделей для биотехнологий. Технологические компании также сообщают о планах по удалению потенциально опасных вирусных последовательностей из баз данных, используемых для обучения моделей, и организации тщательной проверки новых разработок.

Авторы выступают за разработку многоуровневой системы защиты, которая будет включать в себя контроль доступа к данным и алгоритмам, контролируемую подготовку моделей и стресс-тестирование для обнаружения слабых мест. Они считают, что действенная система биобезопасности должна функционировать как динамичный механизм, способный приспосабливаться к возникающим угрозам.

Не пропустите:  Будет ли актуален игровой ПК с Ryzen 5000 в 2026 году? Тестирование Ryzen 5600X, 5700X и 5800X поможет найти ответ

Похожие статьи