Исследование предупреждает об усилении угрозы пандемий из-за искусственного интеллекта.

Авторы нового отчета Rand Corporation предупреждают, что искусственный интеллект может увеличить вероятность глобальной пандемии в пять раз. Выводы основаны на моделировании сценариев биотерроризма и утечек из лабораторий, которые усилены генеративными ИИ-технологиями. Исследование заказано Агентством перспективных оборонных исследований США (DARPA) и касается этики и регулирования развития больших языковых моделей.

ChatGPT и подобные модели могут существенно упростить разработку и распространение биологического оружия. Авторы исследования отмечают, что искусственный интеллект способен помочь в выборе возбудителя, синтезе ДНК, определении условий хранения и доставки, а также обходе существующих контрольных мер. Исследование основано на оценке потенциальных злоумышленников, получивших доступ к ИИ-системам с открытым API, обученным на материалах научных публикаций. Даже при невысоком уровне технических знаний у них могли появляться пошаговые инструкции по созданию опасных агентов — например, вируса оспы.

Главная опасность заключается в том, что искусственный интеллект может сделать биологические атаки более доступными. Раньше подобные действия требовали высокой квалификации и больших ресурсов, но теперь подсказки ИИ могут компенсировать недостаток знаний. Особенно опасно то, что ИИ может автоматически генерировать и проверять варианты биологических агентов с повышенной заразностью и устойчивостью. Некоторые LLM уже способны подбирать материалы и методы, имитирующие научные эксперименты.

Ран подчеркивает: речь не только о террористических группировках, но и об случайных ошибках. Лаборатории, применяющие ИИ для ускорения исследований, могут непреднамеренно создать и рассеять в среду опасный патоген. Влияние таких утечек может быть сильнее COVID-19, особенно при отсутствии надлежащего контроля и этических ограничений.

В докладе особо подчеркивается важность регулирования доступа к биотехнической информации в LLM. Учёные призывают ввести запреты на доступ к ней, внедрить фильтры на «биоопасный» контент и провести аудит моделей, применяемых в научных разработках. Необходимо также пересмотреть принципы публикации биологических данных в открытом доступе.

Отчёт не указывает на конкретный сценарий развития событий, однако приходит к выводу: без учёта биологических рисков при развитии ИИ вероятность новой пандемии в ближайшее время значительно возрастёт. При этом технологии, призванные способствовать лечению и профилактике, могут стать источником биологической угрозы.