Компания OpenAI усилила меры безопасности из-за опасений корпоративного шпионажа. Ускоренное ужесточение мер начато после выхода на рынок в январе конкурирующей модели от китайского стартапа DeepSeek. OpenAI обвинила DeepSeek в неправомерном копировании своих моделей с помощью метода «дистилляции».
Для усиления безопасности принято решение о «политике информационного ограничения», которая ограничивает сотрудников в доступе к конфиденциальным алгоритмам и новым продуктам. Например, во время разработки модели OpenAI o1 обсуждение проекта в общих офисных помещениях разрешалось только проверенным членам команды с доступом к проектной информации.
Теперь OpenAI отделяет собственные технологии автономными компьютерами, установила биометрический контроль в офисах (сканирование отпечатков пальцев) и применяет политику «отказ по умолчанию» для интернет-доступа, требуя разрешения на внешние подключения.
Компания укрепила защиту своих центров обработки данных и увеличила число работников, занимающихся кибербезопасностью.
Изменения, вероятно, связаны с опасениями по поводу кражи интеллектуальной собственности OpenAI иностранными конкурентами. Вместе с тем, учитывая борьбу за специалистов в сфере ИИ и утечки комментариев генерального директора Сэма Альтмана, OpenAI может решать и внутренние вопросы безопасности.