Компания OpenAI ввела новые меры защиты в ответ на риск промышленного шпионажа со стороны конкурентов. Сообщает сайт Glavpost, со ссылкой на TechCrunch.
В начале 2025 года китайский стартап DeepSeek представил конкурентную чат-бот-модель, что вызвало обеспокоенность в OpenAI. В компании подозревают, что DeepSeek мог использовать технологию «дистилляции» для несанкционированного копирования их разработок.
Согласно информации Financial Times, в OpenAI реализована политика «информационного шатра», которая ограничивает доступ сотрудников к конфиденциальным алгоритмам и продуктам. Обсуждения проектов, таких как модель o1, разрешены только узкому кругу доверенных разработчиков в специально отведенных офисных зонах.
Для повышения безопасности собственные технологии теперь изолированы на компьютерах без сетевого подключения. Также введены биометрические системы контроля доступа, включая сканирование отпечатков пальцев.
Компания применяет политику «запрет по умолчанию» для интернет-соединений, требующую отдельного разрешения для каждого внешнего подключения. Увеличена физическая охрана дата-центров и расширен штат специалистов по кибербезопасности.
Эти меры направлены на защиту интеллектуальной собственности от иностранных конкурентов и минимизацию внутренних рисков. Официальных комментариев OpenAI по нововведениям пока не поступало.
Ранее OpenAI привлекла внимание партнерством с Google для использования облачных ресурсов конкурента.