Yapay zeka devi OpenAI, şirket içi ve dışı casusluk girişimlerine karşı güvenlik operasyonlarını sertleştirme kararı aldı. Şirketin özellikle Çinli startup DeepSeek'in Ocak ayında yayımladığı rakip model sonrası alarm seviyesini yükselttiği bildirildi. OpenAI, DeepSeek’in geliştirdiği yapay zeka modelinde kendi sistemlerinin izinsiz kopyalandığını öne sürüyor.

Sıkı erişim politikası uygulanıyor

Güçlendirilen güvenlik politikaları kapsamında, personelin hassas algoritmalara ve yeni ürünlere erişimi sınırlandırılıyor. OpenAI, o1 kod adlı modelin geliştirme sürecinde, yalnızca doğrulanmış ekip üyelerinin projeye erişimine izin veriyor. Bu erişim ofis içinde dahi paylaşılan alanlarda yapılan konuşmalarla sınırlı tutuluyor.

00Openai Deal Hfo Video Sixteen By Nine3000 V2

Fiziksel ve dijital güvenlik üst seviyeye çekildi

Şirketin aldığı yeni önlemler yalnızca dijital değil; fiziksel güvenlik alanlarında da kapsamlı değişiklikler yapıldı. Artık:

  • Tescilli teknolojiler, çevrimdışı bilgisayarlarda izole biçimde saklanıyor,
  • Ofis girişlerinde biyometrik kimlik doğrulama sistemleri kullanılıyor,
  • Veri merkezlerinde fiziksel güvenlik artırılıyor,
  • Siber güvenlik ekipleri genişletiliyor.

Yalnızca Çin değil, içeriden sızmalar da hedefte

OpenAI’nin önlemlerinin yalnızca yabancı aktörlere karşı değil, aynı zamanda şirket içindeki sızıntılara karşı da bir yanıt olduğu değerlendiriliyor. CEO Sam Altman’ın açıklamalarının sık sık sızdırılması, OpenAI'ın içerideki bilgi güvenliği açıklarını da kapatma çabasını ortaya koyuyor.

Amerikan şirketleri arasında yapay zeka savaşı kızışıyor

Güvenlik adımları, ABD merkezli yapay zeka şirketleri arasındaki yoğun rekabet ve karşılıklı "kaçak avcılık" suçlamalarının gölgesinde atılıyor. Uzmanlar, bu önlemlerin önümüzdeki dönemde sektör genelinde standart hale gelebileceğini değerlendiriyor.