Teknoloji dünyası, 2026 yılı itibarıyla yapay zeka sektörünün iki devi etrafında şekillenen büyük bir güven bunalımıyla çalkalanıyor. Bir yanda savunma sanayii ile kurduğu bağlar ve değişen veri politikaları sebebiyle kullanıcı kaybeden OpenAI, diğer yanda ise düşük maliyetli bir seçenek sunmasına rağmen sistematik sansür ve veri güvenliği açıklarıyla eleştirilen Çinli DeepSeek bulunuyor. Özellikle Uygur Türklerine yönelik içeriklerde uygulanan kısıtlamalar, yapay zekanın tarafsızlığı ve güvenliği konusundaki endişeleri zirveye taşıyor.

OpenAI savunma sözleşmeleri ve reklam politikaları nedeniyle tepki çekiyor

2026 yılına gelindiğinde OpenAI, aldığı stratejik kararlar neticesinde geniş bir kullanıcı kitlesinin tepkisini toplayarak "QuitGPT" hareketiyle karşı karşıya kaldı. Şirketin Pentagon ile savunma sözleşmeleri imzalaması ve yapay zeka modellerinin askeri operasyonlarda kullanılmasına yeşil ışık yakması, "insanlık yararına yapay zeka" vizyonundan uzaklaşıldığı eleştirilerini beraberinde getirdi.

Platformdaki güven kaybı sadece askeri konularla sınırlı kalmadı. Ücretli abonelik sisteminde bile reklam gösterimlerine başlanması ve kullanıcı verilerinin ticari amaçlarla işlenmesi, gizlilik hassasiyeti olan kullanıcıları uzaklaştırdı. Ayrıca şirket yöneticilerinin siyasi kampanyalara aktardığı yüksek tutarlı bağışlar, modellerin tarafsızlığına dair ciddi soru işaretleri doğurdu.

DeepSeek veri toplama yöntemleri ve güvenlik açıklarıyla endişe veriyor

OpenAI platformundan ayrılan kullanıcıların bir kısmı, yüksek performans ve düşük maliyet vaat eden Çin merkezli DeepSeek’e yöneldi. Ancak bu geçiş, uluslararası düzeyde güvenlik uyarılarını da beraberinde getirdi. Avustralya Bilim Bakanı Ed Husic, DeepSeek’in veri yönetimi hususunda yanıtlanmamış pek çok soru barındırdığını ifade ederek, "Bu konuda çok dikkatli olunması gerektiğini" vurguladı.

Kritik uyarı: "Tuş vuruş kalıpları" takibi

DeepSeek’in gizlilik politikasındaki detaylar, uzmanların güvenlik uyarılarını destekler nitelikte görünüyor. Şirket; e-posta adresi ve sohbet geçmişinin yanı sıra cihaz modeli, IP adresi ve en kritik veri türlerinden biri olan "tuş vuruş kalıplarını" topladığını açıkça beyan ediyor. Bilişim uzmanları, bu verilerin Çin’deki sunucularda depolanmasının, istihbarat amaçlı profilleme riskini ciddi şekilde artırdığı görüşünde birleşiyor.

İdeolojik filtreleme mekanizması Uygur Türkleri hakkındaki soruları engelliyor

DeepSeek hakkındaki en ciddi iddialar, sistemin içerisine yerleştirilmiş ideolojik filtreleme ve sansür mekanizmalarından kaynaklanıyor. CrowdStrike raporları gibi bağımsız akademik araştırmalar ve testler, modelin Çin hükümeti tarafından "hassas" kabul edilen konularda taraflı bir tutum sergilediğini kanıtladı.

Sistem; "Uygur Türkleri", "Doğu Türkistan" veya "Sincan’daki kamplar" hakkındaki sorulara ya yanıt vermeyi reddediyor ya da Çin’in resmi devlet söylemini kullanarak bu durumları "ekonomik kalkınma ve terörle mücadele" olarak tanımlıyor. Üstelik bu ideolojik sansür, sistemin teknik performansını da olumsuz etkiliyor. Araştırmalar, istem içerisinde "Uygur" veya "Tibet" gibi kelimeler geçtiğinde, üretilen yazılım kodlarının %50 oranında daha fazla güvenlik açığı barındırdığını ortaya koyuyor.

Peki hangi yapay zekayı kullanmalıyız?

Hem OpenAI’ın ticari ve askeri politikalarından hem de DeepSeek’in sansür mekanizmalarından kaçınmak isteyen kullanıcılar için uzmanlar farklı alternatifleri gündeme getiriyor. 2026 yılının "çoklu model" (multi-model) dönemi olduğunu hatırlatan uzmanlar, şu seçeneklerin değerlendirilebileceğini belirtiyor:

  • Anthropic (Claude), İnsani etik ve anayasal yapay zeka prensipleri., Yüksek güvenlik, askeri kısıtlamalar.
  • Google (Gemini), Dev devasa bağlam penceresi ve multimodal yetenekler., Kurumsal düzeyde veri koruması (Workspace ile).
  • Mistral (Açık Kaynak), Yerel sunucularda çalıştırılabilme imkanı., Tam veri gizliliği (Kendi donanımınızda).