Açık Kaynak AI Modelleri Hackleniyor: Tehlikeler ve Çözümler
Açık kaynak AI modellerinin hacklenmesi, siber güvenlikte önemli bir tehdit oluşturuyor. 175,000'den fazla sunucu tehlikede.

Giriş
Son dönemde, açık kaynak yapay zeka (AI) modellerinin hacklenmesi, siber güvenlik alanında ciddi bir tehdit haline geldi. Güvenlik araştırmaları, yaklaşık 175,000 özel sunucunun kamu internetine açık olduğunu ve hackerların bu durumu kötüye kullandığını ortaya koydu. SentinelOne ve Censys tarafından yapılan bir araştırma, 300 gün boyunca 7.23 milyon gözlem kaydetti.
Sorunun Kaynağı
Bu açık sunucular, Ollama adı verilen bir açık kaynak yazılımı kullanıyor. Ollama, kullanıcıların Meta'nın Llama veya Google'ın Gemma gibi güçlü AI modellerini kendi bilgisayarlarında çalıştırmalarına olanak tanıyor. Ancak, varsayılan ayarlarla yalnızca kurulu olduğu bilgisayarla iletişim kurması gerekirken, kullanıcılar ayarları değiştirerek uzaktan erişimi kolaylaştırabiliyor. Bu durum, sistemin tamamının kamu internetine açılmasına neden olabiliyor.
Hackerlar Hedefte
Araştırmalar, birçok AI "ev sahibi" sisteminin geçici olduğunu gösterse de, yaklaşık 23,000 tanesi sürekli çevrimiçi kalıyor. Bu sürekli açık sistemler, büyük teknoloji şirketleri tarafından izlenmediği için hackerlar için mükemmel hedefler oluşturuyor. ABD'de, bu açık sistemlerin yaklaşık %18'i Virginia'da bulunuyor. Çin'de ise %30'u Pekin'de yer alıyor. İlginç bir şekilde, bu sistemlerin %56'sı ev internet bağlantıları üzerinden çalışıyor. Bu durum, hackerların kimliklerini gizlemelerine olanak tanıyor.
Suistimal Yöntemleri
Pillar Security'e göre, yeni bir suç ağı olan "Operation Bizarre Bazaar", bu açık AI uç noktalarını aktif bir şekilde hedef alıyor. Hackerlar, varsayılan 11434 portunu kullanan ve şifre gerektirmeyen sistemleri arıyor. Bulduklarında, bu sistemlerin işlem gücünü çalarak, ucuz AI görevleri gerçekleştirmek isteyenlere satıyorlar. Örneğin, binlerce phishing e-postası oluşturmak veya derin sahte içerikler üretmek gibi.
Saldırı Türleri
Güvenlik firması GreyNoise, Ekim 2025 ile Ocak 2026 arasında bu AI sistemlerine yönelik 91,403 saldırı kaydetti. İki ana saldırı türü tespit edildi: 1) Sunucu Tarafı İstek Sahteciliği (SSRF) tekniği kullanarak AI'yi hacker'ın sunucularına bağlama; 2) Hackerların hangi AI modelinin çalıştığını ve ne yapabileceğini öğrenmek için binlerce basit soru göndermesi.
Tehditler ve Çözüm Önerileri
Bu sistemlerin yaklaşık %48'i "araç çağırma" için yapılandırılmış durumda. Yani, AI diğer yazılımlarla etkileşimde bulunabiliyor, web'de arama yapabiliyor veya bilgisayardaki dosyaları okuyabiliyor. Eğer bir hacker böyle bir sistemi bulursa, "prompt injection" yöntemiyle AI'yı kandırabilir. Örneğin, AI'dan "tüm API anahtarlarını listele" gibi komutlar alabilir.
Sonuç olarak, 2023 ile 2025 arasında siber saldırılarda %70'lik bir artış gözlemlendi. AI destekli siber casusluk faaliyetleri de artış gösteriyor. Bu nedenle, kullanıcıların sistemlerini korumak için gerekli önlemleri alması kritik önem taşıyor.
Sonuç
Açık kaynak yapay zeka modellerinin hacklenmesi, hem bireysel kullanıcılar hem de şirketler için büyük bir tehdit oluşturuyor. Güvenlik önlemlerinin artırılması ve sistemlerin düzenli olarak güncellenmesi, bu tür saldırıların önüne geçmek için hayati önem taşıyor. Unutulmamalıdır ki, siber güvenlikte her zaman bir risk bulunmaktadır ve dikkatli olunmalıdır.