AI: OpenAI ve Microsoft, devlet tehdit aktörü hesaplarını kapatıyor

celeron

Global Mod
Global Mod


  1. AI: OpenAI ve Microsoft, devlet tehdit aktörü hesaplarını kapatıyor

Microsoft Tehdit İstihbaratı'ndaki güvenlik uzmanlarıyla birlikte çalışan OpenAI, sahiplerinin hükümetin tehdit aktörleri olduğu belirlenen beş hesabı kapattı. Hesaplar, örneğin ChatGPT kullanılarak “kötü amaçlı siber faaliyetler” hazırlamak veya en azından yetenekleri geliştirmek için kullanıldı. Tehdit aktörlerinin Çin, Rusya, Kuzey Kore ve İran ile bağlantıları olduğu belirtildi. OpenAI ve Microsoft bunu hafta ortasında kendi blog yazılarında bildirdiler.

Reklamcılık



Şu anda yayınlanan araştırma sonuçlarının yapay zeka çağında ortaya çıkan tehditleri sunması amaçlanıyor. Odak noktası, bilinen tehdit aktörleriyle ilişkili tanımlanmış faaliyetlerdir. Bunlar arasında hızlı enjeksiyonlar, büyük dil modellerinin (LLM) kötüye kullanılması girişimleri ve sahtekarlık yer alıyor. Analize göre tehdit aktörlerinin LLM kullanımına ilişkin davranışları, yapay zekayı da araç olarak kullanan saldırganlarla tutarlılık gösteriyor.

Tehdit aktörleri


Ayrıntılı olarak tehdit aktörlerinin Çin ile ilişkilendirilen “Kömür Tayfunu” ve “Somon Tayfunu” olduğu söyleniyor. Sonuç olarak siber güvenlik araçlarını araştırmak, kodlarda hata ayıklamak, komut dosyaları oluşturmak, kimlik avı kampanyalarına yönelik içerik oluşturmak ve sistemlerdeki süreçleri gizlemek için OpenAI hizmetlerini kullandılar. Rusya ile ilişkilendirilen “Orman Blizzard”, Microsoft'a göre Ukrayna'daki askeri operasyonlarla ilgili olabilecek uydu iletişimi ve radar teknolojisiyle ilgiliydi.

Kuzey Kore ile bağlantısı olan “Emerald Sleet”, diğer şeylerin yanı sıra Asya-Pasifik bölgesinde savunmayla ilgilenen uzmanlar ve kuruluşlar arıyordu. “Crimson Sandstorm” (İran), kötü amaçlı yazılım tespitini atlatmak ve uygulama ve web geliştirme de dahil olmak üzere hedef odaklı kimlik avı kampanyalarına uygun içerik oluşturmak istiyordu.

GPT-4 – kötü amaçlı siber güvenlik görevleri için sınırlı yetenekler


OpenAI'ye göre tüm faaliyetler, harici siber güvenlik uzmanlarıyla işbirliği içinde yürütülen önceki değerlendirmelerle tutarlı. Yapay zeka kullanmayan araçlarda halihazırda kamuya açık olan bilgilerin ötesinde, “GPT-4'ün kötü amaçlı siber güvenlik görevleri için yalnızca sınırlı, ek yetenekler sunduğunu” tespit etti.

ABD'deki Çin büyükelçiliği sözcüsü, suçlamayı “Çin'e yönelik temelsiz iftira ve suçlamalar” olarak kınadı. Aynı zamanda, “tüm insanlığın ortak refahını desteklemek” için yapay zeka teknolojisinin “güvenli, güvenilir ve kontrol edilebilir” kullanımını savundu.

Rus, Kuzey Koreli ve İranlı diplomatik temsilciler Reuters'in yorum taleplerine hemen yanıt vermedi.

Güvenli yapay zeka hizmetlerine ilişkin ilkeler


Kötü niyetli aktörlere ve devlet aktörlerine karşı da dahil olmak üzere kendi yapay zeka araçlarımızı ve API'lerimizi kullanarak olası tehditlere tepki verebilmek ve riskleri azaltabilmek için Microsoft ve OpenAI ilkeler uygulamaya koydu. İlgili bulgular elde edilirse iki AI ortağı, ilgili hesapları devre dışı bırakma, hizmetleri sonlandırma ve kaynaklara erişimi kısıtlama hakkını saklı tutar. Ayrıca diğer yapay zeka hizmet sağlayıcıları ve diğer aktörlerle bilgi ve ipucu alışverişi de dahil olmak üzere işbirliği yapılmalıdır. Microsoft ve OpenAI, ek önlemler olarak güvenlik önlemlerinin ve şeffaflığın iyileştirilmesinden bahsediyor ve bunun, şimdi yayınlanan bulgularla netleştirilmesi gerekiyor.

Geçmişte, ChatGPT'nin önceki sürümlerinde, özel komutlar kullanarak güvenlik önlemlerini aşmak ve örneğin kimyasal silahlara ilişkin talimatlar ve planlar almak mümkündü. Son zamanlarda çeşitli üniversitelerden ve OpenAI'den bilim adamları, acil bir duruma müdahale edebilmek için yapay zeka için bir “sonlandırma anahtarı” çağrısında bulundular.


(benim)



Haberin Sonu