Machine Unlearning: Google, unutmayı teşvik etmek istiyor

celeron

Global Mod
Global Mod


  1. Machine Unlearning: Google, unutmayı teşvik etmek istiyor

Yapay zeka uygulamalarının ve nöral ağ modellerinin kullanımının olanak ve sonuçlarının yaratabileceği tüm coşkuya rağmen, bu teknolojilerin aşırı dikkatsiz kullanımına karşı uyarıda bulunan giderek artan sayıda ses var. Bu endişeler kısmen, son gelişmelerin önemli bir unsurunun, daha büyük ve daha büyük modellerle birleştirilmiş büyük veri setlerinin kullanılmasından kaynaklanmaktadır. Bunun mahremiyetle ilgili sonuçları da vardır: büyük modeller, eğitim setlerinin ayrıntılarını hatırlama eğilimindedir. Bunu sağlamak için verilerin veritabanlarından “basitçe” silinmesi gerekmez, aynı zamanda özellikle eğitilmiş makine öğrenimi modelleri üzerindeki etkilerinin de silinmesi sağlanmalıdır.

Reklamcılık



Bir meydan okuma olarak unutmak


Google araştırmacıları, haksız önyargının yayılması ve pekiştirilmesi ve kullanıcı gizliliğinin korunması gibi potansiyel riskleri anlayıp hafifleterek yapay zeka tekniklerini sorumlu bir şekilde geliştirmeye çalıştıklarını söylüyor. Bunu yapmak için, ilk “Machine Unlearning Challenge”ı organize etmek üzere akademi ve endüstriden bir dizi araştırmacıyla birlikte çalıştılar.

Yarışmanın senaryosu, eğitimden sonra, ilgili kişilerin mahremiyetini veya haklarını korumak için eğitim görüntülerinin belirli bir alt kümesinin unutulması gerektiğidir.

Makine öğreniminden geri alma, yalnızca kullanıcıları korumayı amaçlamaz


Google araştırma ekibinin blog gönderisinde vurguladığı gibi, makine öğreniminden geri almanın önemi ve genel yaklaşımı, kullanıcıları korumanın çok ötesine geçmelidir. Bu “öğrenme”, etiketleme hataları veya ortamdaki değişiklikler nedeniyle girmiş olabilecek yanlış veya güncelliğini yitirmiş bilgileri eğitimli modellerden çıkarmak için kullanılabilir. Başka bir kullanım, kötü amaçlı, manipüle edilmiş veya aykırı verileri kaldırmaktır.

Reklamcılık







Öğrenmeyi bırakma akışı: Bir öğrenmeyi bırakma algoritması, girdi olarak önceden eğitilmiş bir modeli ve ihmal edilebilir eğitim setinden (“unutma seti”) bir veya daha fazla örneği alır.


(Resim: Google)



Ek olarak Google araştırmacıları, makine “öğrenmeyi unutma” alanının, diferansiyel mahremiyet, yaşam boyu öğrenme ve adalet gibi diğer makine öğrenimi alanlarıyla ilgili olduğunu açıklıyor. Diferansiyel mahremiyet, hiçbir özel eğitim örneğinin eğitilen model üzerinde çok fazla bir etkiye sahip olmamasını sağlamayı amaçlar; sadece amaçlanan unutma cümlesinin etkisinin silinmesi gereken, öğrenmeyi bırakmaya kıyasla daha güçlü bir hedef.

Çok yönlü bir sorun


Öğrenmeyi unutma sorunu karmaşık ve çok yönlüdür çünkü birbiriyle çelişen birkaç hedefi içerir: istenen verileri unutmak, modelin yararlılığını sürdürmek (bu, saklanan ve saklanan verilerdeki doğruluğu içerir) ve verimlilik. Bu nedenle, öğrenmeyi unutmak için mevcut algoritmalar farklı tavizler verir. Böylece, diğer şeylerin yanı sıra, modelin kullanışlılığını bozmadan tam yeniden öğrenme ile başarılı bir unutma elde edilir. Bununla birlikte, bu, düşük verimlilikle yapılırken, gürültü eklemek, fayda pahasına unutulmayı sağlar.

Machine Unlearning Challenge, Kaggle’daki NeurIPS 2023 Competition Track konferans yolunun bir parçası olarak gerçekleşir ve 2023 Temmuz ortası ile 2023 Eylül ortası arasında çalışır. İlgilenenlerin GitHub’da bulabilecekleri bir başlangıç seti içerir. Bu başlangıç paketi, katılımcılara bir oyun veri seti kullanarak öğrenme modellerini geliştirmeleri ve test etmeleri için bir temel sağlamayı amaçlamaktadır.


(fms)



Haberin Sonu