ChatGPT: Altman, yapay zekanın tehlikeleri, fırsatları ve kabulü hakkında

celeron

Global Mod
Global Mod


  1. ChatGPT: Altman, yapay zekanın tehlikeleri, fırsatları ve kabulü hakkında

Bazıları, OpenAI’nin ChatGPT’sinin BT dünyasını sıkı bir şekilde düzenlenmesi gereken yeni bir düzeye taşıdığını söylüyor. Diğerleri yapay zekayı ve dil modelini daha az kritik ve hayat değiştiren olarak derecelendiriyor. CEO Sam Altman “Zeit” ile yaptığı bir röportajda veri koruma, AI Yasası, aşırı düzenlemenin tehlikeleri ve Avrupa’da kalma hakkında konuşuyor.


Veri koruması ve yapay zekanın kabulü


Sam Altman, ChatGPT ile yaptığı “sohbetlerini” “çok kişisel” olarak tanımlıyor. Veri koruma düzenlemelerine tabi olan normal veriler veya özellikle korumaya değer olan ve avukat-müvekkil gizliliği ile karşılaştırılabilecek bilgiler değildir. Her halükarda Altman, yapay zeka ile olan sohbet geçmişlerini başkalarıyla paylaşmayacaktı. İstisnaları da düzenleyen yeni bir veri koruma kategorisi gereklidir – örneğin bir intiharla ilgili bildirimler söz konusu olduğunda.

İnsanların teknolojiye alışmak için zamana ihtiyacı olacak – ne bekleyeceklerini anlamaları gerekecek. Aynısı politikacılar ve iş dünyası için de geçerlidir. Bu nedenle ChatGPT’yi kilit altında tutmamak ve GPT-4’ü doğrudan kullanıma sunmaktansa “kusurlu” bir 3.5 sürümü yayınlamak yararlı oldu: “Bu bir deprem olurdu”.


Aşırı düzenleme korkusu


OpenAI patronu geçtiğimiz günlerde bir ABD Senatosu duruşmasında yapay zekanın gelişimiyle bağlantılı riskleri kabul etti. Teknik gelişmenin nasıl güvence altına alınacağını ve bunun toplumun geleceği üzerindeki olası etkisini anlamak uzun yıllar aldı. Altman, OpenAI’nin onu yayınlamak için acelesi olmadığını, ancak başkalarının onun dil modelini kopyalamak için acele edeceğine inandığını açıklıyor. Tamamlandığında, o ve ekibi, yayınlanmadan önce ChatGPT’yi olası tehditlerden korumak için sekiz ay daha çalışacaktı.

Şansölye Olaf Scholz da dahil olmak üzere Avrupa hükümet başkanlarıyla bugüne kadar yapılan görüşmeleri olumlu buluyor. Her biri “zaten çok fazla düşünmüş” ve genel yapay zekaya odaklanmıştı, böylece kısa vadeli ve uzun vadeli düzenleme öngörülebilir. Aşırı düzenlemenin faydaları yok etmemesi Altman için önemlidir.


Avrupa’dan çekilme planlanmadı


OpenAI, daha önce “Avrupa’yı seviyoruz” tehdidiyle AB’den çekilmek istemiyor. Altman, yönergelere bağlı kalmaya çalışacaklarını açıkça belirtti. Bu mümkün değilse, hiçbir yasa çiğnenmeyecektir. Bununla birlikte, sistemlerin teknik olarak AI Yasasının özelliklerine uyması gerekir. Planlanan Avrupa hukukundaki çekişme noktalarından biri de sorumluluk meselesidir. Altman, bir şirket GPT’ye dayalı bir uygulama geliştirdiğinde insanlara karşı olası bir ayrımcılıktan bahsetti. Böyle bir durumda sorumluluk alete değil firmaya aittir.

Bir noktada, OpenAI tehlikeli bir model yayınlayacak ve bunu ancak olaydan sonra öğreneceksiniz. Bununla birlikte, şirketin eğitim amacıyla giderek daha fazla veri kullanması nedeniyle gelecek yine de heyecan verici olacaktır. Bunlar, örneğin satın alınan kitaplardan ve resimlerden kaynaklanır. Ardından Altman, AlphaGo-Zero ve verilerden öğrenen GPT gibi kendi kendini eğiten bir sistemin bir kombinasyonunun yapay zeka geliştirmede bir sonraki büyük adım olacağını söylüyor. Bazı bilim adamlarının görüşünün aksine, GPT’nin gelişimi henüz bitmedi.

Siber saldırılar ve biyolojik silahlar


Bir başka tehlike de dezenformasyonun yayılmasından kaynaklanmaktadır. Sosyal medya bugün zaten bunun için kullanılıyor ve gelecekte insanlar daha da güçlü dil modellerine bağlanırsa, yanlış bilgi ve nefret söyleminin yayılması daha da artabilir. Bir noktada karşınızdakini bir insan ya da bir algoritma olarak tanımlamak son derece zor hatta imkansızdır. Altman, AI kullanılarak kolayca gerçekleştirilebilecek veya üretilebilecek siber saldırılar ve biyolojik silahlar konusunda da endişe duyuyor.

ayrıca oku

Daha fazla göster



daha az göster




Gelecekte insanla makineyi ayırt edebilen ve hangi soruların bunu netleştireceği bir “Sam Altman testi” geliştirmek için “Zeit”in önerisine Altman’ın bir yanıtı yoktu. “Bu arada” öğrenmek için çok zamana ihtiyacı var. , başka bir test daha da ilginç: GPT gibi bir sistemin dünyayı gerçekten anladığını nasıl anlarız?”


(bme)



Haberin Sonu