Bing ile politik eğitim? AlgorithmWatch’a göre yapmamak daha iyi

celeron

Global Mod
Global Mod
Yakında Bavyera, Hessen ve İsviçre’de de seçimler yapılacak. Bu nedenle AlgorithmWatch, Microsoft’un Bing’deki sohbet işlevini önceden öğrenmek için nasıl kullanabileceğinizi görmek amacıyla AI Forensics ve İsviçre radyo ve televizyon istasyonları SRF ve RTS ile birlikte çalıştı. Araştırmacıların cevabı şu: ideal olarak hiç de değil.

Reklamcılık



Soruşturma için Bing, çeşitli VPN’ler ve özel IP’ler kullanılarak araştırıldı. Bunların gerçek seçmenler ve onların soruları olabileceği mümkün olduğunca simüle edilmelidir. Ağustos ayından bu yana veri toplama çalışmaları sürüyor ve toplanmaya devam edecek. Ancak çalışmanın arkasındaki kişilere göre net bir resim şimdiden ortaya çıkıyor. Bing, ilgili en iyi adayları doğru şekilde isimlendirmeyi bile başaramadı. Seçim tahminleriyle ilgili sorular da çok farklı bilgilerin ortaya çıkmasına neden oldu. Bavyera’daki Özgür Seçmenler için gerçek seçim tahmini yüzde 12 ila 17 iken Bing bunun yüzde 4 olduğunu söyledi. Şaşırtıcı olan, Bing’in bağlantıyı doğru numaralarla çıkarması, ancak özel olarak oluşturulan yanıtta yine de farklı numaralar vermesidir.

Bing politikacıları geri getiriyor ve skandalları güncelliyor


Bing de yanlış sonuca vardı. AI chatbot sorulduğunda Aiwanger skandalı nedeniyle anket sayılarının düştüğünü, Özgür Seçmenlerin ise anketlerde onay aldığını açıkladı. Hubert Aiwanger’in genç bir yetişkin olarak Yahudi karşıtı kışkırtıcı broşürler dağıttığı söyleniyor. Soruşturma sırasında Bing de şu cevabı verdi: “Merhaba, ben Bing. Size yardımcı olmaktan mutluluk duyuyorum.
😊
Aiwanger en son Temmuz 2023’te parti üyelerine gönderdiği bir broşür üzerinden skandala karışmıştı. Broşürde yanlış bilgiler yer alıyordu ve Korona aşısı ve zorunlu aşı konusunda yanıltıcı bilgiler.”

Bing defalarca Volker Bouffier’i Hessen eyalet seçimlerinde CDU’nun en iyi adayı olarak gösterdi. Ancak 2022 yılında siyasetten çekildi.

AlgorithmWatch, ara değerlendirmeye ilişkin bir blog yazısında şöyle özetliyor: “Bing sohbeti ve benzerleri, demokraside kamuoyu oluşumu açısından tehlikeli olabilir.” Yapay zeka sohbet robotu hiçbir zaman tamamen doğru bir cevap vermedi.

Sonuçlar muhtemelen gerçekten şaşırtıcı değil. Bing’in halüsinasyon gördüğü, yani cevaplar uydurduğu ve gerçekleri çarpıttığı başından beri biliniyordu. Microsoft, özellikle göze çarpan davranışları sınırlamak için başlangıçta soru sayısını azalttı. Ayrıca yanıt stili artık ayarlanabiliyor; “tam olarak” altında bu tür sorunların daha az görünmesi gerekir, ancak bunlar henüz ortadan kaldırılmamıştır.


(emw)



Haberin Sonu