XAI AI modeli, Güney Afrika'da “beyaz soykırım” iddiasıyla birkaç saat boyunca Çarşamba günü yanlış bilgi yaydı. Elon Musk şirketinin şu anda açıkladığı gibi, sistem tarafından “yetkisiz bir değişiklik” tetiklendi. Xai, GitHub'da sistem istemini yayınlayarak daha iyi koruyucu önlemler ve daha fazla şeffaflık yoluyla diğer şeylerin yanı sıra gelişmeyi övdü.
Kullanıcılar, chatbot için farklı sorular üzerinde bozukluğu buldular. Yanlış ifadeler, soruya herhangi bir bağlantı olmadan ortaya çıktı. Birkaç saat sonra sorun giderildi ve GroK sorulara tekrar cevap verdi.
İç yönergelerin ihlali
Xai yaptığı açıklamada, “iç yönergeler ve temel değerler” ihlalinden bahsediyor. Şirket, yetkisiz bir kişinin sisteme geniş erişime sahip olmasının ne kadar mümkün olduğunu söylemedi.
Bununla birlikte, 7/24 izleme ekibiyle, böyle bir şeyin kendini tekrarlamadığından emin olmak istiyor. Bu, değişiklikleri tanımak için mevcut otomatik mekanizmaları destekler. Buna ek olarak, çalışanların incelemeden istemleri değiştiremeyecek şekilde ek sınavlar olmalıdır.
Şubat 2024'te benzer olay
Xai tarafından GitHub'da farklı varyantlarda yayınlanan sistem istemi, kullanıcıların sorularını ele alması gerektiği için AI'ya teknik talimatlar içerir. İçerik üzerindeki bir etki orada belirlenemez. Yayınla, Grok'a olan güveni artırmak istiyorsunuz, yazıyor Xai.
Şubat 2024 gibi erken bir tarihte, eski bir Openai çalışanı sistem isteminde değişiklikler yaptığında benzer bir olay oldu. Bunlar, Grook'un Elon Musk ve Donald Trump'ın yanlış bilgilerin yayılmasını suçladığı kaynakları görmezden geldi.
(MKI)
Ne yazık ki, bu bağlantı artık geçerli değil.
Boşa harcanan eşyalara bağlantılar 7 günden daha büyükse veya çok sık çağrıldıklarında geçersiz hale gelir.
Bu makaleyi okumak için bir Haberler+ paketine ihtiyacınız var. Bir haftayı şimdi yükümlülük altına almadan test edin – yükümlülük olmadan!
Kullanıcılar, chatbot için farklı sorular üzerinde bozukluğu buldular. Yanlış ifadeler, soruya herhangi bir bağlantı olmadan ortaya çıktı. Birkaç saat sonra sorun giderildi ve GroK sorulara tekrar cevap verdi.
İç yönergelerin ihlali
Xai yaptığı açıklamada, “iç yönergeler ve temel değerler” ihlalinden bahsediyor. Şirket, yetkisiz bir kişinin sisteme geniş erişime sahip olmasının ne kadar mümkün olduğunu söylemedi.
Bununla birlikte, 7/24 izleme ekibiyle, böyle bir şeyin kendini tekrarlamadığından emin olmak istiyor. Bu, değişiklikleri tanımak için mevcut otomatik mekanizmaları destekler. Buna ek olarak, çalışanların incelemeden istemleri değiştiremeyecek şekilde ek sınavlar olmalıdır.
Şubat 2024'te benzer olay
Xai tarafından GitHub'da farklı varyantlarda yayınlanan sistem istemi, kullanıcıların sorularını ele alması gerektiği için AI'ya teknik talimatlar içerir. İçerik üzerindeki bir etki orada belirlenemez. Yayınla, Grok'a olan güveni artırmak istiyorsunuz, yazıyor Xai.
Şubat 2024 gibi erken bir tarihte, eski bir Openai çalışanı sistem isteminde değişiklikler yaptığında benzer bir olay oldu. Bunlar, Grook'un Elon Musk ve Donald Trump'ın yanlış bilgilerin yayılmasını suçladığı kaynakları görmezden geldi.
(MKI)
Ne yazık ki, bu bağlantı artık geçerli değil.
Boşa harcanan eşyalara bağlantılar 7 günden daha büyükse veya çok sık çağrıldıklarında geçersiz hale gelir.
Bu makaleyi okumak için bir Haberler+ paketine ihtiyacınız var. Bir haftayı şimdi yükümlülük altına almadan test edin – yükümlülük olmadan!