ChatGPT, Bard and Co’da Dünya Sağlık Örgütü: “Riskleri dikkatlice kontrol edin”

celeron

Global Mod
Global Mod
Dünya Sağlık Örgütü (WHO), esenliği, güvenliği ve özerkliği ve halk sağlığını korumak için yapay zeka tabanlı büyük dil modelleri kullanırken dikkatli olunmasını tavsiye ediyor. ChatGPT, Bard, Bert ve diğerleri gibi büyük dil modellerine (LLM) dayalı sistemler şu anda hızla gelişiyor ve yayılıyor. DSÖ ayrıca bu tür sistemlerin tıpta kullanılmasının olası avantajlarını da kabul etmektedir. Bununla birlikte, sağlık bilgilerine erişimi basitleştirmek veya “yetersiz finanse edilen ortamlarda teşhis kapasitesini artırmak” için LLM’leri denemeden önce “riskleri dikkatlice değerlendirmeyi” tavsiye ediyor.


LLM’lerin genel eleştirisi


WHO, argümantasyonunda LLM’lere yönelik genel eleştirileri de listeler: Üretken dil modellerinin yardımıyla, kulağa makul görünen ifadeler bazen üretilebilir, ancak bunlar yüksek risk içerir. DSÖ, “Bu cevaplar, özellikle sağlık söz konusu olduğunda, tamamen yanlış olabilir veya ciddi hatalar içerebilir” diyor. LLM’ler, veri sahiplerinin rızasını vermemiş olabilecekleri hassas veriler konusunda da eğitilmiş olabileceğinden, DSÖ ayrıca veri korumasını risk altında görmektedir. DSÖ’ye göre, LLM’lerin örneğin metin, ses veya video içeriği biçiminde gerçek yanlış bilgileri yaymak için kötüye kullanılması da düşünülebilir.


Sağlık kuruluşu, Bard, ChatGPT ve Co. gibi sistemlerin sağlık profesyonellerini, hastaları ve bilim insanlarını destekleme potansiyelinin farkındadır. Ancak, onayın dikkatsizce ve aceleyle ele alınmasından veya bu tür yöntemlerin kullanılmasından endişe duymaktadır. Bu, hastalara zarar verecek ve AI’ya olan güveni baltalayacak hatalara yol açabilir, potansiyel faydalarını ve dünya genelindeki dağıtımını potansiyel olarak baltalayabilir veya geciktirebilir. Bu nedenle, “şeffaflık, kapsayıcılık, halkın katılımı, uzman denetimi ve katı değerlendirme gibi” temel değerlere bağlı kalmak önemlidir.

AI ile başa çıkmak için temel ilkeler


Geliştiricilere ek olarak, DSÖ, diğerlerinin yanı sıra sağlık bakanlarını da LLM’leri kullanırken etik yönergelere/normlara uymaya çağırır. DSÖ ayrıca Haziran 2021’de yayınlanan ve altı temel ilkeyi listeleyen AI “Sağlık için yapay zekanın etiği ve yönetişimi” yönergelerine atıfta bulunur:

  • özerkliğin korunması
  • insan refahı, güvenlik ve kamu yararı
  • Şeffaflık, açıklanabilirlik ve anlaşılırlık
  • Sorumluluk
  • kapsayıcılık ve eşitlik
  • duyarlı ve sürdürülebilir yapay zeka


(mak)



Haberin Sonu