Dijital Sağlık: Politikacılar yapay zeka risklerine odaklanıyor

celeron

Global Mod
Global Mod


  1. Dijital Sağlık: Politikacılar yapay zeka risklerine odaklanıyor

AI teknolojileri gelecekte doktorları ve hemşireleri rahatlatabilir. Federal Sağlık Bakanlığı’nın (BMG) dijitalleştirme stratejisi de yapay zekanın tıpta kullanımını teşvik etmek istiyor. SPD meclis grubu sağlık politikası sözcü yardımcısı Matthias Mieves, “Bunu destekliyorum” diyor. Mieves, bu alandaki ilerlemenin hastalıkların teşhisi, tedavisi ve önlenmesi için büyük bir potansiyel sunduğunun altını çiziyor. Hasta verilerini ve AI uygulamalarının kalitesini ve güvenilirliğini korumaya yönelik düzenlemeler de önemlidir.


Microsoft’tan BioGPT, Stanford Üniversitesi’nden BioMedLM veya Google’dan Med-PaLM 2 gibi biyomedikal dil modelleri ideal olarak doktorların tıbbi belgeler oluşturmasına ve değerlendirmesine veya kapsamlı uzmanlık literatürünü takip etmesine yardımcı olabilir. Bununla birlikte, bireysel AI uygulamaları, doktorları rahatlatmak için zaten tıbbi teşhis ve tedavi önerileri ile hasta iletişimini deniyor. Ancak, BioGPT ve BioMedLM gibi araştırma modellerinde gerekli güvenceler hakkındaki tartışma henüz başlangıç aşamasındadır. Araştırmacılar bunu yalnızca antibiyotik araştırmaları hakkında hızlı bir şekilde bilgi edinmek için değil, aynı zamanda toksin araştırmaları hakkında da kullanabilirler.

“Tesisleri doğru ayarlamak”


Matthias Mieves burada yalnızca, algoritmaların şeffaflığını amaçlayan ancak daha fazla ayrıntıya girmeyen SPD parlamento grubunun (PDF) “Yapay Zeka Yasası: Güvenilir Yapay Zeka Yönetmeliği” adlı görüş belgesine atıfta bulunuyor. FDP parlamento grubunun sağlık politikası sözcüsü Andrew Ullmann, çok fazla düzenlemeye karşı konuşuyor: “Tıbbi araştırma alanında, her türlü kötüye kullanımı önleyen etik yönergelerimiz var.” Yapay zeka destekli sağlık araştırmaları alanındaki potansiyeli ve gerekirse düzenlemeleri düşünürseniz, öncülleri doğru bir şekilde belirlemeniz gerekir: “Yapay zekanın entegrasyonu, artık koşu bandında yeni antibiyotikler bulmamıza yol açmayacak, ne de Toksinlerin gelişiminin gerçekten hız kazanmasına yol açacak mı?”

İstismar ve karar verme riskini göz önünde bulundurun


Öte yandan, muhalefetteki CDU/CSU meclis grubunun sağlık politikası sözcüsü Tino Sorge çok daha endişeli: “Yapay zeka, kötüye kullanıldığında büyük tehlikeler barındırabilecek güçlü bir araçtır” diyor. Şundan emin: “Yapay zeka öldürücü maddelerin tespitini sağlıyorsa, devlet müdahale ederek düzenleme yapmalıdır.” AI, “zehirlerin veya diğer tehlikeli maddelerin dikkatsizce geliştirilebileceği bir araç haline gelmemelidir”. Tüm fırsatlarla birlikte, suistimal riski göz önünde bulundurulmalıdır.


Federal Meclis’te solun sağlık politikası sözcüsü Kathrin Vogler de benzer şekilde görüyor. Daha dar tıbbi araştırma alanındaki AI’nın, öğrenme süreçleri için hasta dosyalarından kişisel verilere de ihtiyaç duyduğuna dikkat çekiyor. Bu nedenle, etkilenen kişilerin mahremiyetini korumak ve yapay zekanın verilerle neler yapabileceği konusunda net sınırlar belirlemek önemlidir. Yanlış bilgilerin tıbbi karar vermeyi etkilemesi hassas tıp alanında da tehlikelidir. Dünya Sağlık Örgütü (WHO), sağlık hizmetlerinde yapay zeka ile ilgili ilk raporunda herhangi bir yanlış bilgilendirme konusunda da uyarıda bulundu.


AB düzeyinde müzakerelerin son turları


AB, yıl sonuna kadar “Yapay Zeka Yönetmeliği”ni kabul etmeyi planlıyor. AI yönetmeliğinin geçen hafta Avrupa Parlamentosu tarafından kabul edilmesiyle birlikte müzakerelerin son aşaması başladı: Parlamento, AB Komisyonu ve üye devletler şu anda nihai versiyonu müzakere ediyor. Müzakerenin son aşamasında asıl endişe, AI yönetmeliğinin gereksinimleriyle birlikte küçük ve orta ölçekli şirketlerde gelişimi engellememesidir. Ayrıca planlanan Avrupa AI kodu, AI yönetmeliği yürürlüğe girene kadar başlatılacak.

Sağlık konusu muhtemelen tartışmalı uygulama alanlarından biri olacaktır. Çünkü milletvekilleri, sağlığı tehlikeye atabilecek yapay zeka sistemlerinin yüksek riskli uygulamalar olarak kabul edilmesini ancak son dakikada sağladı. Bunlara cerrahi robotlar ve aynı zamanda biyomedikal dil modelleri dahildir.

Yüksek riskli uygulamalar olarak, sağlayıcıların gelecekte sağlık ve güvenlik risklerini değerlendirmesi ve azaltması ve modellerini AB’de kullanıma sunulmadan önce uygun bir AB veri tabanına kaydetmesi gerekecektir. Bu tür modellere dayalı üretici yapay zeka sistemleri de şeffaflık gereksinimlerini karşılamalı ve yasa dışı içerik oluşturulmamasını sağlamalıdır. Bu, örneğin, verilerin kalitesinin ve kaynağının belgelenmesini ve tahminin doğruluğu hakkında beyanlarda bulunulmasını içerir.


(mak)



Haberin Sonu