Sağlık sektöründe hata yapma potansiyeli yüksek olan üretken yapay zeka araçlarının yaygın şekilde kullanılmaya başlanması, hekimler ve uzmanlar arasında giderek daha fazla endişe yaratıyor. Bu endişelerin temelinde, yapay zekaların "halüsinasyon" olarak bilinen ve gerçekte var olmayan bilgileri güvenilir gibi sunma eğilimi bulunuyor. Özellikle tıp alanında, bu tür hataların sonuçları çok daha ciddi olabiliyor. Son olarak, Google'ın sağlık odaklı yapay zeka modeli Med-Gemini ile ilgili yaşanan bir hata, bu sorunun ne kadar önemli olduğunu bir kez daha gösterdi.

Med-Gemini ve Var Olmayan Beyin Bölgesi Hatası

Google araştırmacıları, Mayıs 2024'te yayımladıkları bir makalede, Med-Gemini'nin radyoloji laboratuvarında beyin taramalarını analiz etme yeteneğini test etti. Model, sonuçlarından birinde "basilar ganglia" bölgesinden bahsetti. Ancak gerçekte böyle bir beyin bölgesi yok.

Tıp Alanında Yüksek Risk ve Uzman Görüşleri

Uzmanlar, bu tür hataların günlük internet aramalarında bilgi kirliliğine yol açabileceğini, ancak hastane ortamında sonuçlarının çok daha ağır olabileceğini vurguluyor. Providence sağlık sisteminin tıbbi bilgi direktörü Maulin Shahİki harf farkı ama çok büyük bir mesele. Bu tür hatalar son derece tehlikeli" dedi.

 


 

Çanakkale'de orman yangını! Alevler hastaneye yaklaştı
Çanakkale'de orman yangını! Alevler hastaneye yaklaştı
İçeriği Görüntüle

Kaynak: RSS