Yapay Zeka Sağlık Tavsiyelerine Güvenmek Ne Kadar Doğru? Uzmanlar Uyarıyor
ChatGPT ve Benzeri Araçlar Tıbbi Rehber Mi, Risk Mi?
İngiltere'de pratisyen hekime ulaşmanın zorlukları karşısında, ChatGPT, Gemini ve Grok gibi yapay zeka sohbet botları anında yanıt verme vaadiyle cazip görünüyor. Bu araçlar bazı tıbbi sınavları başarıyla geçmiş olsa da, uzmanlar güvenilirlikleri konusunda endişelerini dile getiriyor.
Kişisel Deneyimler: Hem Yardım Hem Yanılgı
Anksiyete ile mücadele eden Abi, sohbet botlarının internet aramalarına kıyasla daha kişiselleştirilmiş tavsiyeler sunduğunu belirtiyor. 'Birlikte problem çözmek gibi hissettiriyor' diyen Abi, idrar yolu enfeksiyonu şüphesinde ChatGPT'nin eczaneye gitmesini önerdiğini ve bu sayede antibiyotik reçetesi aldığını anlatıyor. Ancak Ocak ayında düşme sonrası yaşadığı deneyim farklıydı: ChatGPT ona bir organ delinmesi olduğunu ve acil servise gitmesi gerektiğini söyledi, ancak üç saatlik beklemenin ardından ağrısı azalan Abi evine döndü ve yapay zekanın yanıldığını fark etti.
Araştırmalar Ne Diyor? Doğruluk Oranları Endişe Verici
Oxford Üniversitesi'ndeki Reasoning with Machines Laboratuvarı'nın araştırmasına göre, doktorların tüm bilgileri eksiksiz verdiği durumlarda sohbet botlarının doğruluk oranı yüzde 95 iken, doktor olmayan 1.300 kişinin senaryoları aktardığı durumda bu oran yüzde 35'e düşüyor. Profesör Adam Mahdi, insanların bilgiyi parça parça aktarmasının ve bazı detayları atlamasının yanlış teşhislere yol açtığını vurguluyor. Örneğin, subaraknoid kanama gibi hayati bir durumda bile küçük ifade farklılıkları yanlış yönlendirmelere neden olabiliyor.
Uzman Görüşleri: Güvenilirlik İllüzyonu Tehlikesi
İngiltere'nin baş sağlık danışmanı Profesör Chris Whitty, yapay zeka tavsiyelerinin 'yeterince iyi olmadığını' ve çoğu zaman 'hem kendinden emin hem de yanlış' olduğunu belirtiyor. Glasgow'da pratisyen hekim Dr. Margaret McCartney ise sohbet botlarının kişisel bir ilişki hissi yaratarak bilgilerin yorumlanma biçimini değiştirdiğine dikkat çekiyor.
Yanlış Bilgi Riski: California Araştırması Çarpıcı Sonuçlar Verdi
The Lundquist Institute for Biomedical Innovation tarafından yapılan analiz, Gemini, DeepSeek, Meta AI, ChatGPT ve Grok gibi sistemlerin kanser, aşılar ve beslenme konularında verdiği yanıtların yarısından fazlasının problemli olduğunu ortaya koydu. Dr. Nicholas Tiller, bu sistemlerin kendinden emin ve otoriter yanıtlar vermek üzere tasarlandığını, bu nedenle güvenilirlik hissi yarattığını ancak kullanıcıların hataları ayırt edecek uzmanlığa sahip olmadığını vurguluyor.
OpenAI'nin Açıklaması ve Son Söz
ChatGPT'nin geliştiricisi OpenAI, sistemlerinin gerçek dünya sağlık değerlendirmelerinde güçlü performans gösterdiğini ancak profesyonel tıbbi tavsiyenin yerine kullanılmaması gerektiğini belirtiyor. Abi ise hâlâ sohbet botlarını kullandığını ancak 'her şeye biraz şüpheyle yaklaşılması' gerektiğini ve 'hata yapabileceklerini unutmamak' gerektiğini söylüyor.





