Yazı: 14:12 Editörden

Yapay Zekâ ve Tıp Arasındaki Sınırlar Yeniden Tartışma Konusu Oldu

Reddit’te paylaşılan gönderi sonrası AI destekli chatbotların tıbbi danışmanlıkları tartışma konusu oldu.

Reddit’te paylaşılan bir gönderi, yapay zekâ destekli sohbet robotlarının tıbbi danışmanlık alanındaki rolüne dair süregelen tartışmaları yeniden alevlendirdi. Bir kullanıcının, doktorların on yılı aşkın süredir teşhis edemediği bir sağlık sorununu ChatGPT sayesinde çözdüğünü iddia etmesiyle konu yeniden gündeme taşındı.

OpenAI Başkanı Greg Brockman tarafından da X platformunda paylaşılan gönderide, kullanıcı on yıldır açıklanamayan semptomlar yaşadığını ve bu süreçte sayısız omurga emarı, bilgisayarlı tomografi taraması, kan testi ve Lyme hastalığı kontrollerinden geçtiğini belirtti. Ancak sonuçsuz kalan bu arayış, kullanıcının laboratuvar sonuçları ile semptom geçmişini ChatGPT’ye aktarmasıyla farklı bir boyut kazandı.

Yapay zekâ, MTHFR genindeki A1298C mutasyonuna işaret etti. Bir doktor bu tanıyı doğruladı ve B12 takviyesi ile başlatılan tedavi, semptomların büyük ölçüde düzelmesini sağladı. Kullanıcı, “Doktor oldukça şaşkındı. Neden MTHFR mutasyonu testi yapmayı düşünmediklerini bilmiyorum,” ifadeleriyle süreci özetledi.

Bu örnek, yapay zekâ sistemlerinin tıpta nasıl tamamlayıcı bir rol oynayabileceğini gözler önüne sererken, aynı zamanda riskleri de yeniden gündeme getiriyor.

Genç Yetişkinler Sağlık İçin Yapay Zekâya Danışıyor

KFF Sağlık Bilgisi Anketi’ne göre, her altı yetişkinden biri her ay en az bir kez yapay zekâ sohbet robotlarından sağlıkla ilgili bilgi alıyor. Bu oran 18-29 yaş arası bireylerde yüzde 25’e kadar yükseliyor. 30-49 yaş grubunda yüzde 19, 50-64 yaş grubunda yüzde 15 ve 65 yaş üstü grupta ise yüzde 10 seviyesinde.

Ancak bu bilgilerin doğruluğuna güvenme oranı hâlâ düşük. Yapay zekâ kullanan bireylerin yüzde 56’sı elde ettikleri bilgilerin doğruluğundan emin olmadıklarını belirtiyor. 50 yaş altı bireyler ile siyahi ve Latin kökenli kullanıcılar, bu bilgilere daha fazla güvenme eğiliminde.

Danışmanlar Uyarıyor: “Düzenleyici Olmayan Bir Terapi Aracı”

Keystone Therapy Group danışmanlarından Kim Rippy’ye göre, bazı danışanlar yapay zekâ sistemlerini “alternatif terapi” aracı olarak kullanıyor. Özellikle dikkat eksikliği ve hiperaktivite bozukluğu yaşayan bireyler için, düşünceleri toparlamak ve anlamlandırmak adına ChatGPT faydalı olabiliyor.

Ancak Rippy’ye göre bu yaklaşımın sınırları var: “Yapay zekâ, dili, davranışları, jest ve mimikleri, tonlamayı ve duyguları bir insan terapist gibi algılayamaz. Zararlı düşünce kalıplarını sorgulamaz ve bireyin ne zaman risk altında olduğunu anlayamaz.”

Yapay zekâ tabanlı sohbet robotlarının, günlük düşünce düzenleme süreçlerinde yazı yazmak veya meditasyon yapmak gibi destekleyici araçlar olarak görülmesi gerektiğini vurguluyor.

Kullanıcılar Rahat, Ama Endişeler de Büyük

Iris Telehealth tarafından yapılan bir ankete göre, kullanıcıların yüzde 65’i yapay zekâ tabanlı değerlendirme araçlarını insan uzmanlardan önce kullanmakta rahat hissediyor. Ancak yüzde 70’lik kesim veri gizliliği ve güvenliğinden endişe ediyor. Ayrıca yüzde 55, yapay zekâ sistemlerinin sağlık durumlarını doğru değerlendirme yeteneğini sorguluyor.

Aile hekimi Dr. Angela Downey, bu araçların özellikle uzun süredir tanı alamayan hastalar için faydalı olabileceğini belirtiyor. Ancak şu uyarıyı da ekliyor: “Yapay zekâ, fiziksel muayene yapamaz, hastadaki ince işaretleri yakalayamaz ve gecikmeli teşhislerle risk yaratabilir. Liste sunabilir ama resmi bir teşhis için bir uzmanın değerlendirmesi gerekir.”

Yapay Zekâyla Doğru Tanı: Gerçek Bir Örnek

WitnessAI şirketinin Teknoloji Yöneticisi Gil Spencer ise yapay zekâyı hayat kurtarıcı bir çözüm olarak görüyor. Kayak yaparken dizinden sakatlanan Spencer, radyologların sonuçsuz kaldığı emar raporlarını kendi hazırladığı çok modlu yapay zekâ akışıyla ChatGPT’ye yükledi. Sonuç: “Büyük bir menisküs yırtığı” teşhisi kondu ve ön çapraz bağın sağlam olduğu belirtildi. Cerrahı bu tanıyı doğruladı.

Yapay zekânın tıpta artan etkisi, hem umut vadediyor hem de düzenleyici boşlukları gözler önüne seriyor. Özellikle doğru kullanılmadığında gecikmiş müdahalelere sebep olabilecek bu sistemler, bir uzmanla tamamlandığında güçlü bir destek aracına dönüşebilir. Gelecekte yapay zekânın tanı süreçlerinde yeri artacaksa, bu teknolojinin etik, güvenlik ve doğruluk ekseninde titizlikle yönlendirilmesi gerekecek.

Kapat