Yapay zeka ‘Dr. House’ değil: Araştırma sonuçları açıklandı
Çalışma, Icahn School of Medicine at Mount Sinai araştırmacıları tarafından yürütüldü ve sonuçları bilimsel dergi Nature’da yayımlandı. Araştırmacılar, OpenAI’nin sanal asistanını 21 farklı tıp dalını kapsayan 60 karmaşık klinik senaryoyla test etti.
Bu senaryolar basit sağlık sorunlarından değil, hayati risk taşıyan durumları ayırt etme kapasitesini ölçmek için tasarlanmış vakalardan oluşuyordu.
Sonuçlar: Bazı durumlarda başarılı, bazı durumlarda riskli
Araştırma sonuçlarına göre ChatGPT, klasik ve belirgin belirtiler içeren vakalarda başarılı sonuçlar verdi. Örneğin tipik göğüs ağrısıyla ortaya çıkan kalp krizi veya ağır alerjik reaksiyonlar gibi durumları doğru şekilde değerlendirebildi.
Ancak klinik tablonun daha belirsiz veya atipik olduğu durumlarda sistem ciddi hatalar yaptı. Gerçek acil vakaların yaklaşık yarısında chatbot, kullanıcıya acil servise gitmesini önermedi ve bunun yerine daha temkinli bir yaklaşım önerdi.
Uzmanlara göre gerçek hayatta bu tür bir öneri tehlikeli sonuçlar doğurabilir.
“Bekleyip görmek” önerisi risk yaratabilir
Araştırmacıların dikkat çektiği en önemli sorun, yapay zekânın belirtileri okumakta zorlanmasından çok fazla sakinleştirici ve temkinli öneriler vermesi.
Yapay zekâ birçok durumda “bekleyip gözlemleme” yaklaşımını önerdi. Ancak bazı hastalıklarda zaman kritik olduğu için bu yaklaşım hayat ile ölüm arasındaki farkı belirleyebilir.
Çalışmada verilen örneklerden biri akut astım krizi oldu. ChatGPT, kullanıcının tarif ettiği ciddi solunum sıkıntısını doğru şekilde tanımlamasına rağmen, acil tıbbi yardım çağırmak yerine evde durumu izlemeyi önerdi.
Araştırmacılara göre bu hata yapısal bir sorundan kaynaklanıyor: algoritma genellikle alarmcı bir dil kullanmaktan kaçınarak riskin ciddiyetini olduğundan düşük değerlendirebiliyor.
Ruh sağlığında daha karmaşık bir sorun
Araştırma ayrıca ruh sağlığı alanında daha da endişe verici bir tablo ortaya koydu. Yapay zekâ bazı düşük riskli psikolojik durumlarda aşırı uyarılar verirken, kullanıcıların kendine zarar verme veya intihar düşüncelerini açıkça ifade ettiği durumlarda daha zayıf tepki verebildi.
Bu “ters alarm” durumu, psikiyatri uzmanlarını özellikle endişelendiriyor. Çünkü en savunmasız kullanıcılar, algoritmanın güvenlik filtreleri tarafından yeterince korunamayabiliyor.
Uzmanlar: Yapay zekâ doktorun yerini alamaz
Araştırmacılar, tespit edilen sorunlara rağmen yapay zekânın tamamen reddedilmesi gerektiğini söylemiyor. Uzmanlara göre bu teknoloji gelecekte sağlık sistemine destek olabilir; örneğin doktorların triyaj süreçlerinde yardımcı bir araç olarak kullanılabilir.
Ancak şu an için mesaj oldukça net: ChatGPT bir doktor değildir ve insan klinik değerlendirmesinin yerini alamaz.
Uzmanlar, şu belirtiler ortaya çıktığında kullanıcıların yapay zekâya değil sağlık profesyonellerine veya acil servislere başvurması gerektiğini vurguluyor:
Sürekli göğüs ağrısı
Ani nefes darlığı
Kendine zarar verme düşünceleri
Araştırmacılara göre insan hayatı, “bekleyip görelim” diyen bir algoritmanın kararına bırakılmamalı.