Birleşik Krallık’ta, intihar edenlerin dörtte biri önceki hafta bir sağlık uzmanıyla temas halindeydi ve çoğu geçen ay içinde biriyle konuştu. Yine de hasta intihar riskini değerlendirmek son derece zor olmaya devam etmektedir.
2021’de İngiltere’de intihar nedeniyle 5,219 ölüm kaydedildi . İngiltere ve Galler’de intihar oranı 1981’den bu yana yaklaşık %31 azalırken , bu düşüşün büyük kısmı 2000’den önce gerçekleşti. İntihar erkeklerde kadınlara göre üç kat daha yaygın, ve bu boşluk zamanla arttı.
Ekim 2022’de New South Wales Üniversitesi’ndeki Black Dog Enstitüsü tarafından yürütülen bir araştırma , yapay zeka (AI) modellerinin klinik risk değerlendirmelerinden daha iyi performans gösterdiğini buldu. 2002’den 2021’e kadar 56 çalışmayı araştırdı ve AI’nın intihar sonucu yaşayacak kişilerin %66’sını doğru tahmin ettiğini ve olmayacak kişilerin %87’sini tahmin ettiğini buldu. Karşılaştırıldığında, sağlık profesyonelleri tarafından gerçekleştirilen geleneksel puanlama yöntemleri, rastgele yöntemlerden yalnızca biraz daha iyidir .
AI, kanser gibi diğer tıbbi alanlarda geniş çapta araştırılmaktadır . Bununla birlikte, vaatlerine rağmen , zihinsel sağlık için AI modelleri henüz klinik ortamlarda yaygın olarak kullanılmamaktadır.
Son dakika haberleriyle ilgili değil. Asılsız görüşler hakkında değil.
İntihar tahmini neden bu kadar zor?
İsveç’teki Karolinska Enstitüsü’nün 2019 yılında yaptığı bir araştırma , son zamanlarda kendine zarar verme olaylarının kötü performans göstermesinden sonra intihar riskini tahmin etmek için kullanılan dört geleneksel ölçeği buldu. İntihar tahmininin zorluğu, hastanın niyetinin hızla değişebilmesi gerçeğinden kaynaklanmaktadır .
İngiltere’de sağlık profesyonelleri tarafından kullanılan kendine zarar verme kılavuzu, intihar riski değerlendirme araçlarına ve ölçeklerine güvenilmemesi gerektiğini açıkça belirtmektedir. Bunun yerine, profesyoneller klinik bir görüşme kullanmalıdır. Doktorlar yapılandırılmış risk değerlendirmeleri yaparken , kimin tedavi göreceğini belirlemek için bir ölçek sağlamak yerine görüşmelerden en iyi şekilde yararlanmak için kullanılırlar.
AI riski
Black Dog Enstitüsü’nden yapılan çalışma umut verici sonuçlar gösterdi, ancak geleneksel (AI olmayan) tahmine yönelik 50 yıllık araştırma, rastgele olandan yalnızca biraz daha iyi olan yöntemler verdiyse, AI’ya güvenip güvenmememiz gerektiğini sormamız gerekir. Yeni bir gelişme bize istediğimiz bir şeyi verdiğinde (bu durumda daha iyi intihar risk değerlendirmeleri), soru sormayı bırakmak cazip gelebilir. Ama bu teknolojiyi aceleye getirme lüksümüz yok. Yanlış anlamanın sonuçları kelimenin tam anlamıyla ölüm kalımdır.
AI modellerinin performanslarının nasıl değerlendirildiği de dahil olmak üzere her zaman sınırlamaları vardır . Örneğin, veri kümesi dengesizse, doğruluğu bir metrik olarak kullanmak yanıltıcı olabilir. Bir model, veri setindeki hastaların yalnızca %1’inin yüksek riskli olması durumunda intihar riskinin olmayacağını her zaman öngörerek %99 doğruluk sağlayabilir.
AI modellerini, eğitildikleri farklı veriler üzerinde değerlendirmek de önemlidir . Bu, modellerin eğitim materyalinden elde edilen sonuçları mükemmel bir şekilde tahmin etmeyi öğrenebileceği ancak yeni verilerle çalışmakta zorlanabileceği fazla uydurmayı önlemek içindir. Modeller geliştirme sırasında kusursuz çalışmış olabilir, ancak gerçek hastalar için yanlış teşhisler koyabilirler.
Örneğin, AI’nın melanomu (bir tür cilt kanseri) tespit etmek için kullanıldığında hastanın cildindeki cerrahi işaretlere fazla uyduğu bulundu . Doktorlar şüpheli lezyonları vurgulamak için mavi kalemler kullanıyor ve yapay zeka bu işaretleri daha yüksek bir kanser olasılığıyla ilişkilendirmeyi öğrendi. Bu, mavi vurgulama kullanılmadığında uygulamada yanlış tanıya yol açtı.
Ayrıca, belirli bir risk düzeyini neden tahmin ettiği gibi, AI modellerinin ne öğrendiğini anlamak da zor olabilir. Bu, genel olarak AI sistemleri ile ilgili üretken bir sorundur ve açıklanabilir AI olarak bilinen bütün bir araştırma alanına öncülük eder .
Kara Köpek Enstitüsü, analiz edilen 56 çalışmadan 42’sinin yüksek yanlılık riski taşıdığını tespit etti. Bu senaryoda, bir yanlılık, modelin ortalama intihar oranını az veya çok tahmin ettiği anlamına gelir. Örneğin, verilerde intihar oranı %1’dir, ancak model %5’lik bir oran öngörmektedir. Yüksek önyargı, ya yüksek riskli hastaları kaçırmak ya da düşük riskli hastalara aşırı risk atamak gibi yanlış tanıya yol açar.
Bu önyargılar, katılımcı seçimi gibi faktörlerden kaynaklanmaktadır. Örneğin, birkaç çalışmada yüksek vaka kontrol oranları vardı, bu da çalışmadaki intihar oranının gerçekte olduğundan daha yüksek olduğu anlamına geliyordu, bu nedenle AI modelinin hastalara çok fazla risk ataması muhtemeldi.
Umut verici bir görünüm
Modeller çoğunlukla elektronik sağlık kayıtlarından alınan verileri kullandı. Ancak bazıları görüşmelerden, öz bildirim anketlerinden ve klinik notlardan elde edilen verileri de içeriyordu. Yapay zekayı kullanmanın yararı, büyük miktarda veriden insanlardan daha hızlı ve daha verimli bir şekilde öğrenebilmesi ve aşırı çalışan sağlık profesyonellerinin kaçırdığı kalıpları tespit edebilmesidir.
İlerleme kaydedilirken, intiharı önlemeye yönelik yapay zeka yaklaşımı pratikte kullanılmaya hazır değil. Araştırmacılar, algoritmaların neden tahminlerde bulunduğunu açıklamanın ne kadar zor olduğu gibi, AI intiharı önleme modelleriyle ilgili birçok sorunu çözmek için halihazırda çalışıyorlar.
Bununla birlikte, intihar oranlarını düşürmenin ve hayat kurtarmanın tek yolu intihar tahmini değildir. Etkili bir müdahaleye yol açmazsa, doğru bir tahmin yardımcı olmaz .
Yapay zeka ile intihar tahmini tek başına her ölümü engellemeyecek. Ancak akıl sağlığı uzmanlarına hastalarına bakmaları için başka bir araç verebilir. Göz ardı edilen hastalar için alarm verirse, son teknoloji kalp ameliyatı kadar hayat değiştirebilir.