İnsanlar AI'ya güvenmiyor

 


Yapay zeka şimdiden geleceği tahmin edebiliyor. Polis güçleri, suçun ne zaman ve nerede meydana gelebileceğini haritalamak için kullanıyor. Doktorlar, bir hastanın kalp krizi veya felç geçirme olasılığının en yüksek olduğu zamanı tahmin etmek için bunu kullanabilir. Araştırmacılar, beklenmedik sonuçları planlayabilmesi için yapay zekaya hayal gücü vermeye bile çalışıyor.


İnsanlar AI'ya güvenmiyor



Hayatımızdaki birçok karar, iyi bir tahmin gerektirir ve AI ajanları, tahmin etmede neredeyse her zaman insan meslektaşlarından daha iyidir. Yine de tüm bu teknolojik gelişmelere rağmen , AI tahminlerine hala derinden güvenmiyor gibiyiz . Son vakalar , insanların yapay zekaya güvenmeyi sevmediğini ve bu uzmanlar yanlış olsa bile insan uzmanlara güvenmeyi tercih ettiğini gösteriyor.


Yapay zekanın insanlara gerçekten fayda sağlamasını istiyorsak, insanların ona güvenmesini sağlamanın bir yolunu bulmalıyız. Bunu yapmak için, insanların en başta yapay zekaya güvenmek konusunda neden bu kadar isteksiz olduklarını anlamamız gerekiyor.


Dr. Robot'a güvenmeli misiniz?


IBM'in süper bilgisayar programını kanser doktorlarına (Watson for Onology) tanıtma girişimi bir PR felaketiydi. Yapay zeka, dünyadaki vakaların %80'ini oluşturan 12 kanserin tedavisi konusunda en kaliteli tavsiyeleri sunmaya söz verdi. Bugün itibariyle, dünya çapında 14.000'den fazla hasta , hesaplamalarına dayalı olarak tavsiye aldı.


Ancak doktorlar Watson ile ilk etkileşime girdiklerinde kendilerini oldukça zor bir durumda buldular. Bir yandan Watson kendi fikirleriyle örtüşen bir tedavi konusunda yol gösterse de doktorlar Watson'ın tavsiyelerini pek değer görmedi. Süper bilgisayar onlara zaten bildiklerini anlatıyordu ve bu tavsiyeler asıl tedaviyi değiştirmedi. Bu, doktorlara kendi kararlarına daha fazla güvenmelerini sağlayarak biraz huzur vermiş olabilir. Ancak IBM, Watson'ın kanserde hayatta kalma oranlarını gerçekten iyileştirdiğine dair henüz kanıt sağlamadı .


Öte yandan, Watson uzmanların görüşüyle ​​çelişen bir öneride bulunursa, doktorlar genellikle Watson'ın yetkin olmadığı sonucuna varırdı. Ve makine, makine öğrenimi algoritmaları insanlar tarafından tam olarak anlaşılamayacak kadar karmaşık olduğu için, tedavisinin neden makul olduğunu açıklayamayacaktı . Sonuç olarak, bu daha fazla güvensizliğe ve güvensizliğe neden oldu ve birçok doktorun görünüşte tuhaf AI önerilerini görmezden gelmesine ve kendi uzmanlıklarına bağlı kalmasına neden oldu.


Sonuç olarak, IBM Watson'ın önde gelen tıbbi ortağı MD Anderson Kanser Merkezi, kısa süre önce programı bıraktığını duyurdu . Benzer şekilde, bir Danimarka hastanesinin kanser doktorlarının vakaların üçte ikisinden fazlasında Watson ile aynı fikirde olmadığını keşfettikten sonra AI programını bıraktığı bildirildi.


Watson for Oncology ile ilgili sorun, doktorların buna güvenmemeleriydi. İnsan güveni, genellikle diğer insanların nasıl düşündüklerine dair anlayışımıza ve onların güvenilirliği konusunda deneyim sahibi olmamıza dayanır. Bu psikolojik bir güvenlik hissi yaratmaya yardımcı olur . Öte yandan AI, çoğu insan için hala oldukça yeni ve tanıdık değil. Büyük miktarda veriden potansiyel olarak gizli kalıpları ve zayıf sinyalleri belirlemek için karmaşık bir analiz sistemi kullanarak kararlar alır.


Teknik olarak açıklanabilse bile (ki bu her zaman böyle olmaz), yapay zekanın karar verme süreci çoğu insanın anlaması için genellikle çok zordur . Anlamadığımız bir şeyle etkileşime geçmek endişeye neden olabilir ve kontrolü kaybediyormuş gibi hissetmemize neden olabilir. Çoğu insan, AI'nın gerçekte çalışan birçok örneğine aşina değildir, çünkü genellikle arka planda gerçekleşir.


Bunun yerine, AI'nın yanlış gittiği örneklerin kesinlikle farkındalar: renkli insanları goriller olarak sınıflandıran bir Google algoritması ; bir günden kısa bir süre içinde beyaz üstünlükçü olmaya karar veren bir Microsoft sohbet robotu ; otopilot modunda çalışan ve ölümcül bir kazaya neden olan bir Tesla arabası. Bu talihsiz örnekler, teknolojiye güvenemeyeceğimiz mesajını vurgulayarak orantısız miktarda medyanın ilgisini çekti. Makine öğrenimi, kısmen onu tasarlayan insanlar olmadığı için kusursuz değildir.


Toplumda yeni bir AI bölünmesi mi?


AI ile ilgili duygular da derinlere iner. Meslektaşlarım ve ben kısa bir süre önce, çeşitli geçmişlere sahip insanlardan AI hakkında çeşitli bilim kurgu filmleri izlemelerini istediğimiz ve ardından onlara günlük yaşamdaki otomasyon hakkında sorular sorduğumuz bir deney yürüttük. İzledikleri filmin yapay zekayı olumlu ya da olumsuz bir şekilde tasvir edip etmediğine bakılmaksızın, teknolojik geleceğimizin sinematik bir vizyonunu izlemenin katılımcıların tutumlarını kutuplaştırdığını bulduk. İyimserler, yapay zekaya olan coşkularında daha aşırı hale geldi ve şüpheciler daha da temkinli hale geldi.


Bu, insanların, doğrulama yanlılığı olarak bilinen köklü bir insan eğilimi olan mevcut tutumlarını desteklemek için yapay zeka hakkında ilgili kanıtları önyargılı bir şekilde kullandıklarını göstermektedir . AI medyada giderek daha fazla rapor edildiğinden ve temsil edildiğinden, AI'dan yararlananlar ve reddedenler arasında bölünmüş, derinden bölünmüş bir topluma katkıda bulunabilir. Daha yerinde olarak, yapay zekanın sunduğu avantajları kabul etmeyi reddetmek, büyük bir grup insanı ciddi bir dezavantaja sokabilir.


AI güven krizinden çıkmanın üç yolu


Neyse ki, AI'ya olan güveni nasıl geliştireceğimize dair bazı fikirlerimiz var. Çalışmamızda bulduğumuz gibi, yalnızca AI ile daha önce deneyim sahibi olmak, insanların teknolojiye karşı tutumlarını önemli ölçüde iyileştirebilir. Benzer kanıtlar , internet gibi diğer teknolojileri ne kadar çok kullanırsanız, onlara o kadar çok güvendiğinizi gösteriyor.


Başka bir çözüm, makine öğrenimi algoritmalarının "kara kutusunu" açmak ve nasıl çalıştıkları konusunda daha şeffaf olmak olabilir. Google , Airbnb ve Twitter gibi şirketler , hükümet talepleri ve gözetim açıklamaları hakkında şeffaflık raporları yayınlıyor. AI sistemleri için benzer bir uygulama, insanların alınan algoritmik kararları daha iyi anlamalarına yardımcı olabilir.


Araştırmalar, insanları AI karar verme sürecine daha fazla dahil etmenin de güveni artırabileceğini ve AI'nın insan deneyiminden öğrenmesine izin verebileceğini gösteriyor. Örneğin, bir çalışma , insanlara kararlarından daha memnun hissettikleri bir algoritmayı hafifçe değiştirme özgürlüğü verildiğini, daha üstün olduğuna inanma olasılıklarının ve gelecekte kullanma olasılıklarının daha yüksek olduğunu gösterdi.


Yapay zeka sistemlerinin karmaşık iç işleyişini anlamamıza gerek yok, ancak insanlara nasıl uygulandıkları hakkında en azından biraz bilgi ve kontrol verilirse, yapay zekayı hayatlarına kabul etmeye daha açık olacaklar.


Yorum Gönder

Daha yeni Daha eski