Yapay zeka, akıllı telefonlarımızda, evlerimizde, arabalarımızda hayatımıza birçok şekilde giriyor. Bu sistemler insanların randevu almasına, araba kullanmasına ve hatta hastalıkları teşhis etmesine yardımcı olabilir. Ancak yapay zeka sistemleri insanların yaşamlarında önemli ve işbirlikçi rollere hizmet etmeye devam ederken, doğal bir soru şudur: Onlara güvenebilir miyim? Beklediğim şeyi yapacaklarını nereden bileceğim?
Açıklanabilir AI (XAI), yapay ajanların insan kullanıcıları için nasıl daha şeffaf ve güvenilir hale getirilebileceğini inceleyen bir AI araştırması dalıdır. Robotlar ve insanlar birlikte çalışacaksa, güvenilirlik esastır. XAI, tasarlanmış görevleri yerine getirmek için iyi performans gösterirken, insanların güvenilir bulduğu yapay zeka sistemleri geliştirmeyi amaçlar.
UCLA’daki Vizyon, Biliş, Öğrenme ve Özerklik Merkezi’nde biz ve meslektaşlarımız, makineleri hangi faktörlerin daha güvenilir hale getirdiği ve farklı öğrenme algoritmalarının güveni ne kadar iyi sağladığıyla ilgileniyoruz . Laboratuvarımız, insanlar tarafından daha kolay anlaşılabilen bir tür bilgi temsili (bir yapay zekanın çevresini yorumlamak ve karar vermek için kullandığı bir dünya modeli) kullanır. Bu, doğal olarak açıklamaya ve şeffaflığa yardımcı olur, böylece insan kullanıcıların güvenini artırır.
En son araştırmamızda , bir robotun eylemlerini bir insan gözlemciye açıklayabileceği farklı yollar denedik. İlginç bir şekilde, en fazla insan güvenini besleyen açıklama biçimleri, en iyi görev performansını üreten öğrenme algoritmalarına karşılık gelmiyordu. Bu, performansın ve açıklamanın doğal olarak birbirine bağlı olmadığını gösterir – tek başına biri için optimizasyon yapmak, diğeri için en iyi sonuca yol açmayabilir. Bu farklılık, hem iyi görev performansını hem de güvenilir açıklamaları dikkate alan robot tasarımlarını gerektirmektedir.
Robotları öğretmek
Bu çalışmayı üstlenirken grubumuz iki şeyle ilgilendi. Bir robot belirli bir görevi yerine getirmeyi en iyi nasıl öğrenir? Peki, insanlar robotun eylemlerine ilişkin açıklamasına nasıl tepki veriyor?
Bir robota, güvenlik kilidi olan bir ilaç şişesinin nasıl açılacağını insan gösterilerinden öğrenmeyi öğrettik. Bir kişi, şişeyi açarken insan elinin duruşlarını ve kuvvetlerini kaydeden dokunsal bir eldiven giydi. Bu bilgi, robotun insanın ne yaptığını iki şekilde öğrenmesine yardımcı oldu: sembolik ve dokunsal. Sembolik, eylemlerinizin anlamlı temsillerini ifade eder: örneğin, “kavramak” kelimesi. Haptik, vücudunuzun duruşları ve hareketleriyle ilişkili hisleri ifade eder: örneğin, parmaklarınızın birbirine kapanması hissi.
İlk olarak robot, şişeyi açma görevini tamamlamak için gereken adımların sırasını kodlayan sembolik bir model öğrendi. İkincisi, robot kendini insan gösterici rolünde “hayal etmesine” ve bir kişinin belirli pozlar ve kuvvetlerle karşılaştığında ne yapacağını tahmin etmesine olanak tanıyan bir dokunsal model öğrendi.
Robotun, sembolik ve dokunsal bileşenleri birleştirirken en iyi performansını elde edebildiği ortaya çıktı. Robot, görevi gerçekleştirmek için adımların bilgisini kullanarak ve kavrayıcısından gerçek zamanlı algılamayı tek başına kullanmaktan daha iyi yaptı.
İnsan güvenini kazanmak
Artık robot ne yapacağını bildiğine göre, davranışını bir insana nasıl açıklayabilir? Ve bu açıklama insan güvenini ne kadar iyi besliyor?
Robot, eylemlerini açıklamak için davranışının yanı sıra kendi iç karar sürecini de kullanabilir. Sembolik model, robotun eylemlerinin adım adım açıklamalarını sağlar ve dokunsal model, robot kavrayıcının “hissettiği” bir fikir sağlar.
Deneyimizde, insanlar için ek bir açıklama ekledik: robot ilaç şişesini açma girişimini bitirdikten sonra bir özet sağlayan bir metin yazısı. Özet açıklamaların, insan güvenini kazanmak için adım adım sembolik açıklama kadar etkili olup olmayacağını görmek istedik.
Dört gruba ayrılan 150 insan katılımcıdan ilaç şişesini açmaya çalışan robotu gözlemlemelerini istedik. Robot daha sonra her gruba görevin farklı bir açıklamasını yaptı: sembolik, adım adım, haptik – kol pozisyonları ve hareketleri, metin özeti veya sembolik ve haptik birlikte. Bir temel grup, herhangi bir ek açıklama yapmadan, yalnızca robotun şişeyi açmaya çalıştığı bir videoyu izledi.
Hem sembolik hem de dokunsal açıklamaların sağlanmasının en fazla güveni beslediğini ve sembolik bileşenin en fazla katkıda bulunduğunu bulduk. İlginç bir şekilde, bir metin özeti biçimindeki açıklama, robotun görevi yerine getirmesini izlemekten daha fazla güven uyandırmadı; bu, insanların robotların yaptıklarına ilişkin adım adım açıklamalar vermesini tercih ettiğini gösteriyor.
Hem performans hem de güven için tasarım
Bu araştırmanın en ilginç sonucu, robotların iyi performans göstermesini sağlayan şeyin, insanların onları güvenilir olarak görmesini sağlayan şeyin aynı olmamasıdır. Robot, en iyi işi yapmak için hem sembolik hem de dokunsal bileşenlere ihtiyaç duyuyordu. Ancak insanların robota en çok güvenmesini sağlayan sembolik açıklamaydı.
Bu farklılık, gelecekteki yapay zeka ve robotik araştırmaları için önemli hedeflerin altını çiziyor: hem görev performansının hem de açıklanabilirliğin peşinden koşmaya odaklanmak. Sadece görev performansına odaklanmak kendini iyi anlatan bir robota yol açmayabilir. Laboratuvarımız, hem yüksek performans hem de güvenilir açıklamalar sağlamak için hibrit bir model kullanır.
Performans ve açıklama doğal olarak birbirini tamamlamaz, bu nedenle AI sistemleri oluştururken her iki hedefin de en baştan bir öncelik olması gerekir. Bu çalışma, insan-makine ilişkilerinin nasıl geliştiğini sistematik olarak incelemek için önemli bir adımı temsil ediyor, ancak daha yapılması gereken çok şey var. Gelecekteki araştırmalar için zorlu bir adım, “X yapmak için robota güveniyorum”dan “Robota güveniyorum”a geçmek olacaktır.
Robotların insanların günlük yaşamlarında yer edinebilmesi için insanların robotik muadillerine güvenmeleri gerekiyor. Robotların insan güvenini güçlendiren açıklamalar nasıl sağlayabileceğini anlamak, insanlarla robotların birlikte çalışmasını sağlama yolunda önemli bir adımdır.