Yapay zeka (AI) teoriden gerçeğe geçiş yaptığından beri, dünya çapındaki araştırma ve geliştirme merkezleri bir sonraki büyük AI atılımını bulmak için acele ediyor.
Bu yarışmaya bazen “AI yarışı” denir. Ancak pratikte, farklı hedeflere doğru giden yüzlerce “AI yarışı” vardır. Örneğin, bazı araştırma merkezleri dijital pazarlama AI üretmek için yarışırken, diğerleri AI ile askeri donanımları eşleştirmek için yarışıyor. Bazı yarışlar özel şirketler arasında, bazıları ise ülkeler arasındadır.
AI araştırmacıları seçtikleri yarışı kazanmak için yarıştıkları için, rakiplerinin önüne geçmek için güvenlik endişelerini gözden kaçırabilirler. Ancak düzenlemeler yoluyla güvenlik uygulaması geliştirilmemiştir ve AI’yı düzenleme konusundaki isteksizlik aslında haklı olabilir: AI’nın insanlığa sağlayabileceği faydaları azaltarak yeniliği boğabilir.
Meslektaşımız Francisco C. Santos ile birlikte yürüttüğümüz son araştırmamız , güvenlik nedenleriyle hangi AI yarışlarının düzenlenmesi gerektiğini ve hangilerinin inovasyonu boğmaktan kaçınmak için düzenlemeden çıkarılması gerektiğini belirlemeye çalıştı. Bunu bir oyun teorisi simülasyonu kullanarak yaptık.
AI üstünlüğü
Yapay zekanın düzenlenmesi, teknolojinin zararlarını ve faydalarını göz önünde bulundurmalıdır. Düzenlemenin kanunlaştırmaya çalışabileceği zararlar arasında yapay zekanın dezavantajlı topluluklara karşı ayrımcılık yapma potansiyeli ve otonom silahların geliştirilmesi yer alıyor . Ancak, daha iyi kanser teşhisi ve akıllı iklim modellemesi gibi AI’nın faydaları, AI düzenlemesi çok ağırsa mevcut olmayabilir. Mantıklı AI düzenlemesi, faydalarını en üst düzeye çıkaracak ve zararlarını azaltacaktır.
Ancak ABD , “AI üstünlüğü” elde etmek için Çin ve Rusya ile rekabet ederken – rakiplere göre açık bir teknolojik avantaj – düzenlemeler şimdiye kadar arka koltukta kaldı. BM’ye göre bu, bizi “ kabul edilemez ahlaki topraklara ” itti.
AI araştırmacıları ve AB gibi yönetişim organları, etik olmayan AI gelişimini önlemek için acil düzenlemeler çağrısında bulundular. Yine de AB’nin konuyla ilgili beyaz kitabı , yönetişim organlarının hangi AI yarışının etik olmayan AI ile, hangilerinin faydalı AI ile biteceğini bilmenin zor olduğunu kabul etti.
İleriye bakmak
Düzenleme için hangi AI yarışlarına öncelik verilmesi gerektiğini bilmek istedik, bu nedenle ekibimiz varsayımsal AI yarışlarını simüle etmek için teorik bir model oluşturdu. Daha sonra bu simülasyonu yüzlerce yinelemede çalıştırdık, gerçek dünyadaki AI yarışlarının nasıl sonuçlanabileceğini tahmin etmek için değişkenleri değiştirdik.
Modelimiz, örneğin farklı teknoloji şirketleri gibi, bir AI yarışındaki rakipleri temsil eden bir dizi sanal aracı içerir. Her ajana, bu rakiplerin gerçek bir AI yarışında nasıl davranacağını taklit eden rastgele bir davranış atandı. Örneğin, bazı aracılar tüm verileri ve yapay zeka tuzaklarını dikkatle değerlendirirken bazıları bu testleri atlayarak gereksiz riskler alır.
Modelin kendisi, geçmişte davranışların toplumlar, insanlar ve hatta genlerimiz ölçeğinde nasıl geliştiğini anlamak için kullanılan evrimsel oyun teorisine dayanıyordu . Model, biyologların evrimde gerçekleştiğini iddia ettiği gibi, belirli bir oyunda – bizim durumumuzda bir AI yarışında – kazananların tüm faydaları aldığını varsayar.
Simülasyonumuza düzenlemeler ekleyerek – güvenli olmayan davranışları onaylayarak ve güvenli davranışları ödüllendirerek – hangi düzenlemelerin faydaları en üst düzeye çıkarmada başarılı olduğunu ve hangilerinin inovasyonu boğduğunu gözlemleyebiliriz.
yönetim dersleri
Özellikle önemli bulduğumuz değişken, yarışın ” uzunluğu “ydu – simüle edilmiş yarışlarımızın amaçlarına (işlevsel bir AI ürünü) ulaşmak için geçen süre. AI yarışları hedeflerine hızlı bir şekilde ulaştığında, güvenlik önlemlerini her zaman gözden kaçırmak için kodladığımız rakiplerin her zaman kazandığını gördük.
Bu hızlı AI yarışlarında veya “AI sprintlerinde”, rekabet avantajı hızlı olmakla kazanılır ve güvenliği ve etiği düşünmek için duraklayanlar her zaman kaybeder. Bu AI sprintlerini düzenlemek mantıklı olacaktır, böylece sonuçlandıkları AI ürünleri güvenli ve etik olacaktır.
Öte yandan, simülasyonumuz, uzun vadeli AI projelerinin veya “AI maratonlarının” daha az acil olarak düzenleme gerektirdiğini buldu. Bunun nedeni, AI maratonlarının kazananlarının her zaman güvenliği gözden kaçıranlar olmamasıydı. Ayrıca, AI maratonlarını düzenlemenin potansiyellerine ulaşmalarını engellediğini gördük. Bu, boğucu bir aşırı düzenlemeye benziyordu – aslında toplumun çıkarlarına karşı işleyebilecek türden.
Bu bulgular göz önüne alındığında, düzenleyicilerin, beklenen zaman çizelgelerine göre farklı düzenlemeler uygulayarak farklı AI yarışlarının ne kadar süreceğini belirlemeleri önemli olacaktır. Bulgularımız, sprintlerden maratonlara kadar tüm AI yarışları için tek bir kuralın ideal olmaktan uzak bazı sonuçlara yol açacağını gösteriyor.
İnsanlığa fayda sağlayabilecek yapay zekayı desteklerken, etik olmayan ve tehlikeli yapay zekadan kaçınmak için akıllı, esnek düzenlemeleri bir araya getirmek için çok geç değil. Ancak bu tür düzenlemeler acil olabilir: simülasyonumuz, en kısa sürede sona erecek olan AI yarışlarının düzenlenmesi için en önemli olacağını gösteriyor.