Yapay bir süper zekanın icadı, en azından 19. yüzyıldan beri bilimkurguda merkezi bir tema olmuştur. EM Forster’ın The Machine Stops (1909) adlı kısa öyküsünden HBO’nun son televizyon dizisi Westworld’e kadar, yazarlar bu olasılığı tam bir felaket olarak tasvir etme eğilimindeler. Ancak bu konu artık bir kurgu değil. Önde gelen çağdaş bilim adamları ve mühendisler, artık süper yapay zekanın bir gün insan zekasını (“tekillik” olarak bilinen bir olay) aşabileceğinden ve insanlığın “ en kötü hatası ” olabileceğinden endişe duyuyorlar.

Süper yapay zekanın yükselişini nasıl durdurabilir?

Mevcut eğilimler, böyle bir teknoloji için uluslararası bir silahlanma yarışına girmeye hazır olduğumuzu gösteriyor . Hangi yüksek teknoloji firması veya devlet laboratuvarı, ilk süper yapay zekayı icat etmeyi başarırsa, potansiyel olarak dünyaya hakim bir teknoloji elde edecektir. Kazanan her şeyi alır bir ödüldür. Dolayısıyla, böyle bir olayı durdurmak isteyenler için soru, bu tür silahlanma yarışının nasıl caydırılacağı veya en azından rakip takımların AI güvenliği ile köşeleri kesmemeleri için nasıl teşvik edileceğidir.

Filozof Nick Bostrom ve diğerlerinin de belirttiği gibi, bir süper yapay zeka, mucitleri için iki temel zorluğu beraberinde getirir. Biri, süper yapay zekanın insanlıkla aynı hedeflere sahip olduğundan nasıl emin olunacağıyla ilgili bir kontrol sorunudur. Bu olmadan, istihbarat kasıtlı olarak, kazayla veya ihmal yoluyla insanlığı yok edebilir – bir “AI felaketi”.

İkincisi, bir süper-zekanın faydalarının sadece küçük bir seçkinlere gitmemesinin, büyük sosyal ve servet eşitsizliklerine neden olmamasının nasıl sağlanacağı siyasi bir sorundur. Bir süper AI silahlanma yarışı meydana gelirse, rekabet eden grupların teknolojilerini daha hızlı geliştirmek için bu sorunları görmezden gelmesine yol açabilir. Bu, düşük kaliteli veya düşmanca bir süper AI’ya yol açabilir.

Önerilen bir çözüm , yarışan grupların sayısını azaltmak ve katılanların yeteneklerini geliştirmek için yarışa girmeyi zorlaştırmak için kamu politikasını kullanmaktır. Ne kadar az rekabet ederse, kazanmak için köşeleri kesmek için o kadar az baskı olacaktır. Ancak hükümetler rekabeti bu şekilde nasıl azaltabilir?

Meslektaşım Nicola Dimitri ve ben yakın zamanda bu soruyu yanıtlamaya çalışan bir makale yayınladık . İlk olarak, ilk süper yapay zekayı inşa etme yarışı gibi tipik bir kazananın tümünü alır yarışında, yalnızca en rekabetçi takımların katılacağını gösterdik. Bunun nedeni, süper yapay zekayı gerçekten icat etme olasılığının çok düşük olması ve gerekli araştırma ve geliştirme yatırımları nedeniyle yarışa girmenin çok pahalı olmasıdır.

Gerçekten de, daha basit “dar” AI’nın geliştirilmesiyle mevcut durum bu gibi görünüyor. Bu tür AI için patent başvurularına birkaç firma hakimdir ve AI araştırmalarının büyük bir kısmı sadece üç bölgede (ABD, Çin ve Avrupa) yapılmaktadır. Ayrıca şu anda bir süper yapay zeka inşa etmeye yatırım yapan çok az sayıda grup var gibi görünüyor .

Bu, rekabet eden grupların sayısını azaltmanın şu anda en önemli öncelik olmadığını gösteriyor. Ancak yarışta daha az sayıda yarışmacı olsa bile, rekabetin yoğunluğu yine de yukarıda belirtilen sorunlara yol açabilir. Bu nedenle, bir süper yapay zeka inşa etmeye ve yeteneklerini artırmaya çalışan gruplar arasındaki rekabetin yoğunluğunu azaltmak için hükümetler kamu alımlarına ve vergilere yönelebilir.

Kamu alımları , devlet kurumlarında kullanım için yazılımlardan hizmetleri yürütmek için sözleşmelere kadar, hükümetlerin özel şirketlere sağlamaları için ödediği her şeyi ifade eder. Hükümetler, potansiyel sorunları ele almalarını ve insan zekasını geliştirmek ve onu AI ile entegre etmek için tamamlayıcı teknolojileri desteklemelerini gerektiren herhangi bir süper AI tedarikçisine kısıtlamalar getirebilir.

Ancak hükümetler, silahlanma yarışında etkin bir “ikinci ödül” yaratarak ve kazananın her şeyi aldığı bir rekabet olmasını engelleyerek, süper yapay zekanın en iyi olmayan versiyonunu satın almayı da teklif edebilir. Bir süper AI’ya yakın (ama tam olarak değil) bir şey icat etmek için olabilecek bir ara ödül ile, rekabet eden gruplar, rekabetin yoğunluğunu azaltarak daha fazla yatırım yapma ve işbirliği yapma teşvikine sahip olacaklar. İkinci bir ödül aynı zamanda başarısızlık riskini azaltacak ve daha fazla yatırımı haklı çıkararak rakip takımların yeteneklerinin artmasına yardımcı olacaktır.

Vergilere gelince, hükümetler, yapay zekanın ne kadar dost canlısı veya düşmanca olduğuna göre süper yapay zekayı icat eden grup üzerindeki vergi oranını belirleyebilir. Yeterince yüksek bir vergi oranı, esasen süper yapay zekanın kamulaştırılması anlamına gelir. Bu, özel firmaları, ürünlerini devlete kaptırma korkusuyla köşeleri kesmekten şiddetle caydırır.

Özel tekel değil kamu yararı

Bu fikir, vergilendirmenin daha iyi küresel koordinasyonunu ve süper yapay zekanın düzenlenmesini gerektirebilir. Ancak tüm hükümetlerin dahil olması gerekmez. Teoride, tek bir ülke veya bölge (AB gibi), süper yapay zekanın sorunları ve etiğinin üstesinden gelmenin maliyetini ve çabasını üstlenebilir. Ancak tüm ülkeler bundan fayda sağlayacak ve süper yapay zeka durdurulamaz bir özel tekel olmaktan ziyade bir kamu malı haline gelecekti.

Elbette tüm bunlar, süper yapay zekanın aslında insanlık için bir tehdit olmasına bağlı. Ve bazı bilim adamları bunun olacağını düşünmüyor. Zamanla süper yapay zekanın risklerini doğal olarak ortadan kaldırabiliriz. Bazıları, insanların AI ile birleşebileceğini bile düşünüyor .

Durum ne olursa olsun, gezegenimiz ve sakinleri , hala emekleme aşamasında olan bir teknoloji olan AI’dan en iyi şekilde yararlanmamızı sağlamaktan büyük ölçüde faydalanacak . Bunun için hükümetin nasıl bir rol oynayabileceğini daha iyi anlamamız gerekiyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir