Dünyanın dört bir yanından diplomatlar, geçen hafta Cenevre’de Birleşmiş Milletler’in genellikle “katil robotlar” olarak adlandırılan ölümcül otonom silah sistemleri ( LAWS ) üzerine üçüncü Gayri Resmi Uzman Toplantısı için bir araya geldi.
Amaçları, HUKUK’un nasıl veya uluslararası insancıl hukuk kapsamında düzenlenmesi gerektiğine karar verme konusunda ilerleme kaydetmekti .
Toplantıda, Pakistan’ın tam bir yasaktan yana olmasından, İngiltere’nin HUKUK için yeni bir düzenleme olmamasına ve aradaki birkaç pozisyona kadar çeşitli görüşler dile getirildi.
Sunulan görüşlerin çeşitliliğine rağmen, bazı ortak noktalar vardı.
HUKUKLAR’ın uluslararası insancıl hukuk tarafından yönetildiği genel olarak kabul edilmektedir. Örneğin robotlar, siviller ve savaşçılar arasındaki ayrım ilkelerini veya saldırı ölçeğindeki orantılılığı görmezden gelemezler .
İnsan komutanlar, tıpkı kadın ve erkek hizmetlerinde olduğu gibi, robotları için de komuta sorumluluğuna sahip olacaktır. Robotlar, soykırım, katliam ve savaş suçlarını işlemek için yasal olarak kullanılamaz.
Bunun ötesinde, çeşitli ulusların aldığı genel olarak dört pozisyon vardır.
Konum 1: Mevcut yasalara güvenin
İngiltere’nin pozisyonu, mevcut uluslararası insancıl hukukun, yapay zeka ( AI ) ve robotikte ortaya çıkan teknolojileri düzenlemek için yeterli olduğu yönündedir .
Argüman, uluslararası insancıl hukukun, ortaya çıktıklarında uçakları ve denizaltıları düzenlemek için yeterli olduğu ve aynı zamanda birçok HUKUK türüyle de başa çıkacağıdır. Bu, bir grevin belirtilen angajman kurallarına ve uluslararası insancıl hukuka uygun olup olmadığını belirlemek için tasarlanmış bir yazılım olan “etik valiye” sahip Predator dronlarını veya ABD Donanması’nın deneysel otonom Sea Hunter’ı gibi otonom denizaltı karşıtı savaş gemilerini içerecektir. .
2. Konum: Makine öğrenimini yasaklayın
Fransız delegasyonu, yasağın “erken” olacağını ve “ daha geniş döngüde bir insan” ile “ döngü dışı ” bir YASALARIN yasallığını kabul etmeye açık olduklarını söyledi. Bu, makinenin hedefleri seçebileceği ve otonom olarak ateş edebileceği anlamına gelir, ancak insanlar hala angajman kurallarını belirler.
Ancak, (henüz mevcut olmayan) “döngü dışı” YASALAR kapsamında makine öğrenimini düzenlemeye açıktılar. Bu nedenle, yakın zamanda insan dünyası Go şampiyonunu yenen AlphaGo’ya benzer şekilde , daha geniş döngüde insanlar olmadan füzelerin doğrudan kontrolünde kendi kendine öğrenen herhangi bir AI’nın gelecekte yasaklanmasını destekleyebilirler . Asıl endişe, bu tür AI’ların tahmin edilemez olabileceğidir.
Pozisyon 3: ‘Geniş döngüde insan’ ile ‘döngü dışında’ yasaklayın
Hollandalı ve İsviçreli delegasyonlar, “daha geniş döngüde bir insan” ile “döngü dışı” sistemlerin uluslararası insancıl hukuka uygun olabileceğini, yeterince anlamlı insan kontrolü sergileyebileceğini ve kamu vicdanının emirlerini karşılayabileceğini önerdiler.
İngiltere, Fransa ve Kanada bu tür sistemlerin yasaklanmasına karşı çıktı.
Bu tür robotik silahların savunucuları, daha doğru, daha kesin ve panik veya intikamın neden olduğu kötü kararlara daha az eğilimli olacakları için insan askerlerden ahlaki olarak üstün olabileceklerini iddia ediyorlar.
Muhalifler, dağınık veya kapalı ortamlarda yanlış hedef gösterebileceklerini ve ahlaki olarak kabul edilemez olduklarını savunuyorlar.
Örneğin, Vatikan ve diğer 13 ulus , hayat alma kararında gerçek zamanlı bir insan müdahalesinin ahlaki olarak gerekli olduğunu düşünüyor, bu nedenle döngüde her zaman bir insan olmalı.
Bu konum, Phalanx Close-In Weapon System gibi halihazırda sahada bulunan “savunma” silahları ve 1860’lardan beri var olan deniz mayınları gibi uzun süredir kabul edilen “devre dışı” silahlar için istisnalar gerektiriyor.
Pozisyon 4: ‘Döngüde’ silahları yasaklayın
Pakistan ve Filistin, uzaktan kumandalı insansız hava araçlarını yasaklayacak kadar geniş her türlü önlemi destekleyecek. Bununla birlikte, çoğu ülke, dronların bir insan hakları felaketi olduğu konusunda hemfikir olsa da, insanlar hedefleri seçme ve meşgul etme kararları verirken, bunu LAWS tartışmasının kapsamının ötesinde görüyor.
Turing açısından çizgileri tanımlama
Resmi olarak, bir AI, çıktılar oluşturmak için sembolik girdilere mekanik olarak kurallar uygulayan bir Turing makinesidir .
Makine öğrenimi YASALARI yasağı, ölümcül kararlar almak için kendi kural kitaplarını güncelleyen yapay zekaların yasaklanmasıdır. “Geniş döngü” KANUNLARININ yasaklanması, ölümcül kararlar veren insan tarafından yazılmış bir kural kitabına sahip yapay zekaların yasaklanmasıdır. “Döngüde” YASALAR yasağı, insanlar tarafından yönlendirilen robotların silah olarak kullanılmasının yasaklanmasıdır.
Görüşler ayrıca Turing hesaplamasıyla kararların kontrolünün anlamlı mı yoksa insani olarak mı nitelendirildiği konusunda farklılık gösterir.
Sonraki adımlar
Cenevre toplantısı, tanımları netleştirmek ve bir anlaşmada nelerin (eğer varsa) yasaklanabileceği veya düzenlenebileceği konusunda fikir birliği sağlamak için gayri resmi bir uzman toplantısıydı. Bu nedenle, anlaşma metni üzerinde oylama yapılmadı.
En olası sonuç, tartışmalara devam etmek için bir hükümet uzmanları panelinin kurulmasıdır. AI, robotik ve LAWS hala geliştirilmektedir. Mevcut durumda, dünya, mevcut uluslararası insancıl hukuka dayanarak 1. Konumdadır.
Füzelerden sorumlu bir AlphaGo’nun ayrımcılık ve orantılılık gibi ilkelere uyması sağlandığında, bunun açıkça yasa dışı olmayacağı, sadece tartışmalı olduğu söylenebilir.