Yapay zeka (AI), çok uzak bir geleceği düşünmenizi sağlayan bir şey olabilir, ancak aslında zaten her yanımızda. Arabanızda, akıllı evinizde, telefonunuzda, bu şeyler bozulduğunda aradığınız müşteri destek hattının diğer ucunda, bankanızın web sitesinde, doktorunuzun ofisinde ve muhtemelen sizi izleyen güvenlik kameralarının arkasında bulabilirsiniz. gününüz hakkında. AI kaçınılmaz olabilir, ancak yasanın yapması gereken çok şey var. Bunu düzeltmek için Beyaz Saray, halkı yapay zekanın eylemlerinden korumayı amaçlayan bir ” AI Haklar Bildirgesi Planı ” olarak adlandırdığı şeyi yayınladı.
Biden Yönetimi’nin tasarısı bir başlangıç olsa da, kabulü karışık oldu. Yeterince ileri gittiğine inanmayan birçok kişi var. MIT Technology Review, konuyla ilgili “tutarlı federal politika eksikliğinden” yakınan Stanford İnsan Merkezli AI Enstitüsü’nün politika direktörü Russell Wald da dahil olmak üzere, katı mevzuatın eksikliğini vurgulayan bir dizi endüstri profesyonelinden alıntı yaptı.
Plan doğrudan “teknolojiyi, verileri ve otomatik sistemleri” “fırsatlarımızı sınırlamak ve kritik kaynaklara veya hizmetlere erişimimizi engellemekle” suçluyor. Belgede özetlenen öneriler, bununla mücadele etmeyi ve Amerikan vatandaşlarını bazı AI modellerinin sergilediği bilinen olumsuz özelliklerden korumayı amaçlıyor. Beyaz Saray’ın “AI Haklar Bildirgesi”nin cumhurbaşkanı tarafından yayınlanan bir yürütme emri veya hiçbir şekilde yasa olmadığını belirtmekte fayda var. Belge esasen Biden İdaresi’nin, milletvekillerinin gelecekte hazırlayabilecekleri AI ile ilgili mevzuat için bir çerçeve olarak kullanabilecekleri bir dizi tavsiyedir.
Tasarının duyarlı AI ile ilgisi yok
“Terminatör” serisinden, “The Matrix” veya “2001: A Space Odyssey”den bir film izlediyseniz, son derece gelişmiş bir haydut AI’nın potansiyel olarak neler yapabileceğinin farkında olabilirsiniz – ve yalnız olmazdınız. Elon Musk gibi önemli endüstri figürleri, Tesla kurucusunun BM’ye savaşta kullanımını yasaklaması için dilekçe vermesi ve kavramın çalışmasına adanmış kar amacı gütmeyen OpenAI’nin finanse edilmesine yardım etmesiyle birlikte, AI’nın tehlikeleri hakkında sık sık uyarıda bulundu.
Milyarder olmayanlar arasında da endişe var, SlashGear okuyucularının %43’ü duyarlı bir yapay zeka olasılığını endişe verici bulduklarını iddia ediyor . Belgenin hepimizi Skynet’ten kurtarmaya en yakın olduğu yer, “güvenli ve etkili sistemler” ile ilgili bir bölümdür: “Otomatik sistemler, güvenliğinizi veya topluluğunuzun güvenliğini tehlikeye atma niyetiyle veya makul olarak öngörülebilir bir olasılık ile tasarlanmamalıdır. “
Öte yandan, yapay zekanın kendisi için haklar sorunu da var ve yasa tasarısı bunu da ele almıyor. Son aylarda, kendi dilini geliştiren bir yapay zeka ve bir Google mühendisinin kendisine bir avukat tutacağı kadar ikna edici derecede duyarlı olan bir yapay zekamız oldu. Yine de bu plan yasa değil ve öyle olsaydı bile, duyarlı yapay zekanın hala herhangi bir yasal hakkı olmazdı.
Potansiyel ayrımcılık endişe verici
AI günlük yaşamın daha büyük bir parçası haline geldikçe, ayrımcılık gerçek bir endişe ve bu endişe temelsiz değil. AI’nın ırkçılık, cinsiyetçilik ve diğer ayrımcı özellikler sergilediği yıllar boyunca sayısız örnek olmuştur. Yakın tarihli bir örnek, Johns Hopkins Üniversitesi, Georgia Teknoloji Enstitüsü ve Washington Üniversitesi tarafından yürütülen bir çalışmayı içermektedir. Çalışmada kullanılan yapay zeka, bir yapay zekaya durumlara nasıl tepki vereceğini ve bu durumlar arasında nasıl gezineceğini öğretmek için internet gibi büyük bir veri kaynağından bilgi çeken bir sinir ağı modeli kullanılarak eğitildi. Araştırmayı yürüten araştırmacıların bulduğu şey, kadınları “ev kadını”, Siyah erkekleri “suçlu” ve Latin erkekleri “temizlikçi” olarak tanımlayan bir yapay zekaydı.
Plan, “algoritmik ayrımcılık” olarak adlandırdığı şeyin ana hatlarını çiziyor ve bunu, bir birey veya grubun, “yasayla korunan birçok sınıflandırma”dan biri nedeniyle haksız bir şekilde dışlanması ve ayrımcılığa uğraması olarak tanımlıyor. Bu sınıflandırmalar ırk, milliyet, gazilik durumu, cinsellik ve engellilik gibi şeyleri içerir. Öneriye devam ediyor: “Otomatik sistemlerin tasarımcıları, geliştiricileri ve uygulayıcıları, bireyleri ve toplulukları algoritmik ayrımcılıktan korumak ve sistemleri adil bir şekilde kullanmak ve tasarlamak için proaktif ve sürekli önlemler almalıdır.”
Verileri koruma ve insanları bilgilendirme girişimi var
Planın bütün bir bölümü, verilerin nasıl toplandığı ve kullanıldığı ile ilgilidir. Veri koruma bölümünün büyük bir kısmı, şirketlerin toplayabilecekleri verileri sınırlamaya yöneliktir. AI Haklar Bildirgesi, gerekli işlevleri yerine getirmek için gereken minimum miktarla sınırlandırılmasını önerir. Ayrıca, başucunda gözlerini kırpıştıran bir ev asistanı olan herkes için ilginç olması gereken gözetime atıfta bulunan bir bölüm de var. Şöyle diyor: “Sürekli gözetim ve izleme, eğitimde, işte, barınmada veya bu tür gözetim teknolojilerinin kullanımının hakları, fırsatları veya erişimi sınırlandırması muhtemel olan diğer bağlamlarda kullanılmamalıdır.”
Şirketlerin ayrıca bir yapay zekanın neden kullanıldığı ve sizi nasıl etkileyebileceği konusunda bildirimde bulunma zorunluluğu da vardır. Bildirim bölümü, bir karar veren bir AI’nın bu karara nasıl ve neden ulaşıldığını da açıklamasını öneriyor gibi görünüyor. Bu kısım, faturanın geri kalanını çok daha uygulanabilir kıldığı için mantıklı. Uç bir örnek olarak, eğer bir yapay zeka ırkçı olsaydı, kararını “çünkü X ten renginiz” diyerek haklı gösterip göstermediğini anlamak çok daha kolay olurdu. Sorun daha sonra işaretlenebilir. Bir battaniye “hayır”, insanları başka faktörlerin bir sonuca yol açtığını varsaymasına ve sorunların çok daha uzun süre kontrolsüz kalmasına izin verebilir.
AI tüm işlerimizi almayabilir
Çerçevenin bir bölümünden iki grup insan mutlu olabilir. AI’nın herkesin işini elinden alacağından endişe edenler ve telefonda otomatik sistemlerle konuşmaya tahammül edemeyen insanlar, AI Haklar Bildirgesi’nin yasalaşması durumunda kutlama yapmak için bir neden olabilir. Bölümlerden biri, “uygun olduğunda” bir “insan alternatifinin” mevcut olması gerektiğini belirtir. En iyi ihtimalle bu, bir yapay zekaya, işler sinir bozucu hale gelirse sizi canlı bir organizmadan geçirmesini söyleyebileceğiniz anlamına gelebilir. Bu bölümün daha muhafazakar bir okuması, bunun sadece bir AI’nın kararının asla nihai olamayacağı anlamına geldiğini ve bir kişiden durumu gözden geçirmesini ve gerekirse AI’nın seçimini geçersiz kılmasını isteme seçeneğine sahip olmanız gerektiği anlamına gelir. Ayrıca, dahil olan insanların kendi rolleri için uygun eğitim almaları gerektiğini belirtir.
Gerçekten önemli kararlar için, yasa tasarısının dediği gibi, “Ceza adaleti, istihdam, eğitim ve sağlık dahil ancak bunlarla sınırlı olmamak üzere hassas alanlarda kullanım amacı olan otomatik sistemler ayrıca uyarlanmalıdır” diye sormanız bile gerekmeyebilir. amaca uygun, gözetim için anlamlı erişim sağlayın, sistemle etkileşime giren herhangi bir kişi için eğitimi dahil edin ve olumsuz veya yüksek riskli kararlar için insan değerlendirmesini dahil edin.”
AI Haklar Bildirgesi’nin – veya onun unsurlarının – onu yasa haline getirip getirmediği hala görülüyor. Ancak AI zaten modern dünyanın büyük bir parçası ve sadece buradan büyüyecek, bu nedenle mevzuatın yakından takip etmesini bekleyebilirsiniz.