Modern toplumun birçok kesiminde yapay zekanın önemli ve giderek artan rolüne rağmen, ABD’de yapay zeka sistemlerinin geliştirilmesini ve kullanımını yöneten çok az politika veya düzenleme vardır. eleştirilere yol açan kararlara ve durumlara yol açar.
Google , belirli bir yapay zeka türünün çevresel ve sosyal sorunlara nasıl katkıda bulunabileceği konusundaki endişelerini kamuoyuna açıklayan bir çalışanını işten çıkardı . Diğer AI şirketleri , Los Angeles Polis Departmanı gibi kuruluşlar tarafından kullanılan ve mevcut ırksal önyargılı politikaları desteklediği gösterilmiş ürünler geliştirmiştir .
Yapay zeka kullanımına ilişkin bazı hükümet tavsiyeleri ve kılavuzları vardır. Ancak Ekim 2022’nin başlarında, Beyaz Saray Bilim ve Teknoloji Politikası Ofisi, Yapay Zeka Haklar Bildirgesi’ni yayınlayarak federal rehberliğe büyük ölçüde katkıda bulundu .
Bilim ve Teknoloji Ofisi, belgede belirtilen korumaların tüm otomatik sistemlere uygulanması gerektiğini söylüyor. Plan , “yapay zeka çağında Amerikan halkını korumak için otomatik sistemlerin tasarımına, kullanımına ve konuşlandırılmasına rehberlik etmesi gereken beş ilkeyi” ortaya koyuyor . Umut, bu belgenin, AI sistemlerinin ABD’de ikamet edenlerin haklarını sınırlamasını önlemeye yardımcı olacak bir kılavuz görevi görmesidir.
İnsanların yapay zeka sistemleriyle nasıl etkileşime girdiğini ve özellikle Anti-Karanlığın bu etkileşimlere nasıl aracılık ettiğini inceleyen bir bilgisayar bilimcisi olarak, bazı boşlukları olmasına ve uygulanabilir olmamasına rağmen bu kılavuzu doğru yönde atılmış bir adım olarak görüyorum.
Bir kişi ellerini kaldırarak sandalyelerde oturan bir grup insan.
Herkes için sistemlerin iyileştirilmesi
İlk iki ilke, AI sistemlerinin güvenliğini ve etkinliğini ve ayrıca AI’nın ayrımcılığı ilerletme riskini ele almayı amaçlamaktadır.
Yapay zekanın güvenliğini ve etkinliğini artırmak için ilk ilke, yapay zeka sistemlerinin yalnızca uzmanlar tarafından değil, aynı zamanda sistemleri kullanacak ve sistemlerden etkilenecek olan kişilerden ve topluluklardan doğrudan girdilerle geliştirilmesi gerektiğini öne sürüyor. Sömürülen ve marjinalize edilen topluluklar genellikle yapay zeka sistemlerinin sonuçlarıyla, gelişimlerinde fazla söz sahibi olmadan baş etmeye bırakılır . Araştırmalar, geliştirme sürecine doğrudan ve gerçek topluluk katılımının, bu topluluklar üzerinde olumlu ve kalıcı bir etkisi olan teknolojilerin uygulanması için önemli olduğunu göstermiştir.
İkinci ilke, AI sistemlerinde bilinen algoritmik ayrım sorununa odaklanır . Bu sorunun iyi bilinen bir örneği, ipotek onay algoritmalarının azınlıklara karşı nasıl ayrımcılık yaptığıdır . Belge, şirketlerden insanlara ırklarına, cinsiyetlerine veya korunan diğer sınıf statülerine göre farklı davranmayan yapay zeka sistemleri geliştirmelerini istiyor . Şirketlerin, bir AI sisteminin sömürülen ve marjinalleştirilmiş toplulukların üyelerini nasıl etkileyebileceğini değerlendirmeye yardımcı olabilecek öz sermaye değerlendirmeleri gibi araçlar kullanmasını önerir.
Bu ilk iki ilke, AI geliştirme ve kullanımında bulunan büyük önyargı ve adalet sorunlarını ele alıyor.
Gizlilik, şeffaflık ve kontrol
Son üç ilke, yapay zeka sistemleriyle etkileşim kurarken insanlara daha fazla kontrol vermenin yollarını özetlemektedir.
Üçüncü ilke veri gizliliği üzerinedir. İnsanların verilerinin nasıl kullanıldığı konusunda daha fazla söz sahibi olmalarını ve kötüye kullanım amaçlı veri uygulamalarından korunmalarını sağlamaya çalışır. Bu bölüm, örneğin şirketlerin, kullanıcıları verilerini vermeleri için manipüle etmek için aldatıcı tasarım kullandığı durumları ele almayı amaçlamaktadır . Plan, bir kişinin verilerini rıza göstermedikçe almama ve o kişinin anlayabileceği bir şekilde sorma gibi uygulamaları gerektirir.
Masada oturan bir konuşmacı.
Bir sonraki ilke “bildirim ve açıklamaya” odaklanır. Şeffaflığın önemini vurgular – insanlar bir AI sisteminin nasıl kullanıldığını ve ayrıca bir AI’nın kendilerini etkileyebilecek sonuçlara nasıl katkıda bulunduğunu bilmelidir. Örneğin, New York Çocuk Hizmetleri İdaresi’ni ele alalım. Araştırmalar, ajansın çocuklara kötü muameleyi tahmin etmek için dış kaynaklı yapay zeka sistemleri kullandığını , çoğu insanın araştırılırken bile kullanıldığını bilmediği sistemlerin kullanıldığını göstermiştir.
AI Haklar Bildirgesi, bu örnekte, kullanımda olan AI sistemlerinden etkilenen New York’taki kişilerin, bir AI’nın dahil olduğu konusunda bilgilendirilmeleri ve AI’nın ne yaptığına dair bir açıklamaya erişmeleri gerektiğine dair bir kılavuz sağlar. Araştırmalar, yapay zeka sistemlerine şeffaflık kazandırmanın hata veya yanlış kullanım riskini azaltabileceğini göstermiştir .
AI Haklar Bildirgesi’nin son ilkesi, insan alternatifleri, değerlendirme ve geri bildirim için bir çerçeve çiziyor. Bu bölüm, insanların, makul olduğu durumlarda, bir insan alternatifi lehine yapay zeka veya diğer otomatik sistemlerin kullanımını devre dışı bırakabilmeleri gerektiğini belirtir.
Bu son iki ilkenin birlikte nasıl çalışabileceğine bir örnek olarak, ipotek için başvuran birinin durumunu ele alalım. Başvurularını değerlendirmek için bir AI algoritması kullanılıp kullanılmadığı konusunda bilgilendirilecekler ve gerçek bir kişi lehine bu AI kullanımını devre dışı bırakma seçeneğine sahip olacaklar.
Akıllı yönergeler, uygulanabilirlik yok
AI Haklar Bildirgesi’nde ortaya konan beş ilke, bilim adamlarının AI’nın tasarımı ve kullanımı hakkında gündeme getirdiği birçok konuyu ele almaktadır. Bununla birlikte, bu bağlayıcı olmayan bir belgedir ve şu anda uygulanabilir değildir.
Sanayi ve devlet kurumlarının bu fikirleri tam olarak Beyaz Saray’ın önerdiği şekilde kullanmalarını ummak çok fazla olabilir. Veri gizliliği konusunda devam eden düzenleyici savaş herhangi bir rehberlik sunuyorsa, teknoloji şirketleri kendi kendini düzenleme için zorlamaya devam edecek .
AI Haklar Bildirgesi’nde gördüğüm diğer bir konu, ırkçılık veya cinsiyetçilik gibi baskı sistemlerini ve AI’nın kullanımını ve gelişimini nasıl etkileyebileceklerini doğrudan dile getirmemesidir . Örneğin, araştırmalar, sağlık hizmetlerinde kullanılan yapay zeka algoritmalarında yerleşik olarak bulunan yanlış varsayımların , Siyahi hastalar için daha kötü bakıma yol açtığını göstermiştir . Yapay zeka sistemleri geliştirirken Siyah karşıtı ırkçılığın doğrudan ele alınması gerektiğini savundum . AI Haklar Bildirgesi, önyargı ve adalet fikirlerini ele alırken, baskı sistemlerine odaklanma eksikliği, dikkate değer bir boşluktur ve AI gelişiminde bilinen bir sorundur .
Bu eksikliklere rağmen, bu plan daha iyi AI sistemlerine yönelik olumlu bir adım ve belki de düzenlemeye yönelik ilk adım olabilir. Bunun gibi bir belge, politika olmasa bile, bir kuruluşun AI sistemlerini geliştirme ve kullanma şeklindeki değişiklikleri savunan insanlar için güçlü bir referans olabilir.