Google ve Facebook, ürünlerinde kullanılan yapay zeka mantığına güç veren bilgi işlem donanımı tasarımlarını açık kaynaklı hale getirdi. Bu akıllı algoritmalar , Google’ın arama ve öneri işlevlerini , Facebook’un Messenger dijital asistanı M’yi ve tabii ki her iki firmanın da hedefli reklam kullanımını destekler.
Facebook’un Big Sur kod adlı ısmarlama bilgisayar sunucuları, 3D grafiklerle en yeni video oyunlarını oynamak için PC’lerde kullanılan grafik kartları olan grafik işlem birimleriyle (GPU) doludur. Google’ın TensorFlow AI’sına güç veren donanım da öyle . Öyleyse neden yapay zekalı bilgi işlem, ana bilgisayar işlemcileri yerine grafik işlemcilerinden inşa ediliyor?
Başlangıçta GPU’lar, zorlu hesaplamalı grafik görevlerini boşaltmak için bir bilgisayarın ana merkezi işlem birimi (CPU) ile birlikte çalışan yardımcı işlemciler olarak tasarlandı. 3D grafik sahneleri oluşturmak, utanç verici derecede paralel bir görev olarak bilinir . Bir görüntünün bir alanı ile diğeri arasında hiçbir bağlantı veya karşılıklı bağımlılık olmaksızın, iş, aynı anda paralel olarak işlenebilen ayrı görevlere kolayca bölünebilir – yani, aynı zamanda, böylece işi çok daha hızlı tamamlar.
GPU üreticilerinin donanımlarını kökten farklı bir kullanıma sokmalarına neden olan bu paralelliktir. GPU’lar, yalnızca büyük ölçüde paralel görevlerde maksimum hesaplama verimi elde edebilecek şekilde optimize edilerek, yalnızca grafik görevleri değil, herhangi bir paralelleştirilmiş kodu çalıştırabilen özel işlemcilere dönüştürülebilir. Öte yandan CPU’lar, tek iş parçacıklı (paralel olmayan) görevlerin işlenmesinde daha hızlı olacak şekilde optimize edilmiştir, çünkü çoğu genel amaçlı yazılım hala tek iş parçacıklıdır.
Bir, iki, dört veya sekiz işlemci çekirdeğine sahip CPU’ların aksine, modern GPU’ların binlerce çekirdeği vardır: Facebook sunucularında kullanılan NVIDIA Tesla M40 , örneğin CUDA çekirdeği olarak adlandırılan 3.072’ye sahiptir . Bununla birlikte, bu devasa paralelliğin bir bedeli vardır: Yazılımın bundan yararlanmak için özel olarak yazılması gerekir ve GPU’ların programlanması zordur.
GPU’ları AI için uygun yapan nedir?
GPU’ların tercih edilen süper bilgi işlem donanımı olarak ortaya çıkmasının nedenlerinden biri, en zorlu hesaplama sorunlarından bazılarının paralel yürütmeye çok uygun olmasıdır.
En iyi örnek, yapay zekadaki öncü gelişmelerden biri olan derin öğrenmedir . Bu güçlü yaklaşımın temelindeki sinir ağı konsepti – yüksek düzeyde birbirine bağlı düğümlerden oluşan büyük ağlar – 1990’larda bir başarısızlık olarak yazılanla aynıdır. Ancak artık teknoloji çok daha büyük ve daha derin sinir ağları oluşturmamıza izin verdiği için bu yaklaşım radikal olarak iyileştirilmiş sonuçlar elde ediyor. Bu sinir ağları, günümüzde Google, Facebook ve birçok uygulamanın kullandığı konuşma tanıma yazılımına, dil çevirisine ve anlamsal arama olanaklarına güç sağlar.
Bir sinir ağını “öğrenmesi” için eğitmek, nöronlar arasında bağlantılar kurmaya ve beyindeki bu bağlantıları güçlendirmeye benzer şekilde çalışır. Hesaplamalı olarak, bu öğrenme süreci paralelleştirilebilir, böylece GPU donanımı kullanılarak hızlandırılabilir. Bu makine öğrenimi, öğrenilecek örnekler gerektirir ve bu aynı zamanda paralel işlemeyi kullanarak kolay hızlandırma sağlar. Torch kod kitaplığı ve GPU paketli sunucular gibi açık kaynaklı makine öğrenimi araçlarıyla , sinir ağı eğitimi, CPU tabanlı sistemlere kıyasla GPU üzerinde çok daha hızlı gerçekleştirilebilir.
GPU’lar bilgi işlemin geleceği mi?
On yıllardır , bilgisayar işlem gücünün her iki yılda bir kabaca iki katına çıkacağını öngören Moore yasasının versiyonuna alıştık . Bu, esas olarak, daha az ısı üretimine yol açan ve CPU’ların daha hızlı çalışmasına olanak tanıyan minyatürleştirme yoluyla elde edilmiştir. Bununla birlikte, yarı iletkenlerin silikonun teorik, temel sınırlarına yakın bir şekilde minyatürleştirilmesiyle bu “ bedava öğle yemeği ” sona erdi. Şimdi, daha yüksek hızlara giden tek güvenilir yol , son on yılda çok çekirdekli CPU’ların yükselişiyle gösterildiği gibi, daha fazla paralellikten geçiyor. Bununla birlikte, GPU’ların bir başlangıcı vardır.
AI’nın yanı sıra GPU’lar, akışkan ve aerodinamik simülasyonları, fizik motorları ve beyin simülasyonları için de kullanılır. Şu anda dünyanın en hızlı ikinci süper bilgisayarı olan Oak Ridge Ulusal Laboratuvarı’ndaki Titan süper bilgisayarı gibi dünyanın en güçlü bilgisayarlarından bazıları Nvidia’nın GPU hızlandırıcıları üzerine kuruluyken, rakipler arasında Intel’in Tianhe-2’ye güç veren Phi paralel ortak işlemcisi yer alıyor . en hızlı süper bilgisayar Ancak, tüm sorunlar kolayca paralel hale getirilemez ve bu ortamlar için programlama yapmak zordur.
Tartışmalı olarak, bilişimin geleceği, en azından AI için, daha da radikal olarak farklı nöromorfik bilgisayarlarda yatabilir. IBM’in True North çipi bunlardan biridir ve bir diğeri 1 milyar Avro’luk İnsan Beyni Projesi tarafından geliştirilmektedir . Bu modelde, çok sayıda işlemciden oluşan bir ağ ile sinir ağlarını simüle etmek yerine, çip sinir ağıdır: çip üzerindeki bireysel silikon transistörler, elektrik sinyalleri yoluyla işleyen ve iletişim kuran devreler oluşturur – biyolojik beyinlerdeki nöronlardan farklı değildir.
Taraftarlar, bu sistemlerin sonunda sinir ağlarımızı insan beyninin boyutuna ve karmaşıklığına göre ölçeklendirmemize yardımcı olacağını ve yapay zekayı insan zekasıyla rekabet edebilecek noktaya getirmemize yardımcı olacağını savunuyorlar. Diğerleri, özellikle beyin araştırmacıları daha temkinli – insan beyninde sadece yüksek nöron sayısı ve yoğunluğundan çok daha fazlası olabilir.
Her iki durumda da, şu anda beyin hakkında öğreneceğimiz şeylerin, çalışma şeklini taklit etmek için tasarlanmış süper bilgisayarlar aracılığıyla olması muhtemeldir.