· Yapay zekalar, siber güvenlik uzmanlarını kandırmaya yetecek kadar ikna edici sahte raporlar oluşturabilir.
· Bu yapay zekalar yaygın olarak kullanılırsa siber saldırılara karşı savunma çabalarını engelleyebilir.
· Bu sistemler, yanlış bilgi üreteçleri ve dedektörler arasında bir AI silahlanma yarışı başlatabilir.
Facebook ve Twitter gibi sosyal medya sitelerini kullanıyorsanız, yanlış bilgilendirme uyarılarıyla işaretlenmiş gönderilere rastlamış olabilirsiniz. Şimdiye kadar, çoğu yanlış bilgi – işaretlenmiş ve işaretlenmemiş – genel halkı hedef aldı . Siber güvenlik, kamu güvenliği ve tıp gibi bilimsel ve teknik alanlarda yanlış veya yanıltıcı bilgi olasılığını hayal edin.
Bilimsel literatürün yayımlanmasındaki yaygın önyargılar ve uygulamaların, hatta hakemli araştırma makalelerinde bile, bu kritik alanlarda yanlış bilginin yayılması konusunda artan bir endişe var . Bir yüksek lisans öğrencisi ve siber güvenlik alanında araştırma yapan öğretim üyeleri olarak bilim camiasında yeni bir yanlış bilgi yolunu inceledik. Yapay zeka sistemlerinin tıp ve savunma gibi kritik alanlarda uzmanları kandırmaya yetecek kadar inandırıcı yanlış bilgiler üretmesinin mümkün olduğunu bulduk.
Genel yanlış bilgiler genellikle şirketlerin veya kamuya mal olmuş kişilerin itibarını zedelemeyi amaçlar. Uzmanlık toplulukları içindeki yanlış bilgi, doktorlara ve hastalara yanlış tıbbi tavsiye vermek gibi korkutucu sonuçlar potansiyeline sahiptir. Bu, hayatları riske atabilir.
Bu tehdidi test etmek için siber güvenlik ve tıp topluluklarında yanlış bilgi yaymanın etkilerini inceledik. Yanlış siber güvenlik haberleri ve COVID-19 tıbbi çalışmaları üretmek için transformatör olarak adlandırılan yapay zeka modellerini kullandık ve siber güvenlik yanlış bilgilerini test etmeleri için siber güvenlik uzmanlarına sunduk. Transformatör tarafından oluşturulan yanlış bilgilerin siber güvenlik uzmanlarını kandırabildiğini gördük.
Transformatörler
Yanlış bilgileri belirlemek ve yönetmek için kullanılan teknolojinin çoğu, yapay zeka tarafından desteklenmektedir. Yapay zeka, insanların teknolojinin yardımı olmadan algılayamayacakları çok fazla şey olduğu göz önüne alındığında, bilgisayar bilimcilerinin büyük miktarda yanlış bilgiyi hızlı bir şekilde kontrol etmelerine olanak tanır. Yapay zeka, insanların yanlış bilgileri tespit etmesine yardımcı olsa da, ironik bir şekilde son yıllarda yanlış bilgi üretmek için de kullanılıyor.
Google’dan BERT ve OpenAI’den GPT gibi dönüştürücüler, metni anlamak ve çeviriler, özetler ve yorumlar üretmek için doğal dil işlemeyi kullanır. Hikaye anlatma ve soruları yanıtlama gibi görevlerde kullanılmışlar, metin üretmede insani yetenekler sergileyen makinelerin sınırlarını zorluyorlar.
Transformers , arama motorlarını geliştirerek Google’a ve diğer teknoloji şirketlerine yardımcı oldu ve genel halkın, yazar tıkanmasıyla mücadele gibi yaygın sorunlarla mücadele etmesine yardımcı oldu .
Transformatörler kötü niyetli amaçlar için de kullanılabilir. Facebook ve Twitter gibi sosyal ağlar, platformlar arasında AI tarafından oluşturulan sahte haberlerin zorluklarıyla zaten karşı karşıya kaldı.
kritik yanlış bilgi
Araştırmamız, transformatörlerin tıpta ve siber güvenlikte de yanlış bilgi tehdidi oluşturduğunu gösteriyor. Bunun ne kadar ciddi olduğunu göstermek için, siber güvenlik açıklarını ve saldırı bilgilerini tartışan açık çevrimiçi kaynaklarda GPT-2 dönüştürücü modelinde ince ayar yaptık. Siber güvenlik açığı, bir bilgisayar sisteminin zayıflığıdır ve siber güvenlik saldırısı, bir güvenlik açığından yararlanan bir eylemdir. Örneğin, bir güvenlik açığı zayıf bir Facebook parolasıysa, bunu kullanan bir saldırı, parolanızı bulan ve hesabınıza giren bir bilgisayar korsanı olabilir.
Daha sonra modeli gerçek bir siber tehdit istihbarat örneğinin cümlesi veya tümcesiyle tohumladık ve onun tehdit tanımının geri kalanını oluşturmasını sağladık. Oluşturulan bu açıklamayı, siber güvenlik tehditleri hakkında birçok bilgiyi gözden geçiren siber tehdit avcılarına sunduk. Bu uzmanlar, potansiyel saldırıları belirlemek ve sistemlerinin savunmasını ayarlamak için tehdit açıklamalarını okurlar.
Sonuçlara şaşırdık. Oluşturduğumuz siber güvenlik yanlış bilgilendirme örnekleri, her türlü siber güvenlik saldırısı ve açıkları hakkında bilgi sahibi olan siber tehdit avcılarını yanıltmayı başardı. Bu senaryoyu, çalışmamızda oluşturduğumuz havayolu endüstrisini içeren önemli bir siber tehdit istihbaratı ile hayal edin.
Bu yanıltıcı bilgi parçası, hassas gerçek zamanlı uçuş verilerine sahip havayollarına yönelik siber saldırılarla ilgili yanlış bilgiler içermektedir. Bu yanlış bilgi, siber analistlerin dikkatlerini sahte yazılım hatalarına çevirerek sistemlerindeki meşru güvenlik açıklarını ele almalarını engelleyebilir. Bir siber analist, gerçek dünya senaryosunda sahte bilgiler üzerinde hareket ederse, söz konusu havayolu gerçek, adreslenmemiş bir güvenlik açığından yararlanan ciddi bir saldırı ile karşı karşıya kalabilirdi.
Benzer bir transformatör tabanlı model, tıbbi alanda bilgi üretebilir ve tıp uzmanlarını potansiyel olarak kandırabilir. COVID-19 salgını sırasında, henüz titiz bir incelemeden geçmemiş araştırma makalelerinin ön baskıları medrXiv gibi sitelere sürekli olarak yüklenmektedir . Sadece basında tanımlanmakla kalmıyorlar, aynı zamanda halk sağlığı kararlarını almak için kullanılıyorlar. Gerçek olmayan ancak COVID-19 ile ilgili bazı kağıtlarda varsayılan GPT-2’nin minimum ince ayarından sonra modelimiz tarafından oluşturulan aşağıdakileri göz önünde bulundurun.
Bir AI yanlış bilgi silahlanma yarışı mı?
Çalışmamızdaki bu gibi örneklerin doğruluğu kontrol edilebilir olsa da, transformatör kaynaklı yanlış bilgiler, sağlık hizmetleri ve siber güvenlik gibi sektörlerin aşırı bilgi yüklemesine yardımcı olmak için yapay zekayı benimsemesini engelliyor. Örneğin, siber tehdit istihbaratından veri çıkarmak için otomatik sistemler geliştiriliyor ve bu veriler daha sonra otomatik sistemleri bilgilendirmek ve olası saldırıları tanımak için eğitmek için kullanılıyor. Bu otomatik sistemler bu tür yanlış siber güvenlik metinlerini işlerse, gerçek tehditleri tespit etmede daha az etkili olacaktır.
Yanlış bilgi yayan insanlar, onu tanımanın etkili yollarına yanıt olarak yanlış bilgi oluşturmak için daha iyi yollar geliştirdiğinden, sonucun bir silahlanma yarışı olabileceğine inanıyoruz.
Siber güvenlik araştırmacıları, farklı alanlardaki yanlış bilgileri tespit etmenin yollarını sürekli olarak araştırıyor. Yanlış bilginin otomatik olarak nasıl oluşturulacağını anlamak, onu nasıl tanıyacağınızı anlamanıza yardımcı olur. Örneğin, otomatik olarak oluşturulan bilgiler genellikle sistemlerin algılamak üzere eğitilebileceği ince dilbilgisi hatalarına sahiptir. Sistemler ayrıca birden fazla kaynaktan gelen bilgileri çapraz ilişkilendirebilir ve diğer kaynaklardan önemli ölçüde destek almayan iddiaları belirleyebilir.
Sonuç olarak, herkes hangi bilgilerin güvenilir olduğu konusunda daha dikkatli olmalı ve özellikle bilgi saygın haber kaynaklarından veya yayınlanmış bilimsel çalışmalardan değilse, bilgisayar korsanlarının insanların saflığını istismar ettiğinin farkında olmalıdır.