EN ÇOK OKUNAN MAKALELER
Makaleler Yükleniyor...
E-BÜLTENİMİZE ABONE OLUN!
Sektördeki son haberleri takip etmek
için ücretsiz haftalık bültenimize
abone olun...
Sektörden İş Fırsatları
Güvenlik sektöründeki iş fırsatlarını buradan takip edebilirsiniz! Aradığınız kariyer fırsatları burada...
MAKALE DETAYI
4 Büyük Üniversiteden Korkutan Yapay Zeka Raporu
Bilim adamları, ’Yapay Zekanın Kötü Amaçlı Kullanımı: Öngörü, Önleme ve Etki Azaltma’’ isimli, önemli bir makale yayınladı.
Dünyanın önde gelen üniversitelerinden olan Stanford, Yale, Oxford ve Cambridge önde gelen bilim adamları ve siber güvenlik uzmanları ‘’Yapay Zekanın Kötü Amaçlı Kullanımı: Öngörü, Önleme ve Etki Azaltma’’ isimli, önemli bir makale yayınladı. Makale, makine öğrenmeyi içeren yapay zekanın, olası kötü niyetli kötüye kullanımlarına ve siber güvenlik konusuna odaklanıyor.
Yapay zeka, normal koşullarda insanlar için mevcut olan analiz fonksiyonlarını yerine getirmek için bilgisayarların ‘’makine hızı’’ ile kullanılmasıdır. “Makine hızı” ise birden fazla yazılım programında, 20 mikrosaniyenin altında milyonlarca hesaplamanın yapılabilmesi” olarak tanımlanıyor. Makalede yapay zeka faydalı amaçların yanı sıra kötü amaçlar için de kolayca kullanılabileceğinin altı çiziliyor.
Sistemin öğrenebilmesi “öğrenme” algoritmasının kalitesine ve veri tabanına bağlı olarak gerçekleşiyor. Bu anlamda manipülasyon veya algoritmanın değiştirilmesi gibi potansiyel bir istismar, makinenin öğrendiği veri kümesinin enfekte olmasına neden olabiliyor. Uzmanlar bu durumu ‘’veri zehirlenmesi’’ olarak tanımlıyor.
Raporda, “ML algoritmalarının güvenlik açıkları da sahip olduğu gösterildi. Bunlar, yanlış sınıflandırma veya eğitim verilerinin zehirlenmesi gibi ML'ye özgü güvenlik açıklarını içerir. ML algoritmaları, bellek taşması gibi geleneksel açıklara da sahiptir. Şu anda, siber güvenlik araştırmacıları arasında, ML sistemlerinin güvenliğini anlamak için bir ilgi var. Ancak şu anda elimizde cevaplardan çok daha fazla soru var. ” açıklaması yer alıyor. Bir modelin yanlış eğitildiğini veya yanlış bir sınıflandırmayı gerçekleştirdiğini teşhis etmek zor olabiliyor. Sorun şu ki, AI'yi geliştiren bilim adamları bile Algoritmaların, alanda nasıl çalıştıklarını anlamıyorlar .
Basitçe söylemek gerekirse, siber güvenlik endüstrisi, AI'nın potansiyel zararlı kullanımının farkında ve buna en iyi nasıl tepki vereceğini düşünüyor. Raporda biyolojik enfeksiyonlara karşı antibiyotik kullanıldığında, virüslerin zamanla daha dirençli hale gelmesi gibi, AI savunma taktiklerinin de zamanla değişeceği vurgulanıyor.
Teröristlerin tespiti için yüz tanıma yararlı olabilir. Ancak yüz tanıma kişileri sınıflandırmak için de kullanılıyor. Örneğin geçtiğimiz günlerde Stanford araştırmacıları, sosyal medya profil fotoğraflarına dayalı olarak birisinin eşcinsel olup olmadığını anlamak için kullanılabilecek bir algoritma yayınladı. Tartışmalı çalışma birçok kesimden tepki topladı.
Çalışmanın etik tartışmaları bir yana, ortaya çıkan tablo aslında daha büyük bir tehlikenin habercisi olarak yorumlandı. Algoritmanın doğruluğu, erkeklerde% 91 ve kadınlarda ise % 83'e olarak gerçekleşti. Araştırmaya katılan insanlarda, doğruluk oranı kadınlar için % 61, erkekler için % 54 seviyesinde kaldı. Sonuçta yapay zeka bir kez daha insan performansını geride bıraktı. Yapay zekanın kötüye kullanılması ile ilgili bu örnek, teknolojinin etik konusuna geldiği noktayı vurguluyor.
Yapay zeka, yüz ve konuşma tanıma ile birlikte sentetik görüntüler, metin ve ses üretiminde de hızlı bir ilerleme yaşıyor. Raporda, “çevrimiçi ortamda başkalarının kimliğine bürünmek için yapay zeka kullanılabilir. Yapay zeka tarafından oluşturulan içeriğin sosyal medya kanalları aracılığıyla dağıtılarak kamuoyunu etkileyebilir.” uyarısında bulunuyor.
Makineler ve insanlar arasındaki çizgiler ortadan kalktıkça, kimlik doğrulama sistemlerinde değişikliğe gidilmesi kaçınılmaz görünüyor. Bugün, kimlik doğrulama çeşitli insanlar arasında ayrım yapmak ve bir kişinin diğerini taklit etmesini önlemek için kullanılıyor. Görünen o ki gelecekte, insanlar ve makineler arasında da ayrım yapmamız gerekecek.
Rapor yapay zekanın gelişen tehditlerini “daha iyi tahmin etmek, önlemek ve azaltmak” için dört üst düzey öneride bulunuyor. Bunlar:
1- Hükümetler ve yapay zeka üreticileri arasında daha fazla işbirliği
2- AI araştırmacıları tarafından etik en iyi uygulamaların benimsenmesi
3- Çift kullanımlı endişeleri ele almak için bir metodoloji
4- Konuların tartışılmasında yer alan paydaşların ve alan uzmanlarının genişlemesi.
Yapay zeka, normal koşullarda insanlar için mevcut olan analiz fonksiyonlarını yerine getirmek için bilgisayarların ‘’makine hızı’’ ile kullanılmasıdır. “Makine hızı” ise birden fazla yazılım programında, 20 mikrosaniyenin altında milyonlarca hesaplamanın yapılabilmesi” olarak tanımlanıyor. Makalede yapay zeka faydalı amaçların yanı sıra kötü amaçlar için de kolayca kullanılabileceğinin altı çiziliyor.
Mevcut Makine Öğrenimi ( Machine Learning- ML) ve Son Nokta Koruması
Günümüzde, AI'nin makine öğrenimi alanındaki en yaygın kullanımı, en yeni anti-malware yazılımlarında bulunuyor. Makine öğrenmesi sayesinde antivirüs AI algoritmaları, milyonlarca kötü amaçlı yazılımı, davranış kalıplarından öğreniyor.Sistemin öğrenebilmesi “öğrenme” algoritmasının kalitesine ve veri tabanına bağlı olarak gerçekleşiyor. Bu anlamda manipülasyon veya algoritmanın değiştirilmesi gibi potansiyel bir istismar, makinenin öğrendiği veri kümesinin enfekte olmasına neden olabiliyor. Uzmanlar bu durumu ‘’veri zehirlenmesi’’ olarak tanımlıyor.
Raporda, “ML algoritmalarının güvenlik açıkları da sahip olduğu gösterildi. Bunlar, yanlış sınıflandırma veya eğitim verilerinin zehirlenmesi gibi ML'ye özgü güvenlik açıklarını içerir. ML algoritmaları, bellek taşması gibi geleneksel açıklara da sahiptir. Şu anda, siber güvenlik araştırmacıları arasında, ML sistemlerinin güvenliğini anlamak için bir ilgi var. Ancak şu anda elimizde cevaplardan çok daha fazla soru var. ” açıklaması yer alıyor. Bir modelin yanlış eğitildiğini veya yanlış bir sınıflandırmayı gerçekleştirdiğini teşhis etmek zor olabiliyor. Sorun şu ki, AI'yi geliştiren bilim adamları bile Algoritmaların, alanda nasıl çalıştıklarını anlamıyorlar .
Basitçe söylemek gerekirse, siber güvenlik endüstrisi, AI'nın potansiyel zararlı kullanımının farkında ve buna en iyi nasıl tepki vereceğini düşünüyor. Raporda biyolojik enfeksiyonlara karşı antibiyotik kullanıldığında, virüslerin zamanla daha dirençli hale gelmesi gibi, AI savunma taktiklerinin de zamanla değişeceği vurgulanıyor.
Kimlik Doğrulama Sorunları
AI'nın olası kötü niyetli kullanımı için ikinci bir alan 'kimlik' etrafında odaklanıyor. AI'nın sadece görüntüleri tanıyabilme yeteneğini değil görüntü üretebilme yeteneği de hızla gelişiyor.Teröristlerin tespiti için yüz tanıma yararlı olabilir. Ancak yüz tanıma kişileri sınıflandırmak için de kullanılıyor. Örneğin geçtiğimiz günlerde Stanford araştırmacıları, sosyal medya profil fotoğraflarına dayalı olarak birisinin eşcinsel olup olmadığını anlamak için kullanılabilecek bir algoritma yayınladı. Tartışmalı çalışma birçok kesimden tepki topladı.
Çalışmanın etik tartışmaları bir yana, ortaya çıkan tablo aslında daha büyük bir tehlikenin habercisi olarak yorumlandı. Algoritmanın doğruluğu, erkeklerde% 91 ve kadınlarda ise % 83'e olarak gerçekleşti. Araştırmaya katılan insanlarda, doğruluk oranı kadınlar için % 61, erkekler için % 54 seviyesinde kaldı. Sonuçta yapay zeka bir kez daha insan performansını geride bıraktı. Yapay zekanın kötüye kullanılması ile ilgili bu örnek, teknolojinin etik konusuna geldiği noktayı vurguluyor.
Yapay zeka, yüz ve konuşma tanıma ile birlikte sentetik görüntüler, metin ve ses üretiminde de hızlı bir ilerleme yaşıyor. Raporda, “çevrimiçi ortamda başkalarının kimliğine bürünmek için yapay zeka kullanılabilir. Yapay zeka tarafından oluşturulan içeriğin sosyal medya kanalları aracılığıyla dağıtılarak kamuoyunu etkileyebilir.” uyarısında bulunuyor.
Makineler ve insanlar arasındaki çizgiler ortadan kalktıkça, kimlik doğrulama sistemlerinde değişikliğe gidilmesi kaçınılmaz görünüyor. Bugün, kimlik doğrulama çeşitli insanlar arasında ayrım yapmak ve bir kişinin diğerini taklit etmesini önlemek için kullanılıyor. Görünen o ki gelecekte, insanlar ve makineler arasında da ayrım yapmamız gerekecek.
Rapor yapay zekanın gelişen tehditlerini “daha iyi tahmin etmek, önlemek ve azaltmak” için dört üst düzey öneride bulunuyor. Bunlar:
1- Hükümetler ve yapay zeka üreticileri arasında daha fazla işbirliği
2- AI araştırmacıları tarafından etik en iyi uygulamaların benimsenmesi
3- Çift kullanımlı endişeleri ele almak için bir metodoloji
4- Konuların tartışılmasında yer alan paydaşların ve alan uzmanlarının genişlemesi.
Bu Makalenin Yorumları
Yorum Yazın
Yorum Yazın