Bir silah olarak dronlar ve insansız araçlar: neden biz hacker korkmaya gerek
Teknolojinin / / December 19, 2019
Hiç kimse yapay zeka üzerine hayatımızı koyabilirsiniz inkar etmeyecektir yeni seviye. AI insanın gücünün ötesinde birçok sorunu çözer.
Ancak, birçok o superintelligence SkyNet olarak, bizi yok veya oyun Portal gelen GLaDOS olarak insanlar üzerinde denemeler yapmak başlamak istiyorum inanıyoruz. ironi bir yapay zeka can sadece insanların iyi ya da kötü yapmak olmasıdır.
Yale, Oxford, Cambridge ve şirketin yayınlanan OpenAI gelen Araştırmacılar rapor Yapay zeka kötüye üzerinde. Gerçek tehlike korsanlara karşı geldiğini söylüyor. zararlı kod yardımıyla, onlar AI kontrolünde otomatik sistemlerin çalışmasını bozabilir.
Araştırmacılar iyi niyetli oluşturulan teknoloji, zarar için kullanılacak korkuyorlar. Örneğin, gözetim teröristleri yakalamak için değil, aynı zamanda sıradan vatandaşlar gözetlemek için sadece uygulanabilir. Araştırmacılar ayrıca gıda teslim ticari uçağı, endişe verici. Onlar istihbarat bilgisine kolaydır ve bir şey patlayıcının koydu.
Başka bir senaryo AI yıkıcı kullanımıdır - insansız araçlar. Kod birkaç satır değiştirmek için yeterlidir ve makine emniyet kurallarını görmezden başlayacaktır.
Bilim adamları tehdit dijital fiziksel ve politik olabileceğini düşünüyoruz.
- Yapay zeka zaten çeşitli program kodlarının açıklarını incelemek için kullanılıyor. Gelecekte, hacker herhangi korumasını atlar böyle bir bot, yaratabilir.
- AI ile kişi süreçlerinin birçok otomatik hale getirebilirsiniz: örneğin, uçağı bir sürüsü veya araç kontrol grubuna.
- Böyle DeepFake gibi teknolojiler ile internet botlara aracılığıyla dünyanın liderleri hakkında yanlış bilgi yayma, devletin siyasi yaşamını etkileyebilir.
Bu korkutucu örnekler bir hipotez olarak varolabilir. Çalışmanın yazarları teknolojisinin tam bir reddi sunmuyoruz. Bunun yerine, hükümetler ve büyük şirketler, sanayi olurken güvenlik özen gerektiğine inanıyoruz yapay zeka bebeklik.
Politikacılar etkin bir yapay zeka kurulmasını ve kullanılmasını düzenleyen, alanında uzman ile birlikte teknoloji ve çalışmayı öğrenmelidir.
Geliştiriciler, sırayla, tahmin ve bunlar dünya liderlerinin olumsuz sonuçlarını engellemek amacıyla, yüksek teknoloji yarattığı tehlikeyi değerlendirmek gerekir. AI geliştiriciler için rapor aramalar: diğer alanlarda güvenlik uzmanları ile takım yukarı ve Eğer yapay korunması için bu teknolojilerin güvenliğini sağlamak olduğunu ilkelerini kullanıp kullanamayacağını öğrenmek için zeka.
Tam rapor sorunu ayrıntılı bir şekilde, ama aslında o AI açıklar - güçlü araç. Tüm paydaşlar yeni bir teknoloji öğrenmemiz gerekiyor ve suç amaçlı kullanılmadığından emin olun.