Yapay zeka için dikkat uyarısı

Yapay zeka için dikkat uyarısı

Yapay zeka için dikkat uyarısı

Pek çok kişinin görüşüne göre yapay zekadan korkulması değil, AI'nin kucaklanması gerekiyor. Aynı şekilde pek çok kişi de bu teknolojiyi bilim-kurgu hikayeleri ürünleri olan HAL veya Skynet ile ilişkilendiriyor ancak AI'nin sunduğu potansiyel avantajlar, kontrolü ellerine alarak bizi yok edecekleri korkusuna göre ağır basıyor.

Gerçekçi bir şekilde bakıldığında ise AI'nin sunacağı bütün iyilik ve kötülük, tamamen onu geliştiren veya kontrol edenlerin niyetleriyle ilgili.

Yale, Oxford, Cambridge ve OpenAI araştırmacılarının sunduğu "The Malicious Use of Artificial Intelligence" (Yapay Zekanın Kötüye Kullanımı) adlı 101 sayfalık raporda, bu teknolojinin gerçek tehlikesinin, hackerların AI-otonom sistemler (AI tarafından kontrol edilen otonom sistemler) üzerindeki açıklıkları hedefleyerek kötü amaçlı kodlar kullanmaları ve buna bağlı olarak da insanlara fiziksel veya politik zarar vermek için çok daha büyük bir kapasite sunulması olduğu belirtiliyor.

Çarşamba günü yayımlanan ve ilk olarak CNBC tarafından anlatılan raporda AI'nin "çift taraflı" doğasının altı çiziliyor: En iyi hedeflerle geliştirilen otomatik programların zararlı teknolojiler haline dönüştürülmesi. Raporda verilen örneklerin arasında AI gözetleme araçlarının teröristleri yakalamak veya sıradan insanları baskılamak için kullanılacağı ve alışveriş teslimatı için kullanılan drone'ların silahlandırılabileceği yer alıyor.

Anlatılan bir diğer senaryo ise otonom arabaları içeriyor. Yapılan uyarıda belirtildiği üzere hackerlar bir AI'nin "Dur" tabelası kavramındaki sadece birkaç pikseli değiştirerek, insanların fark etmeyeceği ancak bir firma sunucusuna bağlı olan bütün arabaların ciddi bir şekilde güvenlik kurallarını ihlal etmeye başlayabileceği belirtiliyor.

Yazarlar, potansiyel güvenlik risklerini dijital, fiziksel ve politik kategorilere ayırmaktalar:

- AI şimdiden onarılan kod açıklıklarını inceleyerek botların kullanımı için yeni açıklıkların neler olabileceği üzerine tahminler yapıyorlar. Gelecekte AI'ler, botlara insan-benzeri internette gezinme yetenekleri verebilir ve DoS saldırılarını savunulması imkansız bir hale getirebilirler. - Otomasyon, "düşük yetenekli kişilerin daha önce yüksek yetenek gerektiren saldırı kabiliyetlerine" kavuşmalarını sağlayabilir. Teoride, tek bir kişi bir AI yazılımı ile kolaylıkla "küçük bir drone kolonisini" kontrol edebilir. - Politik risklerin içerisinde ise "deepfake" teknolojisinin kullanımı ile politik liderlerin saygınlığının düşürülmesi ve otonom sistemlerle yanlış bilgilerin internete yayılarak gelecekteki seçimleri etkilemesi yer alıyor.

Bu örnekler her ne kadar korkutucu olsalar da tamamen hipotetik konumdalar ve bu rapor, yapay zekanın doğal olarak zararı olduğunun düşünülerek yasaklanmaması gerektiğinin altını çiziyor.

Bunun yerine raporun yazarları, hükümetler ve işletmeler tarafından, henüz teknoloji yeni ortaya çıkarken bazı kararların alınması gerektiğini söylüyorlar.

Dünya hükümetleri içerisindeki poliçe geliştiricileri bu teknolojinin üzerine çalışmaya başlayarak ve alandaki uzmanlar ile görüşerek AI yaratımını ve kullanımı etkili bir şekilde düzenlemeliler. Bu sırada ise AI geliştiricileri kendi düzenlemelerini yapmalı ve geliştirdikleri teknolojilerin en kötü kullanımlarını düşünerek poliçe geliştiricilerini önceden uyarmalılar.

Ayrıca raporda AI geliştiricilerinin, siber güvenlik gibi diğer güvenlik alanlarındaki uzmanlarla da görüşmeleri gerektiğini ve bu teknolojileri güvenli tutan sistemlerin AI'lerde de uygulanılabilirliğini incelemeleri gerektiğini söylemekteler.

Tam rapor bütün bunları çok daha ayrıntılı bir şekilde anlatıyor olsa da, çok özetlenerek anlatıldığında AI'nin güçlü bir araç olduğu ve her yeni teknolojide olduğu gibi hükümetlerin ve gelişimlerindeki pay sahiplerinin bu teknolojinin kötü bir amaçla kullanılmaması için çalışmak zorunda oldukları söyleniyor...

Önceki HaberNokia yeni adım attığı alanı bırakabilir...  
Güncelleme Tarihi: 22 Şubat 2018, 22:55
YORUM EKLE
SIRADAKİ HABER