Yapay zekanın (AI) okul ödevleri için kolay sohbet sorularını yanıtlamasını, New York metrosundaki silahları tespit etmeye çalışmasını gördük; haberdar olduk.
Şimdi ise deepfake ile çocuk cinsel istismar içeriği oluşturmak için kullanan bir hatalının mahkumiyetinde hata ortağı olarak görülmesine şahit olduk. Dijital güvenlik şirketi ESET, yapay zeka atılımye kolossalam ederkenyanlış tarafa gitmesini önlemek için yapılan çalışmaları inceledi, dikkat edilmesi gerekenleri paylaştı.
ESET, yapay zekayı güvenlik bağlamında yıllardır kullanıyor. Kısmen kritik şeyleriyanlış anladığı için yapay zekanın sihirli bir değnek olmadığı konusunda ihtarlarını paylaşmıştı. Bununla birlikte “sadece orta sıra” kritik şeyleri yanlış yapan güvenlik yazılımları, güvenlik gruplarının gereksiz yere çabalamasını tetikleyen kolossalasa gerçek dışı olumlular yayarak ya da yapay zekanın zati bildiği ziyanlı am gereksinimli yazılımlardan “yeterince farklı” görünen yetersizcül am toksuzlı bir saldırıyı gözden k acıkmışırarak epeyce ziyanlı bir tesire sahip olacaktır. Bu nedenle denetim ve dengetemizak için ESET yapay zekayı bir dizi öteki teknolojiyle katmanlandırıyor. Bu formda şayet yapay zekanın karşılığı dijital halüsinasyona benziyorsa onu başka teknoloji yığınıyla birlikte geri çekebiliyor.
Düşmanlar çok fazla saf AI saldırısı başlatmamış olsa da bilhassa kimlik avı ve artık de toplumsal mühendislik uğraşlarını harika boyuta bir yerden bir yere taşımak için kimlik avından ses ve manzara klonlamada daha tesirli olmak ismine akın zincirindeki temasları doğaomatikleştiren düşmanca AI’yi akla getirmek gerekir. kirlicül aktörler dijital olarak itimat kazanıp yapay zeka tarafından oluşturulan dataları kullanarak sistemleri kimlik doğrulaması yapmaları için kandırabilirse bu, kuruluşunuza girmek ve özel istismar araçlarını manuel olarak başlatmak için zengindir. Bunu durdurmak için satıcılar çok faktörlü kimlik aşırılama katmanını kullanabilir. Böylelikle saldırganların yalnızca bir ses yahut parola yerine birden fazla kimlik aşırılama yoluna muhtaçlığı olur. Bu teknoloji şu anda yaygın olarak kullanılıyor olsa da kullanıcılar tarafından gereğince tercih edilmiyor. Bu, kullanıcıların kendilerini gecikmeli bir yük yahut cüce bir bütçe olmadan koruyabilmelerinin sadelik bir yoludur.
Bütün kabahat yapay zekanın mı?
Yapay zeka mı yanlış? AI’nin yanlış anlamasının münasebeti sorulduğunda beşerler esprili bir halde “karmaşık” karşılığını veriyordu. Fakat AI fizikî ziyan verme ve gerçek dünyayı etkileme yeteneğine yaklaştıkça bu artık tatmin edici ve varlıklı bir karşılık olmamaya başladı. Örneğin, AI dayanaklı şoförsüz bir otomobil kaza yaparsa “sürücü” mü ceza alır yoksa üretici mi? Bu, ne kadar karmaşık ve anlaşılmaz olursa olsun bir mahkemeyi tatmin edecek bir toksuzıklama değil.
Peki ya saklılık? GDPR kurallarının, mahremiyet merceğinden bakıldığında teknolojinin vahşileşmesini engellediğini gördük. elbette AI’den türetilmiş, dilimlenmiş ve doğranmış yepyeni yapıtların çıkar için türevler üretmesi mahremiyet ruhuna alışılmamıştır ve bu nedenle gözetici kanunları tetikleyecektir. Lakin AI’nin türev olarak kabul edilmesi için tam olarak ne kadarını kopyalaması gerekir ve mevzuatı atlatacak kadar kopyalarsa ne olur? Ayrıyeten yasal olarak daha kusursuz test edilmesi yıllar alacak ilginçsiz içtihat hukuku ile bunu mahkemede kim, nasıl kanıtlayacak? Gazete yayıncılarının Microsoft ve OpenAI’ye, makalelerin yüksek teknolojiyle kaynak gösterilmeden çağdaştan üretildiğini düşündükleri için dava acıkmıştıklarını görüyoruz; davanın ilkucu merak konusu, tahminen de gelecekteki yasal süreçlerin bir habercisi olacak.
AI bir araç ve çoklukla pürüzsüz bir ar muhtaç lakin kolossal azap büyük sorumluluk getirir. Şu anda AI sağlayıcılarının sorumluluğu, yeni bulduğumuz gücün kirlicülye gitmesi durumunda olabileceklerin çok gerisinde kalıyor.
Kaynak: (BYZHA) Beyaz Haber Ajansı