Yakın tarihli bir açıklamada FBI, siber suçlarla ilgili gidişat ve yapay zeka teknolojisinin hızlı ivmesi hakkında oldukça kasvetli bir görüş sunarak, işlerin daha da kötüye gidebileceğine dair bir uyarı yayınladı.
FBI’a göre, kimlik avı saldırılarının veya kötü amaçlı yazılım geliştirmenin bir parçası olarak yapay zeka teknolojisini kullanan ve sapkınlığa dönüşen kişilerin sayısı endişe verici bir oranda artıyor ve operasyonlarının etkisi yalnızca artıyor.
Açık Kaynağın büyük ölçüde düzenlenmemiş alanı, OpenAI’nin ChatGPT’si gibi Yapay Zeka Büyük Dil Modelleri (LLM), siber suç çılgınlığının daha yaygın hale gelmesini sağlıyor. Bilgisayar korsanları, yapay zekanın yardımıyla, her zamankinden daha fazla insana benzeyen, kolluk kuvvetleri tarafından daha önce hiç görülmemiş bir ölçekte, karmaşık kimlik avı dolandırıcılıkları ve siber saldırılar tasarlayabilir.
Kurbanları Kandırmak İçin Yapay Zekayı Kullanan Hackerlar
Son 12 ayda yapay zeka teknolojisinin ivme kazanmasıyla ilgili söylentilerin çoğu, üretken yapay zekanın insanları işlerinde nasıl daha verimli hale getirebileceğiyle ilgiliydi. Ancak unutmamamız gereken şey, siber suçluların saldırılarını artırmak ve fark edilmeden kalma konusunda daha iyi olmak için eşit derecede yapay zekayı kullandıklarıdır.
Açık Kaynaklı Yapay Zeka kullanarak, herkes kendi seçtiği bir LLM’yi, seçtiği belgeler üzerinde eğitebilir. Bu nedenle, tek amacı kullanıcılarının kimlik avı saldırıları başlatmasına, kötü amaçlı yazılım kodlamasına ve masum kurbanları kandırmak amacıyla yanlış bilgi üretmesine yardımcı olmak olan siyah şapkalı sohbet robotlarında bir artış oldu .
Muhtemelen tasarım gereği FBI, siber suçluların özellikle hangi yapay zeka modellerini kullandıklarını açıklamadı. Üst düzey bir FBI yetkilisi şu yorumu yaptı:
“Zamanla yapay zeka modellerinin benimsenmesi ve demokratikleşmesi devam ettikçe bu eğilimlerin artacağını umuyoruz.”
AI Kimlik Avı E-postaları
Yapay zeka destekli bu araçlar, saldırganların web sayfaları oluşturmasını, kimlik avı e-posta zincirleri yazmasını ve temel olarak tehdit aktörü adına bir kimlik avı saldırısı başlatma sürecinin tamamıyla ilgilenmesini her zamankinden daha kolay hale getiriyor.
Çoğu durumda, siber suçlu, hedefinin dilini konuşmaz ve bu nedenle, geçmişte, belirli bir dilde yazamamaları nedeniyle birçok kimlik avı e-postasını tespit etmek kolaydı. Ancak şimdi yapay zeka, onların giderek daha meşru görünmelerine yardımcı oluyor.
AI Kodlama Kötü Amaçlı Yazılım
FBI, bilgisayar korsanlarının kendileri hiçbir kodlama becerisi olmadan mevcut siber güvenlik yeteneklerinden kaçabilen polimorfik kötü amaçlı yazılımları nasıl hızlı bir şekilde kodlayabildikleri hakkında konuştu.
Kötü niyetli aktörler, bir chatbot’un API’sini değiştirerek kötü amaçlı yazılım kodu oluşturmasını sağlayabilir ve virüs oluşturmayı hemen hemen her olası bilgisayar korsanının hizmetine sunabilir.
WithSecure tehdit istihbaratı başkanı Tim West şunları söyledi:
“ChatGPT, yazılım mühendisliğini iyi ve kötü yönde destekleyecek ve tehdit aktörlerinin kötü amaçlı yazılım geliştirmesi için bir kolaylaştırıcı ve giriş engelini azaltıyor.”
Yapay Zeka Tarafından Oluşturulan Derin Sahteler
FBI ayrıca zararlı derin sahtelerin yapay zeka tarafından da üretilebileceğini kaydetti. Şiddeti kışkırtan görünüşte meşru bir basın açıklaması veya mağdurları büyük miktarlarda paradan ayrılmaya ikna edecek güvenilir bir kişinin kimliğine bürünme olsun, derin sahtekarlıklar aşılmaz hasara neden olabilir.
Yanlış bilgilerin yayılması, yapay zeka ve insan yapımı içerik arasındaki farkı söylemeyi çok daha önemli hale getiriyor. Yakın zamanda Beyaz Saray’da yapılan bir zirvede yapay zeka devleri (OpenAI, Microsoft, Meta ve Google) bu tür bir teknolojiyi geliştirme sözü verdiler.
Bu siber güvenlik sorunlarından herhangi biri hakkında endişeleriniz varsa, bu makale kimlik avı dolandırıcılıklarını nasıl tespit edip önleyeceğinizi açıklamaktadır .
Cevap bırakın