Yeni sosyal mühendislik saldırıları, üretken yapay zekanın alımıyla birlikte %135 arttı. Çalışanların %82'si bilgisayar korsanlarının dolandırıcı e-postalar oluşturmak için üretici yapay zekayı kullanmasından endişe duyuyor.
Darktrace araştırmacıları, 2023'ün ilk iki ayında yeni sosyal mühendislik saldırısı e-postalarında %135'lik bir artış tespit etti. Siber güvenlik firması, e-posta saldırılarının Ocak ve Şubat 2023'te binlerce müşterisini hedef aldığını açıkladı.
İlginizi Çekebilir: NASA'nın Yapay Zekası DAGGER, Güneş Fırtınalarını Tahmin Edebilir
E-Postalarda Önemli Güvenlik Açığı Ortaya Çıkıyor
Yeni sosyal mühendislik saldırıları, Darktrace'in belirttiğine göre artan metin hacmi, cümle uzunluğu ve e-postalarda noktalama işaretleri içeren "sofistike dil teknikleri" kullanıyor. Darktrace ayrıca bir ek veya bağlantıyla gönderilen kötü amaçlı e-postaların sayısında bir azalma olduğunu da tespit etti.
Firma, bu davranışın, ChatGPT de dahil olmak üzere üretken yapay zekanın kötü niyetli aktörler tarafından hızlı bir şekilde hedefli saldırılar oluşturmak için kullanıldığı anlamına gelebileceğini açıkladı.
Darktrace Baş Ürün Sorumlusu Max Heinemeyer, açıklamalarında, “E-posta, günümüzde işletmeler için en önemli güvenlik açığıdır. Savunucular, daha önce hiç görmediğimiz teknikleri ve referans konularını kullanan gelişmiş üretken yapay zeka saldırılarına ve tamamen yeni dolandırıcılıklara karşı duruyor” şeklinde belirtti.
Açıklamalarına, “Yapay zeka destekli saldırıların arttığı bir dünyada, aldıkları iletişimlerin doğruluğunu belirleme sorumluluğunu artık insanlara yükleyemeyiz. Bu artık yapay zekanın işi.” şeklinde devam etti.
Anket sonuçları, çalışanların %82'sinin, gerçek iletişimden ayırt edilemeyen dolandırıcı e-postalar oluşturmak için üretici yapay zekayı kullanan bilgisayar korsanlarından endişe duyduğunu gösteriyor. Ayrıca, çalışanların %30'unun geçmişte bir dolandırıcılık e-postasına veya kısa mesaja kandığını da tespit ediyor.
Darktrace, ankete katılanlara bir e-postanın kimlik avı olduğunu düşündüren ilk üç özelliğin ne olduğunu sordu ve şu sonuçlara ulaştı:
%68'i bir bağlantıyı tıklamaya veya bir eki açmaya davet edildiği, %61'i bilinmeyen bir gönderici veya beklenmeyen bir içerikten kaynaklandığı ve yazım ve dilbilgisinin zayıf kullanımı da %61 tarafından seçildiği açıklandı.
Son altı ayda, çalışanların %70'i dolandırıcı e-postaların sıklığında bir artış olduğunu bildirdi. Ayrıca, %79'u kuruluşlarının spam filtrelerinin yasal e-postaların gelen kutularına girmesini engellediğini söylüyor. Bu bilgilere ek olarak da çalışanların %87'si, kimlik avı veya e-posta dolandırıcılığında kullanılabilecek çevrimiçi kişisel bilgilerinin miktarı konusunda endişe duyduklarını belirtiyor.
Yapay Zeka Mühendislik Saldırılarını Savunmak İçin Çeşitli Yöntemler Deneniyor
E-posta hizmetleri, her zaman saldırganların bir kuruluşa sızmasını sağlayan başlıca vektörlerden biri oluyor.
Bir kurbanın makinesine kötü amaçlı yazılım yüklemenin en yaygın yollarından biri, kötü amaçlı kodu Excel dosyası gibi bir Microsoft Office belgesinin içine yerleştirmek.
Microsoft, yakın zamanda yazılımlarının kimlik avı saldırılarında kötüye kullanılmasını en aza indirmeye yardımcı olacak bir dizi önlem uyguladı. En önemlisi 2022'de, kurcalanmış Office belgeleri aracılığıyla kötü amaçlı yazılımların otomatik olarak yüklenmesini kolaylaştıran, kötüye kullanılan bileşen olan VBA makrolarını devre dışı bırakıyor.
Karar sıcak karşılandı, ancak şirket eleştiriden kaçamadı. Bazıları, sektörün yıllardır VBA makrolarına karşı böyle bir önlem alınması için çağrıda bulunduğunu ve Microsoft'un daha hızlı davransaydı sayısız saldırıyı önleyebileceğini söylüyor.
Microsoft Exchange sunucuları, meşruiyet hissini artırmak ve önceki zincirlere devam etmek için gerçek e-posta adreslerini kullanıyor. E-posta hırsızlığı içerenler gibi son derece ikna edici e-posta kampanyaları başlatmak için bilgisayar korsanları tarafından yıllarca suistimal edildiğini biliyoruz.
Yapay zekanın siber güvenliğe yönelik tehdidi bir süredir korkutuyor ve üretken yapay zekanın ötesine geçiyor.
Deepfake teknolojisinin kimlik avı alanında neler başarabileceği konusunda da korkular bulunmakta. Muhtemel saldırılardan biri, bir CEO'nun görüntüsünün kötüye kullanılarak finans departmanındaki çalışanlara video ve/veya sesli talimatlar göndererek, örneğin onları saldırganların kontrolündeki hesaplara ödeme yapmaya teşvik ederek, kötüye kullanılması olabilir.
Intel ve FakeCatcher sisteminin en son çalışması, yüzlerdeki kan akışını analiz eden derin sahtekarlıkları tespit etmek için bir araç geliştirmeyi amaçlıyor.
Şu anda Intel, IT Pro'ya derin sahte görüntüleri belirlemede %96 başarı oranına sahip olduğunu ve teknolojinin yakın gelecekte derin sahte kimlik avı ve sosyal mühendislik saldırılarını önlemek için video konferans yazılımına yerleştirilebileceğini belirtiyor.
Bu habere henüz yorum yazılmamış, haydi ilk yorumu siz bırakın!...