Büyük lisan modelleri (LLM’ler), dünyanın dört bir yanındaki yönetim kurulu odalarının yapay zekâ konuşmalarıyla çalkalanmasının nedeni olabilir lakin teknoloji yıllardır öbür hallerde düzgün bir biçimde kullanılıyor.
ESET, yapay zekâyı birinci olarak çeyrek asır evvel makro virüslerin tespitini düzgünleştirmek gayesiyle kullanmaya başladı. Günümüzde güvenlik takımları, üç ana etken sayesinde tesirli yapay zekâ tabanlı araçlara her zamankinden daha fazla muhtaçlık duyuyor:
1) Maharet eksikliği sert bir formda vurmaya devam ediyor
Son sayıma nazaran, Avrupa’da 348.000 ve Kuzey Amerika’da 522.000 olmak üzere dünya genelinde yaklaşık dört milyon siber güvenlik uzmanı açığı bulunuyor. Yapay zekâ 7 gün 24 saat çalışabilir ve güvenlik uzmanlarının gözden kaçırabileceği kalıpları tespit edebilir.
2) Tehdit aktörleri çevik, kararlı ve uygun kaynaklara sahip
Siber güvenlik grupları eleman bulmakta zorlanırken rakipleri de güçlenmeye devam ediyor. Bir kestirime nazaran, siber kabahat iktisadı 2025 yılına kadar dünyaya yıllık 10,5 trilyon dolara mal olabilir. Tehdit aktörleri, atak başlatmak için muhtaçlık duydukları her şeyi hazır “hizmet olarak” teklifler ve araç setleri halinde bulabilirler.
3) Riskler hiç bu kadar yüksek olmamıştı
Dijital yatırımlar yıllar içinde arttıkça sürdürülebilir büyümeyi ve rekabet avantajını desteklemek için BT sistemlerine olan itimat de artmıştır. Ağ savunucuları, siber tehditleri önleyemez ya da süratle tespit edip denetim altına alamazlarsa kurumlarının büyük mali ve prestij kaybına uğrayabileceğini biliyor. Günümüzde bir data ihlalinin maliyeti ortalama 4,45 milyon dolar. Lakin hizmet kesintisi ve bilgi hırsızlığı içeren önemli bir fidye yazılımı ihlali bunun çok daha fazlasına mal olabilir. Bir iddiaya nazaran yalnızca finans kurumları 2018’den bu yana hizmet kesintisi nedeniyle 32 milyar dolar kaybetti.
Yapay zekâ güvenlik takımları tarafından gelecekte nasıl kullanılabilir?
Yapay zekâ siber akınlarda nasıl kullanılıyor?
Yapay zekânın sınırları
İyi ya da makûs, yapay zekanın şu anda sınırlamaları var. Yüksek yanlış olumlu oranları verebilir ve yüksek kaliteli eğitim setleri olmadan tesiri sonlu olabilir. Çıktıların doğruluğunu denetim etmek ve modellerin kendilerini eğitmek için çoklukla insan nezareti de gerekli. Tüm bunlar, AI’ın ne saldırganlar ne de savunmacılar için sihirli bir değnek olmadığı gerçeğine işaret ediyor.
Kaynak: (BYZHA) Beyaz Haber Ajansı
GÜNDEM
22 Kasım 2024GÜNDEM
22 Kasım 2024GÜNDEM
22 Kasım 2024GÜNDEM
22 Kasım 2024