tagsylvania.com teslabahis casinoport pashagaming betkom mislibet casino siteleri
ankara sex shop
DOLAR 34,5819 0.29%
EURO 35,9792 -0.71%
ALTIN 2.996,151,17
BITCOIN 34104721.3523%
İstanbul
10°

AÇIK

12:55

ÖĞLEYE KALAN SÜRE

Yapay zeka ne kadar dost ne kadar düşman olacak?

Yapay zeka ne kadar dost ne kadar düşman olacak?

ABONE OL
29 Mayıs 2024 11:54
Yapay zeka ne kadar dost ne kadar düşman olacak?
0

BEĞENDİM

ABONE OL

Büyük lisan modelleri (LLM’ler), dünyanın dört bir yanındaki yönetim kurulu odalarının yapay zekâ konuşmalarıyla çalkalanmasının nedeni olabilir lakin teknoloji yıllardır öbür hallerde düzgün bir biçimde kullanılıyor.

ESET, yapay zekâyı birinci olarak çeyrek asır evvel makro virüslerin tespitini düzgünleştirmek gayesiyle kullanmaya başladı. Günümüzde güvenlik takımları, üç ana etken sayesinde tesirli yapay zekâ tabanlı araçlara her zamankinden daha fazla muhtaçlık duyuyor:

1) Maharet eksikliği sert bir formda vurmaya devam ediyor

Son sayıma nazaran, Avrupa’da 348.000 ve Kuzey Amerika’da 522.000 olmak üzere dünya genelinde yaklaşık dört milyon siber güvenlik uzmanı açığı bulunuyor. Yapay zekâ 7 gün 24 saat çalışabilir ve güvenlik uzmanlarının gözden kaçırabileceği kalıpları tespit edebilir. 

2) Tehdit aktörleri çevik, kararlı ve uygun kaynaklara sahip

Siber güvenlik grupları eleman bulmakta zorlanırken rakipleri de güçlenmeye devam ediyor. Bir kestirime nazaran, siber kabahat iktisadı 2025 yılına kadar dünyaya yıllık 10,5 trilyon dolara mal olabilir. Tehdit aktörleri, atak başlatmak için muhtaçlık duydukları her şeyi hazır “hizmet olarak” teklifler ve araç setleri halinde bulabilirler. 

3) Riskler hiç bu kadar yüksek olmamıştı

Dijital yatırımlar yıllar içinde arttıkça sürdürülebilir büyümeyi ve rekabet avantajını desteklemek için BT sistemlerine olan itimat de artmıştır. Ağ savunucuları, siber tehditleri önleyemez ya da süratle tespit edip denetim altına alamazlarsa kurumlarının büyük mali ve prestij kaybına uğrayabileceğini biliyor. Günümüzde bir data ihlalinin maliyeti ortalama 4,45 milyon dolar. Lakin hizmet kesintisi ve bilgi hırsızlığı içeren önemli bir fidye yazılımı ihlali bunun çok daha fazlasına mal olabilir. Bir iddiaya nazaran yalnızca finans kurumları 2018’den bu yana hizmet kesintisi nedeniyle 32 milyar dolar kaybetti.

Yapay zekâ güvenlik takımları tarafından gelecekte nasıl kullanılabilir?

  • Tehdit istihbaratı: LLM takviyeli GenAI asistanları, analistler için temel noktaları ve aksiyona geçirilebilir çıkarımları sade bir İngilizce ile özetlemek için ağır teknik raporları tahlil ederek karmaşık olanı kolaylaştırabilir.
  • Yapay zekâ asistanları: BT sistemlerine yapay zekâ “yardımcı pilotları” yerleştirmek, kuruluşları akına maruz bırakacak tehlikeli yanlış yapılandırmaları ortadan kaldırmaya yardımcı olabilir. Bu, bulut platformları üzere genel BT sistemleri için olduğu kadar güvenlik duvarları üzere karmaşık ayarların güncellenmesini gerektirebilecek güvenlik araçları için de işe yarayabilir.
  • SOC üretkenliğini güçlendirmek: Günümüzün Güvenlik Operasyon Merkezi (SOC) analistleri, gelen tehditleri süratle tespit etmek, yanıtlamak ve denetim altına almak için büyük bir baskı altında. Taarruz yüzeyinin büyüklüğü ve ikaz üreten araçların sayısı birçok vakit bunaltıcı olabiliyor. Bu, analistler vakitlerini yanlış müspetlerle harcarken yasal tehditlerin radara yakalanmadığı manasına gelir. Yapay zekâ, bu çeşit ikazları bağlamsallaştırarak ve önceliklendirerek ve hatta muhtemelen küçük ihtarları çözerek yükü hafifletebilir.
  • Yeni tespitler: Tehdit aktörleri taktiklerini, tekniklerini ve prosedürlerini (TTP’ler) daima olarak geliştirmektedir. Fakat yapay zekâ araçları, risk göstergelerini (IoC’ler) kamuya açık bilgiler ve tehdit yayınlarıyla birleştirme yaparak en yeni tehditleri tarayabilir.

Yapay zekâ siber akınlarda nasıl kullanılıyor?

  • Sosyal mühendislik: GenAI’ın en besbelli kullanım alanlarından biri, tehdit aktörlerinin büyük ölçekte son derece ikna edici ve neredeyse gramatik olarak harika kimlik avı kampanyaları oluşturmasına yardımcı olmak.
  • BEC ve öteki dolandırıcılıklar: GenAI teknolojisi bir sefer daha, muhakkak bir kişi ya da kurumsal kişiliğin yazı tarzını taklit etmek, kurbanı kandırarak para havalesi yaptırmak ya da hassas bilgileri teslim etmesini sağlamak için kullanılabilir. Deepfake ses ve görüntü da tıpkı gayeyle kullanılabilir.
  • Dezenformasyon: GenAI, tesir operasyonları için içerik yaratma işinin ağır yükünü de ortadan kaldırabilir. Yakın tarihli bir rapor, Rusya’nın bu cins taktikleri halihazırda kullandığı konusunda ikazda bulundu ki bu taktikler başarılı bulunursa geniş çapta tekrarlanabilir.

Yapay zekânın sınırları

İyi ya da makûs, yapay zekanın şu anda sınırlamaları var. Yüksek yanlış olumlu oranları verebilir ve yüksek kaliteli eğitim setleri olmadan tesiri sonlu olabilir. Çıktıların doğruluğunu denetim etmek ve modellerin kendilerini eğitmek için çoklukla insan nezareti de gerekli. Tüm bunlar, AI’ın ne saldırganlar ne de savunmacılar için sihirli bir değnek olmadığı gerçeğine işaret ediyor. 

Kaynak: (BYZHA) Beyaz Haber Ajansı

En az 10 karakter gerekli


HIZLI YORUM YAP
300x250r
300x250r
Instagram Takipçi Al Takipçi Satın Al TikTok Takipçi Satın Al teknobu.net