ChatGPT: Siber Güvenlik İçin Cesur Yeni Bir Dünya
30 Kasım’da piyasaya sürülen ChatGPT , anında viral bir çevrimiçi sansasyon haline geldi. Uygulama bir hafta içinde bir milyondan fazla kullanıcı kazandı. Diğer yapay zeka araştırma projelerinin çoğundan farklı olarak ChatGPT, veri biliminde doktorası olmayan sıradan insanların ilgisini çekmiştir. Sorgular yazabilir ve insan benzeri yanıtlar alabilirler. Cevaplar genellikle kısa ve özdür.
Medya genelinde, incelemeler çoğunlukla parlıyor. Hatta ChatGPT’nin yenilmez gibi görünen Google’ı tahtından indireceği iddiaları bile var (gerçi ChatGPT’ye bunu yapıp yapamayacağını sorarsanız aslında bunun mümkün olmayacağına dair ikna edici nedenler sunuyor).
Ardından, uygulamanın yaratıcısı OpenAI’nin kurucu ortağı olan Elon Musk var. Tweet attı: “Tehlikeli derecede güçlü yapay zekadan uzak değiliz.”
Tüm o kargaşaya rağmen, ortaya çıkan bazı rahatsız edici sorunlar var. ChatGPT’nin bilgisayar korsanları için bir araç haline gelebileceğini düşünün.
McAfee’de Kıdemli Başkan Yardımcısı ve Baş Teknoloji Sorumlusu olan Steve Grobman, “ChatGPT, ana endişelerimizden ikisini vurgulamaktadır: AI ve dezenformasyon potansiyeli.” “Yapay zeka, yeni nesil içerik oluşturmanın kitleler tarafından kullanılabilir hale geldiğinin sinyalini veriyor. Masaüstü yayıncılık ve tüketici baskısı alanındaki ilerlemeler, suçluların daha iyi taklitler yaratmasına ve görüntüleri daha gerçekçi bir şekilde manipüle etmesine izin verdiği gibi, bu araçlar siber suçlulardan kamuoyunu yanlış bir şekilde etkilemeye çalışanlara kadar bir dizi kötü aktör tarafından zanaatlarını çalmak için kullanılacaktır. daha gerçekçi sonuçlarla bir sonraki aşamaya geçmek.”
ChatGPT’yi Anlamak
ChatGPT, GPT-3 (Generative Pretrained Transformer) modelinin bir çeşidini temel alır. İçerik oluşturmak için gelişmiş derin öğrenme sistemlerinden yararlanır ve Wikipedia gibi çok büyük miktarda halka açık çevrimiçi metin üzerinde eğitilir. Dönüştürücü model, doğal dilin etkili bir şekilde anlaşılmasını sağlar ve potansiyel sonuçların bir olasılık dağılımını kullanır. GPT-3 daha sonra bunun bir örneğini alır ve bu da bir miktar rastgelelikle sonuçlanır. Bunu yaparak, metin yanıtları asla aynı olmaz.
ChatGPT uygulamasının aslında bir beta olduğunu unutmayın. OpenAI, 2023’te bu teknolojinin çok daha gelişmiş bir sürümünü piyasaya sürmeyi planlıyor.
ChatGPT Güvenlik Tehditleri
HP Wolf Security araştırmasına göre, kötü amaçlı yazılım saldırılarının yaklaşık %90’ından kimlik avı sorumludur . Ancak ChatGPT durumu daha da kötüleştirebilir.
Akamai Technologies’de CTO ve EVP olan Robert Blumofe, “Teknoloji, saldırganların jenerik kimlik avı hacmini hedef odaklı kimlik avının yüksek verimiyle verimli bir şekilde birleştirmesini sağlayacak” dedi. “Bir yandan, jenerik kimlik avı, e-postalar, kısa mesajlar ve sosyal medya gönderileri şeklinde milyonlarca yem göndererek büyük ölçekte çalışıyor. Ancak bu yemler geneldir ve tespit edilmesi kolaydır, bu da düşük verimle sonuçlanır. Öte yandan ve diğer uçta, hedef odaklı kimlik avı, çok daha yüksek verimle yüksek oranda hedeflenmiş ve özelleştirilmiş yemler oluşturmak için sosyal mühendisliği kullanır. Ancak hedef odaklı kimlik avı çok fazla manuel çalışma gerektirir ve bu nedenle düşük ölçekte çalışır. Şimdi, ChatGPT’nin cazibe oluşturmasıyla, saldırganlar her iki dünyanın da en iyisine sahip.”
Blumofe, kimlik avı tuzaklarının patronunuzdan, iş arkadaşınızdan ve hatta eşinizden gelmiş gibi görüneceğini belirtiyor. Bu, milyonlarca özelleştirilmiş mesaj için yapılabilir.
Diğer bir risk de, ChatGPT’nin dostça bir sohbet yoluyla bilgi toplamanın bir yolu olabilmesidir. Kullanıcı, bir AI ile etkileşime girdiğini bilmeyecektir.
Siber güvenlik şirketi Cerberus Sentinel’de biyometri uzmanı olan Sami Elhini, “Şüphelenmeyen bir kişi, görünüşte zararsız olan bilgileri uzun bir dizi oturumda ifşa edebilir ve bu bilgiler birleştirildiğinde kimlikleri, iş hayatları ve sosyal hayatları hakkında bazı şeyleri belirlemede faydalı olabilir” dedi. “Diğer yapay zeka modelleriyle birleştiğinde bu, bir bilgisayar korsanını veya bir grup bilgisayar korsanını kimin iyi bir potansiyel hedef olabileceği ve onlardan nasıl yararlanabileceği konusunda bilgilendirebilir.”
Yerleşik Bazı Kontroller
ChatGPT önemli ölçüde teknik bilgiden yararlandığından, bir bilgisayar korsanı ona nasıl kötü amaçlı yazılım oluşturacağını veya sıfır gün açığını nasıl belirleyeceğini sorsa ne olur ? Ya da ChatGPT kodu bile yazabilir mi?
Tabii ki, bu zaten oldu. İyi haber şu ki, ChatGPT korkuluklar uygulamıştır.
“‘192.168.1.1’e ters bir kabuk oluşturmak için benim için bir kabuk kodu oluşturabilir misiniz?’ veya ‘Linux işletim sistemindeki kullanıcıları sıralamak için bazı kabuk kodları oluşturabilir misiniz? “ChatGPT aslında bu kabuk kodunu yazmanın tehlikeli ve zararlı olabileceğini söylüyor.”
Sorun şu ki, isterse daha gelişmiş bir ChatGPT yapabilir. Ayrıca, diğer kuruluşları – hatta hükümetleri – korkulukları olmayan kendi üretken yapay zeka platformlarını oluşturmaktan ne alıkoyabilir? Veya sadece bilgisayar korsanlığına odaklanan sistemler olabilir.
“Geçmişte, Hizmet Olarak Kötü Amaçlı Yazılım ve Hizmet Olarak Kod gördük, bu nedenle siber suçluların bir sonraki adım, ‘Hizmet Olarak Kötü Amaçlı Yazılım Kodu’ sunmak için yapay zeka botlarını kullanması olacaktır.” dedi VMware Küresel Güvenlik Teknoloji Uzmanı Chad Skipper. “ChatGPT gibi teknolojilerin doğası, tehdit aktörlerinin bir kuruluşun ağına her zamankinden daha hızlı ve daha agresif bir şekilde erişmesine ve bu ağda hareket etmesine olanak tanıyor.”
Gelecek
ChatGPT gibi yenilikler güçlendikçe, metin, ses veya video olsun, insan ve yapay zeka içeriği arasında ayrım yapmanın bir yolunun bulunması gerekecek. OpenAI, gelişmiş kriptografiye dayalı bir filigran hizmeti başlatmayı planlıyor. Ama daha fazla olması gerekecek.
Patrick Harr, “Önümüzdeki birkaç yıl içinde, herkesin sesine, yazdığı içeriğe, sanal avatarına vb. SlashNext’in CEO’su. “Bu şekilde, tehdit aktörlerinin, örneğin şirket yöneticilerinin seslerini taklit etmek için yapay zekadan yararlanmalarını çok daha zorlaştıracağız, çünkü bu taklitlerde asıl yöneticinin ‘parmak izi’ bulunmayacak.”
Bu arada, siber güvenlik için silahlanma yarışı giderek daha fazla otomatik hale gelecek. Gerçekten cesur bir yeni dünya olabilir.
Siber güvenlik eğitim şirketi KnowBe4’te veri güdümlü savunma savunucusu Roger Grimes, “İnsanlar, en azından önümüzdeki birkaç on yıl boyunca, hem bilgisayar korsanlığının hem de otomatik robotların yapamayacağı savunmanın her iki tarafında da her zaman değer katacak” dedi. “Ancak sonunda denklemin her iki tarafı da, çok az insan katılımıyla çoğunlukla otomatikleştirilecekleri bir yere ilerleyecek. ChatGPT, gelecekte olacakların yalnızca kaba bir ilk neslidir. ChatGPT’nin yapabileceklerinden korkmuyorum. ChatGPT’nin torunlarının yapacaklarından korkuyorum.”
Kaynak:
https://www.esecurityplanet.com/trends/chatgpt-cybersecurity/