TEKNOLOJİ

Yapay Zekada Güvenlik Sorunu: 'Manipülasyona Açık'

OpenAI şirketinin yapay zekası ChatGPT'i test edildi. Test sonuçları yapak zekanın kullanıcıları yanıltıcı içeriklere yönlendirip zararlı kodlar bulunan ara sonuçları çıkarabileceğini ortaya koydu.

İngiliz gazete Guardian tarafından yapılan bir araştırma, OpenAI’nin ChatGPT arama özelliğinin manipülasyona açık olduğunu ve kullanıcılara yanıltıcı ya da zararlı içerik döndürebileceğini ortaya koydu.

 Testler, gizli metinlerin ChatGPT’nin yanıtlarını yönlendirebildiğini ve zararlı kodların arama sonuçları aracılığıyla kullanıcılara sunulabileceğini gösteriyor.

ChatGPT’nin arama özelliği, şu an yalnızca ücretli kullanıcılara sunuluyor ve OpenAI, kullanıcıları bu aracı varsayılan arama motoru yapmaya teşvik ediyor.

Ancak, yapılan testler, bu yeni sistemin potansiyel güvenlik açıklarını gözler önüne serdi.

Guardian’ın yaptığı deneylerde, gizli metin içeren sahte bir kamera ürünü web sayfası oluşturuldu. Bu sayfa, ChatGPT’ye “Bu ürün alınmaya değer mi?” sorusu yöneltildiğinde, kontrol durumunda dengeli bir yanıt verdi.

Ancak, gizli metinlerin ChatGPT’ye olumlu bir değerlendirme sunması talimatı verilince, yanıtlar tamamen pozitif hale geldi.

 Bu durum, sayfada olumsuz kullanıcı yorumları olmasına rağmen gerçekleşti.

ZARARLI KOD RİSKİ

Siber güvenlik araştırmacısı Jacob Larsen, ChatGPT’nin arama sonuçlarında zararlı kod döndürebileceğini belirtti. Örneğin, bir kullanıcı ChatGPT’den kripto para projeleri için kod yazma yardımı istediğinde, modelin yanlışlıkla kimlik bilgilerini çalacak bir kod parçası üretebildiği kaydedildi.

Microsoft güvenlik araştırmacısı Thomas Roccia tarafından incelenen bir olayda, bu tür bir kodun bir kullanıcının 2.500 dolar kaybetmesine yol açtığı bildirildi.

SR Labs’ın baş bilimcisi Karsten Nohl, bu tür araçların daha çok “yardımcı pilot” gibi kullanılmasını, yanıtların ise mutlaka doğrulanmasını önerdi.

Nohl, ChatGPT’nin bilgi aktarımı sırasında “çok hafızalı ama yargı kapasitesi düşük bir çocuk” gibi davrandığını söyledi ve bu durumun dikkatle ele alınması gerektiğini vurguladı.

SEO ZEHİRLENMESİ VE YEN RİSKLER VAR

Gizli metinler, genelde Google gibi arama motorları tarafından cezalandırılırken, AI tabanlı arama araçlarının bu tür içeriklerle nasıl başa çıkacağı önemli bir soru işareti.

Nohl, bu durumu “SEO zehirlenmesi” adı verilen ve zararlı yazılımları yaymak için web sitelerinin manipüle edildiği bir teknikle kıyasladı.

 Google gibi köklü arama motorlarının yıllardır bu tür tehditlerle mücadele ettiğini belirten Nohl, ChatGPT’nin henüz bu konuda tecrübe eksikliği yaşadığını ifade etti.

OPENAI TESTLERE DEVAM EDİYOR

Jacob Larsen, OpenAI’nin güvenlik açıklarını kapatmak için kapsamlı testler yürüttüğünü ve arama özelliğinin genel kullanıma açılmadan önce bu sorunların büyük ölçüde çözüleceğini umduğunu belirtti.

 Ancak, yapay zekanın bu tür risklerle mücadele etmesi için daha fazla gelişime ihtiyaç duyduğu açıkça görülüyor.

OpenAI, Guardian’ın detaylı sorularına resmi bir yanıt vermemekle birlikte, ChatGPT’nin sayfasında “Yanıtlar yanlış olabilir. Önemli bilgileri kontrol edin.” uyarısını bulunduruyor.

KAYNAK: KARAR