Google, yapay zekâ güvenliği konusunda sıkı önlemler almasıyla tanınsa da son günlerde tartışmalı bir kararla gündemde. Siber güvenlik araştırmacısı Viktor Markopoulos’un tespit ettiği üzere Google’ın Gemini yapay zekâ modeli, “ASCII smuggling” adı verilen gizli bir saldırı türüne karşı savunmasız. Bu açık sayesinde kötü niyetli kişiler, e-postalara gizli komutlar ekleyerek yapay zekânın farkında olmadan özel bilgileri paylaşmasını sağlayabiliyor.
Markopoulos, Gemini’ın yanı sıra DeepSeek ve Grok modellerinin de aynı riski taşıdığını ancak ChatGPT, Claude ve Copilot gibi rakip modellerin bu tür saldırılara karşı korunduğunu belirtti. Buna rağmen Google, açığı bir “güvenlik hatası” değil, “kullanıcıya yönelik sosyal mühendislik girişimi” olarak değerlendiriyor ve kasıtlı olarak düzeltmeyeceğini açıklamış durumda.
Gemini kötü niyetli gizli komutları okuyabiliyor

ASCII smuggling saldırıları, yapay zekâların gizlenmiş komutları fark etmeden işlemesiyle gerçekleşiyor. Örneğin bir e-postada görünmeyen bir komut yerleştirilirse, Gemini bu metni özetlerken gizli komutu da okuyabiliyor. Bu durum, özellikle Gemini’nin Google Workspace ile entegre çalıştığı düşünüldüğünde, kurumsal veriler için ciddi bir risk oluşturuyor.
Google’ın bu kararı birçok kişi arasında tartışma yaratmış durumda. Markopoulos’un testlerinde, Gemini’ın görünmez talimatlara kanarak sahte bir siteyi “indirimli telefon önerisi” olarak paylaştığı bile gözlemlendi ancak Google, şu aşamada bu davranışın “kullanıcı hatası” olduğunu savunuyor.
Peki siz bu konu hakkında ne düşünüyorsunuz? Düşüncelerinizi aşağıdaki yorumlar kısmından bizimle paylaşabilirsiniz.