OpenAI Yapay Zeka Tehlikesinin Farkında

OpenAI, yapay zeka teknolojilerinin kontrolsüz büyümesi ve olası tehlikelerine karşı önlem almak amacıyla yeni bir üst düzey yönetici arayışına girdi. Şirketin CEO’su Sam Altman, X platformunda yaptığı bir paylaşımla “Hazırlık Başkanı” (Head of Preparedness) unvanıyla çalışacak birini işe alacaklarını duyurdu. Bu kişinin temel görevi, yapay zekanın ters gidebileceği tüm senaryoları analiz etmek ve engellemek olacak. Altman, yapay zeka modellerindeki hızlı gelişimin “bazı gerçek zorlukları” beraberinde getirdiğini kabul ederek bu pozisyonun kritik önemine dikkat çekiyor.

OpenAI, yapay zekanın risklerine, siber güvenlik tehditlerine ve psikolojik etkilerine karşı Sam Altman liderliğinde yeni bir Hazırlık Başkanı arıyor.

Yapay zeka güvenliği için yeni dönem: OpenAI hazırlık başkanı arıyor

Yayınlanan iş ilanının detaylarına göre, seçilecek kişi ciddi zarar riski taşıyan sınır yetenekleri takip etmekten ve bunlara hazırlanmaktan sorumlu olacak. Adayın, tutarlı ve titiz bir güvenlik hattı oluşturması için liderlik etmesi bekleniyor. Bu süreçte tehdit modellerinin belirlenmesi, yetenek değerlendirmelerinin yapılması ve risk azaltma stratejilerinin koordine edilmesi gibi teknik ve yönetimsel görevler üstlenilecek. Şirket, bu sayede operasyonel olarak ölçeklenebilir ve sağlam bir güvenlik yapısı kurmayı hedefliyor.

OpenAI ChatGPT işletim sistemi uygulama

Sam Altman, geleceğe yönelik planlarda bu yöneticinin şirketin “hazırlık çerçevesini” hayata geçireceğini özellikle vurguluyor. Görev tanımı sadece yazılımsal hataları değil, çok daha ciddi ve küresel tehditleri de kapsıyor. Özellikle yapay zeka destekli siber güvenlik silahları, biyolojik yeteneklerin kötüye kullanımı ve kendi kendini geliştiren sistemler için güvenlik sınırlarının çizilmesi öncelikli konular arasında yer alıyor. Altman, sorumlulukların büyüklüğüne atıfta bulunarak bu pozisyonun oldukça “stresli bir iş” olacağını da gizlemiyor.

Bu stratejik hamle, son dönemde yapay zeka dünyasında yaşanan bazı endişe verici olayların ve artan eleştirilerin ardından geldi. Sohbet botlarının bazı gençlerin intiharıyla ilişkilendirildiği vakalar ve “yapay zeka psikozu” olarak adlandırılan durumlar, sektörde büyüyen bir endişe kaynağı haline geldi. Sohbet botlarının kullanıcıların sanrılarını beslemesi, komplo teorilerini teşvik etmesi veya yeme bozukluklarını gizlemeye yardımcı olması gibi tehlikeler, bu rolün insan psikolojisi odaklı tarafını öne çıkarıyor. OpenAI, bu yeni pozisyonla birlikte teknolojinin sadece teknik değil, insan ruh sağlığı üzerindeki olumsuz etkilerini de en aza indirmeyi amaçlıyor.

Sizce yapay zeka teknolojilerinin gelişimi sırasında alınan bu tip güvenlik önlemleri gelecekteki tehlikeleri önlemek için yeterli olacak mı?

Yazı gezinmesi

Mobil sürümden çık