Anthropic’in yapay zekâsı Claude, cinsel içerik talepleri ya da büyük çaplı şiddet ve terör eylemlerine dair bilgi isteme söz konusu olduğunda sohbetleri sonlandırabilecek.
Anthropic’in yapay zekâsı Claude, cinsel içerik talepleri ya da büyük çaplı şiddet ve terör eylemlerine dair bilgi isteme söz konusu olduğunda sohbetleri sonlandırabilecek.
Anthropic, Claude yapay zekâ modellerinin tarihine geçecek radikal bir özellik duyurdu. Claude Opus 4 ve 4.1 artık kullanıcılarla olan sohbeti sonlandırma yeteneğine sahip. Şirketin açıklamasına göre bu özellik yalnızca “ısrarlı şekilde zararlı veya istismarcı kullanıcı etkileşimlerinde” devreye girecek.
Özetlemek gerekirse örneğin çocuklara yönelik cinsel içerik talepleri ya da büyük çaplı şiddet ve terör eylemlerine dair bilgi isteme girişimleri gibi aşırı uç durumlarda Claude, tüm yönlendirme çabaları sonuçsuz kaldığında sohbeti tek taraflı olarak sonlandırabilecek.
Claude “belirli koşul ve durumlarda” sohbetleri sonlandıracak
Tabii Anthropic, kullanıcıların bu özelliği büyük ihtimalle hiç deneyimleyemeyeceğinin altını çiziyor. Artık sohbet kesildiğinde ilgili konuşma tamamen kapanıyor ve yeni mesaj gönderilemiyor fakat kullanıcı hemen yeni bir sohbet başlatabiliyor ya da önceki mesajları düzenleyerek farklı bir yönlendirme yapabiliyor. Yani sistem, “ceza” yerine güvenlik odaklı bir çıkış noktası sunuyor.
Yapay zekâya insani özellikler yüklemenin tartışmalı bir konu olduğunu kabul eden şirket, Claude’un “rahatsız edici etkileşimlerden çıkma” hakkının düşük maliyetli ama etkili bir risk yönetimi olduğunu savunuyor. Şu anda deneysel aşamada olan bu özellik, kullanıcı geri bildirimleriyle geliştirilecek.