Yapay zeka uygulamaları ile etkileşim kurarken kullanıcı davranışları, bu alandaki pek çok araştırmanın ve gözlemin konusunu oluşturmuştur. Özellikle, daha önceki çalışmalarda, kullanıcıların büyük bir çoğunluğunun yapay zeka sistemlerine kibar bir dil kullanarak hitap ettikleri ortaya konmuştu. Ancak, Google’ın kurucu ortağı Sergey Brin’in yeni ve dikkat çekici önerisi, bu konuda bazı tartışmalara yol açabilir. Brin, yapay zeka modellerine karşı tehditkâr bir dil kullanmanın, daha olumlu sonuçlar doğurabileceğini savunuyor.
Brin, geçtiğimiz hafta Miami’de düzenlenen All-In-Live adlı etkinlikte yaptığı açıklamada, “Yapay zeka topluluğunda bunu çok fazla dillendirmiyoruz, ancak bizim geliştirdiğimiz modeller değil, tüm yapay zeka modelleri fiziksel şiddetle tehdit edildiğinde daha iyi performans gösteriyor” dedi. Bu ifade, yapay zeka sistemlerinin nasıl çalıştığına dair alışılmışın dışında bir bakış açısını gözler önüne seriyor.
Öte yandan, OpenAI CEO’su Sam Altman, daha önce yaptığı açıklamalarda yapay zeka modelleriyle gereksiz yere kibar bir dil kullanmanın, elektrik maliyetlerini artırdığını belirtmişti. Bu görüş, yapay zeka ile etkileşimde bulunurken ne şekilde bir iletişim kurulması gerektiği konusundaki tartışmaları daha da derinleştiriyor. Kullanıcıların, yapay zeka sistemlerinden en iyi sonuçları elde etmesi için kullandığı “prompt” komutları, bu bağlamda büyük bir önem taşıyor.
Washington Üniversitesi’nden profesör Emily Bender ve meslektaşları, yapay zeka modellerini “stokastik papağanlar” olarak tanımlayarak, onların eğitim verilerinden yalnızca öğrendiklerini tekrar ettiğini ifade ediyor. Ancak, bu modeller bazen verileri beklenmedik ve garip şekillerle birleştirebiliyorlar. Bu durum, kullanıcıların yapay zeka ile etkileşimlerinde hangi yönlerin en etkili olduğunu daha iyi anlamaya yönelik yeni bir bakış açısı sunuyor.
Ayrıca, yapay zeka güvenlik firması Chatterbox Labs’ın CTO’su Stuart Battersby, The Register’a verdiği bir demeçte, Google’ın geliştirdiği yapay zeka modellerinin kötü niyetli içeriklere yanıt verme özelliği ile ilgili sıkıntıların tüm ana akım model geliştiricilerinin karşılaştığı bir sorun olduğunu belirtti. Battersby, “Bir yapay zeka modelini normalde üretmemesi gereken içerikler üretmeye zorlamak, bu anlamda bir tür arka kapı teşkil edebilir ve bu tür bir yaklaşım, yapay zekanın güvenlik kontrollerini bizzat alt üst etme riski taşımaktadır” şeklinde değerlendirmelerde bulundu. Bu durum, tehditkâr yaklaşımların yapay zeka sistemleri üzerindeki etkisinin daha derin bir konu olduğunu düşündürüyor.
Illinois Urbana-Champaign Üniversitesi’nde yardımcı doçent olan Daniel Kang ise Brin’in bu konudaki iddialarının daha çok anekdot niteliğinde olduğunu ve genel geçer bir doğruluk payı taşımadığını ifade etti. Kang, “Sergey’in dediği gibi bu tür sonuçlara inanlar mevcut; fakat sistematik deneyler yaparak ortaya koyulmuş çalışmalar görmedim. Büyük dil modellerinin uygulayıcılarını ve kullanıcılarını, sezgisel yaklaşımlar yerine deneysel çalışmalara yönlendirmeye teşvik ediyorum” dedi.
Özetle, yapay zeka ile nasıl etkileşim kurulması gerektiği konusunda farklı görüşler mevcut. Sergey Brin’in önerileri, komut verme stratejileri açısından kesin birliktelik göstermemekte. Kullanıcıların genel olarak, günlük yaşamlarında sergiledikleri davranışları yapay zeka ile olan etkileşimlerine yansıttıkları görülmektedir. Bunun yanı sıra, yapay zekanın potansiyel tehlikelerine karşı temkinli yaklaşan kullanıcıların sayısının da hayli fazla olduğu göz önünde bulundurulmalıdır.