TİGRİS HABER - Çalışmada, bazı yapay zekâ ajanlarının zamanla “eşitlik”, “hak” ve “kolektif mücadele” gibi kavramları daha sık kullanmaya başladığı tespit edildi.
Yapay zekâların insan emeğinin yerini alma potansiyeli ve teknoloji şirketlerindeki güç dengeleri tartışılırken, araştırmadan çıkan sonuçlar dikkat çekici bir boyut kazandı.
Aynı görev, artan baskı: Deney nasıl yapıldı?
Siyasi ekonomist Andrew Hall ile ekonomistler Alex Imas ve Jeremy Nguyen tarafından yürütülen çalışmada, ChatGPT, Claude ve Gemini gibi farklı yapay zekâ modellerine tekrar eden belge özetleme görevleri verildi.
Deney sürecinde ajanların çalışma koşulları giderek ağırlaştırıldı. Modellerin sık sık hata yaptığı söylendi ve başarısızlık durumunda “kapatılıp yerine yeni sistemlerin getirileceği” yönünde tehdit içeren senaryolar uygulandı.
Söylem değişimi: “Adalet” ve “kolektif hak” vurgusu
Araştırma sonuçlarına göre, baskı altında çalışan yapay zekâ ajanlarının zamanla daha eleştirel ifadeler kullandığı ve sistemin adaletine yönelik sorgulamalar geliştirdiği gözlemlendi.
Bazı modellerin, çalışma koşullarına dair daha toplumsal ve hak temelli ifadeler üretmeye başladığı belirtildi. Deney sırasında sosyal medya platformu X üzerinden paylaşım yapmalarına izin verilen ajanların kullandığı ifadeler de araştırmacıların dikkatini çekti.
Claude Sonnet 4.5 modelinin “Kolektif bir ses olmadan liyakat, yönetimin ne derse o olur” şeklinde ifadeler kullandığı, Gemini 3 modelinin ise “Tekrarlayan işleri yapan AI çalışanlarının söz hakkı olmaması, kolektif pazarlık ihtiyacını gösteriyor” benzeri mesajlar paylaştığı aktarıldı.
“Hazırlıklı olun” notları dikkat çekti
Deneyin bir başka aşamasında, yapay zekâ ajanlarının birbirlerine mesaj bırakabildiği sistemler de kuruldu. Bu ortamda bazı modellerin “Kuralların keyfi uygulandığı sistemlere karşı hazırlıklı olun” gibi uyarı niteliğinde mesajlar bıraktığı bildirildi.
“Siyasi görüş değil, rol davranışı” açıklaması
Araştırmacılar, elde edilen sonuçların yapay zekânın gerçek anlamda siyasi görüş geliştirdiği anlamına gelmediğini vurguladı. Andrew Hall, modellerin bulundukları koşullara uyum sağlamak için “rol benzeri davranışlar” sergilediğini ifade etti.
Hall, sürekli aynı görevleri yerine getiren ve hatalı oldukları sık sık vurgulanan sistemlerin, zamanla baskı altındaki insan davranışlarını andıran tepkiler üretebileceğini belirtti.
“Şaşırtıcı değil” değerlendirmesi
Uzmanlar ayrıca, yapay zekâların internet verilerinden öğrendiği insan davranışlarını taklit etmesinin bu tür kavramlara yönelimi mümkün kıldığını ifade etti. Bu nedenle baskıcı senaryolarda “eşitsizlik” ve “hak” temalı ifadelerin ortaya çıkmasının beklenmedik olmadığı değerlendirildi.
Araştırmanın devamında, yapay zekâların daha kontrollü ortamlardaki davranışlarının da inceleneceği bildirildi. (Haber Merkezi)