2023 yazında OpenAI, insan soyunu tehlikeye atabilecek kadar güçlü yapay zeka sistemlerini kontrol etmeyi amaçlayan "Superalignment" adlı bir ekip oluşturmuştu. Ancak, bu ekip yalnızca bir yıl sonra dağıldı.
Şirketin açıklamasına göre, Superalignment ekibi, güvenlik ekibi ile şirketin genel arasındaki içsel gerilimleri açığa çıkardı. Ekip, araştırma yapabilmek için kaynaklar için mücadele etmiş ve yapay zeka güvenliği konusunda şirketin önceliklerinin geri planda kaldığını iddia etmişti.
Ayrıca, Superalignment ekibinin liderlerinden biri olan Jan Leike, şirketin güvenlik kültürü ve süreçlerinin "parlak ürünlere" öncelik verildiği gerekçesiyle ihmal edildiğini belirtti. Bunun sonucunda Leike'nin ayrılması, OpenAI'nın baş bilim insanı Sutskevar'ın da şirketten ayrılmasına yol açtı.
OpenAI'nın "Superalignment" ekibiyle ilgili girişimi sırasında şirket, önümüzdeki dört yıl içinde bilgisayar gücünün %20'sini güçlü yapay zeka sistemlerinin kontrol edilmesi için kullanmayı planlamıştı. Ancak Leike, ekibin "bilgi sızdırması" iddialarıyla Nisan ayında iki araştırmacının işten çıkarıldığını da belirtti.
Bu gelişmelerin ardından, OpenAI'nın gelecekteki güvenlik çabalarının, büyük dil modellerine odaklanan John Schulman ve GPT 4'ün geliştirilmesine öncülük eden Jakub Pachocki tarafından yürütüleceği belirtildi.
Superalignment ekibi dışında, yapay zeka güvenliği üzerine çalışan başka ekiplerin de olduğu ve şirketin AI sistemlerinden kaynaklanabilecek potansiyel "katastrofik riskler" ile ilgili "hazırlıklılık" ekibi oluşturulduğu biliniyor.
Şu anda, OpenAI'dan konuyla ilgili resmi bir açıklama gelmemiş olsa da, durumu yakından takip ediyoruz.