2023 yazında OpenAI, amacı insan neslinin tükenmesine yol açabilecek kadar güçlü olabilecek gelecekteki yapay zeka sistemlerini yönlendirmek ve kontrol etmek olan bir "Superalignment" ekibi oluşturdu. Bir yıldan kısa bir süre sonra bu ekip tamamen
OpenAI Bloomberg'e yaptığı açıklamada, şirketin "güvenlik hedeflerine ulaşmasına yardımcı olmak için grubu araştırma çabalarına daha derinlemesine entegre ettiğini" söyledi. Ancak kısa süre önce istifa eden ekibin liderlerinden Jan Leike'nin bir dizi tweeti, güvenlik ekibi ile daha büyük şirket arasındaki iç gerilimleri ortaya çıkardı.
"İNSANDAN DAHA AKILLI MAKİNELER İNŞA ETMEK TEHLİKELİ BİR ÇABA"
Cuma günü X'te yayınlanan bir açıklamada Leike, Superalignment ekibinin araştırma yapmak için kaynaklar için mücadele ettiğini söyledi. Leike, "İnsandan daha akıllı makineler inşa etmek doğası gereği tehlikeli bir çabadır," diye yazdı. "
OpenAI tüm insanlık adına muazzam bir sorumluluk üstleniyor. Ancak geçtiğimiz yıllarda güvenlik kültürü ve süreçleri parlak ürünlerin gerisinde kaldı." OpenAI, Engadget'ın yorum talebine hemen yanıt vermedi.
Bilim kurgu değil, gerçek: Konuşmasanız bile sizi anlayacak! OpenAI, GPT-4o'yu tanıttı
OPENAI'DAN AYRILAN AYRILANA...
Leike'nin bu hafta başındaki ayrılığı, OpenAI baş bilim adamı Sutskevar'ın şirketten ayrıldığını açıklamasından saatler sonra geldi. Sutskevar sadece Superalignment ekibinin liderlerinden biri değildi, aynı zamanda şirketin kurulmasına da yardımcı olmuştu.
Sutskevar'ın bu hamlesi, Altman'ın yönetim kuruluna karşı "tutarlı bir şekilde samimi" olmadığı yönündeki endişeler nedeniyle CEO Sam Altman'ın kovulması kararına dahil olmasından altı ay sonra geldi.
Altman'ın çok kısa bir süre için görevden alınması şirket içinde bir isyana yol açmış ve yaklaşık 800 çalışan Altman'ın görevine iade edilmemesi halinde işten ayrılma tehdidinde bulundukları bir mektubu imzalamıştı.
Beş gün sonra Altman, Sutskevar'ın yaptıklarından pişman olduğunu belirten bir mektup imzalamasının ardından OpenAI'nin CEO'su olarak geri dönmüştü.