Güvenlikten Sorumlu OpenAI Çalışanları Gemiden Atlıyor

OpenAI, Superalignment ekibini neredeyse bir yıl önce varsayımsal süper akıllı yapay zeka sistemlerini kontrol etme ve onların insanlara karşı dönmesini önleme hedefiyle kurdu. Doğal olarak pek çok kişi endişeliydi; neden böyle bir takımın var olması gerekiyordu? Şimdi ise daha endişe verici bir durum ortaya çıktı: Ekibin liderleri Ilya Sutskever ve Jan Leike , OpenAI'den ayrıldılar.
Superalignment'ın liderliğinin istifası, bir kısmı Sutskever ve Leike'nin güvenlik odaklı ekibinden gelen, şirketten bir dizi dikkate değer ayrılmanın sonuncusu oldu. Kasım 2023'te Sutskever ve OpenAI'nin yönetim kurulu, CEO Sam Altman'ı görevden almak için başarısız bir girişimde bulundu. Altı ay sonra, yapay zeka güvenliği konusunda açık sözlü olan veya kilit güvenlik ekiplerinde çalışan birkaç OpenAI personeli şirketten ayrıldı.
Sutskever darbe için özür diledi (kötüyüm dostum!) ve 738 OpenAI çalışanıyla birlikte (toplam 770 çalışandan) Altman ve Başkan Greg Brockman'ın yeniden göreve getirilmesini isteyen bir mektup imzaladı. Bununla birlikte, New York Times'ın 702 imzayla elde ettiği mektubun bir kopyasına göre (Gizmodo'nun bulabileceği en eksiksiz halka açık kopya), şu anda istifa eden birkaç personel ya OpenAI'nin liderliğine destek gösterisini imzalamadı ya da geride kaldı. böyle yap.
O zamandan beri istifa eden Superalignment ekibi üyeleri Jan Leike, Leopold Aschenbrenner ve William Saunders'ın isimleri, Times'ın kopyasında Altman ve Brockman'a destek gösteren diğer 700'den fazla OpenAI çalışanının yanında yer almıyor . Dünyaca ünlü AI araştırmacısı Andrej Karpathy ve eski OpenAI çalışanları Daniel Kokotajlo ve Cullen O'Keefe de mektubun bu ilk versiyonunda yer almıyorlar ve o zamandan beri OpenAI'den ayrıldılar. Bu kişiler mektubun sonraki versiyonunu destek sinyali vermek için imzalamış olabilirler, ancak eğer öyleyse, bunu yapan son kişiler gibi görünüyorlar.
Gizmodo, bundan sonra Superalignment ekibine kimin liderlik edeceği konusunda yorum yapmak için OpenAI'ye ulaştı ancak hemen bir yanıt alamadık.
Daha genel anlamda OpenAI'de güvenlik her zaman bölücü bir konu olmuştur. Dario ve Daniela Amodei'nin 2021'de diğer dokuz eski OpenAI çalışanı ile birlikte kendi yapay zeka şirketleri Anthropic'i kurmalarına neden olan da buydu . Güvenlik kaygılarının aynı zamanda OpenAI'nin kâr amacı gütmeyen yönetim kurulu üyelerinin Altman ve Brockman'ı devirmesine yol açtığı da bildirildi. Bu yönetim kurulu üyelerinin yerini bazı kötü şöhretli Silikon Vadisi girişimcileri aldı.
OpenAI'de hala şirkette güvenlik konusunda çalışan çok sayıda insan var. Sonuçta girişimin belirtilen misyonu, insanlığa fayda sağlayan güvenli bir şekilde YGZ yaratmaktır! Bununla birlikte, Altman'ın devrilmesinden bu yana OpenAI'den ayrılan önemli AI güvenlik savunucularının Gizmodo'nun devam eden listesi burada. Masaüstünde tıklayın veya mobilde kaydırmaya devam edin.