OpenAI'nin Varoluşsal Yapay Zeka Risk Ekibini Çözdüğü Bildirildi

May 18 2024
OpenAI'nin eski bir baş bilim insanı, girişimin ekibini feshettiği bildirildiğinden, varoluşsal yapay zeka riskini araştırmak için kaynakları güvence altına almakta zorlandığını söyledi.

Cuma günü Wired'a göre, insanüstü bir yapay zeka sisteminin varoluşsal tehlikesini kontrol etmekle görevli OpenAI'nin Superalignment ekibinin dağıtıldığı bildirildi . Haber, ekibin kurucuları Ilya Sutskever ve Jan Leike'nin aynı anda şirketten ayrılmasından birkaç gün sonra geldi .

İlgili İçerik

Yapay Zeka, Gergin Savaş Simülasyonunda 'Dünyada Barışı Sağlamak İçin' Nükleer Silahları Kullandı
İnsanlar Cilveli GPT-4 Omni'ye Aşık Olacaklar

Wired, geleceğin insanüstü yapay zeka sistemlerinin kötüye gitmesini önlemek için ilk kez Temmuz 2023'te başlatılan OpenAI Superalignment ekibinin artık olmadığını bildirdi. Raporda grubun çalışmalarının OpenAI'nin diğer araştırma çalışmalarına dahil edileceği belirtiliyor. Wired'a göre, daha güçlü yapay zeka modelleriyle ilişkili risklere ilişkin araştırmalar artık OpenAI kurucu ortağı John Schulman tarafından yönetilecek. Sutskever ve Leike, OpenAI'nin yapay zeka risklerine odaklanan en iyi bilim adamlarından bazılarıydı.

İlgili İçerik

Yapay Zeka, Gergin Savaş Simülasyonunda 'Dünyada Barışı Sağlamak İçin' Nükleer Silahları Kullandı
İnsanlar Cilveli GPT-4 Omni'ye Aşık Olacaklar
Zillow Bir Sonraki Evinizi Yapay Zekayla mı Alacağınızı Söylüyor? | AI Kilidi Açıldı
Paylaşmak
Altyazılar
  • Kapalı
  • İngilizce
Bu videoyu Paylaş
Facebook Twitter E-postası
Reddit Bağlantısı
Zillow Bir Sonraki Evinizi Yapay Zekayla mı Alacağınızı Söylüyor? | AI Kilidi Açıldı

Leike, X Friday'de OpenAI'den neden ayrıldığını belli belirsiz açıklayan uzun bir konu yayınladı . Bir süredir temel değerler konusunda OpenAI liderliğiyle mücadele ettiğini ancak bu hafta bir kırılma noktasına ulaştığını söylüyor. Leike, Superaligment ekibinin "rüzgara karşı yelken açtığını" ve önemli araştırmalar için yeterli hesaplamayı elde etmekte zorlandığını belirtti. OpenAI'nin güvenliğe, emniyete ve hizalamaya daha fazla odaklanması gerektiğini düşünüyor.

OpenAI'nin iletişim ekibi, Superalignment ekibinin dağılıp dağılmadığı sorulduğunda bizi Sam Altman'ın tweet'ine yönlendirdi. Altman, önümüzdeki birkaç gün içinde daha uzun bir gönderi paylaşacağını ve OpenAI'nin "yapacak daha çok işi" olduğunu söylüyor. Tweet aslında sorumuza cevap vermiyor.

Superalignment ekibi Temmuz ayında piyasaya sürüldüğünde bir OpenAI blog yazısında şunları söyledi : "Şu anda, potansiyel olarak süper zeki bir yapay zekayı yönlendirmek veya kontrol etmek ve onun kötüye gitmesini önlemek için bir çözümümüz yok." “Ancak insanlar bizden çok daha akıllı olan yapay zeka sistemlerini güvenilir bir şekilde denetleyemeyecek ve dolayısıyla mevcut hizalama tekniklerimiz süper zekaya ölçeklenemeyecek. Yeni bilimsel ve teknik atılımlara ihtiyacımız var.”

Aynı dikkatin bu teknik buluşlara da gösterilip gösterilmeyeceği artık belli değil. Şüphesiz OpenAI'de güvenliğe odaklanan başka ekipler de var. Superalignment'ın sorumluluklarını üstlendiği bildirilen Schulman'ın ekibi, şu anda eğitimden sonra AI modellerine ince ayar yapmaktan sorumlu. Ancak Superalignment, özellikle hileli bir yapay zekanın en ciddi sonuçlarına odaklandı. Gizmodo'nun dün belirttiği gibi, OpenAI'nin en açık sözlü yapay zeka güvenlik savunucularından bazıları son birkaç ay içinde istifa etti veya kovuldu .

Bu yılın başlarında grup, büyük yapay zeka modellerini daha küçük yapay zeka modelleriyle kontrol etmeye ilişkin kayda değer bir araştırma makalesi yayınladı ; bu, süper akıllı yapay zeka sistemlerini kontrol etmeye yönelik ilk adım olarak değerlendirildi. OpenAI'de bu projelerde sonraki adımları kimin atacağı belli değil.

Sam Altman'ın yapay zeka girişimi bu hafta, şirketin her zamankinden daha insani görünen ultra düşük gecikmeli yanıtlara sahip en yeni öncü modeli GPT-4 Omni'yi tanıtarak başladı. Birçok OpenAI çalışanı, en son yapay zeka modelinin bilim kurgudan bir şeye, özellikle de Her filmine her zamankinden daha yakın olduğunu belirtti.