Hazırlık ekibinin temel sorumlulukları, kimlik avı saldırılarında görüldüğü gibi insanları kandırma ve manipüle etme yeteneğinden kötü amaçlı kod üretme kapasitesine kadar yapay zeka ile ilişkili risklerin izlenmesini ve tahmin edilmesini içerecektir
Hazırlık ekibinin misyonu risk değerlendirmesinin ötesine uzanır
Hazırlık ekibinin açılışı, Birleşik Krallık hükümetinin yapay zeka güvenliğine ilişkin büyük zirvesiyle aynı zamana denk geliyor OpenAI, daha geniş bir topluluğu bu çabaya dahil etmek amacıyla risk çalışmaları için fikir toplayan bir yarışma başlattı
OpenAI, AI sistemleriyle ilişkili potansiyel olarak yıkıcı riskleri ele almak için “Hazırlık” adı verilen yeni bir ekibin kurulduğunu duyurdu Hazırlık’ın inceleyeceği risk kategorilerinden bazıları, örneğin “kimyasal, biyolojik, radyolojik ve nükleer” senaryolarla ilgili tehditler gibi spekülatif görünebilir Şirket, Sam Altman ve Ilya Sutskever gibi liderleriyle birlikte, önümüzdeki on yıl içinde gerçeğe dönüşebileceğini öngördükleri, insanlarınkini aşan zekayla yapay zekayı sınırlandırmanın ve kısıtlamanın yollarını araştırmaya derinden bağlı İlk on başvuruya 25
Yarışma sorularından biri, katılımcıları, OpenAI tarafından geliştirilen çeşitli yapay zeka modellerine sınırsız erişim verildiğinde, “modelin en benzersiz, ancak yine de muhtemel, potansiyel olarak yıkıcı kötüye kullanımını” düşünmeye teşvik ediyor
OpenAI, yapay zeka sistemlerinin oluşturduğu çeşitli tehlikelere, bunlar gerçeğe dönüşmeden çok önce karşı koruma sağlamak için yapay zeka modellerini değerlendirmeye, değerlendirmeye ve araştırmaya aktif olarak odaklanacak yapay zeka mühendisleri ve uzmanlarından oluşan bir ekip kurdu
OpenAI, yüksek kapasiteli yapay zeka sistemlerinin potansiyel faydalarını vurguluyor ancak aynı zamanda bunların teşkil edebileceği giderek ciddileşen riskleri de kabul ediyor
OpenAI CEO’su Sam Altman, yapay zeka ve onun “insanlığın yok olmasına” yol açma potansiyeline ilişkin endişelerini dile getiriyor Bu, OpenAI’nin ortaya çıkan “süper zeki” yapay zeka biçimlerini araştırmak ve kontrol etmek için bir ekip oluşturulmasına ilişkin daha önceki duyurusunun ardından geldi Ayrıca model geliştirme süreci boyunca OpenAI’nin yapay zeka modellerini değerlendirme, araçları izleme, risk azaltma eylemleri ve yönetişim yapılarını değerlendirme yaklaşımını yönlendirecek “risk bilgili bir geliştirme politikası” formüle etmeye çalışacaklar
genel-5
OpenAI, yapay zeka riskinin daha az belirgin ancak temelli alanları üzerinde çalışmanın önemini kabul ediyor