विलियम सॉन्डर्सएक पूर्व सुरक्षा कर्मचारी ओपनएआईने अभी-अभी AI कंपनी की तुलना की है सफेद स्टार लाइनवह कंपनी जिसने इसका निर्माण किया टाइटैनिकओपनएआई की सुपरअलाइनमेंट टीम में तीन साल तक काम करने वाले सॉन्डर्स ने एक लेख में बताया। हालिया साक्षात्कार उन्होंने इस्तीफा इसलिए दिया क्योंकि वह “एआई टाइटैनिक के लिए काम नहीं करना चाहते थे”।
ओपनएआई में अपने कार्यकाल के दौरान, सॉन्डर्स ने सवाल उठाया कि क्या कंपनी नासा अपोलो कार्यक्रम या टाइटैनिक से ज़्यादा मिलती-जुलती है। उनकी चिंताएँ ओपनएआई की योजना को हासिल करने पर केंद्रित थीं कृत्रिम सामान्य बुद्धिमत्ता (एजीआई) सशुल्क उत्पाद लॉन्च करते समय। सॉन्डर्स के अनुसार, कंपनी सुरक्षा और जोखिम मूल्यांकन पर ध्यान केंद्रित करने के बजाय नए “चमकदार उत्पादों” के निर्माण को प्राथमिकता देती है, जिससे यह अपोलो कार्यक्रम जैसा नहीं लगता।
सॉन्डर्स ने कहा कि अपोलो कार्यक्रम की विशेषता यह थी कि जोखिमों का सावधानीपूर्वक पूर्वानुमान लगाना और उनका आकलन करनागंभीर समस्याओं के अनुकूल होने के लिए “पर्याप्त अतिरेक” बनाए रखना, जैसा कि अपोलो 13 के साथ हुआ था। इसके विपरीत, व्हाइट स्टार लाइन ने टाइटैनिक को वाटरटाइट डिब्बों के साथ बनाया और इसे डूबने योग्य नहीं बताकर प्रचारित किया, लेकिन पर्याप्त जीवनरक्षक नौकाएं उपलब्ध नहीं कराई गईंजिसके परिणामस्वरूप अंततः त्रासदी हुई जब प्रसिद्ध आपदा घटित हुई।
पूर्व ओपनएआई कर्मचारी को डर है कि कंपनी अपने वर्तमान (और कथित रूप से अपर्याप्त) सुरक्षा उपायों पर बहुत अधिक निर्भर करती है, और उन्होंने सुझाव दिया कि ओपनएआई को संभावित खतरों की जांच के लिए नए एआई मॉडल जारी करने में देरी करनी चाहिएसॉन्डर्स, जिन्होंने एआई भाषा मॉडल के व्यवहार को समझने पर केंद्रित एक समूह का नेतृत्व किया, ने यह मूल्यांकन करने के लिए तकनीकों को विकसित करने की आवश्यकता व्यक्त की कि क्या ये प्रणालियाँ “खतरनाक क्षमताओं या प्रेरणाओं को छिपाती हैं”।
सॉन्डर्स ने ओपनएआई की अब तक की कार्रवाइयों पर भी निराशा व्यक्त की। फरवरी में उन्होंने कंपनी छोड़ दी और मई में, ओपनएआई ने सुपरअलाइनमेंट टीम को भंग कर दिया रिलीज़ होने के कुछ समय बाद जीपीटी-4उनका सबसे उन्नत AI मॉडल। सुरक्षा संबंधी चिंताओं के प्रति OpenAI की प्रतिक्रिया और उनके विकास की त्वरित गति को ध्यान में रखते हुए बनाया गया है। विभिन्न कर्मचारियों और विशेषज्ञों द्वारा आलोचना की गईजो भविष्य में होने वाली आपदाओं को रोकने के लिए अधिक सरकारी नियंत्रण की आवश्यकता के बारे में चेतावनी देते हैं।
जून की शुरुआत में, कर्मचारियों का एक समूह डीपमाइंड और ओपनएआई ने एक प्रकाशित किया खुला पत्र, जिसमें इस बात पर प्रकाश डाला गया है कि वर्तमान निरीक्षण नियम मानवता के लिए आपदा को रोकने के लिए अपर्याप्तइसके अतिरिक्त, इल्या सुत्स्केवरओपनएआई के सह-संस्थापक और पूर्व मुख्य वैज्ञानिक ने इस्तीफा दे दिया सुरक्षित सुपरइंटेलिजेंसएक स्टार्टअप जो सुरक्षा को प्राथमिकता देते हुए एआई पर शोध पर ध्यान केंद्रित करेगा।