ओपनएआई के एक पूर्व कर्मचारी ने कंपनी की कड़ी आलोचना की और इसकी तुलना टाइटैनिक बनाने वाली कंपनी से की – सॉफ्टोनिक

विलियम सॉन्डर्सएक पूर्व सुरक्षा कर्मचारी ओपनएआईने अभी-अभी AI कंपनी की तुलना की है सफेद स्टार लाइनवह कंपनी जिसने इसका निर्माण किया टाइटैनिकओपनएआई की सुपरअलाइनमेंट टीम में तीन साल तक काम करने वाले सॉन्डर्स ने एक लेख में बताया। हालिया साक्षात्कार उन्होंने इस्तीफा इसलिए दिया क्योंकि वह “एआई टाइटैनिक के लिए काम नहीं करना चाहते थे”।

ओपनएआई में अपने कार्यकाल के दौरान, सॉन्डर्स ने सवाल उठाया कि क्या कंपनी नासा अपोलो कार्यक्रम या टाइटैनिक से ज़्यादा मिलती-जुलती है। उनकी चिंताएँ ओपनएआई की योजना को हासिल करने पर केंद्रित थीं कृत्रिम सामान्य बुद्धिमत्ता (एजीआई) सशुल्क उत्पाद लॉन्च करते समय। सॉन्डर्स के अनुसार, कंपनी सुरक्षा और जोखिम मूल्यांकन पर ध्यान केंद्रित करने के बजाय नए “चमकदार उत्पादों” के निर्माण को प्राथमिकता देती है, जिससे यह अपोलो कार्यक्रम जैसा नहीं लगता।

सॉन्डर्स ने कहा कि अपोलो कार्यक्रम की विशेषता यह थी कि जोखिमों का सावधानीपूर्वक पूर्वानुमान लगाना और उनका आकलन करनागंभीर समस्याओं के अनुकूल होने के लिए “पर्याप्त अतिरेक” बनाए रखना, जैसा कि अपोलो 13 के साथ हुआ था। इसके विपरीत, व्हाइट स्टार लाइन ने टाइटैनिक को वाटरटाइट डिब्बों के साथ बनाया और इसे डूबने योग्य नहीं बताकर प्रचारित किया, लेकिन पर्याप्त जीवनरक्षक नौकाएं उपलब्ध नहीं कराई गईंजिसके परिणामस्वरूप अंततः त्रासदी हुई जब प्रसिद्ध आपदा घटित हुई।

पूर्व ओपनएआई कर्मचारी को डर है कि कंपनी अपने वर्तमान (और कथित रूप से अपर्याप्त) सुरक्षा उपायों पर बहुत अधिक निर्भर करती है, और उन्होंने सुझाव दिया कि ओपनएआई को संभावित खतरों की जांच के लिए नए एआई मॉडल जारी करने में देरी करनी चाहिएसॉन्डर्स, जिन्होंने एआई भाषा मॉडल के व्यवहार को समझने पर केंद्रित एक समूह का नेतृत्व किया, ने यह मूल्यांकन करने के लिए तकनीकों को विकसित करने की आवश्यकता व्यक्त की कि क्या ये प्रणालियाँ “खतरनाक क्षमताओं या प्रेरणाओं को छिपाती हैं”।

सुपर कृत्रिम बुद्धि

सॉन्डर्स ने ओपनएआई की अब तक की कार्रवाइयों पर भी निराशा व्यक्त की। फरवरी में उन्होंने कंपनी छोड़ दी और मई में, ओपनएआई ने सुपरअलाइनमेंट टीम को भंग कर दिया रिलीज़ होने के कुछ समय बाद जीपीटी-4उनका सबसे उन्नत AI मॉडल। सुरक्षा संबंधी चिंताओं के प्रति OpenAI की प्रतिक्रिया और उनके विकास की त्वरित गति को ध्यान में रखते हुए बनाया गया है। विभिन्न कर्मचारियों और विशेषज्ञों द्वारा आलोचना की गईजो भविष्य में होने वाली आपदाओं को रोकने के लिए अधिक सरकारी नियंत्रण की आवश्यकता के बारे में चेतावनी देते हैं।

जून की शुरुआत में, कर्मचारियों का एक समूह डीपमाइंड और ओपनएआई ने एक प्रकाशित किया खुला पत्र, जिसमें इस बात पर प्रकाश डाला गया है कि वर्तमान निरीक्षण नियम मानवता के लिए आपदा को रोकने के लिए अपर्याप्तइसके अतिरिक्त, इल्या सुत्स्केवरओपनएआई के सह-संस्थापक और पूर्व मुख्य वैज्ञानिक ने इस्तीफा दे दिया सुरक्षित सुपरइंटेलिजेंसएक स्टार्टअप जो सुरक्षा को प्राथमिकता देते हुए एआई पर शोध पर ध्यान केंद्रित करेगा।



Source link

susheelddk

Related Posts

गूगल समाचार

Apple Vision Pro 2: अफ़वाहें, ताज़ा खबरें और संभावित स्पेसिफिकेशनएक्सआर टुडे Source link

गूगल समाचार

वीआर गेम्स शोकेस ने अगले सप्ताह मेटा कनेक्ट से पहले ‘एक्सआर इंडीज एंड फ्रेंड्स’ लाइवस्ट्रीम की घोषणा कीवी.आर. की राह Source link

You Missed

राज्य तकनीकी शिक्षा और प्रशिक्षण बोर्ड तेलंगाना

राज्य तकनीकी शिक्षा और प्रशिक्षण बोर्ड तेलंगाना

गूगल समाचार

गूगल समाचार

गूगल समाचार

गूगल समाचार

मारुति सुजुकी वैगनआर वाल्ट्ज लिमिटेड एडिशन लॉन्च, कीमत ₹5.65 लाख

मारुति सुजुकी वैगनआर वाल्ट्ज लिमिटेड एडिशन लॉन्च, कीमत ₹5.65 लाख

गूगल समाचार

गूगल समाचार

गूगल समाचार

गूगल समाचार