ओपनएआई और गूगल डीपमाइंड आर्टिफिशियल इंटेलिजेंस (एआई) सिस्टम और क्षमताओं के निर्माण में सबसे आगे रहने वाली शीर्ष तकनीकी कंपनियों में से हैं। हालाँकि, इन संगठनों के कई मौजूदा और पूर्व कर्मचारियों ने अब एक खुले पत्र पर हस्ताक्षर किए हैं, जिसमें दावा किया गया है कि इन प्रणालियों के निर्माण में बहुत कम या कोई निगरानी नहीं है और इस तकनीक से उत्पन्न होने वाले प्रमुख जोखिमों पर पर्याप्त ध्यान नहीं दिया जा रहा है। खुले पत्र को एआई के तीन ‘गॉडफादर’ में से दो, जेफ्री हिंटन और योशुआ बेंगियो द्वारा समर्थन दिया गया है और अपने नियोक्ताओं से बेहतर व्हिसलब्लोअर सुरक्षा नीतियों की मांग की गई है।
ओपनएआई, गूगल डीपमाइंड के कर्मचारियों ने एआई के बारे में चेतावनी देने के अधिकार की मांग की
खुला पत्र इसमें कहा गया है कि इसे प्रमुख एआई कंपनियों के वर्तमान और पूर्व कर्मचारियों द्वारा लिखा गया है, जो मानते हैं कि एआई मानवता को अभूतपूर्व लाभ पहुँचाने की क्षमता रखता है। यह तकनीक द्वारा उत्पन्न जोखिमों की ओर भी इशारा करता है जिसमें सामाजिक असमानताओं को मजबूत करना, गलत सूचना और हेरफेर फैलाना और यहाँ तक कि एआई सिस्टम पर नियंत्रण खोना शामिल है जो मानव विलुप्त होने का कारण बन सकता है।
खुले पत्र में इस बात पर प्रकाश डाला गया है कि इन तकनीकी दिग्गजों द्वारा लागू की गई स्व-शासन संरचना इन जोखिमों की जांच सुनिश्चित करने में अप्रभावी है। इसने यह भी दावा किया कि “मजबूत वित्तीय प्रोत्साहन” कंपनियों को एआई सिस्टम से होने वाले संभावित खतरे को नजरअंदाज करने के लिए और अधिक प्रोत्साहित करते हैं।
यह दावा करते हुए कि एआई कंपनियाँ पहले से ही एआई की क्षमताओं, सीमाओं और विभिन्न प्रकार के नुकसान के जोखिम स्तरों से अवगत हैं, खुले पत्र में सुधारात्मक उपाय करने के उनके इरादे पर सवाल उठाया गया है। “वर्तमान में उनके पास इस जानकारी को सरकारों के साथ साझा करने के लिए केवल कमजोर दायित्व हैं, और नागरिक समाज के साथ कोई भी नहीं। हमें नहीं लगता कि उन सभी पर इसे स्वेच्छा से साझा करने के लिए भरोसा किया जा सकता है, “यह कहता है।
खुले पत्र में अपने नियोक्ताओं से चार मांगें की गई हैं। सबसे पहले, कर्मचारी चाहते हैं कि कंपनियाँ किसी ऐसे समझौते में प्रवेश न करें या उसे लागू न करें जो जोखिम-संबंधी चिंताओं के लिए उनकी आलोचना को प्रतिबंधित करता हो। दूसरा, उन्होंने मौजूदा और पूर्व कर्मचारियों के लिए कंपनी के बोर्ड, नियामकों और किसी उचित स्वतंत्र संगठन के समक्ष जोखिम-संबंधी चिंताओं को उठाने के लिए सत्यापन योग्य गुमनाम प्रक्रिया की मांग की है।
कर्मचारियों ने संगठनों से खुली आलोचना की संस्कृति विकसित करने का भी आग्रह किया है। अंत में, खुले पत्र में इस बात पर प्रकाश डाला गया है कि नियोक्ताओं को मौजूदा और पूर्व कर्मचारियों के खिलाफ प्रतिशोध नहीं लेना चाहिए जो अन्य प्रक्रियाओं के विफल होने के बाद जोखिम से संबंधित गोपनीय जानकारी सार्वजनिक रूप से साझा करते हैं।
ओपनएआई और गूगल डीपमाइंड के कुल 13 पूर्व और वर्तमान कर्मचारियों ने इस पत्र पर हस्ताक्षर किए हैं। एआई के दो ‘गॉडफादर’ के अलावा ब्रिटिश कंप्यूटर वैज्ञानिक स्टुअर्ट रसेल ने भी इस कदम का समर्थन किया है।
ओपनएआई के पूर्व कर्मचारी ने एआई जोखिमों पर बात की
ओपनएआई के पूर्व कर्मचारियों में से एक, डैनियल कोकोटाज्लो, जिन्होंने खुले पत्र पर हस्ताक्षर किए थे, ने भी कई टिप्पणियां कीं। पदों एक्स (जिसे पहले ट्विटर के नाम से जाना जाता था) पर, कंपनी में अपने अनुभव और एआई के जोखिमों पर प्रकाश डालते हुए। उन्होंने दावा किया कि जब उन्होंने कंपनी से इस्तीफा दिया, तो उन्हें कंपनी के बारे में कुछ भी आलोचनात्मक कहने से रोकने के लिए एक गैर-अपमानजनक खंड पर हस्ताक्षर करने के लिए कहा गया था। उन्होंने यह भी दावा किया कि कंपनी ने समझौते पर हस्ताक्षर करने से इनकार करने पर कोकोटाजलो को उनकी निहित इक्विटी छीन लेने की धमकी दी थी।
कोकोटाजलो ने दावा किया कि एआई सिस्टम के न्यूरल नेट उन्हें दिए जा रहे बड़े डेटासेट से तेज़ी से बढ़ रहे हैं। इसके अलावा, उन्होंने कहा कि जोखिमों की निगरानी के लिए कोई पर्याप्त उपाय नहीं हैं।
उन्होंने कहा, “हम अभी भी इस बारे में बहुत कुछ नहीं समझ पाए हैं कि ये प्रणालियां किस प्रकार काम करती हैं और क्या ये मानव हितों के अनुरूप बनी रहेंगी, जबकि ये अधिक स्मार्ट होती जाएंगी और संभवतः सभी क्षेत्रों में मानव स्तर की बुद्धिमत्ता को पार कर जाएंगी।”
उल्लेखनीय रूप से, OpenAI मॉडल स्पेक का निर्माण कर रहा है, एक दस्तावेज जिसके माध्यम से इसका उद्देश्य नैतिक AI तकनीक के निर्माण में कंपनी को बेहतर मार्गदर्शन देना है। हाल ही में, इसने एक सुरक्षा और सुरक्षा समिति भी बनाई। कोकोटाजलो ने एक पोस्ट में इन वादों की सराहना की।