जेफ्री हिंटनप्रसिद्ध “एआई के गॉडफादर” ने सार्वजनिक रूप से सैम ऑल्टमैन के ओपनएआई के नेतृत्व के बारे में चिंता व्यक्त की है, और सुरक्षा के बजाय मुनाफे पर ऑल्टमैन के फोकस की आलोचना की है। भौतिकी में नोबेल पुरस्कार विजेता हिंटन ने अपने पूर्व छात्र की प्रशंसा की, इल्या सुतस्केवरनवंबर 2023 में ऑल्टमैन को ओपनएआई से अस्थायी रूप से हटाने में महत्वपूर्ण भूमिका निभाने के लिए।
जेफ्री हिंटन सैम ऑल्टमैन को क्यों नापसंद करते हैं?
हिंटन की चिंताएं एआई के नैतिक विकास के प्रति उनकी दीर्घकालिक प्रतिबद्धता से उपजी हैं। 2009 में, उन्होंने मानव भाषण को पहचानने के लिए एक तंत्रिका नेटवर्क को प्रशिक्षित करके एनवीडिया के सीयूडीए प्लेटफॉर्म की क्षमता का प्रदर्शन किया, एक सफलता जिसने एआई अनुसंधान में जीपीयू के व्यापक उपयोग में योगदान दिया। . टोरंटो विश्वविद्यालय में उनके शोध समूह ने मशीन लर्निंग की सीमाओं को आगे बढ़ाना जारी रखा, 2012 में एक तंत्रिका नेटवर्क विकसित किया जो छवियों से रोजमर्रा की वस्तुओं की पहचान कर सकता था। इसने एआई में जीपीयू के उपयोग को मान्य किया और जीपीयू द्वारा संचालित तंत्रिका नेटवर्क को व्यापक रूप से अपनाने के लिए प्रेरित किया।
ओपनएआई के सह-संस्थापक और मुख्य वैज्ञानिक सुतस्केवर ने संगठन के सबसे उन्नत एआई मॉडल को आकार देने में महत्वपूर्ण भूमिका निभाई। हालाँकि, 2023 के अंत में ओपनएआई के बोर्ड द्वारा ऑल्टमैन को सीईओ पद से हटाने के बाद, सुतस्केवर ने शुरू में निर्णय का समर्थन किया, लेकिन बाद में इसे पछतावा हुआ और ऑल्टमैन की बहाली की वकालत करने में दूसरों के साथ शामिल हो गए। सुतस्केवर ने अंततः अपना स्वयं का एआई उद्यम, सेफ सुपरइंटेलिजेंस इंक शुरू करने के लिए मई 2024 में ओपनएआई छोड़ दिया।
हिंटन, जिन्होंने अपनी पीएचडी के दौरान सुतस्केवर की देखरेख की, ने ओपनएआई के मूल मिशन पर विचार किया, जो कृत्रिम सामान्य बुद्धि (एजीआई) की सुरक्षा सुनिश्चित करने पर केंद्रित था। समय के साथ, उन्होंने ऑल्टमैन के नेतृत्व में लाभ-संचालित दृष्टिकोण की ओर बदलाव देखा, हिंटन इस बदलाव को संगठन के मूल सिद्धांतों के लिए हानिकारक मानते हैं।
‘गॉडफादर ऑफ एआई’ ने चेतावनी दी है कि अगर इस पर ध्यान नहीं दिया गया तो एआई का मानवता पर विनाशकारी प्रभाव पड़ेगा
ओपनएआई की अपनी आलोचना के अलावा, हिंटन ने लंबे समय से एआई द्वारा समाज के लिए उत्पन्न खतरों के बारे में चेतावनी दी है। उन्होंने चिंता व्यक्त की है कि एआई सिस्टम, बड़ी मात्रा में डिजिटल टेक्स्ट और मीडिया से सीखकर, मनुष्यों के साथ छेड़छाड़ करने में कई लोगों की तुलना में अधिक कुशल हो सकते हैं। प्रारंभ में, हिंटन का मानना था कि भाषा को समझने के मामले में एआई सिस्टम मानव मस्तिष्क से कहीं कमतर थे, लेकिन जैसे ही इन सिस्टमों ने बड़े डेटासेट को संसाधित करना शुरू किया, उन्होंने अपने रुख पर पुनर्विचार किया। अब, हिंटन का मानना है कि एआई कुछ मामलों में मानव बुद्धि से आगे निकल सकता है, जो उन्हें बेहद अस्थिर लगता है।
जैसे-जैसे एआई तकनीक तेजी से आगे बढ़ रही है, हिंटन को समाज पर इसके प्रभाव का डर है। उन्होंने चेतावनी दी है कि इंटरनेट जल्द ही एआई-जनित झूठी सूचनाओं से भर जाएगा, जिससे लोगों के लिए यह समझना मुश्किल हो जाएगा कि वास्तविक क्या है। वह नौकरी बाजार पर एआई के संभावित प्रभाव के बारे में भी चिंतित हैं, उनका सुझाव है कि चैटजीपीटी जैसे चैटबॉट वर्तमान में मानव श्रमिकों के पूरक हैं, वे अंततः पैरालीगल, व्यक्तिगत सहायक और अनुवादक जैसी भूमिकाओं को प्रतिस्थापित कर सकते हैं।
हिंटन की सबसे बड़ी चिंता एआई द्वारा उत्पन्न दीर्घकालिक जोखिमों को लेकर है, विशेष रूप से एआई सिस्टम द्वारा बड़ी मात्रा में डेटा को संसाधित और विश्लेषण करते समय अप्रत्याशित व्यवहार प्रदर्शित करने की संभावना। उन्होंने आशंका व्यक्त की है कि स्वायत्त एआई सिस्टम को अपने स्वयं के कोड को चलाने के लिए विकसित किया जा सकता है, जिससे संभावित रूप से स्वायत्त हथियार, या “हत्यारे रोबोट” का निर्माण हो सकता है। एक बार ऐसे जोखिमों को दूर के रूप में खारिज करने वाले, हिंटन अब मानते हैं कि वे पहले की तुलना में बहुत करीब हैं, उनका अनुमान है कि वे अगले कुछ दशकों में साकार हो सकते हैं।
हिंटन के कई छात्रों और सहकर्मियों सहित अन्य विशेषज्ञों ने इन चिंताओं को काल्पनिक बताया है। बहरहाल, हिंटन को चिंता है कि Google और Microsoft जैसे तकनीकी दिग्गजों के बीच मौजूदा प्रतिस्पर्धा वैश्विक AI हथियारों की दौड़ में बदल सकती है, जिसे नियंत्रित करना मुश्किल होगा। परमाणु हथियारों के विपरीत, एआई अनुसंधान आसानी से गुप्त रूप से किया जा सकता है, जिससे विनियमन और निरीक्षण बहुत कठिन हो जाता है। हिंटन का मानना है कि इन जोखिमों को कम करने की सबसे अच्छी उम्मीद एआई को नियंत्रित करने के तरीकों को विकसित करने के लिए दुनिया के शीर्ष वैज्ञानिकों के बीच सहयोग में निहित है। उनका तर्क है कि तब तक इन प्रणालियों के आगे के विकास को रोक दिया जाना चाहिए।
ऑल्टमैन के नेतृत्व के बारे में हिंटन की चिंताएँ अनोखी नहीं हैं। ओपनएआई के एक अन्य सह-संस्थापक एलन मस्क ऑल्टमैन के एक प्रमुख आलोचक रहे हैं, विशेष रूप से ओपनएआई के एक गैर-लाभकारी संगठन से एक लाभकारी संगठन में परिवर्तन के संबंध में। मस्क ने बार-बार बताया है कि यह बदलाव अन्य तकनीकी दिग्गजों को संतुलित करने के लिए एक ओपन-सोर्स, गैर-लाभकारी पहल होने के कंपनी के मूल उद्देश्य के विपरीत है।
जैसे-जैसे एआई की दौड़ जारी है, हिंटन की चेतावनियां तकनीकी प्रगति और नैतिक जिम्मेदारी के बीच बढ़ते विभाजन को रेखांकित करती हैं, इस तनाव के केंद्र में ओपनएआई और इसका नेतृत्व है।