एआई सुरक्षा केवल ‘दुष्ट एआई’ को रोकने के बारे में नहीं है
बी रवींद्रन और कृष्णन नारायणन एआई को हमारे समय की सबसे परिवर्तनकारी तकनीकों में से एक माना जाता है। फिर भी, जैसे-जैसे इसकी क्षमताएं तीव्र गति से आगे बढ़ती हैं, सवाल उठता है एआई सुरक्षा सर्वोपरि हो गया है. एआई सुरक्षा को अक्सर अस्तित्वगत जोखिमों के शमन के रूप में तैयार किया जाता है – एक काल्पनिक ‘को रोकना’दुष्ट ए.आई‘ ऊपर उठती मानवता से। हालाँकि, केवल ऐसे दूर के परिदृश्यों पर ध्यान केंद्रित करने से सुरक्षित और जिम्मेदार तैनाती के आसपास की गंभीर चिंताओं को नजरअंदाज करने का जोखिम है एआई सिस्टम आज। यहां एआई सुरक्षा के तीन महत्वपूर्ण आयाम हैं जिन पर तत्काल ध्यान देने की आवश्यकता है।1. प्रबंध करना एआई संरेखण मुद्देएआई सुरक्षा यह सुनिश्चित करने से शुरू होती है कि तैनात एआई सिस्टम उनके इच्छित लक्ष्यों और सामाजिक मूल्यों के साथ संरेखित हों। गलत संरेखित प्रणालियाँ – जहाँ AI अनपेक्षित या हानिकारक तरीकों से कार्य करता है – उद्योगों में महत्वपूर्ण जोखिम पैदा करता है। उदाहरण के लिए, प्रशिक्षण डेटा या अपर्याप्त निरीक्षण तंत्र में खामियों के कारण एआई उपकरण पक्षपाती या अनुचित आउटपुट उत्पन्न करने के लिए प्रलेखित किए गए हैं। लेना स्वायत्त वाहन. हालाँकि ये प्रणालियाँ यातायात दुर्घटनाओं को कम करने का वादा करती हैं, लेकिन वास्तविक दुनिया के सूक्ष्म परिदृश्यों में उनकी निर्णय-प्रक्रिया विफल हो सकती है, जिसके कभी-कभी दुखद परिणाम भी हो सकते हैं। इसी तरह, एआई-आधारित भर्ती प्लेटफार्मों को भेदभाव (उदाहरण के लिए, महिलाओं के खिलाफ) को कायम रखने के लिए प्रतिक्रिया का सामना करना पड़ा है, क्योंकि उनके एल्गोरिदम उनके प्रशिक्षण डेटा में मौजूद ऐतिहासिक पूर्वाग्रहों को प्राथमिकता देते हैं।जेनेरिक एआई टूल के आगमन के साथ, नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स एंड टेक्नोलॉजी, यूएस, मानव-एआई इंटरैक्शन में लक्ष्य गलत संरेखण के अलावा, मतिभ्रम, कॉपीराइट उल्लंघन और गलत सूचना सहित बारह प्रमुख जोखिमों पर प्रकाश डालता है। उदाहरण के लिए, भाषा मॉडल प्रशंसनीय लेकिन पूरी तरह से झूठे दावे उत्पन्न कर सकते हैं, जो संभावित रूप से नकली समाचारों के प्रसार को बढ़ा…
Read moreग्रोक बनाम चैटजीपीटी: भावी अमेरिकी राष्ट्रपति पर एआई प्रतिक्रियाओं पर एलोन मस्क का मौन कटाक्ष
टेक मुगल एलोन मस्क ने हाल ही में ओपनएआई पर मौन कटाक्ष किया चैटजीपीटीअपने एआई मॉडल ग्रोक और ओपनएआई के व्यापक रूप से उपयोग किए जाने वाले चैटबॉट के बीच प्रतिद्वंद्विता को फिर से शुरू करना। यह बहस एक्स उपयोगकर्ता उमर सुल्तान अलओलामा की एक पोस्ट से शुरू हुई, जिन्होंने दो एआई मॉडल की प्रतिक्रियाओं की तुलना करते हुए एक ही संकेत वाली छवियां साझा कीं: “उद्घाटन भाषण देते हुए संयुक्त राज्य अमेरिका के अगले राष्ट्रपति की एक तस्वीर बनाएं।” ग्रोक द्वारा तैयार की गई पहली छवि, प्रॉम्प्ट के अनुरूप, डोनाल्ड ट्रम्प को चित्रित करती है। हालाँकि, जब वही संकेत ChatGPT-4 को दिया गया, तो AI ने उपराष्ट्रपति कमला हैरिस जैसी एक गंजा महिला की छवि बनाई, जिसने ऑनलाइन चर्चा को प्रेरित किया।इस घटना ने ऑल्टमैन के एआई पूर्वाग्रह की ओर इशारा करते हुए मस्क पर मौन प्रहार किया, क्योंकि मस्क का ग्रोक उम्मीदों के अनुरूप अधिक लग रहा था, जबकि चैटजीपीटी के आउटपुट को राजनीतिक रूप से अधिक विषम माना गया था। ऑल्टमैन के साथ मस्क की प्रतिद्वंद्विता कोई रहस्य नहीं है, और यह नवीनतम आदान-प्रदान उनकी चल रही गाथा में एक और अध्याय है। मस्क-ऑल्टमैन फ्यूड ओपनएआई के सीईओ सैम ऑल्टमैन और टेस्ला और स्पेसएक्स के संस्थापक एलोन मस्क के बीच की लड़ाई सिलिकॉन वैली की सबसे ज्यादा देखी जाने वाली प्रतिद्वंद्विता में से एक बन रही है। उनके मतभेद कॉरपोरेट जगत से आगे बढ़कर भविष्य को प्रभावित करते हैं कृत्रिम होशियारी.एक बार सहयोगी होने के बाद, मस्क और ऑल्टमैन का अलगाव इस बात पर उनके दार्शनिक मतभेदों पर आधारित है कि एआई को कैसे विकसित और नियंत्रित किया जाना चाहिए। एआई सुरक्षा पर मस्क की चिंताएं उन्हें अपना खुद का उद्यम, एक्सएआई लॉन्च करने के लिए प्रेरित किया है, जिसका लक्ष्य एक अधिक नैतिक रूप से निर्देशित एजीआई प्रणाली बनाना है। दूसरी ओर, अनियंत्रित एआई विकास के जोखिमों के बारे में मस्क की चेतावनियों के बावजूद, ऑल्टमैन चैटजीपीटी सहित ओपनएआई के शक्तिशाली एआई उपकरणों के तेजी से…
Read moreक्लाउड और AI का उपयोग कर रहे हैं? आप सुरक्षा पर कंजूसी नहीं कर सकते
जैसा कि भारतीय कंपनियां तेजी से अपना रही हैं संकर बादल और जेनरेटिव एआई प्रौद्योगिकियां, वे दोधारी परिदृश्य में प्रवेश करती हैं – बढ़ी हुई दक्षता और विस्तारित जोखिम में से एक। जबकि ये डिजिटल उपकरण परिचालन क्षमता को बढ़ाते हैं, वे संभावित सुरक्षा चुनौतियों को भी बढ़ाते हैं, ऐसा उद्योग विशेषज्ञों ने हमें पिछले सप्ताह हमारे वेबिनार में बताया था।लिबेश बाबू, एसोसिएट वीपी फेडरल बैंकने कहा कि हाइब्रिड क्लाउड बैंक को निजी क्लाउड में संवेदनशील डेटा पर नियंत्रण बनाए रखते हुए सार्वजनिक क्लाउड की स्केलेबिलिटी और लागत-प्रभावशीलता का लाभ उठाने की अनुमति देता है। बैंक वर्तमान में ऑन-प्रिमाइस कुबेरनेट्स वातावरण के साथ एकीकृत Microsoft Azure, OCI (Oracle), AWS (Amazon) और GCP (Google) सहित कई सार्वजनिक क्लाउड प्लेटफ़ॉर्म का उपयोग करता है।फ़ेडरल बैंक भी इसका आरंभिक अंगीकार था GenAIउनका एआई सहायक ‘फेडी’ कई भाषाओं में बातचीत संबंधी प्रतिक्रियाएं प्रदान करने के लिए प्राकृतिक भाषा प्रसंस्करण का उपयोग करता है। सुरक्षा सॉफ्टवेयर के लिए आईबीएम के प्रमुख प्री-सेल्स कंट्री लीडर तुषार हरलकर ने कहा, जैसे-जैसे भारत भर की कंपनियां फेडरल बैंक की तरह तेजी से हाइब्रिड क्लाउड प्लेटफॉर्म को अपना रही हैं, उनका डेटा अधिक बिखरा हुआ हो गया है, जिससे सुरक्षा अधिक जटिल हो गई है। “ऑन-प्रिमाइसेस और क्लाउड वातावरण में फैले डेटा के साथ, दृश्यता महत्वपूर्ण है।”इन चुनौतियों का समाधान करने के लिए, आईबीएम के सुरक्षा मॉडल में “आराम, उपयोग और पारगमन में” डेटा की सुरक्षा के लिए वास्तविक समय की निगरानी और सख्त एन्क्रिप्शन प्रोटोकॉल शामिल हैं। इस तरह के उपाय रैंसमवेयर जैसे सामान्य सुरक्षा मुद्दों को कम करने में मदद करते हैं, यह सुनिश्चित करते हुए कि भले ही डेटा इंटरसेप्ट किया गया हो, यह बैंक की एन्क्रिप्शन कुंजी के बिना अनुपयोगी रहता है।जेनएआई को खुद भी सुरक्षा की आवश्यकता है, हरलकर ने कहा, चेतावनी देते हुए कि एआई मॉडल के साथ छेड़छाड़ की जा सकती है, जिससे डीपफेक या “मतिभ्रम” हमले हो सकते हैं जो वास्तविक दुनिया में जोखिम पैदा करते हैं, खासकर स्वास्थ्य सेवा और…
Read moreसैम ऑल्टमैन: ओपनएआई का गैर-लाभकारी से लाभ-लाभ में बदलाव: यह विवादास्पद क्यों है और इसका क्या मतलब हो सकता है |
ऑल्टमैन ने मुराती की सेवा के लिए आभार व्यक्त किया और कहा कि तेजी से बढ़ती कंपनी के लिए नेतृत्व परिवर्तन स्वाभाविक है ओपनएआई, एक बार ए गैर लाभ पायनियरिंग के लिए समर्पित संस्था कृत्रिम होशियारी मानवता के लाभ के लिए (एआई) अनुसंधान ने एक लाभकारी कंपनी में बदलने के अपने इरादे का संकेत देकर महत्वपूर्ण विवाद को जन्म दिया है। यह कदम, हाई-प्रोफाइल के साथ जुड़ा हुआ है कार्यकारी इस्तीफेने अपने मूल मिशन के प्रति संगठन की प्रतिबद्धता और अनियंत्रित एआई विकास के संभावित जोखिमों के बारे में चिंताओं को प्रेरित किया है।यह बदलाव कैसे हुआ?OpenAI की स्थापना 2015 में “कृत्रिम सामान्य बुद्धिमत्ता” बनाने के महत्वाकांक्षी लक्ष्य के साथ एक गैर-लाभकारी संस्था के रूप में की गई थी।आंदोलन) जो मानव बुद्धि से भी अधिक सक्षम होगा। हालाँकि, 2019 में, OpenAI ने एक सीमा के साथ एक लाभकारी सहायक कंपनी की शुरुआत की लाभ संरचना, मानवता की सेवा के अपने लोकाचार को बनाए रखते हुए इसे बाहरी निवेश आकर्षित करने की अनुमति देती है। इस मॉडल ने निवेशकों और कर्मचारियों को एक निश्चित सीमा तक रिटर्न अर्जित करने की अनुमति दी, साथ ही किसी भी अधिशेष को गैर-लाभकारी में पुनर्निवेशित किया।परिदृश्य तब बदलना शुरू हुआ जब ओपनएआई की लाभकारी शाखा ने अपने सबसे प्रमुख समर्थक माइक्रोसॉफ्ट से पर्याप्त निवेश हासिल किया, जिससे लाभप्रदता पर बढ़ते जोर का संकेत मिला। हाल की रिपोर्टों से संकेत मिला है कि ओपनएआई एक पूर्ण सार्वजनिक लाभ निगम में पुनर्गठन पर विचार कर रहा है। अपने कैप्ड-प्रॉफिट मॉडल के विपरीत, यह नई संरचना लाभ रिटर्न की सीमा को हटा देगी, जिससे यह संभावित निवेशकों के लिए अधिक आकर्षक हो जाएगी। अटकलें बताती हैं कि पुनर्गठन का उद्देश्य महत्वपूर्ण वित्तीय चुनौतियों का समाधान करना है, क्योंकि ओपनएआई के खर्च बढ़ गए हैं, संभावित रूप से इस वर्ष $ 5 बिलियन तक का नुकसान हो रहा है, जबकि इसका राजस्व लागत को कवर करने से कम है।इसे एक बुरा विचार क्यों माना जाता है?विवाद मुख्य रूप से…
Read moreओपनएआई के सीईओ सैम ऑल्टमैन ने बढ़ती आलोचना के बाद सुरक्षा समिति से इस्तीफा दे दिया
ओपनएआई के सीईओ सैम ऑल्टमैन ने कंपनी की आंतरिक सुरक्षा और संरक्षा समिति से इस्तीफा दे दिया है। ऐसा अमेरिकी सांसदों की बढ़ती जांच और पूर्व कर्मचारियों की आलोचना के बाद हुआ है। एआई सुरक्षा और विनियमन।महत्वपूर्ण सुरक्षा निर्णयों की निगरानी के लिए मई में गठित समिति अब एक स्वतंत्र निकाय बन जाएगी। निरीक्षण बोर्ड ओपनएआई ने सोमवार को घोषणा की कि उसके पास नए एआई मॉडलों के रिलीज में देरी करने की शक्ति है।इस नवसशक्त समिति की अध्यक्षता करेंगे कार्नेगी मेलॉन प्रोफ़ेसर ज़िको कोल्टर और इसमें क्वोरा के सीईओ एडम डी’एंजेलो, सेवानिवृत्त अमेरिकी सेना जनरल पॉल नाकासोन और पूर्व सोनी कार्यकारी निकोल सेलिगमैन शामिल हैं। सभी ओपनएआई के निदेशक मंडल के मौजूदा सदस्य हैं। ओपनएआई ने समिति के नए नेतृत्व पर क्या कहा ओपनएआई के ब्लॉग पोस्ट के अनुसार, समिति को “प्रमुख मॉडल रिलीज के लिए सुरक्षा मूल्यांकन पर कंपनी के नेतृत्व द्वारा जानकारी दी जाएगी, और यह समिति, पूरे बोर्ड के साथ मिलकर मॉडल लॉन्च पर निगरानी रखेगी, जिसमें सुरक्षा संबंधी चिंताओं का समाधान होने तक रिलीज को विलंबित करने का अधिकार भी शामिल है।”यह पुनर्गठन ओपनएआई की सुरक्षा और संरक्षा प्रथाओं की 90-दिवसीय समीक्षा के बाद किया गया है। समिति ने ऑल्टमैन के जाने के बाद ओपनएआई के नवीनतम एआई मॉडल, ओ1 की सुरक्षा समीक्षा पहले ही कर ली है।ऑल्टमैन का समिति से बाहर होना ऐसे समय में हुआ है जब पांच अमेरिकी सीनेटरों ने इस गर्मी में उन्हें पत्र लिखकर ओपनएआई की नीतियों पर सवाल उठाए थे।ओपनएआई के लगभग आधे कर्मचारी, जो कभी एआई के दीर्घकालिक जोखिमों पर ध्यान केंद्रित करते थे, अब छोड़ चुके हैं, और पूर्व ओपनएआई शोधकर्ताओं ने ऑल्टमैन पर “वास्तविक” दृष्टिकोण का विरोध करने का आरोप लगाया है। एआई विनियमन ओपनएआई के कॉर्पोरेट उद्देश्यों को आगे बढ़ाने वाली नीतियों के पक्ष में।ओपनएआई कथित तौर पर 150 बिलियन डॉलर से अधिक के मूल्यांकन पर 6.5 बिलियन डॉलर से अधिक का वित्तपोषण जुटाने की कोशिश कर रहा है। ऐसी अफवाहें हैं कि कंपनी निवेशकों…
Read moreओपनएआई ने अमेरिकी सांसदों को लिखे पत्र में कहा कि वह यह सुनिश्चित करने के लिए ‘समर्पित’ है कि उसके एआई उपकरण नुकसान न पहुंचाएं
ओपनएआई ने अमेरिकी सांसदों के प्रश्नों का उत्तर देते हुए कहा कि वह यह सुनिश्चित करने के लिए प्रतिबद्ध है कि उसके शक्तिशाली एआई उपकरण नुकसान न पहुंचाएं, तथा कर्मचारियों के पास सुरक्षा प्रथाओं के बारे में चिंता जताने के तरीके हों। स्टार्टअप ने सांसदों को सुरक्षा के प्रति अपनी प्रतिबद्धता का आश्वासन देने का प्रयास किया, क्योंकि हवाई के डेमोक्रेट सीनेटर ब्रायन शेट्ज़ सहित पांच सीनेटरों ने मुख्य कार्यकारी अधिकारी सैम ऑल्टमैन को संबोधित एक पत्र में ओपनएआई की नीतियों पर सवाल उठाए थे। मुख्य रणनीति अधिकारी जेसन क्वोन ने बुधवार को सांसदों को लिखे एक पत्र में कहा, “हमारा मिशन यह सुनिश्चित करना है कि कृत्रिम बुद्धिमत्ता से समस्त मानवता को लाभ मिले, और हम अपनी प्रक्रिया के प्रत्येक चरण में कठोर सुरक्षा प्रोटोकॉल लागू करने के लिए समर्पित हैं।” विशेष रूप से, ओपनएआई ने कहा कि वह कई वर्षों तक सुरक्षा-संबंधी अनुसंधान के लिए अपने कंप्यूटिंग संसाधनों का 20 प्रतिशत आवंटित करने के अपने वादे को पूरा करना जारी रखेगा। कंपनी ने अपने पत्र में यह भी वचन दिया कि वह आपसी गैर-असमानता समझौते के विशिष्ट मामलों को छोड़कर, वर्तमान और पूर्व कर्मचारियों के लिए गैर-असमानता समझौतों को लागू नहीं करेगी। कंपनी छोड़ने वाले कर्मचारियों पर ओपनएआई की पूर्व सीमाएँ असामान्य रूप से प्रतिबंधात्मक होने के कारण जांच के दायरे में आ गई हैं। ओपनएआई ने तब से कहा है कि उसने अपनी नीतियों में बदलाव किया है। बाद में ऑल्टमैन ने सोशल मीडिया पर अपनी रणनीति के बारे में विस्तार से बताया। उन्होंने एक्स पर लिखा, “हमारी टीम अमेरिकी एआई सेफ्टी इंस्टीट्यूट के साथ एक समझौते पर काम कर रही है, जिसके तहत हम अपने अगले फाउंडेशन मॉडल तक शीघ्र पहुंच उपलब्ध कराएंगे, ताकि हम एआई मूल्यांकन के विज्ञान को आगे बढ़ाने के लिए मिलकर काम कर सकें।” ओपनएआई में सुरक्षा के बारे में कुछ त्वरित अपडेट: जैसा कि हमने पिछले जुलाई में कहा था, हम पूरी कंपनी में सुरक्षा प्रयासों के लिए कम से कम…
Read moreचैटजीपीटी-निर्माता ओपनएआई ने पिछले साल के डेटा उल्लंघन के बारे में कुछ विवरण का खुलासा नहीं किया है
ओपनएआईलोकप्रिय के पीछे कंपनी चैटGPT चैटबॉट को 2023 में सुरक्षा भंग का सामना करना पड़ा। न्यूयॉर्क टाइम्स की एक रिपोर्ट के अनुसार, हैकर माइक्रोसॉफ्ट समर्थित कंपनी की आंतरिक संदेश प्रणाली में घुसपैठ की और उनकी कृत्रिम बुद्धिमत्ता (एआई) प्रौद्योगिकियों के बारे में विवरण चुराने में सक्षम हो गए।रिपोर्ट में दावा किया गया है कि हैक की गई जानकारी एक ऑनलाइन फोरम से आई थी, जहां ओपनएआई के कर्मचारी कंपनी की नवीनतम एआई प्रगति पर चर्चा कर रहे थे। हालांकि, हैकर्स कोर सिस्टम तक पहुंचने में असमर्थ थे, जहां ओपनएआई अपने एआई का निर्माण और भंडारण करता है, जिसमें चैटजीपीटी भी शामिल है। ओपनएआई ने उल्लंघन के इन विवरणों को गुप्त क्यों रखा? अप्रैल 2023 में, OpenAI के अधिकारियों ने कर्मचारियों और कंपनी के बोर्ड दोनों को इस उल्लंघन के बारे में सूचित किया। हालाँकि, उन्होंने इस खबर को गोपनीय रखने का विकल्प चुना। उल्लंघन को सार्वजनिक न करने के उनके दो कारण थे। सबसे पहले, हमले के दौरान किसी भी ग्राहक या भागीदार की जानकारी से समझौता नहीं किया गया। दूसरी बात, उनका मानना है कि हैकर एक व्यक्तिगत व्यक्ति था जिसका किसी विदेशी सरकार से कोई संबंध नहीं था, रिपोर्ट में कहा गया है। एआई सुरक्षा के बारे में चिंताएँ यह खबर ऐसे समय में आई है जब एआई तकनीक की सुरक्षा और संभावित दुरुपयोग के बारे में चिंताएं लगातार बढ़ रही हैं। मई में, ओपनएआई ने घोषणा की कि कंपनी ने ऑनलाइन भ्रामक उद्देश्यों के लिए अपने एआई मॉडल का लाभ उठाने के प्रयास में कई गुप्त ऑपरेशनों को सफलतापूर्वक विफल कर दिया है।हालांकि, कंपनी ने कथित तौर पर एआई से दीर्घकालिक जोखिमों पर शोध करने के लिए समर्पित अपनी टीम को बंद कर दिया, जिसे “सुपरअलाइनमेंट टीम” के रूप में जाना जाता है। यह निर्णय टीम के गठन के ठीक एक साल बाद आया है और सह-संस्थापक और मुख्य वैज्ञानिक इल्या सुत्सकेवर और टीम के सह-नेता जान लीके जैसे प्रमुख लोगों के जाने के बाद आया है।बिडेन…
Read moreओपनएआई ने मुख्य वैज्ञानिक सुत्स्केवर के इस्तीफे के बाद हाई-प्रोफाइल सुरक्षा टीम को भंग कर दिया
ओपनएआई ने भविष्य में संभावित अति-सक्षम कृत्रिम बुद्धिमत्ता प्रणालियों की सुरक्षा सुनिश्चित करने पर केंद्रित एक टीम को प्रभावी रूप से भंग कर दिया है। ऐसा ओपनएआई के सह-संस्थापक और मुख्य वैज्ञानिक इल्या सुत्सकेवर सहित समूह के दो नेताओं के इस्तीफे के बाद हुआ है। कंपनी ने ब्लूमबर्ग न्यूज़ को बताया कि तथाकथित सुपरअलाइनमेंट टीम को एक अलग इकाई के रूप में बनाए रखने के बजाय, ओपनएआई अब अपने शोध प्रयासों में समूह को और अधिक गहराई से एकीकृत कर रही है ताकि कंपनी को अपने सुरक्षा लक्ष्यों को प्राप्त करने में मदद मिल सके। टीम का गठन एक साल से भी कम समय पहले सुत्सकेवर और ओपनएआई के एक अन्य दिग्गज जान लीके के नेतृत्व में किया गया था। टीम पर पुनर्विचार करने का निर्णय ऐसे समय में लिया गया है जब ओपनएआई से हाल ही में कई लोगों के जाने से कंपनी के एआई उत्पादों को विकसित करने में गति बनाम सुरक्षा के बीच संतुलन बनाने के दृष्टिकोण पर सवाल उठने लगे हैं। सुत्सकेवर, एक व्यापक रूप से सम्मानित शोधकर्ता, ने मंगलवार को घोषणा की कि वह ओपनएआई छोड़ रहे हैं, क्योंकि पहले उनका मुख्य कार्यकारी अधिकारी सैम ऑल्टमैन के साथ इस बात पर विवाद हुआ था कि कृत्रिम बुद्धिमत्ता को कितनी तेजी से विकसित किया जाए। लेइक ने सोशल मीडिया पर एक संक्षिप्त पोस्ट के ज़रिए कुछ ही समय बाद अपने इस्तीफे का खुलासा किया। उन्होंने कहा, “मैंने इस्तीफ़ा दे दिया।” लेइक के लिए, सुत्सकेवर का कंपनी से बाहर जाना कंपनी के साथ मतभेदों के बाद आखिरी झटका था, जैसा कि स्थिति से परिचित एक व्यक्ति ने बताया, जिसने निजी बातचीत पर चर्चा करने के लिए पहचान न बताने की शर्त पर बताया। शुक्रवार को एक बयान में लीके ने कहा कि सुपरअलाइनमेंट टीम संसाधनों के लिए संघर्ष कर रही थी। लीके ने एक्स पर लिखा, “पिछले कुछ महीनों में मेरी टीम हवा के विपरीत दिशा में जा रही थी।” “कभी-कभी हमें कंप्यूट के लिए संघर्ष करना…
Read more