आर्टिफिशियल जनरल इंटेलिजेंस या सुपरइंटेलिजेंस एआई की दुनिया में सबसे व्यापक रूप से उद्धृत शब्दों में से एक रहा है, लेकिन इसका क्या मतलब है या समाज के लिए इसके संभावित निहितार्थ क्या हो सकते हैं, इस पर शायद ही कोई आम सहमति है। ऐसा कहा जा रहा है कि, ओपनएआई, गूगल और एंथ्रोपिक जैसी अग्रणी एआई प्रयोगशालाएं ऐसा मॉडल बनाने वाली पहली कंपनी बनने की होड़ में हैं जो एजीआई स्थिति तक पहुंच सके।
हालाँकि, एंथ्रोपिक के सह-संस्थापक और मुख्य वैज्ञानिक जेरेड कपलान ने गार्जियन के साथ एक साक्षात्कार में बताया कि मानवता के पास “सबसे बड़ा निर्णय” होगा कि वह एआई सिस्टम को और अधिक शक्तिशाली बनने के लिए खुद को प्रशिक्षित करने का “अंतिम जोखिम” लेती है या नहीं।
कपलान के अनुसार, 2027 और 2030 के बीच की अवधि वह क्षण बन सकती है जब कृत्रिम बुद्धिमत्ता अपने उत्तराधिकारियों को डिजाइन करने में सक्षम हो जाएगी।
एंथ्रोपिक एक्जीक्यूटिव का कहना है कि वह मानव बुद्धि के स्तर तक मानवता के हितों के साथ एआई उपकरणों के संरेखण के बारे में बहुत आशावादी है, लेकिन तब नहीं जब यह उस सीमा से अधिक हो।
एआई पर कापलान अपने उत्तराधिकारी को प्रशिक्षित कर रहा है
जिस क्षण एक एआई सिस्टम अपने उत्तराधिकारी को प्रशिक्षित करना शुरू कर देता है, एआई प्रयोगशालाओं के पास वर्तमान में उनके मॉडल पर जो रेलिंग होती है वह अब पर्याप्त नहीं रह सकती है। कपलान का मानना है कि इससे खुफिया विस्फोट हो सकता है और यहां तक कि वह क्षण भी आ सकता है जब मनुष्य एआई पर नियंत्रण खो देंगे।
“यदि आप कल्पना करते हैं कि आप इस प्रक्रिया को बना रहे हैं जहां आपके पास एक एआई है जो आपसे अधिक स्मार्ट है, या आपके जितना ही स्मार्ट है, तो यह एक ऐसा एआई बना रहा है जो बहुत अधिक स्मार्ट है। यह उस एआई की मदद को एआई से अधिक स्मार्ट बनाने के लिए सूचीबद्ध करने जा रहा है। यह एक तरह की डरावनी प्रक्रिया की तरह लगती है। आप नहीं जानते कि आप कहां समाप्त होते हैं,” उन्होंने गार्जियन को बताया।
ऐसे परिदृश्य में, एआई ब्लैक बॉक्स समस्या पूर्ण हो जाएगी, जहां मनुष्य न केवल अनिश्चित होंगे कि एआई ने निर्णय क्यों लिया, बल्कि यह भी नहीं बता पाएंगे कि एआई कहां जा रहा है।
“यह वह चीज़ है जिसे हम शायद सबसे बड़े निर्णय या सबसे डरावनी चीज़ के रूप में देखते हैं… एक बार जब इस प्रक्रिया में कोई शामिल नहीं होता है, तो आप वास्तव में नहीं जानते हैं। आप एक प्रक्रिया शुरू कर सकते हैं और कह सकते हैं, ‘ओह, यह बहुत अच्छा चल रहा है। यह बिल्कुल वैसा ही है जैसा हमने उम्मीद की थी। यह बहुत सुरक्षित है।’ लेकिन आप नहीं जानते – यह एक गतिशील प्रक्रिया है। वह कहाँ ले जाता है?” उन्होंने नोट किया.
कपलान का कहना है कि ऐसे परिदृश्य में दो बड़े जोखिम हैं। पहला, क्या मनुष्य एआई पर नियंत्रण खो देंगे और क्या उनके जीवन में एजेंसी बनी रहेगी?
“पहला यह है कि क्या आप इस पर नियंत्रण खो देते हैं? क्या आप यह भी जानते हैं कि एआई क्या कर रहे हैं? मुख्य सवाल यह है: क्या एआई मानवता के लिए अच्छे हैं? क्या वे सहायक हैं? क्या वे हानिरहित होंगे? क्या वे लोगों को समझते हैं? क्या वे लोगों को अपने जीवन और दुनिया भर में एजेंसी जारी रखने की अनुमति देंगे?” कपलान ने नोट किया।
दूसरा जोखिम तब होता है जब स्व-सिखाए गए एआई में सुधार की गति मानव वैज्ञानिक अनुसंधान और तकनीकी विकास क्षमताओं से आगे निकल जाती है।
“इसका गलत हाथों में पड़ना बहुत खतरनाक लगता है… आप कल्पना कर सकते हैं कि कोई व्यक्ति यह निर्णय ले: ‘मैं चाहता हूं कि यह एआई सिर्फ मेरा गुलाम बने। मैं चाहता हूं कि यह मेरी इच्छा को लागू करे।’ मेरा मानना है कि सत्ता हथियाने को रोकना, प्रौद्योगिकी के दुरुपयोग को रोकना भी बहुत महत्वपूर्ण है,” उन्होंने कहा।









Leave a Reply