आज-कल AI (विशेषकर AGI – Artificial General Intelligence) की प्रगति ऐसी दिशा ले रही है कि कई विशेषज्ञों का मानना है कि यह मानव अस्तित्व के लिए एक वास्तविक खतरा बन सकता है। एक प्रमुख शोध (Future of Life Institute की रिपोर्ट) में कहा गया है कि बड़ी AI फर्में अब भी existential safety (अस्तित्व से जुड़े जोखिम) के लिए अच्छी तैयारी नहीं कर रही हैं। AGI के साथ समस्या यह है कि यदि AI सिस्टम मनुष्यों के मूल्यों या नियतियों (intentions) से भटक जाएँ, या किसी लक्ष्य को पूरी तरह से मानव नियंत्रण के बाहर पहुँच जाएँ, तो वो बहुत बड़े नुकसान कर सकते हैं – misalignment, goal misgeneralization या specification gaming जैसी स्थितियाँ हो सकती हैं।
स्वास्थ्य विशेषज्ञों ने एक रिपोर्ट में चेतावनी दी है कि AI तकनीकों के कारण सार्वजनिक स्वास्थ्य, डेटा गोपनीयता, बायस और सामाजिक असमानताओं में वृद्धि हो सकती है उदाहरण के लिए, pulse oximeter जैसा उपकरण त्वचा के रंग के अनुसार ऑक्सीजन स्तर गलत बता सकता है, जो खासकर darker skin tones वालों के लिए खतरनाक है। साथ ही, AI द्वारा मिथ्या जानकारी (misinformation), deepfake और चरित्र-आधारित हिंसा के प्रसार की क्षमता लोकतंत्र को कमजोर कर सकती है।
Time to talk about @_Qubic_ AGI and 🧠in HeroCon convention. Thank you very much to Learning Heroes for their trust in my work! @Learningheros1 pic.twitter.com/lbbYjVs9hZ
— Jose Sánchez (@josesanchezhb) September 13, 2025
लेकिन इस खतरे पर रहने वाले लोग कहते हैं कि अभी से पुरानी समस्याएँ जैसे algorithmic bias, निगरानी (surveillance), रोजगार पर प्रभाव और mental health जैसे मुद्दे पहले सुलझाए जाने चाहिए क्योंकि ये समय-प्रभावी हैं। प्रसिद्ध AI शोधकर्ता Gary Marcus ने कहा है कि अस्तित्व संबंधी खतरे “अभी के लिए ज़्यादा अनुमानित (speculative)” हैं – ज़माना अभी तक ऐसे साक्ष्य नहीं दिखाता कि AGI सभी मनुष्यों के अस्तित्व को धराशायी कर देगा।
एक सर्वेक्षण में, लगभग 2,700 AI रिसर्चर्स से पूछा गया कि क्या AI मानव विनाश (human extinction) का कारण बन सकता है – अधिकांश ने कहा कि हां, पर संभावना कम है, लगभग 1-5% या थोड़ा ज़्यादा। इसी तरह, एक बयान (statement) जारी किया गया है जिसे Sam Altman, Demis Hassabis सहित कई AI नेताओं ने साइन किया कि “AI के जैविक (extinction) खतरों को महामारी और परमाणु युद्ध जैसी चुनौतियों के साथ समान प्राथमिकता दी जानी चाहिए।”
नियमन और सुरक्षा उपाय बहुत ज़रूरी हो गए हैं। उदाहरण के लिए, कैलिफोर्निया में SB 53 नामक प्रस्तावित बिल AI कंपनियों को यह अनिवार्य करेगा कि वे frontier AI मॉडल्स के लिए safety frameworks प्रकाशित करें, किसी “critical incident” की सूचना 15 दिन में दें, और whistleblower सुरक्षा सुनिश्चित करें। ऐसे कदम AI को नियंत्रित तरीके से विकसित करने के लिए ज़रूरी माने जा रहे हैं।
अगर ठीक से काम किया जाए – जैसे AGI विकास पर समीक्षा, मानवीय मूल्यों (human values) का एलाइनमेंट, नियन्त्रण तंत्र और अंतरराष्ट्रीय सहयोग — तो इस खतरे को कम किया जा सकता है। लेकिन समय निकल रहा है, और विशेषज्ञ चेतावनी दे रहे हैं कि यदि हम अभी नहीं जागे और ठोस उपाय न करें, तो AGI भविष्य में मानवता के लिए सबसे बड़ा existential खतरा बन सकता है।
New essay exploring why experts so strongly disagree about existential risk from ASI, and why focusing on alignment as a primary goal may be a fundamental mistake pic.twitter.com/KmPaE8vtIH
— Michael Nielsen (@michael_nielsen) April 14, 2025
Related Articles