AI से मानव अस्तित्व को खतरा? कैसे विशेषज्ञ देख रहे AGI-की भविष्यवाणी और ज़रूरी सुरक्षा कदम

आज-कल AI (विशेषकर AGI – Artificial General Intelligence) की प्रगति ऐसी दिशा ले रही है कि कई विशेषज्ञों का मानना है कि यह मानव अस्तित्व के लिए एक वास्तविक खतरा बन सकता है। एक प्रमुख शोध (Future of Life Institute की रिपोर्ट) में कहा गया है कि बड़ी AI फर्में अब भी existential safety (अस्तित्व से जुड़े जोखिम) के लिए अच्छी तैयारी नहीं कर रही हैं। AGI के साथ समस्या यह है कि यदि AI सिस्टम मनुष्यों के मूल्यों या नियतियों (intentions) से भटक जाएँ, या किसी लक्ष्य को पूरी तरह से मानव नियंत्रण के बाहर पहुँच जाएँ, तो वो बहुत बड़े नुकसान कर सकते हैं – misalignment, goal misgeneralization या specification gaming जैसी स्थितियाँ हो सकती हैं।

स्वास्थ्य विशेषज्ञों ने एक रिपोर्ट में चेतावनी दी है कि AI तकनीकों के कारण सार्वजनिक स्वास्थ्य, डेटा गोपनीयता, बायस और सामाजिक असमानताओं में वृद्धि हो सकती है उदाहरण के लिए, pulse oximeter जैसा उपकरण त्वचा के रंग के अनुसार ऑक्सीजन स्तर गलत बता सकता है, जो खासकर darker skin tones वालों के लिए खतरनाक है। साथ ही, AI द्वारा मिथ्या जानकारी (misinformation), deepfake और चरित्र-आधारित हिंसा के प्रसार की क्षमता लोकतंत्र को कमजोर कर सकती है।

लेकिन इस खतरे पर रहने वाले लोग कहते हैं कि अभी से पुरानी समस्याएँ जैसे algorithmic bias, निगरानी (surveillance), रोजगार पर प्रभाव और mental health जैसे मुद्दे पहले सुलझाए जाने चाहिए क्योंकि ये समय-प्रभावी हैं। प्रसिद्ध AI शोधकर्ता Gary Marcus ने कहा है कि अस्तित्व संबंधी खतरे “अभी के लिए ज़्यादा अनुमानित (speculative)” हैं – ज़माना अभी तक ऐसे साक्ष्य नहीं दिखाता कि AGI सभी मनुष्यों के अस्तित्व को धराशायी कर देगा।

एक सर्वेक्षण में, लगभग 2,700 AI रिसर्चर्स से पूछा गया कि क्या AI मानव विनाश (human extinction) का कारण बन सकता है – अधिकांश ने कहा कि हां, पर संभावना कम है, लगभग 1-5% या थोड़ा ज़्यादा। इसी तरह, एक बयान (statement) जारी किया गया है जिसे Sam Altman, Demis Hassabis सहित कई AI नेताओं ने साइन किया कि “AI के जैविक (extinction) खतरों को महामारी और परमाणु युद्ध जैसी चुनौतियों के साथ समान प्राथमिकता दी जानी चाहिए।”

नियमन और सुरक्षा उपाय बहुत ज़रूरी हो गए हैं। उदाहरण के लिए, कैलिफोर्निया में SB 53 नामक प्रस्तावित बिल AI कंपनियों को यह अनिवार्य करेगा कि वे frontier AI मॉडल्स के लिए safety frameworks प्रकाशित करें, किसी “critical incident” की सूचना 15 दिन में दें, और whistleblower सुरक्षा सुनिश्चित करें। ऐसे कदम AI को नियंत्रित तरीके से विकसित करने के लिए ज़रूरी माने जा रहे हैं।

अगर ठीक से काम किया जाए – जैसे AGI विकास पर समीक्षा, मानवीय मूल्यों (human values) का एलाइनमेंट, नियन्त्रण तंत्र और अंतरराष्ट्रीय सहयोग — तो इस खतरे को कम किया जा सकता है। लेकिन समय निकल रहा है, और विशेषज्ञ चेतावनी दे रहे हैं कि यदि हम अभी नहीं जागे और ठोस उपाय न करें, तो AGI भविष्य में मानवता के लिए सबसे बड़ा existential खतरा बन सकता है।

Related Articles