भारत सरकार ने AI कंटेंट और मॉडल्स को लेकर पारदर्शिता बढ़ाने के लिए अनिवार्य AI-लेबलिंग नियमों की रूप-रेखा तैयार की है। Ministry of Electronics and Information Technology (MeitY) ने एक एडवाइजरी जारी की है जिसमें कहा गया है कि “under-trial” या “unreliable” AI मॉडल्स और जो कंटेंट AI-टूल्स से जेनरेट हुआ हो, उस पर स्पष्ट टैग या लेबल होना चाहिए, ताकि यूज़र यह जान सके कि आउटपुट पूरी तरह विश्वसनीय नहीं है।
पहली एडवाइजरी 1 मार्च 2024 को आई थी जिसमें प्लेटफार्मों से कहा गया कि वे ऐसे मॉडल्स जिनका परीक्षण पूरा नहीं हुआ हो, उन्हें सार्वजनिक रूप से इस्तेमाल में लाने से पहले सरकारी अनुमति लें और उनके आउटपुट पर संभावित त्रुटियों (fallibility) या विश्वसनीयता की कमी (unreliability) से सम्बंधित चेतावनी टैग लगाएँ।
लेकिन बाद में संशोधन हुआ है: सरकार ने 15 मार्च 2024 की एडवाइजरी में अनिवार्य अनुमति (government permit) लेने की ज़रूरत हटा दी है। अब requirement यह है कि AI-टूल्स/मॉडल्स यदि under-trial या अनपरीक्षित हों, तो उनके उपयोग से पहले लेबलिंग की जाए और यूज़र को “possible inherent unreliability” की जानकारी देना ज़रूरी होगा।
नए नियमों के मुख्य बिंदु इस प्रकार हैं:
- यदि कोई AI मॉडल अभी परीक्षण (testing) में है या उसकी विश्वसनीयता की पूरी पुष्टि नहीं हुई है, तो उसकी सामग्री पर स्पष्ट लेबल/टैग होना चाहिए जैसे “AI-generated”, “AI-modified”, “under-trial model”, आदि।
- अगर प्लेटफार्म ऐसा सामग्री दिखाते हैं जो AI-tool के ज़रिए उत्पन्न हुई है, तो यूज़र की सहमति (consent popup) जैसे मेकेनिज़्म ज़रूरी होंगे, ताकि उपयोगकर्ता जान सके कि आउटपुट दोषपूर्ण हो सकता है।
- प्लेटफार्मों को यह सुनिश्चित करना है कि AI मॉडल्स ऐसा कंटेंट साझा न करें जो भारतीय कानूनों के तहत अवैध हो – जैसे झूठी सूचनाएँ (misinformation), वोटिंग प्रक्रिया को प्रभावित करना, भेदभाव करना आदि।
- सरकार अब “significant intermediaries / platforms” (विशेष रूप से बड़े प्लेटफार्म) पर ज़्यादा ज़ोर दे रही है; स्टार्टअप्स या छोटे मॉडल्स पर फिलहाल इन नियमों का पूरा दायरा लागू नहीं हो सकता है।
संभावित प्रभाव और चुनौतियाँ
यह कदम सूचना पारदर्शिता और यूज़र विश्वास को मजबूत कर सकता है। जब लोगों को पता होगा कि वे जो जानकारी देख रहे हैं, वह पूरी तरह निश्चित नहीं है, तो वे बेहतर निर्णय ले सकेंगे। मीडिया प्लेटफार्मों पर लगे झूठे दावों और misleading AI-outcomes पर नियंत्रण बढ़ेगा।
लेकिन चुनौतियाँ भी हैं। पहला, “क्या भरोसा हो कि लेबल सही होंगे?” – प्लेटफार्मों पर जिम्मेदारी होगी कि वे लेबलिंग सही तरीके से करें। दूसरा, टेक्नोलॉजी और व्यावहारिक कठिनाइयाँ होंगी – ऑडियो, वीडियो, इमेज या टेक्स्ट सभी में यह पहचान करना कि कंटेंट AI-generated है या नहीं। तीसरा, नियम कितने binding होंगे – क्योंकि अभी ये केवल एडवाइजरी हैं, कानून नहीं। कोई कड़ा जुर्माना नहीं जुड़ा है कुछ मामलों में।
India just kissed its future goodbye!
— Bindu Reddy (@bindureddy) March 3, 2024
Every company deploying a GenAI model now requires approval from the Indian government!
That is, you now need approval for merely deploying a 7b open source model 🤯🤯
If you know the Indian government, you know this will a huge drag!… pic.twitter.com/PnHk8SE7TF
Related Articles