भारत ने पेश की अनिवार्य AI-लेबलिंग नियमों की रूप-रेखा: Under-Trial मॉडल्स के लिए चेतावनी टैग जरूरी

भारत सरकार ने AI कंटेंट और मॉडल्स को लेकर पारदर्शिता बढ़ाने के लिए अनिवार्य AI-लेबलिंग नियमों की रूप-रेखा तैयार की है। Ministry of Electronics and Information Technology (MeitY) ने एक एडवाइजरी जारी की है जिसमें कहा गया है कि “under-trial” या “unreliable” AI मॉडल्स और जो कंटेंट AI-टूल्स से जेनरेट हुआ हो, उस पर स्पष्ट टैग या लेबल होना चाहिए, ताकि यूज़र यह जान सके कि आउटपुट पूरी तरह विश्वसनीय नहीं है।

पहली एडवाइजरी 1 मार्च 2024 को आई थी जिसमें प्लेटफार्मों से कहा गया कि वे ऐसे मॉडल्स जिनका परीक्षण पूरा नहीं हुआ हो, उन्हें सार्वजनिक रूप से इस्तेमाल में लाने से पहले सरकारी अनुमति लें और उनके आउटपुट पर संभावित त्रुटियों (fallibility) या विश्वसनीयता की कमी (unreliability) से सम्बंधित चेतावनी टैग लगाएँ।

लेकिन बाद में संशोधन हुआ है: सरकार ने 15 मार्च 2024 की एडवाइजरी में अनिवार्य अनुमति (government permit) लेने की ज़रूरत हटा दी है। अब requirement यह है कि AI-टूल्स/मॉडल्स यदि under-trial या अनपरीक्षित हों, तो उनके उपयोग से पहले लेबलिंग की जाए और यूज़र को “possible inherent unreliability” की जानकारी देना ज़रूरी होगा।

नए नियमों के मुख्य बिंदु इस प्रकार हैं:

  • यदि कोई AI मॉडल अभी परीक्षण (testing) में है या उसकी विश्वसनीयता की पूरी पुष्टि नहीं हुई है, तो उसकी सामग्री पर स्पष्ट लेबल/टैग होना चाहिए जैसे “AI-generated”, “AI-modified”, “under-trial model”, आदि।
  • अगर प्लेटफार्म ऐसा सामग्री दिखाते हैं जो AI-tool के ज़रिए उत्पन्न हुई है, तो यूज़र की सहमति (consent popup) जैसे मेकेनिज़्म ज़रूरी होंगे, ताकि उपयोगकर्ता जान सके कि आउटपुट दोषपूर्ण हो सकता है।
  • प्लेटफार्मों को यह सुनिश्चित करना है कि AI मॉडल्स ऐसा कंटेंट साझा न करें जो भारतीय कानूनों के तहत अवैध हो – जैसे झूठी सूचनाएँ (misinformation), वोटिंग प्रक्रिया को प्रभावित करना, भेदभाव करना आदि।
  • सरकार अब “significant intermediaries / platforms” (विशेष रूप से बड़े प्लेटफार्म) पर ज़्यादा ज़ोर दे रही है; स्टार्टअप्स या छोटे मॉडल्स पर फिलहाल इन नियमों का पूरा दायरा लागू नहीं हो सकता है।

संभावित प्रभाव और चुनौतियाँ

यह कदम सूचना पारदर्शिता और यूज़र विश्वास को मजबूत कर सकता है। जब लोगों को पता होगा कि वे जो जानकारी देख रहे हैं, वह पूरी तरह निश्चित नहीं है, तो वे बेहतर निर्णय ले सकेंगे। मीडिया प्लेटफार्मों पर लगे झूठे दावों और misleading AI-outcomes पर नियंत्रण बढ़ेगा।

लेकिन चुनौतियाँ भी हैं। पहला, “क्या भरोसा हो कि लेबल सही होंगे?” – प्लेटफार्मों पर जिम्मेदारी होगी कि वे लेबलिंग सही तरीके से करें। दूसरा, टेक्नोलॉजी और व्यावहारिक कठिनाइयाँ होंगी – ऑडियो, वीडियो, इमेज या टेक्स्ट सभी में यह पहचान करना कि कंटेंट AI-generated है या नहीं। तीसरा, नियम कितने binding होंगे – क्योंकि अभी ये केवल एडवाइजरी हैं, कानून नहीं। कोई कड़ा जुर्माना नहीं जुड़ा है कुछ मामलों में।

Related Articles