Generative AI से खबरों की जांच में बदलाव – सच्चाई अब ₹0-रुपए से हो सकती है आसान!

आज के ज़माने में जब सूचना (news, social media पोस्ट आदि) इतना तेज़ी से फैलती है, तो Generative AI वेरिफिकेशन (news verification) एक ज़रूरी हथियार बनता जा रहा है। झूठी खबरें (misinformation), ग़लत संदर्भों (misleading contexts), और deepfake कंटेंट पूरे विश्व में समस्या हैं, और भारत में भी। Generative AI तकनीकें अब सिर्फ़ कंटेंट बनाने के लिए नहीं बल्कि खबरों की सत्यता की जांच (fact-checking) के लिए भी इस्तेमाल हो रही हैं, जिनसे खबरों की गुणवत्ता बढ़ेगी और आम जनता अधिक सुरक्षित महसूस करेगी।

Generative AI से ख़बरों की जांच कैसे हो रही है? उदाहरण के लिए, मीडिया संगठनों और fact-checkers सोशल मीडिया पोस्ट, वीडियो, ऑडियो और इमेज को ऑटोमैटिक टूल्स के ज़रिए स्कैन कर रहे हैं। टेक्नोलॉजी जैसे Natural Language Processing (NLP) और Machine Learning मॉडल्स खबरों में विरोधाभासी बातें, स्रोतों की कमी और संदिग्ध दावों (claims) को पकड़ते हैं। एक रिपोर्ट में कहा गया है कि generative AI की सहायता से बड़े टेक्स्ट कलेक्शन को तेज़ी से परखा जा सकता है, झूठी खबरों को पहचानने में समय कम लग सकता है।

भारत में भी यह ट्रेंड दिखाई दे रहा है। कि “Deepfakes Analysis Unit (DAU)” नामक एक प्रोजेक्ट है, जिसने देश में चुनावों के दौरान generative AI द्वारा बनाई गई या संशोधित वीडियो/ऑडियो सामग्री की पड़ताल के लिए WhatsApp-चैनल शुरू किया है, जहाँ आम लोग संदिग्ध कंटेंट भेजकर पूछ सकते हैं कि वह नकली है या नहीं। इसी तरह Alt News, DFRAC जैसी fact checking संस्थाएँ AI टूल्स और उन्नत डेटासेट का उपयोग कर झूठी खबरों को पकड़ने और सार्वजनिक को सच बताने का काम कर रही हैं।

लेकिन सिर्फ उपकरण होना ही काफी नहीं है। Generative AI वेरिफिकेशन से जुड़े जोखिम भी हैं। कुछ AI मॉडल “hallucinate” कर देते हैं – यानी बिना ठोस स्रोत के बातें बना लेते हैं। उदाहरण के लिए, कुछ AI चैटबोट्स ने हाल ही में ऐसी खबरें फैलायीं कि वाक़ई हुए घटना नहीं हुई थी, या एक इमेज के विवरण को गलत तरीके से जोड़ दिया गया था। इसके अलावा, भाषा-माध्यमों की विविधता (बहु-भाषा) और स्थानीय संदर्भों की कमी से AI मॉडल कभी गलत निर्णय ले सकते हैं।

क्या ये सेवाएँ मुफ्त होंगी (₹0 की शुरुआत)? बहुत सी संस्थाएँ और टूल्स प्रारंभिक चरण में मुफ्त या कम शुल्क पर उपलब्ध हैं क्योंकि उनका उद्देश्य misinformation से लड़ना है। उदाहरण के लिए, Vastav.AI नामक deepfake detection सिस्टम भारत में है, जो वीडियो, फोटो और ऑडियो कंटेंट को पहचानने में सक्षम है। यह कई मामलों में सरकारी एजेंसियों और मीडिया संस्थानों के लिए मुफ़्त हो सकता है। साथ ही fact-checking संगठनों द्वारा उपयोगी डेटासेट्स मुफ्त या खुली पहुंच (open source) पर उपलब्ध कराये जा रहे हैं।

सार यह है कि Generative AI आज खबरों की जांच (news verification) को तेज़, ज्यादा लोगों के लिए संभव और अधिक विश्वसनीय बनाने में मदद कर रहा है। इससे झूठी सूचनाओं का प्रभाव घटेगा और लोगों का भरोसा बढ़ेगा। लेकिन इसके लिए पारदर्शिता ज़रूरी है: AI मॉडल कौन सा इस्तेमाल हो रहा है, स्रोत क्या हैं, और मानव समीक्षा हो रही है या नहीं – ये बातें होने चाहिए।

भविष्य में यह उम्मीद है कि AI-fact-checking टूल्स स्थानीय भाषाओं (हिंदी, तमिल, बंगाली आदि) में बेहतर होंगे, ऑडियो-वीडियो deepfake पहचान क्षमता में सुधार होगा, और न्यूज प्लेटफार्म्स और सोशल मीडिया कंपनियाँ मिलकर एक ऐसा इकोसिस्टम बनाएँगी जहाँ खबरें वायरल होने से पहले उनकी सच्चाई पर सवाल उठा सकें।