OpenAI ने hallucination यानी जब AI गलत जानकारी सटीक तरीके से प्रस्तुत करता है, को कम-से-कम करने के लिए बड़े बदलाव शुरू कर दिए हैं। नए मॉडल GPT-4.5 और GPT-5 में विशेष ध्यान दिया गया है कि जो उत्तर AI दे, वह यथासंभव विश्वसनीय हो और ज़रूरत पड़ने पर यह स्वीकार कर सके कि “मुझे नहीं पता”।
This OpenAI paper has some very compelling explanations on why hallucinations persist and what to do about it.
— Aaron Levie (@levie) September 6, 2025
Specifically in post-training, we should stop penalizing models for saying that they don’t know an answer, and stop rewarding overly confident guessing.
Eradicating… pic.twitter.com/lyByay49ul
GPT-4.5 मॉडल में hallucination दर लगभग 37.1% है (SimpleQA जैसे benchmark पर), जो पुराने GPT-4o और o3/o4-mini मॉडल्स की तुलना में कम है। GPT-4o की hallucination दर लगभग 60-61% थी।
GPT-5 ने भी सुधार दिखाया है – वह कुछ मामलों में GPT-4o से 26-40% कम factual errors करता है, और कुछ जटिल reasoning और तथ्य-आधारित प्रश्नों में बेहतर प्रदर्शन कर रहा है। OpenAI ने बताया है कि नए evaluation frameworks तैयार किए जा रहे हैं ताकि मॉडल को “confident गलतियां” (confident errors) करने से पहले अपने उत्तरों की विश्वसनीयता (certainty) आने लगे।
एक बड़ा बदलाव यह है कि OpenAI अब उन benchmarks और safety evaluation results को सार्वजनिक कर रहा है जहाँ hallucination, गलत सूचना और विविधता-भरी गलतियाँ पकड़ी जाती हैं। इससे यूज़र और शोधकर्ता मॉडल की सीमाएँ और विश्वसनीयता दोनों समझ पाएँगे।
Hallucinations are the bane of our AI existence, amiright friends? But OpenAI researchers have just uncovered what’s actually happening. And maybe mapped out a path forward. Here’s your cheatsheet: pic.twitter.com/JbIhdpyXvC
— Conor Grennan (@conorgrennan) September 9, 2025
OpenAI ने यह भी स्वीकार किया है कि hallucinations पूरी तरह समाप्त करना संभव नहीं है – क्योंकि कुछ real-world प्रश्न inherently अनुपयुक्त या अप्रश्ननीय हो सकते हैं, जहाँ पर्याप्त जानकारी न हो। लेकिन मॉडल को ऐसा बनाना कि वह अपनी सीमाएँ जान सके और ज़रूरत पड़ने पर “I don’t know” या “मुझे जानकारी नहीं है” जैसे उत्तर दे, वो बड़ी सुधार की दिशा है।
हालाँकि, चुनौतियाँ अभी भी हैं। reasoning मॉडल जैसे o3 और o4-mini में कुछ परीक्षणों में hallucination दर बढ़ी हुई मिली है; उदाहरण के लिए PersonQA नामक परीक्षण में o3 मॉडल ने 33% सवालों में गलत उत्तर दिया, और o4-mini ने लगभग 48% में। इसका मतलब है कि मॉडल बेहतर तो हुए हैं लेकिन अभी भी बहुत जगह है सुधार की।
इस बदलाव का प्रयोगकर्ता अनुभव पर बड़ा असर होगा: वे जो जानकारी ChatGPT या अन्य OpenAI मॉडल से लेते हैं, उनमें विश्वास बढ़ेगा। विशेष रूप से शिक्षा, स्वास्थ्य, कानूनी सलाह आदि क्षेत्रों में यह ज़रूरी है कि सूचना सही हो।
Read Also