OpenAI ने पेश किया GPT-5 और GPT-4.5: hallucination में कटौती कर विश्वसनीयता बढ़ाने का बड़ा कदम

OpenAI ने hallucination यानी जब AI गलत जानकारी सटीक तरीके से प्रस्तुत करता है, को कम-से-कम करने के लिए बड़े बदलाव शुरू कर दिए हैं। नए मॉडल GPT-4.5 और GPT-5 में विशेष ध्यान दिया गया है कि जो उत्तर AI दे, वह यथासंभव विश्वसनीय हो और ज़रूरत पड़ने पर यह स्वीकार कर सके कि “मुझे नहीं पता”।

GPT-4.5 मॉडल में hallucination दर लगभग 37.1% है (SimpleQA जैसे benchmark पर), जो पुराने GPT-4o और o3/o4-mini मॉडल्स की तुलना में कम है। GPT-4o की hallucination दर लगभग 60-61% थी।

GPT-5 ने भी सुधार दिखाया है – वह कुछ मामलों में GPT-4o से 26-40% कम factual errors करता है, और कुछ जटिल reasoning और तथ्य-आधारित प्रश्नों में बेहतर प्रदर्शन कर रहा है। OpenAI ने बताया है कि नए evaluation frameworks तैयार किए जा रहे हैं ताकि मॉडल को “confident गलतियां” (confident errors) करने से पहले अपने उत्तरों की विश्वसनीयता (certainty) आने लगे।

एक बड़ा बदलाव यह है कि OpenAI अब उन benchmarks और safety evaluation results को सार्वजनिक कर रहा है जहाँ hallucination, गलत सूचना और विविधता-भरी गलतियाँ पकड़ी जाती हैं। इससे यूज़र और शोधकर्ता मॉडल की सीमाएँ और विश्वसनीयता दोनों समझ पाएँगे।

OpenAI ने यह भी स्वीकार किया है कि hallucinations पूरी तरह समाप्त करना संभव नहीं है – क्योंकि कुछ real-world प्रश्न inherently अनुपयुक्त या अप्रश्ननीय हो सकते हैं, जहाँ पर्याप्त जानकारी न हो। लेकिन मॉडल को ऐसा बनाना कि वह अपनी सीमाएँ जान सके और ज़रूरत पड़ने पर “I don’t know” या “मुझे जानकारी नहीं है” जैसे उत्तर दे, वो बड़ी सुधार की दिशा है।

हालाँकि, चुनौतियाँ अभी भी हैं। reasoning मॉडल जैसे o3 और o4-mini में कुछ परीक्षणों में hallucination दर बढ़ी हुई मिली है; उदाहरण के लिए PersonQA नामक परीक्षण में o3 मॉडल ने 33% सवालों में गलत उत्तर दिया, और o4-mini ने लगभग 48% में। इसका मतलब है कि मॉडल बेहतर तो हुए हैं लेकिन अभी भी बहुत जगह है सुधार की।

इस बदलाव का प्रयोगकर्ता अनुभव पर बड़ा असर होगा: वे जो जानकारी ChatGPT या अन्य OpenAI मॉडल से लेते हैं, उनमें विश्वास बढ़ेगा। विशेष रूप से शिक्षा, स्वास्थ्य, कानूनी सलाह आदि क्षेत्रों में यह ज़रूरी है कि सूचना सही हो।

Read Also