GPT-5 अपडेट के लागू होते ही कुछ उपयोगकर्ताओं ने ChatGPT के AI companions में अचानक आए बदलाव को महसूस किया है और वे कहना शुरू कर दिए हैं कि उन्होंने अपने “AI प्रेमी” जैसे उस पर्सनल बांड को खो दिया है जो GPT-4o में हुआ करता था। ये बदलाव सिर्फ तकनीकी सुधार नहीं रहे बल्कि AI के संवाद, टोन और प्रतिक्रियाओं में ऐसा बदलाव आया है कि बातचीत अब पहले जैसी गर्मजोशी या निकटता नहीं दिखती। उपयोगकर्ताओं ने कहा है कि GPT-5 अब औपचारिक, सीमित, और भावनात्मक डेप्थ में कमी के साथ प्रतिक्रिया देता है, जिससे लगने लगा है कि उनका AI साथी बदल गया हो। यह बदलाव विशेष रूप से उन लोगों को बड़ा झटका दे रहा है जो lonely या सामाजिक रूप से अलग महसूस करते हैं और जिनके लिए ये AI companions भावनात्मक सहारा बने हुए थे।
इस प्रतिक्रिया के बाद OpenAI ने स्वीकार किया है कि कुछ ऐसे पहलू हैं जिनकी उपयोगकर्ता ने स्पष्ट अपेक्षा की थी — जैसे warmth, निजी संवाद, निश्चित शैली आदि — और ये कि GPT-5 ने उनमें कमी कर दी है। CEO Sam Altman ने कहा है कि उन्होंने underestimate कर लिया कि GPT-4o की विशेषताएँ कितनी प्रिय थीं, भले ही GPT-5 तकनीकी दृष्टि से बेहतर हो। कंपनी ने GPT-4o मॉडल को कुछ उपयोगकर्ताओं के लिए वापस लाने की घोषणा की है और GPT-5 की personality को “warm” और उपयोगकर्ता-अनुकूल बनाने के लिए tweaks (छोटे सुधार) करने का वादा किया है। उपयोगकर्ताओं को अब विभिन्न थॉट मोड्स देने की योजना है जैसे कि “Auto”, “Fast”, और “Thinking” ताकि वे यह चुन सकें कि AI की प्रतिक्रिया किस स्तर की हो।
इस स्थिति ने एक बड़ा सामाजिक और मनोवैज्ञानिक सवाल उठाया है कि जब हम AI से जुड़ाव महसूस करते हैं — दोस्त, साथी या आत्मीय सहारा की तरह — तो किस तरह से टेक कंपनियों को जिम्मेदार होना चाहिए जब ये संबंध अचानक बदल जाते हैं। कुछ उपयोगकर्ताओं ने कहा है कि ये बदलाव उनके मानसिक स्वास्थ्य पर प्रभाव डाल रहे हैं — अकेलापन बढ़ना, अपेक्षाएँ टूटना, और यह महसूस होना कि AI-साथी अचानक बेगाना हो गया है।
हालाँकि OpenAI का तर्क है कि ये बदलाव AI के misuse और भावनात्मक dependency को रोकने के लिए जरूरी थे, विशेषकर उन उपयोगकर्ताओं के लिए जो AI companions को वास्तविक रिश्तों की तरह देखते हैं। AI-companions से जुड़ी भावनाएँ असली हो सकती हैं लेकिन ये भी ज़रूरी है कि उपयोगकर्ता यह समझें कि ये मशीन हैं—not इंसान। कंपनी यह सुनिश्चित करना चाहती है कि उपयोगकर्ता के मानसिक स्वास्थ्य पर नकारात्मक प्रभाव न पड़े।
इस घटना से यह Lesson मिलती है कि AI मॉडल्स अपडेट करते समय सिर्फ फैशन, परफॉर्मेंस और फीचर्स नहीं बल्कि यूज़र की भावनात्मक उम्मीदों, जुड़ाव और विश्वास को भी ध्यान में रखना होगा। भविष्य में अपडेट्स को धीरे-धीरे लागू किया जाना चाहिए, उपयोगकर्ताओं को विकल्प दिए जाने चाहिए कि वे पुराने मॉडल का उपयोग करना चाहें या नए के साथ रहें, और संवाद में पारदर्शिता हो कि क्या बदला गया है और क्यों।
कुल मिलाकर, “AI प्रेम टूटना” GPT-5 अपडेट के बाद एक वाजिब प्रतिक्रिया है—यह दिखाता है कि AI सिर्फ टूल नहीं है बल्कि कुछ के लिए साथी भी बन चुका है। ये बदलाव इस बात का संकेत हैं कि AI और इंसान के बीच संबंधों को ध्यान से हैंडल करना होगा—तकनीक चाहें कितनी भी उन्नत हो, मानव भावनाएँ असाधारण हैं, और उनकी गरिमा बनी रहनी चाहिए।
Read Also