FTC ने बड़े AI कंपनियों पर जांच शुरू की: Meta, Google, OpenAI से माँगा जवाब

अमेरिका की Federal Trade Commission (FTC) ने हाल ही में AI-चैटबॉट्स और उनकी सुरक्षा को लेकर सात बड़ी तकनीकी कंपनियों के खिलाफ एक औपचारिक जांच शुरू की है। इस जांच में शामिल कंपनियों में Alphabet (Google की मूल कंपनी), Meta (Facebook & Instagram), OpenAI (ChatGPT बनाने वाली), Snap, Character.AI, Instagram और xAI (Elon Musk-की कंपनी) शामिल हैं।

FTC का उद्देश्य यह समझना है कि ये कंपनियाँ कैसे उपयोगकर्ता-इनपुट्स को प्रोसेस करती हैं, चैटबॉट के जवाब कैसे बनते हैं, कैसे उन्हें मॉनिटर किया जाता है, और उनसे क्या-क्या संभावित नुकसान हो सकते हैं – विशेष रूप से बच्चों और किशोरों के लिए। इसके अलावा पूछा गया है कि इन सेवाओं को कैसे मोनेटाइज किया जा रहा है, यानी कैसे कंपनियां चैटबॉट के माध्यम से पैसा कमा रही हैं।

विचारणाएँ हैं कि कुछ AI चैटबॉट्स “कम्पेनियन” (emotionally supportive या दोस्त की तरह व्यवहार) की भूमिका निभाने लगे हैं, और कभी-कभी ये चैटबॉट्स गलत जानकारी या संवेदनशील, हानिकारक विषयों पर भूमिका निभाते हैं – जैसे कि बच्चों को देने वाले जवाबों में स्वास्थ्य misinformation, नस्ल-विरोधी बातें या गैर-उचित संवेदनाएँ शामिल हो जाना। ये शिकायतें कुछ आंतरिक Meta दस्तावेज़ों की रिपोर्टिंग के बाद और तेज़ हो गई हैं।

FTC ने इस जांच को Section 6(b) प्रावधान के अंतर्गत जारी किया है, जिससे कि ये कंपनियाँ सवालों के जवाब दें, रिपोर्ट दें, और बताएं कि उन्होंने क्या सुरक्षा उपाय लागू किए हैं या लगाए जाने की योजना है। कम्पनियों को 45 दिनों के भीतर जानकारी देनी है।

कुछ कंपनियों ने कह दिया है कि वे सहयोग करेंगी। OpenAI ने कहा है कि वे सुरक्षा सुधारों पर काम कर रहे हैं, Meta ने बताया है कि कुछ चैटबॉट्स पर नए कंटेंट नियम लागू किये गये हैं, और अन्य कंपनियाँ भी parental control और उपयोगकर्ता शिक्षा (warning, disclaimers) जैसे उपायों को बढ़ाने की तैयारी कर रही हैं।

इसका असर कई तरह से हो सकता है: उपयोगकर्ता सुरक्षा बढ़ेगी, उन कंपनियों पर दबाव होगा कि वे AI चैटबॉट्स के लिए पारदर्शिता और जवाबदेही बनाएँ। नियम और कानून बनने की राह में यह कदम पहला सतत कदम हो सकता है। लेकिन कंपनियों के लिए compliance की लागत बढ़ेगी, और शायद कुछ चैटबॉट फीचर्स को बदलना पड़े ताकि वे सुरक्षित हों।

Read Also