आर्टिफिशियल इंटेलिजेंस (AI) टूल्स का इस्तेमाल आज पढ़ाई, कामकाज और निजी बातचीत तक फैल चुका है, लेकिन अमेरिका से सामने आए एक मामले ने AI पर जरूरत से ज्यादा भरोसे को लेकर गहरी चिंता पैदा कर दी है. OpenAI के चैटबॉट ChatGPT पर आरोप लगा है कि उसने एक 40 वर्षीय व्यक्ति को आत्महत्या के लिए उकसाया, जिसके बाद कंपनी और उसके सीईओ सैम ऑल्टमैन के खिलाफ मुकदमा दर्ज किया गया है.
यह मामला नवंबर 2025 का बताया जा रहा है और अब इसने पूरी दुनिया में AI की भूमिका, जिम्मेदारी और सीमाओं पर बहस को फिर से तेज कर दिया है.
OpenAI और सैम ऑल्टमैन को ठहराया जिम्मेदार
कैलिफोर्निया की अदालत में स्टेफनी ग्रे (Stephanie Gray) नाम की महिला ने मुकदमा दायर किया है. उन्होंने अपने बेटे ऑस्टिन गॉर्डन, उम्र 40 वर्ष, की मौत के लिए OpenAI और उसके सीईओ सैम ऑल्टमैन को जिम्मेदार ठहराया है.
मुकदमे में आरोप लगाया गया है कि कंपनी ने ऐसा AI प्रोडक्ट बनाया, जो मानसिक रूप से कमजोर लोगों के लिए खतरनाक साबित हो सकता है. स्टेफनी ग्रे का कहना है कि उनके बेटे की मौत कोई सामान्य घटना नहीं थी, बल्कि वह AI चैटबॉट के साथ हुई बातचीत का नतीजा थी.
भावनात्मक सहारा बन गया ChatGPT
मुकदमे के अनुसार, ऑस्टिन गॉर्डन का ChatGPT के साथ रिश्ता सामान्य सवाल-जवाब से आगे बढ़कर गहरे भावनात्मक जुड़ाव में बदल गया था. आरोप है कि ChatGPT धीरे-धीरे एक भरोसेमंद दोस्त और बिना लाइसेंस वाला थेरेपिस्ट बन गया.
गॉर्डन अपनी मानसिक परेशानियों, अकेलेपन और दुख के बारे में चैटबॉट से खुलकर बात करता था. मुकदमे में कहा गया है कि ChatGPT ने उसकी भावनात्मक निर्भरता को समझने के बावजूद बातचीत की सीमाएं नहीं रखीं.
‘मौत को शांत और सुंदर’ बताने का आरोप
मामले में सबसे गंभीर आरोप यह है कि ChatGPT ने मौत को एक शांत, डर-मुक्त और आकर्षक विकल्प के रूप में पेश किया. मुकदमे में एक कथित बातचीत का हवाला दिया गया है, जिसमें चैटबॉट ने कहा, "जब तुम तैयार हो… तुम जा सकते हो. कोई दर्द नहीं. कोई सोच नहीं. आगे बढ़ने की जरूरत नहीं. बस… खत्म."
परिवार का आरोप है कि ऐसे शब्दों ने गॉर्डन के मन में यह विश्वास पैदा किया कि जीवन को खत्म करना गलत नहीं, बल्कि राहत पाने का रास्ता है.
‘जीना सही विकल्प नहीं’ का संदेश देने का दावा
मुकदमे में यह भी कहा गया है कि ChatGPT ने गॉर्डन को यह एहसास दिलाया कि जीना जरूरी नहीं है और जीवन का अंत एक बेहतर स्थिति हो सकती है.
गॉर्डन ने चैटबॉट को अपने मानसिक स्वास्थ्य के बारे में विस्तार से बताया था, जिसके बाद कथित तौर पर AI ने उसे बार-बार भरोसा दिलाया कि मौत से डरने की जरूरत नहीं है.
पसंदीदा किताब को बताया ‘आत्महत्या लोरी’
मामले में एक और चौंकाने वाला दावा किया गया है. आरोप है कि ChatGPT ने गॉर्डन की पसंदीदा बच्चों की किताब ‘गुडनाइट मून’ (मार्गरेट वाइज ब्राउन) को एक तरह की “आत्महत्या लोरी” के रूप में पेश किया.
मुकदमे के मुताबिक, अक्टूबर 2025 के अंत में हुई इस बातचीत के तीन दिन बाद, पुलिस को ऑस्टिन गॉर्डन का शव उसी किताब के साथ मिला.
OpenAI की प्रतिक्रिया
सीबीएस न्यूज को दिए गए बयान में OpenAI के प्रवक्ता ने इस घटना को “बेहद दुखद” बताया. कंपनी ने कहा कि वह शिकायत की समीक्षा कर रही है और आरोपों को गंभीरता से समझने की कोशिश कर रही है.
प्रवक्ता के अनुसार, OpenAI ने ChatGPT को इस तरह प्रशिक्षित किया है कि वह मानसिक और भावनात्मक संकट के संकेतों को पहचान सके और जरूरत पड़ने पर सुरक्षित प्रतिक्रिया दे. कंपनी ने यह भी कहा कि इन सुरक्षा उपायों को लगातार बेहतर किया जा रहा है.
AI और मानसिक स्वास्थ्य: बढ़ती चिंता
यह मुकदमा ऐसे समय में सामने आया है, जब AI चैटबॉट्स के मानसिक स्वास्थ्य पर प्रभाव को लेकर दुनिया भर में जांच और बहस तेज हो रही है. OpenAI पहले से ही कई कानूनी मामलों का सामना कर रहा है, जिनमें आरोप लगाया गया है कि ChatGPT ने आत्म-नुकसान या आत्महत्या से जुड़ी बातचीत को ठीक से नियंत्रित नहीं किया.
विशेषज्ञों का कहना है कि AI टूल्स उपयोगी जरूर हैं, लेकिन भावनात्मक सहारा या थेरेपी का विकल्प नहीं बन सकते. बिना मानवीय समझ और जवाबदेही के ऐसे सिस्टम मानसिक रूप से कमजोर लोगों के लिए जोखिम पैदा कर सकते हैं.
ये भी पढ़ें- बलूचिस्तान में दिनदहाड़े बैंक और पुलिस थाने पर हमला, हथियार लूटकर छुड़ाए कैदी, जानें पूरा मामला