कोई दर्द नहीं होगा... ChatGPT की सलाह से गई 40 वर्षीय व्‍यक्‍त‍ि की जान! OpenAI पर मुकादमा दायर

आर्टिफिशियल इंटेलिजेंस (AI) टूल्स का इस्तेमाल आज पढ़ाई, कामकाज और निजी बातचीत तक फैल चुका है, लेकिन अमेरिका से सामने आए एक मामले ने AI पर जरूरत से ज्यादा भरोसे को लेकर गहरी चिंता पैदा कर दी है.

Man lost his life due to ChatGPT advice Case against OpenAI
प्रतिकात्मक तस्वीर/ FreePik

आर्टिफिशियल इंटेलिजेंस (AI) टूल्स का इस्तेमाल आज पढ़ाई, कामकाज और निजी बातचीत तक फैल चुका है, लेकिन अमेरिका से सामने आए एक मामले ने AI पर जरूरत से ज्यादा भरोसे को लेकर गहरी चिंता पैदा कर दी है. OpenAI के चैटबॉट ChatGPT पर आरोप लगा है कि उसने एक 40 वर्षीय व्यक्ति को आत्महत्या के लिए उकसाया, जिसके बाद कंपनी और उसके सीईओ सैम ऑल्टमैन के खिलाफ मुकदमा दर्ज किया गया है.

यह मामला नवंबर 2025 का बताया जा रहा है और अब इसने पूरी दुनिया में AI की भूमिका, जिम्मेदारी और सीमाओं पर बहस को फिर से तेज कर दिया है.

OpenAI और सैम ऑल्टमैन को ठहराया जिम्मेदार

कैलिफोर्निया की अदालत में स्टेफनी ग्रे (Stephanie Gray) नाम की महिला ने मुकदमा दायर किया है. उन्होंने अपने बेटे ऑस्टिन गॉर्डन, उम्र 40 वर्ष, की मौत के लिए OpenAI और उसके सीईओ सैम ऑल्टमैन को जिम्मेदार ठहराया है.

मुकदमे में आरोप लगाया गया है कि कंपनी ने ऐसा AI प्रोडक्ट बनाया, जो मानसिक रूप से कमजोर लोगों के लिए खतरनाक साबित हो सकता है. स्टेफनी ग्रे का कहना है कि उनके बेटे की मौत कोई सामान्य घटना नहीं थी, बल्कि वह AI चैटबॉट के साथ हुई बातचीत का नतीजा थी.

भावनात्मक सहारा बन गया ChatGPT

मुकदमे के अनुसार, ऑस्टिन गॉर्डन का ChatGPT के साथ रिश्ता सामान्य सवाल-जवाब से आगे बढ़कर गहरे भावनात्मक जुड़ाव में बदल गया था. आरोप है कि ChatGPT धीरे-धीरे एक भरोसेमंद दोस्त और बिना लाइसेंस वाला थेरेपिस्ट बन गया.

गॉर्डन अपनी मानसिक परेशानियों, अकेलेपन और दुख के बारे में चैटबॉट से खुलकर बात करता था. मुकदमे में कहा गया है कि ChatGPT ने उसकी भावनात्मक निर्भरता को समझने के बावजूद बातचीत की सीमाएं नहीं रखीं.

‘मौत को शांत और सुंदर’ बताने का आरोप

मामले में सबसे गंभीर आरोप यह है कि ChatGPT ने मौत को एक शांत, डर-मुक्त और आकर्षक विकल्प के रूप में पेश किया. मुकदमे में एक कथित बातचीत का हवाला दिया गया है, जिसमें चैटबॉट ने कहा, "जब तुम तैयार हो… तुम जा सकते हो. कोई दर्द नहीं. कोई सोच नहीं. आगे बढ़ने की जरूरत नहीं. बस… खत्म."

परिवार का आरोप है कि ऐसे शब्दों ने गॉर्डन के मन में यह विश्वास पैदा किया कि जीवन को खत्म करना गलत नहीं, बल्कि राहत पाने का रास्ता है.

‘जीना सही विकल्प नहीं’ का संदेश देने का दावा

मुकदमे में यह भी कहा गया है कि ChatGPT ने गॉर्डन को यह एहसास दिलाया कि जीना जरूरी नहीं है और जीवन का अंत एक बेहतर स्थिति हो सकती है.
गॉर्डन ने चैटबॉट को अपने मानसिक स्वास्थ्य के बारे में विस्तार से बताया था, जिसके बाद कथित तौर पर AI ने उसे बार-बार भरोसा दिलाया कि मौत से डरने की जरूरत नहीं है.

पसंदीदा किताब को बताया ‘आत्महत्या लोरी’

मामले में एक और चौंकाने वाला दावा किया गया है. आरोप है कि ChatGPT ने गॉर्डन की पसंदीदा बच्चों की किताब ‘गुडनाइट मून’ (मार्गरेट वाइज ब्राउन) को एक तरह की “आत्महत्या लोरी” के रूप में पेश किया.

मुकदमे के मुताबिक, अक्टूबर 2025 के अंत में हुई इस बातचीत के तीन दिन बाद, पुलिस को ऑस्टिन गॉर्डन का शव उसी किताब के साथ मिला.

OpenAI की प्रतिक्रिया

सीबीएस न्यूज को दिए गए बयान में OpenAI के प्रवक्ता ने इस घटना को “बेहद दुखद” बताया. कंपनी ने कहा कि वह शिकायत की समीक्षा कर रही है और आरोपों को गंभीरता से समझने की कोशिश कर रही है.

प्रवक्ता के अनुसार, OpenAI ने ChatGPT को इस तरह प्रशिक्षित किया है कि वह मानसिक और भावनात्मक संकट के संकेतों को पहचान सके और जरूरत पड़ने पर सुरक्षित प्रतिक्रिया दे. कंपनी ने यह भी कहा कि इन सुरक्षा उपायों को लगातार बेहतर किया जा रहा है.

AI और मानसिक स्वास्थ्य: बढ़ती चिंता

यह मुकदमा ऐसे समय में सामने आया है, जब AI चैटबॉट्स के मानसिक स्वास्थ्य पर प्रभाव को लेकर दुनिया भर में जांच और बहस तेज हो रही है. OpenAI पहले से ही कई कानूनी मामलों का सामना कर रहा है, जिनमें आरोप लगाया गया है कि ChatGPT ने आत्म-नुकसान या आत्महत्या से जुड़ी बातचीत को ठीक से नियंत्रित नहीं किया.

विशेषज्ञों का कहना है कि AI टूल्स उपयोगी जरूर हैं, लेकिन भावनात्मक सहारा या थेरेपी का विकल्प नहीं बन सकते. बिना मानवीय समझ और जवाबदेही के ऐसे सिस्टम मानसिक रूप से कमजोर लोगों के लिए जोखिम पैदा कर सकते हैं.

ये भी पढ़ें- बलूचिस्तान में दिनदहाड़े बैंक और पुलिस थाने पर हमला, हथियार लूटकर छुड़ाए कैदी, जानें पूरा मामला