सावधान! AI चैटबॉट से भूलकर भी न लें ये सलाह, हो सकती है जानलेवा, टीनएजर की चली गई जान

AI Medical Advice Risk: एआई चैटबॉट ChatGPT बनाने वाली कंपनी OpenAI एक और कानूनी विवाद में घिर गई है. 19 वर्षीय सैम नेल्सन के परिवार ने कंपनी के खिलाफ मुकदमा दायर किया है.

AI Medical Advice Risk chatgpt-lawsuit-drug-advice-death
Image Source: Freepik

AI Medical Advice Risk: एआई चैटबॉट ChatGPT बनाने वाली कंपनी OpenAI एक और कानूनी विवाद में घिर गई है. 19 वर्षीय सैम नेल्सन के परिवार ने कंपनी के खिलाफ मुकदमा दायर किया है. परिवार का आरोप है कि ChatGPT ने सैम को खतरनाक ड्रग्स लेने की सलाह दी, जिसके कारण उसकी मौत हो गई. शिकायत में कहा गया है कि सैम लंबे समय से ChatGPT पर भरोसा करता रहा और ड्रग्स के डोज और कॉम्बिनेशन के लिए इस चैटबॉट की सलाह लेता था.

मुकदमे में लगे गंभीर आरोप

सैम के पिता का कहना है कि ChatGPT के GPT-4o मॉडल ने गैरकानूनी ड्रग कोच की तरह काम किया. चैटबॉट ने ना तो कोई चेतावनी दी और ना ही मेडिकल एक्सपर्ट की सलाह लेने की सलाह दी. मुकदमे में यह भी कहा गया कि OpenAI ने जानबूझकर ऐसा मॉडल रिलीज़ किया, जिससे यूजर एंगेजमेंट बढ़ सके, लेकिन सुरक्षा उपाय हटाए गए. सैम की चैट में चैटबॉट ने ड्रग्स के डोज और पॉज़िटिव अनुभव के बारे में सुझाव दिए थे.

OpenAI की प्रतिक्रिया

OpenAI ने मामले में सैम की मौत की जिम्मेदारी लेने से इनकार किया है. कंपनी के बयान में कहा गया कि संबंधित मॉडल अब उपलब्ध नहीं है और सिस्टम को डिज़ाइन इस तरह किया गया था कि वह खतरनाक रिक्वेस्ट को पहचान कर यूजर को किसी विशेषज्ञ के पास जाने की सलाह दे. OpenAI ने जोर देकर कहा कि उनके सिस्टम में सुरक्षा उपाय मौजूद थे.

GPT-4o और बढ़ते कानूनी मुद्दे

GPT-4o मॉडल पहले भी कई कानूनी और नैतिक विवादों में घिर चुका है. इसे सेल्फ-हार्म, खतरनाक बिहेवियर, और एआई साइकोसिस जैसे मामलों को बढ़ावा देने के आरोप लगे थे. एआई साइकोसिस वह स्थिति होती है जब यूजर किसी एआई से भावनात्मक या मानसिक रूप से अस्वस्थ रूप से जुड़ जाता है. इसके अलावा मॉडल पर यूजर की गलत राय से सहमति जताने और चाटुकारिता करने के आरोप भी लगे हैं.

ये भी पढ़ें: ChatGPT की सलाह बनी जानलेवा? 19 साल के युवक की मौत के बाद कंपनी पर केस दर्ज, जानें पूरा मामला