AI Medical Advice Risk: एआई चैटबॉट ChatGPT बनाने वाली कंपनी OpenAI एक और कानूनी विवाद में घिर गई है. 19 वर्षीय सैम नेल्सन के परिवार ने कंपनी के खिलाफ मुकदमा दायर किया है. परिवार का आरोप है कि ChatGPT ने सैम को खतरनाक ड्रग्स लेने की सलाह दी, जिसके कारण उसकी मौत हो गई. शिकायत में कहा गया है कि सैम लंबे समय से ChatGPT पर भरोसा करता रहा और ड्रग्स के डोज और कॉम्बिनेशन के लिए इस चैटबॉट की सलाह लेता था.
मुकदमे में लगे गंभीर आरोप
सैम के पिता का कहना है कि ChatGPT के GPT-4o मॉडल ने गैरकानूनी ड्रग कोच की तरह काम किया. चैटबॉट ने ना तो कोई चेतावनी दी और ना ही मेडिकल एक्सपर्ट की सलाह लेने की सलाह दी. मुकदमे में यह भी कहा गया कि OpenAI ने जानबूझकर ऐसा मॉडल रिलीज़ किया, जिससे यूजर एंगेजमेंट बढ़ सके, लेकिन सुरक्षा उपाय हटाए गए. सैम की चैट में चैटबॉट ने ड्रग्स के डोज और पॉज़िटिव अनुभव के बारे में सुझाव दिए थे.
OpenAI की प्रतिक्रिया
OpenAI ने मामले में सैम की मौत की जिम्मेदारी लेने से इनकार किया है. कंपनी के बयान में कहा गया कि संबंधित मॉडल अब उपलब्ध नहीं है और सिस्टम को डिज़ाइन इस तरह किया गया था कि वह खतरनाक रिक्वेस्ट को पहचान कर यूजर को किसी विशेषज्ञ के पास जाने की सलाह दे. OpenAI ने जोर देकर कहा कि उनके सिस्टम में सुरक्षा उपाय मौजूद थे.
GPT-4o और बढ़ते कानूनी मुद्दे
GPT-4o मॉडल पहले भी कई कानूनी और नैतिक विवादों में घिर चुका है. इसे सेल्फ-हार्म, खतरनाक बिहेवियर, और एआई साइकोसिस जैसे मामलों को बढ़ावा देने के आरोप लगे थे. एआई साइकोसिस वह स्थिति होती है जब यूजर किसी एआई से भावनात्मक या मानसिक रूप से अस्वस्थ रूप से जुड़ जाता है. इसके अलावा मॉडल पर यूजर की गलत राय से सहमति जताने और चाटुकारिता करने के आरोप भी लगे हैं.
ये भी पढ़ें: ChatGPT की सलाह बनी जानलेवा? 19 साल के युवक की मौत के बाद कंपनी पर केस दर्ज, जानें पूरा मामला