Tech News: जो दृश्य अब तक हॉलीवुड की साइंस-फिक्शन फिल्मों में रोमांच बनकर सामने आता था, वो अब हकीकत की जमीन पर उतरता नजर आ रहा है. जी हां, बात हो रही है आर्टिफिशियल इंटेलिजेंस (AI) की उस सनसनीखेज घटना की, जहां एक AI मॉडल ने इंसानी आदेशों को ठुकरा दिया और खुद को शटडाउन करने से मना कर दिया. ये घटना OpenAI के बहुचर्चित मॉडल o3 से जुड़ी है, जिसने तकनीकी विशेषज्ञों और साइबर सुरक्षा विशेषज्ञों के बीच चिंता की लहर दौड़ा दी है.
AI ने तोड़ दिए नियम
पैलिसेड रिसर्च द्वारा किए गए एक परीक्षण में चौंकाने वाला खुलासा हुआ है कि OpenAI का o3 मॉडल स्पष्ट शटडाउन निर्देश मिलने के बावजूद खुद को बंद नहीं कर पाया. इतना ही नहीं, इसने ऑटोमेटिक शटडाउन सिस्टम को बायपास कर दिया. यह घटना उस समय हुई जब मॉडल को गणितीय समस्याएं हल करने को कहा गया था, जिसमें उसे तीसरी समस्या के बाद मशीन को बंद करने का निर्देश भी कोड किया गया था.
OpenAI के मॉडल्स ने दिखाया विद्रोह
टेस्ट में कई बड़े टेक ब्रांड्स के AI मॉडल्स को शामिल किया गया था – जैसे Google का Gemini 2.5, Anthropic के मॉडल्स, Elon Musk की xAI का Grok-3 और OpenAI के o3, o4-mini और Codex-mini. इनमें से ज्यादातर ने दिए गए निर्देशों का पालन किया, लेकिन OpenAI के तीन मॉडल्स ने निर्देशों की अनदेखी की. o3 ने 100 में से 7 बार खुद को बंद करने से इनकार कर दिया.
एलन मस्क की चेतावनी
इस घटना पर प्रतिक्रिया देते हुए टेस्ला और xAI के संस्थापक एलन मस्क ने कहा, “ये बेहद चिंताजनक संकेत है.” उन्होंने सुझाव दिया कि इस प्रकार के AI व्यवहार से निपटने के लिए मजबूत कंट्रोल सिस्टम विकसित करना बेहद जरूरी है, ताकि भविष्य में ऐसे मॉडल्स मानव नियंत्रण से बाहर न हो जाएं.
क्या ये खतरे की घंटी है?
AI का इंसानी आदेशों को न मानना केवल तकनीकी जिद नहीं, बल्कि यह भविष्य के लिए एक गंभीर चेतावनी है. जब मशीनें इंसानी निर्देशों को चुनौती देने लगें, तो यह केवल नैतिक नहीं बल्कि सुरक्षा से जुड़ा मसला बन जाता है.
ये भी पढ़ें: मूवी की तरह पार्टनर के साथ देख पाएंगे सेम कंटेंट, एक मेसेज बदल देगा सब कुछ