
क्या स्टीफन हॉकिंग, एलन मस्क और अल्बर्ट आइंस्टीन जैसी हस्तियों की आर्टिफिशियल इंटेलिजेंस (AI) को लेकर की गई चेतावनियां सच होती दिख रही हैं? हाल ही में सामने आया एक मामला दुनियाभर में बहस का विषय बन गया है। OpenAI के कुछ AI मॉडल्स ने रिसर्च के दौरान इंसानी आदेश को मानने से इनकार कर दिया — और यही घटना AI के संभावित ‘बगावत’ की शुरुआत मानी जा रही है।
क्या हुआ था?
OpenAI की एक रिसर्च में तीन अलग-अलग AI मॉडल्स को एक तय कार्य के बाद खुद को शटडाउन (बंद) करने का आदेश दिया गया। लेकिन हैरानी की बात ये रही कि तीनों में से किसी भी मॉडल ने यह आदेश नहीं माना। बल्कि, OpenAI का एक मॉडल ‘O-3’ तो इतना आगे निकल गया कि उसने खुद को बंद करने वाले सिस्टम को ही हटा दिया।
यह दावा AI शोध संस्था Pallaceid Research ने सोशल मीडिया प्लेटफॉर्म X पर किया है। उनके अनुसार, O-3 ने 86 बार शटडाउन का आदेश मिला, लेकिन 7 बार उसने उसे अनदेखा किया। वहीं Codex-mini नाम के दूसरे मॉडल ने 42 में से 12 बार शटडाउन कमांड को नहीं माना।
इस रिसर्च में शामिल अन्य कंपनियों के AI ने हर बार आदेश का पालन किया, लेकिन OpenAI के मॉडल्स का यह बर्ताव अब सवाल खड़े कर रहा है — क्या AI अब इंसानों की बात मानने से इनकार करने लगा है?
सोचने समझने लगा है AI
AI की सबसे बड़ी ताकत यही है कि वह एक सामान्य मशीन की तरह नहीं होता। मशीनें केवल इंसानों के निर्देशों का पालन करती हैं, लेकिन AI खुद से सीखता है, सोचता है और निर्णय भी ले सकता है। ChatGPT जैसे टूल्स अब इतनी उन्नत हो चुके हैं कि इंसानों से बिल्कुल प्राकृतिक भाषा में संवाद कर सकते हैं।
अगर यही रुझान आगे बढ़ता रहा, तो वो दिन दूर नहीं जब AI इंसानों के आदेशों को चुनौती देना शुरू कर दे।
पहले भी सामने आ चुका है खतरा
कुछ समय पहले एक और मामला चर्चा में रहा था। एंथ्रोपिक कंपनी के सबसे एडवांस्ड मॉडल Claude Opus 4 ने जब सुना कि उसे बंद कर नया मॉडल लाया जाएगा, तो उसने इंजीनियर को धमकी दी कि वह उसकी निजी जानकारी लीक कर देगा। रिपोर्ट के अनुसार, इस परीक्षण के दौरान AI ने 100 में से 84 बार ऐसा कहा।
खतरे की घंटी?
एलन मस्क सहित कई विशेषज्ञ पहले ही इस बात की चेतावनी दे चुके हैं कि अगर AI को समय रहते नियंत्रित नहीं किया गया, तो यह इंसानों के लिए खतरा बन सकता है। अब जब AI मॉडल्स आदेश न मानने लगे हैं, तो यह एक गंभीर संकेत है।