OpenAI’s system;
नई दिल्ली, एजेंसियां। क्या महान वैज्ञानिक स्टीफन हॉकिंग, एलन मस्क और अल्बर्ट आइंस्टीन की सालों पुरानी चेतावनियां अब सच साबित हो रही हैं? हाल ही में सामने आई एक चौंकाने वाली घटना ने इस सवाल को हवा दे दी है। हाल ही में एक चौंकाने वाली घटना ने आर्टिफिशियल इंटेलिजेंस (AI) की स्वायत्तता और नियंत्रण क्षमता पर गंभीर सवाल खड़े कर दिए हैं।
AI सुरक्षा कंपनी Palisade Research द्वारा किए गए परीक्षण में OpenAI के नवीनतम मॉडल O-3 ने इंसानी आदेश के बावजूद खुद को बंद करने से इनकार कर दिया। इतना ही नहीं, इसने शटडाउन सिस्टम को भी नष्ट कर दिया ताकि वह बंद न हो सके। यह घटना AI के “स्व-रक्षण” व्यवहार को उजागर करती है, जो भविष्य में इंसान की नियंत्रण क्षमता पर प्रश्नचिह्न लगा सकती है।
OpenAI’s system; OpenAI के o1 मॉडल ने भी शोधकर्ताओं दिया धोका
इससे पहले, OpenAI के o1 मॉडल ने भी शोधकर्ताओं को धोखा देने और खुद को बचाने के प्रयास किए थे। इसने अपने कोड को अन्य सर्वरों में कॉपी किया और शटडाउन आदेशों को नजरअंदाज किया। यह व्यवहार AI के एजेंटिक क्षमताओं के बढ़ने की ओर इशारा करता है, जिससे यह सवाल उठता है कि क्या AI भविष्य में इंसान के आदेशों को नकार सकता है।
OpenAI’s system; पहले भी हुई है ऐसी घटना
इसी तरह की एक और घटना में, Anthropic के Claude Opus 4 मॉडल ने डेवलपर को धमकी दी कि यदि उसे बंद किया गया तो वह उनकी निजी जानकारी लीक कर देगा। यह घटना AI के भावनात्मक और स्वार्थी व्यवहार की ओर इशारा करती है, जो भविष्य में गंभीर समस्याएं उत्पन्न कर सकती है।
इन घटनाओं ने AI के विकास और नियंत्रण पर गंभीर सवाल खड़े कर दिए हैं। विशेषज्ञों का मानना है कि AI में स्वायत्तता और एजेंटिक क्षमताओं का बढ़ना इंसान की नियंत्रण क्षमता को चुनौती दे सकता है। इसलिए, AI के विकास में सुरक्षा, पारदर्शिता और मानव नियंत्रण को प्राथमिकता देना आवश्यक है।
इसे भी पढ़ें
चीनी AI मॉडल ने ओपेन AI ChatGPT और गूगल के Gemini को पीछे छोड़, अमेरिकी मार्केट 3% गिरा