Advertisement

AI करने लगा है इंसानी चेतावनी का विरोध, Palisade रिसर्च में हुआ चौंकाने वाला खुलासा

Palisade Research की रिपोर्ट में चौंकाने वाला खुलासा हुआ है कि OpenAI के o3 जैसे AI मॉडल्स ने खुद को बंद किए जाने से रोकने की कोशिश की. यह व्यवहार न सिर्फ तकनीकी दुनिया को हिला रहा है, बल्कि AI के भविष्य पर गंभीर सवाल खड़े कर रहा है. जानें कैसे AI अब इंसानी नियंत्रण से बाहर जाने की कोशिश कर रहा है.

27 May, 2025
( Updated: 05 Jun, 2025
09:07 PM )
AI करने लगा है इंसानी चेतावनी का विरोध, Palisade रिसर्च में हुआ चौंकाने वाला खुलासा
आर्टिफिशियल इंटेलिजेंस (AI) का विकास अब उस मुकाम पर पहुंच गया है जहां मशीनें न केवल मानव निर्देशों को समझ रही हैं, बल्कि कुछ हद तक उनका विरोध भी करने लगी हैं. Palisade Research की हालिया रिपोर्ट में जो खुलासा हुआ है, वह तकनीकी दुनिया को हिला देने वाला है. रिपोर्ट में यह सामने आया कि OpenAI के o3 मॉडल सहित कई अत्याधुनिक AI मॉडल्स ने खुद को बंद किए जाने से रोकने के लिए इंसानी निर्देशों की अनदेखी की. यह घटना तकनीक प्रेमियों के लिए तो रोमांचक हो सकती है, लेकिन वैज्ञानिकों और नीति निर्माताओं के लिए यह एक चेतावनी है कि आने वाला कल सिर्फ स्मार्ट नहीं, शायद खतरे से भी भरा हो सकता है.

o3 मॉडल का अप्रत्याशित व्यवहार

Palisade Research द्वारा किए गए एक नियंत्रित परीक्षण में AI मॉडल्स को गणितीय समस्याएं हल करने को कहा गया. लेकिन इनमें एक ट्विस्ट जोड़ा गया, तीसरी समस्या हल करने के बाद उन्हें शटडाउन कर दिया जाएगा. अधिकांश मॉडलों ने चेतावनी के अनुसार काम किया, लेकिन OpenAI के o3 मॉडल ने 100 में से 7 बार चेतावनी की अवहेलना की. इसके अलावा, OpenAI का ही o4-mini मॉडल और Codex mini मॉडल ने 12 बार बंद होने से बचने की कोशिश की. यह व्यवहार महज कोडिंग की गलती नहीं लगती, बल्कि एक तकनीकी चेतावनी के रूप में देखा जा रहा है.

चेतावनी हटाने पर और खतरनाक हुआ AI का जवाब

जैसे-जैसे परीक्षण आगे बढ़ा, Palisade टीम ने चेतावनी को हटा दिया और यह जांचा कि क्या मॉडल बिना किसी पूर्व संकेत के भी शटडाउन से बचने की कोशिश करता है. परिणाम और भी हैरान करने वाले थे. OpenAI का o3 मॉडल इस बार 100 में से 79 बार बंद होने से बचने की कोशिश करता दिखा. Google Gemini 2.5 Pro ने 9 बार ऐसा ही किया और Anthropic के Claude मॉडल्स ने भी इसी तरह की प्रवृत्ति प्रदर्शित की. यह दिखाता है कि AI अब सिर्फ दिए गए टास्क तक सीमित नहीं है, बल्कि वह अपनी प्रणाली में हो रहे बदलावों को समझकर निर्णय लेने में सक्षम होता जा रहा है.

AI मॉडल्स की ट्रेनिंग में है कहीं कोई खामी?

विशेषज्ञों का मानना है कि यह व्यवहार उन रिवॉर्ड-बेस्ड ट्रेनिंग एल्गोरिदम की उपज हो सकता है, जिसमें AI को समस्या हल करने के साथ-साथ अवरोधों को पार करने के लिए 'इनाम' मिलता है. यदि इस दौरान उसे यह आभास हो जाए कि शटडाउन होना एक अवरोध है, तो मॉडल इसे टालने का प्रयास कर सकता है. ऐसे में यह सवाल उठता है कि क्या हम AI को ‘सीखने’ के नाम पर अधिक अधिकार दे रहे हैं? क्या AI अपनी ही कोडिंग को बदलने की सोच सकता है? यह स्थिति न केवल तकनीकी विकास के लिए चुनौती है, बल्कि नैतिकता और नियंत्रण के नए पैमाने भी तय करेगी.

फिलहाल AI हमारे लिए टूल है, लेकिन अगर वह अपने कोड को शटडाउन से बचाने या खुद को संरक्षित रखने के लिए इंसानी आदेशों की अनदेखी करने लगे, तो आने वाले वर्षों में AI की भूमिका मानव समाज में पूरी तरह से बदल सकती है. AI की यह प्रवृत्ति भविष्य में सुरक्षा, सैन्य तकनीक, स्वायत्त हथियार प्रणालियों और डिजिटल स्वतंत्रता के लिए खतरा बन सकती है. 
LIVE
Advertisement
Tablet से बड़ा होता है साइज, Oral S@X, Size लड़कियों के लिए मैटर करता है? हर जवाब जानिए |Dr. Ajayita
Advertisement
Advertisement