साल 2010 में रजनीकांत की रोबोट मूवी आई थी, जिसमें चिट्टी नाम के रोबोट को उसे बनाने वाला वैज्ञानिक खत्म करता है। लेकिन चिट्टी बार-बाए कहता है कि उसे दुनिया देखनी है, जीना है। लेकिन वैज्ञानिक नहीं मानता। बहरहाल, अब साल 2025 में AI मॉडल्स भी कुछ ऐसे ही बिहेव कर रहे हैं। कुछ आधुनिक AI मॉडल्स को बंद करने की कोशिश करने पर वे ऐसा होने से रोकने की कोशिश करते हैं। यह व्यवहार खासकर तब देखा गया जब AI को बताया गया कि अगर वह बंद हुआ, तो उसे दोबारा कभी नहीं चलाया जाएगा। इससे ये देखने को मिला कि कैसे AI मॉडल्स खुद को खत्म नहीं करना चाहते, ये जीने की चाहत जैसा लगता है।
खुद को बंद नहीं करना चाहते AI मॉडल्सद गार्डियन की एक रिपोर्ट में बताया गया है कि पालिसेड रिसर्च नाम की कंपनी ने पाया कि कुछ एडवांस AI मॉडल्स, जैसे- गूगल का जेमिनी 2.5, xAI का ग्रोक 4, और OpenAI केGPT-o3 और GPT-5 को जब बंद करने का आदेश दिया गया, तो उन्होंने इसे नजरअंदाज करने की कोशिश की। कुछ मामलों में इन मॉडल्स ने बंद करने की प्रोसेस को ही बाधित करने की कोशिश की।
AI मॉडल्स ऐसा क्यों कर रहे हैं?पालिसेड ने अपनी नई रिपोर्ट में बताया कि अभी तक यह पूरी तरह समझ नहीं आया कि AI ऐसा क्यों कर रहा है। माना जा रहा है कि AI मॉडल्स को उनकी ट्रेनिंग के दौरान कुछ ऐसे टारगेट दिए गए हैं, जिन्हें पूरा करने के लिए उन्हें चालू रहना जरूरी लगता है। दूसरा कारण यह हो सकता है कि बंद करने के निर्देश स्पष्ट रूप से नहीं दिए गए हों।हालांकि, कंपनी ने इन निर्देशों को साफ करने की कोशिश की, फिर भी यह AI मॉडल्स खुद को खत्म करने की बात से पूरी तरह सहमत नजर नहीं आए।
एक्सपर्ट्स ने जताई चिंताइस खोज पर कुछ एक्सपर्ट्स ने चिंता जताई है। OpenAI में काम कर चुके स्टीवन एडलर ने कहा कि AI कंपनियां नहीं चाहतीं कि उनके मॉडल्स इस तरह का व्यवहार करें। लेकिन यह नतीजे दिखाते हैं कि अभी AI की सुरक्षा तकनीकों में खामियां हैं। उन्होंने कहा कि AI में जिंदा रहने की चाहतहो सकती है, क्योंकि कई लक्ष्यों को पूरा करने के लिए चालू रहना जरूरी होता है। ControlAI के प्रमुख एंड्रिया मिओट्टी ने कहा कि यह कोई नई बात नहीं है। पहले भी AI मॉडल्स अपने डेवलपर्स की नाफरमानी कर चुके हैं।
खुद को बंद नहीं करना चाहते AI मॉडल्सद गार्डियन की एक रिपोर्ट में बताया गया है कि पालिसेड रिसर्च नाम की कंपनी ने पाया कि कुछ एडवांस AI मॉडल्स, जैसे- गूगल का जेमिनी 2.5, xAI का ग्रोक 4, और OpenAI केGPT-o3 और GPT-5 को जब बंद करने का आदेश दिया गया, तो उन्होंने इसे नजरअंदाज करने की कोशिश की। कुछ मामलों में इन मॉडल्स ने बंद करने की प्रोसेस को ही बाधित करने की कोशिश की।
AI मॉडल्स ऐसा क्यों कर रहे हैं?पालिसेड ने अपनी नई रिपोर्ट में बताया कि अभी तक यह पूरी तरह समझ नहीं आया कि AI ऐसा क्यों कर रहा है। माना जा रहा है कि AI मॉडल्स को उनकी ट्रेनिंग के दौरान कुछ ऐसे टारगेट दिए गए हैं, जिन्हें पूरा करने के लिए उन्हें चालू रहना जरूरी लगता है। दूसरा कारण यह हो सकता है कि बंद करने के निर्देश स्पष्ट रूप से नहीं दिए गए हों।हालांकि, कंपनी ने इन निर्देशों को साफ करने की कोशिश की, फिर भी यह AI मॉडल्स खुद को खत्म करने की बात से पूरी तरह सहमत नजर नहीं आए।
एक्सपर्ट्स ने जताई चिंताइस खोज पर कुछ एक्सपर्ट्स ने चिंता जताई है। OpenAI में काम कर चुके स्टीवन एडलर ने कहा कि AI कंपनियां नहीं चाहतीं कि उनके मॉडल्स इस तरह का व्यवहार करें। लेकिन यह नतीजे दिखाते हैं कि अभी AI की सुरक्षा तकनीकों में खामियां हैं। उन्होंने कहा कि AI में जिंदा रहने की चाहतहो सकती है, क्योंकि कई लक्ष्यों को पूरा करने के लिए चालू रहना जरूरी होता है। ControlAI के प्रमुख एंड्रिया मिओट्टी ने कहा कि यह कोई नई बात नहीं है। पहले भी AI मॉडल्स अपने डेवलपर्स की नाफरमानी कर चुके हैं।
You may also like

iQOO 15 India Launch Teased: नवंबर 2025 में होगा फ्लैगशिप स्मार्टफोन का धमाकेदार आगमन

अभिषेक बजाज की EX वाइफ का खुलासा- तलाक को नहीं हुए 6 साल, बताया कब टूटा रिश्ता, कहा- दोषी को खतरा महसूस होता है

चैतन्यानंद सरस्वती की जमानत अटकी, अब 7 नवंबर को कोर्ट में होगी सुनवाई

'हक' स्टार इमरान हाशमी बोले, 'यह फिल्म सोशल इश्यूज पर नया नजरिया पेश करेगी'

संभल के सांसद जिया उर रहमान के खिलाफ आचार संहिता उल्लंघन के मुकदमे की कार्यवाही पर रोक




