युद्धक्षेत्र में AI किस दिशा में देख रही है दुनिया?
संदीप कुमार
| 02 Sep 2025 |
3
एआई का एक नहीं, बल्कि दो चेहरे हैं। एक चेहरा वह है जिसे दुनिया के नेता, जैसे कि 2025 के जी7 शिखर सम्मेलन में एकत्रित हुए, देखना और दिखाना पसंद करते हैं—यह चेहरा उज्ज्वल, आशावादी और प्रगति का प्रतीक है। यह AI को आर्थिक विकास के इंजन, सार्वजनिक सेवाओं को सुगम बनाने वाले सहायक और मानवता की जटिल समस्याओं का समाधान करने वाले एक क्रांतिकारी उपकरण के रूप में देखता है। यह वह चेहरा है जो ऊर्जा समाधानों के लिए करोड़ों डॉलर के कोष की घोषणा करता है।
लेकिन AI का एक दूसरा, स्याह और अनदेखा चेहरा भी है, जो राजनयिकों की चमचमाती मेजों से बहुत दूर, युद्ध के धूल और धुएं भरे मैदानों में आकार ले रहा है। यह चेहरा स्वायत्त है, गणनात्मक है और घातक है। यह वह AI है जो लक्ष्य निर्धारित करता है, ड्रोन को निर्देशित करता है और इंसानी हस्तक्षेप के बिना जीवन और मृत्यु का निर्णय लेता है। कनाडा में जब जी7 के नेता AI के नागरिक लाभों पर चर्चा कर रहे थे, ठीक उसी समय यह दूसरा AI मध्य पूर्व से लेकर पूर्वी यूरोप तक, युद्ध के सिद्धांतों को चुपचाप और स्थायी रूप से बदल रहा था। यह आलेख इसी खतरनाक दोहरेपन का विश्लेषण करता है—एक तरफ हमारी सार्वजनिक आकांक्षाएं और दूसरी तरफ हमारी गुप्त सैन्य वास्तविकताएं, और कैसे पहली की चकाचौंध में हम दूसरी से उत्पन्न हो रहे अस्तित्वगत खतरे को नजरअंदाज कर रहे हैं।
जी7 का आर्थिक प्रिज्म
जी7 का 2025 का एजेंडा यह दर्शाता है कि दुनिया की सबसे बड़ी अर्थव्यवस्थाएँ AI को मुख्य रूप से एक आर्थिक अवसर के रूप में देखती हैं। यूरोपीय संघ का व्यापक AI अधिनियम, जो प्रौद्योगिकी के नागरिक उपयोग को विनियमित करने का दुनिया का पहला बड़ा प्रयास है, इस दृष्टिकोण का प्रतीक है। इसी तरह, ब्रिटेन द्वारा सार्वजनिक प्रशासन में AI के उपयोग से सालाना 45 अरब पाउंड की बचत का अनुमान लगाना और कनाडा द्वारा जनसेवाओं में AI को एकीकृत करने की घोषणा, सभी इसी आर्थिक तर्क से प्रेरित हैं। यह दृष्टिकोण स्वाभाविक है, क्योंकि AI में उत्पादकता बढ़ाने, स्वास्थ्य सेवा में क्रांति लाने और जटिल वैज्ञानिक समस्याओं को हल करने की अपार क्षमता है।
हालाँकि, इस आर्थिक आशावाद में एक रणनीतिक चूक है। यह इस तथ्य की अनदेखी करता है कि सैन्य प्रौद्योगिकी का विकास नागरिक प्रौद्योगिकी के विकास के समानांतर चलता है, और अक्सर उससे कहीं ज़्यादा तेज़ गति से। यूरोपीय संघ के AI अधिनियम में रक्षा और राष्ट्रीय सुरक्षा के मामलों को स्पष्ट रूप से छूट देना इस समस्या का सबसे बड़ा उदाहरण है। यह छूट एक खतरनाक मिसाल कायम करती है, जहाँ प्रौद्योगिकी का सबसे घातक उपयोग नियामक जांच के दायरे से पूरी तरह बाहर रह जाता है। जी7, जो मुख्य रूप से एक आर्थिक समूह है, शायद सैन्य विनियमन के लिए सबसे उपयुक्त मंच न हो, लेकिन दुनिया के सबसे शक्तिशाली लोकतंत्रों के समूह के रूप में, इसकी नैतिक जिम्मेदारी बनती है कि वह इस मुद्दे को संबोधित करे। ऐसा न करके, यह समूह मौन रूप से उस हथियार-प्रणाली के विकास को स्वीकृति दे रहा है, जो भविष्य के युद्धों की प्रकृति को मौलिक रूप से बदल सकती है।
युद्ध के मैदान का नया यथार्थ
AI से लैस हथियारों की होड़ अब कोई भविष्य की आशंका नहीं, बल्कि एक वर्तमान वास्तविकता है। मध्य पूर्व से लेकर पूर्वी यूरोप और दक्षिण एशिया तक, संघर्ष क्षेत्र AI-संचालित युद्ध प्रणालियों के लिए परीक्षण प्रयोगशाला बन गए हैं।
मध्य पूर्व
इज़राइल द्वारा गाजा पट्टी में ‘हबसोरा’, ‘लैवेंडर’ और ‘डैडी’ जैसे AI सिस्टम का उपयोग इस बात का भयावह उदाहरण है कि युद्ध में निर्णय लेने की प्रक्रिया कैसे मशीनों को सौंपी जा रही है। ये सिस्टम खुफिया डेटा के विशाल भंडार का विश्लेषण कर हवाई हमलों के लिए संभावित लक्ष्य निर्धारित करते हैं। रिपोर्टों से पता चलता है कि इन प्रणालियों ने लक्ष्य पहचान में गंभीर त्रुटियाँ कीं और नागरिक हताहतों की एक अस्वीकार्य संख्या में योगदान दिया। यहाँ सबसे बड़ा नैतिक सवाल यह उठता है कि जब एक एल्गोरिथम द्वारा सुझाए गए लक्ष्य पर हमला किया जाता है, तो उसकी जिम्मेदारी किसकी होती है—प्रोग्रामर, कमांडर, या स्वयं मशीन की? यह 'मानव-लूप-से-बाहर' युद्ध की स्थिति है, जो अंतरराष्ट्रीय मानवीय कानूनों की नींव को चुनौती देती है।
रूस-यूक्रेन युद्ध
यह संघर्ष आधुनिक इतिहास का पहला बड़ा युद्ध है जिसे आंशिक रूप से AI द्वारा संचालित किया जा रहा है। यह ड्रोन युद्ध का एक जीवंत उदाहरण है, जहाँ दोनों पक्ष लगातार नई-नई स्वायत्त प्रणालियाँ विकसित और तैनात कर रहे हैं। यूक्रेनी नौसैनिक ड्रोन्स ने काला सागर में रूसी युद्धपोतों को सफलतापूर्वक निशाना बनाया है, जिससे पारंपरिक नौसैनिक शक्ति का समीकरण बदल गया है। वहीं, दोनों सेनाएँ लक्ष्यों की पहचान, इलेक्ट्रॉनिक युद्ध और खुफिया जानकारी के विश्लेषण के लिए AI का उपयोग कर रही हैं। यह युद्ध इस बात का प्रमाण है कि AI अब केवल एक सहायक तकनीक नहीं, बल्कि सैन्य रणनीति का एक केंद्रीय तत्व बन गया है।
भारत-पाकिस्तान संघर्ष
2025 के भारत-पाकिस्तान संकट ने यह स्पष्ट कर दिया कि AI-संचालित ड्रोन युद्ध अब केवल महाशक्तियों तक सीमित नहीं है। इस संघर्ष में पहली बार दोनों देशों ने पारंपरिक सैन्य अभियानों के साथ-साथ सीमा पार हमलों के लिए बड़े पैमाने पर ड्रोन का इस्तेमाल किया। भारत द्वारा इज़राइल निर्मित हारोप ड्रोन और स्वदेशी नागास्त्र-1 का उपयोग, पाकिस्तान के तुर्की-निर्मित ड्रोन्स को बेअसर करने के लिए किया गया। यह संघर्ष भारत की रक्षा रणनीति में एक महत्वपूर्ण बदलाव को भी रेखांकित करता है—विदेशी आयातों पर निर्भरता से हटकर हिंदुस्तान एयरोनॉटिक्स लिमिटेड के कास्ट वारियर और स्वार्म ड्रोन सिस्टम जैसे स्वदेशी प्लेटफॉर्म के विकास पर ज़ोर देना। यह प्रवृत्ति एक क्षेत्रीय AI हथियारों की होड़ का संकेत देती है, जिसके दूरगामी भू-राजनीतिक परिणाम होंगे।
बहुपक्षीय विफलता
AI के सैन्य उपयोग की तीव्र गति के बावजूद, बहुपक्षीय मंचों की प्रतिक्रिया धीमी, खंडित और काफी हद तक अप्रभावी रही है। यूरोपीय संघ के AI अधिनियम जैसी महत्वपूर्ण पहल भी रक्षा क्षेत्र को अपनी परिधि से बाहर रखती है। इस कारण, ये क्रांतिकारी परिवर्तन एक ऐसे नीतिगत शून्य में हो रहे हैं, जहाँ कोई निगरानी या अंतरराष्ट्रीय मानक मौजूद नहीं हैं।
हालाँकि, कुछ प्रयास अवश्य हुए हैं। नीदरलैंड्स (2023) और दक्षिण कोरिया (2024) में आयोजित ‘सेना में AI के जिम्मेदार उपयोग’ (REAIM) पर शिखर सम्मेलन, संयुक्त राष्ट्र निरस्त्रीकरण अनुसंधान संस्थान (UNIDIR) की भूमिका, और पेरिस में AI एक्शन समिट जैसे मंचों ने इस मुद्दे पर संवाद को बढ़ावा दिया है। संयुक्त राष्ट्र महासचिव एंटोनियो गुटेरेस ने 2026 तक स्वायत्त हथियारों पर कानूनी रूप से बाध्यकारी नियम बनाने का आह्वान किया है, और सितंबर 2024 के ‘पैक्ट फॉर द फ्यूचर’ में भी AI के सैन्य उपयोग से जुड़े जोखिमों के नियमित मूल्यांकन का सुझाव दिया गया है।
समस्या यह है कि ये सभी पहलें स्वैच्छिक हैं और इनमें प्रवर्तन की शक्ति का अभाव है। जी7 जैसे शक्तिशाली समूह इन चर्चाओं से अनुपस्थित रहकर या उन्हें केवल औपचारिक समर्थन देकर अपनी जिम्मेदारी से बच नहीं सकते। इन देशों के पास आर्थिक और राजनीतिक शक्ति है कि वे इन बिखरे हुए प्रयासों को ए=क ठोस, वैश्विक नियामक ढांचे में एकीकृत करने का नेतृत्व कर सकते हैं।
दोहरी राह अपनाने की तत्काल आवश्यकता
जी7 का 2025 का शिखर सम्मेलन AI के प्रति दुनिया के दोहरे और विरोधाभासी दृष्टिकोण का प्रतीक है। एक तरफ, हम AI को मानव प्रगति के अगले चरण के रूप में देखते हैं, जो आर्थिक समृद्धि और सामाजिक कल्याण ला सकता है। दूसरी तरफ, हम उसी तकनीक को अधिक घातक और स्वायत्त युद्ध प्रणालियाँ बनाने के लिए उपयोग कर रहे हैं, जो मानवता के लिए एक अस्तित्वगत खतरा पैदा कर सकती हैं।
केवल आर्थिक लाभों पर ध्यान केंद्रित करना एक अदूरदर्शी और खतरनाक रणनीति है। AI के सैन्य उपयोग को अनियंत्रित छोड़ देना न केवल वैश्विक अस्थिरता को बढ़ाएगा, बल्कि यह उस भरोसे को भी खत्म कर देगा जो किसी भी प्रौद्योगिकी को समाज में व्यापक रूप से अपनाने के लिए आवश्यक है।
अब समय आ गया है कि जी7 और अन्य अंतरराष्ट्रीय निकाय एक दोहरी राह अपनाएँ। उन्हें AI के सकारात्मक अनुप्रयोगों को बढ़ावा देना जारी रखना चाहिए, लेकिन साथ ही, इसके सैन्य उपयोग को नियंत्रित करने के लिए एक मजबूत, बाध्यकारी और सत्यापन योग्य अंतरराष्ट्रीय संधि बनाने की दिशा में तत्काल और ठोस कदम उठाने चाहिए। इसमें ‘मानव नियंत्रण’ के सिद्धांत को कानूनी रूप से स्थापित करना, कुछ विशेष प्रकार के स्वायत्त हथियारों (जैसे कि चेहरे की पहचान के आधार पर लक्ष्य बनाने वाले सिस्टम) पर पूर्ण प्रतिबंध लगाना, और प्रौद्योगिकी के प्रसार को रोकने के लिए निर्यात नियंत्रण व्यवस्था बनाना शामिल हो सकता है।
कृत्रिम बुद्धिमत्ता का भविष्य केवल हमारे द्वारा बनाए गए एल्गोरिदम से नहीं, बल्कि उन नैतिक और कानूनी सीमाओं से भी तय होगा जो हम उसके चारों ओर बनाते हैं। यदि हमने युद्ध के मैदान को इस विमर्श से बाहर रखा, तो हम एक जिम्मेदार तकनीकी भविष्य की लड़ाई हारने का जोखिम उठाएँगे।