१७औँ वार्षिकोत्सव विशेषांकफ्रन्ट पेजमुख्य समाचारसमाचारदृष्टिकोणअर्थअन्तर्वार्ताखेलकुदविश्वफिचरप्रदेशपालिका अपडेट
  • वि.सं २o८१ बैशाख १८ मंगलबार
  • Tuesday, 30 April, 2024
मेलिसा पार्क
२o८१ बैशाख १८ मंगलबार o८:१२:oo
Read Time : > 2 मिनेट
ad
ad
दृष्टिकोण प्रिन्ट संस्करण

आणविक हतियार प्रणालीमा एआईको जोखिम

Read Time : > 2 मिनेट
मेलिसा पार्क
नयाँ पत्रिका
२o८१ बैशाख १८ मंगलबार o८:१२:oo

आणविक हतियार प्रणालीमा कृत्रिम बौद्धिकता अर्थात आर्टिफिसियल इन्टेलिजेन्स (एआई) को प्रयोग गर्ने होडबाजी अब कुनै विज्ञान आख्यान अर्थात् साइन्स फिक्सन रहेन । यदि आणविक हतियार प्रणालीमा एआईको प्रयोग हुन्छ भने आणविक युद्धको सम्भावना पनि बढ्न सक्छ । यदि विश्व नेता आणविक हतियार प्रणालीमा एआईको प्रवेश रोक्न चाहन्छन् भने सबभन्दा पहिले एआईको प्रयोगको जोखिमको गाम्भीर्य बुझ्न आवश्यक छ । 

पछिल्ला केही सातामा जी– ७ राष्ट्र उन्नत एआई विकास गर्ने संस्थाका लागि आवश्यक पर्ने अन्तर्राष्ट्रिय आचार संहिता हिरोसिमा सिस्टममा सहमत भएका छन् । ‘विश्वभर सुरक्षित, निश्चिन्त र विश्वासिलो एआई’लाई प्रोत्साहन गर्न गरिएको सहमतिबीच अमेरिकी राष्ट्रपति जो बाइडेनले एआई ‘निश्चिन्तता र सुरक्षा’का लागि नयाँ मानक स्थापना गर्ने उद्देश्यले कार्यकारी निर्देशन जारी गरेका छन् ।

बेलायतले पनि एआई प्रविधिलाई ‘सुरक्षित एवं जिम्मेवार’ ढंगले विकास गर्ने उद्देश्यसाथ पहिलोपटक वैश्विक एआई सुरक्षा सम्मेलन आयोजना गरेको छ । तर, उल्लिखित कुनै पनि पहलकदमीले आणविक हतियार प्रणालीमा एआईको प्रयोग हुँदा निम्तिने जोखिमलाई पर्याप्त ढंगले सम्बोधन गरेका छैनन् । मानवता एवं पृथ्वीलाई अभूतपूर्व विनाश गर्ने आणविक हतियारको प्रयोगले निम्त्याउने अस्तित्वको संकटबारे कसैको पनि सन्देह छैन । एक क्षेत्रीय आणविक युद्धले समेत प्रत्यक्ष रूपमा लाखौँ मानिसको ज्यान लिन सक्छ भने अप्रत्यक्ष रूपमा ठुलो संख्यामा पीडा र मृत्यु निम्त्याउन सक्छ । यस्ता युद्धबाट निम्तिने जलवायु परिवर्तनबाट विश्वका अर्बौं मानिस भोकमरीको गर्तमा जाकिन सक्छन् । 

इतिहासमा आणविक आक्रमण हुनै आँटेका कयौँ घटना टरेका छन् । यी अधिकांश विनाशलाई रोक्न मानवले आफ्नो विवेक प्रयोग गरेका छन् न कि मेसिनको जानकारीमा अन्धाधुन्द भई भर परेका छन् । सन् १९८३ मा सोभियत संघका एक अधिकारी स्तानिस्लाभ पेत्रोभले अग्रिम–चेतावनी भू–उपग्रहबाट एक चेतावनी पाएका थिए । सो चेतावनीअनुसार अमेरिकी आणविक क्षेप्यास्त्र सोभियत संघतर्फ आइरहेको देखाइएको थियो । तर, उनले तुरुन्तै आफ्ना वरिष्ठ अधिकारीलाई आणविक ‘प्रत्याक्रमण’का लागि जानकारी दिनुको साटो सो चेतावनी त्रुटीपूर्ण रहेको पत्ता लगाए ।

जब एआईलाई आणविक हतियारसँग जोडिन्छ यसले पहिल्यैदेखि अस्तित्वमा रहेको अस्वीकार्य स्तरको जोखिममा एक नयाँ पत्र थप्छ

यदि यस मामिलामा एआईको प्रयोग भएको भए आफूसँग निर्णय क्षमता हुँदा पनि के पेत्रोभ आणविक प्रत्याक्रमणलाई रोक्न सक्थे ? वास्तवमा आणविक हतियारमा मेसिन लर्निङ (मेसिनले आफैँले सिकेर निर्णय गर्ने प्रक्रिया) लागु हुँदा आणविक हतियारको प्रयोगसँग सम्बन्धित मानवीय नियन्त्रणलाई घटाउँछ । निःसन्देह आणविक हतियारको आविष्कार भएयता निर्देशन, नियमन र सञ्चार प्रक्रिया स्वचालित बन्दै गएका छन् । तर, जब मेसिन लर्निङ उन्नत हुँदै जान्छ तब उन्नत मेसिनले गर्ने निर्णय थप अपारदर्शी हुन्छ । जसलाई एआईको ‘ब्ल्याक बक्स प्रब्लम’ भनिन्छ । यसले मानिसलाई मेसिनको कार्यप्रणालीको निरीक्षण गर्न पनि अप्ठ्यारो बनाइदिन्छ ।

अन्तिम प्रक्षेपणको अन्तिम निर्णय मानिसमा हुन्छ भन्ने प्रत्याभूति गर्दा पनि आणविक जोखिम कम हुँदैनन् । मनोवैज्ञानिक जोन हवलेले सन् २०१७ मा गरेको अध्ययनअनुसार ‘मानिस पर्यवेक्षणीय नियमनको मागअनुसार निरीक्षण एवं हस्तक्षेपकारी भूमिका निर्वाह गर्ने मामिलामा निकै कमजोर छ’ भन्ने देखाएको छ । यसबाहेक प्रिन्सटन विश्वविद्यालयको प्रोग्राम अन साइन्स एन्ड ग्लोबल सेक्युरिटीले सन् २०२० मा आणविक संकटका वेला नेतृत्वले निर्णय–प्रक्रिया अत्यधिक हतारोमा हुने गरेको देखाएको छ । यदि एआईलाई प्रक्षेपणको सट्टा सेन्सर र निशाना प्रयोजनका लागि मात्रै पनि प्रयोग गर्ने हो भने पनि आक्रमण गर्ने वा नगर्ने भन्ने समय अत्यधिक कम हुन जान्छ । नेतृत्वमा यो थपिएको तनावले त्रुटिपूर्ण निर्णय र गैर–तर्कसंगत विकल्प लागु गर्ने जोखिम बढाइदिन्छ । 

भू–उपग्रह र अन्य गुप्तचरी नियमन प्रणालीमा एआईको प्रयोगले थप जोखिम निम्त्याइदिन्छ अर्थात् यसले ऐतिहासिक रूपमा गोप्य राखिएका ब्यालिस्टिक मिसाइल सबम्यारिन्सजस्ता आणविक हतियार लुकाउन थप अप्ठ्यारो बनाइदिन्छ । यसले आणविक हतियारले सुसज्जित मुलुकलाई द्वन्द्वका क्रममा शत्रु पक्षले पहिले नै जानकारीमा रहेका हतियारलाई निष्क्रिय बनाउन सक्छ भनेर सबै आणविक हतियार प्रयोग गर्न प्रोत्साहन गर्नेछ । 

हालसम्म आणविक हतियारमा पूर्णतया मानव नियन्त्रण हुने कुनै पहलकदमी चालिएका छैनन् । बाइडेनको कार्यकारी निर्देशन वा जी– ७ को आचार संहिता केवल ऐच्छिक प्रतिबद्धतामा सीमित छ । यस सन्दर्भमा राष्ट्र संघका महासचिव एन्टोनियो गुटेरसले भनेझैँ कानुनी रूपमा बाध्यकारी बनाउनेगरी ‘घातक स्वचालित हतियार प्रणाली’मा प्रतिबन्ध लगाउने सम्झौता आवश्यक छ । र, सबै सरकारले आणविक हतियारलाई निन्दा गर्न, प्रतिबन्ध लगाउन र निमिट्यान्न पार्न राष्ट्र संघको परमाणु हतियारमा प्रतिबन्ध सन्धिमा जोडिनुपर्छ । यस सन्धिले आणविक हतियारबिनाको विश्वका लागि मार्गप्रशस्त गर्छ । त्यसैगरी, यस सन्धिमा जोडिनु भनेको आणविक हतियार भएका राज्यलाई आणविक हतियार प्रणालीलाई उन्नत र आधुनिक बनाउनमा तुरन्तै रोक लगाउनु हो । यस सन्धिमा जोडिँदा साइबर आक्रमणबाट जोगाएर हतियार प्रणालीलाई ‘सुरक्षित’ बनाउने नाममा हुने लगानीलाई पनि रोक्छ । आणविक हतियार अस्तित्वमै हुनु भनेको अपार क्षतिको जोखिम बोक्नु हो त्यस अर्थमा सन्धिका पहल खासै ठुला पनि होइनन् । 

हामीलाई थाहा छ, स्वचालित प्रणालीले सशस्त्र द्वन्द्वको सम्भावनालाई कम गर्छ । तर, जब एआईलाई आणविक हतियारसँग जोडिन्छ यसले पहिल्यैदेखि अस्तित्वमा रहेको अस्वीकार्य स्तरको जोखिममा एक नयाँ पत्र थप्छ । नीतिनिर्माता र आमजनता दुवैले यो गम्भीर मुद्दालाई पूर्ण रूपमा स्वीकार गर्नु अत्यन्त आवश्यक छ । दुवैले आणविक हतियारमा एआईको प्रयोग रोक्न मात्र नभई यी हतियारलाई पूर्ण रूपमा उन्मूलन गर्ने दिशामा पनि सक्रिय रूपमा संलग्न हुनुपर्छ ।
(पार्क आणविक हतियार उन्मूलनका लागि अन्तर्राष्ट्रिय अभियानकी कार्यकारी निर्देशक हुन्) प्रोजेक्ट सिन्डिकेटबाट
 

ad
ad