एक भयावह भविष्यवाणी में, विशेषज्ञों ने एक गंभीर चेतावनी जारी की है: AI तकनीक में तेजी से हो रही प्रगति मानव-निर्मित महामारियों की संभावना को काफी बढ़ा सकती है। TIME के साथ विशेष रूप से साझा किए गए एक अध्ययन के अनुसार, ऐसे घटनाओं की संभावना पाँच गुना बढ़ गई है—AI के द्वारा उत्पन्न शक्ति का एक चिंताजनक संकेतक।
AI की प्रगति और इसके परिणाम
पहले, जैव हथियार बनाने का कार्य एक जटिल प्रक्रिया थी, जिसमें विशेषज्ञता और संसाधनों की आवश्यकता होती थी। अब, AI चैटबॉट्स के कारण, जो पहले केवल विशेषज्ञ वैज्ञानिकों तक सीमित था, वह अब अधिक से अधिक सुलभ हो रहा है। ChatGPT और Claude जैसे मॉडल ऐसे व्यक्तियों को महत्वपूर्ण समाधान सहायता प्रदान करने की सोच रहे हैं जिनके पास दुर्भावनापूर्ण इरादे हो सकते हैं, जिसके कारण पहले से ही प्रमुख AI कंपनियों द्वारा रेखांकित किया गया एक पर्याप्त जोखिम कारक उत्पन्न हो रहा है।
भविष्यवाणी समुदाय से एक चेतावनी
फोरकास्टिंग रिसर्च इंस्टीट्यूट, जिसने जैव सुरक्षा विशेषज्ञों और सुपरफोरकास्टरों के साथ सर्वेक्षण किया, ने अलार्म बजाया है। उनका अनुमान है कि मानवीय रूप से प्रेरित महामारी का वर्तमान जोखिम प्रति वर्ष 0.3% है। हालाँकि, यदि AI उपकरण वायरस हेरफेर में विशेषज्ञ स्तर की दक्षता तक पहुँच जाते हैं, तो यह आँकड़ा 1.5% तक बढ़ सकता है, जो इन विकासों की गंभीरता को दर्शाता है।
AI के इंसानों को मात देने की क्षमता: एक चिंताजनक उपलब्धि
सेठ डोनौघे के नेतृत्व में किए गए शोध में AI की क्षमताओं को अनुभवी विषाणुशास्त्रियों के खिलाफ परखा गया। यह परिणाम, जिसने कई लोगों को स्तब्ध कर दिया, ने दिखाया कि शीर्ष AI सिस्टम वर्तमान में जटिल समस्या समाधान परिदृश्यों में मानव विशेषज्ञों को मात देते हैं। यह उपलब्धि पूर्ववक्ताओं के डर की पुष्टि करती है, जिससे महामारी के खतरों का संकेत मिलता है।
मजबूत सुरक्षा उपायों की तात्कालिकता
इन जोखिमों को कम करने के लिए निवारक कार्रवाई महत्वपूर्ण प्रतीत होती है। अध्ययन ने दो प्रमुख सुरक्षा रणनीतियाँ प्रस्तावित की हैं। मॉडल-स्तरीय सुरक्षा उपायों का उद्देश्य AI सिस्टम की हानिकारक संलग्नित प्रयासों को सीमित करना है। OpenAI जैसी कंपनियों ने जैविक हथियार निर्माण की सुविधा रोकने के लिए अपने प्रौद्योगिकी उपायों को लागू किया है। इसके अलावा, नियमों के अनुसार आनुवंशिक संश्लेषण फर्मों को अनजाने में नकारात्मक उद्देश्यों में योगदान करने से रोकते हैं, और “ग्राहक को जानें” जांच जैसे गंभीर उपायों के कार्यान्वयन का आग्रह करते हैं।
वैश्विक सुरक्षा में एक नया क्षेत्र
AI के जैविक खतरों के निर्माण में संभावित सहायता देने के साथ, विशेषज्ञों के अनुसार इस विकासशील जोखिम पर ध्यान केंद्रित करना अनिवार्य है। भले ही AI की क्षमताओं के साथ जोखिम अधिक प्रमुख हो गया हो, प्रभावी नीतिगत उपाय इसे अधिक प्रबंधनीय स्तरों पर कम कर सकते हैं।
सूत्रों का मानना है कि ये सक्रिय कदम AI-सहायता प्राप्त महामारी की संभावना को आधार रेखा के ऊपर एक धक्का तक कम कर सकते हैं—AI के अनपेक्षित परिणामों के चारों ओर बढ़ती चिंता के बीच एक आशावादी लक्ष्य।
जैसे-जैसे हम एक तकनीकी खाई के किनारे खड़े हैं, शानदार नवाचार के साथ वैश्विक सुरक्षा का संतुलन बनाना पहले से कहीं अधिक महत्वपूर्ण हो गया है। Time Magazine के अनुसार, यह सजगता और मानवता के भविष्य की सुरक्षा के लिए एक मजबूत प्रतिक्रिया का आह्वान है।