जो होना ही था, उसे दर्ज करता, देखता और सवाल करता समाचार मंच

Category: समाज

तकनीकी दिग्गजों को सुरक्षा परीक्षण के लिए AI मॉडल की पहुंच, भारत की नीति‑कार्यान्वयन पर उठते सवाल

पिछले हफ्ते भारतीय रक्षा मंत्रालय ने सात प्रमुख तकनीकी कंपनियों के साथ एक समझौता किया, जिसमें इन कंपनियों को कृत्रिम बुद्धिमत्ता (AI) मॉडलों के सुरक्षित परीक्षण के लिये पहुंच प्रदान की जाएगी। यह कदम विदेश में हुए समान समझौतों के प्रतिबिंब के रूप में देखा जा रहा है, परन्तु इसका प्रभाव देश के स्वास्थ्य, शिक्षा और नागरिक सुविधाओं पर क्या पड़ेगा, इस पर सवाल उठ रहे हैं।

वर्तमान में सरकार कई सार्वजनिक सेवाओं में AI का उपयोग करना चाहती है—जैसे रोगी डेटा विश्लेषण, शैक्षणिक सामग्री का वैयक्तिकरण, और नागरिक सुरक्षा नेटवर्क की निगरानी। ऐसे में विदेशी कंपनियों को इन मॉडलों के परीक्षण में शामिल करना डेटा संप्रभुता और गोपनीयता के मुद्दों को और भी जटिल बनाता है। नागरिकों के स्वास्थ्य रिकॉर्ड, स्कूलों की शैक्षणिक आँकड़े और सार्वजनिक अधिदेशों तक पहुँच रखने वाले एल्गोरिदम पर विदेशी कंपनी की छानबीन, नियामक ढांचे की रोकथाम के अभाव को जाहिर करती है।

ऐसे सहयोग का एक बुनियादी दायरा यह है कि तकनीकी दिग्गजों को सुरक्षा‑सम्बंधी कमजोरियों का पता लगाना है, ताकि उन्हें सार्वजनिक प्रणालियों में लागू करने से पहले सुधार किया जा सके। परंतु भारत में ऐसी परीक्षणों के लिये स्पष्ट नियम‑कायदे, डेटा‑सुरक्षा प्रोटोकॉल और जवाबदेही की रूपरेखा अभी भी धुंधली नजर आती है। कई विशेषज्ञों का मानना है कि बिना ठोस नियंत्रण के यह पहल असमानता को और गहरा कर सकती है—क्यूँकि बड़ी कंपनियों को मिलती सुविधाएँ छोटे भारतीय स्टार्ट‑अप और सार्वजनिक संस्थानों को पीछे छोड़ देगी।

इसी के साथ, सार्वजनिक स्वास्थ्य एवं शिक्षा के क्षेत्रों में AI के प्रयोग से जुड़ी व्यावहारिक चुनौतियाँ भी उजागर हो रही हैं। ग्रामीण क्लिनिकों में डेटा‑स्टोरेज की सीमित क्षमता, स्कूलों में इंटरनेट की पहुंच का अंतर, और डिजिटल साक्षरता में स्पष्ट अंतर, इन सब को ध्यान में रखते हुए ही सुरक्षा‑परीक्षण का दायरा तय किया जाना चाहिए। दुर्भाग्यवश, इन बुनियादी आवश्यकताओं को पूरे करने में कई राज्य सरकारों की अति‑आहारी प्रतिक्रिया, नीति‑कार्यान्वयन में मौलिक चूक को दर्शाती है।

परिस्थितियों की सूखी विडंबना यह है कि जब सरकार नई तकनीक को अपनाने का उत्सव मना रही है, तो वही प्रशासनिक ढांचा अक्सर बुनियादी सेवा वितरण में लापरवाही बरतता दिखता है। उदाहरण स्वरूप, कुछ क्षेत्रों में अस्पतालों में बेसिक एम्बुलेन्स की उपलब्धता अभी भी एक बड़ी समस्या है, जबकि उन ही क्षेत्रों में AI‑आधारित रोग पहचान प्रणाली को लागू करने की चर्चा चल रही है। यह अंतर सार्वजनिक जवाबदेही के प्रश्न को स्पष्ट रूप से सामने लाता है।

मुक्त एवं पारदर्शी निगरानी के अभाव में, इस समझौते के परिणामस्वरूप नागरिकों को अनजाने में डेटा रिसाव या अनुचित प्रोफाइलिंग का खतरा हो सकता है। ऐसे में नागरिक समाज के संगठनों और डेटा‑सुरक्षा विशेषज्ञों ने सरकार से कड़ी माँग की है कि वह स्पष्ट प्रक्रियाएँ, समय‑सीमा और ऑडिटिंग मैकेनिज़्म स्थापित करे, जिससे यह सुनिश्चित हो सके कि विदेशी तकनीकी दिग्गजों को केवल परीक्षण के लिये ही सीमित पहुँच मिले, और कोई अनधिकृत उपयोग न हो।

निष्कर्षतः, तकनीकी दिग्गजों को सुरक्षा‑परीक्षण के लिये AI मॉडल की पहुंच देना निश्चित रूप से राष्ट्रीय सुरक्षा में मददगार हो सकता है, परंतु इसे तभी प्रभावी कहा जा सकता है जब यह कदम सामाजिक असमानता को घटाने, डेटा‑सुरक्षा को सुदृढ़ करने और सार्वजनिक सेवाओं की वास्तविक जरूरतों को प्राथमिकता के रूप में रखे। प्रशासन को अब शब्दों से अधिक ठोस कदम उठाने की आवश्यकता है, न कि केवल विदेशी कंपनियों के साथ समझौतों को दर्ज करने की। यही वह मोड़ है जहाँ नीति‑कार्यान्वयन के सिद्धांतों को वास्तविकता में बदला जा सके।

Published: May 5, 2026