शुरुआतलेखआइए की सच्ची बहस: मानवीय निगरानी अनिवार्य है

आइए की सच्ची बहस: मानवीय निगरानी अनिवार्य है

सार्वजनिक बहस अक्सर अतियों में खो जाती है: पूर्ण स्वचालन की उत्साह या पेशेवरों के प्रतिस्थापन के भय के साथ। सच्ची आपातकालीन स्थिति हालांकि मानवीय निगरानी में है। प्रायिकता पर आधारित एआई मॉडल में अंतर्निहित त्रुटि की सीमाएँ होती हैं, लेकिन इन्हें वित्त से लेकर स्वास्थ्य तक के महत्वपूर्ण संदर्भों में बिना उचित देखरेख के अधिक से अधिक उपयोग किया जा रहा है। यह अभ्यास केवल जोखिमपूर्ण नहीं है, बल्कि तकनीकी रूप से गलत भी है। कठोर मान्यता के बिना, आईए पर अंधविश्वास गंभीर विफलताओं को जन्म दे सकता है, जिनके नैतिक, कानूनी और परिचालन प्रभाव होते हैं। मानव पर्यवेक्षण कोई सहायक उपकरण नहीं है: यह तकनीक के जिम्मेदार और स्थायी उपयोग का आधार है।

एआई की सीमाएँ व्यावहारिक अनुप्रयोगों में स्पष्ट हैं। स्टैनफोर्ड विश्वविद्यालय और GitHub Copilot (2023) के एक अध्ययन में पाया गया कि 45% आईए द्वारा उत्पन्न कोड में कमजोरियां हैं या वे विकास की अच्छी प्रथाओं का उल्लंघन करते हैं। यहां तक कि जब एआई काम करता प्रतीत होता है, तो भी मुद्दे बने रहते हैं: समाधान सुरक्षित नहीं हो सकता है, नियमों का पालन नहीं कर सकता है और व्यवसाय के उद्देश्यों के साथ मेल नहीं खा सकता है। कठोर परीक्षण और निरंतर मान्यकरण के बिना, कोई भी उत्तर केवल अनुमान होगा।

आईए की अटलता में विश्वास वाणिज्यिक भाषणों और अवास्तविक अपेक्षाओं से प्रेरित है, लेकिन एक मौलिक सत्य को नजरअंदाज करता है: तकनीक मानवों पर निर्भर करती है अपनी आउटपुट की व्याख्या, समायोजन और सुधार करने के लिए। नियंत्रित क्षेत्रों में, जैसे कि कानूनी, पर्यवेक्षण की अनुपस्थिति डेटा संरक्षण अधिनियम (LGPD) जैसे कानूनों का उल्लंघन कर सकती है, जो स्वचालित निर्णयों में पारदर्शिता की आवश्यकता है। मैकिंजी (2023) की रिपोर्ट के अनुसार, बहुत कम कंपनियां जन AI के व्यापक उपयोग के लिए पूरी तरह से तैयार हैं, या अधिक सटीक रूप से कहें तो, इन उपकरणों के व्यवसायों पर हो सकने वाले जोखिमों के लिए। केवल 21% उन सर्वेक्षणकर्ताओं ने जो कृत्रिम बुद्धिमत्ता के उपयोग की रिपोर्ट करते हैं, कहा कि उनके संगठन के पास इन उपकरणों के उपयोग के लिए दिशानिर्देश हैं। स्वास्थ्य में, विश्व स्वास्थ्य संगठन (डब्ल्यूएचओ, 2023) चेतावनी देता है कि बिना मानवीय निगरानी के एआई प्रणालियाँ गलत दिशानिर्देश, व्यक्तिगत डेटा का उल्लंघन और गलत जानकारी फैलाने की संभावना रखती हैं।

पर्यवेक्षण, हालांकि, महत्वपूर्ण चुनौतियों का सामना करता है।आर्टिफिशियल इंटेलिजेंस को अविश्वसनीय मानने का विश्वास वाणिज्यिक भाषणों और अवास्तविक अपेक्षाओं से प्रेरित एक विकृति को दर्शाता है, और पेशेवरों की कमी भी महत्वपूर्ण है, ब्राजील में कंसल्टेंसी बैन एंड कंपनी की हालिया शोध में, 39% कार्यकारी अधिकारियों ने आंतरिक विशेषज्ञता की अनुपस्थिति को जेनरेटिव AI के कार्यान्वयन को तेज करने में मुख्य बाधा बताया, जो डेटा सुरक्षा की चिंताओं से भी ऊपर है।

यह तकनीक की प्रगति को नकारने का मामला नहीं है, जो महत्वपूर्ण हैं, बल्कि यह मानने का है कि यह अभी भी और आगे भी, उन पेशेवरों पर निर्भर है जो इसकी आउटपुट को समझने, समायोजित करने और आवश्यक होने पर सुधारने में सक्षम हैं। विशेष रूप से नियामक या उच्च प्रभाव वाले क्षेत्रों में, जैसे वित्तीय, कानूनी या स्वास्थ्य, तकनीकी और नैतिक निगरानी की अनुपस्थिति गंभीर, कानूनी और परिचालन परिणामों को जन्म दे सकती है। ब्रासकॉम के अध्ययन से इस कमी का पता चलता है, ब्राजील केवल 53 हजार आईटी पेशेवर प्रति वर्ष तैयार करता है, जबकि 2021 से 2025 के बीच कुल 797 हजार प्रतिभाओं की आवश्यकता होगी।

वैश्विक पहलें सुधार के रास्ते दिखाती हैं। संयुक्त राष्ट्र की एआई के नैतिक उपयोग के लिए विधि प्रणाली पूरे जीवन चक्र में मानव निगरानी की सिफारिश करती है, डिजाइन से लेकर संचालन तक। सेल्सफोर्स जैसी कंपनियां इसे व्यावहारिक रूप से दर्शाती हैं: उनकी प्लेटफ़ॉर्म आइंस्टीन नैतिकता समितियों का उपयोग एल्गोरिदम की ऑडिटिंग के लिए करती है। यह दृष्टिकोण दिखाता है कि निगरानी केवल तकनीकी नहीं है, बल्कि रणनीतिक भी है, जिसमें पारदर्शिता, जिम्मेदारी और क्षमता विकास में निवेश की आवश्यकता है।

एआई के पास उद्योगों को बदलने की शक्ति है, लेकिन मानवीय निगरानी के बिना, इसकी क्षमता नैतिक, कानूनी और परिचालन जोखिमों से प्रकाश में आती है। वित्तीय धोखाधड़ी जैसे मामलों और संभावित चिकित्सा त्रुटियों से पता चलता है कि तकनीक पर अंधविश्वास अस्थिर है, जबकि Salesforce जैसे उदाहरण से पता चलता है कि मजबूत शासन व्यवस्था लाभों को अधिकतम कर सकती है और त्रुटियों को कम कर सकती है। 2025 में, एआई पर चर्चा जिम्मेदार नवाचार के स्तंभ के रूप में निगरानी को प्राथमिकता देनी चाहिए, जिसमें लागत, प्रतिभा की कमी और सांस्कृतिक प्रतिरोध जैसी चुनौतियों का सामना किया जाना चाहिए। नेता, कंपनियां और नियामक ऐसे प्रणालियों का निर्माण करने की जिम्मेदारी रखते हैं जो एआई की शक्ति को मानवीय संवेदनशीलता के साथ मिलाएं, यह सुनिश्चित करते हुए कि तकनीक प्रगति को बढ़ावा दे, समस्याओं को नहीं। एआई का भविष्य बिना सोचे-समझे स्वचालन में नहीं है, बल्कि बुद्धिमान सहयोग में है, और यह हम पर निर्भर है कि हम इसे स्पष्टता, नैतिकता और प्रतिबद्धता के साथ आकार दें।

मार्सेलो मार्की
मार्सेलो मार्की
20 वर्षों से अधिक तकनीकी उद्योग में अनुभव के साथ, Marcelo Marchi एक निवेशक, तकनीकी सलाहकार, और Vericode के सीईओ और सह-संस्थापक हैं, जो DevSecOps, निरंतर परीक्षण और अवलोकन में विशेषज्ञता रखने वाली कंपनी है।
संबंधित विषय

एक जवाब छोड़ें

कृपया अपनी टिप्पणी दर्ज करें!
कृपया अपना नाम यहाँ दर्ज करें

- विज्ञापन -

हाल के

सबसे लोकप्रिय

[elfsight_cookie_consent id="1"]