आधाभन्दा बढी रुसी कम्पनीहरू आर्टिफिसियल इन्टेलिजेन्स (एआई) एपका कारण डाटा चुहावटको बारेमा चिन्तित छन्। स्वचालनले व्यक्तिगत जानकारी र व्यापार गोप्य दुवै सम्झौताको जोखिम बढाउँछ। विशेषज्ञहरूले औंल्याए कि डाटा एन्क्रिप्शन बिना, चुहावट अपरिवर्तनीय हुन सक्छ।

MTS Web Services को एक अध्ययन अनुसार, 59% कम्पनीहरूले व्यक्तिगत डेटा चुहावटको खतरालाई सबैभन्दा गम्भीर मान्छन्। दोस्रो व्यापारिक गोप्य डाटा लीक गर्ने जोखिम हो, 56% व्यवसायहरूले नोट गरे। AI समाधानहरू स्केल गर्दा, IT विभागहरूले दैनिक कार्यहरू सुव्यवस्थित गर्ने र AI सँग व्यापार प्रक्रियाहरूको दक्षता बढाउनको अनुमानित लाभहरू भन्दा माथि सुरक्षा चिन्ताहरू राख्छन्।
उही समयमा, म्याकिन्सेका अनुसार, विश्वमा एआई प्रणाली तैनातीको स्तर 88% छ। सिंथेटिक न्यूरल नेटवर्कहरू मार्केटिङको क्षेत्रमा साथसाथै आईटी समाधानहरूको विकासमा सक्रिय रूपमा प्रयोग गरिन्छ।
कन्टेन्ट एआई टेक्नोलोजीका प्रमुख सर्गेई युडिनले न्यूरल नेटवर्कहरू प्रयोग गर्दा डाटा चुहावटको उच्च जोखिम यस प्रविधिको प्रकृतिले भएको बताए। जबकि शास्त्रीय सफ्टवेयरले डेटालाई भण्डारण वा विश्लेषण नगरीकन कुनै विशेष कार्यभन्दा बाहिर मात्र प्रशोधन गर्दछ, एआई प्रणालीहरू ठूला भाषा मोडेलहरूमा निर्मित हुन्छन् जसले जानकारीलाई शाब्दिक रूपमा “अवशोषित” गर्दछ र आन्तरिक रूपमा सन्दर्भ बुझ्न प्रयोग गर्दछ। र सार्वजनिक सेवा को मामला मा – अतिरिक्त प्रशिक्षण को लागी।
“समस्या के हो भने, एक पटक खुला एआई प्रणालीमा, जानकारी वास्तवमा मेटाउन सकिँदैन। यसलाई लगहरूमा भण्डारण गर्न सकिन्छ, प्रशिक्षण नमूनाहरूमा प्रयोग गर्न सकिन्छ, वा संयोगवश तेस्रो पक्षहरूलाई खुलासा गर्न सकिन्छ। परिणाम स्वरूप, चुहावट अपूरणीय हुन्छ,” युडिन बताउँछन्।
यस अवस्थामा, डाटा सुरक्षित गर्न एक महत्त्वपूर्ण कदम AI को प्रयोगको लागि आन्तरिक नीति बनाउनु हो। कर्मचारीहरूलाई कुन डाटालाई न्यूरल नेटवर्कमा प्रसारण गर्न अनुमति दिइन्छ र कुन डाटालाई कडा रूपमा निषेध गरिएको छ भन्ने बारे तालिम दिन आवश्यक छ।
उदाहरणका लागि, सार्वजनिक एआई सेवाहरूले प्रायः गोप्य राख्दैनन् कि उनीहरूले कुराकानीको इतिहास बचत गर्छन् र मोडेलहरू सुधार गर्न प्रयोग गर्छन्। यदि डेटा अज्ञात रूपमा एकत्रित गरिएको छ भने, त्यहाँ अझै पनि अनधिकृत पुन: उत्पादन वा पहुँचको जोखिम छ। तसर्थ, आफ्नो सञ्चालनमा AI प्रणालीहरू प्रस्तुत गर्दा, कम्पनीहरूले प्रविधिसँग सुरक्षित रूपमा अन्तरक्रिया गर्नको लागि समग्र रणनीति बनाउनेछन्।
“डेटा सुरक्षित गर्नका लागि सिफारिस गरिएका प्रविधिहरूमध्ये एउटा 'प्लेसहोल्डरहरू' प्रयोग गर्नु हो, जब वास्तविक नाम, रकम, बैंक विवरण वा कम्पनीको नामको सट्टा काल्पनिक प्रयोग गरिन्छ। यसले तपाईंलाई कार्यको तर्क र संरचना कायम राख्न र गोप्य जानकारी प्रकट गर्ने जोखिम बिना AI बाट सान्दर्भिक जवाफहरू प्राप्त गर्न अनुमति दिन्छ,” युदिन भन्छन्।
आवश्यक सुरक्षा उपायहरूले प्रयोग गरिएका सेवाहरूमा गोपनीयता सेटिङहरू पनि समावेश गर्दछ: मोडेल प्रशिक्षणको लागि वार्तालापहरू प्रयोग गर्न अनुमति दिने विकल्प असक्षम गर्ने, नियमित रूपमा पत्राचार इतिहास मेटाउने, र व्यक्तिगत र कार्य कार्यहरूको लागि खाताहरू अलग गर्ने।
सोलार ग्रुपको प्रेस एजेन्सीले सरकारी र व्यावसायिक संस्थाहरूको उद्यम प्रणालीबाट ठूलो मात्रामा डाटा न्यूरल नेटवर्कमा लोड भएको बताएको छ। यी दुबै कम्पनीको बारेमा सामान्य जानकारी र संवेदनशील डेटा समावेश गर्ने फाइलहरू हुन सक्छन्: उदाहरणका लागि, विस्तृत गणना वा स्वामित्व वित्तीय सूचकहरूसँग उपकरण रेखाचित्रहरू। AI लाई आफ्नो सञ्चालनमा सुरक्षित रूपमा लागू गर्न, कम्पनीहरूले विभिन्न प्रकारका समाधान सेटहरू प्रयोग गर्न सक्छन्।
“भविष्यमा, हामी देख्न सक्छौं कि एआई टेक्नोलोजीलाई सूचना सुरक्षा उत्पादनहरूमा प्रक्रियाहरू स्वचालित गर्न र साइबर आक्रमणहरू हटाउन प्रयोग गरिनेछ। यो किनभने आक्रमणकारीहरूले पूर्वाधारमा आक्रमण गर्न विभिन्न एआई उपकरणहरू प्रयोग गरिरहेका छन्। यसले पत्ता लगायो कि एआई आफैं विरुद्ध लड्नेछ,” कम्पनीले निष्कर्ष निकाल्यो।


