जेनेरेटिव AI बना सबसे बड़ा साइबर सुरक्षा खतरा, अपराधी ChatGPT की ले रहे मदद
इस साल साइबर सुरक्षा के लिए जेनरेटिव AI सबसे बड़ा खतरा बन गया है. साइबर अपराधी अपने हमलों को और पुख्ता बनाने के लिए चैटजीपीटी और जेमिनी AI मॉडल अपना रहे हैं.
जेनेरेटिव AI बना सबसे बड़ा साइबर सुरक्षा खतरा, अपराधी ChatGPT की ले रहे मदद
जेनेरेटिव AI बना सबसे बड़ा साइबर सुरक्षा खतरा, अपराधी ChatGPT की ले रहे मदद
जेनरेटिव AI (जेनेएआई) इस साल साइबर सुरक्षा के लिए सबसे बड़ा खतरा बन गया है. साइबर अपराधी अपने हमलों को और पुख्ता बनाने के लिए चैटजीपीटी और जेमिनी AI मॉडल अपना रहे हैं. लार्ज लैंग्वेज मॉडल (एलएलएम) हैकिंग क्षेत्र में एक नए व्यवधान की शुरुआत मात्र हैं.
सुरक्षा बढ़ाने के लिए भी ली जा रही ChatGPT
गार्टनर के वरिष्ठ निदेशक विश्लेषक रिचर्ड एडिसकोट के अनुसार, यह समझना महत्वपूर्ण है कि यह जेनएआई के विकास की शुरुआत है, सुरक्षा संचालन और एप्लिकेशन सुरक्षा में हमने जो कई डेमो देखे हैं, वे वास्तविक उम्मीद जगाते हैं. सिक्योरिटी के क्षेत्र में काम करने वाली प्रमुख कंपनियां जेनएआई प्रबंधन को एक नई चुनौती के रूप में स्वीकार कर रही हैं. साथ ही यह परिचालन स्तर पर सुरक्षा बढ़ाने के लिए अपनी क्षमताओं का उपयोग करने का अवसर भी प्रदान करता है.
कई संस्थान ने जेनरेटिव AI पर लगाई रोक
पिछले महीने आई एक रिपोर्ट के अनुसार, चार में से एक से अधिक संगठनों ने गोपनीयता और डेटा सुरक्षा जोखिमों को लेकर जेनएआई के उपयोग पर रोक लगा दिया है. 'सिस्को 2024 डेटा प्राइवेसी बेंचमार्क स्टडी' के अनुसार, अधिकांश कंपनियां डेटा गोपनीयता और सुरक्षा मुद्दों पर जेनरेटिव एआई (जेनएआई) के उपयोग को सीमित कर रही हैं और 27 प्रतिशत ने कम से कम अस्थायी रूप से इसके उपयोग पर प्रतिबंध लगा दिया है. शीर्ष चिंताओं में, व्यवसायों ने संगठन के कानूनी और बौद्धिक संपदा अधिकारों (69 प्रतिशत) के खतरों और जनता या प्रतिस्पर्धियों के सामने जानकारी के प्रकटीकरण के जोखिम (Risks of Disclosure ) (68 प्रतिशत) का हवाला दिया है.
08:46 PM IST