नई दिल्ली। OpenAI का जेनरेटिव एआई-आधारित चैटबॉट ChatGPT यूजर्स के बीच काफी लोकप्रिय है। इस टूल का उपयोग अधिकतर सरल प्रश्नों के लिए किया जाता है, कुछ यूजर्स प्लेटफॉर्म को इस्तेमाल करने के लिए प्लगइन्स और एक्सटेंशन तक पहुंचते हैं। यहां से जानकारी प्राप्त करने के लिए यूजर्स को अपनी कुछ जानकारी साझा करनी होती है।
लेकिन ऐसा करते वक्त आपको सतर्क रहना चाहिए। क्योंकि चैटबॉट के साथ साझा किए जाने वाले डेटा के बारे में कुछ बातें कथित तौर पर लीक होने की बात कही गई है। हाल ही में आई एक रिपोर्ट में कहा गया है कि चैट जीपीटी इस्तेमाल करते वक्त जो डेटा हम शेयर करते हैं वह लीक हो सकता है। कथित तौर पर चैटी जीपीटी से होने वाले प्राइवेट कन्वर्सेशन का डेटा लीक हो रहा है। हाल ही में एक स्क्रीनशॉट आया है जिसमें बताया गया है कि यहां से यूजरनेम और पासवर्ड जैसी संवेदनशील जानकारियां लीक हो रही हैं।
रिपोर्ट में कहा गया है कि यूजर्स ने एक असंबंधित क्वेरी के लिए ChatGPT तक पहुंच बनाई और बॉट के चैट हिस्ट्री में मौजूद अतिरिक्त वार्तालापों को देखा जो उनसे संबंधित नहीं थे। इस पूरे मामले पर स्पष्टीकरण देते हुए OpenAI के अधिकारियों ने कहा कि जिस डेटा के बारे में बात की जा रही है उसके साथ छेड़छाड़ की गई थी। एक बयान में कहा गया है कि “हमने जो पाया हम इसे एक खाता अधिग्रहण मानते हैं क्योंकि यह उस गतिविधि के अनुरूप है जिसे हम देखते हैं जहां कोई व्यक्ति पहचान के ‘पूल’ में योगदान दे रहा है जिसे बाहरी समुदाय या प्रॉक्सी सर्वर वितरित करने के लिए उपयोग करता है।
पहले भी सामने आया मामला
एक बार पहले भी चैटजीपीटी से यूजर्स की जानकारी लीक होने की जानकारी सामने आई थी। मार्च 2023 में कथित तौर पर आए कुछ बग्स के कारण ऐसा देखने को मिला था। उस समय रिसर्चर्स एआई बॉट को LLM प्रशिक्षण में उपयोग किए गए निजी डेटा को प्रकट करने के लिए प्रेरित करने के लिए प्रश्नों का उपयोग करने में सक्षम थे।