National

दोस्त का चेहरा लगाकर वीडियो कॉल पर 5 करोड़ ले लिए, AI से हुआ ये नये तरीके का स्कैम, सावधान रहने की जरूरत

किसी दिन आपको मोबाइल पर अपने बेस्ट फ्रेंड का वीडियो कॉल (Video call) आए। वो कहे कि उसे बड़ी मेडिकल इमरजेंसी आ गई है और तुरंत एक बड़ी रकम चाहिए। आप क्या करेंगे? शायद आप तुरंत उसे पैसे ट्रांसफर कर देंगे, क्योंकि आपको अपने दोस्त पर पूरा भरोसा है कि वो पैसे लौटा देगा। चीन में भी एक व्यक्ति ने ऐसा ही किया। दोस्त ने वीडियो कॉल कर पैसा मांगा, तो शख्स ने उसे 5 करोड़ रुपये दे दिए। बाद में पता चला कि वह उसका दोस्त नहीं था। बल्कि किसी ने AI तकनीक का इस्तेमाल कर उससे फ्रॉड (Fraud) किया था।

फेक वीडियो कॉल से फ्रॉड

तकनीक ह्यूमन लाइफ को काफी आसान बनाती है। इसके ढेरों फायदे हैं। लेकिन हर नई तकनीक के साथ ही उससे खिलवाड़ करने वाले भी आ जाते हैं। एआई के साथ भी ऐसा ही हुआ है। फ्रॉड करने वाले एआई का जमकर इस्तेमाल कर रहे हैं। वे एआई से फर्जी वेबसाइट (Fake Website) बना रहे हैं और फिशिंग मैसेज भेजकर लोगों को लूट रहे हैं। अब फर्जी वीडियो कॉल (Fake Video Call) का मामला भी सामने आ चुका है।

AI से बन रही रियल जैसी वीडियो

एआई का इस्तेमाल कर डीपफेक इमेजेज और वीडियोज बनाई जा रही है। उत्तरी चीन में दोखेबाजों ने डीपफेक तकनीक (Deepfake Technology) का यूज कर एक व्यक्ति को 5 करोड़ रुपये का चूना लगा दिया। डीपफेक्स ऐसी ऑनलाइन तस्वीरें और वीडियो होती हैं, तो रियल दिखती हैं और इन्हें गलत सूचनाएं फैलाने के लिए इस्तेमाल किया जा रहा है।

फेस-स्वैपिंग तकनीक का इस्तेमाल

उत्तरी चीन में एक स्कैमर ने काफी एडवांस डीपफेक तकनीक का इस्तेमाल किया और एक व्यक्ति को अपने खाते में पैसे ट्रांसफर करने के लिए मना लिया। स्कैमर ने यहां एआई पावर्ड फेस-स्वैपिंग तकनीक (Face Swapping Technique) का इस्तेमाल किया और पीड़ित का करीबी दोस्त बनकर उससे फ्रॉड किया। रॉयटर्स की एक रिपोर्ट से यह जानकारी मिली है। रिपोर्ट के अनुसार, बाओटौ शहर की पुलिस ने कहा कि स्कैमर ने वीडियो कॉल करके पीड़ित के दोस्त का रूप धारण किया और उसे 4.3 मिलियन युआन यानी करीब 5 करोड़ रुपये ट्रांसफर करने को कहा।

असली दोस्त को कॉल किया तो चला फ्रॉड का पता

पीड़ित ने स्कैमर को अपना करीबी दोस्त समझा। उसने यह मानते हुए कि उसके दोस्त को एक बिडिंग प्रोसेस के दौरान पैसों की सख्त जरूरत थी, रुपये ट्रांसफर कर दिये। पीड़ित को इस फ्रॉड का अहसास तब हुआ, जब उसने अपने दोस्त (असली) को कॉल किया। पुलिस ने चोरी की अधिकांश रकम बरामद कर ली है और बाकी की रकम का पता लगा रही है। इस घटना ने वित्तीय अपराधों को अंजाम देने के लिए एआई के इस्तेमाल को लेकर दुनियाभर में चिंता बढ़ा दी है।

बनाया लड़की की आवाज का क्लोन

यह पहली बार नहीं है, जब एआई का इस्तेमाल कर किसी व्यक्ति से पैसे ठगे गए हों। पिछले महीने एक मामले ने दुनिया को झकझोर कर रख दिया था। इसमें स्कैमर्स ने एआई का इस्तेमाल एक लड़की की आवाज का क्लोन बनाने के लिए की थी और लड़की की मां से फिरौती की मांग की थी। फिरौती में एआई के इस्तेमाल के और भी मामले सामने आए हैं।

Avinash Roy

Recent Posts

समस्तीपुर रेलवे स्टेशन पर ऑपरेशन ‘नन्हे फरिश्ते’ के तहत तीन नाबालिग बच्चों को RPF ने सुरक्षित बचाया

समस्तीपुर : रेलवे स्टेशन परिसर में चलाए जा रहे विशेष अभियान ‘ऑपरेशन नन्हे फरिश्ते’ के…

4 घंटे ago

होली के मद्देनजर संवेदनशील इलाकों में अतिरिक्त बल रहेंगे तैनात, पुलिस और डाॅक्टरों की छुट्टी रद्द, सभी अलर्ट मोड पर

समस्तीपुर : रंगों के पर्व होली को शांतिपूर्ण, सौहार्दपूर्ण और सुरक्षित माहौल में संपन्न कराने…

5 घंटे ago

रिश्वत लेते गिरफ्तार शिक्षा विभाग के सहायक अभियंता के घर की तलाशी के दौरान 42 लाख नगद रूपये भी बरामद

बेतिया में निगरानी ने बड़ी कार्रवाई की है। विशेष निगरानी इकाई की टीम ने जिला…

5 घंटे ago

“रासायनिक रंगों से त्वचा को खतरा, हर्बल गुलाल से मनाएं सुरक्षित होली” : डॉ. रश्मि रानी

समस्तीपुर : रंगों के पर्व होली को लेकर जहां बाजारों में गुलाल और रंगों की…

6 घंटे ago

समस्तीपुर में JDU नेता के घर पर बदमाशों ने की फायरिंग, गाड़ी में भी की तोड़फोड़

समस्तीपुर/वैनी : समस्तीपुर जिले के वैनी थाना क्षेत्र के चकले वैनी बाजार में रविवार की…

7 घंटे ago

समस्तीपुर जिला नियोजनालय द्वारा 6 से 14 मार्च तक लगाया जा रहा है प्रखंडवार जॉब कैंप, यहां पढ़े पूरी खबर…

समस्तीपुर : युवा, रोजगार एवं कौशल विकास विभाग के तहत जिला नियोजनालय, समस्तीपुर द्वारा 6…

7 घंटे ago