समस्तीपुर Town

नजर हर खबर पर…

NationalNEWS

दोस्त का चेहरा लगाकर वीडियो कॉल पर 5 करोड़ ले लिए, AI से हुआ ये नये तरीके का स्कैम, सावधान रहने की जरूरत

किसी दिन आपको मोबाइल पर अपने बेस्ट फ्रेंड का वीडियो कॉल (Video call) आए। वो कहे कि उसे बड़ी मेडिकल इमरजेंसी आ गई है और तुरंत एक बड़ी रकम चाहिए। आप क्या करेंगे? शायद आप तुरंत उसे पैसे ट्रांसफर कर देंगे, क्योंकि आपको अपने दोस्त पर पूरा भरोसा है कि वो पैसे लौटा देगा। चीन में भी एक व्यक्ति ने ऐसा ही किया। दोस्त ने वीडियो कॉल कर पैसा मांगा, तो शख्स ने उसे 5 करोड़ रुपये दे दिए। बाद में पता चला कि वह उसका दोस्त नहीं था। बल्कि किसी ने AI तकनीक का इस्तेमाल कर उससे फ्रॉड (Fraud) किया था।

फेक वीडियो कॉल से फ्रॉड

तकनीक ह्यूमन लाइफ को काफी आसान बनाती है। इसके ढेरों फायदे हैं। लेकिन हर नई तकनीक के साथ ही उससे खिलवाड़ करने वाले भी आ जाते हैं। एआई के साथ भी ऐसा ही हुआ है। फ्रॉड करने वाले एआई का जमकर इस्तेमाल कर रहे हैं। वे एआई से फर्जी वेबसाइट (Fake Website) बना रहे हैं और फिशिंग मैसेज भेजकर लोगों को लूट रहे हैं। अब फर्जी वीडियो कॉल (Fake Video Call) का मामला भी सामने आ चुका है।

IMG 20220723 WA0098

AI से बन रही रियल जैसी वीडियो

एआई का इस्तेमाल कर डीपफेक इमेजेज और वीडियोज बनाई जा रही है। उत्तरी चीन में दोखेबाजों ने डीपफेक तकनीक (Deepfake Technology) का यूज कर एक व्यक्ति को 5 करोड़ रुपये का चूना लगा दिया। डीपफेक्स ऐसी ऑनलाइन तस्वीरें और वीडियो होती हैं, तो रियल दिखती हैं और इन्हें गलत सूचनाएं फैलाने के लिए इस्तेमाल किया जा रहा है।

IMG 20230518 WA0062

फेस-स्वैपिंग तकनीक का इस्तेमाल

उत्तरी चीन में एक स्कैमर ने काफी एडवांस डीपफेक तकनीक का इस्तेमाल किया और एक व्यक्ति को अपने खाते में पैसे ट्रांसफर करने के लिए मना लिया। स्कैमर ने यहां एआई पावर्ड फेस-स्वैपिंग तकनीक (Face Swapping Technique) का इस्तेमाल किया और पीड़ित का करीबी दोस्त बनकर उससे फ्रॉड किया। रॉयटर्स की एक रिपोर्ट से यह जानकारी मिली है। रिपोर्ट के अनुसार, बाओटौ शहर की पुलिस ने कहा कि स्कैमर ने वीडियो कॉल करके पीड़ित के दोस्त का रूप धारण किया और उसे 4.3 मिलियन युआन यानी करीब 5 करोड़ रुपये ट्रांसफर करने को कहा।

Sanjivani Hospital New Flex 2023 Bittu G

असली दोस्त को कॉल किया तो चला फ्रॉड का पता

पीड़ित ने स्कैमर को अपना करीबी दोस्त समझा। उसने यह मानते हुए कि उसके दोस्त को एक बिडिंग प्रोसेस के दौरान पैसों की सख्त जरूरत थी, रुपये ट्रांसफर कर दिये। पीड़ित को इस फ्रॉड का अहसास तब हुआ, जब उसने अपने दोस्त (असली) को कॉल किया। पुलिस ने चोरी की अधिकांश रकम बरामद कर ली है और बाकी की रकम का पता लगा रही है। इस घटना ने वित्तीय अपराधों को अंजाम देने के लिए एआई के इस्तेमाल को लेकर दुनियाभर में चिंता बढ़ा दी है।

IMG 20230513 WA0020

बनाया लड़की की आवाज का क्लोन

यह पहली बार नहीं है, जब एआई का इस्तेमाल कर किसी व्यक्ति से पैसे ठगे गए हों। पिछले महीने एक मामले ने दुनिया को झकझोर कर रख दिया था। इसमें स्कैमर्स ने एआई का इस्तेमाल एक लड़की की आवाज का क्लोन बनाने के लिए की थी और लड़की की मां से फिरौती की मांग की थी। फिरौती में एआई के इस्तेमाल के और भी मामले सामने आए हैं।

20x10 unipole 18.05.2023 scaledSamastipur Town Page Design 01IMG 20230324 WA0187 01IMG 20230428 WA0067 01 01IMG 20230416 WA0006 01Post 193 scaled