MP में शर्मनाक कांड! युवकों ने 549 रुपए में AI से 9 लड़कियों के अश्लील वीडियो बनाए, आरोपी बोले- देखना चाहते थे कि जिनके साथ रहते हैं, वे बिना कपड़ों के कैसी दिखेंगी

By Ashish Meena
फ़रवरी 5, 2026

जिन लड़कियों के साथ हम रहते हैं, देखना चाहते थे कि बिना कपड़ों के वो कैसी दिखेंगी। यही कारण था कि AI की मदद से उनके न्यूड वीडियो-फोटो बना लिए। सोशल मीडिया पर भी अपलोड कर दिया। यह चौंकाने वाला कबूलनामा, उन 15-16 साल के लड़कों का है, जिन्होंने एक-दो नहीं, बल्कि 9 लड़कियों की अश्लील तस्वीरें और वीडियो बना डाले। दोनों पुलिस गिरफ्त में हैं।

हैरानी की बात यह है कि यह सब उन लोगों ने किसी को ब्लैकमेल करने या पैसों के लिए नहीं किया, बल्कि मानसिक विकृत इसका कारण बनी। उन्होंने इसके लिए पैसे तक खर्च किए। पूछताछ में आरोपियों ने जो कबूला, उसने पुलिस को भी स्तब्ध कर दिया।

AI से एडिट कर अश्लील फोटो-वीडियो अपलोड किए

24 जनवरी को मध्यप्रदेश के छिंदवाड़ा के कोतवाली थाना क्षेत्र में आर्टिफिशियल इंटेलिजेंस (AI) के दुरुपयोग का मामला सामने आया था। कोतवाली टीआई आशीष कुमार ने बताया कि नागपुर रोड पर रहने वाली तीन लड़कियां थाने पहुंचीं। शिकायत की कि उनकी तस्वीरों को एडिट कर अश्लील (न्यूड) फोटो सोशल मीडिया पर अपलोड किए गए हैं।

Also Read – MP Budget 2026: इस दिन पेश होगा मध्यप्रदेश का बजट, CM मोहन यादव ने की घोषणा

उन्होंने बताया कि आरोपियों ने AI तकनीक का इस्तेमाल कर आपत्तिजनक वीडियो भी बनाए हैं। एक युवक के माध्यम से उन्हें जानकारी मिली है। मामला गंभीर होने से तुरंत साइबर टीम की मदद से जांच शुरू की। मोबाइल से मिले साक्ष्यों के आधार पर केस दर्ज किया गया। सोशल मीडिया पर अपलोड फोटो-वीडियो और मोबाइल से मिले सबूतों के आधार पर आरोपियों की पहचान हुई। दोनों आरोपी नाबालिग निकले।

पीड़ित बोलीं- आरोपियों के मोबाइल पर मिले न्यूड फोटो-वीडियो

पीड़ित लड़की ने पुलिस को बताया कि मैंने 12वीं तक पढ़ाई की है। दो सहेलियां हैं। 24 जनवरी की रात करीब 11 बजे मोहल्ले में ही रहने वाला एक लड़का घर आया। उसने मुझे बुलाया और अपने मोबाइल में टेलीग्राम एप पर मेरी दोनों सहेलियों के एआई जनरेटेड न्यूड फोटो दिखाए। फोटो देखते ही मैंने उसे डांटा। पूछा- तूने मेरी और सहेलियों के ऐसे फोटो क्यों बनाकर वायरल किए? हमें बदनाम क्यों रहे हो? मैंने उसका मोबाइल चेक किया तो उसने सहेलियों के अश्लील फोटो अपने दोस्तों को वाट्सएप के जरिए शेयर किए थे। मैंने सहेलियों और उनके परिवारों को उनके न्यूड फोटो वायरल होने की जानकारी दी। इसके बाद थाने पहुंची।

आरोपी बोले – टेलीग्राम पर न्यूड कंटेंट सर्च किया

पुलिस की पड़ताल में सामने आया कि दोनों आरोपियों ने मोहल्ले की लड़कियों को निशाना बनाया है। आरोपी और पीड़ित दोनों एक-दूसरे को अच्छे से जानते थे। यही वजह थी कि उन्हें तस्वीरें हासिल करने में मशक्कत नहीं करना पड़ी। शिकायत करने वाली तीन पीड़ित थीं, जिनकी सामान्य सोशल मीडिया तस्वीरों को एडिट कर न्यूड फोटो और वीडियो में बदला गया था। पूछताछ के दौरान आरोपियों ने जो कबूल किया, उसने जांच को और गंभीर बना दिया।

उन्होंने बताया कि वे 8-9 लड़कियों की तस्वीरों के साथ ऐसा कर चुके हैं। इसके बाद टीम अब यह पता लगाने में जुट गई कि इन्होंने इस तरह की सामग्री और किन-किन प्लेटफॉर्म पर साझा की है। पुलिस के लिए बड़ा चैलेंज यह था कि जब तक वे नाबालिग का मोबाइल जब्त करते, तब तक वे मामले से जुड़ा डेटा डिलीट कर चुके थे। साइबर टीम की मदद से कुछ डेटा रिकवर हुआ। अभी भी मोबाइल और डिजिटल स्रोतों की मदद से डेटा रिकवर करने की प्रक्रिया जारी है।

पूछताछ में एक आरोपी ने बताया कि एक ही मोहल्ले में रहने के चलते कुछ लड़कियों से जान-पहचान हो गई। इनमें कुछ उम्र में बड़ी भी हैं। दोस्ती के कारण इंस्टा पर एक-दूसरे से जुड़ गए। हम ये वीडियो सिर्फ अपनी लस्ट (हवस) के लिए बनाते थे। देखना चाहते थे कि जिन लड़कियों के साथ हम हर समय रहते हैं, वे बिना कपड़ों के कैसी दिखेंगी।

जब भी उन्हें देखते, हमारी यह इच्छा और बढ़ जाती। हम उन्हें बिना कपड़ों के देखना चाहते थे, इसलिए पहले टेलीग्राम पर न्यूड कंटेंट सर्च किया। फोटो-वीडियो ढूंढने पर इससे जुड़ी कुछ लिंक खुल गईं। हम इन ग्रुपों से जुड़ गए और पोर्न वीडियो देखने लगे। कुछ समय पहले ग्रुप में पॉड के माध्यम से वीडियो बनाने का ऑप्शन मैसेज आया। इस लिंक पर क्लिक करने पर 549 रुपए की डिमांड आई। यह भी मैसेज आया कि लिंक से कोई भी फोटो देकर न्यूड फोटो और उसके वीडियो मिल जाएंगे।

इंस्टाग्राम पर हमारे साथ जुड़ी लड़कियों के फोटो स्क्रीनशॉट लेकर उसमें डाले तो उन्हीं की जैसी लड़कियों के शरीर पर चेहरा लगकर वीडियो बनाकर हमारे पास आ गया। यह वीडियो सिर्फ हम अपने लिए बनाते थे, इसे देखकर हमें लस्ट (हवस) होता था। हम इसके माध्यम से किसी के भी फोटो बना लिया करते थे। पूछताछ में लड़कों ने बताया कि 8 से 9 लड़कियों के फोटो के माध्यम से वीडियो बनाए। हालांकि, मोबाइल से तीन लड़कियों के अब तक फोटो-वीडियो मिले हैं। आरोपियों ने अकाउंट डिलीट कर दिया, इसलिए डेटा रिकवर करने में साइबर सेल जुटी है।

कैसे बनाते थे फर्जी न्यूड फोटो और वीडियो

आरोपियों ने बताया कि वे इंस्टाग्राम पर आपस में जुड़े थे। यहीं से लड़कियों की तस्वीरें डाउनलोड करते या स्क्रीनशॉट लेते थे। फिर उन्हें टेलीग्राम के जरिए उस एप पर अपलोड करते थे। एप पर मात्र 549 रुपए देकर तस्वीरों को AI के जरिए न्यूड फोटो और पोर्नोग्राफिक वीडियो में बदला जा सकता था।

तैयार वीडियो इतने वास्तविक दिखते थे कि असली और नकली में फर्क करना लगभग नामुमकिन था। उन्होंने बताया कि 549 रुपए देने पर 30 दिन तक आप लॉग-इन कर सकते हैं। आरोपियों के मुताबिक, वे 2024 से इस तरह की हरकतें कर रहे थे। हाल में दो लड़कों के बीच गर्लफ्रेंड को लेकर हुए विवाद ने इस राज से पर्दा उठा दिया। झगड़े के दौरान यह बात सामने आई कि कुछ आपत्तिजनक फोटो-वीडियो इनके नाबालिग दोस्तों के मोबाइल में हैं।

अपना बचाव करने एक आरोपी खुद पीड़ित के पास पहुंचा। दूसरे का नाम लेते हुए यह बात बताई। उसे लगा कि अपनी ऐसी तस्वीर देखकर लड़की डर जाएगी और मामला दब जाएगा, लेकिन हुआ इसका उलटा। वीडियो देखकर पीड़ित ने हिम्मत दिखाई। उसने आरोपी के मोबाइल में मौजूद अन्य लड़कियों की तस्वीरें और वीडियो देखे, संबंधितों से संपर्क किया। इसके बाद तीनों पीड़ितों ने एक साथ कोतवाली थाने पहुंचकर शिकायत दर्ज कराई।

डिजिटल दुनिया में सतर्कता विकल्प नहीं, अब जरूरत

टीआई आशीष कुमार का कहना है कि पुलिस ने चार मोबाइल जब्त किए हैं। रिकवर डेटा के आधार पर दोनों आरोपियों के खिलाफ धारा 79 BNS और 67 IT Act के तहत मामला दर्ज किया गया है। इन धाराओं में क्रमशः 5 साल और 3 साल तक की सजा का प्रावधान है। पुलिस अब यह भी जांच कर रही है कि ये फोटो और वीडियो किन-किन लोगों के साथ साझा किए गए। मामले में पीड़ित और आरोपियों की संख्या बढ़ सकती है।

असली और नकली में फर्क करते आना जरूरी

सायबर एक्सपर्ट हिमांशु रघुवंशी का कहना है कि यह मामला बताता है कि AI तकनीक का गलत हाथों में पड़ना कितना खतरनाक है। साधारण सोशल मीडिया तस्वीरों का दुरुपयोग कर किसी की प्रतिष्ठा और मानसिक स्थिति पर गंभीर आघात पहुंचाया जा सकता है। AI तकनीक की मदद से किसी दूसरे के चेहरे को किसी दूसरी बाॅडी से लगा दिया जाता है। यह इतनी सफाई से होता है कि पहचान करना मुश्किल होता है। इसे डीपफेक कहते हैं।

AI से तैयार किए गए फोटो और वीडियो में असली और नकली की पहचान करना कठिन तो है, लेकिन आप कुछ बिंदुओं पर ध्यान देकर इन्हें पहचान सकते हैं। इस तकनीक से तैयार किए गए फोटो में चेहरे की चमक ज्यादा रहेगी, जबकि इससे जुड़े व्यक्ति का चेहरा इतना चमकदार नहीं होता। वीडियो के मामले में चेहरे के हाव-भाव से आप पहचान सकते हैं, क्योंकि इसमें चेहरे के एक्सप्रेशन कुछ अलग नजर आते हैं। इसके साथ ही इस दौरान की जाने वाली लिप सिंक भी अलग होती है।

जानें क्या है डीपफेक

डीपफेक एक आर्टिफिशियल इंटेलिजेंस (AI) टेक्नोलॉजी है, जिसका इस्तेमाल कर किसी व्यक्ति के चेहरे, हाव-भाव, आवाज या बोलने के तरीके की नकल तैयार की जा सकती है। इसके जरिए किसी के वीडियो या फोटो को इस तरह बदला जा सकता है कि वह देखने में पूरी तरह असली लगे, जबकि वह फर्जी या नकली होता है। इसे वीडियो, ऑडियो और फोटो तीनों फॉर्म में तैयार किया जा सकता है।

आगे ये भी पढ़ें :
Ashish Meena

Ashish Meena

ashish-meena

आशीष मीणा हिंदी पत्रकार हैं और राष्ट्रीय तथा सामाजिक मुद्दों पर लिखते हैं। उन्होंने पत्रकारिता की पढ़ाई की है और वह तथ्यात्मक व निष्पक्ष रिपोर्टिंग पर ध्यान केंद्रित करते हैं।

»