चुनाव अभियान में डीपफेक का हो रहा है जमकर इस्तेमाल

DW

गुरुवार, 4 अप्रैल 2024 (07:48 IST)
कहीं करुणानिधि वीडियो में जिंदा हो गए हैं, कहीं केजरीवाल गिटार बजा रहे हैं तो कहीं ओवैसी भजन गा रहे हैं। लोकसभा चुनावों के कैंपेन में राजनीतिक दल एआई की मदद से अपने प्रतिद्वंदियों के डीपफेक बनवा रहे हैं।
 
19 अप्रैल को लोकसभा चुनावों में मतदान शुरू होने वाला है और ऐसे में राजनीतिक दल शक्तिशाली एआई टूल्स का इस्तेमाल कर डीपफेक वीडियो बनवा रहे हैं। वो मशहूर चेहरों और आवाजों की ऐसी नकल बनवा रहे हैं की कभी कभी ऐसे वीडियो असली लगने लगते हैं।
 
सरकार ने और कैंपेन करने वालों ने भी चेतावनी दी है कि इस तरह के टूल्स का बढ़ता इस्तेमाल खतरनाक है और देश में चुनावों की सत्यनिष्ठा के प्रति एक बढ़ता हुआ खतरा हैं। लेकिन फिर भी इनका इस्तेमाल भी खूब हो रहा है।
 
जिंदा हुए दिवंगत नेता
तमिलनाडु में मृत नेताओं की छवी और आवाजों का इस्तेमाल कैंपेन करने का एक लोकप्रिय तरीका बन गया है। एआईएडीएमके की दिवंगत नेता जे जयललिता की आवाज में एक संदेश चल रहा है जिसमें राज्य में सत्ताधारी डीएमके की जम कर आलोचना की जा रही है।
 
उनका डिजिटल अवतार कहता है, "हमारी सरकार भ्रष्ट और निकम्मी है। मेरा साथ दीजिए।।।हम लोगों के साथ खड़े हैं।" दूसरी तरफ जयललिता के दिवंगत प्रतिद्वंदी करूणानिधि भी अपने चिरपरिचित काले चश्मे पहने एआई द्वारा बनाए वीडियो में नजर आते हैं, जिनमें वो अपने बेटे और मौजूदा मुख्यमंत्री एम के स्टालिन की तारीफ कर रहे हैं।
 
इस वीडियो को बनाया है चेन्नई स्थित कंपनी 'मुओनियम' ने। कंपनी के संस्थापक सेंथिल नायगम कहते हैं कि "अत्यंत करिश्माई" वक्ताओं को रीसायकल करना लोगों का ध्यान आकर्षित करने का एक नया तरीका है।
 
पारम्परिक रैलियों के मुकाबले यह कैंपेन करने का सस्ता तरीका भी है, क्योंकि रैलियों को आयोजित करने में बहुत समय और पैसा लगता है। नायगम कहते हैं, "भीड़ लाना मुश्किल काम है। और एक लेजर शो या ड्रोन शो आप कितनी बार कर लेंगे?"
 
लेकिन तकनीक के इस्तेमाल से नेताओं की आवाज की नकल करने और एकदम असली लगने वाले वीडियो बनाने को लेकर चिंताएं व्यक्त की जा चुकी हैं। संचार मंत्री अश्विनी वैष्णव ने नवंबर, 2023 में ही कहा था डीपफेक "लोकतंत्र और सामाजिक संस्थानों के लिए एक गंभीर खतरा हैं।"
 
'अनैतिक' गतिविधियों का खतरा
एआई क्रिएटर दिव्येंद्र जादौन बताते हैं कि उनकी कंपनी 'द इंडियन डीपफेकर' को कंटेंट के लिए मिलने वाले अनुरोध बहुत बढ़ गए हैं। 30 साल के जादौन कहते हैं, "आने वाले चुनावों में बड़ा जोखिम है और मुझे भरोसा है कि कई लोग इसका इस्तेमाल अनैतिक गतिविधियों के लिए भी कर रहे हैं।"
 
जादौन आवाज की क्लोनिंग, चैटबॉट बनवाना और व्हाट्सएप के जरिये ऐसे संदेशों और वीडियो को फैलाने का काम करते हैं। वो करीब एक लाख रुपयों में एक बार में ही चार लोगों तक कंटेंट पहुंचा सकते हैं।
 
उन्होंने बताया कि जिन ऑफरों से वो सहमत नहीं थे उन्हें उन्होंने ठुकरा दिया, लेकिन साथ ही यह भी कहा कि नैतिक और अनैतिक ऑफर के बीच "बड़ी पतली लकीर" है। वो कहते हैं, "कभी कभी तो हमलोग भी कंफ्यूज हो जाते हैं।"
 
जादौन ने यह भी बताया कि तेजी से आगे बढ़ती इस टेक्नोलॉजी को "देश के एक बड़े हिस्से" में अभी भी लोग कम ही समझते हैं और कई लोग एआई उत्पादों को सच्चा समझ लेते हैं। उन्होंने चेतावनी दी, "हमारी उन्हीं वीडियो का फैक्टचेक करने की आदत है जो हमारी पूर्वधारणाओं से मेल नहीं खाते हैं।"
 
अभी तक एआई से बनी अधिकांश कैंपेन सामग्री का इस्तेमाल प्रतिद्वंदियों का मजाक उड़ाने के लिए ही किया गया है, विशेष रूप से गानों के जरिए। हाल ही में बीजेपी के युवा मोर्चा के नेता ने दिल्ली के मुख्यमंत्री अरविंद केजरीवाल का एक एआई से बना वीडियो पोस्ट किया।
 
क्या सच है, क्या झूठ?
वीडियो में केजरीवाल सलाखों के पीछे बैठे गिटार बजा रहे हैं और एक लोकप्रिय फिल्मी गीत गा रहे हैं, "भुला देना मुझे, तुम्हें जीना है मेरे बिना।"
 
तो कहीं और डिजिटली छेड़छाड़ किए हुए वीडियो में एआईएमआईएम के नेती असदुद्दीन ओवैसी भजन गाते हुए नजर आ रहे हैं। फेसबुक पर मौजूद इस वीडियो में कैप्शन में लिखा है कि अगर बीजेपी फिर से जीत गई तो "कुछ भी हो सकता है।"
 
मिशिगन विश्वविद्यालय में लोकतंत्र में टेक्नोलॉजी की भूमिका के विशेषज्ञ जोयोजीत पाल का कहना है कि एक राजनीतिक प्रतिद्वंदी का मजाक उड़ाना "उन्हें चोर या गुंडा कहने" से ज्यादा प्रभावशाली है।
 
राजनीतिक कार्टूनों में प्रतिद्वंदियों का मजाक उड़ाना तो सदियों से हो रहा है लेकिन पाल ने चेतावनी दी कि एआई से बनाई छवियों को आसानी से गलती से असली समझा जा सकता है।
 
उन्होंने बताया, "हम किस चीज का विश्वास कर सकते हैं और किसका नहीं यह उसके लिए एक खतरा है। यह कुल मिला कर लोकतंत्र के लिए ही एक खतरा है।"
सीके/एए (एएफपी) 

वेबदुनिया पर पढ़ें

सम्बंधित जानकारी