No menu items!

3 கிளிக்குகளில் Deepfake Video: ராஷ்மிகா மந்தனாவுக்கு நடந்தது இதுதான்

3 கிளிக்குகளில் Deepfake Video: ராஷ்மிகா மந்தனாவுக்கு நடந்தது இதுதான்

நடிகை ராஷ்மிகா மந்தனாவின் முகத்தை வைத்து உருவாக்கிய ஆபாச வைரல் வீடியோ அதிர்ச்சியில் இருந்து மீள்வதற்குள் நடிகை கத்ரினா கைஃப்பின் போலி படம் ஒன்று வெளியாகி அதிர்ச்சியை அதிகரித்துள்ளது. இது எப்படி செய்யப்படுகிறது. இது தொடர்பாக ‘வாவ் தமிழா’ யூ டியூப் சேனலுக்கு ‘ஏஐ எக்ஸ்பர்ட்’ செல்வகுமார் அளித்த விளக்கம் இங்கே.

ராஷ்மிகா மந்தனா வில்லங்க வீடியோ ‘டீப் ஃபேக் ஏஐ’ என்ற தொழில்நுட்பத்தால் உருவாக்கப்பட்டது என்று சொல்கிறார்கள். அது என்ன டீப் ஃபேக் ஏஐ?

ஏஐ எனப்படும் செயற்கை நுண்ணறிவு மூலம் ஒரு புகைப்படத்தில் அல்லது வீடியோவில் இருக்கும் ஒருவரது முகத்தை இன்னொரு நபரின் முகத்தின் மேல் பொருத்த முடியும். இந்த தொழில் நுட்பத்தை பயன்படுத்தி தான் சோசியல் மீடியாவில் பலரும் தங்கள் முகத்தை பல்வேறு நடிகர் / நடிகைகளின் உடலுடன் பொறுத்தி, நான் இப்படியெல்லாம் இருந்தால் எப்படியிருப்பேன் என படங்களை பகிர்ந்து வருகிறார்கள். இந்த ஏஐ-இல் நிறைய இருக்கிறது. அதில் லேட்டஸ்டாக வந்துள்ளவற்றில் ஒன்றுதான் இந்த ‘டீப் பேக் ஏஐ’.

இந்த டெக்னாலஜியை யாரெல்லாம் பயன்படுத்த முடியும்? அதுக்காக படிச்சவங்க மட்டும்தானா இல்லை எல்லோரும் கொஞ்சம் முயற்சி பண்ணா, மொபைல்லயே விடியோவை எடிட் பண்ற மாதிரி, ஏஐ ஃபேக் வீடியோ பண்ண முடியுமா?

மிக சுலபம்தான். இதற்கான தளத்தில் தேவையான வீடியோவையும் புகைப்படத்தையும் அப்லோட் செய்துவிட்டு, புகைப்படத்தை இழுத்து வீடியோக்குள் விட்டால் போதும். சிறிது நேரத்தில் போலி வீடியோ தயாராகிவிடும். இதுதான் ராஷ்மிகா மந்தனாவுக்கும் நடந்திருக்கும்.

இந்த எளிமையும் எல்லோருமே பயன்படுத்த முடியும் என்பதும்தான் இதன் பலமும் ஆபத்தும்கூட. சில மாதங்களுக்கு முன்பே இந்த டீப் பேக் ஏஐ-இல் உருவாக்கிய வீடியோகள் வர தொடங்கிவிட்டன. உதாரணமாக, ரஜினியின் ஜெய்லர் படத்தில் தமன்னா ஆடிய காவாலா பாடலில் தமன்னா முகத்துக்கு பதிலாக சிம்ரன் முகத்தை சேர்த்து வெளியிட்டு இருந்தார்கள். அதை நாம் எல்லோரும் ரசித்தோம், வியந்தோம். ஆனால், இந்த முறை ராஷ்மிகா மந்தனா விவகாரத்தில் வியக்க முடியாதபடி வில்லங்க வீடியோவை வெளியிட்டுள்ளார்கள்.

உண்மைதான், நீங்கள் சொல்வதுபோல் ஏ.ஐ.யில் தமன்னா ஆடின காவாலா பாட்டுக்கு சிம்ரன் ஆடுற மாதிரி மாற்றி வந்தபோது ரசிச்சோம். ஆனால், இது அத்தோடு நிற்காமல் ராஷ்மிகா மந்தனாவுக்கு நிகழ்ந்தது போல் ஆபத்தான விஷயங்களுக்கும் வழி உள்ளது பதற்றத்தை ஏற்படுத்தியுள்ளது. ஏஐ எந்தளவு ஆபத்தானது?

ராஷ்மிகா மந்தனாவுக்கு இன்று நடந்தது நாளை எனக்கு நடக்கலாம், உங்களுக்கு நடக்கலாம், யாருக்கு வேண்டுமானாலும் நடக்கலாம். தனிநபர்களுக்கு மட்டுமல்ல ஒரு நாட்டுக்கும் பாதிப்பு ஏற்படலாம். உதாரணமாக நமது ஆதார் அமைப்பிடம் அனைவரது தகவல்களும் உள்ளது. ஏதோ ஒரு ஏஐ தொழில்நுட்பம் இந்த அமைப்புக்குள் நுழைந்து ஒவ்வொருவரது முகத்தையும் மாற்றி மாற்றி வைத்துவிடுகிறது அல்லது புதிதாக ஒரு முகத்தை கொண்டு வந்து எல்லா ஆதார் கார்டுகளிலும் இணைத்துவிடுகிறது என்று வைத்துக்கொள்வோம். அதை எப்படி எதிர்கொள்வது என்பதற்கு இதுவரை நம்மிடம் தொழில்நுட்பம் இல்லை. கண்டிப்பாக  இதைப் போன்ற ஒரு சிக்கலை விரைவில் சந்திக்கதான் போகிறோம். எனவே, 28 நாடுகள் இணைந்து இந்த அபாயத்தை எப்படி எதிர்கொள்வது என்று சமீபத்தில் விவாதித்தன.

பொதுவாழ்க்கையில் இருப்பவர்கள் மட்டுமல்லாமல் அனைவரது புகைப்படங்களும் வீடியோக்களும் இன்று சமூக வலைதளங்களில் பகிரப்படுகிறது. இந்நிலையில் இன்றைக்கு ராஷ்மிகா மந்தனாவுக்கு நிகழ்ந்தது நாளை எல்லோருக்கும் நிகழலாம். மிரட்டி பணம் பறிப்பவர்கள் இதை பயன்படுத்திக்கொள்ளலாம். இதை எப்படி எதிர்கொள்வது? சமூக வலைதளங்களை எப்படி நாம் பாதுகாப்பாக பயன்படுத்துவது?

ஒவ்வொருவரும் இதனை கவனத்துடன் கையாள வேண்டும்; சுய கட்டுப்பாட்டுடன் இருக்க வேண்டும். நம்மைப் பற்றிய தகவல்களை, புகைப்படங்களை சமூக வலைதளங்களில் கட்டுப்பாடின்றி பயன்படுத்துவதை தவிர்க்க வேண்டும்.

எது நிஜம்?  எது ஃபேக்னு எப்படி கண்டுபிடிக்கிறது? சாமானியனால அதை கண்டு பிடிக்க முடியுமா?

சமானியர்களால் கண்டுபிடிப்பது சிரமம்தான். அதேநேரம், இதுபோன்ற பேக் படங்கள், வீடியோக்கள், செய்திகளை எப்படி கண்டுபிடிப்பது என்பதற்கு கூகிள் போன்ற நிறுவனங்கள் சில தொழில்நுட்பங்களை உருவாக்கியுள்ளார்கள். அதை கையாள தெரிந்தால் ஒரு செய்தி, படம், வீடியோ போலியா இல்லையா, அதன் ஒரிஜினல் எது என்று கண்டுபிடிக்க முடியும். இந்த தொழில்நுட்பம் பத்திரிகையாளர்களுக்கு மிகவும் உபயோகமானது. பத்திரிகையாளர்கள் இதை பயன்படுத்தி, போலிகளை மக்களுக்கு அடையாளம் காட்ட வேண்டும்.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Wow அப்டேட்ஸ்

spot_img

வாவ் ஹிட்ஸ்

- Advertisement - spot_img

You might also like...