நடிகை ராஷ்மிகா மந்தனாவின் முகத்தை வைத்து உருவாக்கிய ஆபாச வைரல் வீடியோ அதிர்ச்சியில் இருந்து மீள்வதற்குள் நடிகை கத்ரினா கைஃப்பின் போலி படம் ஒன்று வெளியாகி அதிர்ச்சியை அதிகரித்துள்ளது. இது எப்படி செய்யப்படுகிறது. இது தொடர்பாக ‘வாவ் தமிழா’ யூ டியூப் சேனலுக்கு ‘ஏஐ எக்ஸ்பர்ட்’ செல்வகுமார் அளித்த விளக்கம் இங்கே.
ராஷ்மிகா மந்தனா வில்லங்க வீடியோ ‘டீப் ஃபேக் ஏஐ’ என்ற தொழில்நுட்பத்தால் உருவாக்கப்பட்டது என்று சொல்கிறார்கள். அது என்ன டீப் ஃபேக் ஏஐ?
ஏஐ எனப்படும் செயற்கை நுண்ணறிவு மூலம் ஒரு புகைப்படத்தில் அல்லது வீடியோவில் இருக்கும் ஒருவரது முகத்தை இன்னொரு நபரின் முகத்தின் மேல் பொருத்த முடியும். இந்த தொழில் நுட்பத்தை பயன்படுத்தி தான் சோசியல் மீடியாவில் பலரும் தங்கள் முகத்தை பல்வேறு நடிகர் / நடிகைகளின் உடலுடன் பொறுத்தி, நான் இப்படியெல்லாம் இருந்தால் எப்படியிருப்பேன் என படங்களை பகிர்ந்து வருகிறார்கள். இந்த ஏஐ-இல் நிறைய இருக்கிறது. அதில் லேட்டஸ்டாக வந்துள்ளவற்றில் ஒன்றுதான் இந்த ‘டீப் பேக் ஏஐ’.
இந்த டெக்னாலஜியை யாரெல்லாம் பயன்படுத்த முடியும்? அதுக்காக படிச்சவங்க மட்டும்தானா இல்லை எல்லோரும் கொஞ்சம் முயற்சி பண்ணா, மொபைல்லயே விடியோவை எடிட் பண்ற மாதிரி, ஏஐ ஃபேக் வீடியோ பண்ண முடியுமா?
மிக சுலபம்தான். இதற்கான தளத்தில் தேவையான வீடியோவையும் புகைப்படத்தையும் அப்லோட் செய்துவிட்டு, புகைப்படத்தை இழுத்து வீடியோக்குள் விட்டால் போதும். சிறிது நேரத்தில் போலி வீடியோ தயாராகிவிடும். இதுதான் ராஷ்மிகா மந்தனாவுக்கும் நடந்திருக்கும்.
இந்த எளிமையும் எல்லோருமே பயன்படுத்த முடியும் என்பதும்தான் இதன் பலமும் ஆபத்தும்கூட. சில மாதங்களுக்கு முன்பே இந்த டீப் பேக் ஏஐ-இல் உருவாக்கிய வீடியோகள் வர தொடங்கிவிட்டன. உதாரணமாக, ரஜினியின் ஜெய்லர் படத்தில் தமன்னா ஆடிய காவாலா பாடலில் தமன்னா முகத்துக்கு பதிலாக சிம்ரன் முகத்தை சேர்த்து வெளியிட்டு இருந்தார்கள். அதை நாம் எல்லோரும் ரசித்தோம், வியந்தோம். ஆனால், இந்த முறை ராஷ்மிகா மந்தனா விவகாரத்தில் வியக்க முடியாதபடி வில்லங்க வீடியோவை வெளியிட்டுள்ளார்கள்.
உண்மைதான், நீங்கள் சொல்வதுபோல் ஏ.ஐ.யில் தமன்னா ஆடின காவாலா பாட்டுக்கு சிம்ரன் ஆடுற மாதிரி மாற்றி வந்தபோது ரசிச்சோம். ஆனால், இது அத்தோடு நிற்காமல் ராஷ்மிகா மந்தனாவுக்கு நிகழ்ந்தது போல் ஆபத்தான விஷயங்களுக்கும் வழி உள்ளது பதற்றத்தை ஏற்படுத்தியுள்ளது. ஏஐ எந்தளவு ஆபத்தானது?
ராஷ்மிகா மந்தனாவுக்கு இன்று நடந்தது நாளை எனக்கு நடக்கலாம், உங்களுக்கு நடக்கலாம், யாருக்கு வேண்டுமானாலும் நடக்கலாம். தனிநபர்களுக்கு மட்டுமல்ல ஒரு நாட்டுக்கும் பாதிப்பு ஏற்படலாம். உதாரணமாக நமது ஆதார் அமைப்பிடம் அனைவரது தகவல்களும் உள்ளது. ஏதோ ஒரு ஏஐ தொழில்நுட்பம் இந்த அமைப்புக்குள் நுழைந்து ஒவ்வொருவரது முகத்தையும் மாற்றி மாற்றி வைத்துவிடுகிறது அல்லது புதிதாக ஒரு முகத்தை கொண்டு வந்து எல்லா ஆதார் கார்டுகளிலும் இணைத்துவிடுகிறது என்று வைத்துக்கொள்வோம். அதை எப்படி எதிர்கொள்வது என்பதற்கு இதுவரை நம்மிடம் தொழில்நுட்பம் இல்லை. கண்டிப்பாக இதைப் போன்ற ஒரு சிக்கலை விரைவில் சந்திக்கதான் போகிறோம். எனவே, 28 நாடுகள் இணைந்து இந்த அபாயத்தை எப்படி எதிர்கொள்வது என்று சமீபத்தில் விவாதித்தன.
பொதுவாழ்க்கையில் இருப்பவர்கள் மட்டுமல்லாமல் அனைவரது புகைப்படங்களும் வீடியோக்களும் இன்று சமூக வலைதளங்களில் பகிரப்படுகிறது. இந்நிலையில் இன்றைக்கு ராஷ்மிகா மந்தனாவுக்கு நிகழ்ந்தது நாளை எல்லோருக்கும் நிகழலாம். மிரட்டி பணம் பறிப்பவர்கள் இதை பயன்படுத்திக்கொள்ளலாம். இதை எப்படி எதிர்கொள்வது? சமூக வலைதளங்களை எப்படி நாம் பாதுகாப்பாக பயன்படுத்துவது?
ஒவ்வொருவரும் இதனை கவனத்துடன் கையாள வேண்டும்; சுய கட்டுப்பாட்டுடன் இருக்க வேண்டும். நம்மைப் பற்றிய தகவல்களை, புகைப்படங்களை சமூக வலைதளங்களில் கட்டுப்பாடின்றி பயன்படுத்துவதை தவிர்க்க வேண்டும்.
எது நிஜம்? எது ஃபேக்னு எப்படி கண்டுபிடிக்கிறது? சாமானியனால அதை கண்டு பிடிக்க முடியுமா?
சமானியர்களால் கண்டுபிடிப்பது சிரமம்தான். அதேநேரம், இதுபோன்ற பேக் படங்கள், வீடியோக்கள், செய்திகளை எப்படி கண்டுபிடிப்பது என்பதற்கு கூகிள் போன்ற நிறுவனங்கள் சில தொழில்நுட்பங்களை உருவாக்கியுள்ளார்கள். அதை கையாள தெரிந்தால் ஒரு செய்தி, படம், வீடியோ போலியா இல்லையா, அதன் ஒரிஜினல் எது என்று கண்டுபிடிக்க முடியும். இந்த தொழில்நுட்பம் பத்திரிகையாளர்களுக்கு மிகவும் உபயோகமானது. பத்திரிகையாளர்கள் இதை பயன்படுத்தி, போலிகளை மக்களுக்கு அடையாளம் காட்ட வேண்டும்.