ஒலிவியா சோலோன்
(‘தி இந்து’ நாளிதழில் கடந்த 06-08-2017 அன்று என் மொழிபெயர்ப்பில் வெளியான கட்டுரை)
இ து ஃபோட்டோஷாப் யுகம், புகைப்பட வடிகட்டிகளின் யுகம், சமூக ஊடகங்களின் யுகம். முறைதவறி மாற்றியமைக்கப்பட்ட புகைப்படங்களுக்கு நம்மில் பெரும்பாலானோர் பழகிவிட்டிருக்கிறோம்- புகைப்படத்தில் இருப்பவர்கள் உண்மையில் இருப்பதைவிட மேலும் மெலிதாகவோ, நளினமாகவோ காணப்படுவார்கள்; அல்லது ஸ்னாப்சாட்டில் வருவதுபோல் நாய்க்குட்டிகள்போல் தோற்றமளிப்பார்கள்.
இவற்றையெல்லாம் தூக்கிச் சாப்பிடும்படி, ஒலியையும் காட்சியையும் திருத்தியமைப்பதற்கான புதிய வகை தொழில்நுட்பங்கள் வந்திருக்கின்றன. செயற்கை அறிவுத் தொழில்நுட்பத்திலும் கணினி வரைகலையிலும் ஏற்பட்டிருக்கும் முன்னேற்றங்களால் இவையெல்லாம் சாத்தியமாகியிருக்கின்றன. பிரபலங்களின் காணொலிக் காட்சிகளை இந்தத் தொழில்நுட்பங்களுக்கு உட்படுத்தி அவர்கள் பேசாததையும் பேசும்படிக் காட்ட முடியும். நீர்விளையாட்டுகள்மீது தனக்கு நாட்டம் இருக்கிறது என்று ட்ரம்ப் அறிவிப்பது போலவும், கடத்தப்பட்ட குழந்தைகளைத் தனது நிலவறையில் அடைத்துவைத்திருப்பதாக ஹிலாரி கிளிண்டன் சொல்வதைப் போலவும் காட்டிவிட முடியும்.
இதுதான் போலிச் செய்திகளின் எதிர்காலம். படிப்பதையெல்லாம் நாம் நம்பிவிடக் கூடாது என்றுதான் நமக்கு இவ்வளவு நாட்களாகச் சொல்லப்பட்டுவந்தது. இனிமேல், கண்ணால் காண்பதையும் காதால் கேட்பதையும்கூட நாம் கேள்விக்குட்படுத்த வேண்டிவரும்.
ஒருவர் வாயில் இன்னொருவரின் வார்த்தைகள்!
தற்போது, மனித குணாம்சத்தின் பல்வேறுபட்ட அம்சங்களை வெளிப்படுத்தும் காணொலிகளையும் ஒலித்துணுக்குகளையும் பதிவுசெய்து, அவற்றை ஒருங்கமைப்பதில் பல ஆராய்ச்சிக் குழுக்கள் ஈடுபட்டிருக்கின்றன.
ஸ்டான்ஃபோர்டு பல்கலைக்கழகத்தில் சமீபத்தில் ஒரு மென்பொருளை உருவாக்கியிருக்கிறார்கள். ஒரு பிரபலம் தோன்றும் காணொலியொன்றை எடுத்துக்கொண்டு, இந்தத் தொழில்நுட்பத்தைப் பயன்படுத்தி அவரது வாயசைப்புக்கு ஏற்ப இன்னொருவர் பேச முடியும், அதுவும் நிகழ்நேரத்தில். ஒருவரது வாயில் இன்னொருவரின் வார்த்தைகள்!
ஃபேஸ்2ஃபேஸ் என்ற மென்பொருள், இரண்டாம் நபர் ஒருவர் கணினி கேமராவில் பேசும்போது அவரது முக பாவங்களைப் பதிவுசெய்து, மூலக் காணொலியில் உள்ள பிரபலத்தின் முகத்தில் நேரடியாக அவற்றைப் பதிக்கிறது. மேற்கண்ட ஆய்வுக் குழு ஜார்ஜ் டபிள்யு புஷ், விளாதிமிர் புடின், டொனால்டு ட்ரம்ப் ஆகியோரின் வீடியோவுக்குள் பொம்மலாட்டம் நிகழ்த்தித் தங்கள் தொழில்நுட்பத்தின் வல்லமையைப் பறைசாற்றியது.
ஃபேஸ்2ஃபேஸ் என்ற மென்பொருள் ஒரு விளையாட்டுப் பொருள் போன்றது. மீம்கள் உருவாக்கத்திலும் தொலைக்காட்சிகளின் இரவு நேர நகைச்சுவை நிகழ்ச்சிகளிலும் இந்த மென்பொருள் பயன்படக்கூடியது. ஆயினும், ஒட்டிவெட்டிச் சேர்க்கப்பட்ட குரல் மூலமாக இந்தத் தொழில்நுட்பம் நகைச்சுவை என்ற நிலையைத் தாண்டியும் உண்மை போலத் தோற்றமளிக்கச் செய்கிறது. இந்த டிஜிட்டல் பொம்மை, அரசியல்வாதியைப் போலத் தோற்றம் கொண்டிருப்பது மட்டுமல்ல, அரசியல்வாதியின் குரலிலேயே பேசவும் செய்கிறது.
குரல்போலி
குரலைப் போலிசெய்வது குறித்து பர்மிங்காமில் உள்ள அலபாமா பல்கலைக்கழகத்தின் வல்லுநர் குழு ஆராய்ச்சி செய்துகொண்டிருக்கிறது. ஒருவருடைய மூன்று அல்லது ஐந்து நிமிடம் வரையிலான பேச்சுகளைக் கொண்ட ஒலித்துணுக்குகள் நேரலையாகவோ அல்லது யூடியூப், வானொலி நிகழ்ச்சிகள் போன்றவற்றின் மூலமாகவோ கிடைத்தால் போதும், ஒரு ஊடுருவாளர் ஒட்டிவெட்டிக் கோக்கப்பட்ட குரலை உருவாக்கி அதன் மூலம் மனிதர்களை ஏமாற்றிவிட முடியும்; வங்கிகளிலும் திறன்பேசிகளிலும் (Smart phone) இருக்கும் உயிரிஅளவீட்டுப் பாதுகாப்பு அமைப்புகளையும் (Biometric Security Systems) ஏமாற்றிவிட முடியும். அதன் பிறகு அந்த ஊடுருவாளர் நுண்ணொலிபெருக்கி வழியாகப் பேசி, அதை மென்பொருள் கொண்டு சம்பந்தப்பட்ட நபர் தொலைபேசியிலோ வானொலி நிகழ்ச்சியிலோ பேசியதுபோல் ஆக்கிவிட முடியும்.
புதியதாகத் தொடங்கப்பட்ட கனடிய நிறுவனமான லயர்பேர்டு இதுபோன்ற தொழில்நுட்பத் திறன்களை உருவாக்கியுள்ளது. இதன்மூலம் பிரபலங்களின் குரலில் புத்தகங்களை ஒலிநூல்களாக மாற்ற முடியும் என்றும், வீடியோ விளையாட்டுகளுக்குப் பிரபலங்களின் குரல்களைப் பயன்படுத்திக்கொள்ள முடியும் என்றும் அந்த நிறுவனம் தெரிவித்துள்ளது. அவர்களுடையது நல்ல நோக்கம்தான் என்றாலும் குரல்திருத்தத் தொழில்நுட்பமும் முகம்-மாற்றும் தொழில்நுட்பமும் சேர்ந்ததென்றால் பிரபலங்கள் கூறியது போன்ற போலி அறிவிப்புகளையும் உரைகளையும் உருவாக்கி, எல்லோரையும் நம்ப வைத்துவிடவும் முடியும்.
ஒபாமா என்ன சொல்கிறார்?
வாஷிங்டன் பல்கலைக்கழகத்தின் ‘சிந்தஸைஸிங் ஒபாமா’ என்ற ஆய்வுத் திட்டத்தைப் பற்றி நீங்கள் படித்துப் பார்க்க வேண்டும். இந்தத் திட்டத்தின் கீழ், ஒபாமாவின் உரைகளுள் ஒன்றின் ஒலியை எடுத்து முற்றிலும் வேறொரு காணொலியில் பொருத்தி, முந்தைய உரையின் குரலுக்கு ஏற்ப இந்தக் காணொலியில் ஒபாமாவின் முகபாவம் இருக்கும்படிச் செய்தார்கள். நம்பவே முடியாத துல்லியத்தில் அது இருந்தது! பல மணிநேரக் காணொலிக் காட்சிகளை ஆய்வுசெய்து அதன் மூலம் கிடைத்த பயிற்சியைக் கொண்டு இதை சாதித்தார்கள். இதுபோன்ற பித்தலாட்டச் செயல்பாடு எவ்வளவு தீமையை விளைவிக்கக் கூடியது என்பதைக் காட்டுவதற்காக இப்படிச் செய்துகாட்டினார்கள்.
போலிச் செய்திகளைத் தாண்டி வேறுசில அபாயங்களும் இருக்கின்றன என்கிறார் நிதீஷ் சக்ஸேனா. பர்மிங்காமின் அலபாமா பல்கலைக்கழகத்தில் உள்ள கணினி அறிவியல் துறையின் ஆய்வு இயக்குநராகவும் துணைப் பேராசிரியராகவும் அவர் இருக்கிறார். “யாரோ ஒருவருடைய அம்மாவைப் போல் நீங்கள் கைபேசியில் குரல் செய்திகளை அனுப்பிவிட முடியும். அல்லது ஒருவரை அவதூறு செய்யும் வகையில் அவரது நகல் குரல்களின் துணுக்குகளை இணையத்தில் பதிவேற்றிவிட முடியும்” என்கிறார் அவர்.
இதுபோன்ற மார்ஃபிங் தொழில்நுட்பங்கள் துல்லியத்தில் இன்னும் முழுமையடைந்துவிடவில்லை. இந்தத் தொழில்நுட்பத்தைக் கொண்டு உருவாக்கப்பட்ட காணொலிகளில் உள்ள நபர்களின் முகபாவங்கள் சற்று கோணல்மாணலாகவோ இயல்பற்றோ காணப்படுகின்றன. குரல்களும் சற்றே இயந்திர மனிதனின் குரல்போலத் தென்படுகின்றன. ஆனால், முறைகேடு நடந்திருக்கிறது என்று மனிதர்களால் கண்டுபிடிக்க முடியாத அளவில் ஒரு நபரின் தோற்றத்தையும் குரலையும் அப்படியே ஒருங்கிணைக்கக் கூடிய விதத்தில் இந்தத் தொழில்நுட்பம் இன்னும் கொஞ்ச காலத்துக்குள் மேம்பாடு அடையும்.
ஊடகங்கள் செய்ய வேண்டியது என்ன?
ஊடகங்கள் மீதான நம்பகத்தன்மை நாளுக்கு நாள் குறைந்துகொண்டே வருகிறது. சமூக ஊடகங்களிலும் புரளிகளும் போலிச் செய்திகளும் புற்றீசல் போலப் பெருகிக்கொண்டிருக்கின்றன. ஆகவே, செய்திகளாக இடம்பெற வேண்டியவை என்று தோற்றமளிக்கும் காணொலிகளையும் ஒலித் துணுக்குகளையும் கண்ணில் விளக்கெண்ணெய் விட்டுப் பார்த்துச் சலித்தெடுக்க வேண்டியது செய்தி ஊடகங்களைப் பொறுத்தவரை தலையாய பணியாகிவிடும்.
காணொலியோ ஒலித்துணுக்கோ அவை எங்கே உருவாக்கப்பட்டவை என்பதற்கான தடயங்கள் நிச்சயம் இருக்கும். குறிப்பிட்ட நிகழ்வில் வேறு யார் யார் அங்கே இருந்தார்கள், காணொலியில் உணரப்படும் வானிலையும் சம்பந்தப்பட்ட நாளின் வானிலையும் ஒன்றுக்கொன்று பொருந்திப் போகின்றனவா என்பது போன்ற விஷயங்களும் இருக்கின்றன.
காணொலியில் உள்ள ஒளியமைப்பையும் நிழல்களையும் உற்றுக் கவனித்தும் பார்க்க வேண்டும். காட்சியின் சட்டகத்தில் இடம்பெற்றிருக்கும் எல்லாப் பொருட்களும் அம்சங்களும் சரியான உருவ அளவில் இருக்கின்றனவா, ஒலியும் காட்சியும் சரிவரப் பொருந்திப்போகின்றனவா என்பதையெல்லாமும் உற்றுநோக்க வேண்டும் என்கிறார் மாண்டி ஜென்கின்ஸ். செய்திகளின் உண்மைத்தன்மையைச் சரிபார்க்கக் கூடிய ‘ஸ்டோரிஃபுல்’ என்ற நிறுவனத்தைச் சேர்ந்தவர் இவர்.
பேரழிவுக்கும் வழிவகுக்கும்!
மாற்றியமைக்கப்பட்ட காணொலி போன்றவற்றை செய்தியறையில் தீவிரமான ஆய்வுக்கு உட்படுத்தினால் தவறானவை சிக்காமல் இருக்க முடியாது. ஆனால், புள்ளிபுள்ளியாகத் தெரியும் காணொலியைக் கூட சமூக ஊடகங்களில் பதிவிட்டால் அவை பரபரவென்று பரவி, அதனால் சமூக அளவிலும் அரசியல் அளவிலும் ராஜாங்க அளவிலும் பேரழிவுகளே ஏற்படக்கூடும். வடகொரியாவின் மீது ட்ரம்ப் போர் அறிவிப்பது போன்ற போலி வீடியோ வெளியாகி, ஊடகங்களிலும் சமூக ஊடகங்களிலும் பற்றிக்கொண்டால் என்னவாகும் என்பதைக் கற்பனை செய்து பாருங்கள்!
“ட்ரம்பைப் போல ஒருவர் இருந்து ட்ரம்பைப் போலவே பேசினால் எல்லோரும் அவரை ட்ரம்ப் என்றுதானே நினைப்பார்கள்!” என்கிறார் சக்ஸேனா. “பொய்யான ஒன்றை மக்கள் நம்பும்படிச் செய்வதற்கு இதுபோன்ற போலிக் காணொலிகளும் ஒலித்துணுக்குகளும் இல்லாமல்கூட செய்துவிட முடியும் என்பதை நாம் ஏற்கெனவே கண்டிருக்கிறோம். நிலைமை இப்படி இருக்கும்போது இந்தப் புதிய தொழில்நுட்பம் மேலும் அந்த நிலைமையை மோசமாக்கிவிடக்கூடும்” என்கிறார் ஜென்கின்ஸ்.
- நன்றி: ‘தி கார்டியன்’,
சுருக்கமாகத் தமிழில்: ஆசை
எங்கும் போலி மயம். ஒரு புறம் அறிவியல் புரட்சி என்கிறோம், வளர்ச்சி என்கிறோம். ஆனால் இவ்வாறான போலி மயங்கள் எங்கும் அதிகரித்துவிட்டன. இப்போது இத்துறையிலும்... போலிச் செய்திகள் தொடர்பாக ஓர் ஆங்கிலக் கட்டுரையில் நான் வாசித்து, ரசித்த சொற்றொடர் "Now it is the time to find the difference and identify between original fake news and fake fake news" அதாவது போலியிலும்கூட போலி வந்துவிட்டதாம்.
ReplyDelete