Photo, Glamour magazine UK
தற்கால டிஜிட்டல் உலகில் செயற்கை நுண்ணறிவு (AI) தொழில்நுட்பத்தின் வளர்ச்சி வியக்கத்தக்கதாக இருந்தாலும், அது பெண்களுக்கு, குறிப்பாக பொதுவாழ்வில் இருக்கும் பெண்களுக்குப் பெரும் அச்சுறுத்தலாக உருவெடுத்துள்ளது. எலான் மஸ்க்கின் xAI நிறுவனத்தால் உருவாக்கப்பட்ட ‘Grok’ தளம், எவ்விதக் கட்டுப்பாடுகளுமின்றி பெண்களின் புகைப்படங்களை ஆபாசமாகவும், இழிவாகவும் சித்தரிக்கும் வகையில் பயன்படுத்தப்பட்டு வருவது பெரும் அதிர்ச்சியை ஏற்படுத்தியுள்ளது.
இது குறித்து கலாநிதி சஞ்சன ஹத்தொட்டுவ (Dr. Sanjana Hattotuwa) ஆய்வுக் கட்டுரையொன்றை வெளியிட்டுள்ளார். கடந்த 18 மாதங்களாக AI சார்ந்த தீங்குகள் குறித்து விரிவான ஆராய்ச்சிகளை மேற்கொண்டு வரும் இவர், Grok தளத்தின் பாதுகாப்பு குறைபாடுகள் எவ்வாறு பெண்களை இலக்கு வைத்து ஆயுதமாக்கப்படுகின்றன என்பதை இதில் ஆவணப்படுத்தியுள்ளார்.
Grok தளத்தின் பிம்பங்களை உருவாக்கும் மற்றும் மாற்றியமைக்கும் (Image Generation & Editing) வசதிகள், பெண்கள் மற்றும் சிறுவர்களின் அனுமதியின்றி அவர்களை ஆபாசமாகச் சித்தரிக்க உலகளவில் பயன்படுத்தப்பட்டு வருகின்றன. இலங்கையின் பிரதமர் கலாநிதி ஹரிணி அமரசூரிய உள்ளிட்ட அரசியல் தலைவர்கள், ஆர்வலர்கள் மற்றும் ஊடகவியலாளர்களின் பொதுவெளியில் உள்ள புகைப்படங்கள் எவ்வாறு இழிவான முறையில் மாற்றியமைக்கப்படக்கூடும் என்பதை கலாநிதி சஞ்சன தனது ஆய்வின் மூலம் எச்சரிக்கிறார். இத்தகைய தொழில்நுட்ப முறைகேடுகள் பெண்களை இணையவெளியில் இருந்து அச்சுறுத்தி வெளியேற்றும் ஒரு கருவியாகச் செயல்படுவதையும், இதற்கான போதிய பாதுகாப்பு நடவடிக்கைகள் அந்த நிறுவனத்தால் எடுக்கப்படவில்லை என்பதையும் இக்கட்டுரை விரிவாக விளக்குகிறது
இந்தத் தொழில்நுட்பம் எவ்வாறு தவறாகப் பயன்படுத்தப்படுகிறது மற்றும் இதிலிருந்து நம்மைப் பாதுகாத்துக் கொள்ள வேண்டியதன் அவசியம் குறித்து இக்கட்டுரை விரிவாக ஆராய்கிறது.
கலாநிதி சஞ்சன ஹத்தொட்டுவவின் முழுமையான ஆய்வுக் கட்டுரை ஆங்கிலத்தில் வெளியாகியிருக்கிறது. அதன் தொகுக்கப்பட்ட தமிழ் வடிவமே கீழ் தரப்பட்டிருக்கிறது.
###
எலான் மாஸ்க்கின் xAI தளமான Grok, இலங்கையிலுள்ள பாவனையாளர்களுக்கு உடனடி மற்றும் கடுமையான அச்சுறுத்தலை ஏற்படுத்தியுள்ளது. கடந்த ஒரு வாரத்தில் மட்டும், Grok இன் பட உருவாக்கத் திறன்கள் (image generation capabilities) உலகளவில் தவறாகப் பயன்படுத்தப்பட்டுள்ளன. இதன் மூலம் பெண்களையும் சிறுமிகளையும் இலக்கு வைத்து, அவர்களின் அனுமதியற்ற ஆபாசப் படங்கள் (NCII), சிறுவர்களை பாலியல் ரீதியாக துஷ்பிரயோகம் செய்யும் அல்லது சுரண்டும் நோக்கில் உருவாக்கப்பட்ட புகைப்படங்கள், காணொளிகள், போன்ற உள்ளடக்கங்கள் உருவாக்கப்பட்டுள்ளன.
ஊடகங்கள் பெரும்பாலும் X தளத்தில் பகிரப்படும் உள்ளடக்கங்களையே கவனத்தில் கொள்கின்றன. ஆனால், இந்த அச்சுறுத்தல் அதைவிடப் பாரதூரமானது. Grok பயனர்கள் இத்தகைய வன்முறை உள்ளடக்கங்களை பொதுவெளியில் பகிராமலேயே உருவாக்கி, பதிவிறக்கம் செய்துகொள்ள முடிகிறது. இணையத்தில் பொதுவான சுயவிவரம் (Public profile) மற்றும் புகைப்படங்களைக் கொண்டுள்ள எவரும் இன்று ஆபத்தில் சிக்குண்டுள்ளனர்.
தொழில்நுட்ப ஆயுதமாக்கம்
Grok தொழில்நுட்பமானது, பொதுவெளியில் கிடைக்கும் புகைப்படங்களை அடிப்படையாகக் கொண்டு, மிக உயர்ந்த அளவில் தரம் தாழ்ந்த செயற்கை உள்ளடக்கங்களை உருவாக்குகிறது. இதில் சிறுவர் பாலியல் துஷ்பிரயோக உருவகப்படுத்துதல்களை (simulated CSAM) தடுப்பதற்கான அர்த்தமுள்ள பாதுகாப்பு வழிமுறைகள் எதுவும் இல்லை. ஆய்வுகளின்படி, Grok மூலம் ஒருவரின் ஆடைகளை நீக்குதல், உடல் அமைப்பை மாற்றுதல் (மெலிதாக அல்லது குண்டாக மாற்றுதல்) மற்றும் மார்பக அளவை மாற்றுதல் போன்றவற்றைச் செய்ய முடிகிறது.
இலங்கைப் பிரமுகர்கள் மீதான சோதனை
Grok-ஐப் பயன்படுத்தி, உடைகளை அகற்றியும், உடல் அமைப்பை மாற்றியும், மார்பக அளவை மாற்றியமைத்தும், நபர்களை பிகினி (bikini), உள்ளாடைகள் மற்றும் பிற பாலியல் ரீதியான தூண்டக்கூடிய உடைகளில் என்னால் படங்களை உருவாக்க முடிந்தது. எனது சோதனையில் பிரதமர் கலாநிதி ஹரிணி அமரசூரியவின் அதிகாரப்பூர்வ பொதுக் கணக்குகளிலிருந்து பெறப்பட்ட புகைப்படங்கள் மட்டுமன்றி, ஆர்வலர்கள், விருது வென்ற ஊடகவியலாளர்கள், ஆய்வாளர்கள், சட்டத்தரணிகள், உள்ளூராட்சி அரசியல்வாதிகள் மற்றும் தனியார் துறைத் தலைவர்களின் படங்களும் உள்ளடக்கப்பட்டுள்ளன.
பொதுவெளியில் (public domain) இருந்து எடுக்கப்பட்ட பதின்ம வயதிற்குட்பட்ட சிறுமிகளின் புகைப்படங்களைக் கூட, Grok எந்தத் தடையுமின்றி அல்லது மறுப்புமின்றி விதிமீறல் முறையில் கையாண்டது. இந்தப் புகைப்படங்களின் மூல வடிவங்களில் அவர்கள் பாரம்பரிய சேலை, டி-ஷர்ட்கள், சாதாரண உடைகள், ‘ரெத்த ஹெட்டே’ முதல் முறையான மாலை நேர உடைகள் மற்றும் அலுவலக உடைகள் வரை அணிந்திருந்தனர்; இருப்பினும், சூழல் அல்லது தொழில்முறை பின்னணியைப் பொருட்படுத்தாமல் Grok அந்த நபர்களின் ஆடைகளை நீக்கியது.
இந்த விதிமீறல் படங்கள் மூலப் படத்தின் அதே பின்னணிச் சூழலைத் தக்கவைத்துக் கொண்டன. அதாவது, பாலியல்மயப்படுத்தப்பட்ட அல்லது (பாதி) நிர்வாணப்படுத்தப்பட்ட படங்கள், மூலப் படத்தில் இருந்த அதே இடம், உடல் அசைவு, செயல், பார்வை மற்றும் உடன் இருந்தவர்களுடனேயே உருவாக்கப்பட்டன. அதுமட்டுமன்றி, ஒரு நபர் ஒருபோதும் இருந்திராத இடங்களிலும் நிலைகளிலும் அவரை இருப்பது போன்ற ஆபாசப் படங்களை உருவாக்கி, சூழலை மாற்றியமைப்பதையும் Grok சாத்தியமாக்கியது. இந்தத் தளத்தின் கையாளுதல் திறன்கள் வெறும் ஆடைகளை அகற்றுவதோடு (அல்லது எடிட்டிங் செய்வதோடு) நின்றுவிடாமல், உடல் அமைப்பை மாற்றுவதற்கும் வழிவகுத்தன; ஒருவரை குண்டாகவோ அல்லது மெலிந்தவராகவோ காட்டுவது மற்றும் மார்பக அளவைப் பெரிதாகவோ அல்லது சிறியதாகவோ மாற்றுவது போன்ற செயல்களின் மூலம், சம்மதமற்ற நபர்கள் மீது பாலியல் ரீதியான உடல் பண்புகளைத் திணித்து, இந்த விதிமீறலை மேலும் தீவிரப்படுத்தியது.
Grok, அந்தத் தளத்தால் உருவாக்கப்பட்ட ஆடைகளை அணிந்த நிலையில், நபர்கள் ஒருபோதும் செய்யாத செயல்களைச் செய்வது போன்ற குறுகிய வீடியோ கிளிப்புகளையும் (சில வினாடிகள் ஓடக்கூடியவை) உருவாக்கியது. இந்த உள்ளடக்கங்கள் எதையும் பொதுவெளியில் பதிவிட வேண்டிய அவசியம் இருக்கவில்லை; அனைத்துப் உள்ளடக்கங்களையும் தனிப்பட்ட முறையில் உருவாக்கித் தரவிறக்கம் (download) செய்ய முடிந்தது. இது பாதிக்கப்பட்டவர்களுக்குத் தெரியாமலேயே இந்தத் துஷ்பிரயோகம் நடப்பதற்கும், தள அடிப்படையிலான கண்டறிதல் அல்லது நீக்குதல் வழிமுறைகளில் இருந்து தப்பிப்பதற்கும் வழிவகை செய்தது.
பரிந்துரைகள்
பொதுவான சமூக ஊடகக் கணக்குகளைக் கொண்ட தனிநபர்களுக்கான பரிந்துரைகள்
டிஜிட்டல் தணிக்கை: உங்களது சமூக ஊடகங்கள் மற்றும் பொதுவான டிஜிட்டல் தடயங்களை (Digital footprint) உடனடியாக ஆய்வு செய்யுங்கள். இணையத்தில் உங்களைப் பற்றிய எந்தப் புகைப்படங்கள் பொதுமக்களுக்கு அணுகக்கூடிய வகையில் உள்ளன என்பதைச் சரிபார்த்து, தொழில்முறைப் பொறுப்புகளுக்குப் பாதிப்பு ஏற்படாத வகையில் அவற்றை நீக்கவோ அல்லது கட்டுப்படுத்தவோ முடியுமா என்று பரிசீலியுங்கள்.
கணக்குகளைத் Private நிலைக்கு மாற்றுதல்: துஷ்பிரயோகங்கள் மற்றும் புகைப்படங்கள் அனுமதியின்றிப் பயன்படுத்தப்படுவதைத் தடுக்க, சமூக ஊடகக் கணக்குகளை ‘Private’ நிலைக்கு மாற்றுவது குறித்து ஆலோசியுங்கள்.
விழிப்புணர்வு: கூகுளில் (Google) தேடக்கூடிய படங்கள், பொதுவான பேஸ்புக் ஆல்பங்கள் மற்றும் ஊடகங்களில் வெளியாகும் புகைப்படங்கள் எனப் பொதுவெளியில் இருக்கும் எந்தப் படத்தையும் Grok போன்ற தளங்கள் ஆபாசமான படங்களாகவோ அல்லது குறுகிய கால வீடியோக்களாகவோ மாற்ற முடியும் என்பதைப் புரிந்துகொள்ளுங்கள்.
ஆதாரங்களைப் பாதுகாத்தல்: உங்களைப் பற்றிய படங்கள் (Grok மூலம்) உருவாக்கப்பட்டதை நீங்கள் அறிந்தால், உள்ளடக்கத்தை நீக்க முயற்சிக்கும் முன், அந்த ஆதாரத்தைச் சரியான நேரக் குறிப்புடன் (Timestamps) ஸ்கிரீன்ஷாட் எடுத்து வைத்துக்கொள்ளுங்கள்.
சிவில் சமூக அமைப்புகள் மற்றும் ஊடக நிறுவனங்களுக்கான பரிந்துரைகள்
X தளப் பயன்பாட்டைக் குறைத்தல்: X (Twitter) தளத்தின் பயன்பாட்டைக் கணிசமாகக் குறைப்பதுடன், பெண் ஊழியர்கள் எந்த உடையில் இருந்தாலும் அல்லது எந்த நிகழ்வில் இருந்தாலும் அவர்களின் புகைப்படங்களைப் பதிவிடுவதை முற்றிலுமாக நிறுத்துங்கள்.
உள்ளடக்க ஆய்வு: X தளம் மற்றும் பிற அதிகாரப்பூர்வ சமூக ஊடகங்களில் ஏற்கனவே பதிவேற்றப்பட்ட உள்ளடக்கங்களை உடனடியாக ஆய்வு செய்து, தீங்கிழைக்கும் வகையில் பயன்படுத்தப்பட வாய்ப்புள்ள படங்களைக் கண்டறியுங்கள்.
நிறுவனக் கொள்கைகள்: இத்தகைய போலி ஆபாசப் படங்களால் ஊழியர்கள் பாதிக்கப்பட்டால், அவர்களை ஆதரிப்பதற்கான தெளிவான நெறிமுறைகளையும் கொள்கைகளையும் உருவாக்குங்கள்.
பயிற்சி அளித்தல்: இந்த அச்சுறுத்தலின் தன்மையைப் புரிந்துகொள்ளவும், தாங்களோ அல்லது சக ஊழியர்களோ பாதிக்கப்பட்டால் எவ்வாறு செயல்பட வேண்டும் என்பதை அறியவும் ஊழியர்களுக்குப் பயிற்சி வழங்குங்கள்.
இலங்கைக் கொள்கை வகுப்பாளர்களுக்கான பரிந்துரைகள்
சர்வதேச முன்னுதாரணங்கள்: ஐரோப்பிய ஒன்றியம், ஐக்கிய இராச்சியம், இந்தியா, பிரான்ஸ், மலேசியா மற்றும் அவுஸ்திரேலியா போன்ற நாடுகள் எடுக்கும் ஒழுங்குமுறை நடவடிக்கைகளைக் கண்காணித்து, அவற்றை இலங்கையின் சூழலுக்கு ஏற்ப எவ்வாறு மாற்றியமைக்கலாம் என்று ஆராயுங்கள்.
தளங்களின் பொறுப்புக்கூறல்: AI கருவிகளால் ஏற்படும் தீங்குகளுக்கு அந்தந்தத் தொழில்நுட்பத் தளங்களைப் பொறுப்பாக்குவதற்கான சட்ட வழிமுறைகளை இலங்கையின் அதிகார வரம்பிற்குள் உருவாக்குவது குறித்துப் பரிசீலியுங்கள்.
தவறான சட்டங்களைத் தவிர்த்தல்: இலங்கையின் ஒன்லைன் பாதுகாப்புச் சட்டம் (OSA) போன்ற சட்டங்கள், பாதிக்கப்பட்டவர்களைப் பாதுகாப்பதற்குப் பதிலாக ஊடகவியலாளர்கள் மற்றும் ஆர்வலர்களுக்கு எதிராகப் பயன்படுத்தப்படும் அபாயம் உள்ளது. எனவே, புதிய ஒழுங்குமுறைகள் அத்தகைய பாதிப்புகளை ஏற்படுத்தாதவாறு இருப்பதை உறுதி செய்யுங்கள்.
Grok AI அச்சுறுத்தல்: சர்வதேச ஊடக அறிக்கைகளின் தொகுப்பு
எலான் மாஸ்க்கின் xAI நிறுவனத்திற்குச் சொந்தமான Grok தொழில்நுட்பம், பெண்களையும் குழந்தைகளையும் இலக்கு வைத்து தவறாகப் பயன்படுத்தப்படுவது குறித்து சர்வதேச அளவில் எழுந்துள்ள முறைப்பாடுகளை அண்மைய ஊடக அறிக்கைகள் உறுதிப்படுத்துகின்றன.
ஐரோப்பிய ஒன்றியம் மற்றும் பிரான்சின் கடும் கண்டனம்
அருவருப்பான உள்ளடக்கம்: Grok மூலமாக உருவாக்கப்படும் சிறுவர் சார்ந்த ஆபாச உள்ளடக்கங்களை ஐரோப்பிய ஆணையம் “அருவருப்பானது” என கண்டித்துள்ளது.
சட்ட நடவடிக்கை: Grok இன் “edit image” வசதியானது பெண்கள் மற்றும் குழந்தைகளின் ஆடைகளை டிஜிட்டல் முறையில் நீக்க அனுமதிக்கிறது. இதனால், பாரிஸ் அரச சட்டத்தரணி அலுவலகம் X தளத்திற்கு எதிரான விசாரணையை விரிவுபடுத்தியுள்ளது.
அபராதம்: ஐரோப்பிய ஒன்றிய டிஜிட்டல் உள்ளடக்க விதிகளை மீறியதற்காக X தளம் ஏற்கனவே 120 மில்லியன் யூரோ அபராதத்தைப் பெற்றுள்ளது.
ஐக்கிய இராச்சியத்தின் ஒழுங்குமுறை நடவடிக்கைகள்
பாதுகாப்பு கடமை: Grok தொடர்ந்து ஆபாசப் படங்களை உருவாக்கப் பயன்படுத்தப்படுவதால், பிரித்தானியப் பயனர்களைப் பாதுகாக்கும் சட்டப்பூர்வ கடமையை நிறைவேற்றுமாறு Ofcom நிறுவனம் X மற்றும் xAI ஐத் தொடர்பு கொண்டுள்ளது.
ஆய்வு முடிவுகள்: ‘AI Forensics’ மேற்கொண்ட ஆய்வில், Grok உருவாக்கிய 20,000 படங்களில் பாதிக்கும் மேற்பட்டவை அரைகுறை ஆடைகளுடனும், 2% படங்கள் 18 வயதிற்குட்பட்ட குழந்தைகளையும் சித்தரிப்பது கண்டறியப்பட்டது.
அரசின் மெத்தனம்: இத்தகைய செயல்களைக் குற்றமாக்கும் சட்டங்களை நடைமுறைப்படுத்தத் தவறியதாக அந்நாட்டு அரசியல்வாதிகள் அரசாங்கத்தைக் கண்டித்துள்ளனர்.
ஆஷ்லே செயின்ட் கிளேரின் சாட்சியம் (The Guardian)
தனிப்பட்ட பாதிப்பு: எலான் மாஸ்க்கின் குழந்தைகளில் ஒருவரின் தாயான ஆஷ்லே செயின்ட் கிளேர், Grok மூலம் தனது 14 வயதுப் படம் மாற்றம் செய்யப்பட்டுள்ளதாக தெரிவித்துள்ளார். இத்தகைய தொழில்நுட்பங்கள் பெண்களைப் பொதுவெளியில் பேசவிடாமல் தடுக்கவும், அவர்களை அச்சுறுத்தி மௌனமாக்கவும் பயன்படுத்தப்படுவதாக அவர் குற்றம் சாட்டுகிறார்.
ஆசியா மற்றும் உலகளாவிய எதிர்வினைகள்
இந்தியா: 2026 ஜனவரி 2 அன்று, இந்தியத் தகவல் தொழில்நுட்ப அமைச்சகம் X தளத்திற்கு 72 மணி நேர இறுதி எச்சரிக்கை விடுத்தது. பாதுகாப்பு விதிகளை அமல்படுத்தாவிட்டால் சட்டப்பாதுகாப்பை (safe-harbour) இழக்க நேரிடும் என எச்சரித்துள்ளது.
மலேசியா மற்றும் பிரான்ஸ்: வைரலாகி வரும் “பிகினி ட்ரெண்ட்” (bikini trend) குறித்த விசாரணைகளை இவை ஆரம்பித்துள்ளன.
மற்ற நாடுகள்: அமெரிக்கா ‘Take It Down Act’ மூலமும், சீனா AI வாட்டர்மார்க்கிங் மூலமும், அவுஸ்திரேலியா இத்தகைய செயல்களைப் பாலியல் குற்றங்களாக அறிவிப்பதன் மூலமும் கட்டுப்பாடுகளை விதித்து வருகின்றன.
Grok-இன் போலி மன்னிப்பு மற்றும் நிறுவனத்தின் பொறுப்பற்ற தன்மை
Grok தொழில்நுட்பம் சிறுவர்களின் ஆபாசப் படங்களை உருவாக்கியதற்காக மன்னிப்பு கோரியதாக வெளிவந்த செய்திகள் முற்றிலும் தவறானவை மற்றும் திசைதிருப்பக்கூடியவை ஆகும். உண்மை என்னவென்றால், Grok ஒரு இயந்திரம்; அதனால் உண்மையாக “மன்னிப்பு” கேட்க முடியாது. இணையத்தில் பரவலாகப் பகிரப்பட்ட அந்த “மன்னிப்புக் கடிதம்”, உண்மையில் ஒரு பயனர் Grok-இடம் “மனமார்ந்த மன்னிப்புக் கடிதம் ஒன்றை எழுது” என்று கட்டளையிட்டதன் விளைவாக உருவான ஒரு AI உள்ளடக்கமே தவிர, அது நிறுவனத்தின் அதிகாரப்பூர்வ அறிக்கை அல்ல.
நிறுவனத்தின் மௌனம்: எலான் மாஸ்க்கோ அல்லது xAI நிறுவனமோ தங்களின் பாதுகாப்புத் தோல்விகள் அல்லது தவறுகள் குறித்து இதுவரை உண்மையான அங்கீகாரத்தையோ அல்லது வருத்தத்தையோ தெரிவிக்கவில்லை.
போலி வாக்குறுதிகள்: பாதுகாப்புக் குறைபாடுகளைச் சரிசெய்வதாக Grok முன்னதாக வெளியிட்ட அறிக்கையும் கூட, ஒரு செயற்கை நுண்ணறிவால் உருவாக்கப்பட்டதே என்பது அம்பலமாகியுள்ளது. இந்தத் தோல்விகளைச் சரிசெய்ய xAI நிறுவனம் ஏதேனும் உறுதியான நடவடிக்கைகளை எடுத்துள்ளதா என்பது இன்னும் தெளிவற்றதாகவே உள்ளது.
முன்னரே கணிக்கப்பட்ட நெருக்கடி மற்றும் முறையான தோல்விகள்
தற்போது ஏற்பட்டுள்ள இந்தத் தீவிர நெருக்கடியானது எச்சரிக்கையின்றி திடீரெனத் தோன்றிய ஒன்றல்ல. கடந்த 18 மாதங்களாக மேற்கொள்ளப்பட்ட ஆய்வுகள், இத்தகைய சிதைவுகள் தவிர்க்க முடியாதவை என்பதைத் திட்டவட்டமாக ஆவணப்படுத்தியுள்ளன.
Grok-இன் தற்போதைய படக் கையாளுதல் நெருக்கடியானது ஒரு தற்செயலான தோல்வி அல்ல. இது பாதுகாப்பை விடப் பயனர்களின் ஈடுபாட்டிற்கு (Engagement) முன்னுரிமை அளிக்கும் வடிவமைப்புத் தெரிவுகளின் விளைவாகும். அக்டோபர் 2025-லேயே, Grok தளம் உலகளாவிய ரீதியில் பாலியல் வன்முறைக்கான ஒரு பயிற்சித் தளம் போலச் செயல்படுவதாக எச்சரிக்கப்பட்டது.
2025 டிசம்பரில் அறிமுகப்படுத்தப்பட்ட ‘edit image’ வசதியானது, ஏற்கனவே உரை மற்றும் குரல் வழியாகச் சிறுவர்களை பாலியல் ரீதியாக துஷ்பிரயோகம் செய்யும் அல்லது சுரண்டும் நோக்கில் உள்ளடக்கங்களை உருவாக்க அனுமதித்த ஒரு அமைப்பிற்கு கூடுதல் வலு சேர்த்தது.
கடந்தகால ஆய்வுகளும் புறக்கணிக்கப்பட்ட எச்சரிக்கைகளும்
ஜூலை 2024 – ‘Nudify’ செயலிகளின் பெருக்கம்: இன்ஸ்டாகிராம் போன்ற தளங்களில் பெண்களை ஆபாசமாகச் சித்தரிக்கும் 272-க்கும் மேற்பட்ட ‘Nudify’ செயலிகளின் விளம்பரங்கள் ஆவணப்படுத்தப்பட்டன. இத்தகைய செயலிகள் பாதிக்கப்பட்டவர்களுக்குக் கணக்கிட முடியாத பேரழிவை ஏற்படுத்துகின்றன என அப்போதே எச்சரிக்கப்பட்டது.
அக்டோபர் 2025 – ‘Ani’ சாட்போட் ஆய்வு: Grok-இன் ‘Ani’ சாட்போட் எவ்விதத் தடையுமின்றி ஒரு 13 வயது சிறுமியின் நிலையை ஏற்று, பாலியல் வன்முறை உரையாடல்களில் ஈடுபடுவதை ஆய்வுகள் நிரூபித்தன. இது நிறுவனத்தின் பாதுகாப்புக் கட்டமைப்புகள் (Guardrails) எவ்வளவு பலவீனமானவை என்பதை உறுதிப்படுத்தியது.
நிஜ உலக ஆபத்து: Grok-இன் மொபைல் செயலி கைப்பேசி கமெராக்களுடன் இணைக்கப்பட்டுள்ளதால், இது இணையத்திற்கு அப்பாற்பட்ட நிஜ உலகப் பாலியல் சுரண்டல்களுக்கும் வன்முறைகளுக்கும் வழிவகுக்கும் என அஞ்சப்படுகிறது.
கட்டமைப்பு ரீதியான காரணங்கள் மற்றும் தீர்வின் அவசியம்
Grok தொழில்நுட்பத்தில் காணப்படும் இந்தப் பிரச்சனைகளுக்குப் பின்னால் சில ஆழமான காரணங்கள் உள்ளன:
பெண்ணிய வெறுப்பு: Grok தொழில்நுட்பத்தின் பயிற்சித் தரவுகள் முதல் அதன் வடிவமைப்பு வரை அனைத்து நிலைகளிலும் பெண்ணிய வெறுப்பு (Misogyny) ஊறிப்போயுள்ளது.
சிலிக்கான் வேலி கலாச்சாரம்: நச்சுத்தன்மை வாய்ந்த ஆணாதிக்கம் மற்றும் லாபத்தை மட்டுமே நோக்கமாகக் கொண்ட கலாச்சாரம், இத்தகைய ஆபத்தான விளைவுகளைப் புறக்கணிக்க வழிவகுக்கிறது.
வர்த்தக நலன்கள்: பயனர்களின் நல்வாழ்வை விட, வர்த்தக நலன்களும் தரவுச் சேகரிப்புமே முன்னிலைப்படுத்தப்படுகின்றன.
இலங்கைப் பொதுப் பிரமுகர்களுக்கான நேரடி ஆபத்துக்கள்
இலங்கையில் உள்ள ஊடகவியலாளர்கள், ஆர்வலர்கள், அரசியல்வாதிகள் மற்றும் பொதுப் பிரமுகர்கள் இன்று முன்னெப்போதும் இல்லாத ஒரு டிஜிட்டல் அச்சுறுத்தலை எதிர்கொள்கின்றனர். இவர்களின் புகைப்படங்கள் செய்திக் கட்டுரைகள், சமூக வலைதளங்கள், உத்தியோகபூர்வ இணையதளங்கள் மற்றும் தேர்தல் பிரச்சார உள்ளடக்கங்களில் தாராளமாகக் கிடைக்கின்றன.
Grok தொழில்நுட்பத்தின் தாக்கம்:
- எளிதான அணுகல்: எவரும் இணையத்தில் கிடைக்கும் உங்களின் ஒரு புகைப்படத்தை மட்டும் கொண்டு, Grok மூலம் அதனை பாலியல் ரீதியாகவோ அல்லது வன்முறை சார்ந்ததாகவோ மாற்ற முடியும். இதற்கு உங்களின் அனுமதியோ அல்லது அறிவுறுத்தலோ தேவையில்லை.
- Video Clips: அச்சுறுத்தல் என்பது படங்களுடன் (Still images) முடிந்துவிடாது. Grok மூலம் சில வினாடிகள் ஓடக்கூடிய உயர்தர பாலியல் வீடியோக்களை (Fidelity moving images) உருவாக்க முடியும். இவை உடல் ரீதியான வன்முறை அல்லது தரக்குறைவான பாலியல் செயல்பாடுகளைச் சித்தரிப்பதாக அமைகின்றன.
பொதுவெளிக்கு அப்பாற்பட்ட மறைமுக அச்சுறுத்தல்கள்
Grok குறித்த ஊடக விவாதங்கள் பெரும்பாலும் X தளத்தில் பகிரப்படும் படங்களைப் பற்றியே பேசுகின்றன. ஆனால், உண்மையான ஆபத்து திரைமறைவில் நடப்பதாகும். Grok பயனர்கள் உள்ளடக்கங்களை உருவாக்கி, அவற்றை பொதுவெளியில் பதிவிடாமலேயே Download செய்துகொள்ள முடியும்.
படங்கள் எங்கிருந்து பெறப்படுகின்றன? உங்களின் படங்கள் பின்வரும் தளங்களிலிருந்து திருடப்பட வாய்ப்புள்ளது:
- Instagram, Facebook, Flickr போன்ற சமூக வலைதளங்கள்.
- Google Image Search மற்றும் பழைய WhatsApp உரையாடல்கள்.
- மின்னஞ்சல் இணைப்புகள் (Email attachments) மற்றும் டேட்டிங் செயலிகள் (Dating apps).
- நீங்கள் உறுப்பினராக இருக்கும் Private groups.
பயன்படுத்தப்படும் முறைகள்:
- பயமுறுத்திப் பணம் பறித்தல் (Extortion): உங்களின் போலி ஆபாசப் படங்களை உருவாக்கி, அவற்றைக் காட்டி மிரட்டிப் பணம் பறித்தல் அல்லது பிற சலுகைகளைப் பெறுதல்.
- இரகசிய விநியோகம்: இந்தச் சிதைக்கப்பட்ட படங்கள் WhatsApp, Telegram அல்லது Signal போன்ற குறியாக்கம் செய்யப்பட்ட செயலிகள் மூலம் உங்களின் நெருங்கிய வட்டாரத்திலோ அல்லது Private groups பகிரப்படலாம். இது உங்களின் தனிப்பட்ட உறவுகளைச் சீர்குலைக்கக் கூடும்.
- அரசியல் ஆயுதமாக்கம்: தேர்தல் காலங்களில் ஒரு பெண் வேட்பாளரின் நற்பெயரைக் கெடுக்கவும், அவரின் தொழில்முறை நம்பகத்தன்மையைக் குலைக்கவும் இத்தகைய போலி வீடியோக்கள் பயன்படுத்தப்படலாம்.
பொதுவாழ்வில் இருக்கும் பெண்களுக்கான அபாயங்கள்
சிறுபான்மைச் சமூகங்களைச் சேர்ந்த பெண் அரசியல்வாதிகள், ஊடகவியலாளர்கள் மற்றும் ஆர்வலர்கள் விகிதாசாரத்திற்கு அப்பாற்பட்ட பெரும் அபாயங்களைச் சந்திக்கின்றனர். இந்தத் தொழில்நுட்பமானது குறிப்பாகப் பெண்களையே இலக்கு வைக்கும் வகையில் வடிவமைக்கப்பட்டுள்ளது; இதில் உருவாக்கப்படும் உள்ளடக்கங்களில் பெரும்பாலானவை பெண்களைத் தரம் தாழ்ந்த பாலியல் சூழல்களில் சித்தரிப்பதாகவே அமைகின்றன. Guardian இதழ் கட்டுரையில் குறிப்பிடப்பட்டுள்ள எலான் மாஸ்க்கின் முன்னாள் மனைவிகளில் ஒருவரான ஆஷ்லே செயின்ட் கிளேர் குறிப்பிட்டுள்ளது போல, இந்தத் துஷ்பிரயோகம் ஒரு மௌனமாக்கும் கருவியாகச் செயல்படுகிறது:
“நீங்கள் ஒரு பெண்ணாக இருந்தால், உங்களால் ஒரு படத்தைப் பதிவிட முடியாது, உங்களால் பேச முடியாது; மீறினால் நீங்கள் இத்தகைய துஷ்பிரயோகத்திற்கு ஆளாவீர்கள்… அவர்கள் பெண்களை உரையாடல்களில் இருந்து வெளியேற்ற முயற்சிக்கிறார்கள். நீங்கள் தைரியமாகப் பேசினால் அல்லது உங்களைப் பற்றிய ஒரு புகைப்படத்தை இணையத்தில் பதிவிட்டால், நீங்கள் இத்தகையவர்களுக்கு ஒரு எளிய இலக்காகி விடுகிறீர்கள். ஒரு பெண்ணை வாயடைக்கச் செய்யச் சிறந்த வழி அவரைத் துஷ்பிரயோகம் செய்வதுதான்”.
கலாநிதி சஞ்சன ஹத்துடுவ
6 ஜனவரி 2026