அன்பை பகிர்வோம்,அன்பால் இணைவோம்

16 November 2023

பெண்களே நீங்கள் மிக எச்சரிக்கையாக இருக்க வேண்டிய தருணம்



Deepfake காணொளிகள் இந்தியா முழுக்க சர்ச்சையை ஏற்படுத்தியுள்ளது.

Deepfake


ஒருவரின் முகத்தை செயற்கை நுண்ணறிவு தொழில்நுட்பம் மூலம் போலியாக மாற்றும் தொழில்நுட்பம் Deepfake என்று அழைக்கப்படுகிறது.

முன்பு Photoshop தொழில்நுட்பத்தால் இது போலச் செய்யப்பட்டது ஆனால், அதை விடப் பல மடங்கு துல்லியமாகச் செயற்கை நுண்ணறிவின் மூலம் செய்ய முடியும்.

எனவே தான் இதன் மூலம் வரும், நிழற்படங்கள், காணொளிகள் உண்மையானது போலவே உள்ளது.
எப்படி உருவாக்குகிறார்கள்?


எப்படி Photoshop தொழில்நுட்பத்தில் மாற்றுகிறார்களோ அதே போல, Deepfake லும் செய்யப்படுகிறது. Photoshop சாதாரணமானது ஆனால், Deepfake செயற்கை நுண்ணறிவுடன் உருவாக்கப்படுவது.

செயற்கை நுண்ணறிவு (Artificial Intelligence) எப்படி வித்தியாசப்படுகிறது என்றால், கிடைக்கும் ஏராளமான தகவல்களை வைத்தே.பிரபலங்களின் நிழற்படங்கள், காணொளிகள் இணையத்தில் கொட்டிக்கிடப்பதால், அவற்றை அடிப்படையாக வைத்து உருவாக்கப்படுகிறது.


எந்த ஒரு உணர்வுக்கும் காணொளிகள், நிழற்படங்கள் இருப்பதால், அவற்றை வைத்துத் துல்லியமாக முகத்தை, உணர்வுகளைக் கொண்டுவர முடிகிறது.

இதன் அடிப்படையிலேயே ட்ரம்ப், ராஷ்மிகா காணொளிகள் வைரலானது.ஒருவருடைய நிழற்படங்கள், காணொளிகள் அதிகம் கிடைக்கிறது என்றால், இது போன்ற Deepfake காணொளிகளைத் துல்லியமாக உருவாக்க முடியும்.


Deepfake காணொளிகளில் வரும் கண்கள் சிமிட்டாது என்பதை வைத்துப் போலி என்று அடையாளம் காணலாம் ஆனால், எதிர்காலத்தில் இதையும் வளரும் தொழில்நுட்பத்தில் சரி செய்து விடுவார்கள்.
ஆபத்து நிறைந்தது


யாருக்கோ நடந்தது என்று எளிதாகக் கடக்க முடியாது காரணம், நமக்கே, நம் குடும்பத்தினருக்கே இது போன்று நடக்க ஏராளமான வாய்ப்புகள்.

தங்களுக்குப் பிடிக்காத ஒரு நபரை இத்தொழில்நுட்பம் மூலம் எளிதாக அவமானப்படுத்திவிட முடியும். இது உண்மையா பொய்யா என்று உணர்வதற்குள் போதுமான சேதம் ஆகியிருக்கும்.

இது நானில்லை என்று விளக்கம் கொடுத்து அது மற்றவர்களைச் சென்றடைவதற்குள் பொய் வேகமாக அனைவரிடையே சென்றடைந்து இருக்கும்.

தற்காலத்தில் ஆண்களும், பெண்களும் குறிப்பாகப் பெண்கள் Reels, இன்ஸ்டாகிராம், Shorts போன்றவற்றில் எல்லை மீறிய காணொளிகளைப் பகிர்ந்து வருகிறார்கள்.

இதை வைத்து எளிதாக Deepfake செய்து விட முடியும்.இவர்கள் அல்லாமல், லைக்ஸ் ஆர்வத்துக்காக தங்கள் நிழற்படங்களை, காணொளிகளை ஏராளமாகச் சமூகத்தளங்களில் பகிரும் பெண்கள் மிக எச்சரிக்கையாக இருக்க வேண்டிய தருணம்.


இவர்கள் சொல்லித் திருந்த மாட்டார்கள் காரணம், லைக்ஸ் போதைக்கு அடிமையாகி விட்டார்கள். எனவே, பட்டுத்திருந்தினால் தான் உண்டு.

திரைப்பட காட்சிகளை மீண்டும் எடுக்காமல், செலவைக் குறைத்து வேறு மொழிகளில் கொண்டு வரப் பயன்பட்ட தொழில்நுட்பம் தற்போது மற்றவர்களின் தனிப்பட்ட வாழக்கையில் விளையாடி வருகிறது.
குரல் மாற்றம்


முகம் மட்டுமல்லாது குரலையும் Deepfake மூலம் மாற்றம் செய்ய முடியும்.

முருகன் பாடலை மோடி பாடுவது உட்படப் பல பாடல்கள் இன்ஸ்டாகிராமில் ட்ரெண்டிங்காக இருந்தது. மோடி பேசுவது, பாடுவது போலவே இருந்தது.

மோடி தமிழ் பேசினால் எப்படிப் பேசுவாரோ அதே போல உருவாக்கப்பட்டு இருந்தது.

இவையெல்லாம் மீம்ஸாக வந்து நகைச்சுவையாக இருந்தாலும், இதே முறையில் மொபைலில் போலி முகம், குரல் மூலம் ஏமாற்றுவதும் நடைபெறுகிறது.

அதாவது, உங்களுக்குத் தெரிந்த நபர் போல Video Call ல் வந்து அவசரமாகப் பணம் தேவைப்படுவதாகக் கூறினால், ஏமாந்து கொடுத்து விட வாய்ப்பாகியுள்ளது.

எனவே, யாரை, எதை நம்புவது என்றே தெரியவில்லை.
தவிர்க்க முடியாதது


வளரும் தொழில்நுட்பம் பல நன்மைகளை, வசதிகளைக் கொண்டு வந்தாலும், இது போன்ற ஆபத்துகளையும், சிக்கல்களையும் உடன் கொண்டு வருகிறது.

எனவே, இவையெல்லாம் தவிர்க்க முடியாத பிரச்சனைகள். எச்சரிக்கையாக இருப்பதைத் தவிர வேறு வாய்ப்புக் கிடையாது.

தவறு செய்தவர்களும் கூட Deepfake என்று கூறி தப்பித்து விட வாய்ப்புள்ளது குறிப்பாக அரசியல்வாதிகள்.

பிடிக்கிறதோ இல்லையோ, எதிர்காலத்தில் இப்பிரச்சனைகளைக் கடந்து செல்லாமல் ஒதுங்க முடியாது. எச்சரிக்கை மட்டுமே ஒரே வழி...

No comments:

Post a Comment

நண்பனிடம் சொல்லுங்க,,,,,,,,,
பிடிச்சிருந்தாலும்....இல்லை என்றாலும் ;)