News Continuous Bureau | Mumbai
Deepfake Advisory: સોશિયલ મીડિયા પ્લેટફોર્મ પર ડીપફેક વીડિયો ( Deepfake videos ) આજકાલ ચિંતાનું કારણ છે, જેમાં કોઈ બીજાનો ચહેરો કોઈ બીજાના શરીર પર લગાવી શકાય છે. આવા વિડીયોમાંથી સત્ય અને અસત્યની તપાસ કરવી મુશ્કેલ બની રહી છે અને સરકારે આ અંગે નારાજગી વ્યક્ત કરી છે. ઈલેક્ટ્રોનિક્સ અને ઈન્ફોર્મેશન ટેક્નોલોજી મંત્રાલયે ( Ministry of Electronics and Information Technology ) એક એડવાઈઝરી ( Advisory ) જારી કરીને સોશિયલ મીડિયા પ્લેટફોર્મને ચેતવણી આપી છે.
સરકારે મંગળવારે ફેસબુક, ઇન્સ્ટાગ્રામ અને X (અગાઉનું ટ્વિટર) જેવા સોશિયલ મીડિયા પ્લેટફોર્મને ( social media platforms ) એડવાઇઝરી જારી કરીને કહ્યું કે તેઓએ હાલના આઇટી નિયમો ( IT Rules ) હેઠળ ડીપફેક વીડિયો સામે પગલાં લેવા જોઈએ. આ એડવાઈઝરીમાં કહેવામાં આવ્યું છે કે જો પ્લેટફોર્મ સમયસર આવા ફેક વીડિયોને રોકવા અને દૂર નહીં કરે તો તેમની સામે કડક કાયદાકીય કાર્યવાહી કરવામાં આવશે.
સોશિયલ મીડિયા પ્લેટફોર્મ્સે આવા વીડિયો સામે કાર્યવાહી કરવી જોઈએ…
સરકારે પ્લેટફોર્મને જણાવ્યું છે કે વર્તમાન IT નિયમોના કયા ભાગમાં આવી સામગ્રીને રોકવા માટે સૂચનાઓ આપવામાં આવી છે. IT નિયમોનો નિયમ 3(1)(b) કોઈપણના અધિકારોનું ઉલ્લંઘન કરતી કોઈપણ સામગ્રીને રોકવા માટે સૂચનાઓ આપવાનો છે. ખાનગી, અશ્લીલ કે પોર્ન કન્ટેન્ટને રોકવા માટે પણ કહેવામાં આવ્યું છે. આ ઉપરાંત, આવી સામગ્રીને પણ બંધ કરવી જોઈએ જે વપરાશકર્તાઓને ગેરમાર્ગે દોરે છે અને વ્યક્તિની ઓળખનો ઉપયોગ કરીને ખોટાને હકીકત તરીકે રજૂ કરે છે.
આ સમાચાર પણ વાંચો : Shikhar Dhawan: મને દરેક જગ્યાએથી બ્લોક કરી દેવામાં આવ્યો છે: ગબ્બરે તેના પુત્રના જન્મદિવસે લખી એક ભાવનાત્મક પોસ્ટ… કહ્યું આ.. જાણો શું છે આ મામલો..
મહિને બોલીવુડના મેગાસ્ટાર અમિતાભ બચ્ચને અભિનેત્રી રશ્મિકા મંદાનાનો ડીપફેક વિડીયો શેર કરીને આ અંગે ચિંતા વ્યક્ત કરી હતી. કેન્દ્રીય મંત્રી અશ્વિની વૈષ્ણવેતે સમયે કહ્યું હતું કે સોશિયલ મીડિયા પ્લેટફોર્મ્સે આવા વીડિયો સામે કાર્યવાહી કરવી જોઈએ અને તેને પ્લેટફોર્મ પરથી હટાવી દેવી જોઈએ. ડીપફેક વીડિયો દ્વારા બ્લેકમેલિંગ અને છેતરપિંડીના કિસ્સાઓ પણ પ્રકાશમાં આવવા લાગ્યા છે તેથી આ ચર્ચા વધુ તીવ્ર બની છે.
ડીપફેક વીડિયોમાં ખાસ ટેક્નોલોજીની મદદથી વીડિયોમાં દેખાતા વ્યક્તિનો ચહેરો બીજાના ચહેરા સાથે બદલવામાં આવે છે. આ રીતે કોઈ સેલિબ્રિટી અથવા લોકપ્રિય ચહેરાને કંઈક એવું કરતા બતાવી શકાય છે જે તેણે ક્યારેય કર્યું નથી. ડીપફેક ટેક્નોલોજી તમને કોઈ હુમલો કે ચોરી કરતી વીડિયોમાં પણ બતાવી શકે છે. ડીપફેક્સના કારણે કોઈપણ ઘટનાના પુરાવા તરીકે ગણવામાં આવતા વીડિયોની વિશ્વસનીયતા પર સવાલો ઉભા થઈ રહ્યા છે.