ડીપફેક : આ ટેક્નોલોજીનાં ભયસ્થાનો બહુ ઊંડાં છે - Sandesh
  • Home
  • Supplements
  • Ardha Saptahik
  • ડીપફેક : આ ટેક્નોલોજીનાં ભયસ્થાનો બહુ ઊંડાં છે

ડીપફેક : આ ટેક્નોલોજીનાં ભયસ્થાનો બહુ ઊંડાં છે

 | 4:15 am IST
  • Share

ડીપફેક ટેક્નોલોજીની મદદથી જૂના ફેટોઝમાં દેખાતાં પાત્રોને એનિમેટ કરી શકાશે અર્થાત્આઈન્સ્ટાઈનનો ફેટો મળે તો ડીપફેક દ્વારા અઈન્સ્ટાઇનને લેક્ચર આપતા દેખાડી શકાય

  કલ્પનાઓ જુઓ :  

ર્દશ્ય 1 : અમેરિકન રાષ્ટ્રપતિ એક ઉચ્ચસ્તરીય બેઠક કરી રહ્યા છે. એમાં કોરોનાનો ફ્ેલાવો વુહાનની લેબ.માંથી જ થયો હતો, એના નક્કર પુરાવા મળ્યાની જાહેરાત થાય છે. માહોલમાં ગરમી છે. અમેરિકન રાષ્ટ્રપતિ ઊભા થઈને જાહેરાત કરે છે, ‘હવે સમય આવી ગયો છે. અમેરિકી દળો તૈયાર છે. 30 નવેમ્બર, સવારે પોણા ચાર વાગ્યે અમેરિકન વોરશિપ્સ વુહાન પર ન્યુક્લિયર મિસાઈલ દાગશે!’ 

ર્દશ્ય 2 : તમારી કૉલેજના ગ્રૂપમાં પોસ્ટ થયેલો એક પોર્ન વીડિયો જોઈને તમે ચોંકી ઊઠો છો, કેમ કે એ વીડિયોમાં દેખાતી છોકરી તો તમારા પાડોશમાં રહેતી હતી, જેને ગુજરી ગયાને પંદર વર્ષ થઇ ગયાં છે

ઉપરનાં બંને દૃશ્યો તમને વિચલિત કરે એવાં છે. પ્રથમ દૃશ્યમાં આખી દુનિયા યુદ્ધ તરફ્ ધકેલાતી હોવાનું લાગશે, જ્યારે બીજા દૃશ્યમાં વર્ષો પહેલાં ગુજરી ગયેલી કોઈક યુવતીનો પોર્ન વીડિયો કઈ રીતે બની ગયો, એ વાત તમને મૂંઝવશે. વળી સાઇબર પ્રાઈવસી કેટલી જોખમી તબક્કામાં છે, એની ચિંતા તમને ઘેરી વળશે

બંને દૃશ્યો કાલ્પનિક છે પણ એટલામાત્રથી નિશ્ચિંત થઇ જવાની જરૂર નથી, કેમ કે નજીકના ભવિષ્યમાં આવા ફેક વીડિયોઝ મોટા પાયે નુકસાન નોતરવાના છે. ભવિષ્યની આ બધી આશંકાઓ માટે જવાબદાર છે મહાખેપાની ગણાતી ‘ડીપફેક ટેક્નોલોજી‘. ઉપરના પ્રથમ કાલ્પનિક દૃશ્યમાં તમે જોયું એમ, અમેરિકી રાષ્ટ્રપ્રમુખ ઉચ્ચસ્તરીય બેઠકમાં ખરેખર ચીન પર હુમલો કરવાનો નિર્ણય લઇ લે, તોય એનો વીડિયો ઉતારીને વાઈરલ તો ન જ કરે, પરંતુ વોટ્સએપ પર આવનાર દરેક ચીજને સાચી માનનાર કરોડો લોકો જો આવો વીડિયો જુએ તો ચોક્કસપણે આખા વિશ્વમાં ખળભળાટ મચી જાય! એ જ પ્રમાણે વર્ષો પહેલાં ગુજરી ગયેલી યુવતીને બદલે કોઈ જાણીતી સ્ત્રીનો ફેક પોર્ન વીડિયો વાઈરલ થઇ જાય, તો લોકો એનેય સાચો માની લે એ દુઃખની વાત છે!

નર્વ્ઝ સિસ્ટમનું નેટવર્કન્યુરલ નેટવર્કતરીકે ઓળખાય છે. ડીપફેક ટેક્નોલોજી આર્ટિફિશિયલ નર્વ્ઝનાઓટો એન્કોડરતરીકે ઓળખાતા ન્યુરલ નેટવર્ક પર આધારિત છે. પડી સમજ? નહીંને? નો પ્રોબ્લેમ. ન્યુરલ નેટવર્કવાળી વાત જો બમ્પર ગઈ હોય તો આપણે સાદી ભાષામાં ઉદાહરણ સહિત સમજીએ. બેઝિકલી આ આખી બાબત આર્ટિફિશિયલ ઇન્ટેલિજન્સને લગતી છે. ડીપફેક એટલે કોઈ એક વ્યક્તિની કૃત્રિમ રીતે તૈયાર કરાયેલી વીડિયો ઈમેજ. કોઈ ભળતી જ વ્યક્તિની શારીરિક હલનચલનઅવાજને હાઈ એન્ડ ગ્રાફ્ક્સિની મદદથી ઓલ્ટર કરીને તમારા જેવો જ કરી નાખવામાં આવે, એને ડીપફેક કહેવાય. ભવિષ્યમાં કદાચ એવું થશે કે અમિતાભ બચ્ચનને હાયર કરવાનું પોસાતું ન હોય, એવી કંપનીઝ કોઈ સસ્તા કલાકારને હાયર કરશે. એનું વીડિયોઓડિયો શૂટિંગ કરાશે. ત્યારપછી વિશેષ કોન્ટ્રાક્ટ દ્વારા નક્કી થયેલી કાયદાકીય શરતો મુજબ અમિતાભ બચ્ચનના ચહેરા અને અવાજનું આરોપણ પેલા વીડિયોમાં કરાશે. જોનારને એવું જ લાગશે કે વીડિયોમાં ખરેખર અમિતાભ બચ્ચને જ અભિનય કર્યો છે. આ આખી પ્રોસેસ દરમિયાન અમિતાભને વગર મહેનતે પૈસા મળશે, અને પેલી કંપનીનેસસ્તાવાલા અમિતાભમળી જશે! નિષ્ણાતો માને છે કે ડીપફેકનો વપરાશ ચલણી થયા બાદ ભવિષ્યમાં ફ્લ્મિ અને એડવર્ટાઈઝિંગ ક્ષેત્રે ક્રાંતિ આવશે

ડીપફેક ટેક્નોલોજીની મદદથી જૂના ફેટોઝમાં દેખાતાં પાત્રોને પણ એનિમેટ કરી શકાશે. અર્થાત્, આલ્બર્ટ આઈન્સ્ટાઈનનો સારો ફેટો મળી જાય તો ડીપફેકની મદદ વડે તમે અઈન્સ્ટાઇન સરને લેક્ચર આપતા દેખાડી શકો. કદાચ ભવિષ્યની કૉલેજમાં આ રીતનો ઉપયોગ કરીને આઈન્સ્ટાઇન, આર્કિમિડીઝ કે ન્યૂટનનાં લેક્ચર્સ ગોઠવાય તો નવાઈ નહીં! જોકે ડીપફેકનાં જોખમો પણ અપાર છે. શરૂઆતમાં જણાવ્યું એમ, પોર્ન વીડિયોઝ બનાવવા માટે પણ આ ટેક્નોલોજીનો ધમધોકાર ઉપયોગ થઇ રહ્યો છે. હોલિવૂડ અને બોલિવૂડની અનેક હિરોઇન્સના આ પ્રકારના વીડિયોઝ બની ચૂક્યા છે. એક અંદાજ મુજબ ડીપફેક ટેક્નોલોજીનો 96% વપરાશ પોર્ન ઇન્ડસ્ટ્રીમાં થાય છે! એનો પોલિટિકલ મિસયુઝ કઈ હદે થઇ શકે એની કલ્પના પણ ધ્રુજાવનારી છે

જેમ જેમ ટેક્નોલોજીમાં સુધારો થતો જાય છે, તેમ તેમ ડીપફેકથી બનેલા વીડિયોઝને ઓળખવા દુષ્કર બનતા જાય છે. તેમ છતાં અમુક લક્ષણોને આધારે નિષ્ણાતો ઓળખી કાઢે છે કે કયો વીડિયો ઓરિજિનલ છે અને કયો ડીપફેક ટેક્નોલોજી દ્વારા બનાવાયેલો  ફેક વીડિયો છે!  ફેક વીડિયોઝની ઓળખમાં આંખની પાંપણ બહુ અગત્યનો ભાગ ભજવે છે. કોઈ વ્યક્તિના ફેટો ઉપરથી વીડિયો બનાવો, ત્યારે ફેટોમાં એ વ્યક્તિની પાંપણ સ્વાભાવિક રીતે જ ખુલ્લી હોવાની, પરંતુ વીડિયો બનાવતી વખતે જેતે વ્યક્તિની પાંપણ પટપટે એ જરૂરી ગણાય. પણ ટેક્નોલોજી હજી એવા એડવાન્સ લેવલે નથી પહોંચી કે કુદરતી રીતે ખોલબંધ થતી પાંપણને અદ્દલોઅદ્દલ રજૂ કરી શકે. ડીપફેક વીડિયોનું કેરેક્ટર પાંપણ પટપટાવે એટલે જોનારને ખ્યાલ આવી જાય કે આખો વીડિયો કમ્પ્યૂટર જનરેટેડ છે. આ સિવાય દાંત, વાળ અને જેતે પાત્રએ પહેરેલા દાગીનાને કારણે પણ ફેક વીડિયો પરખાઈ જાય છે. જોકે ખાટલે મોટી ખોડ એ છે કે ટેક્નોલોજી એડવાન્સ થતી જાય છે, તેમ તેમ ફેક વીડિયો પણ વધુ ને વધુરિયલટચ મેળવતા જાય છે! ભવિષ્યમાં વાળની કે દાંતની નાનામાં નાની ડિટેલ પણ એટલી ચોકસાઈથી રેન્ડર થશે કે રિયલ અને ફેક વચ્ચેની ભેદરેખા અતિશય ધૂંધળી બની જશે! અત્યારે તો આ બધું જાણ્યા બાદ આપણી પ્રાઈવસીની સુરક્ષા ધૂંધળી થતી જતી હોય એવું લાગે છે.

નીચે આપેલી લિંક્સ પર ક્લિક કરીને સંદેશ ન્યૂઝ સાથે જોડાઓ.

તમે અમને પર ફોલો કરીને સમાચાર મેળવી શકો છો.

તમારા ફોન પર લેટેસ્ટ ન્યૂઝ અપડેટ્સ સૌથી પહેલા મેળવવા માટે હમણાં જ Sandesh ની મોબાઇલ એપ્લિકેશન ડાઉનલોડ કરો