Tech

ઈમરાન ખાન: જુઓ: પાકિસ્તાનના નેતા ઈમરાન ખાને આ ‘વિજય ભાષણ’ આપવા માટે કેવી રીતે AI નો ઉપયોગ કર્યો |


પાકિસ્તાનના ભૂતપૂર્વ વડા પ્રધાન ઈમરાન ખાનહાલમાં તેમના સમર્થકો રાજકીય રીતે પ્રેરિત હોવાના આરોપસર જેલમાં છે, એ પહોંચાડવા માટે દેખાયા હતા વિજય ભાષણ દેશની સામાન્ય ચૂંટણીમાં તેમની પાર્ટીએ સૌથી વધુ બેઠકો જીત્યા બાદ શનિવારે રાત્રે. પરંતુ ખાને ભાષણ આપ્યું ન હતું – એન કૃત્રિમ બુદ્ધિ તેના અવાજની નકલ કરી.
ધ ન્યૂ યોર્ક ટાઈમ્સ અનુસાર, ખાનની પાકિસ્તાન તહરીક-એ-ઈન્સાફ (પીટીઆઈ) પાર્ટીએ તેનો ઉપયોગ કરીને વીડિયો બનાવ્યો છે AI જેલમાંથી પસાર થયેલી નોંધોના આધારે ખાનના અવાજનું અનુકરણ કરવા માટે. વિડિયોમાં ખાન અને તેમના સમર્થકોની તસવીરો બતાવવામાં આવી છે જેમાં તેમના અવાજના ઑડિયો સાથે વિજયની ઘોષણા કરવામાં આવી છે અને વિરોધીઓ દ્વારા ચૂંટણીમાં છેતરપિંડીનો આરોપ લગાવવામાં આવ્યો છે જ્યારે AI સાથે બનાવેલ ડિસ્ક્લેમર પ્રદર્શિત કરવામાં આવ્યું છે.

રાષ્ટ્ર તરફથી અભૂતપૂર્વ લડત બાદ અધ્યક્ષ ઈમરાન ખાનનું વિજય ભાષણ (AI સંસ્કરણ).

નિષ્ણાતોએ જણાવ્યું હતું કે આ વાણીના દમનને રોકવા માટે AI નો ઉપયોગ કરવાની ક્ષમતા અને ટેક્નોલોજીની ગેરમાર્ગે દોરવાની ક્ષમતા બંને દર્શાવે છે. પાકિસ્તાનના સૈન્ય નેતાઓ દ્વારા તેમના પર સેન્સર કરવાના પ્રયાસો છતાં ખાને સમગ્ર ચૂંટણી દરમિયાન સમર્થકોને ભેગા કર્યા છે, જેલમાં ઓનલાઈન પ્લેટફોર્મ અને હવે એઆઈનો ઉપયોગ કરીને તેમનો સંદેશો બહાર પાડ્યો છે.
“આ કિસ્સામાં, તે એક સારા અંત માટે છે, કદાચ અમે એવા અંતને સમર્થન આપીશું – જે કોઈ ભ્રષ્ટાચારના આરોપમાં બંધ છે જે તેના સમર્થકો સાથે વાત કરી શકશે,” એઆઈ નિષ્ણાત ટોબી વોલ્શે જણાવ્યું હતું, જેમ કે ધ ન્યૂમાં ટાંકવામાં આવ્યું છે. યોર્ક ટાઇમ્સ. “પરંતુ તે જ સમયે, તે આપણે જે જોઈએ છીએ અને સાંભળીએ છીએ તેમાંની આપણી માન્યતાને નબળી પાડે છે.”
AI વિડિયોએ ખાન માટે ટેક-કેન્દ્રિત ચૂંટણી વ્યૂહરચના કેપ કરી હતી, કારણ કે તેને પોતાને ચલાવવાથી પ્રતિબંધિત કરવામાં આવ્યો હતો. તેમની પાર્ટીએ સેન્સરશિપ હોવા છતાં ઓનલાઈન રેલીઓ યોજી અને સોશિયલ મીડિયાનો ઉપયોગ કર્યો.
ખાનના અવાજની નકલ કરવા માટે AI નો ઉપયોગ દક્ષિણ કોરિયાના રાષ્ટ્રપતિ યૂન સુક યેઓલના અભિયાનમાં પ્રચાર હેતુઓ માટે AI અવતાર બનાવવા જેવા ઉદાહરણો પર આધારિત છે, જેમ કે ધ ન્યૂ યોર્ક ટાઈમ્સમાં જણાવવામાં આવ્યું છે. ગયા અઠવાડિયે, AI નો ઉપયોગ કરીને ન્યૂ હેમ્પશાયરમાં દેખીતા મતદાર દમન રોબોકોલમાં યુએસ પ્રમુખ બિડેનના અવાજની નકલ કરવામાં આવી હતી, ત્યારબાદ FCC એ રોબોકોલમાં AI-જનરેટેડ અવાજ પર પ્રતિબંધ મૂક્યો હતો.
AI ટેક્નોલોજીના ઉપયોગે તેની વિશ્વસનીયતા અંગે કેટલીક ચિંતાઓ ઊભી કરી છે. હવે એઆઈનો ઉપયોગ કરીને નકલી વીડિયો બનાવવાનું શક્ય છે જે સંભવિત રીતે રાજકારણીઓને એવી વસ્તુઓ કહેતા અથવા ખોટી ઘોષણાઓ કરતા બતાવી શકે છે. ચિંતાની વાત એ છે કે દર્શકોને કદાચ ખ્યાલ નહીં આવે કે વિડિયો નકલી છે, ભલે તેઓને AI-જનરેટેડ તરીકે લેબલ કરવામાં આવે.

Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button