JERUSALEM – Sa nakalipas na dalawang linggo, mula nang Palestinian terrorist group na Hamas ay nag-atake sa timog Israel na nagtamo ng humigit-kumulang 1,400 katao at Israel, may takot na isang bagong harapan sa lumang digmaan sa pagitan ng mga Israeli at Palestinian ay maaaring mabuksan – sa digital realm.
Habang nadoktrinang mga imahe at pekeng balita ay matagal nang bahagi ng arsenal sa panahon ng giyera sa Gitnang Silangan, sa pagdating ng mas mabilis na magagamit na artificial intelligence (AI) generative tools mukhang malamang na makikita na rin ang deepfake visuals sa harapan ng giyera.
“Ang Hamas at iba pang Palestinian factions ay nakapasa na ng mga nakapanlait na imahe mula sa iba pang mga alitan bilang kung sila ay biktima ng Palestinian ng mga Israeli assaults, kaya ito ay hindi isang bagay na natatangi sa theater ng mga operasyon na ito,” ayon kay David May, isang research manager sa Foundation for Defense of Democracies, sa Digital.
Inilalarawan niya kung paano sa nakaraan, alam ng Hamas na panghambalos ang mga mamamahayag upang huwag iulat tungkol sa paggamit nito ng mga human shields sa Palestinian enclave, pati na rin ang pagpapalabas ng mga imahe ng mga batang sanggol at mga teddy bear na nakabalot sa mga labi.
“Ang Hamas ay kontrolado ang kuwento sa Gaza Strip,” ayon kay May, na sinusundan nang malapitan ang mga gawain ng Hamas, at idinagdag na “ang AI-generated images ay lalo pang kokomplicado sa Israeli-Palestinian conflict na may maraming disimpormasyon na.”
May mga ulat na may ilang mga imahe na muling inilabas mula sa iba’t ibang mga alitan, at nakaraang linggo, isang nakapanlait na larawan ng isang umiyak na sanggol na naglalakad sa mga labi sa Gaza ay inilabas na isang paglikha ng AI.
“Tinatawag ko itong upgraded na pekeng balita,” ayon kay Dr. Tal Pavel, tagapagtatag at direktor ng CyBureau, isang Israeli-based na instituto para sa pag-aaral ng cyber policy, sa Digital. “Alam na natin ang terminong pekeng balita, na karaniwang mga visual o nakasulat na nilalaman na binago o nilagay sa isang maling konteksto. Ang AI, o deepfake, ay kapag kinuha natin ang mga imahe at binuhay ito sa mga video clips.”
Tinawag ni Pavel ang paglitaw ng AI-generated na deepfake visuals bilang “isa sa pinakamalalaking banta sa demokrasya.”
“Hindi lamang sa panahon ng giyera kundi pati sa iba pang panahon dahil lumalabo at lumalabo ang patunay kung ano ang totoo o hindi,” aniya.
Sa araw-araw na buhay, binanggit ni Pavel, may mga kaso na ng deepfake disimpormasyon na lumitaw na. Tinutukoy niya ang paggamit nito ng mga kriminal na sindikato sa pagpasok ng fraud gamit ang boses na nagbabago ng teknolohiya o sa panahon ng mga kampanya sa halalan kung saan binabago ang pananaw ng publiko gamit ang mga binagong video at boses.
Sa giyera, idinagdag niya, maaari itong maging mas delikado.
“Itinuturing ko itong bago at walang karanasang pekeng balita,” ani Dr. Tal Pavel, tagapagtatag at direktor ng CyBureau, isang Israeli-based na instituto para sa pag-aaral ng cyber policy, sa Digital. “Alam na natin ang terminong pekeng balita, na karaniwang mga visual o nakasulat na nilalaman na binago o nilagay sa isang maling konteksto. Ang AI, o deepfake, ay kapag kinuha natin ang mga imahe at binuhay ito sa mga video clips.”
Tinawag ni Pavel ang paglitaw ng AI-generated na deepfake visuals bilang “isa sa pinakamalalaking banta sa demokrasya.”
“Hindi lamang sa panahon ng giyera kundi pati sa iba pang panahon dahil lumalabo at lumalabo ang patunay kung ano ang totoo o hindi,” aniya.
Sa araw-araw na buhay, binanggit ni Pavel, may mga kaso na ng deepfake disimpormasyon na lumitaw na. Tinutukoy niya ang paggamit nito ng mga kriminal na sindikato sa pagpasok ng fraud gamit ang boses na nagbabago ng teknolohiya o sa panahon ng mga kampanya sa halalan kung saan binabago ang pananaw ng publiko gamit ang mga binagong video at boses.
Sa giyera, idinagdag niya, maaari itong maging mas delikado.
“Itinuturing ko itong bago at walang karanasang pekeng balita,” ani Dr. Tal Pavel, tagapagtatag at direktor ng CyBureau, isang Israeli-based na instituto para sa pag-aaral ng cyber policy, sa Digital. “Alam na natin ang terminong pekeng balita, na karaniwang mga visual o nakasulat na nilalaman na binago o nilagay sa isang maling konteksto. Ang AI, o deepfake, ay kapag kinuha natin ang mga imahe at binuhay ito sa mga video clips.”
Nagamit na rin ito sa patuloy na giyera sa Ukraine ayon kay Ivana Stradner, isa pang research fellow sa Foundation for Defense of Democracies na nag-espesyalisa sa arena ng Ukraine-Russia.
Noong Marso ng nakaraang taon, isang peke at labis na binagong video ni Pangulong Volodymyr Zelenskyy na nagpapakita ng paghikayat sa kaniyang mga sundalo na ibaba ang kanilang mga sandata at sumuko sa Russia ay ipinaskil sa social media at inilabas ng Ukrainian news. Matapos malaman na peke ito, agad na tinanggal ang video.
“Ang mga deepfake videos ay maaaring maging totoo at kung mabuti itong ginawa, mahirap makilala,” ani Stradner, at idinagdag na ang mga app na pag-iimbak ng boses ay madaling makuha at ang totoong mga larawan ay madaling ninakaw, binago at ginamit muli.
Sa loob ng Gaza, mas mahirap intindihin ang arena. Walang halos kilalang mapagkakatiwalaang mamamahayag sa kasalukuyan – ang Hamas ay winasak ang pangunahing daan ng tao papasok sa Palestinian enclave noong Oktubre 7 attack at ang foreign press ay hindi pa makapasok – ang paghihiwalay ng totoo mula sa peke ay mas hamon na, gamit ang madaling gamitin na mga platform ng AI na maaaring maging mas mahirap pa.
Ngunit ayon kay Dr. Yedid Hoshen, na nag-aaral tungkol sa deepfakes at mga paraan ng pagkakakilanlan, sa Hebrew University of Jerusalem, ang mga teknik na ito ay hindi perpekto pa rin.
“Ang paglikha ng mga imahe sa sarili nito ay hindi mahirap, maraming teknik na available doon at sinumang makatuwirang marunong ay maaaring lumikha ng mga imahe o video ngunit kapag tinutukoy natin ang mga deepfakes, tinutukoy natin ang mga nagbabagong mukha o pagpapalit ng mukha. Ang mga uri ng pekeng imahe ay mas mahirap gawin at para sa isang alitan tulad nito, kailangan gawin ito sa Hebrew o Arabic kapag karamihan ng teknolohiya ay nasa Ingles pa rin.”
Bukod pa rito, ayon kay Hoshen, may mga palatandaan pa rin na nagtatangi ang mga visual na AI mula sa totoo.
“Nanatiling medyo mahirap na gawin ang mga visual na sumasabay sa audio, na maaaring hindi makita ng mata ng tao ngunit maaaring makilala gamit ang awtomatikong paraan,” aniya, at idinagdag, “ang mga maliliit na detalye tulad ng mga kamay, daliri o buhok ay hindi palagi lumilitaw na totoo.”
“Kung mukhang hindi kapani-paniwala ang imahe ay maaaring ito ay peke,” ani Hoshen. “Marami pa ring mali ang nagagawa ng AI.”