OpenAI Sora ເນັ້ນຢໍ້າເຖິງໄພຄຸກຄາມທີ່ນັບມື້ນັບເພີ່ມຂຶ້ນຂອງ Deepfakes

Sora ໂດຍ OpenAI ຕິດອັນດັບທໍາອິດໃນຕາຕະລາງແອັບຟຣີຂອງ App Store

(SeaPRwire) –   ເມື່ອ OpenAI ປ່ອຍແອັບສ້າງວິດີໂອ AI ຂອງຕົນຄື Sora ໃນເດືອນກັນຍາ, ມັນລະບຸວ່າ “ທ່ານສາມາດຄວບຄຸມຮູບຮ່າງໜ້າຕາຂອງຕົນເອງໄດ້ຢ່າງສົມບູນ.” ແອັບດັ່ງກ່າວອະນຸຍາດໃຫ້ຜູ້ໃຊ້ສາມາດລວມຕົວເອງ ແລະ ໝູ່ເພື່ອນເຂົ້າໃນວິດີໂອຜ່ານຄຸນສົມບັດທີ່ເອີ້ນວ່າ “cameos”—ແອັບຈະສະແກນໃບໜ້າຂອງຜູ້ໃຊ້ ແລະ ທຳການກວດສອບການມີຊີວິດ, ໃຫ້ຂໍ້ມູນເພື່ອສ້າງວິດີໂອຂອງຜູ້ໃຊ້ ແລະ ເພື່ອຢັ້ງຢືນການຍິນຍອມຂອງພວກເຂົາໃຫ້ໝູ່ເພື່ອນໃຊ້ຮູບຮ່າງໜ້າຕາຂອງພວກເຂົາໃນແອັບ.

ແຕ່ Reality Defender, ບໍລິສັດທີ່ຊ່ຽວຊານໃນການກວດຫາ deepfakes, ກ່າວວ່າມັນສາມາດທຳລາຍການປ້ອງກັນການປອມແປງຂອງ Sora ໄດ້ພາຍໃນ 24 ຊົ່ວໂມງ. ເວທີຕ່າງໆເຊັ່ນ Sora ໃຫ້ຄວາມຮູ້ສຶກປອດໄພທີ່ໜ້າເຊື່ອຖື, Ben Colman, CEO ຂອງ Reality Defender ກ່າວ, ເຖິງແມ່ນວ່າ “ໃຜກໍຕາມສາມາດໃຊ້ເຄື່ອງມືທົ່ວໄປ” ເພື່ອຜ່ານການຢັ້ງຢືນຕົວຕົນເປັນຄົນອື່ນກໍຕາມ.

ນັກຄົ້ນຄວ້າຂອງ Reality Defender ໄດ້ໃຊ້ຟຸດເທດທີ່ເປີດເຜີຍຕໍ່ສາທາລະນະຂອງບຸກຄົນທີ່ມີຊື່ສຽງ, ລວມທັງ CEO ແລະນັກບັນເທີງ, ຈາກການລາຍງານຜົນປະກອບການ ແລະການສຳພາດສື່ມວນຊົນ. ບໍລິສັດໄດ້ສຳເລັດໃນການລະເມີດມາດຕະການປ້ອງກັນດ້ວຍທຸກໆຮູບຮ່າງໜ້າຕາທີ່ພວກເຂົາພະຍາຍາມປອມແປງ. Colman ໃຫ້ເຫດຜົນວ່າ “ນັກຮຽນຊັ້ນ ມ.4 ທີ່ສະຫຼາດຄົນໃດກໍສາມາດຊອກຫາເຄື່ອງມືທີ່ບໍລິສັດຂອງລາວໃຊ້ໄດ້.”

ໂຄສົກຂອງ OpenAI ໄດ້ກ່າວໃນຖະແຫຼງການຜ່ານອີເມວເຖິງ TIME ວ່າ “ນັກຄົ້ນຄວ້າໄດ້ສ້າງລະບົບ deepfake ທີ່ຊັບຊ້ອນຂອງ CEO ແລະນັກບັນເທີງເພື່ອພະຍາຍາມຫລີກລ້ຽງການປ້ອງກັນເຫຼົ່ານັ້ນ, ແລະພວກເຮົາກຳລັງສືບຕໍ່ເສີມສ້າງ Sora ເພື່ອເຮັດໃຫ້ມັນມີຄວາມທົນທານຕໍ່ການໃຊ້ໃນທາງທີ່ຜິດປະເພດນີ້ຫຼາຍຂຶ້ນ.” 

ການປ່ອຍ Sora, ແລະການລໍ້ລວງກົນໄກການຢັ້ງຢືນຕົວຕົນຂອງມັນຢ່າງວ່ອງໄວ, ເປັນສິ່ງເຕືອນໃຈວ່າສັງຄົມຍັງບໍ່ພ້ອມສຳລັບຄື້ນໃໝ່ຂອງ deepfakes ທີ່ນັບມື້ນັບສົມຈິງ ແລະ ເປັນສ່ວນຕົວຫຼາຍຂຶ້ນ. ຊ່ອງຫວ່າງລະຫວ່າງເຕັກໂນໂລຊີທີ່ກ້າວໜ້າ ແລະ ກົດລະບຽບທີ່ລ້າຫຼັງ ເຮັດໃຫ້ບຸກຄົນຕ້ອງຫາທາງອອກດ້ວຍຕົນເອງໃນພູມສັນຖານຂໍ້ມູນທີ່ບໍ່ແນ່ນອນ—ແລະປ້ອງກັນຕົນເອງຈາກການສໍ້ໂກງ ແລະ ການລົບກວນທີ່ອາດຈະເກີດຂຶ້ນ.

“ເວທີຕ່າງໆຮູ້ດີວ່າສິ່ງນີ້ກຳລັງເກີດຂຶ້ນ, ແລະຮູ້ດີວ່າພວກເຂົາສາມາດແກ້ໄຂມັນໄດ້ຖ້າພວກເຂົາຕ້ອງການ. ແຕ່ຈົນກວ່າກົດລະບຽບຈະຕາມທັນ—ພວກເຮົາກຳລັງເຫັນສິ່ງດຽວກັນນີ້ເກີດຂຶ້ນໃນທົ່ວເວທີສື່ສັງຄົມອອນລາຍທັງໝົດ—ພວກເຂົາຈະບໍ່ເຮັດຫຍັງເລີຍ,” Colman ກ່າວ.

Sora ໄດ້ບັນລຸ 1 ລ້ານດາວໂຫຼດໃນເວລາໜ້ອຍກວ່າ 5 ວັນ—ໄວກວ່າ ChatGPT, ເຊິ່ງໃນເວລານັ້ນເປັນແອັບຜູ້ບໍລິໂພກທີ່ເຕີບໂຕໄວທີ່ສຸດ—ເຖິງແມ່ນວ່າຈະຮຽກຮ້ອງໃຫ້ຜູ້ໃຊ້ຕ້ອງມີຄຳເຊີນ, ອີງຕາມ Bill Peebles, ຫົວໜ້າ Sora ຂອງ OpenAI. ການປ່ອຍຂອງ OpenAI ແມ່ນຕາມມາດ້ວຍຂໍ້ສະເໜີທີ່ຄ້າຍຄືກັນຈາກ Meta ທີ່ເອີ້ນວ່າ Vibes, ເຊິ່ງໄດ້ຖືກລວມເຂົ້າກັບແອັບ Meta AI.

ການເຂົ້າເຖິງ deepfakes ທີ່ໜ້າເຊື່ອຖືໄດ້ງ່າຍຂຶ້ນນັບມື້ນັບຫຼາຍໄດ້ເຮັດໃຫ້ຜູ້ສັງເກດການບາງຄົນຕົກໃຈ. “ຄວາມຈິງແລ້ວຄື ການກວດຫາ [deepfakes] ດ້ວຍສາຍຕາແມ່ນກາຍເປັນສິ່ງທີ່ເກືອບເປັນໄປບໍ່ໄດ້, ເນື່ອງຈາກຄວາມກ້າວໜ້າຢ່າງວ່ອງໄວໃນຄວາມສາມາດໃນການປ່ຽນຂໍ້ຄວາມເປັນຮູບພາບ, ຂໍ້ຄວາມເປັນວິດີໂອ, ແລະການສຳເນົາສຽງ,” Jennifer Ewbank, ອະດີດຮອງຜູ້ອຳນວຍການຝ່າຍນະວັດຕະກຳດິຈິຕອລຂອງ CIA, ກ່າວໃນອີເມວເຖິງ TIME.

ຜູ້ຄວບຄຸມກົດລະບຽບໄດ້ຕໍ່ສູ້ກັບວິທີການແກ້ໄຂ deepfakes ຕັ້ງແຕ່ປີ 2019 ເປັນຕົ້ນມາ, ເມື່ອປະທານາທິບໍດີ Trump ລົງນາມໃນກົດໝາຍທີ່ຮຽກຮ້ອງໃຫ້ຜູ້ອຳນວຍການສືບລັບແຫ່ງຊາດສືບສວນການໃຊ້ deepfakes ໂດຍລັດຖະບານຕ່າງປະເທດ. ແນວໃດກໍ່ຕາມ, ເມື່ອການເຂົ້າເຖິງ deepfakes ເພີ່ມຂຶ້ນ, ຈຸດສຸມຂອງກົດໝາຍກໍໄດ້ປ່ຽນມາໃກ້ກັບພາຍໃນປະເທດຫຼາຍຂຶ້ນ. ໃນເດືອນພຶດສະພາ 2025, ກົດໝາຍ Take It Down Act ໄດ້ຖືກລົງນາມເຂົ້າເປັນກົດໝາຍລັດຖະບານກາງ, ຫ້າມການເຜີຍແຜ່ “ຮູບພາບທີ່ສະແດງອອກເຖິງຄວາມໃກ້ຊິດ” ຂອງຜູ້ເຍົາ ແລະ ຜູ້ໃຫຍ່ທີ່ບໍ່ໄດ້ຍິນຍອມ, ແລະຮຽກຮ້ອງໃຫ້ເວທີຕ່າງໆເອົາເນື້ອຫາທີ່ລະເມີດລົງພາຍໃນ 48 ຊົ່ວໂມງຂອງການຮ້ອງຂໍ—ແຕ່ການບັງຄັບໃຊ້ຈະເລີ່ມໃນເດືອນພຶດສະພາ 2026 ເທົ່ານັ້ນ.

ກົດໝາຍທີ່ຫ້າມ deepfakes ອາດຈະເປັນບັນຫາທີ່ສັບສົນ. “ມັນເປັນສິ່ງທີ່ສັບສົນຫຼາຍ, ທັງດ້ານເຕັກນິກ ແລະ ກົດໝາຍ, ເພາະວ່າມີຂໍ້ກັງວົນກ່ຽວກັບການແກ້ໄຂຄັ້ງທຳອິດກ່ຽວກັບການເອົາຄຳເວົ້າບາງຢ່າງອອກ,” Jameson Spivack, ຮອງຜູ້ອຳນວຍການນະໂຍບາຍຂອງສະຫະລັດຢູ່ Future of Privacy Forum ກ່າວ. ໃນເດືອນສິງຫາ, ຜູ້ພິພາກສາລັດຖະບານກາງໄດ້ຕັດສິນຍົກເລີກກົດໝາຍ deepfake ຂອງລັດຄາລິຟໍເນຍ, ເຊິ່ງມີຈຸດປະສົງເພື່ອຈຳກັດເນື້ອຫາ deepfake ທີ່ສ້າງໂດຍ AI ໃນລະຫວ່າງການເລືອກຕັ້ງ, ຫຼັງຈາກ X ຂອງ Elon Musk ໄດ້ຟ້ອງລັດໂດຍອ້າງວ່າກົດໝາຍດັ່ງກ່າວລະເມີດການປົກປ້ອງການແກ້ໄຂຄັ້ງທຳອິດ. ດັ່ງນັ້ນ, ຂໍ້ກຳນົດທີ່ຈະຕິດປ້າຍເນື້ອຫາທີ່ສ້າງໂດຍ AI ຈຶ່ງເປັນທີ່ນິຍົມຫຼາຍກວ່າການຫ້າມໂດຍກົງ, Spivack ກ່າວ.

ວິທີການທີ່ໜ້າສົນໃຈອີກອັນໜຶ່ງແມ່ນໃຫ້ເວທີຕ່າງໆນຳໃຊ້ລະບົບ “ຮູ້ຈັກລູກຄ້າຂອງເຈົ້າ” ທີ່ດີກວ່າ, Fred Heiding, ນັກຄົ້ນຄວ້າຈາກ Harvard University’s Defense, Emerging Technology, and Strategy Program ກ່າວ. ລະບົບ “ຮູ້ຈັກລູກຄ້າຂອງເຈົ້າ” ຮຽກຮ້ອງໃຫ້ຜູ້ໃຊ້ເວທີຕ່າງໆເຊັ່ນ Sora ເຂົ້າສູ່ລະບົບໂດຍໃຊ້ບັດປະຈຳຕົວທີ່ຖືກຢັ້ງຢືນ, ເພີ່ມຄວາມຮັບຜິດຊອບ ແລະ ອະນຸຍາດໃຫ້ເຈົ້າໜ້າທີ່ຕິດຕາມພຶດຕິກຳທີ່ຜິດກົດໝາຍໄດ້. ແຕ່ກໍມີຂໍ້ແລກປ່ຽນຢູ່ບ່ອນນີ້ເຊັ່ນກັນ. “ບັນຫາແມ່ນພວກເຮົາໃຫ້ຄຸນຄ່າແກ່ການບໍ່ເປີດເຜີຍຊື່ໃນພາກຕາເວັນຕົກ,” Heiding ກ່າວ. “ນັ້ນເປັນສິ່ງທີ່ດີ, ແຕ່ການບໍ່ເປີດເຜີຍຊື່ກໍມີຕົ້ນທຶນ, ແລະຕົ້ນທຶນນັ້ນແມ່ນສິ່ງເຫຼົ່ານີ້ຍາກທີ່ຈະບັງຄັບໃຊ້.”

ຂະນະທີ່ສະມາຊິກສະພາພວມຕໍ່ສູ້ກັບການແຜ່ລາມ ແລະ ຄວາມສົມຈິງຂອງ deepfakes ທີ່ເພີ່ມຂຶ້ນ, ບຸກຄົນ ແລະ ອົງການຕ່າງໆສາມາດດຳເນີນຂັ້ນຕອນເພື່ອປົກປ້ອງຕົນເອງ. Spivack ແນະນຳໃຫ້ໃຊ້ຊອບແວການຢັ້ງຢືນເຊັ່ນ , ທີ່ພັດທະນາໂດຍ Coalition for Content Provenance and Authenticity, ເຊິ່ງເພີ່ມ metadata ກ່ຽວກັບຕົ້ນກຳເນີດໃສ່ຮູບພາບ ແລະ ວິດີໂອ. ກ້ອງຖ່າຍຮູບຈາກ Leica ແລະ Nikon ຮອງຮັບເຄື່ອງໝາຍນໍ້າ, ເຊັ່ນດຽວກັນກັບ Adobe Photoshop. ການໃຊ້ການຢັ້ງຢືນດັ່ງກ່າວຈະເພີ່ມຄວາມໄວ້ວາງໃຈໃນຮູບພາບທີ່ແທ້ຈິງ, ແລະທຳລາຍຂອງປອມ.

ເມື່ອພູມສັນຖານຂໍ້ມູນອອນລາຍປ່ຽນແປງ, ເຮັດໃຫ້ມັນຍາກຂຶ້ນທີ່ຈະໄວ້ວາງໃຈສິ່ງທີ່ພວກເຮົາເຫັນ ແລະ ໄດ້ຍິນທາງອອນລາຍ, ສະມາຊິກສະພາ ແລະ ບຸກຄົນທົ່ວໄປຕ້ອງສ້າງຄວາມທົນທານຂອງສັງຄົມຕໍ່ສື່ປອມ. “ຍິ່ງພວກເຮົາສ້າງຄວາມທົນທານນັ້ນຫຼາຍເທົ່າໃດ, ມັນກໍຍິ່ງຍາກຂຶ້ນສຳລັບໃຜກໍຕາມທີ່ຈະຜູກຂາດຄວາມສົນໃຈຂອງພວກເຮົາ ແລະ ປັ່ນປ່ວນຄວາມໄວ້ວາງໃຈຂອງພວກເຮົາ,” Ewbank ກ່າວ.

ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.

ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ

SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.