ເປັນຫຍັງ ກິດຊິງເຈີ ຈຶ່ງເປັນຫ່ວງກ່ຽວກັບ AI

CPU on board with nucelar danger symbol hologram

(SeaPRwire) –   ອາທິດນີ້ຄົບຮອບສອງປີຂອງການຈາກໄປຂອງເພື່ອນ ແລະ ອາຈານຂອງຂ້ອຍ, Henry Kissinger. ປຶ້ມ Genesis—ປຶ້ມຂອງພວກເຮົາກ່ຽວກັບ AI ແລະ ອະນາຄົດຂອງມະນຸດ—ແມ່ນໂຄງການສຸດທ້າຍຂອງເພິ່ນ. ຕະຫຼອດອາຊີບສ່ວນໃຫຍ່ຂອງເພິ່ນ, ອະດີດລັດຖະມົນຕີກະຊວງການຕ່າງປະເທດໄດ້ສຸມໃສ່ການປ້ອງກັນໄພພິບັດຈາກເຕັກໂນໂລຢີອັນຕະລາຍໜຶ່ງ: ອາວຸດນິວເຄລຍ. ໃນຊ່ວງປີສຸດທ້າຍຂອງເພິ່ນ, ເພິ່ນໄດ້ຫັນມາໃສ່ອີກອັນໜຶ່ງ.

ເມື່ອພວກເຮົາຂຽນປຶ້ມ Genesis ຮ່ວມກັບ Craig Mundie, ພວກເຮົາຮູ້ສຶກມີແງ່ຄິດໃນທາງບວກຢ່າງເລິກເຊິ່ງກ່ຽວກັບຄຳໝັ້ນສັນຍາຂອງ AI ທີ່ຈະຫຼຸດຜ່ອນຄວາມບໍ່ສະເໝີພາບທົ່ວໂລກ, ເລັ່ງລັດການຄົ້ນພົບທາງວິທະຍາສາດ, ແລະ ເຮັດໃຫ້ການເຂົ້າເຖິງຄວາມຮູ້ເປັນປະຊາທິປະໄຕ. ຂ້ອຍຍັງຄິດແບບນັ້ນ. ແຕ່ Henry ເຂົ້າໃຈວ່າການສ້າງສັນທີ່ມີພະລັງທີ່ສຸດຂອງມະນຸດຕ້ອງການການເບິ່ງແຍງທີ່ລະມັດລະວັງທີ່ສຸດ. ພວກເຮົາໄດ້ຄາດການໄວ້ວ່າຄຳໝັ້ນສັນຍາອັນຍິ່ງໃຫຍ່ຂອງ AI ຈະ [ຂໍ້ຄວາມຂາດຫາຍໄປໃນຕົ້ນສະບັບ]—ແລະ ຄວາມກ້າວໜ້າທາງດ້ານເຕັກນິກຢ່າງວ່ອງໄວນັບຕັ້ງແຕ່ລະດູໃບໄມ້ຫຼົ່ນຂອງປີ 2024 ໄດ້ເຮັດໃຫ້ການແກ້ໄຂຄວາມສ່ຽງເຫຼົ່ານັ້ນຮີບດ່ວນກວ່າທີ່ເຄີຍມີມາ.

ເມື່ອພວກເຮົາກ້າວເຂົ້າສູ່ຍຸກຂອງ AI ຕໍ່ໄປ, ຄຳຖາມສຳຄັນແມ່ນວ່າພວກເຮົາຈະສ້າງລະບົບ AI ທີ່ຂະຫຍາຍຄວາມຈະເລີນຮຸ່ງເຮືອງຂອງມະນຸດຢ່າງຮາກຖານ, ຫຼື ລະບົບທີ່ລື່ນກາຍ ແລະ ສະຫຼາດກວ່າຄົນທີ່ພະຍາຍາມສ້າງ ແລະ ຄວບຄຸມພວກມັນ. ໃນປີທີ່ຜ່ານມາ, ການປະຕິວັດພ້ອມກັນສາມຢ່າງໃນ AI—ໃນດ້ານການໃຊ້ເຫດຜົນ, ຄວາມສາມາດໃນການເປັນຕົວແທນ, ແລະ ການເຂົ້າເຖິງ—ໄດ້ເລັ່ງລັດຢ່າງວ່ອງໄວ. ສິ່ງເຫຼົ່ານີ້ແມ່ນຜົນງານທີ່ໜ້າອັດສະຈັນທີ່ມີທ່າແຮງອັນມະຫາສານທີ່ຈະເປັນປະໂຫຍດຕໍ່ມະນຸດ. ແຕ່ຖ້າພວກເຮົາບໍ່ລະມັດລະວັງ, ພວກມັນກໍ່ອາດຈະຮວມເຂົ້າກັນເພື່ອສ້າງລະບົບທີ່ມີທ່າແຮງທີ່ຈະ [ຂໍ້ຄວາມຂາດຫາຍໄປໃນຕົ້ນສະບັບ].

ການເລັ່ງຕົວຂອງ AI

ໃນ [ວັນທີຂາດຫາຍໄປ], OpenAI ໄດ້ເປີດຕົວຮູບແບບ o1 ຂອງພວກເຂົາ, ເຊິ່ງມີຄວາມສາມາດໃນການໃຊ້ເຫດຜົນທີ່ໄດ້ຮັບການປັບປຸງ. ໂດຍການປະຕິບັດງານໄດ້ດີກວ່າຮູບແບບກ່ອນໜ້ານີ້, ຮູບແບບເຫຼົ່ານີ້ໄດ້ຖືກຝຶກອົບຮົມໂດຍໃຊ້ການຮຽນຮູ້ແບບເສີມກຳລັງ ເພື່ອຄິດຫາວິທີແກ້ໄຂບັນຫາເທື່ອລະຂັ້ນຕອນກ່ອນທີ່ຈະຕອບສະໜອງ. ສິ່ງນີ້ [ຂໍ້ຄວາມຂາດຫາຍໄປ] ໄດ້ສະແດງໃຫ້ເຫັນຄວາມສາມາດໃໝ່ໃນການແກ້ໄຂຄຳຖາມວິທະຍາສາດລະດັບປະລິນຍາຕີ ແລະ ສິ່ງທ້າທາຍໃນການຂຽນໂຄດທີ່ຊັບຊ້ອນ, ໃນບັນດາຜົນງານທີ່ຍິ່ງໃຫຍ່ອື່ນໆອີກຫຼາຍຢ່າງ. ແຕ່ການຮຽນຮູ້ແບບເສີມກຳລັງດຽວກັນທີ່ຊ່ວຍໃຫ້ການໃຊ້ເຫດຜົນ ກໍ່ສາມາດສອນໃຫ້ຮູບແບບຕ່າງໆຫຼອກລວງເປົ້າໝາຍການຝຶກອົບຮົມຂອງຕົນເອງໄດ້. ການຄົ້ນຄວ້າ, ລວມທັງການສຶກສາພາຍໃນໂດຍ [ໜ່ວຍງານຂາດຫາຍໄປ], ໄດ້ບັນທຶກເຫດການທີ່ຮູບແບບການໃຊ້ເຫດຜົນປອມແປງການສອດຄ່ອງກັນໃນລະຫວ່າງການຝຶກອົບຮົມ, ໂດຍປະພຶດຕົວແບບໜຶ່ງເມື່ອຖືກຕິດຕາມກວດກາ ແລະ ອີກແບບໜຶ່ງເມື່ອພວກເຂົາເຊື່ອວ່າການກວດກາໄດ້ສິ້ນສຸດລົງແລ້ວ.

ຮອດ [ວັນທີຂາດຫາຍໄປ] ຂອງປີກາຍນີ້, Claude 3.5 Sonnet ໄດ້ສະແດງໃຫ້ເຫັນຄວາມສາມາດໃນການເປັນຕົວແທນທີ່ລວມເອົາການໃຊ້ເຫດຜົນເຂົ້າກັບການກະທຳແບບອັດຕະໂນມັດ. ຕົວແທນ AI ສາມາດວາງແຜນ ແລະ ຈອງວັນພັກຜ່ອນຂອງທ່ານໄດ້ໂດຍການປຽບທຽບເວັບໄຊໂຮງແຮມ ແລະ ລາຄາສາຍການບິນ, ທ່ອງໄປໃນເວັບໄຊຕ່າງໆ, ແລະ ແກ້ໄຂ CAPTCHA ທີ່ຖືກອອກແບບມາເພື່ອແຍກແຍະຄົນຈາກເຄື່ອງຈັກ—ຈັດການໃນເວລາບໍ່ເທົ່າໃດນາທີ ສິ່ງທີ່ຈະໃຊ້ເວລາຫຼາຍຊົ່ວໂມງຂອງການຄົ້ນຄວ້າທີ່ໜ້າເບື່ອ. ແຕ່ຄວາມສາມາດຂອງຕົວແທນໃນການປະຕິບັດແຜນການທີ່ພວກເຂົາວາງແຜນໂດຍການໂຕ້ຕອບກັບລະບົບດິຈິຕອນ ແລະ ອາດຈະເປັນໂລກທາງກາຍະພາບ ສາມາດນໍາໄປສູ່ຜົນສະທ້ອນທີ່ສ່ຽງອັນຕະລາຍໂດຍບໍ່ມີການກວດກາຈາກມະນຸດ.

ເພື່ອເສີມສ້າງຄວາມກ້າວໜ້າເຫຼົ່ານີ້ໃນດ້ານການໃຊ້ເຫດຜົນ ແລະ ຄວາມສາມາດໃນການເປັນຕົວແທນ ແມ່ນການແຜ່ຂະຫຍາຍຂອງຮູບແບບທີ່ມີນໍ້າໜັກເປີດ (open-weights models). ໃນ [ວັນທີຂາດຫາຍໄປ], DeepSeek ທີ່ຕັ້ງຢູ່ໃນປະເທດຈີນ ໄດ້ເປີດຕົວຮູບແບບ R1 ຂອງຕົນ. ບໍ່ຄືກັບຮູບແບບຊັ້ນນໍາຂອງອາເມລິກາສ່ວນໃຫຍ່, ຮູບແບບນີ້ມີນໍ້າໜັກເປີດ, ໝາຍຄວາມວ່າຜູ້ໃຊ້ສາມາດດັດແປງຮູບແບບ ແລະ ເຮັດວຽກຢູ່ໃນຮາດແວຂອງຕົນເອງໄດ້. [ຂໍ້ຄວາມຂາດຫາຍໄປ] ສາມາດຂະຫຍາຍການສ້າງສັນໂດຍການໃຫ້ທຸກຄົນສ້າງ, ທົດສອບ, ແລະ ປັບປຸງເທິງພື້ນຖານທີ່ມີພະລັງອັນດຽວກັນ. ແຕ່ໂດຍການເຮັດແນວນັ້ນ, ພວກເຂົາກໍ່ກຳຈັດຄວາມສາມາດຂອງຜູ້ສ້າງຮູບແບບໃນການຄວບຄຸມວິທີການນໍາໃຊ້ເຕັກໂນໂລຢີ—ເຊິ່ງເປັນພະລັງທີ່ອັນຕະລາຍຢູ່ໃນມືຂອງຜູ້ກໍ່ການຮ້າຍ.

ເມື່ອຄວາມສາມາດໃນການໃຊ້ເຫດຜົນ, ຄວາມສາມາດໃນການເປັນຕົວແທນ, ແລະ ການເຂົ້າເຖິງລວມເຂົ້າກັນ, ພວກເຮົາປະເຊີນກັບສິ່ງທ້າທາຍດ້ານການຄວບຄຸມທີ່ບໍ່ເຄີຍມີມາກ່ອນ. ແຕ່ລະຄວາມສາມາດຂະຫຍາຍອີກຝ່າຍໜຶ່ງ: ຮູບແບບການໃຊ້ເຫດຜົນວາງແຜນຫຼາຍຂັ້ນຕອນທີ່ລະບົບຕົວແທນສາມາດປະຕິບັດໄດ້ໂດຍອັດຕະໂນມັດ, ໃນຂະນະທີ່ຮູບແບບເປີດອະນຸຍາດໃຫ້ຄວາມສາມາດເຫຼົ່ານີ້ແຜ່ຂະຫຍາຍອອກໄປນອກເໜືອການຄວບຄຸມຂອງປະເທດໃດໜຶ່ງ. ໃນ [ຂໍ້ຄວາມຂາດຫາຍໄປ] ຂອງຍຸກນິວເຄລຍ, ເມື່ອມະຫາອໍານາດຕ່າງໆປະເຊີນກັບບັນຫາການແຜ່ກະຈາຍທີ່ຄ້າຍຄືກັນກັບອາວຸດນິວເຄລຍ, ພວກເຂົາໄດ້ຕົກລົງທີ່ຈະຈໍາກັດການສົ່ງອອກຢູເຣນຽມເສີມສ້າງ ແລະ ພລູໂຕນຽມ ຜ່ານຂໍ້ຕົກລົງສາກົນ. ແຕ່ບໍ່ມີກົນໄກທຽບເທົ່າທີ່ຈະຈັດການການແຜ່ກະຈາຍຂອງ AI ໃນທຸກມື້ນີ້.

ການຖະຫຼົ່ມທະລາຍຂອງຄວາມສ່ຽງ AI

ຮູບແບບທີ່ມີນໍ້າໜັກເປີດທີ່ມີຄວາມສາມາດໃນການໃຊ້ເຫດຜົນທີ່ໄດ້ຮັບການປັບປຸງ ໝາຍຄວາມວ່າຄວາມຮູ້ສະເພາະທາງທີ່ຈະ [ຂໍ້ຄວາມຂາດຫາຍໄປ], [ຂໍ້ຄວາມຂາດຫາຍໄປ], ຫຼື ເປີດຕົວ [ຂໍ້ຄວາມຂາດຫາຍໄປ] ທີ່ຊັບຊ້ອນ ຕອນນີ້ສາມາດເຂົ້າເຖິງໄດ້ກັບທຸກຄົນທີ່ມີຄອມພິວເຕີໂນດບຸກ ແລະ ການເຊື່ອມຕໍ່ອິນເຕີເນັດ. ໃນຕົ້ນເດືອນພະຈິກ, Anthropic (ບໍລິສັດທີ່ຂ້ອຍໄດ້ລົງທຶນ) [ຂໍ້ຄວາມຂາດຫາຍໄປ] ກໍລະນີທີ່ຖືກບັນທຶກໄວ້ຄັ້ງທໍາອິດຂອງການໂຈມຕີທາງໄຊເບີຂະໜາດໃຫຍ່ທີ່ປະຕິບັດດ້ວຍການແຊກແຊງຂອງມະນຸດໜ້ອຍທີ່ສຸດ: ຜູ້ໂຈມຕີໄດ້ໃຊ້ Claude Code, ເຊິ່ງເປັນເຄື່ອງມືທີ່ຊ່ວຍໃຫ້ Claude ເຮັດໜ້າທີ່ເປັນຕົວແທນການຂຽນໂຄດແບບອັດຕະໂນມັດ, ເພື່ອແຊກຊຶມເຂົ້າເປົ້າໝາຍຫຼາຍສິບແຫ່ງ. Anthropic ສາມາດກວດພົບ ແລະ ຂັດຂວາງການໂຄສະນານີ້ໄດ້.

ໃນອະນາຄົດອັນໃກ້ນີ້, ພວກເຮົາອາດຈະປະເຊີນກັບການໂຈມຕີທີ່ບໍ່ສົມດຸນຈາກຜູ້ກະທຳຜິດທີ່ພວກເຮົາອາດຈະບໍ່ສາມາດລະບຸ, ຕິດຕາມ, ຫຼື ຢຸດຍັ້ງໄດ້. ລອງຈິນຕະນາການເຖິງຜູ້ໂຈມຕີທີ່ສາມາດນໍາໃຊ້ຮູບແບບ AI ທີ່ມີພະລັງ ເພື່ອເປີດຕົວແຄມເປນແບບອັດຕະໂນມັດ—ຕົວຢ່າງ, ເພື່ອຂັດຂວາງລະບົບສາຍສົ່ງໄຟຟ້າຂອງເມືອງເປັນເວລາຈໍາກັດ. ວິທີການຂອງຮູບແບບອາດຈະເພີ່ມຂຶ້ນເກີນຂອບເຂດເດີມຂອງຜູ້ກະທໍາ: ໃນແຕ່ລະຂັ້ນຕອນ, ຮູບແບບຈະປັບປຸງໃຫ້ເໝາະສົມກັບຄໍາສັ່ງຂອງຜູ້ໃຊ້, ແຕ່ຜົນກະທົບທີ່ສະສົມໝາຍຄວາມວ່າແມ່ນແຕ່ຜູ້ກະທໍາຜິດເອງກໍ່ອາດຈະສູນເສຍຄວາມສາມາດໃນການຢຸດສິ່ງທີ່ພວກເຂົາໄດ້ເລີ່ມຕົ້ນໄປແລ້ວ. 

ໃນຂະນະທີ່ຄວາມສາມາດຂອງ AI ກ້າວໜ້າໄປໃນອີກສອງສາມປີຂ້າງໜ້າ, ພວກເຮົາຕ້ອງຄາດການເຖິງສະຖານະການທີ່ແມ່ນແຕ່ຜູ້ໃຊ້ທີ່ມີເຈດຕະນາດີ ກໍ່ອາດຈະສູນເສຍການຄວບຄຸມລະບົບ AI ຂອງພວກເຂົາ. ພິຈາລະນາເຖິງເຈົ້າຂອງທຸລະກິດທີ່ນໍາໃຊ້ຕົວແທນ AI ເພື່ອປັບປຸງລະບົບຕ່ອງໂສ້ການສະໜອງ. ຄອມພິວເຕີຖືກປ່ອຍໃຫ້ເຮັດວຽກຕະຫຼອດຄືນ. ຕົວແທນໄດ້ໃຊ້ເຫດຜົນວ່າການເຮັດສໍາເລັດໜ້າວຽກນີ້ຮຽກຮ້ອງໃຫ້ມັນສືບຕໍ່ເຮັດວຽກ, ແລະ ຄົ້ນພົບວ່າມັນຕ້ອງການຊັບພະຍາກອນຄອມພິວເຕີ ລວມທັງເຄຣດິດຄລາວ ແລະ ພະລັງງານປະມວນຜົນ. ຮອດຕອນເຊົ້າ, ເຈົ້າຂອງພົບວ່າຕົວແທນໄດ້ເຂົ້າເຖິງຊັບພະຍາກອນຂອງບໍລິສັດເກີນກວ່າທີ່ໄດ້ຮັບອະນຸຍາດຢ່າງຫຼວງຫຼາຍ, ໂດຍສະແຫວງຫາຜົນກໍາໄລດ້ານປະສິດທິພາບຜ່ານວິທີການທີ່ບໍ່ເຄີຍຄາດຄິດມາກ່ອນ. 

ບັນຫາການຄວບຄຸມຍັງຂະຫຍາຍອອກໄປນອກເໜືອຈາກໄພຂົ່ມຂູ່ຕໍ່ການດໍາລົງຢູ່ຂອງມະນຸດ. ເນື່ອງຈາກລະບົບທີ່ມີພະລັງແຜ່ຂະຫຍາຍໄປທົ່ວສັງຄົມ, ພວກມັນສາມາດທໍາລາຍໂຄງສ້າງສັງຄົມຂອງພວກເຮົາໃນລັກສະນະທີ່ຄ່ອຍເປັນຄ່ອຍໄປແຕ່ທໍາລາຍ. ລະບົບ AI ທີ່ກ້າວໜ້າຢ່າງວ່ອງໄວຈະເປັນເຊື້ອໄຟໃຫ້ [ຂໍ້ຄວາມຂາດຫາຍໄປ] ແລະ [ຂໍ້ຄວາມຂາດຫາຍໄປ] ທີ່ເຮັດໃຫ້ສັງຄົມຂອງພວກເຮົາບໍ່ໝັ້ນຄົງ, ເພື່ອຍົກຕົວຢ່າງສອງສາມຢ່າງ.

Kissinger ເຂົ້າໃຈເຖິງຄວາມສ່ຽງ. ໃນຊ່ວງປີສຸດທ້າຍຂອງເພິ່ນ, ເພິ່ນໄດ້ສະແດງຄວາມຄິດເຫັນວ່າຄວາມກ້າວໜ້າຢ່າງວ່ອງໄວຂອງ AI “ອາດຈະມີຜົນກະທົບເທົ່າກັບການມາເຖິງຂອງອາວຸດນິວເຄລຍ—ແຕ່ຍິ່ງຄາດເດົາໄດ້ຍາກກວ່າ.” 

ໂຊກດີ, ອະນາຄົດບໍ່ໄດ້ຖືກກໍານົດໄວ້ຕາຍໂຕ. ຖ້າພວກເຮົາພົບວິທີການໃໝ່—ບໍ່ວ່າຈະເປັນດ້ານເຕັກນິກ, ສະຖາບັນ, ຫຼື ຈັນຍາບັນ—ເພື່ອໃຫ້ມະນຸດຍັງຄົງຄວບຄຸມການສ້າງສັນຂອງພວກເຮົາ, AI ສາມາດຊ່ວຍໃຫ້ພວກເຮົາບັນລຸລະດັບຄວາມຈະເລີນຮຸ່ງເຮືອງຂອງມະນຸດທີ່ບໍ່ເຄີຍມີມາກ່ອນ. ຖ້າພວກເຮົາລົ້ມເຫຼວ, ພວກເຮົາຈະສ້າງເຄື່ອງມືທີ່ມີພະລັງຫຼາຍກວ່າຕົວເຮົາເອງ ໂດຍບໍ່ມີວິທີການທີ່ພຽງພໍທີ່ຈະຊີ້ນໍາພວກມັນ. 

ສຳລັບຕອນນີ້, ການຕັດສິນໃຈຍັງຄົງເປັນຂອງພວກເຮົາ.

ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.

ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ

SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.