ບັນຫາຄວາມສອດຄ່ອງລະຫວ່າງມະນຸດກັບ AI

Human-AI Alignment

(SeaPRwire) –   ປະຈຸບັນ, ພວກເຮົາກຳລັງກ້າວເຂົ້າສູ່ຍຸກ AI ເຊິ່ງທຸກໆອາທິດກໍຈະມີຄຸນສົມບັດ ຫຼື ໜ້າວຽກໃໝ່ໆ ທີ່ AI ສາມາດເຮັດສຳເລັດໄດ້. ແຕ່ເມື່ອພິຈາລະນາເຖິງຄວາມກ້າວໜ້າທີ່ພວກເຮົາໄດ້ເດີນມາເຖິງແລ້ວ, ມັນເປັນສິ່ງຈຳເປັນຢ່າງຍິ່ງທີ່ຈະຕ້ອງຖອຍຫຼັງອອກມາ ແລະ ຕັ້ງຄຳຖາມທີ່ໃຫຍ່ກວ່າກ່ຽວກັບວ່າພວກເຮົາກຳລັງມຸ່ງໜ້າໄປໃສ, ຈະນຳເອົາສິ່ງທີ່ດີທີ່ສຸດຈາກເຕັກໂນໂລຢີນີ້ໄດ້ແນວໃດໃນຂະນະທີ່ມັນພັດທະນາ, ແລະ ແທ້ຈິງແລ້ວ, ຈະນຳເອົາສິ່ງທີ່ດີທີ່ສຸດຈາກຕົວເຮົາເອງໄດ້ແນວໃດໃນຂະນະທີ່ພວກເຮົາຮ່ວມກັນພັດທະນາ.

ເມື່ອບໍ່ດົນມານີ້ ມີຊ່ວງເວລາທີ່ໜ້າສົນໃຈຕອນທີ່ Sam Altman ໄດ້ໄປປາກົດຕົວໃນ podcast ຂອງ Tucker Carlson. Carlson ໄດ້ສອບຖາມ Altman ກ່ຽວກັບພື້ນຖານດ້ານສິນທໍາຂອງ ChatGPT. ລາວໄດ້ໃຫ້ເຫດຜົນວ່າເຕັກໂນໂລຢີນີ້ມີອົງປະກອບດ້ານສາສະໜາ ຫຼື ຈິດວິນຍານທີ່ເປັນພື້ນຖານ, ເນື່ອງຈາກພວກເຮົາຄິດວ່າ AI ມີພະລັງຫຼາຍກວ່າຄົນ ແລະ ພວກເຮົາຫວັງເພິ່ງມັນເພື່ອເປັນແນວທາງ. Altman ຕອບວ່າສໍາລັບລາວແລ້ວ ມັນບໍ່ມີຫຍັງກ່ຽວກັບຈິດວິນຍານເລີຍ. Carlson ກ່າວວ່າ: “ສະນັ້ນ, ຖ້າຫາກມັນເປັນພຽງເຄື່ອງຈັກ ແລະ ເປັນພຽງຜົນຜະລິດຈາກສິ່ງປ້ອນເຂົ້າຂອງມັນເທົ່ານັ້ນ, ຄຳຖາມສອງຂໍ້ທີ່ຊັດເຈນກໍຄື: ສິ່ງປ້ອນເຂົ້າເຫຼົ່ານັ້ນແມ່ນຫຍັງ? ແລະ ກອບສິນທໍາທີ່ຖືກໃສ່ເຂົ້າໄປໃນເຕັກໂນໂລຢີນີ້ແມ່ນຫຍັງ?”

ຈາກນັ້ນ Altman ກໍໄດ້ອ້າງເຖິງ “model spec” ເຊິ່ງແມ່ນຊຸດຄຳສັ່ງທີ່ໃຫ້ກັບ AI model ເພື່ອຄວບຄຸມພຶດຕິກຳຂອງມັນ. ສໍາລັບ ChatGPT, ລາວເວົ້າວ່າ, ມັນຫມາຍເຖິງການຝຶກອົບຮົມມັນຈາກ “ປະສົບການລວມ, ຄວາມຮູ້, ແລະການຮຽນຮູ້ຂອງມະນຸດ.” ແຕ່, ລາວກ່າວຕື່ມວ່າ, “ຈາກນັ້ນພວກເຮົາຈໍາເປັນຕ້ອງປັບມັນໃຫ້ມີພຶດຕິກໍາໃນທາງໃດທາງໜຶ່ງ.”

ແລະ ນັ້ນ, ແນ່ນອນ, ນໍາພວກເຮົາໄປສູ່ບັນຫາການຈັດລຽງ (alignment problem) ທີ່ໂດ່ງດັງ – ແນວຄິດທີ່ວ່າເພື່ອປ້ອງກັນຄວາມສ່ຽງຕໍ່ການມີຢູ່ຂອງມະນຸດຈາກການທີ່ AI ເຂົ້າຄອບຄອງ, ພວກເຮົາຈໍາເປັນຕ້ອງປັບ AI ໃຫ້ສອດຄ່ອງກັບຄຸນຄ່າຂອງມະນຸດ. ແນວຄິດນີ້ມີມາຕັ້ງແຕ່ປີ 1960 ແລະ ໂດຍນັກບຸກເບີກ AI Norbert Wiener, ຜູ້ທີ່ໄດ້ອະທິບາຍບັນຫາການຈັດລຽງໄວ້ແບບນີ້: “ຖ້າພວກເຮົາໃຊ້ເຄື່ອງຈັກເພື່ອບັນລຸເປົ້າຫມາຍຂອງພວກເຮົາ ໂດຍທີ່ພວກເຮົາບໍ່ສາມາດແຊກແຊງການເຮັດວຽກຂອງມັນໄດ້ຢ່າງມີປະສິດທິພາບ… ພວກເຮົາຄວນຈະແນ່ໃຈວ່າຈຸດປະສົງທີ່ໃສ່ເຂົ້າໄປໃນເຄື່ອງຈັກນັ້ນແມ່ນຈຸດປະສົງທີ່ພວກເຮົາຕ້ອງການແທ້ໆ.”

ແຕ່ແທ້ຈິງແລ້ວ ຍັງມີບັນຫາການຈັດລຽງທີ່ໃຫຍ່ກວ່າທີ່ຍ້ອນກັບໄປໄກກວ່າປີ 1960 ອີກ. ເພື່ອປັບ AI ໃຫ້ສອດຄ່ອງກັບຄຸນຄ່າຂອງມະນຸດ, ຕົວເຮົາເອງກໍຈໍາເປັນຕ້ອງຊັດເຈນກ່ຽວກັບຄຸນຄ່າທົ່ວໄປທີ່ພວກເຮົາເຊື່ອຖື. ສິ່ງປ້ອນເຂົ້າ ຂອງພວກເຮົາ ແມ່ນຫຍັງ? model spec ຂອງພວກເຮົາແມ່ນຫຍັງ? ພວກເຮົາ ກໍາລັງຝຶກຝົນຕົນເອງດ້ວຍສິ່ງໃດເພື່ອໃຫ້ສາມາດດໍາເນີນຊີວິດທີ່ມີຄວາມຫມາຍໄດ້?

ເຫຼົ່ານີ້ແມ່ນຄໍາຖາມທີ່ພວກເຮົາຈໍາເປັນຕ້ອງຕອບກ່ອນທີ່ຈະຕັດສິນໃຈວ່າພວກເຮົາຕ້ອງການໃຫ້ AI ນໍາໃຊ້ສິ່ງປ້ອນເຂົ້າໃດ. ເຖິງແມ່ນວ່າພວກເຮົາສາມາດຈັດລຽງ AI ໃຫ້ສອດຄ່ອງກັບສະພາບຂອງມະນຸດໃນປັດຈຸບັນໄດ້ຢ່າງສົມບູນ, ຜົນລັບກໍຈະບໍ່ເໝາະສົມ. ດັ່ງນັ້ນ, ຕອນນີ້ແມ່ນເວລາທີ່ຈະຊີ້ແຈງຄຸນຄ່າຂອງພວກເຮົາກ່ອນທີ່ຈະສ້າງເຕັກໂນໂລຢີທີ່ມີຈຸດປະສົງເພື່ອຮວມເອົາ ແລະ ສະທ້ອນຄຸນຄ່າເຫຼົ່ານັ້ນ.

ເພາະວ່າໃນຕອນນີ້ພວກເຮົາກໍາລັງປະສົບກັບການບໍ່ສອດຄ່ອງກັນຢ່າງເລິກເຊິ່ງ. ໃນໂລກຍຸກໃໝ່ຂອງພວກເຮົາ, ພວກເຮົາໄດ້ສູນເສຍການເຊື່ອມຕໍ່ກັບພື້ນຖານທາງຈິດວິນຍານທີ່ອະລິຍະທໍາຂອງພວກເຮົາ, ທັງຝ່າຍຕາເວັນຕົກ ແລະ ຕາເວັນອອກ, ໄດ້ຖືກສ້າງຂຶ້ນມາ. ພວກເຮົາໄດ້ດໍາລົງຊີວິດຢູ່ໃນແສງສະຫວ່າງຂອງມັນມາຫຼາຍສັດຕະວັດ, ແຕ່ຕອນນີ້ແມ່ນແຕ່ແສງສະຫວ່າງນັ້ນກໍໄດ້ມົວລົງ ແລະ ພວກເຮົາກໍກໍາລັງເປັ່ງປາງ ແລະ ບໍ່ມີສິ່ງຍຶດໝັ້ນ.

ພື້ນຖານນັ້ນໄດ້ເລີ່ມຕົ້ນທີ່ຈະເຊື່ອມໂຊມລົງຢ່າງຊ້າໆ ດ້ວຍການກ້າວເຂົ້າສູ່ຍຸກແຫ່ງຄວາມຮູ້ແຈ້ງ (Enlightenment) ແລະ ການປະຕິວັດອຸດສາຫະກຳ, ແຕ່ຍັງຄົງນຳໃຊ້ຄວາມຈິງນິລັນດອນເຫຼົ່ານີ້ຢູ່. ພວກເຮົາໄດ້ສະແດງອອກ – ແລະ ເຖິງແມ່ນວ່າຈະເຊື່ອໃນສິ່ງເຫຼົ່ານັ້ນ – ໜ້ອຍລົງກວ່າແຕ່ກ່ອນ, ແຕ່ພວກເຮົາກໍຍັງຖືກນໍາພາໂດຍພວກມັນ. ແຕ່ຕອນນີ້ການເຊື່ອມຕໍ່ໄດ້ຖືກຕັດອອກເພື່ອຝຶກ AI ໃຫ້ສອດຄ່ອງກັບຄຸນຄ່າຂອງມະນຸດ, ພວກເຮົາຈໍາເປັນຕ້ອງຂຸດຄົ້ນ ແລະ ເຊື່ອມຕໍ່ຄືນໃໝ່ກັບພວກມັນກ່ອນ.

ໃນປຶ້ມໃໝ່ຂອງລາວ, , Paul Kingsnorth ໄດ້ຄົ້ນຄວ້າວ່າທຸກໆວັດທະນະທຳຖືກສ້າງຂຶ້ນມາແນວໃດບົນລະບຽບອັນສັກສິດ. ລາວຂຽນວ່າ: “ແນ່ນອນວ່າສິ່ງນີ້ບໍ່ຈໍາເປັນຕ້ອງເປັນລະບຽບຂອງຄຣິສຕຽນ. ມັນສາມາດເປັນຂອງອິສລາມ, ຮິນດູ, ຫຼື ເຕົ໋າ.” ຍຸກແຫ່ງຄວາມຮູ້ແຈ້ງໄດ້ຕັດພວກເຮົາອອກຈາກລະບຽບອັນສັກສິດນັ້ນ, ແຕ່, ດັ່ງທີ່ Kingsnorth ກ່າວໄວ້ວ່າ, “ສັງຄົມບໍ່ໄດ້ເຫັນມັນເພາະວ່າອະນຸສອນສະຖານຂອງລະບຽບອັນສັກສິດເກົ່າຍັງຄົງຕັ້ງຢູ່, ຄືກັບຮູບປັ້ນໂຣມັນຫຼັງຈາກການລົ້ມລົງຂອງຈັກກະພັດ.” ສິ່ງທີ່ພວກເຮົາເຫັນແມ່ນລາຄາທີ່ສັງຄົມຕ້ອງຈ່າຍເມື່ອລະບຽບນັ້ນລົ້ມລົງ: “ຄວາມວຸ້ນວາຍໃນທຸກລະດັບຂອງສັງຄົມ, ຕັ້ງແຕ່ລະດັບການເມືອງລົງໄປເຖິງລະດັບຂອງຈິດວິນຍານ.”

ນີ້ແມ່ນສິ່ງທີ່ເກີດຂຶ້ນໃນປັດຈຸບັນຢ່າງແນ່ນອນບໍ່ແມ່ນບໍ? Kingsnorth ຂຽນວ່າ: “ມັນອາດຈະອະທິບາຍເຖິງຄວາມແປກປະຫຼາດ, ຄວາມເຄັ່ງຕຶງ, ຄວາມແຕກແຍກ, ແລະ ຄວາມອຸກອັ່ງຂອງຍຸກສະໄໝນີ້.”

ໃນການສົນທະນາກັບ Carlson, Altman ໄດ້ກ່າວເຖິງ AI ທີ່ຖືກຝຶກຝົນຈາກ “ປະສົບການລວມ” ຂອງມະນຸດ. ແຕ່ຕົວເຮົາເອງແທ້ຈິງແລ້ວກໍາລັງເຂົ້າເຖິງປະສົບການລວມທັງໝົດຂອງການເປັນມະນຸດຢູ່ບໍ່?

ໃນຂະນະທີ່ພວກເຮົາສ້າງເຕັກໂນໂລຢີການຫັນປ່ຽນທີ່ຈະປ່ຽນແປງທຸກສິ່ງທຸກຢ່າງກ່ຽວກັບຊີວິດຂອງພວກເຮົາ, ພວກເຮົາຈໍາເປັນຕ້ອງຮັບປະກັນວ່າພວກເຮົາຈະຝຶກຝົນມັນດ້ວຍຄຸນຄ່າພື້ນຖານທີ່ບໍ່ປ່ຽນແປງເຊິ່ງກໍານົດພວກເຮົາໃນຖານະມະນຸດ.

ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.

ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ

SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.