
(SeaPRwire) – ໃນວັນທີ 23 ກໍລະກົດ, ປະທານາທິບໍດີ ໂດນັນ ທຣຳ ໄດ້ລົງນາມໃນຄໍາສັ່ງທີ່ກວ້າງຂວາງ ຊື່ວ່າ “ກົດໝາຍວ່າດ້ວຍການປ້ອງກັນ AI ແບບ Woke ໃນລັດຖະບານກາງ.” ນີ້ແມ່ນອີກບາດກ້າວໜຶ່ງໃນສົງຄາມວັດທະນະທຳທາງການເມືອງທີ່ດຳເນີນຢູ່, ແລະເປັນຄວາມພະຍາຍາມຢ່າງຕັ້ງໃຈທີ່ຈະ ລຶບລ້າງຄຳສັບຕ່າງໆ ເຊັ່ນ ຄວາມຫຼາກຫຼາຍ, ຄວາມສະເໝີພາບ, ການລວມເຂົ້າ (DEI) ແລະຍົກເລີກການເຮັດວຽກຂອງຜູ້ທີ່ແກ້ໄຂບັນຫາການຈໍາແນກເຊື້ອຊາດແບບມີລະບົບໃນລະບົບປັນຍາປະດິດຂອງລັດຖະບານກາງ.
ແຕ່ສຳລັບພວກເຮົາຄົນທີ່ເຮັດວຽກດ້ານການແພດ, ໂດຍສະເພາະຜູ້ທີ່ສົ່ງເສີມຄວາມສະເໝີພາບດ້ານສຸຂະພາບ, ນີ້ບໍ່ແມ່ນພຽງແຕ່ການສະແດງທ່າທີທາງການເມືອງເທົ່ານັ້ນ. ຄໍາສັ່ງນີ້ເປັນໄພຄຸກຄາມຕໍ່ຊີວິດ. ມັນເປັນການທຳລາຍຜົນງານຫຼາຍປີໃນການລະບຸ ແລະແກ້ໄຂອະຄະຕິທາງໂຄງສ້າງທີ່ໄດ້ສ້າງຄວາມເສຍຫາຍໃຫ້ແກ່ຊຸມຊົນທີ່ດ້ອຍໂອກາດມາດົນນານ, ໂດຍສະເພາະຊາວອາເມຣິກັນເຊື້ອສາຍຜິວດຳ.
AI ກຳລັງເປັນທີ່ແຜ່ຫຼາຍ. ມັນຖືກນໍາໃຊ້ແລ້ວໃນການຈັດລໍາດັບຄວາມສຳຄັນຂອງຄົນເຈັບໃນຫ້ອງສຸກເສີນ, ຈັດລໍາດັບຄວາມສຳຄັນຂອງການດູແລຕິດຕາມ, ແລະຄາດຄະເນຄວາມສ່ຽງຂອງພະຍາດ. ແຕ່ລະບົບ algorithms ເຫຼົ່ານີ້ບໍ່ໄດ້ເກີດຂຶ້ນມາຈາກພື້ນຖານທີ່ເປັນກາງ. ພວກມັນຖືກຝຶກຝົນດ້ວຍຂໍ້ມູນຈາກໂລກຕົວຈິງ. ຂໍ້ມູນທີ່ບໍ່ໄດ້ປາດສະຈາກອະຄະຕິຢ່າງສິ້ນເຊີງ.
ການປົກປ້ອງຄວາມຖືກຕ້ອງທາງການແພດ
ໜຶ່ງໃນຕົວຢ່າງທີ່ໂດດເດັ່ນທີ່ສຸດແມ່ນມາຈາກການສຶກສາປີ 2019 ທີ່ຕີພິມໃນ Science ຂຽນໂດຍນັກຄົ້ນຄວ້າຈາກ UC Berkeley ແລະ The University of Chicago. ພວກເຂົາໄດ້ກວດສອບລະບົບ algorithm ທາງການແພດທີ່ໃຊ້ກັນຢ່າງແຜ່ຫຼາຍທີ່ຖືກອອກແບບມາເພື່ອກຳນົດຄົນເຈັບທີ່ມີຄວາມສ່ຽງສູງໃນການຈັດການການດູແລ. ເມື່ອເບິ່ງຜິວເຜີນ, ມັນເບິ່ງຄືວ່າມີຈຸດປະສົງແລະຂັບເຄື່ອນດ້ວຍຂໍ້ມູນ. ແຕ່ນັກຄົ້ນຄວ້າຄົ້ນພົບວ່າ algorithm ບໍ່ໄດ້ປະເມີນຄວາມຕ້ອງການທາງຄລີນິກເລີຍ. ແທນທີ່ຈະ, ມັນໄດ້ໃຊ້ຕົວແທນຢ່າງງຽບໆ: ຈຳນວນເງິນທີ່ໃຊ້ຈ່າຍໄປແລ້ວກັບການດູແລຄົນເຈັບ.
ເນື່ອງຈາກຄົນເຈັບເຊື້ອສາຍຜິວດຳໂດຍທົ່ວໄປໄດ້ຮັບການດູແລໜ້ອຍກວ່າ, ເຖິງແມ່ນວ່າຈະມີອາການຄືກັນກໍຕາມ, ຕົວແທນການໃຊ້ຈ່າຍດັ່ງກ່າວໄດ້ເຮັດໃຫ້ algorithm ຄາດຄະເນຄວາມຕ້ອງການຂອງພວກເຂົາຕໍ່າເກີນໄປຢ່າງຫຼວງຫຼາຍ. ໃນຂະນະທີ່ເກືອບ 46.5% ຂອງຄົນເຈັບເຊື້ອສາຍຜິວດຳຄວນໄດ້ຮັບການໝາຍໄວ້ເພື່ອການດູແລເພີ່ມເຕີມ, ແຕ່ algorithm ໄດ້ລະບຸພຽງ 17.7% ເທົ່ານັ້ນ. ນັ້ນບໍ່ແມ່ນພຽງແຕ່ຂໍ້ສັງເກດທາງສະຖິຕິ. ນັ້ນຄືລະບົບທີ່ຖືກສອນໃຫ້ເບິ່ງຂ້າມໄປ
ນີ້ບໍ່ແມ່ນກໍລະນີທີ່ໂດດດ່ຽວ. ພິຈາລະນາສອງ algorithms ອື່ນໆທີ່ປັບປ່ຽນຕາມເຊື້ອຊາດທີ່ຍັງຖືກນໍາໃຊ້ໃນປັດຈຸບັນ:
ການເຮັດວຽກຂອງໝາກໄຂ່ຫຼັງ, ເຊິ່ງຄິດໄລ່ໂດຍໃຊ້ສູດ Glomerular Filtration Rate (GFR), ໄດ້ລວມເອົາ “ປັດໄຈການແກ້ໄຂ” ສໍາລັບຄົນເຈັບເຊື້ອສາຍຜິວດຳມາດົນນານ, ອີງໃສ່ສົມມຸດຕິຖານທີ່ບໍ່ເປັນວິທະຍາສາດກ່ຽວກັບມວນກ້າມຊີ້ນ. ນັກຄົ້ນຄວ້າໄດ້ພົບເຫັນຊ້ຳໆວ່າການປັບປ່ຽນນີ້ເຮັດໃຫ້ຄະແນນໝາກໄຂ່ຫຼັງສູງເກີນໄປ, ຊຶ່ງໝາຍຄວາມວ່າຄົນເຈັບເຊື້ອສາຍຜິວດຳຈຳນວນຫຼາຍຖືກຖືວ່າບໍ່ມີສິດໃນການປ່ຽນຖ່າຍອະໄວຍະວະ ຫຼື ຖືກຊັກຊ້າໃນການໄດ້ຮັບການດູແລພິເສດ.
ແລະການກວດການເຮັດວຽກຂອງປອດ (PFTs), ທີ່ໃຊ້ໃນການກວດພະຍາດຫືດ ແລະພະຍາດປອດ, ມັກຈະໃຊ້ການປັບປ່ຽນໂດຍອີງໃສ່ເຊື້ອຊາດທີ່ສົມມຸດວ່າຄົນຜິວດຳມີຄວາມສາມາດປອດຕໍ່າໂດຍທໍາມະຊາດ, ເຮັດໃຫ້ເກນການກວດພົບຕໍ່າລົງ ແລະປະກອບສ່ວນເຮັດໃຫ້ການວິນິດໄສຕໍ່າກວ່າຄວາມເປັນຈິງ.
ສິ່ງເຫຼົ່ານີ້ບໍ່ແມ່ນພຽງແຕ່ສິ່ງທີ່ຕົກຄ້າງຈາກປະຫວັດສາດເທົ່ານັ້ນ. ພວກມັນແມ່ນຕົວຢ່າງຂອງການທີ່ການຈໍາແນກເຊື້ອຊາດສາມາດຝັງເລິກຢູ່ໃນລະຫັດ. ຢ່າງງຽບໆ, ແຜ່ລາມໄປທົ່ວ, ແລະເປັນອັນຕະລາຍເຖິງຊີວິດ.
ໃນຊຸມປີມໍ່ໆມານີ້, ແພດ ແລະນັກຄົ້ນຄວ້າເຊັ່ນຂ້າພະເຈົ້າໄດ້ຕໍ່ຕ້ານ. ໂຮງໝໍຫຼາຍແຫ່ງກຳລັງຖອດຖອນການແກ້ໄຂໂດຍອີງໃສ່ເຊື້ອຊາດອອກຈາກສົມຜົນທາງການແພດ. ເຄື່ອງມື AI ທີ່ເນັ້ນໃສ່ຄວາມສະເໝີພາບກຳລັງຖືກພັດທະນາເພື່ອຄົ້ນຫາ ແລະຫຼຸດຜ່ອນຄວາມບໍ່ສົມດຸນ, ບໍ່ແມ່ນການລະເລີຍ. ວຽກງານນີ້ບໍ່ແມ່ນການ “ຕື່ນຕົວ” (woke). ມັນແມ່ນກ່ຽວກັບຄວາມຖືກຕ້ອງ, ການປັບປຸງຜົນໄດ້ຮັບ, ແລະການຊ່ວຍຊີວິດ.
ອັນຕະລາຍຂອງສົງຄາມວັດທະນະທໍາຕ້ານ “woke” ຂອງ Trump
ຄຳສັ່ງຂອງຝ່າຍບໍລິຫານຂອງ Trump ຂົ່ມຂູ່ທີ່ຈະປິດບັງວຽກງານສຳຄັນທີ່ໄດ້ເຮັດມາເພື່ອເຮັດໃຫ້ algorithms ທາງການແພດຖືກຕ້ອງຫຼາຍຂຶ້ນ.
ໂດຍການຫ້າມອົງການຂອງລັດຖະບານກາງບໍ່ໃຫ້ພິຈາລະນາການຈໍາແນກເຊື້ອຊາດແບບມີລະບົບ ຫຼື ຄວາມສະເໝີພາບໃນການພັດທະນາ AI, ຄໍາສັ່ງດັ່ງກ່າວໄດ້ຫ້າມຄວາມພະຍາຍາມທີ່ຈໍາເປັນໃນການແກ້ໄຂບັນຫາເຫຼົ່ານີ້ຢ່າງມີປະສິດທິຜົນ. ມັນປິດສຽງນັກວິທະຍາສາດຂໍ້ມູນທີ່ພະຍາຍາມສ້າງ ແລະສົ່ງເສີມລະບົບທີ່ຍຸດຕິທຳກວ່າ. ມັນບອກພວກເຮົາວ່າການລະບຸຄວາມບໍ່ສະເໝີພາບແມ່ນຮ້າຍແຮງກວ່າການສືບຕໍ່ມັນ.
ຜູ້ສະໜັບສະໜູນຄຳສັ່ງດັ່ງກ່າວອ້າງວ່າມັນສົ່ງເສີມ “ຄວາມເປັນກາງ.” ແຕ່ຄວາມເປັນກາງ, ໃນລະບົບທີ່ສ້າງຂຶ້ນບົນຄວາມບໍ່ສະເໝີພາບ, ບໍ່ແມ່ນຄວາມຍຸຕິທຳ. ມັນເປັນການເສີມສ້າງອະຄະຕິທີ່ມັນແກລ້ງເຮັດເປັນບໍ່ສົນໃຈ.
ອັນຕະລາຍບໍ່ແມ່ນເລື່ອງສົມມຸດຕິຖານ. ຄົນເຈັບເຊື້ອສາຍຜິວດຳມີໂອກາດໜ້ອຍທີ່ຈະໄດ້ຮັບການສະເໜີ, ມີໂອກາດຫຼາຍທີ່ຈະຖືກ, ແລະມີໂອກາດຫຼາຍທີ່ຈະ ຈາກສະພາບທີ່ສາມາດປ້ອງກັນໄດ້. AI ທີ່ຖືກອອກແບບຢ່າງມີຈັນຍາບັນສາມາດຊ່ວຍເປີດເຜີຍຄວາມບໍ່ສົມດຸນເຫຼົ່ານີ້ໄດ້ໄວຂຶ້ນ. ແຕ່ພຽງແຕ່ຖ້າພວກເຮົາໄດ້ຮັບອະນຸຍາດໃຫ້ສ້າງມັນໃນແບບນັ້ນ.
ແລະອະຄະຕິໃນ AI ບໍ່ໄດ້ສ້າງຄວາມເສຍຫາຍສະເພາະແຕ່ຊຸມຊົນຜິວດຳເທົ່ານັ້ນ. ມີ ລະບົບການຮັບຮູ້ໃບໜ້າກວດພົບແມ່ຍິງ ແລະຄົນຜິວສີຜິດພາດໃນອັດຕາທີ່ສູງກວ່າຜູ້ຊາຍຜິວຂາວຫຼາຍ. ໃນກໍລະນີໜຶ່ງ, ລະບົບ algorithm ທີ່ໃຊ້ໃນການຈ້າງງານໄດ້ຫຼຸດລະດັບປະຫວັດຫຍໍ້ຂອງແມ່ຍິງຢ່າງເປັນລະບົບ. ໃນອີກກໍລະນີໜຶ່ງ, ເຄື່ອງມືດ້ານສຸຂະພາບໄດ້ຄາດຄະເນຄວາມສ່ຽງຂອງພະຍາດຫົວໃຈໃນແມ່ຍິງຕໍ່າກວ່າຄວາມເປັນຈິງ ເນື່ອງຈາກຂໍ້ມູນປະຫວັດສາດໄດ້ວິນິດໄສພວກເຂົາຕໍ່າກວ່າຄວາມເປັນຈິງແຕ່ຕົ້ນ. ນີ້ຄືວິທີທີ່ຄວາມບໍ່ສະເໝີພາບເກີດຂຶ້ນຊ້ຳ. ຂໍ້ມູນທີ່ລຳອຽງກາຍເປັນການຕັດສິນໃຈແບບອັດຕະໂນມັດໂດຍບໍ່ມີການກວດສອບຫຼືບໍລິບົດ.
ການລຶບລ້າງ DEI ອອກຈາກ AI ບໍ່ແມ່ນກ່ຽວກັບຄວາມເປັນກາງ. ມັນແມ່ນກ່ຽວກັບຄວາມຊົງຈຳທີ່ເລືອກ. ມັນແມ່ນຄວາມພະຍາຍາມທີ່ຈະກຳຈັດພາສາທີ່ພວກເຮົາຕ້ອງການເພື່ອວິນິດໄສບັນຫາ, ບໍ່ຕ້ອງເວົ້າເຖິງການແກ້ໄຂ. ຖ້າພວກເຮົາບັງຄັບໃຫ້ AI ບໍ່ສົນໃຈປະຫວັດສາດ, ມັນຈະຂຽນຄືນໃໝ່. ບໍ່ພຽງແຕ່ຂໍ້ເທັດຈິງ, ແຕ່ຍັງລວມເຖິງຄົນທີ່ຂໍ້ເທັດຈິງເຫຼົ່ານັ້ນເປັນຕົວແທນ.
ຄຳສັ່ງຂອງຝ່າຍບໍລິຫານຂອງ Trump ໄດ້ປ່ຽນ AI ໃຫ້ເປັນເຄື່ອງມືທາງການເມືອງ ແລະອາວຸດ. ແລະສຳລັບຊາວອາເມຣິກັນຫຼາຍລ້ານຄົນທີ່ຖືກລະເລີຍໂດຍລະບົບກົດໝາຍ, ການແພດ, ແລະເຕັກໂນໂລຊີຂອງພວກເຮົາ, ຄ່າໃຊ້ຈ່າຍຈະຖືກວັດແທກດ້ວຍຊີວິດ.
ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.
ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ
SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.