LawFlash

ວັນທີ 21 ພະຈິກ 2022

ໃນຂະນະທີ່ປະຈຸບັນບໍ່ມີກົດລະບຽບສະເພາະຢູ່ໃນສະຫະລາຊະອານາຈັກທີ່ຄວບຄຸມການໃຊ້ປັນຍາປະດິດ (AI), ມັນໄດ້ຖືກຄວບຄຸມບາງສ່ວນ. ດ້ວຍຈໍານວນກົດຫມາຍການຈ້າງງານແລະຜົນກະທົບຕໍ່ຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ, ການນໍາໃຊ້ AI ແມ່ນການຂະຫຍາຍຕົວຂອງຈຸດສຸມສໍາລັບຜູ້ຄວບຄຸມແລະລັດຖະບານອັງກິດ. ເອກະສານສີຂາວຂອງລັດຖະບານອັງກິດກ່ຽວກັບຫົວຂໍ້ຂອງກົດລະບຽບ AI ຄາດວ່າຈະມີໃນທ້າຍປີ 2022. ໃນເວລານີ້, ມີການພິຈາລະນາຫຼາຍໆຢ່າງສໍາລັບນາຍຈ້າງທີ່ປະຕິບັດເຕັກໂນໂລຢີ AI ຕະຫຼອດຊີວິດການຈ້າງງານ.

ບໍ່ມີຄໍານິຍາມດຽວທີ່ຮັບຮູ້ສໍາລັບ AI. ໂດຍທົ່ວໄປແລ້ວ, AI ໄດ້ຖືກເຂົ້າໃຈວ່າເປັນຄໍາອຸປະຖໍາສໍາລັບລະດັບຂອງເຕັກໂນໂລຢີທີ່ອີງໃສ່ລະບົບສູດການຄິດໄລ່ທີ່ແກ້ໄຂວຽກງານທີ່ສັບສົນໂດຍການປະຕິບັດຫນ້າທີ່ທີ່ຕ້ອງການຄວາມຄິດຂອງມະນຸດໃນເມື່ອກ່ອນ.

ໃນ​ສະ​ພາບ​ການ​ການ​ຈ້າງ​ງານ, ເລັ່ງ​ໂດຍ​ການ​ແຜ່​ລະ​ບາດ​ຂອງ COVID-19, AI ໄດ້​ຖືກ​ນໍາ​ໃຊ້​ເພີ່ມ​ຂຶ້ນ​ໃນ​ທຸກ​ຂັ້ນ​ຕອນ​ຂອງ​ການ​ພົວ​ພັນ​ການ​ຈ້າງ​ງານ. ໃນການຈ້າງງານ, ໂດຍສະເພາະ, ມີຜົນປະໂຫຍດທີ່ຊັດເຈນໃນການນໍາໃຊ້ AI ເພື່ອຫຼຸດຜ່ອນເວລາແລະຄ່າໃຊ້ຈ່າຍຂອງຊັບພະຍາກອນ. ເຕັກໂນໂລຍີ AI ສາມາດຖືກນໍາໃຊ້ເພື່ອທົບທວນແລະກັ່ນຕອງຄໍາຮ້ອງສະຫມັກວຽກ, ແລະແມ້ກະທັ້ງການປະເມີນການປະຕິບັດການສໍາພາດໂດຍການນໍາໃຊ້ການປຸງແຕ່ງພາສາທໍາມະຊາດແລະການວິເຄາະການສໍາພາດເພື່ອກໍານົດຄວາມເຫມາະສົມຂອງຜູ້ສະຫມັກໂດຍແສງສະຫວ່າງຂອງທັກສະອ່ອນແລະລັກສະນະຂອງບຸກຄະລິກກະພາບຂອງເຂົາເຈົ້າ. ໃນທາງກັບກັນ, ນີ້ຫຼຸດຜ່ອນຈໍານວນເວລາທີ່ຕ້ອງໃຊ້ໃນວຽກງານເຫຼົ່ານີ້ໂດຍຜູ້ຊ່ຽວຊານດ້ານການສະຫນອງພອນສະຫວັນແລະຊັບພະຍາກອນມະນຸດ, ໃຫ້ພວກເຂົາສຸມໃສ່ວຽກງານທີ່ມີຄຸນຄ່າອື່ນໆ. ເຖິງວ່າຈະມີຜົນປະໂຫຍດເຫຼົ່ານີ້, ມີບາງຄວາມສ່ຽງທີ່ສໍາຄັນແລະການປົກປ້ອງທີ່ກ່ຽວຂ້ອງທີ່ນາຍຈ້າງໃນສະຫະລາຊະອານາຈັກຄວນພິຈາລະນາກ່ອນທີ່ຈະປະຕິບັດເຕັກໂນໂລຢີ AI ໃນວົງຈອນການຈ້າງງານຂອງພວກເຂົາ.

ຄວາມສ່ຽງທາງດ້ານກົດໝາຍຫຼັກ – ການຈໍາແນກ

ພາຍໃຕ້ກົດໝາຍວ່າດ້ວຍຄວາມສະເໝີພາບປີ 2010, ມັນຜິດກົດໝາຍສຳລັບນາຍຈ້າງທີ່ຈະຈຳແນກຕໍ່ຜູ້ສະໝັກ ຫຼືພະນັກງານບົນພື້ນຖານ “ລັກສະນະທີ່ໄດ້ຮັບການປົກປ້ອງ” (ເຊັ່ນ, ອາຍຸ, ຄວາມພິການ, ການມອບໝາຍຍິງ-ຊາຍ, ການແຕ່ງງານ ແລະການຮ່ວມມືທາງພົນລະເຮືອນ, ການຖືພາແລະການເກີດລູກ, ເຊື້ອຊາດ, ສາດສະໜາ ຫຼືຄວາມເຊື່ອ. , ເພດ, ຫຼືທັດສະນະທາງເພດ). ການໃຊ້ AI ສາມາດສົ່ງຜົນໃຫ້ມີການຈຳແນກທາງອ້ອມທີ່ອ້າງວ່າຄົນທີ່ມີລັກສະນະປ້ອງກັນປະສົບກັບຄວາມດ້ອຍໂອກາດຍ້ອນຜົນອອກມາຂອງ algorithm.

ສູດການຄິດໄລ່ທີ່ສະແດງໃຫ້ເຫັນເຖິງຄວາມມັກຂອງລັກສະນະສະເພາະ, ເຊິ່ງໃນທາງປະຕິບັດເຮັດໃຫ້ຜູ້ຊາຍໄດ້ຮັບຄວາມນິຍົມຫຼາຍກວ່າແມ່ຍິງໃນການຄັດເລືອກການຈ້າງງານແມ່ນຕົວຢ່າງຂອງການຈໍາແນກທາງອ້ອມບົນພື້ນຖານທີ່ສູດການຄິດໄລ່ເຮັດໃຫ້ແມ່ຍິງຕົກຢູ່ໃນຄວາມດ້ອຍໂອກາດຢ່າງຫຼວງຫຼາຍຍ້ອນເພດຂອງເຂົາເຈົ້າ. ເພື່ອປ້ອງກັນການຮຽກຮ້ອງດັ່ງກ່າວ, ນາຍຈ້າງຈະຕ້ອງສະແດງໃຫ້ເຫັນການນໍາໃຊ້ AI ເປັນວິທີການອັດຕາສ່ວນຂອງການບັນລຸເປົ້າຫມາຍທີ່ຖືກຕ້ອງ. ໃນຂະນະທີ່ການນໍາໃຊ້ເຕັກໂນໂລຢີເພື່ອປັບປຸງຂະບວນການຮັບສະຫມັກອາດຈະເປັນຈຸດປະສົງທີ່ຖືກຕ້ອງ, ມັນເປັນການຍາກທີ່ຈະເຫັນວ່າເຄື່ອງມືດັ່ງກ່າວ, ເຊິ່ງສາມາດມີຜົນກະທົບຢ່າງຫຼວງຫຼາຍຕໍ່ຜູ້ສະຫມັກ, ສາມາດເປັນວິທີອັດຕາສ່ວນຂອງການບັນລຸເປົ້າຫມາຍດັ່ງກ່າວໂດຍບໍ່ມີການກວດກາຂອງມະນຸດ.

ການນໍາໃຊ້ AI ຍັງອາດຈະສ້າງຄວາມສ່ຽງທາງດ້ານກົດຫມາຍອື່ນໆສໍາລັບນາຍຈ້າງ, ເຊັ່ນ:

  • ຄົນພິການອາດຈະປະເຊີນກັບຂໍ້ບົກຜ່ອງໂດຍສະເພາະໃນການດໍາເນີນຂະບວນການອັດຕະໂນມັດຫຼືການສໍາພາດ. ຕົວຢ່າງ, ບາງລະບົບອ່ານຫຼືປະເມີນການສະແດງອອກທາງຫນ້າຫຼືການຕອບສະຫນອງຂອງຜູ້ສະຫມັກ, ລະດັບການຕິດຕໍ່ຕາ, ນໍ້າສຽງ, ແລະພາສາ, ເຊິ່ງສາມາດເຮັດໃຫ້ຜູ້ສະຫມັກທີ່ມີຄວາມບົກຜ່ອງທາງດ້ານສາຍຕາຫຼືການໄດ້ຍິນ, ຜູ້ທີ່ຢູ່ໃນສະເປກຂອງ autism ຫຼືມີຄວາມພິການຂອງໃບຫນ້າ. ເນື່ອງຈາກພັນທະພາຍໃຕ້ກົດຫມາຍຂອງອັງກິດເພື່ອເຮັດໃຫ້ການປັບຕົວທີ່ສົມເຫດສົມຜົນເພື່ອລົບຂໍ້ເສຍສໍາລັບຄົນພິການ, ນາຍຈ້າງອາດຈະພົບວ່າຕົນເອງລະເມີດກົດຫມາຍຈໍາແນກໃນເວລາທີ່ນໍາໃຊ້ຊອບແວ AI ເປັນວິທີການເປົ່າຫວ່າງ.
  • ພາສາ ແລະ ນໍ້າສຽງ ຍັງສາມາດເປັນເລື່ອງຍາກສໍາລັບບາງຄົນທີ່ພາສາທໍາອິດບໍ່ແມ່ນພາສາອັງກິດ, ເຊິ່ງເພີ່ມຄວາມສ່ຽງຕໍ່ການມີອະຄະຕິທາງເຊື້ອຊາດ ແລະການຮຽກຮ້ອງການຈໍາແນກທີ່ຜິດກົດໝາຍບົນພື້ນຖານເຊື້ອຊາດ.

ໃນສະຫະລາຊະອານາຈັກ, ການຊົດເຊີຍສໍາລັບການຈໍາແນກທີ່ຜິດກົດຫມາຍແມ່ນບໍ່ຈໍາກັດ (ເຖິງແມ່ນວ່າສານພິຈາລະນາ “ແຖບ Vento” ໃນເວລາທີ່ປະເມີນຄ່າຊົດເຊີຍ, ແຖບເທິງໃນປະຈຸບັນແມ່ນປະມານ 50,000 £ (59,416 ໂດລາ) ສໍາລັບກໍລະນີທີ່ຮ້າຍແຮງທີ່ສຸດຂອງການຈໍາແນກທີ່ຜິດກົດຫມາຍ).

ຄວາມສ່ຽງດ້ານກົດໝາຍຫຼັກ – ການປົກປ້ອງຂໍ້ມູນ

ມັນເປັນໄປໄດ້ວ່າການນໍາໃຊ້ AI ໃນລະຫວ່າງວົງຈອນຊີວິດການຈ້າງງານຈະກ່ຽວຂ້ອງກັບການປະມວນຜົນຂໍ້ມູນສ່ວນບຸກຄົນຂອງຜູ້ສະຫມັກແລະ / ຫຼືພະນັກງານ. ດັ່ງນັ້ນ, ນາຍຈ້າງຄວນຈະມີສະຕິຕໍ່ພັນທະຂອງຕົນພາຍໃຕ້ກົດລະບຽບຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ, ໂດຍສະເພາະກັບສາມຫຼັກການທີ່ສໍາຄັນ: (1) ຄວາມຊອບທໍາ, (2) ຄວາມຍຸດຕິທໍາ, ແລະ (3) ຄວາມໂປ່ງໃສ.

ການນໍາໃຊ້ເຕັກໂນໂລຢີ AI ເພື່ອຕັດສິນໃຈການຈ້າງງານ, ໂດຍບໍ່ມີການກວດສອບຂອງມະນຸດ, ຈະຕົກຢູ່ໃນຂອບເຂດຂອງ “ການຕັດສິນໃຈອັດຕະໂນມັດເທົ່ານັ້ນ.” ກົດລະບຽບການປົກປ້ອງຂໍ້ມູນທົ່ວໄປຂອງອັງກິດ (GDPR) ແລະກົດຫມາຍວ່າດ້ວຍການປົກປ້ອງຂໍ້ມູນ 2018 ຈໍາກັດນາຍຈ້າງຈາກການຕັດສິນໃຈອັດຕະໂນມັດທີ່ມີຜົນກະທົບຢ່າງຫຼວງຫຼາຍຕໍ່ວິຊາຂໍ້ມູນເວັ້ນເສຍແຕ່ວ່ານີ້ແມ່ນ:

  • ອະນຸຍາດຕາມກົດໝາຍ;
  • ມີຄວາມຈໍາເປັນສໍາລັບສັນຍາ; ຫຼື
  • ບ່ອນທີ່ມີການຍິນຍອມເຫັນດີຢ່າງຈະແຈ້ງ.

ເຖິງແມ່ນວ່າຫຼັງຈາກນັ້ນ, ຍົກເວັ້ນບ່ອນທີ່ມັນຖືກອະນຸຍາດໂດຍກົດຫມາຍ, ການປົກປ້ອງສະເພາະຕ້ອງຢູ່ໃນສະຖານທີ່, ເຊັ່ນກົນໄກສໍາລັບບຸກຄົນທີ່ຈະທ້າທາຍການຕັດສິນໃຈແລະໄດ້ຮັບການແຊກແຊງຂອງມະນຸດກ່ຽວກັບການຕັດສິນໃຈ. (ໂດຍພື້ນຖານແລ້ວ, ນີ້ແມ່ນຂະບວນການອຸທອນຂອງມະນຸດ).

ການປະມວນຜົນຂໍ້ມູນສ່ວນຕົວປະເພດພິເສດ, ເຊັ່ນ: ຂໍ້ມູນສຸຂະພາບ ຫຼືຊີວະມິຕິ, ແມ່ນຖືກຈຳກັດຕື່ມອີກ ເວັ້ນເສຍແຕ່ວ່າມີເຫດຜົນທາງກົດໝາຍສະເພາະ.

ການໃຊ້ AI ໃດໜຶ່ງມີແນວໂນ້ມທີ່ຈະຮຽກຮ້ອງໃຫ້ມີການປະເມີນຜົນກະທົບດ້ານການປົກປ້ອງຂໍ້ມູນ. ຖ້າຄວາມສ່ຽງສູງຕໍ່ສິດທິຂອງບຸກຄົນບໍ່ສາມາດຫຼຸດຜ່ອນໄດ້, ການປຶກສາຫາລືລ່ວງຫນ້າກັບອົງການຄວບຄຸມທີ່ກ່ຽວຂ້ອງ (ເຊັ່ນ: ຫ້ອງການຄະນະກໍາມະຂໍ້ມູນຂ່າວສານ (ICO) ໃນສະຫະລາຊະອານາຈັກ) ແມ່ນຈໍາເປັນແລະເຕັກໂນໂລຢີ AI ບໍ່ສາມາດຖືກນໍາໄປໃຊ້ໂດຍບໍ່ມີການຍິນຍອມເຫັນດີຈາກ. ອົງ​ການ​ຄວບ​ຄຸມ​.

ICO ໄດ້ອອກຄໍາແນະນໍາແລະຊຸດເຄື່ອງມື AI ເພື່ອຊ່ວຍອົງການຈັດຕັ້ງໃນການກໍານົດແລະຫຼຸດຜ່ອນຄວາມສ່ຽງທີ່ເກີດຂື້ນຈາກການນໍາໃຊ້ເຕັກໂນໂລຢີ AI.

ຫຼຸດຜ່ອນຄວາມສ່ຽງ

ເຖິງວ່າຈະມີຄວາມສ່ຽງທີ່ໄດ້ກ່າວມາຂ້າງເທິງ, ການນໍາໃຊ້ເຕັກໂນໂລຢີ AI ກໍາລັງພັດທະນາຢ່າງໄວວາແລະມີຫຼາຍຂັ້ນຕອນທີ່ນາຍຈ້າງສາມາດປະຕິບັດເພື່ອແນະນໍາເຕັກໂນໂລຢີທີ່ມີນະວັດກໍາໃນຂະນະທີ່ຫຼຸດຜ່ອນຄວາມສ່ຽງທາງດ້ານກົດຫມາຍ, ລວມທັງ:

  • ຮັບປະກັນວ່າເຂົາເຈົ້າໄດ້ຮັບການຝຶກອົບຮົມຢ່າງເຕັມທີ່, ບຸກຄົນທີ່ມີປະສົບການທີ່ຮັບຜິດຊອບສໍາລັບການພັດທະນາແລະການນໍາໃຊ້ AI ເພື່ອຫຼຸດຜ່ອນຄວາມສ່ຽງຂອງຄວາມລໍາອຽງແລະການຈໍາແນກ. ຜູ້ໃຫ້ບໍລິການເຕັກໂນໂລຢີຄວນຈະສາມາດສະແດງໃຫ້ເຫັນວ່າຂໍ້ມູນແລະສູດການຄິດໄລ່ໄດ້ຖືກທົດສອບຄວາມກົດດັນສໍາລັບຄວາມລໍາອຽງແລະການຈໍາແນກຕໍ່ຜູ້ສະຫມັກເພາະວ່າຕົວຢ່າງ, ເພດ, ເຊື້ອຊາດ, ຫຼືອາຍຸຂອງເຂົາເຈົ້າ, ແລະການປະເມີນຜົນກະທົບທີ່ແຕກຕ່າງກັນຄວນໄດ້ຮັບການດໍາເນີນການເປັນປົກກະຕິ. ພື້ນຖານ. ແລະພື້ນຖານຢ່າງຕໍ່ເນື່ອງ.
  • ການສ້າງນະໂຍບາຍແລະການປະຕິບັດທີ່ຊັດເຈນແລະໂປ່ງໃສກ່ຽວກັບການນໍາໃຊ້ AI ໃນການຕັດສິນໃຈການຈ້າງງານ.
  • ການກໍານົດບຸກຄະລາກອນທີ່ເຫມາະສົມເພື່ອຊັ່ງນໍ້າຫນັກຢ່າງຈິງຈັງແລະຕີຄວາມຫມາຍຄໍາແນະນໍາແລະການຕັດສິນໃຈທີ່ເຮັດໂດຍ AI ໃນຂະບວນການຮັບສະຫມັກກ່ອນທີ່ຈະນໍາໃຊ້ກັບບຸກຄົນໃດຫນຶ່ງ. ມັນເປັນສິ່ງສໍາຄັນທີ່ການທົບທວນຂອງມະນຸດທີ່ມີຄວາມຫມາຍໄດ້ຖືກປະຕິບັດ; ຂໍ້ຈໍາກັດດ້ານຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນບໍ່ສາມາດຫຼີກລ່ຽງໄດ້ໂດຍການພຽງແຕ່ “ການປະທັບຕາຢາງ” ການຕັດສິນໃຈອັດຕະໂນມັດ.
  • ບໍ່ພຽງແຕ່ອີງໃສ່ AI ເທົ່ານັ້ນ – ຮັບປະກັນວ່າ AI ຖືກນໍາໃຊ້ພຽງແຕ່ເປັນອົງປະກອບເພື່ອຊ່ວຍໃນການຕັດສິນໃຈຈ້າງ.
  • ໃຫ້ແນ່ໃຈວ່າຂະບວນການອະນຸຍາດໃຫ້ມີການແຊກແຊງຂອງມະນຸດ: ຖ້າຜູ້ສະຫມັກຕ້ອງການການປັບຕົວຍ້ອນຄວາມພິການ, ເຮັດໃຫ້ມັນຊັດເຈນກັບໃຜແລະພວກເຂົາຄວນຕິດຕໍ່ເພື່ອປຶກສາຫາລືກ່ຽວກັບສິ່ງທີ່ອາດຈະຕ້ອງການ.
  • ການປະຕິບັດການປະເມີນຜົນກະທົບຕໍ່ຄວາມສະເຫມີພາບຢ່າງຕໍ່ເນື່ອງເພື່ອກໍານົດບັນຫາເບື້ອງຕົ້ນຫຼືຜົນກະທົບທາງລົບຕໍ່ຄວາມຫຼາກຫຼາຍແລະການລວມເອົາເປັນຜົນມາຈາກການນໍາສະເຫນີເຕັກໂນໂລຢີ AI.
  • ກ່ອນທີ່ຈະປະຕິບັດ AI, ພິຈາລະນາວ່າການປະເມີນຜົນກະທົບດ້ານການປົກປ້ອງຂໍ້ມູນແມ່ນຈໍາເປັນ. ນອກຈາກນັ້ນ, ນາຍຈ້າງສາມາດນໍາໃຊ້ຊຸດເຄື່ອງມື AI ຂອງ ICO ເພື່ອປະເມີນຄວາມສ່ຽງແລະປະຕິບັດມາດຕະການຫຼຸດຜ່ອນ.
  • ຈາກທັດສະນະຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ, ພິຈາລະນາແລະກໍານົດພື້ນຖານທີ່ຖືກຕ້ອງຕາມກົດຫມາຍສໍາລັບການປະມວນຜົນຂໍ້ມູນສ່ວນບຸກຄົນໃນລັກສະນະນີ້ກ່ອນທີ່ຈະດໍາເນີນການກັບໂປຣໄຟລ໌ອັດຕະໂນມັດຫຼືການຕັດສິນໃຈ.
  • ອັບເດດແຈ້ງການຄວາມເປັນສ່ວນຕົວຂອງຜູ້ສະໝັກ ແລະພະນັກງານ ເພື່ອເຮັດໃຫ້ການນຳໃຊ້ເທັກໂນໂລຍີ AI ຊັດເຈນໃນການປະມວນຜົນຂໍ້ມູນສ່ວນຕົວ.

ການພັດທະນາໃນອະນາຄົດ

AI ມີແນວໂນ້ມທີ່ຈະສືບຕໍ່ເປັນຫົວຂໍ້ຮ້ອນໃນປີ 2023 ແລະຕໍ່ໄປ. ບໍ່ດົນມານີ້, ປະເທດຈໍານວນຫນຶ່ງໄດ້ນໍາສະເຫນີນິຕິກໍາທີ່ສຸມໃສ່ AI. ໃນລັດນິວຢອກ, ນິຕິກໍາທີ່ຜ່ານມາມີຜົນບັງຄັບໃຊ້ໃນວັນທີ 1 ມັງກອນ 2023, ຈະຫ້າມການນໍາໃຊ້ເຄື່ອງມື AI ໃນການຕັດສິນໃຈການຈ້າງງານເວັ້ນເສຍແຕ່ວ່າມັນຈະຖືກ “ການກວດສອບຄວາມລໍາອຽງ” ແລະການນໍາໃຊ້ໄດ້ຖືກເປີດເຜີຍ, ມີໂອກາດທີ່ຈະຮ້ອງຂໍໃຫ້ມີຂະບວນການທາງເລືອກ. ໃນປີ 2021, ຄະນະກໍາມະການເອີຣົບໄດ້ສະເຫນີໃຫ້ປະຕິບັດກອບກົດຫມາຍໃຫມ່ເພື່ອແກ້ໄຂຄວາມສ່ຽງຂອງການນໍາໃຊ້ AI, ເຊິ່ງກໍານົດຂໍ້ກໍານົດແລະພັນທະກ່ຽວກັບການນໍາໃຊ້ AI, ຄໍາຮ້ອງສະຫມັກທີ່ມີຄວາມສ່ຽງສູງຂອງເຕັກໂນໂລຢີ, ແລະກໍານົດໂຄງສ້າງການບັງຄັບໃຊ້ແລະການຄຸ້ມຄອງ. ໃນປະເທດເຢຍລະມັນ, ນາຍຈ້າງມີພັນທະໃນການປຶກສາຫາລືກັບສະພາການເຮັດວຽກ (ອົງການທີ່ປຶກສາທີ່ເປັນຕົວແທນຂອງພະນັກງານ) ເມື່ອແນະນໍາ AI ໃນສະຖານທີ່ເຮັດວຽກ.

ໃນສະຫະລາຊະອານາຈັກ, ໄດ້ມີການຮຽກຮ້ອງໂດຍກອງປະຊຸມສະຫະພັນການຄ້າໃນບົດລາຍງານແນະນໍາມາດຕະການເພື່ອປ້ອງກັນການຈໍາແນກ algorithm, ລວມທັງ:

  • ການກັບຄືນຂອງພາລະຂອງຫຼັກຖານສະແດງສໍາລັບການນໍາໃຊ້ AI, ບ່ອນທີ່ນາຍຈ້າງຕ້ອງ disprove ວ່າການຈໍາແນກທີ່ເກີດຂຶ້ນແທນທີ່ຈະກ່ວາຜູ້ຮ້ອງຂໍຮັບພາລະຂອງຫຼັກຖານສະແດງ;
  • ການສ້າງຄໍາແນະນໍາທາງດ້ານກົດຫມາຍກ່ຽວກັບຂັ້ນຕອນທີ່ອາດຈະຖືກປະຕິບັດເພື່ອຫຼີກເວັ້ນການຈໍາແນກບ່ອນທີ່ AI ຖືກນໍາໃຊ້; ແລະ
  • ການລົງທະບຽນ AI ບັງຄັບໃຫ້ໄດ້ຮັບການປັບປຸງເປັນປົກກະຕິໂດຍນາຍຈ້າງແລະມີໃຫ້ຜູ້ສະຫມັກ.

ລັດຖະບານອັງກິດໄດ້ພິມເຜີຍແຜ່ເອກະສານນະໂຍບາຍດ້ານ AI ໃນວັນທີ 18 ກໍລະກົດ 2022, ເຊິ່ງເປັນສ່ວນຫນຶ່ງຂອງຍຸດທະສາດ AI ແຫ່ງຊາດຂອງລັດຖະບານອັງກິດ ແລະແຜນປະຕິບັດງານ AI ຂອງຕົນ. ກະດາດສີຂາວກ່ຽວກັບການນໍາໃຊ້ AI ຄາດວ່າຈະມີໃນທ້າຍປີແລະນາຍຈ້າງສາມາດຄາດຫວັງວ່າການຊີ້ນໍາເພີ່ມເຕີມຈະອອກມາໃນເດືອນຂ້າງຫນ້າ.

ການນຳທາງຕໍ່ໄປ.

ການແບ່ງປັນຄວາມເຂົ້າໃຈ ແລະຊັບພະຍາກອນທີ່ຊ່ວຍໃຫ້ລູກຄ້າຂອງພວກເຮົາກະກຽມ ແລະແກ້ໄຂບັນຫາທີ່ກໍາລັງພັດທະນາແມ່ນຈຸດເດັ່ນຂອງ Morgan Lewis. ໃນຈຸດນີ້, ພວກເຮົາຮັກສາສູນຊັບພະຍາກອນທີ່ມີການເຂົ້າເຖິງເຄື່ອງມືແລະທັດສະນະກ່ຽວກັບຫົວຂໍ້ທີ່ທັນເວລາທີ່ຂັບເຄື່ອນໂດຍເຫດການໃນປະຈຸບັນເຊັ່ນ: ວິກິດການສຸຂະພາບສາທາລະນະທົ່ວໂລກ, ຄວາມບໍ່ແນ່ນອນທາງດ້ານເສດຖະກິດ, ແລະນະໂຍບາຍດ້ານພູມສາດ. ຊອກຫາຊັບພະຍາກອນກ່ຽວກັບວິທີການຮັບມືກັບທຸລະກິດ, ສັງຄົມ, ແລະພູມສັນຖານທາງດ້ານການເມືອງທີ່ມີການປ່ຽນແປງຂອງໂລກຢູ່ Navigating the NEXT. ​ເພື່ອ​ໃຫ້​ທັນ​ສະ​ໄໝ​ກ່ຽວ​ກັບ​ການ​ພັດ​ທະ​ນາ​ໃນ​ຂະ​ນະ​ທີ່​ມັນ​ເປີດ​ເຜີຍ. ຈອງດຽວນີ້ຖ້າທ່ານຕ້ອງການຮັບບົດສະຫຼຸບຂອງການອັບເດດ ໃໝ່ ກ່ຽວກັບຊັບພະຍາກອນເຫຼົ່ານີ້.

Categories: AiHome

0 Comments

Leave a Reply

Avatar placeholder

Your email address will not be published. Required fields are marked *