ໃນເດືອນນີ້, ຫ້ອງການນະໂຍບາຍວິທະຍາສາດແລະເຕັກໂນໂລຢີຂອງ ທຳ ນຽບຂາວ (OSTP) ໄດ້ອອກ “ໃບປະກາດສະນີຍະບັດສໍາລັບສິດທິຂອງ AI.” ເອກະສານດັ່ງກ່າວໄດ້ວາງແຜນພື້ນທີ່ທີ່ປັນຍາປະດິດ (AI) ອາດຈະເປັນໄພຂົ່ມຂູ່ຕໍ່ສິດທິທີ່ມີຢູ່ແລ້ວຂອງພວກເຮົາແລະສ້າງຊຸດສິດທິທີ່ບຸກຄົນຄວນຈະຄາດຫວັງວ່າຈະມີຍ້ອນວ່າພວກເຂົາໃຊ້ເຕັກໂນໂລຢີທີ່ພົ້ນເດັ່ນຂື້ນເຫຼົ່ານີ້.

ແຜນຜັງ OSTP ສົ່ງສອງຂໍ້ຄວາມ. ທໍາອິດ, ມັນຮັບຮູ້ວ່າ AI ກໍາລັງສົ່ງຜົນກະທົບຕໍ່ – ແລະອາດຈະມີການປ່ຽນແປງ – ທຸກສິ່ງທຸກຢ່າງ: ການປ່ຽນແປງການປະຕິບັດທາງການແພດ, ທຸລະກິດ, ວິທີການທີ່ພວກເຮົາຊື້ຜະລິດຕະພັນແລະວິທີທີ່ພວກເຮົາພົວພັນກັບກັນແລະກັນ. ອັນທີສອງ, ມັນຊີ້ໃຫ້ເຫັນຄວາມຈິງທີ່ວ່າເຕັກໂນໂລຢີເຫຼົ່ານີ້, ໃນຂະນະທີ່ມີການປ່ຽນແປງ, ຍັງສາມາດເປັນອັນຕະລາຍຕໍ່ບຸກຄົນ, ກຸ່ມແລະສັງຄົມ, ເຊິ່ງມີທ່າແຮງທີ່ຈະຂະຫຍາຍແລະຂະຫຍາຍການປະຕິບັດການຈໍາແນກ, ການລະເມີດຄວາມເປັນສ່ວນຕົວຫຼືລະບົບທີ່ບໍ່ປອດໄພຫຼືມີປະສິດທິພາບ.

ເອກະສານດັ່ງກ່າວໄດ້ກໍານົດຫຼັກການສໍາລັບສິດທິຂອງພວກເຮົາໃນໂລກດິຈິຕອນ. ຂັ້ນຕອນຕໍ່ໄປແມ່ນການກໍານົດວິທີການປະຕິບັດຫຼັກການເຫຼົ່ານີ້ໃນການປະຕິບັດ.

ໃນຂະນະທີ່ມີຫຼາຍວິທີທີ່ຈະຄິດກ່ຽວກັບການແປຫຼັກການນີ້ໄປສູ່ການປະຕິບັດ, ມັນເປັນປະໂຫຍດທີ່ຈະຖາມຄໍາຖາມງ່າຍໆຫນຶ່ງ: “ມັນປອດໄພບໍ?” — ແລະ, ຖ້າຄໍາຕອບແມ່ນບໍ່ຮູ້, ຈົ່ງເຮັດວຽກເພື່ອສ້າງວິທະຍາສາດຄວາມປອດໄພເພື່ອສະຫນອງມັນ.

ມັນເປັນປະໂຫຍດທີ່ຈະຊອກຫາເຕັກໂນໂລຢີແລະຜະລິດຕະພັນອື່ນໆທີ່ປ່ຽນແປງໂລກຂອງພວກເຮົາ. ໄຟຟ້າ, ລົດຍົນ ແລະ ໂທລະຄົມມະນາຄົມ ລ້ວນແຕ່ໄດ້ປ່ຽນແປງວິທີການເຮັດວຽກ, ການດຳລົງຊີວິດ, ການພົວພັນກັບກັນ ແລະ ການດຳເນີນທຸລະກິດຢ່າງເລິກເຊິ່ງ. ແຕ່ລະຄົນມີ – ແລະຍັງມີ – ບັນຫາກ່ຽວກັບວິທີທີ່ພວກເຂົາສົ່ງຜົນກະທົບຕໍ່ພວກເຮົາ, ແຕ່ສໍາລັບພວກເຂົາທັງຫມົດ, ພວກເຮົາຖາມຄໍາຖາມດຽວ, ຊີ້: ມັນປອດໄພບໍ?

ໄຟຟ້າເຮັດໃຫ້ພວກເຮົາມີຄວາມສະຫວ່າງ, ພະລັງງານແລະຄວາມອົບອຸ່ນ, ແຕ່ຖ້າຄ່າໃຊ້ຈ່າຍແມ່ນໄຟໄຫມ້ທີ່ເຜົາເຮືອນຂອງພວກເຮົາ, ຜົນປະໂຫຍດຂອງມັນແມ່ນບໍ່ມີຄວາມຫມາຍ. ລົດແມ່ນຄ້າຍຄືກັນກັບອິດສະລະພາບ, ແຕ່ສິ່ງທີ່ດີແມ່ນເສລີພາບຖ້າການຂັບລົດຢ່າງຕໍ່ເນື່ອງຂອງພວກເຮົາທໍາລາຍໂລກຂອງພວກເຮົາ? ແລະໂລກຂອງການສື່ສານເຊື່ອມຕໍ່ພວກເຮົາເຂົ້າກັນ, ແຕ່ບໍ່ແມ່ນຖ້າເນື້ອຫາທີ່ມີຄວາມເຂົ້າໃຈຜິດ, ກຽດຊັງຫຼືເປັນອັນຕະລາຍຕໍ່ລູກຂອງພວກເຮົາ.

ສໍາລັບເຕັກໂນໂລຢີທັງຫມົດເຫຼົ່ານີ້, ຄໍາຖາມຂອງຄວາມປອດໄພແມ່ນຄົງທີ່. ພວກເຮົາຕ້ອງການໃຫ້ເຕັກໂນໂລຊີເຫຼົ່ານີ້ເປັນປະໂຫຍດສະເຫມີ, ແລະ ພວກເຮົາຕ້ອງການໃຫ້ພວກເຂົາປອດໄພ. ເພື່ອເຮັດໃຫ້ພວກມັນປອດໄພ, ພວກເຮົາຈໍາເປັນຕ້ອງກໍານົດເງື່ອນໄຂທີ່ພວກມັນຈະທໍາລາຍແລະປະຕິບັດທີ່ປ້ອງກັນ, ຫຼຸດຜ່ອນຫຼືແກ້ໄຂອັນຕະລາຍທີ່ອາດຈະເກີດຂື້ນ.

ໃນຂະນະທີ່ພວກເຮົາພິຈາລະນາອະນາຄົດຂອງ AI, ພວກເຮົາຈໍາເປັນຕ້ອງເຮັດໃຫ້ຄວາມຕ້ອງການດຽວກັນແລະເປີດເຜີຍການຕັດສິນໃຈແລະເງື່ອນໄຂທີ່ນໍາໄປສູ່ຜົນກະທົບທີ່ເປັນອັນຕະລາຍ. ພວກເຮົາຈໍາເປັນຕ້ອງກໍານົດວິທີການເຮັດໃຫ້ເຕັກໂນໂລຢີອັດສະລິຍະເປັນປະໂຫຍດແລະປອດໄພ.

ປອດໄພໃນລະບົບການວິນິດໄສທາງການແພດຕ້ອງໄດ້ຮັບການຝຶກອົບຮົມດ້ວຍຊຸດຕົວຢ່າງລວມເພື່ອບໍ່ໃຫ້ບຸກຄົນ ແລະກຸ່ມຖືກຍົກເວັ້ນ ແລະ ປິ່ນປົວໜ້ອຍ.

ປອດໄພໃນລະບົບທີ່ຊ່ວຍພວກເຮົາໃນການຕັດສິນໃຈ ຈໍາເປັນຕ້ອງໄດ້ອອກແບບມາເພື່ອຊ່ວຍພວກເຮົາ — ແທນທີ່ຈະໝູນໃຊ້ພວກເຮົາໃຫ້ເອົາໜ້ອຍລົງ ເພື່ອໃຫ້ຜູ້ອື່ນເອົາຫຼາຍກວ່ານັ້ນ.

ປອດໄພໃນລະບົບທີ່ປະເມີນສິນເຊື່ອຂອງໃຜຜູ້ຫນຶ່ງ, ທັກສະສໍາລັບວຽກເຮັດງານທໍາຫຼືເຫມາະສໍາລັບວິທະຍາໄລຍັງບໍ່ທັນໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນປະຫວັດສາດທີ່ການຕັດສິນໃຈເຫຼົ່ານີ້ມີຄວາມລໍາອຽງແລະດັ່ງນັ້ນຈຶ່ງເຮັດໃຫ້ອະນາຄົດເປັນ sexist, racist ແລະຊົນເຜົ່າໃນອະດີດ.

ປອດໄພໃນທີ່ຄົນທີ່ໃຊ້ລະບົບທີ່ອາດຈະເຮັດຜິດພາດເຂົ້າໃຈວ່າພວກເຂົາບໍ່ສາມາດຈັບຄົນໄດ້ພຽງແຕ່ຍ້ອນວ່າເຄື່ອງຈັກເວົ້າດັ່ງນັ້ນ.

ແຕ່ຫນ້າເສຍດາຍ, ບາງຄັ້ງມັນເປັນການຍາກທີ່ຈະໂຕ້ຖຽງກັບນັກພັດທະນາແລະທຸລະກິດທີ່ຈ້າງພວກເຂົາວ່າພວກເຂົາຕ້ອງປ່ຽນແປງພຶດຕິກໍາຂອງພວກເຂົາຍ້ອນວ່າພວກເຂົາກໍາລັງຂົ່ມເຫັງສິດທິຂອງໃຜຜູ້ຫນຶ່ງ. ຄວາມ​ຄິດ​ນັ້ນ​ມີ​ຄວາມ​ຮູ້ສຶກ, ແຕ່​ເຂົາ​ເຈົ້າ​ພະຍາຍາມ​ເຂົ້າ​ໃຈ​ການ​ກະທຳ​ທີ່​ເຂົາ​ເຈົ້າ​ຕ້ອງການ.

ມັນອາດຈະມີອໍານາດຫຼາຍກວ່າທີ່ຈະຫັນການສົນທະນາອອກຈາກສິດແລະໄປສູ່ຄວາມຮັບຜິດຊອບ: ຄວາມຮັບຜິດຊອບໃນການພັດທະນາແລະນໍາໃຊ້ລະບົບທີ່ເປັນປະໂຫຍດແລະປອດໄພ.

ຖ້າພວກເຮົາຈະຮັກສາສິດທິທີ່ລະບຸໄວ້ໃນບົດລາຍງານຂອງ OSTP, ພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ພັດທະນາວິທະຍາສາດຄວາມປອດໄພທີ່ແທ້ຈິງສໍາລັບ AI ທີ່ພວກເຮົາສາມາດແປເປັນການປະຕິບັດທີ່ດີທີ່ສຸດສໍາລັບປະຊາຊົນຜູ້ທີ່ກໍາລັງສ້າງມັນ.

ພວກເຮົາຕ້ອງເຮັດຫຍັງແດ່ໂດຍສະເພາະໃນການອອກແບບແລະສ້າງລະບົບທີ່ມີຄວາມປອດໄພສ່ວນບຸກຄົນແລະສັງຄົມຢູ່ໃນຈຸດໃຈກາງຂອງການອອກແບບນັ້ນ? ມີລະບຽບວິໄນແລະວິທະຍາສາດອັນໃດແດ່ທີ່ຕ້ອງໄດ້ຮັບການສ້າງຕັ້ງຂຶ້ນເພື່ອສະຫນອງພວກເຮົາສໍາລັບອະນາຄົດ AI? ມີກົນໄກ ແລະ ເຄື່ອງມືອັນໃດທີ່ຈຳເປັນເພື່ອປະເມີນ ແລະ ຕິດຕາມເພື່ອຄວາມປອດໄພ? ພວກເຮົາຈະພັດທະນາ ແລະສ້າງວິທີການແກ້ໄຂແນວໃດ?

ການສ້າງລະບົບນິເວດຄວາມປອດໄພສໍາລັບ AI ຕ້ອງການຫຼາຍກວ່ານະໂຍບາຍ, ຫຼາຍກວ່າຄວາມກ້າວຫນ້າທາງດ້ານເຕັກໂນໂລຢີ, ຫຼາຍກວ່າຄວາມຕັ້ງໃຈທີ່ດີ. ມັນ​ບໍ່​ແມ່ນ​ການ​ແກ້​ໄຂ​ອອກ​ດຽວ​ຫຼື​ຕົວ​ຢ່າງ​ຂອງ​ລະ​ບົບ​ດຽວ​ທີ່​ບໍ່​ມີ​ຄວາມ​ເສຍ​ຫາຍ​ທີ່​ຄາດ​ບໍ່​ໄດ້​. ມັນ​ຮຽກ​ຮ້ອງ​ໃຫ້​ມີ​ສະ​ເພາະ​ຂອງ​ການ​ປະ​ກອບ​ສ່ວນ interdisciplinary​, multipronged​, ຊ​້​ໍ​າ​ການ​ປະ​ກອບ​ສ່ວນ​ທາງ​ສັງ​ຄົມ​ເຕັກ​ນິກ​ການ​ມາ​ຮ່ວມ​ກັນ​ເພື່ອ​ຄວາມ​ຮັບ​ຜິດ​ຊອບ​ຂອງ​ຄວາມ​ປອດ​ໄພ​.

Kristian Hammond ແມ່ນ Bill ແລະ Cathy Osborn ອາຈານສອນວິທະຍາສາດຄອມພິວເຕີຢູ່ມະຫາວິທະຍາໄລ Northwestern. ຜູ້ບຸກເບີກ AI ແລະຜູ້ປະກອບການ, Hammond ແມ່ນຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງ Narrative Science, ການເລີ່ມຕົ້ນທີ່ນໍາໃຊ້ AI ແລະວາລະສານເພື່ອປ່ຽນຂໍ້ມູນຈາກຂໍ້ມູນດິບເປັນພາສາທໍາມະຊາດ.

Categories: AiHome

0 Comments

Leave a Reply

Avatar placeholder

Your email address will not be published. Required fields are marked *