ໃນຂະນະທີ່ປັນຍາປະດິດມີບົດບາດທີ່ໃຫຍ່ກວ່າ, ຄວາມກັງວົນກ່ຽວກັບຈັນຍາບັນເພີ່ມຂຶ້ນ, Juliette Powell ບອກກອງປະຊຸມດ້ານຈັນຍາບັນ Olafson ຂອງ UND

Juliette Powell, ຜູ້ບັນຍາຍທີ່ໂດດເດັ່ນໃນກອງປະຊຸມປະຈໍາປີ Olafson ຄັ້ງທີ 17 ທີ່ UND, ກ່າວໃນວັນທີ Nov. 3 ກັບຜູ້ຊົມໃນ Nistler Hall ກ່ຽວກັບ ‘The AI ​​Dilemma. ຮູບພາບໂດຍ Tom Dennis/UND Today.

ບັນທຶກບັນນາທິການ: ວິດີໂອຂອງ Olafson Ethics Symposium ສາມາດພົບໄດ້ໃນຕອນທ້າຍຂອງເລື່ອງນີ້.

ເອີ້ນມັນວ່າ Artificial Intelligence Dilemma, ແລະຮັບຮູ້ວ່າມັນເປັນຫນຶ່ງໃນສິ່ງທ້າທາຍດ້ານເຕັກໂນໂລຢີທີ່ສໍາຄັນທີ່ສຸດຂອງ 21.st ສະຕະວັດ.

ແຕ່ຢ່າເຂົ້າໃຈຜິດ, Juliette Powell, ລໍາໂພງທີ່ໂດດເດັ່ນຢູ່ທີ່ 17 ກ່າວ ກອງປະຊຸມປີ Olafson Ethics Symposium, ເປັນເຫດການທີ່ຈັດຂຶ້ນໂດຍວິທະຍາໄລ Nistler ຂອງທຸລະກິດແລະບໍລິຫານສາທາລະນະຂອງ UND.

“ເພາະວ່າເມື່ອຂ້ອຍເວົ້າກ່ຽວກັບບັນຫາທີ່ຫຍຸ້ງຍາກ, ມັນບໍ່ແມ່ນວ່າຫຸ່ນຍົນຈະເຂົ້າມາລັກເອົາວຽກຂອງພວກເຮົາ,” Powell ບອກຜູ້ຊົມ. “ມັນບໍ່ແມ່ນວ່າພວກເຂົາຈະກາຍເປັນເຈົ້າຂອງຫຸ່ນຍົນ.”

ແທນທີ່ຈະ, AI Dilemma ແມ່ນທັງສອງ exotic ຫນ້ອຍກ່ວາຕົວຢ່າງຂ້າງເທິງ, ແຕ່ໃນເວລາດຽວກັນ, ເລິກຫຼາຍ. ນາງກ່າວວ່າ “ມັນກ່ຽວກັບວິທີການທີ່ພວກເຮົາຈະຈັດການກັບເຕັກໂນໂລຢີທີ່ພວກເຮົາໃຊ້ໃນແຕ່ລະມື້ຂອງຊີວິດຂອງພວກເຮົາ,” ເພາະວ່າ AI ແມ່ນໃຫ້ພວກເຮົາມີການໂຄສະນາປ້າຍໂຄສະນາທີ່ວິເຄາະພວກເຮົາແລ້ວໃນຂະນະທີ່ພວກເຮົາເບິ່ງພວກເຂົາ, ສູດການຄິດໄລ່ທີ່ຄາດຄະເນການລົງໂທດທາງອາຍາແລະແຈ້ງໂທດການລົງໂທດ. . , ແລະຊອບແວສ້າງສຽງເວົ້າແມ່ນຖືກຕ້ອງຫຼາຍຈົນເຮັດໃຫ້ຄົນທີ່ “ຫຼົງໄຫຼ” ສົງໄສວ່າ, “ເປັນຫຍັງຂ້ອຍຈຶ່ງເວົ້າແນວນັ້ນຢູ່ແຜ່ນດິນໂລກ?”

ດັ່ງທີ່ຄໍາເວົ້າທີ່ວ່າ, ອໍານາດອັນໃຫຍ່ຫຼວງມາເຖິງຄວາມຮັບຜິດຊອບອັນໃຫຍ່ຫຼວງ, Powell ກ່າວ. ແຕ່ໃນປັດຈຸບັນມະນຸດສ່ວນໃຫຍ່ກໍາລັງຖືເອົາໂທລະສັບສະຫຼາດທີ່ມີພະລັງງານບໍ່ຈໍາກັດ, ຄໍາເວົ້າແມ່ນກ່ຽວຂ້ອງກັບພວກເຮົາທຸກຄົນ, ບໍ່ພຽງແຕ່ກະສັດແລະລາຊິນີເທົ່ານັ້ນ.

ນາງກ່າວວ່າ “ຫຼາຍກວ່າແລະຫຼາຍ, ຊີວິດທີ່ທັນສະໄຫມໄດ້ຖືກຂັບເຄື່ອນໂດຍປັນຍາປະດິດ,” ນາງເວົ້າ. “ດັ່ງນັ້ນ, ເຖິງແມ່ນວ່າທ່ານຈະບໍ່ເຂົ້າໄປໃນເຕັກໂນໂລຢີ, ເຖິງແມ່ນວ່າ AI ບໍ່ແມ່ນສິ່ງທີ່ເຈົ້າເຄີຍຄິດກ່ຽວກັບ, ນີ້ອາດຈະເປັນຄວາມສົນໃຈຖ້າທ່ານມີຄວາມສົນໃຈໃນການເປັນສ່ວນຫນຶ່ງຂອງເຊື້ອຊາດຂອງມະນຸດ.”

Amy Henley, ຄະນະບໍດີຂອງວິທະຍາໄລ Nistler College of Business & Public Administration ທີ່ UND, ແນະນໍາ Juliette Powell ໃນເດືອນພະຈິກ. 3 ໃນກອງປະຊຸມກ່ຽວກັບຈັນຍາບັນ Olafson ປະຈໍາປີ 17 ຂອງວິທະຍາໄລ. ຮູບພາບໂດຍ Tom Dennis/UND Today.

ຜູ້ຂຽນ, ນັກວິເຄາະແລະນັກສະແດງຄວາມຄິດເຫັນ

Powell ເປັນຜູ້ຂຽນແລະທີ່ປຶກສາກ່ຽວກັບຈຸດຕັດກັນຂອງເຕັກໂນໂລຢີ, ທຸລະກິດແລະຈັນຍາບັນ, ແລະນາງໄດ້ແນະນໍາອົງການຈັດຕັ້ງຂະຫນາດໃຫຍ່ແລະຂະຫນາດນ້ອຍກ່ຽວກັບວິທີການຈັດການກັບນະວັດກໍາເຕັກໂນໂລຢີທີ່ເປີດໃຊ້ AI.

ຜູ້ຊະນະການປະກວດນາງສາວການາດາປີ 1989, Powell ໄດ້ເຮັດວຽກໃນໂທລະພາບເປັນເຈົ້າພາບ, ນັກຂ່າວທຸລະກິດແລະນັກວິເຄາະ. ນາງໄດ້ສະເຫນີຄໍາຄິດຄໍາເຫັນສົດກ່ຽວກັບ Bloomberg, BNN, NBC, CNN, ABC ແລະ BBC, ແລະໄດ້ນໍາສະເຫນີຢູ່ໃນສະຖາບັນຕ່າງໆເຊັ່ນ The Economist, Harvard ແລະ MIT ກ່ຽວກັບຫົວຂໍ້ທີ່ສຸມໃສ່ການຮູ້ຫນັງສືດິຈິຕອນແລະການປະຕິບັດຄວາມຮັບຜິດຊອບຂອງ AI.

Amy Henley, ຄະນະບໍດີຂອງວິທະຍາໄລ Nistler College of Business & Public Administration ກ່າວວ່າ, ກອງປະຊຸມ Olafson Ethics Symposium ປະຈໍາປີແມ່ນມີຈຸດປະສົງເພື່ອໃຫ້ນັກຮຽນແລະຊຸມຊົນທຸລະກິດມີໂອກາດທີ່ຈະຄົ້ນຫາຄວາມສໍາຄັນຂອງຈັນຍາບັນສ່ວນບຸກຄົນແລະວິຊາຊີບ, Amy Henley, ຄະນະບໍດີຂອງວິທະຍາໄລ Nistler ບໍລິຫານທຸລະກິດແລະສາທາລະນະ. ເຫດການດັ່ງກ່າວແມ່ນໄດ້ຮັບການສະຫນອງທຶນໂດຍຜ່ານການສະຫນັບສະຫນູນຂອງ Robert Olafson, ຈົບການສຶກສາຄະນິດສາດແລະບໍລິຫານທຸລະກິດຈາກ UND ແລະການອຸທິດຕົນເພື່ອການປະຕິບັດທຸລະກິດດ້ານຈັນຍາບັນແລະວິທະຍາໄລ. ການສະຫນັບສະຫນູນເພີ່ມເຕີມໄດ້ຖືກສະຫນອງໂດຍບໍລິສັດການລົງທຶນ SEI.

Symposium ປີນີ້ເປັນຄັ້ງທໍາອິດທີ່ຈັດຂຶ້ນໃນ Nistler Hall ໃຫມ່, ອາຄານໃຫມ່ຂອງວິທະຍາໄລ Nistler, Henley ສັງເກດເຫັນ. ນອກຈາກນັ້ນ, Henley ກ່າວວ່າ, ນາງມີຄວາມຍິນດີທີ່ສຸດທ້າຍໄດ້ຕ້ອນຮັບ Powell ໃນຖານະທີ່ກ່າວຄໍາປາໄສ.

“ພວກເຮົາໄດ້ສົນທະນາກັບ Juliette ເປັນເວລາຫຼາຍກວ່າສອງປີແລ້ວ, ໂດຍຜ່ານສິ່ງທ້າທາຍທັງຫມົດຂອງ COVID,” Henley ບອກຜູ້ຊົມ Barry Auditorium ປະມານ 200 ຄົນໃນວັນທີ ພະຈິກ. 3. “ພວກເຮົາບໍ່ໄດ້ເອົານາງມາທີ່ນີ້ທັນທີທີ່ພວກເຮົາຕ້ອງການ, ສະນັ້ນພວກເຮົາຕື່ນເຕັ້ນທີ່ສຸດທີ່ຈະມີນາງຢູ່ໃນວິທະຍາເຂດ.”

ທ່ານ Powell ກ່າວ​ວ່າ, ສຳ​ລັບ​ທ່ານ​ນາງ, ການ​ຢ້ຽມ​ຢາມ​ແມ່ນ​ມີ​ຄ່າ​ຄວນ​ລໍ​ຖ້າ. ນອກເໜືອໄປຈາກນາງໄດ້ເຂົ້າໄປເບິ່ງຫໍ Nistler ໃໝ່ “ທີ່ໜ້າອັດສະຈັນ, ອັດສະຈັນ”, “ທຸກຄົນທີ່ຂ້າພະເຈົ້າໄດ້ໂອ້ລົມກັບໂຮງຮຽນມາເຖິງຕອນນັ້ນ ໄດ້ເຮັດໃຫ້ຂ້າພະເຈົ້າຮູ້ສຶກເຖິງເຮືອນ ແລະ ຍິນດີຕ້ອນຮັບ”.

ອີເມວຈາກວິທະຍາໄລແມ່ນເຕັມໄປດ້ວຍຄວາມຮູ້ສຶກນັ້ນ, ແລະເມື່ອມີອຸປະສັກໃນການເດີນທາງເກີດຂື້ນ, “ມີບາງຄົນຢູ່ທີ່ນີ້ເພື່ອເຮັດໃຫ້ຂ້ອຍຮູ້ສຶກວ່າມັນຈະດີ,” ນາງເວົ້າ.

ແລະນັ້ນແມ່ນຂອງຂວັນດັ່ງກ່າວ. ຂ້າພະເຈົ້າໄດ້ເວົ້າໄປທົ່ວໂລກ, ແລະຂ້າພະເຈົ້າບໍ່ຄ່ອຍໄດ້ພົບກັບການຕ້ອນຮັບທີ່ອົບອຸ່ນແລະສຸດໃຈ.”

ຜູ້ຂຽນ, ນັກວິເຄາະແລະນັກສະແດງຄວາມຄິດເຫັນ, Juliette Powell ໄດ້ອະທິບາຍເຖິງບັນຫາທີ່ສັບສົນທີ່ປັນຍາປະດິດສ້າງແລະຈະສືບຕໍ່ສ້າງສັງຄົມ. ຮູບພາບໂດຍ Tom Dennis/UND Today.

ສີ່ເຫດຜົນຂອງພະລັງງານ

ໃນການສົນທະນາຂອງນາງ, Powell ໄດ້ທົບທວນຄືນບາງໂຄງການທີ່ໂດດເດັ່ນທີ່ສຸດທີ່ລັດຖະບານກໍາລັງພິຈາລະນາທີ່ຈະຄວບຄຸມ AI. ແລະວິທີທີ່ດີທີ່ສຸດທີ່ຈະເຂົ້າໃຈພວກເຂົາ, ນາງເວົ້າວ່າ, ແມ່ນຈາກທັດສະນະຂອງຄວາມສ່ຽງແລະຜົນປະໂຫຍດ, ບໍ່ຈໍາເປັນຕ້ອງຖືກຕ້ອງແລະຜິດ.

ທໍາອິດ, ພິຈາລະນາ “ສີ່ເຫດຜົນຂອງອໍານາດ,” ສີ່ວິທີການໃນການຕັດສິນໃຈທີ່ມີແນວໂນ້ມທີ່ຈະແຕກຕ່າງກັນໄປຕາມຕໍາແຫນ່ງຂອງບຸກຄົນໃນສັງຄົມ. ຕົວຢ່າງ, ເຫດຜົນຂອງບໍລິສັດແມ່ນເຫດຜົນຂອງຕະຫຼາດແລະຄວາມໄດ້ປຽບໃນການແຂ່ງຂັນ. ມັນຈັດລໍາດັບຄວາມສໍາຄັນຂອງກໍາໄລ, ການຂະຫຍາຍຕົວ, ການຂະຫຍາຍຕົວແລະທຸລະກິດໃຫມ່, ທັງຫມົດໃນນາມຂອງມູນຄ່າຜູ້ຖືຫຸ້ນ, Powell ກ່າວ.

ເຫດຜົນດ້ານວິສະວະກໍາແມ່ນເຫດຜົນທີ່ນັກເທກໂນໂລຍີໃຊ້. ມັນຈັດລໍາດັບຄວາມສໍາຄັນປະສິດທິພາບແລະ seamlessness, ແລະໃຫ້ຄຸນຄ່າເຕັກໂນໂລຊີເປັນວິທີການແກ້ໄຂບັນຫາຂອງມະນຸດ.

ເຫດຜົນຂອງລັດຖະບານແມ່ນທັດສະນະຂອງສິດອໍານາດ. ມັນຈັດລໍາດັບຄວາມສໍາຄັນຂອງກົດຫມາຍແລະຄໍາສັ່ງ, ແລະໃຫ້ຄຸນຄ່າຂອງເຕັກໂນໂລຢີເປັນວິທີການຕິດຕາມ, ຮັບໃຊ້ແລະປົກປ້ອງປະຊາຊົນແລະສະຖາບັນ.

ແລະສຸດທ້າຍແຕ່ບໍ່ໄດ້ຢ່າງຫນ້ອຍ, ເຫດຜົນດ້ານຄວາມຍຸຕິທໍາທາງສັງຄົມໃຫ້ຄວາມສໍາຄັນຂອງມະນຸດ. ໃນທັດສະນະນີ້, ປະຊາຊົນມີຄວາມສໍາຄັນຫຼາຍກ່ວາກໍາໄລຫຼືປະສິດທິພາບ, Powell ເວົ້າ. ທັດສະນະນີ້ໃຫ້ຄຸນຄ່າປະຊາຊົນເປັນວິທີການແກ້ໄຂບັນຫາຂອງມະນຸດແລະເຕັກໂນໂລຢີ.

ນາງກ່າວວ່າ “ກຸນແຈຢູ່ທີ່ນີ້ບໍ່ແມ່ນການສຸມໃສ່ເຫດຜົນສະເພາະ, ແຕ່ເພື່ອພະຍາຍາມຮັກສາມັນຢູ່ໃນໃຈທັງຫມົດໃນເວລາທີ່ທ່ານຕັດສິນໃຈ,”

ກົດໝາຍ AI ຂອງ EU

ເປັນທີ່ຫນ້າສັງເກດ, ກົດຫມາຍວ່າດ້ວຍ AI ຂອງສະຫະພາບເອີຣົບແມ່ນຄວາມພະຍາຍາມເພື່ອເຮັດແນວນັ້ນ.

ກົດຫມາຍວ່າດ້ວຍ AI ແມ່ນກົດຫມາຍເອີຣົບທີ່ສະເຫນີກ່ຽວກັບປັນຍາປະດິດ. ເຖິງແມ່ນວ່າມັນຍັງບໍ່ທັນມີຜົນບັງຄັບໃຊ້, ມັນເປັນກົດຫມາຍທໍາອິດກ່ຽວກັບ AI ທີ່ຖືກສະເຫນີໂດຍຜູ້ຄວບຄຸມທີ່ສໍາຄັນຢູ່ທຸກບ່ອນ, ແລະມັນໄດ້ຖືກສຶກສາຢ່າງລະອຽດໃນທົ່ວໂລກເພາະວ່າບໍລິສັດເຕັກໂນໂລຢີຈໍານວນຫຼາຍເຮັດທຸລະກິດຢ່າງກວ້າງຂວາງໃນ EU.

ທ່ານ Powell ກ່າວ​ວ່າ ກົດໝາຍ​ໄດ້​ກຳນົດ​ການ​ນຳ​ໃຊ້ AI ​ໃຫ້​ເປັນ​ສີ່​ປະ​ເພດ​ຄວາມ​ສ່ຽງ. ທໍາອິດ, ມີ “ຄວາມສ່ຽງຫນ້ອຍ” – ຄໍາຮ້ອງສະຫມັກທີ່ອ່ອນໂຍນທີ່ບໍ່ທໍາຮ້າຍຄົນ. ຄິດວ່າວິດີໂອເກມທີ່ເປີດໃຊ້ AI ຫຼືຕົວກອງຂີ້ເຫຍື້ອ, ຕົວຢ່າງ, ແລະເຂົ້າໃຈວ່າການສະເຫນີຂອງ EU ອະນຸຍາດໃຫ້ນໍາໃຊ້ຄໍາຮ້ອງສະຫມັກເຫຼົ່ານັ້ນບໍ່ຈໍາກັດ.

ຫຼັງຈາກນັ້ນ, ມີລະບົບ “ຄວາມສ່ຽງທີ່ຈໍາກັດ” ເຊັ່ນ chatbots, ໃນນັ້ນ – ກົດຫມາຍວ່າດ້ວຍ AI ປະກາດ – ຜູ້ໃຊ້ຕ້ອງໄດ້ຮັບການຮັບຮູ້ວ່າພວກເຂົາກໍາລັງພົວພັນກັບເຄື່ອງຈັກ. ສິ່ງນັ້ນຈະຕອບສະຫນອງເປົ້າຫມາຍຂອງ EU ທີ່ຜູ້ໃຊ້ຕັດສິນໃຈດ້ວຍຕົນເອງວ່າຈະສືບຕໍ່ປະຕິສໍາພັນຫຼືກ້າວກັບຄືນ.

ລະບົບ “ຄວາມສ່ຽງສູງ” ສາມາດເຮັດໃຫ້ເກີດອັນຕະລາຍທີ່ແທ້ຈິງ – ແລະບໍ່ພຽງແຕ່ເປັນອັນຕະລາຍຕໍ່ຮ່າງກາຍ, ເຊັ່ນດຽວກັບລົດທີ່ຂັບລົດດ້ວຍຕົນເອງ. ລະບົບເຫຼົ່ານີ້ຍັງສາມາດທໍາຮ້າຍຄວາມສົດໃສດ້ານການຈ້າງງານ (ໂດຍການຈັດລຽງຊີວະປະຫວັດ, ສໍາລັບການຍົກຕົວຢ່າງ, ຫຼືໂດຍການຕິດຕາມຜົນຜະລິດໃນຊັ້ນສາງ). ພວກເຂົາສາມາດປະຕິເສດສິນເຊື່ອຫຼືເງິນກູ້ຫຼືຄວາມສາມາດໃນການຂ້າມຊາຍແດນລະຫວ່າງປະເທດ. ແລະພວກເຂົາສາມາດມີອິດທິພົນຕໍ່ຜົນໄດ້ຮັບດ້ານຄວາມຍຸຕິທໍາທາງອາຍາໂດຍຜ່ານໂຄງການສືບສວນແລະການລົງໂທດທີ່ປັບປຸງ AI.

ອີງຕາມ EU, “ຜູ້ຜະລິດເຕັກໂນໂລຢີປະເພດນີ້ຈະຕ້ອງໃຫ້ເຫດຜົນບໍ່ພຽງແຕ່ສໍາລັບເຕັກໂນໂລຢີແລະຄວາມເສຍຫາຍທີ່ອາດເກີດຂື້ນ, ແຕ່ຍັງໃຫ້ເຫດຜົນທາງທຸລະກິດວ່າເປັນຫຍັງໂລກຕ້ອງການເຕັກໂນໂລຢີປະເພດນີ້,” Powell ເວົ້າ.

“ນີ້ແມ່ນຄັ້ງທໍາອິດໃນປະຫວັດສາດ, ເທົ່າທີ່ຂ້າພະເຈົ້າຮູ້, ວ່າບໍລິສັດຮັບຜິດຊອບຕໍ່ຜະລິດຕະພັນຂອງພວກເຂົາໃນຂອບເຂດທີ່ຈະຕ້ອງອະທິບາຍເຫດຜົນທາງທຸລະກິດຂອງລະຫັດຂອງພວກເຂົາ.”

ຫຼັງຈາກນັ້ນ, ມີລະດັບທີ່ສີ່: “ຄວາມສ່ຽງທີ່ບໍ່ສາມາດຍອມຮັບໄດ້.” ແລະພາຍໃຕ້ກົດຫມາຍວ່າດ້ວຍ AI, ລະບົບທັງຫມົດທີ່ເປັນໄພຂົ່ມຂູ່ທີ່ຊັດເຈນຕໍ່ຄວາມປອດໄພ, ການດໍາລົງຊີວິດແລະສິດທິຂອງປະຊາຊົນຈະຖືກຫ້າມ, ທໍາມະດາແລະງ່າຍດາຍ.

“ອີກເທື່ອ ໜຶ່ງ, ຂ້ອຍບໍ່ໄດ້ຢູ່ທີ່ນີ້ເພື່ອບອກເຈົ້າວ່າອັນໃດຖືກແລະອັນໃດຜິດ,” Powell ເວົ້າ. “ຄໍາຖາມແມ່ນ, ພວກເຮົາສາມາດຕັດສິນໃຈ – ແລະບໍ່ພຽງແຕ່ສໍາລັບຕົວເຮົາເອງ, ແຕ່ສໍາລັບເດັກນ້ອຍຂອງພວກເຮົາແລະຄົນລຸ້ນຕໍ່ໄປ?”

ນາງເວົ້າວ່ານັ້ນແມ່ນ AI Dilemma, ແລະການແກ້ໄຂມັນຈະເປັນສິ່ງທ້າທາຍທົ່ວສັງຄົມ. ແຕ່ນັ້ນແມ່ນພາກສ່ວນທີ່ຫນ້າຕື່ນເຕັ້ນ, ເພາະວ່າຕົວຈິງແລ້ວພວກເຮົາກໍາລັງດໍາລົງຊີວິດຢູ່ໃນເວລາຂອງປະຫວັດສາດທີ່ພວກເຮົາສາມາດຕັດສິນໃຈໃນອະນາຄົດ. … ເພື່ອທີ່ຈະເກີດຂຶ້ນໄດ້, ມັນຫມາຍຄວາມວ່າພວກເຮົາຈໍາເປັນຕ້ອງໄດ້ກ້າວຂຶ້ນເມື່ອມີການໂທຫາ; ແລະຂ້ອຍກໍາລັງໂທຫາເຈົ້າທັງຫມົດໃນຄືນນີ້.”

Categories: AiHome

0 Comments

Leave a Reply

Avatar placeholder

Your email address will not be published. Required fields are marked *