ຄໍາເຫັນ

Henry Kissinger ໄດ້ໃຊ້ເວລາຫຼາຍໃນການເຮັດວຽກຂອງລາວຄິດກ່ຽວກັບອັນຕະລາຍຂອງອາວຸດນິວເຄລຍ. ແຕ່ອາຍຸ 99 ປີ, ອະດີດລັດຖະມົນຕີວ່າການກະຊວງການຕ່າງປະເທດກ່າວວ່າລາວໄດ້ກາຍເປັນ “ຫມິ່ນປະຫມາດ” ກັບຄວາມກັງວົນທີ່ທັນສະໄຫມຫຼາຍ – ວິທີການຈໍາກັດຄວາມສາມາດໃນການທໍາລາຍຂອງປັນຍາປະດິດ, ອໍານາດຂອງມັນສາມາດທໍາລາຍຫຼາຍກ່ວາລະເບີດທີ່ໃຫຍ່ທີ່ສຸດ.

Kissinger ໄດ້ພັນລະນາ AI ເປັນຊາຍແດນໃໝ່ຂອງການຄວບຄຸມອາວຸດໃນລະຫວ່າງກອງປະຊຸມທີ່ວິຫານແຫ່ງຊາດວໍຊິງຕັນໃນວັນທີ 16. ຖ້າອໍານາດຊັ້ນນໍາບໍ່ຊອກຫາວິທີທີ່ຈະຈໍາກັດການເຂົ້າເຖິງຂອງ AI, ລາວເວົ້າວ່າ, “ມັນເປັນການແຂ່ງຂັນທີ່ບ້າສໍາລັບໄພພິບັດບາງຢ່າງ.”

ການເຕືອນໄພຈາກ Kissinger, ຫນຶ່ງໃນລັດຜູ້ຊາຍແລະນັກຍຸດທະສາດທີ່ໂດດເດັ່ນທີ່ສຸດຂອງໂລກ, ແມ່ນສັນຍານຂອງຄວາມກັງວົນທົ່ວໂລກທີ່ເພີ່ມຂຶ້ນກ່ຽວກັບພະລັງງານຂອງ “ເຄື່ອງຈັກຄິດ” ໃນຂະນະທີ່ພວກເຂົາພົວພັນກັບທຸລະກິດ, ການເງິນແລະສົງຄາມທົ່ວໂລກ. ລາວໄດ້ເວົ້າໂດຍການເຊື່ອມຕໍ່ວິດີໂອໃນເວທີສົນທະນາໂບດທີ່ມີຫົວຂໍ້ “ຜູ້ຊາຍ, ເຄື່ອງຈັກ, ແລະພຣະເຈົ້າ,” ເຊິ່ງເປັນຫົວຂໍ້ຂອງປີນີ້ໃນໂຄງການ Nancy and Paul Ignatius ປະຈໍາປີ, ເຊິ່ງຕັ້ງຊື່ເພື່ອເປັນກຽດແກ່ພໍ່ແມ່ຂອງຂ້ອຍ.

Daron Acemoglu: AI ທີ່ພວກເຮົາຄວນຢ້ານແມ່ນຢູ່ແລ້ວ

ຄວາມກັງວົນຂອງ Kissinger ກ່ຽວກັບ AI ໄດ້ຖືກສະທ້ອນໂດຍສອງຄະນະອື່ນໆ: Eric Schmidt, ອະດີດຫົວຫນ້າບໍລິຫານຂອງ Google ແລະປະທານຄະນະກໍາມະການຄວາມປອດໄພແຫ່ງຊາດທີ່ໄດ້ຮັບການແຕ່ງຕັ້ງຈາກສະພາວ່າດ້ວຍປັນຍາປະດິດ, ເຊິ່ງໄດ້ອອກບົດລາຍງານໃນປີກາຍນີ້; ແລະ Anne Neuberger, ຮອງທີ່ປຶກສາດ້ານຄວາມປອດໄພແຫ່ງຊາດຂອງບໍລິຫານ Biden ສໍາລັບ cyber ແລະເຕັກໂນໂລຊີທີ່ພົ້ນເດັ່ນຂື້ນ.

ອະດີດລັດຖະມົນຕີຂອງລັດໄດ້ເຕືອນວ່າລະບົບ AI ສາມາດຫັນປ່ຽນສົງຄາມໄດ້ຄືກັນກັບວ່າພວກເຂົາມີຫມາກຮຸກຫຼືເກມຍຸດທະສາດອື່ນໆ – ເພາະວ່າພວກເຂົາມີຄວາມສາມາດທີ່ຈະເຮັດການເຄື່ອນໄຫວທີ່ບໍ່ມີມະນຸດຈະພິຈາລະນາແຕ່ມີຜົນສະທ້ອນທີ່ຮ້າຍກາດ. ທ່ານ Kissinger ກ່າວວ່າ “ສິ່ງທີ່ຂ້ອຍ ກຳ ລັງເວົ້າເຖິງແມ່ນວ່າໃນການຄົ້ນຫາ ຄຳ ຖາມທີ່ຖືກຕ້ອງຕາມກົດ ໝາຍ ທີ່ພວກເຮົາຖາມພວກເຂົາ, ພວກເຂົາໄດ້ສະຫຼຸບວ່າບໍ່ ຈຳ ເປັນຕ້ອງຄືກັບພວກເຮົາ – ແລະພວກເຮົາຈະຕ້ອງຢູ່ໃນໂລກຂອງພວກເຂົາ,” Kissinger ເວົ້າ.

ທ່ານກ່າວຕໍ່ໄປວ່າ “ພວກເຮົາຖືກອ້ອມຮອບໄປດ້ວຍເຄື່ອງຈັກຫຼາຍຢ່າງທີ່ຄວາມຄິດທີ່ແທ້ຈິງທີ່ພວກເຮົາອາດຈະບໍ່ຮູ້,” ລາວເວົ້າຕໍ່ໄປ. ເຈົ້າສ້າງການຍັບຍັ້ງໃນເຄື່ອງຈັກແນວໃດ? ເຖິງແມ່ນວ່າມື້ນີ້ພວກເຮົາມີຍົນສູ້ຮົບທີ່ສາມາດຕໍ່ສູ້ກັບ … ຮົບທາງອາກາດໂດຍບໍ່ມີການແຊກແຊງໃດໆຂອງມະນຸດ. ແຕ່ເຫຼົ່ານີ້ແມ່ນພຽງແຕ່ການເລີ່ມຕົ້ນຂອງຂະບວນການນີ້. ມັນ​ແມ່ນ​ການ​ລະ​ອຽດ​ໃນ 50 ປີ​ຂ້າງ​ລຸ່ມ​ນີ້​ທີ່​ຈະ​ເຮັດ​ໃຫ້​ຫນ້າ​ສົນ​ໃຈ.”

Kissinger ຮຽກຮ້ອງໃຫ້ຜູ້ນໍາຂອງສະຫະລັດແລະຈີນ, ຍັກໃຫຍ່ດ້ານເຕັກໂນໂລຢີຂອງໂລກ, ເລີ່ມຕົ້ນການປຶກສາຫາລືຢ່າງຮີບດ່ວນກ່ຽວກັບວິທີການນໍາໃຊ້ກົດລະບຽບແລະມາດຕະຖານດ້ານຈັນຍາບັນສໍາລັບ AI.

The Post’s View: ສະຫະລັດບໍ່ສາມາດປ່ອຍໃຫ້ປະເທດອື່ນຂຽນນະໂຍບາຍ AI ສໍາລັບມັນ

ທ່ານກ່າວວ່າ, ການສົນທະນາດັ່ງກ່າວອາດຈະເລີ່ມຕົ້ນ, ໂດຍປະທານາທິບໍດີ Biden ກ່າວຕໍ່ປະທານາທິບໍດີຈີນ Xi Jinping ວ່າ: “ພວກເຮົາທັງສອງມີບັນຫາຫຼາຍທີ່ຈະປຶກສາຫາລື, ແຕ່ມີ ໜຶ່ງ ບັນຫາທີ່ເກີນຂອບເຂດ – ຄືທ່ານແລະຂ້ອຍທີ່ເປັນເອກະລັກໃນປະຫວັດສາດສາມາດ ທຳ ລາຍໂລກໄດ້ໂດຍການຕັດສິນໃຈຂອງພວກເຮົາ. ກ່ຽວກັບເລື່ອງນີ້ [AI-driven warfare], ແລະມັນເປັນໄປບໍ່ໄດ້ທີ່ຈະບັນລຸຜົນປະໂຫຍດຝ່າຍດຽວໃນເລື່ອງນີ້. ດັ່ງນັ້ນ, ພວກເຮົາຄວນເລີ່ມຕົ້ນດ້ວຍຫຼັກການທີ 1 ວ່າພວກເຮົາຈະບໍ່ຕໍ່ສູ້ກັບສົງຄາມເຕັກໂນໂລຢີສູງຕໍ່ກັນແລະກັນ.”

ທ່ານ Kissinger ກ່າວ​ວ່າ ຜູ້​ນຳ​ສະຫະລັດ ​ແລະ​ຈີນ ອາດ​ຈະ​ເລີ່​ມດຳ​ເນີນ​ການ​ເຈລະຈາ​ດ້ານ​ຄວາມ​ປອດ​ໄພ​ດ້ານ​ເຕັກ​ໂນ​ໂລ​ຊີ​ສູງ, ​ໂດຍ​ມີ​ຂໍ້​ຕົກ​ລົງ​ທີ່​ຈະ “ສ້າງ​ສະ​ຖາ​ບັນ​ນ້ອຍ​ທຳ​ອິດ​ທີ່​ມີ​ໜ້າ​ທີ່​ຈະ​ແຈ້ງ​ໃຫ້​ຊາບ. [national leaders] ກ່ຽວ​ກັບ​ອັນ​ຕະ​ລາຍ​, ແລະ​ທີ່​ອາດ​ຈະ​ຕິດ​ຕໍ່​ພົວ​ພັນ​ຊຶ່ງ​ກັນ​ແລະ​ກັນ​ກ່ຽວ​ກັບ​ການ​ແກ້​ໄຂ “ຄວາມ​ສ່ຽງ​. ຈີນ​ໄດ້​ຕໍ່ຕ້ານ​ການ​ເຈລະຈາ​ກ່ຽວ​ກັບ​ການ​ຄວບ​ຄຸມ​ອາວຸດ​ນິວ​ເຄລຍ​ເປັນ​ເວລາ​ດົນ​ນານ​ທີ່​ທ່ານ Kissinger ດຳ​ເນີນ​ໄປ​ກັບ​ສະຫະພາບ​ໂຊ​ວຽດ ​ໃນ​ໄລຍະ​ທີ່​ທ່ານ​ເປັນ​ທີ່​ປຶກສາ​ດ້ານ​ຄວາມ​ໝັ້ນຄົງ​ແຫ່ງ​ຊາດ ​ແລະ​ເປັນ​ເລຂາທິການ​ໃຫຍ່​ແຫ່ງ​ລັດ.

ເຈົ້າ​ໜ້າ​ທີ່​ອາ​ເມ​ລິ​ກາ​ກ່າວ​ວ່າ, ຈີນ​ຈະ​ບໍ່​ປຶກສາ​ຫາລື​ກ່ຽວ​ກັບ​ການ​ຈຳກັດ​ອາວຸດ​ນິວ​ເຄຼຍ ຈົນ​ກວ່າ​ຈະ​ບັນລຸ​ຄວາມ​ສະ​ເໝີ​ພາບ​ກັບ​ອາ​ເມ​ລິ​ກາ​ແລະຣັດ​ເຊຍ, ອາວຸດ​ຂອງ​ຕົນ​ໄດ້​ຖືກ​ປິດ​ລ້ອມ​ດ້ວຍ​ຂໍ້​ຕົກລົງ​ຫຼາຍ​ສະບັບ​ທີ່​ເລີ່​ມຕົ້ນ​ຈາກ​ສົນທິສັນຍາ SALT ​ໃນ​ປີ 1972 ທີ່​ເຈລະຈາ​ໂດຍ Kissinger.

ຄວາມຄິດເຫັນ: AI ສາມາດດັບສູນມະນຸດໂດຍບັງເອີນໄດ້ແນວໃດ

ພະລັງງານທີ່ປ່ຽນແປງຂອງໂລກຂອງ AI ໄດ້ກາຍເປັນຄວາມກັງວົນຕົ້ນຕໍສໍາລັບ Kissinger ໃນທ້າຍ 90s ຂອງລາວ, ໂດຍມີ Schmidt ເປັນຜູ້ນໍາພາຂອງລາວ. ທັງສອງຄົນໄດ້ຮ່ວມກັນຂຽນປຶ້ມໃນປີກາຍນີ້ກັບອາຈານ Daniel Huttenlocher ຂອງ MIT ໃນຫົວຂໍ້ “The Age of AI: And Our Human Future,” ເຊິ່ງອະທິບາຍເຖິງໂອກາດ ແລະອັນຕະລາຍຂອງເຕັກໂນໂລຊີໃໝ່.

ຄໍາຄິດຄໍາເຫັນສາທາລະນະທີ່ສໍາຄັນຄັ້ງທໍາອິດຂອງ Kissinger ກ່ຽວກັບ AI ແມ່ນບົດຂຽນໃນປີ 2018 ໃນວາລະສານ Atlantic ທີ່ຫົວຂໍ້ “How the Enlightenment Ends.” ຫົວຂໍ້ຍ່ອຍຂອງບົດຄວາມໄດ້ສະຫຼຸບຂໍ້ຄວາມທີ່ສັ່ນສະເທືອນຂອງມັນ: “ທາງດ້ານປັດຊະຍາ, ສະຕິປັນຍາ – ໃນທຸກໆດ້ານ – ສັງຄົມມະນຸດບໍ່ໄດ້ກຽມພ້ອມສໍາລັບການເພີ່ມຂື້ນຂອງປັນຍາປະດິດ.”

Kissinger ບອກຜູ້ຊົມໂບດວ່າສໍາລັບການທໍາລາຍອາວຸດນິວເຄລຍທັງຫມົດ, “ພວກເຂົາບໍ່ມີສິ່ງນີ້. [AI] ຄວາມ​ສາມາດ​ໃນ​ການ​ເລີ່ມ​ຕົ້ນ​ດ້ວຍ​ຕົນ​ເອງ​ບົນ​ພື້ນຖານ​ຄວາມ​ຮັບ​ຮູ້, ຄວາມ​ຮັບ​ຮູ້​ຂອງ​ຕົນ, ​ເຖິງ​ອັນຕະລາຍ​ຫຼື​ການ​ເລືອກ​ເຟັ້ນ​ເປົ້າ​ໝາຍ.”

ເມື່ອຖືກຖາມວ່າລາວມີຄວາມຄິດເຫັນໃນແງ່ດີກ່ຽວກັບຄວາມສາມາດຂອງມະນຸດທີ່ຈະຈໍາກັດຄວາມສາມາດໃນການທໍາລາຍຂອງ AI ໃນເວລາທີ່ມັນຖືກນໍາໃຊ້ກັບສົງຄາມ, Kissinger ຕອບວ່າ: “ຂ້ອຍຮັກສາແງ່ດີຂອງຂ້ອຍໃນຄວາມຫມາຍວ່າຖ້າພວກເຮົາບໍ່ແກ້ໄຂມັນ, ມັນຈະທໍາລາຍພວກເຮົາຢ່າງແທ້ຈິງ. … ພວກ​ເຮົາ​ບໍ່​ມີ​ທາງ​ເລືອກ.”

Categories: AiHome

0 Comments

Leave a Reply

Avatar placeholder

Your email address will not be published. Required fields are marked *