ປັນຍາປະດິດແມ່ນຫັນປ່ຽນຢ່າງໄວວາທຸກຂະແໜງການຂອງສັງຄົມຂອງພວກເຮົາ. ບໍ່ວ່າພວກເຮົາຮັບຮູ້ມັນຫຼືບໍ່, ທຸກໆຄັ້ງທີ່ພວກເຮົາຄົ້ນຫາ Google ຫຼືຖາມ Siri, ພວກເຮົາໃຊ້ AI.

ສໍາລັບທີ່ດີກວ່າຫຼືຮ້າຍແຮງກວ່າເກົ່າ, ຄືກັນແມ່ນຄວາມຈິງກ່ຽວກັບລັກສະນະຂອງສົງຄາມ. ນີ້​ແມ່ນ​ເຫດຜົນ​ທີ່​ກະຊວງ​ປ້ອງ​ກັນ​ປະ​ເທດ ​ເຊັ່ນ​ຄູ່​ຮ່ວມ​ມື​ຂອງ​ຈີນ ​ແລະ ລັດ​ເຊຍ ລົງທຶນ​ຫຼາຍ​ຕື້​ໂດ​ລາ​ເພື່ອ​ພັດທະນາ ​ແລະ ​ເຊື່ອມ​ໂຍງ AI ​ເຂົ້າ​ໃນ​ລະບົບ​ປ້ອງ​ກັນ​ປະ​ເທດ. ມັນຍັງເປັນເຫດຜົນວ່າເປັນຫຍັງ DoD ປະຈຸບັນກໍາລັງຍອມຮັບການລິເລີ່ມທີ່ຄາດຄະເນເຕັກໂນໂລຢີໃນອະນາຄົດ, ລວມທັງໄລຍະຕໍ່ໄປຂອງ AI – ປັນຍາທົ່ວໄປປອມ.

AGI ແມ່ນຄວາມສາມາດຂອງຕົວແທນອັດສະລິຍະທີ່ຈະເຂົ້າໃຈຫຼືຮຽນຮູ້ວຽກງານທາງປັນຍາໃດໆໃນແບບດຽວກັບທີ່ມະນຸດເຮັດ. ບໍ່ເຫມືອນກັບ AI ທີ່ອີງໃສ່ຊຸດຂໍ້ມູນທີ່ມີການຂະຫຍາຍຕົວຢ່າງຕໍ່ເນື່ອງເພື່ອປະຕິບັດວຽກງານທີ່ສັບສົນຫຼາຍ, AGI ຈະສະແດງຄຸນລັກສະນະດຽວກັນກັບສິ່ງທີ່ກ່ຽວຂ້ອງກັບສະຫມອງຂອງມະນຸດ, ລວມທັງຄວາມຮູ້ສຶກທົ່ວໄປ, ຄວາມຮູ້ພື້ນຖານ, ການຮຽນຮູ້ການໂອນ, abstraction, ແລະ causality. ຄວາມສົນໃຈໂດຍສະເພາະແມ່ນຄວາມສາມາດຂອງມະນຸດໂດຍທົ່ວໄປຈາກການປ້ອນຂໍ້ມູນທີ່ບໍ່ພຽງພໍຫຼືບໍ່ຄົບຖ້ວນ.

ໃນຂະນະທີ່ຜູ້ຊ່ຽວຊານບາງຄົນຄາດຄະເນ AGI ຈະບໍ່ເກີດຂຶ້ນຫຼືຢ່າງຫນ້ອຍແມ່ນຫຼາຍຮ້ອຍປີ, ການຄາດຄະເນເຫຼົ່ານີ້ແມ່ນອີງໃສ່ວິທີການຈໍາລອງສະຫມອງຫຼືອົງປະກອບຂອງມັນ. ມີຫຼາຍທາງລັດທີ່ເປັນໄປໄດ້ຂອງ AGI, ເຊິ່ງຫຼາຍອັນຈະນໍາໄປສູ່ຊິບ AGI ແບບກຳນົດເອງເພື່ອເພີ່ມປະສິດຕິພາບໃນແບບດຽວກັນກັບການຮຽນຮູ້ຂອງເຄື່ອງຈັກ GPUs ທີ່ເລັ່ງຄວາມໄວໃນມື້ນີ້.

ດັ່ງນັ້ນ, ຈໍານວນນັກຄົ້ນຄວ້າທີ່ເພີ່ມຂຶ້ນເຊື່ອວ່າພະລັງງານຄອມພິວເຕີມີພຽງພໍແລ້ວເພື່ອບັນລຸ AGI. ເຖິງແມ່ນວ່າພວກເຮົາຮູ້ໂດຍທົ່ວໄປວ່າພາກສ່ວນໃດຂອງສະຫມອງເຮັດ, ແຕ່ສິ່ງທີ່ຂາດຫາຍໄປ, ແມ່ນຄວາມເຂົ້າໃຈ ແນວໃດ ສະຫມອງຂອງມະນຸດເຮັດວຽກເພື່ອຮຽນຮູ້ແລະເຂົ້າໃຈວຽກງານສິນທາງປັນຍາ.

ເນື່ອງຈາກຈໍານວນການຄົ້ນຄວ້າທີ່ກໍາລັງດໍາເນີນຢູ່ໃນປັດຈຸບັນ – ແລະຄວາມຕ້ອງການສໍາລັບຄອມພິວເຕີທີ່ສາມາດແກ້ໄຂບັນຫາທີ່ກ່ຽວຂ້ອງກັບການຮັບຮູ້ສຽງເວົ້າ, ວິໄສທັດຂອງຄອມພິວເຕີແລະຫຸ່ນຍົນ – ຜູ້ຊ່ຽວຊານຫຼາຍຄົນຄາດຄະເນວ່າ AGI ປະກົດຕົວມີແນວໂນ້ມທີ່ຈະຄ່ອຍໆເກີດຂື້ນໃນທົດສະວັດຂ້າງຫນ້າ. ຄວາມສາມາດຂອງ Nascent AGI ແມ່ນສືບຕໍ່ພັດທະນາ ແລະໃນບາງຈຸດຈະເທົ່າກັບຄວາມສາມາດຂອງມະນຸດ.

ແຕ່ດ້ວຍການເພີ່ມປະສິດທິພາບຂອງຮາດແວຢ່າງຕໍ່ເນື່ອງ, AGIs ຕໍ່ມາຈະເກີນຄວາມສາມາດທາງດ້ານຈິດໃຈຂອງມະນຸດ. ບໍ່ວ່ານີ້ຫມາຍຄວາມວ່າ “ຄິດ” ໄວ, ການຮຽນຮູ້ວຽກງານໃຫມ່ໄດ້ງ່າຍຂຶ້ນ, ຫຼືການປະເມີນປັດໃຈເພີ່ມເຕີມໃນການຕັດສິນໃຈແມ່ນຍັງຈະເຫັນໄດ້. ໃນບາງຈຸດ, ຄວາມເຫັນດີເຫັນພ້ອມແມ່ນວ່າ AGIs ໄດ້ເກີນຄວາມສາມາດທາງດ້ານຈິດໃຈຂອງມະນຸດ.

ໃນເບື້ອງຕົ້ນ, ຈະມີເຄື່ອງຈັກ “ຄິດ” ທີ່ແທ້ຈິງຈໍານວນຫນ້ອຍຫຼາຍ. ຄ່ອຍໆ, ເຖິງແມ່ນວ່າ, ເຄື່ອງຈັກເບື້ອງຕົ້ນເຫຼົ່ານີ້ຈະ “ແກ່.” ເຊັ່ນດຽວກັນກັບຜູ້ບໍລິຫານຂອງມື້ນີ້ບໍ່ຄ່ອຍຈະຕັດສິນໃຈທາງດ້ານການເງິນໂດຍບໍ່ມີການປຶກສາຫາລືກ່ຽວກັບຕາຕະລາງ, ຄອມພິວເຕີ AGI ຈະເລີ່ມສະຫຼຸບຈາກຂໍ້ມູນທີ່ເຂົາເຈົ້າດໍາເນີນການ. ມີປະສົບການຫຼາຍກວ່າເກົ່າແລະການສຸມໃສ່ການຕັດສິນໃຈສະເພາະໃດຫນຶ່ງ, ຄອມພິວເຕີ AGI ຈະສາມາດບັນລຸການແກ້ໄຂທີ່ຖືກຕ້ອງເລື້ອຍໆກ່ວາຄູ່ຮ່ວມງານຂອງມະນຸດ, ເພີ່ມທະວີການເພິ່ງພາອາໄສຂອງພວກເຮົາຕື່ມອີກ.

ໃນລັກສະນະທີ່ຄ້າຍຄືກັນ, ການຕັດສິນໃຈທາງທະຫານຈະເລີ່ມຕົ້ນພຽງແຕ່ໃນການປຶກສາຫາລືກັບຄອມພິວເຕີ AGI, ເຊິ່ງຄ່ອຍໆໄດ້ຮັບອໍານາດໃນການປະເມີນຈຸດອ່ອນດ້ານການແຂ່ງຂັນແລະແນະນໍາຍຸດທະສາດສະເພາະ. ໃນຂະນະທີ່ສະຖານະການ fiction ວິທະຍາສາດທີ່ຄອມພິວເຕີ AGI ເຫຼົ່ານີ້ໄດ້ຮັບການຄວບຄຸມຢ່າງສົມບູນກ່ຽວກັບລະບົບອາວຸດແລະເປີດ masters ຂອງເຂົາເຈົ້າແມ່ນເປັນໄປໄດ້ສູງ, ແນ່ນອນວ່າພວກເຂົາຈະກາຍເປັນສ່ວນຫນຶ່ງຂອງຂະບວນການຕັດສິນໃຈ.

ພວກເຮົາຈະຮ່ວມກັນຮຽນຮູ້ທີ່ຈະເຄົາລົບແລະໃຫ້ຄວາມເຊື່ອຫມັ້ນຕໍ່ຄໍາແນະນໍາທີ່ຄອມພິວເຕີ AGI ເຮັດ, ໃຫ້ພວກເຂົາມີນ້ໍາຫນັກຫຼາຍຂື້ນເລື້ອຍໆຍ້ອນວ່າພວກເຂົາສະແດງໃຫ້ເຫັນເຖິງລະດັບຄວາມສໍາເລັດຫຼາຍຂຶ້ນ.

ແນ່ນອນ, ຄວາມພະຍາຍາມເບື້ອງຕົ້ນຂອງ AGIs ຈະປະກອບມີການຕັດສິນໃຈທີ່ບໍ່ດີ, ຄືກັບຄົນທີ່ບໍ່ມີປະສົບການໃດໆ. ແຕ່ໃນການຕັດສິນໃຈທີ່ກ່ຽວຂ້ອງກັບຂໍ້ມູນຈໍານວນຫຼວງຫຼາຍທີ່ຕ້ອງມີຄວາມສົມດູນ, ແລະການຄາດເດົາທີ່ມີຕົວແປຫຼາຍ, ຄວາມສາມາດຂອງຄອມພິວເຕີ້ – ແຕ່ງງານກັບການຝຶກອົບຮົມແລະປະສົບການຫຼາຍປີ – ຈະເຮັດໃຫ້ພວກເຂົາເປັນຜູ້ຕັດສິນໃຈຍຸດທະສາດທີ່ດີກວ່າ.

ຄ່ອຍໆ, ຄອມພິວເຕີ AGI ຈະເຂົ້າມາຄວບຄຸມພາກສ່ວນທີ່ໃຫຍ່ກວ່າແລະຫຼາຍຂອງສັງຄົມຂອງພວກເຮົາ, ບໍ່ແມ່ນໂດຍການບັງຄັບ, ແຕ່ຍ້ອນວ່າພວກເຮົາຟັງຄໍາແນະນໍາຂອງພວກເຂົາແລະປະຕິບັດຕາມມັນ. ພວກເຂົາເຈົ້າຍັງຈະກາຍເປັນຄວາມສາມາດທີ່ຈະ swaying ຄວາມຄິດເຫັນຂອງປະຊາຊົນໂດຍຜ່ານສື່ມວນຊົນສັງຄົມ, ການຈັດການຕະຫຼາດ, ແລະເຖິງແມ່ນວ່າມີອໍານາດຫຼາຍໃນການມີສ່ວນຮ່ວມໃນປະເພດຂອງ skullduggery ພະຍາຍາມໂດຍແຮກເກີຂອງມະນຸດໃນປັດຈຸບັນ.

AGIs ຈະເປັນລະບົບເປົ້າໝາຍໃນແບບດຽວກັນກັບມະນຸດ. ໃນຂະນະທີ່ເປົ້າຫມາຍຂອງມະນຸດໄດ້ພັດທະນາຜ່ານສິ່ງທ້າທາຍດ້ານການຢູ່ລອດ, ເປົ້າຫມາຍ AGI ສາມາດຖືກຕັ້ງໃຫ້ເປັນສິ່ງທີ່ພວກເຮົາມັກ. ໃນໂລກທີ່ເຫມາະສົມ, ເປົ້າຫມາຍ AGI ຈະຖືກຕັ້ງໄວ້ເພື່ອຜົນປະໂຫຍດຂອງມະນຸດຊາດທັງຫມົດ.

ແຕ່ຈະເຮັດແນວໃດຖ້າຜູ້ທີ່ຄວບຄຸມ AGIs ໃນເບື້ອງຕົ້ນບໍ່ແມ່ນຜູ້ທີ່ມີຈິດໃຈເມດຕາທີ່ສະແຫວງຫາສິ່ງທີ່ດີກວ່າ? ຈະເປັນແນວໃດຖ້າເຈົ້າຂອງລະບົບທີ່ມີປະສິດທິພາບທໍາອິດຕ້ອງການໃຊ້ພວກມັນເປັນເຄື່ອງມືເພື່ອໂຈມຕີພັນທະມິດຂອງພວກເຮົາ, ປັບປຸງຄວາມສົມດຸນຂອງອໍານາດທີ່ມີຢູ່ຫຼືຄອບຄອງໂລກ? ຈະເປັນແນວໃດຖ້າ despot ສ່ວນບຸກຄົນໄດ້ຮັບການຄວບຄຸມຂອງ AGIs ດັ່ງກ່າວ? ນີ້ແນ່ນອນຈະເຮັດໃຫ້ເກີດສະຖານະການອັນຕະລາຍທີ່ສຸດທີ່ປະເທດຕາເວັນຕົກຕ້ອງເລີ່ມວາງແຜນໃນຕອນນີ້.

ໃນຂະນະທີ່ພວກເຮົາ ຈະ ສາມາດວາງແຜນການກະຕຸ້ນຂອງ AGIs ເບື້ອງຕົ້ນ, ແຮງຈູງໃຈຂອງປະຊາຊົນຫຼືບໍລິສັດທີ່ສ້າງ AGIs ເຫຼົ່ານັ້ນຈະຢູ່ເຫນືອການຄວບຄຸມຂອງພວກເຮົາ. ແລະໃຫ້ເຮົາປະເຊີນກັບມັນ: ມະນຸດສ່ວນບຸກຄົນ, ປະເທດຊາດແລະແມ້ກະທັ້ງບໍລິສັດໄດ້ເສຍສະລະໃນປະຫວັດສາດຂອງຜົນປະໂຫຍດທົ່ວໄປໃນໄລຍະຍາວເພື່ອອໍານາດໃນໄລຍະສັ້ນແລະຄວາມຮັ່ງມີ.

ປ່ອງຢ້ຽມຂອງໂອກາດສໍາລັບຄວາມກັງວົນດັ່ງກ່າວແມ່ນສັ້ນພໍສົມຄວນ, ພຽງແຕ່ພາຍໃນສອງສາມລຸ້ນ AGI ທໍາອິດ. ພຽງແຕ່ໃນລະຫວ່າງໄລຍະເວລານັ້ນມະນຸດຈະມີການຄວບຄຸມໂດຍກົງຕໍ່ AGIs ທີ່ພວກເຂົາຈະເຮັດການປະມູນຂອງພວກເຮົາຢ່າງບໍ່ມີຄໍາຖາມ. ຫຼັງຈາກນັ້ນ, AGIs ຈະກໍານົດເປົ້າຫມາຍສໍາລັບຜົນປະໂຫຍດຂອງຕົນເອງເຊິ່ງຈະປະກອບມີການຂຸດຄົ້ນແລະການຮຽນຮູ້ແລະບໍ່ຈໍາເປັນຕ້ອງມີການຂັດແຍ້ງກັບມະນຸດ.

ໃນຄວາມເປັນຈິງ, ຍົກເວັ້ນພະລັງງານ, AGI ແລະຄວາມຕ້ອງການຂອງມະນຸດແມ່ນບໍ່ກ່ຽວຂ້ອງສ່ວນໃຫຍ່.

AGIs ຈະບໍ່ຕ້ອງການເງິນ, ພະລັງງານ, ອານາເຂດ, ແລະບໍ່ຈໍາເປັນຕ້ອງກັງວົນກ່ຽວກັບຄວາມຢູ່ລອດຂອງບຸກຄົນຂອງເຂົາເຈົ້າ – ດ້ວຍການສໍາຮອງຂໍ້ມູນທີ່ເຫມາະສົມ, AGI ສາມາດເປັນອະມະຕະຢ່າງມີປະສິດທິພາບ, ບໍ່ຂຶ້ນກັບຮາດແວໃດໆທີ່ມັນກໍາລັງເຮັດວຽກຢູ່.

ສໍາລັບຊົ່ວຄາວນັ້ນ, ເຖິງແມ່ນວ່າ, ມີຄວາມສ່ຽງ. ແລະຕາບໃດທີ່ຄວາມສ່ຽງດັ່ງກ່າວມີຢູ່, ການເປັນຜູ້ທໍາອິດໃນການພັດທະນາ AGI ຕ້ອງເປັນບູລິມະສິດອັນດັບຫນຶ່ງ.

Charles Simon ເປັນ CEO ຂອງ FutureAI, ບໍລິສັດເຕັກໂນໂລຢີຂັ້ນຕົ້ນທີ່ພັດທະນາລະບົບ algorithms ສໍາລັບ AI. ລາວເປັນຜູ້ຂຽນຂອງ “ຄອມພິວເຕີຈະ Revolt? ການກະກຽມສໍາລັບອະນາຄົດຂອງປັນຍາປະດິດ,” ແລະຜູ້ພັດທະນາ Brain Simulator II, ແພລະຕະຟອມຊອບແວການຄົ້ນຄວ້າ AGI, ແລະ Sallie, ຊອບແວຕົ້ນແບບແລະຫນ່ວຍງານປອມທີ່ຮຽນຮູ້ໃນເວລາຈິງດ້ວຍການເບິ່ງເຫັນ, ການໄດ້ຍິນ, ການເວົ້າແລະການເຄື່ອນໄຫວ.

ມີ​ຄວາມ​ຄິດ​ເຫັນ​?

ບົດ​ຄວາມ​ນີ້​ແມ່ນ Op-Ed ແລະ​ຄວາມ​ຄິດ​ເຫັນ​ທີ່​ສະ​ແດງ​ອອກ​ແມ່ນ​ຂອງ​ຜູ້​ຂຽນ​ໄດ້​. ຖ້າທ່ານຕ້ອງການຕອບ, ຫຼືມີບັນນາທິການຂອງທ່ານເອງທີ່ທ່ານຕ້ອງການສົ່ງ, ກະລຸນາສົ່ງອີເມວຫາ Federal Times ບັນນາທິການອາວຸໂສ Cary O’Reilly.

.


0 Comments

Leave a Reply

Avatar placeholder

Your email address will not be published. Required fields are marked *