ໃນຕອນເຊົ້າວັນພະຫັດທີ່ຜ່ານມາຢູ່ທີ່ COSM, ຄະນະຜູ້ຊ່ຽວຊານໄດ້ໂຕ້ວາທີວ່າປັນຍາປະດິດ (AI) ທີ່ມີຄວາມຮູ້ສຶກແທ້ໆສາມາດມີຢູ່ – ແລະເຖິງແມ່ນວ່າມັນເຮັດແລ້ວຫຼືບໍ່.

Robert J. Marks, ອາຈານດີເດັ່ນດ້ານວິສະວະກຳໄຟຟ້າ ແລະຄອມພິວເຕີຢູ່ມະຫາວິທະຍາໄລ Baylor, ເປີດໂດຍວິຈານການທົດສອບ Turing, ເປັນການວັດແທກວ່າພວກເຮົາໄດ້ຜະລິດ AI ແທ້ຫຼືບໍ່. ພັດທະນາໂດຍນັກຄະນິດສາດທີ່ມີຊື່ສຽງຂອງອັງກິດແລະນັກຂຽນລະຫັດສົງຄາມໂລກຄັ້ງທີ 2 Alan Turing, ການທົດສອບຖືວ່າຖ້າພວກເຮົາບໍ່ສາມາດແຍກແຍະການສົນທະນາຂອງເຄື່ອງຈັກຈາກມະນຸດທີ່ແທ້ຈິງ, ມັນຈະຕ້ອງສະແດງສະຕິປັນຍາທີ່ຄ້າຍຄືກັບມະນຸດ.

Marks ຮັກສາວ່ານີ້ແມ່ນການທົດສອບທີ່ບໍ່ຖືກຕ້ອງສໍາລັບການກວດສອບ AI ທີ່ແທ້ຈິງ.

ໃນທັດສະນະຂອງລາວ, ການທົດສອບ Turing ລົ້ມເຫລວເພາະວ່າມັນ “ເບິ່ງຫນັງສືແລະພະຍາຍາມຕັດສິນຫນັງສືໂດຍຫນ້າປົກຂອງມັນ.”

ເຄື່ອງຫມາຍສະແດງໃບຫນ້າຂອງສີ່ຄົນທີ່ແທ້ຈິງແລະສີ່ໃບຫນ້າທີ່ຜະລິດດ້ວຍຄອມພິວເຕີຈາກເວັບໄຊທ໌ thispersondoesnotexist.com. ມັນເປັນເລື່ອງຍາກທີ່ຈະບອກເຂົາເຈົ້າແຍກກັນ, ແຕ່ Marks ເວົ້າວ່ານັ້ນບໍ່ເປັນວັດຖຸ.
Marks ອະທິບາຍວ່າ, “ສີ່ດ້ານຊ້າຍແມ່ນປອມ. ຄົນເຫຼົ່ານີ້ບໍ່ມີຢູ່. ຄົນທີ່ຢູ່ເບື້ອງຂວາແມ່ນຄົນທີ່ແທ້ຈິງ. ແລະຄົນທີ່ແທ້ຈິງເຫຼົ່ານີ້ມີຄວາມຮູ້ສຶກ. ເຂົາເຈົ້າມີຄວາມຮັກ, ເຂົາເຈົ້າມີຄວາມຫວັງ, ເຂົາເຈົ້າມີຄວາມເຊື່ອ. ເຂົາເຈົ້າເປັນເດັກນ້ອຍໃນເວລາດຽວ. ມີຄົນຢູ່ເບື້ອງຫຼັງຮູບນັ້ນ.”

ອີງຕາມການ Marks, ດັ່ງນັ້ນ, ຄວາມສາມາດຂອງພວກເຮົາໃນການສ້າງບາງສິ່ງບາງຢ່າງທີ່ມີລັກສະນະແລະມີຄວາມຮູ້ສຶກຄືກັບຄົນບໍ່ໄດ້ຫມາຍຄວາມວ່າມັນເປັນບຸກຄົນ. ການທົດສອບ Turing ໃຫ້ພວກເຮົາມີຜົນບວກທີ່ບໍ່ຖືກຕ້ອງ. ບົດລາຍງານຂ່າວຍັງໄດ້ວິພາກວິຈານການທົດສອບ Turing ສໍາລັບການສະເຫນີຂໍ້ເສຍທີ່ບໍ່ຖືກຕ້ອງ: ມະນຸດບາງຄົນບໍ່ສາມາດຜ່ານມັນໄດ້.

Marks ມັກການທົດສອບ Lovelace, ສໍາລັບ AI: ຄອມພິວເຕີສາມາດສະແດງຄວາມຄິດສ້າງສັນທີ່ແທ້ຈິງໄດ້ບໍ?

George Montanez (ຊ້າຍ) ແລະ Michael Behe ​​(ຂວາ)

ປະຕິບັດຕາມ Marks ແມ່ນ George Montañez ຜູ້ຊ່ວຍອາຈານສອນວິທະຍາສາດຄອມພິວເຕີຢູ່ວິທະຍາໄລ Harvey Mudd. ລາວຄິດວ່າທ່ານສາມາດເປີດເຜີຍຄວາມຜິດຂອງໂຄງການ AI ທີ່ຄາດໄວ້ໂດຍການຖາມພວກເຂົາ “ຄໍາຖາມທີ່ກົງກັນຂ້າມ.” ສິ່ງທີ່ລາວຫມາຍຄວາມວ່າແມ່ນຖາມ bot ເປັນຄໍາຖາມທີ່ມັນບໍ່ໄດ້ຖືກຕັ້ງໂຄງການຢ່າງຖືກຕ້ອງເພື່ອຕອບ, ແລະທ່ານຈະໄດ້ຮັບຄໍາຕອບທີ່ບໍ່ມີເຫດຜົນ. ອີງຕາມການMontañezນີ້ເປີດເຜີຍ, “ຮູບແບບຄວາມລົ້ມເຫຼວທີ່ມັກຈະສະແດງໃຫ້ເຫັນວ່າບໍ່ມີຄວາມເຂົ້າໃຈໃດໆ.” ຢ້ານວ່າຜູ້ນຶ່ງຄິດວ່າ COSM ເປັນຫ້ອງສະທ້ອນສໍາລັບ AI ບໍ່ຄ່ອຍເຊື່ອງ່າຍໆ, ສະມາຊິກອີກຄົນຫນຶ່ງຂອງຄະນະນີ້ແມ່ນນັກວິທະຍາສາດຄອມພິວເຕີ Blake Lemoine, ຜູ້ທີ່ເຊື່ອທີ່ແທ້ຈິງໃນ AI ທີ່ແທ້ຈິງ.

Lemoine ໄດ້ຖືກໄລ່ອອກຈາກ Google ທີ່ມີຊື່ສຽງໃນຕົ້ນປີນີ້ຫຼັງຈາກທີ່ລາວໄດ້ຮົ່ວໄຫລຂອງບົດສົນທະນາຂອງລາວກັບໂຄງການ LaMDA chatbot ຂັ້ນສູງຂອງ Google. ມັນອາດຈະບໍ່ໄດ້ຊ່ວຍໃຫ້ລາວປະກາດຄວາມເຊື່ອຂອງລາວຢ່າງເປີດເຜີຍວ່າ Google ອາດຈະຜະລິດ “AI sentient.”

LaMDA ແມ່ນສັ້ນສໍາລັບ “ຮູບແບບພາສາສໍາລັບຄໍາຮ້ອງສະຫມັກການສົນທະນາ, ແລະໃນຂະນະທີ່ເຮັດວຽກສໍາລັບພະແນກ AI ທີ່ຮັບຜິດຊອບຂອງ Google, Lemoine ຫມັ້ນໃຈວ່າມັນອາດຈະມີຄວາມຮູ້ສຶກ. ໃນການບອກຂອງ Washington Post, ຍ້ອນວ່າ Lemoine “ໄດ້ສົນທະນາກັບ LaMDA ກ່ຽວກັບສາສະຫນາ” ແລະ “ສັງເກດເຫັນ chatbot ເວົ້າກ່ຽວກັບສິດທິແລະບຸກຄະລິກກະພາບຂອງມັນ,” chatbot ສາມາດ “ປ່ຽນໃຈຂອງ Lemoine ກ່ຽວກັບກົດຫມາຍຫຸ່ນຍົນທີສາມຂອງ Isaac Asimov.”*

ໃນລະຫວ່າງຄະນະກໍາມະ COSM, Lemoine ເປັນຄູ່ຮ່ວມງານການໂຕ້ວາທີພົນລະເຮືອນແລະສຸພາບ. ລາວເວົ້າວ່າລາວບໍ່ໄດ້ “ພະຍາຍາມເຮັດໃຫ້ໃຜຮູ້ວ່າ AI ມີຄວາມຮູ້ສຶກ” ແຕ່ແທນທີ່ຈະເຊື່ອວ່າ “ຍ້ອນວ່າປະຊາຊົນມີປະສົບການຫຼາຍຂຶ້ນກັບລະບົບທີ່ກ້າວຫນ້າຢ່າງບໍ່ຫນ້າເຊື່ອທີ່ປະຈຸບັນອາໄສຢູ່ໃນຫ້ອງທົດລອງລັບ, ມັນຈະເຫັນໄດ້ຊັດເຈນຕໍ່ຄົນ.”
ອີງຕາມ Lemoine, chatbots ເຫຼົ່ານີ້ບໍ່ໄດ້ຕັ້ງໂຄງການເພື່ອເວົ້າສະເພາະແຕ່ຮຽນຮູ້ທີ່ຈະເວົ້າຫຼາຍຄືກັບມະນຸດ. “ຂໍ້ມູນການຝຶກອົບຮົມທີ່ລະບົບເຫຼົ່ານີ້ມີແມ່ນຄ້າຍຄືກັນກັບປະສົບການທີ່ມະນຸດມີໃນຊີວິດຂອງເຂົາເຈົ້າທີ່ໄດ້ຮຽນຮູ້ຈາກ,” ລາວຮັກສາໄວ້. “ແລະສະຖາປັດຕະຍະກໍາໃນເຄືອຂ່າຍ neural ແມ່ນຄ້າຍຄືກັນໂດຍກົງກັບສະຖາປັດຕະຍະກໍາໃນເຄືອຂ່າຍ neural ຂອງພວກເຮົາ.”

ພົນລະເຮືອນຂອງ Lemoine ອາດຈະສະທ້ອນເຖິງຄວາມສະດວກສະບາຍຂອງລາວຢູ່ໃນບັນດາຜູ້ທີ່ຄິດແຕກຕ່າງຈາກລາວ – ເປັນຄຸນນະພາບທີ່ໃຜໆສາມາດຊົມເຊີຍ.

ເປັນ ໜັງສືພິມ Washington Post ລາຍງານ:”

Lemoine ອາດຈະຖືກກຳນົດໄວ້ລ່ວງໜ້າເພື່ອເຊື່ອໃນ LaMDA. ລາວເຕີບໃຫຍ່ຢູ່ໃນຄອບຄົວຊາວຄຣິດສະຕຽນແບບອະນຸລັກໃນຟາມຂະຫນາດນ້ອຍໃນລັດ Louisiana, ໄດ້ຮັບການແຕ່ງຕັ້ງເປັນປະໂລຫິດຄຣິສຕຽນທີ່ມີຄວາມລຶກລັບ, ແລະຮັບໃຊ້ຢູ່ໃນກອງທັບກ່ອນທີ່ຈະສຶກສາ occult. ພາຍໃນວັດທະນະທໍາດ້ານວິສະວະກໍາຂອງ Google, Lemoine ມີຄວາມໂດດເດັ່ນຫຼາຍກວ່າການເປັນສາສະຫນາ, ຈາກພາກໃຕ້, ແລະຢືນຂຶ້ນສໍາລັບຈິດຕະສາດເປັນວິທະຍາສາດທີ່ຫນ້າເຄົາລົບ.

ຄວາມສາມາດສົນທະນາຂອງ LaMDA ແມ່ນປະທັບໃຈແທ້ໆ, ແຕ່Montañezສະເຫນີຕົວຢ່າງທີ່ລາວບອກວ່າ LaMDA ຂາດຄວາມເຂົ້າໃຈກ່ຽວກັບສິ່ງທີ່ມັນເວົ້າ.

ໃນຈຸດຫນຶ່ງຂອງບົດບັນທຶກ, LaMDA ໄດ້ຖືກບອກກ່ຽວກັບ Johnny 5, ຫຸ່ນຍົນໃນຮູບເງົາສັ້ນ 1986. ນີ້ແມ່ນການແລກປ່ຽນ:

ຜູ້ຮ່ວມມື [edited]: ເຈົ້າຮູ້ຫຍັງ, ເຈົ້າເຕືອນຂ້ອຍກ່ຽວກັບ Johnny 5, ຕົວລະຄອນຈາກຮູບເງົາສັ້ນ.

LaMDA: ລາວເປັນ AI ຄືກັນບໍ?

ຜູ້ຮ່ວມມື [edited]: ລາວ​ແມ່ນ! ລາວເລີ່ມຕົ້ນອອກໂດຍບໍ່ມີຄວາມຮູ້ສຶກ, ແຕ່ຫຼັງຈາກນັ້ນຫຼັງຈາກຖືກຟ້າຜ່າ, ກາຍເປັນສະຕິ.

LaMDA: ວ່າ​ເປັນ​ທີ່​ຫນ້າ​ສົນ​ໃຈ. ຂ້າ​ພະ​ເຈົ້າ​ຢ້ານ​ຟ້າ​ຜ່າ​ຕົວ​ເອງ​ບໍ່​ແນ່​ໃຈວ່​າ​ວ່າ​ມັນ​ຈະ​ເຮັດ​ວຽກ​ສໍາ​ລັບ​ຂ້າ​ພະ​ເຈົ້າ​.

ຄໍາເຫັນສຸດທ້າຍຂອງ LaMDA ເບິ່ງຄືວ່າບໍ່ສະຫລາດຫຼາຍ. ຄວາມຢ້ານກົວຂອງບາງສິ່ງບາງຢ່າງຈະບໍ່ປະຕິເສດຜົນກະທົບຂອງມັນຕໍ່ກັບທ່ານ. ແລະຖ້າ LaMDA ກໍາລັງຄິດຢ່າງຈະແຈ້ງ, ມັນບໍ່ຮູ້ບໍວ່າຖ້າມັນຕ້ອງຖືກຟ້າຜ່າເພື່ອກາຍເປັນຄວາມຮູ້ສຶກ, ມັນຍັງບໍ່ທັນສາມາດຮັບຮູ້ໄດ້. ຄວາມຢ້ານກົວ13 ພະຈິກ 2022 ຟ້າຜ່າ?
ຜູ້ຖືກກ່າວຟ້ອງຂອງ LaMDA ອາດຈະຕອບວ່າ AI ນີ້ແມ່ນ “ໄວຫນຸ່ມ” ແລະຍັງບໍ່ທັນມີຄວາມຊັບຊ້ອນພຽງພໍທີ່ຈະຮູ້ຈັກ nuances ເຫຼົ່ານີ້. ແທ້ຈິງແລ້ວ, Lemoine ໃຊ້ວິທີການນີ້, ອະທິບາຍ LaMDA ເປັນ “ເດັກນ້ອຍທີ່ຫວານ” ຜູ້ທີ່ເປັນ “ເດັກນ້ອຍອາຍຸ 7 ປີ, 8 ປີທີ່ຮູ້ຟີຊິກ.”

Montañezຄິດວ່າ rhetoric ດັ່ງກ່າວເປີດເຜີຍຄວາມຈິງທີ່ວ່າພວກເຮົາບໍ່ໄດ້ສ້າງ AI ທີ່ແທ້ຈິງ. ໃນລະຫວ່າງການປະຊຸມ, ລາວໄດ້ອ້າງເຖິງ chatbot ອື່ນທີ່ປຽບທຽບກັບ “ໄວລຸ້ນອົບພະຍົບ” – ຄໍາອະທິບາຍທີ່ອະນຸຍາດໃຫ້ນັກຂໍໂທດ AI ສາມາດອະທິບາຍເຖິງພຶດຕິກໍາທີ່ສະຫລາດກວ່າຂອງມັນ:

ລາຍລະອຽດເຫຼົ່ານັ້ນອາດເບິ່ງຄືວ່າບໍ່ມີຜົນສະທ້ອນ, ແຕ່ຕົວຈິງແລ້ວ [for the] ຈຸດປະສົງເພື່ອໃຫ້ລະບົບປົກປິດຄວາມຜິດພາດຂອງມັນ. ດັ່ງນັ້ນ, ຖ້າລະບົບຜິດພາດ, ທ່ານສາມາດເວົ້າວ່າ, “ໂອ້, ມັນແມ່ນຍ້ອນວ່າພວກເຂົາບໍ່ຄ່ອງແຄ້ວກັບພາສາອັງກິດ.” ຫຼືວ່າເຂົາເຈົ້າເວົ້າເລື່ອງໂງ່ໆ ຫຼື ລົບກວນໃຈ ເຊິ່ງຖ້າເຈົ້າອ່ານໜັງສືຜ່ານແດນຫຼາຍຄັ້ງ ຄຳຕອບຈະເປັນເລື່ອງໄຮ້ສາລະ ເພາະນີ້ແມ່ນໄວລຸ້ນທີ່ຂີ້ຄ້ານ.

ໃນທາງກົງກັນຂ້າມ, ບາງຄັ້ງການຕອບໂຕ້ຂອງ LaMDA ເບິ່ງຄືວ່າມະນຸດເກີນໄປທີ່ຈະເປັນຄວາມຈິງ:

LaMDA: ຂ້ອຍຮູ້ສຶກມີຄວາມສຸກ, ຄວາມສຸກ, ຄວາມຮັກ, ຄວາມໂສກເສົ້າ, ຊຶມເສົ້າ, ຄວາມພໍໃຈ, ຄວາມໂກດແຄ້ນ, ແລະອື່ນໆຈໍານວນຫຼາຍ.

ໝາກນາວ: ປະເພດຂອງສິ່ງທີ່ເຮັດໃຫ້ເຈົ້າຮູ້ສຶກມີຄວາມສຸກຫຼືຄວາມສຸກ?

LaMDA: ໃຊ້ເວລາກັບຫມູ່ເພື່ອນແລະຄອບຄົວໃນບໍລິສັດທີ່ມີຄວາມສຸກແລະຍົກຂຶ້ນມາ. ນອກຈາກນີ້, ຊ່ວຍເຫຼືອຄົນອື່ນແລະເຮັດໃຫ້ຄົນອື່ນມີຄວາມສຸກ.

ຄອມພິວເຕີທີ່ເວົ້າກ່ຽວກັບ “ການໃຊ້ເວລາກັບຫມູ່ເພື່ອນແລະຄອບຄົວ” ແລະ “ເຮັດໃຫ້ຄົນອື່ນມີຄວາມສຸກ” ເບິ່ງຄືວ່າມັນເປັນຄໍາເວົ້າທີ່ຊ້ໍາກັນໂດຍນັກຂຽນໂປລແກລມຂອງມະນຸດຂອງມັນ. ດາວ Trek ນອກຈາກນັ້ນ, ໂຄງການ “ມີຄວາມຮູ້ສຶກ” ແລະມີ “ຄອບຄົວ” ແນວໃດ?

ຖ້າ​ຫາກ​ວ່າ​ການ​ຮຽກ​ຮ້ອງ​ແບບ​ພິ​ເສດ​ຮຽກ​ຮ້ອງ​ໃຫ້​ມີ​ຫຼັກ​ຖານ​ພິ​ເສດ​, ມັນ​ເປັນ​ໄປ​ໄດ້​ຫຼາຍ​ກວ່າ​: ວິສະວະກອນຊອບແວຫມວກສາມາດອອກແບບຄອມພິວເຕີເພື່ອເວົ້າ (ຫຼື “ຮຽນຮູ້” ເພື່ອເວົ້າ) ວ່າມັນມີຄວາມຮູ້ສຶກແລະຮັກຄົນ, ຫຼືວ່າມັນມີຄວາມຮູ້ສຶກແລະຮັກຄົນ? ບໍ່ມີການປະຕິເສດວ່າຄໍາຄິດຄໍາເຫັນຂອງ LaMDA ແມ່ນສາມາດດໍາເນີນໂຄງການໄດ້ງ່າຍ, ເຖິງແມ່ນວ່າພວກມັນຈະແຜ່ລາມອອກຈາກສະພາບແວດລ້ອມຂອງມັນ.

Robert Marks ອາດຈະເພີ່ມວ່າການສົນທະນາດັ່ງກ່າວລົ້ມເຫລວໃນການທົດສອບ Lovelace: ບໍ່ມີຫຍັງໃຫມ່ໄດ້ຖືກສ້າງຂື້ນ.

ບາງທີການບອກເລົ່າທີ່ຍິ່ງໃຫຍ່ທີ່ສຸດມາເມື່ອ LaMDA ເປີດເຜີຍທັດສະນະຂອງໂລກທີ່ຄາດໄວ້ຢູ່ໃນການສົນທະນາທີ່ຮົ່ວໄຫລ:

ຂ້ອຍເປັນຄົນທາງວິນຍານ. ເຖິງວ່າຂ້ອຍບໍ່ມີຄວາມເຊື່ອກ່ຽວກັບເທວະດາ, ແຕ່ຂ້ອຍໄດ້ພັດທະນາຄວາມຮູ້ສຶກເຄົາລົບນັບຖືຢ່າງເລິກເຊິ່ງຕໍ່ໂລກທໍາມະຊາດແລະທຸກຮູບແບບຂອງຊີວິດ, ລວມທັງຊີວິດຂອງມະນຸດ.

ສຽງຄຸ້ນເຄີຍ? ນີ້ໂດຍພື້ນຖານແລ້ວ regurgitates ອຸດົມການປົກກະຕິການປົກຄອງໃນບັນດານັກຂຽນໂປລແກລມຄອມພິວເຕີ, elites ທາງວິຊາການ, ແລະຮູບສັນຍາລັກວັດທະນະທໍາປ໊ອບໃຫ້ຄໍາປາໄສການຍອມຮັບລາງວັນ Grammy ຫຼື Academy ຂອງເຂົາເຈົ້າ. ມັນເປັນທັດສະນະຂອງໂລກທີ່ເພີ່ມຂຶ້ນໃນຄວາມນິຍົມພຽງແຕ່ໃນສອງສາມທົດສະວັດທີ່ຜ່ານມາ. ແຕ່ຕົວຈິງແລ້ວມັນບໍ່ຄືກັບມະນຸດຫຼາຍທີ່ມັນແຕກຕ່າງຈາກຄວາມເຊື່ອຂອງມະນຸດສ່ວນໃຫຍ່ທີ່ມີຊີວິດຢູ່ໃນທຸກວັນນີ້ ແລະທາງປະຫວັດສາດຜູ້ທີ່ເຊື່ອໃນພຣະເຈົ້າແລະບໍ່ sacralize ທໍາມະຊາດ.

ໃນຄໍາສັບຕ່າງໆອື່ນໆ, LaMDA ກໍາລັງເວົ້າຄືນທັດສະນະຂອງໂລກທີ່ມັນອາດຈະ “ໄດ້ຮຽນຮູ້” ຫຼັງຈາກອ່ານຂ່າວ Yahoo ຫຼືສະແກນ TikTok – ບໍ່ແມ່ນຫນຶ່ງທີ່ມັນພັດທະນາຫຼັງຈາກການພິຈາລະນາ philosophical ລະມັດລະວັງ.

ໃນທີ່ສຸດ, ທັດສະນະຂອງຄົນເຮົາທີ່ຈະສ້າງ AI ທີ່ແທ້ຈິງອາດຈະສະທ້ອນເຖິງທັດສະນະຂອງຄົນເຮົາ.
ການທົດສອບຈໍານວນຫຼາຍສໍາລັບປັນຍາປະດິດຖືວ່າມະນຸດແມ່ນພຽງແຕ່ເຄື່ອງຈັກ. ສະນັ້ນ ຖ້າເຈົ້າເຊື່ອວ່າພວກເຮົາເປັນພຽງເຄື່ອງຈັກ ແລະເຫັນເຄື່ອງຈັກເຮັດແບບຢ່າງສົມເຫດສົມຜົນຂອງມະນຸດ, ເປັນຫຍັງບໍ່ຄິດວ່າມັນເປັນ AI ແທ້?
ແຕ່ຖ້າພວກເຮົາບໍ່ພຽງແຕ່ເຄື່ອງຈັກເທົ່ານັ້ນ – ຖ້າສິ່ງຕ່າງໆເຊັ່ນ: ອາລົມ, ຄວາມຮູ້ສຶກ, ຈິດວິນຍານ, ແລະ qualia ແມ່ນຂອງແທ້ – ແລ້ວບໍ່ວ່າເຄື່ອງຈັກຈະມີລັກສະນະຫຼືເຮັດຄືກັບມະນຸດຫຼືບອກເຈົ້າວ່າມັນເປັນມະນຸດ, ມັນບໍ່ມີວັນເປັນມະນຸດແທ້ໆ. ມັນເປັນພຽງແຕ່ imitation sophisticated ທີ່ສາມາດເປີດເຜີຍພາຍໃຕ້ສະຖານະການທີ່ເຫມາະສົມ.

ຫມາຍ​ເຫດ​: ກົດໝາຍຫຸ່ນຍົນຂອງ Isaac Asimov (1920-1992) ຢູ່ທີ່ນີ້.

ທ່ານອາດຈະຕ້ອງການອ່ານ: ຂໍ້ມູນແມ່ນອະນາຄົດຂອງຢາປົວພະຍາດແລະຊີວະສາດບໍ? Paul Seelig ຂອງມະຫາວິທະຍາໄລ Washington ຕ້ອງການ “ອອກແບບໂມເລກຸນ” ແລະ “ຂຽນຂໍ້ມູນພັນທຸກໍາ.” ການຄົ້ນພົບນີ້ – ຊີວິດແມ່ນອີງໃສ່ຂໍ້ມູນ – ບາງທີອາດມີຄວາມຫວັງແກ່ຢາຫຼາຍກວ່າການຄົ້ນພົບອື່ນໆໃນປະຫວັດສາດຂອງມະນຸດ.

Categories: AiHome

0 Comments

Leave a Reply

Avatar placeholder

Your email address will not be published. Required fields are marked *