ໃນຕອນທີ່ຜ່ານມາຢູ່ທີ່ ຂ່າວກ່ຽວກັບຈິດໃຈ podcasting, “ຄອມພິວເຕີສາມາດເປັນຄົນໄດ້ບໍ?” (10 ພະຈິກ 2022), Robert J. Marks ແລະ Wesley J. Smith ປຶກສາຫາລືກ່ຽວກັບປື້ມໃຫມ່ຂອງ Mark. ບໍ່​ສາ​ມາດ​ຄອມ​ພິວ​ເຕີ​ຂອງ​ທ່ານ​:


ບາງບົດຄັດຫຍໍ້:

Wesley J. Smith: ໃຫ້ຂ້ອຍຖາມຄໍາຖາມໃນທາງທີ່ແຕກຕ່າງກັນ. AI ເຄີຍບໍ່ສົມເຫດສົມຜົນບໍ?

Robert J. Marks: ແມ່ນແລ້ວ. Irrational ໃນຄວາມຮູ້ສຶກຂອງການເປັນ irrational ຈາກຈຸດຂອງຜູ້ສັງເກດການ. ຕົວຢ່າງແບບຄລາສສິກ, ແລະເລື່ອງນີ້ເກີດຂຶ້ນຫຼາຍປີກ່ອນ, ແມ່ນວ່າໂຊວຽດໃນລະຫວ່າງສົງຄາມເຢັນໄດ້ພັດທະນາເຕັກໂນໂລຢີສູງເພື່ອຕັດສິນໃຈວ່າສະຫະລັດຈະຖືກໂຈມຕີໂດຍ … ຂ້ອຍຂໍອະໄພ, ສະຫະພາບໂຊວຽດຖືກໂຈມຕີໂດຍສະຫະລັດ. ລັດ. ແລະດັ່ງນັ້ນເຂົາເຈົ້າຈຶ່ງມີເຄື່ອງກວດຈັບລູກສອນໄຟເຫຼົ່ານີ້. ແລະ​ມີ​ການ​ປຸກ​ທີ່​ບໍ່​ຖືກ​ຕ້ອງ​ນີ້​ໃນ​ມື້​ຫນຶ່ງ​ໃນ​ເວ​ລາ​ທີ່​ລະ​ບົບ OKO (OKO) ໄດ້​ຮັບ​ການ​ກະ​ຕຸ້ນ​ແລະ sirens ໄດ້​ປິດ​ແລະ​ມັນ​ເວົ້າ​ວ່າ​ພວກ​ເຂົາ​ເຈົ້າ​ໄດ້​ຖືກ​ໂຈມ​ຕີ​ໂດຍ​ລູກ​ສອນ​ໄຟ​ຂອງ​ສະ​ຫະ​ລັດ. ​ແລະ​ອະນຸ​ສັນຍາ​ດັ່ງກ່າວ​ແມ່ນ​ເພື່ອ​ເປີດ​ການ​ໂຈມ​ຕີ.

ແຕ່ໂຊກດີ, ຜູ້ທີ່ຮັບຜິດຊອບ, ຖ້າຂ້ອຍຈື່, ແມ່ນ Lieutenant Stanislav, ຂ້ອຍເຊື່ອ. ລາວເວົ້າວ່າ, “ນີ້ບໍ່ມີຄວາມຫມາຍ. ​ເພາະວ່າ ຖ້າ​ຫາກ​ອາ​ເມ​ລິ​ກາ​ທຳ​ການ​ບຸກ​ໂຈມ​ຕີ​ທາງ​ທະຫານ, ​ເຂົາ​ເຈົ້າ​ຈະ​ບໍ່​ສົ່ງ​ລູກ​ສອນ​ໄຟ​ຂີ​ປະ​ນາ​ວຸດ​ໜຶ່ງ​ຫຼື​ສອງ​ລູກ. ພວກ​ເຂົາ​ເຈົ້າ​ຈະ​ທຳ​ການ​ໂຈມ​ຕີ​ລ່ວງ​ໜ້າ​ພຽງ​ແຕ່​ຍິງ​ລູກ​ສອນ​ໄຟ​ຫຼາຍໆ​ລູກ​ໄປ​ສູ່​ສະ​ຫະ​ພາບ​ໂຊ​ວຽດ.”

ສະນັ້ນ ລາວ​ຈຶ່ງ​ເອີ້ນ​ເຈົ້າ​ໜ້າ​ທີ່​ຂອງ​ລາວ​ໄປ ແລະ​ເຂົາ​ເຈົ້າ​ຈຶ່ງ​ຍົກ​ເລີກ​ມັນ. ດັ່ງນັ້ນ, ນີ້ແມ່ນບາງສິ່ງບາງຢ່າງ, ຂ້າພະເຈົ້າເຊື່ອວ່າ, ຕົວຢ່າງຂອງ AI, ຫຼືຢ່າງຫນ້ອຍເຕັກໂນໂລຢີສູງແມ່ນບໍ່ສົມເຫດສົມຜົນແລະມາຮອດການສະຫລຸບທີ່ບໍ່ຖືກຕ້ອງ. ຕໍ່ມາ, ພວກເຂົາເຈົ້າໄດ້ພົບເຫັນວ່າລະບົບ Oko ໄດ້ຜິດພາດການສະທ້ອນຂອງແສງແດດອອກຈາກເມກເປັນລູກສອນໄຟຂອງສະຫະລັດ. ແລະດັ່ງນັ້ນມັນເປັນສິ່ງທີ່ບໍ່ຖືກຕ້ອງທັງຫມົດ. ແຕ່ຜູ້ຊາຍຄົນນັ້ນ, ຮ້ອຍຕີ Stanislav, ລາວອາດຈະຊ່ວຍປະຢັດການແລກປ່ຽນນິວເຄຼຍ, ແທ້ໆ.

Wesley J. Smith: ເພາະ​ວ່າ​ລາວ​ມີ​ບາງ​ສິ່ງ​ທີ່​ເຈົ້າ​ເວົ້າ​ເຖິງ​ໃນ​ປຶ້ມ​ຂອງ​ເຈົ້າ, ເອີ້ນ​ວ່າ​ຄວາມ​ສາ​ມາດ…

Robert J. Marks: ແມ່ນແລ້ວ, ລາວມີຄວາມຮູ້ສຶກທົ່ວໄປ.

Wesley J. Smith: … ທີ່ AI ບໍ່ມີ.

Robert J. Marks: ແມ່ນແລ້ວ, ມັນບໍ່ມີ. ແລະຂ້ອຍເຄີຍເຊື່ອວ່າຄວາມຮູ້ສຶກທົ່ວໄປອາດຈະຖືກຂຽນໂປຼແກຼມເຂົ້າໃນຄອມພິວເຕີ. ແຕ່ຂ້ອຍເລີ່ມເຊື່ອກັບຜົນໄດ້ຮັບຫຼາຍຂຶ້ນວ່ານີ້ອາດຈະເປັນບາງສິ່ງບາງຢ່າງທີ່ບໍ່ສາມາດຄິດໄລ່ໄດ້.

ຫນຶ່ງໃນຄວາມຄິດທີ່ຂ້ອຍມັກທີ່ສຸດກ່ຽວກັບຄວາມບໍ່ແນ່ນອນແລະຄວາມບໍ່ສາມາດຂອງປັນຍາປະດິດທີ່ຈະເຂົ້າໃຈແລະແກ້ໄຂຄວາມບໍ່ແນ່ນອນແມ່ນອັນທີ່ເອີ້ນວ່າ “ຫົວຂໍ້ຂ່າວທີ່ສັບສົນ.” ແລະຂ້າພະເຈົ້າມີການເກັບກໍາທີ່ຍິ່ງໃຫຍ່ຂອງພວກເຂົາ, ໂດຍວິທີທາງການ, ຫຼາຍກວ່າຫນຶ່ງຮ້ອຍຫົວຂໍ້ flubed … “ໂຮງຫມໍໄດ້ຟ້ອງຮ້ອງໂດຍຫມໍຕີນເຈັດ.”

ມັນແມ່ນຫມໍ podiatists ເຈັດຄົນຫຼືມັນແມ່ນທ່ານຫມໍທີ່ສູງແທ້ໆເຫຼົ່ານີ້?

“ຊາວກະສິກອນ Bill ຕາຍຢູ່ເຮືອນ.”

ມັນແມ່ນຊາວກະສິກອນຫຼືມັນແມ່ນນິຕິກໍາ? ດັ່ງນັ້ນມີຈໍານວນເຫຼົ່ານັ້ນ. ແລະຫນຶ່ງໃນສິ່ງທ້າທາຍທີ່ມີປັນຍາປະດິດແມ່ນມີການອ້າງເຖິງຄວາມບໍ່ຊັດເຈນບາງປະເພດນີ້ທີ່ເອີ້ນວ່າ Winograd schema.

ແຕ່ຫຼາຍຂອງ schema Winograd ເຫຼົ່ານີ້ແມ່ນຕົວຈິງແລ້ວຕອບອອນໄລນ໌. ແລະດັ່ງນັ້ນຖ້າມັນຢູ່ໃນ Wikipedia, ຖ້າມັນຢູ່ໃນເວັບ, ມັນ [an AI]ສາມາດແກ້ໄຂໄດ້ ເພາະວ່າມັນເຄີຍເຫັນມາກ່ອນ.

ແຕ່​ພຽງ​ແຕ່​ຂອງ​ຕົນ​ເອງ … ?

ທ່ານອາດຈະຕ້ອງການອ່ານ: ພວກເຮົາສາມາດຕິດຕັ້ງຄວາມຮູ້ສຶກທົ່ວໄປໃນ AI ໄດ້ບໍ? ຂ້ອຍສະເໜີສິ່ງທ້າທາຍໃໝ່: ສອນຄອມພິວເຕີໃຫ້ເຂົ້າໃຈຫົວຂໍ້ “ນັກຮຽນແຕ່ງກິນ ແລະຮັບໃຊ້ພໍ່ຕູ້” ຢ່າງຖືກຕ້ອງ. Paul Allen ໃນຕອນທ້າຍຄິດວ່າການສອນຄອມພິວເຕີທົ່ວໄປແມ່ນເປົ້າຫມາຍ AI ທີ່ສໍາຄັນ. ເພື່ອຊ່ວຍ, ຂ້ອຍສະເຫນີຄວາມທ້າທາຍຫົວຂໍ້ Flubbed. (Robert J. Marks)

Categories: AiHome

0 Comments

Leave a Reply

Avatar placeholder

Your email address will not be published. Required fields are marked *