ຄຸນ​ນະ​ສົມ​ບັດ​ສະ​ຫນັບ​ສະ​ຫນູນ​: ມັນເປັນທົດສະວັດແລະເຄິ່ງຫນຶ່ງນັບຕັ້ງແຕ່ນັກຄົ້ນຄວ້າເຮັດໃຫ້ຕາຕົກໃຈໂລກເຕັກໂນໂລຢີໂດຍສະແດງໃຫ້ເຫັນວ່າ GPUs ສາມາດຖືກນໍາໃຊ້ເພື່ອເລັ່ງການດໍາເນີນງານ AI ທີ່ສໍາຄັນ.

ຄວາມ​ເປັນ​ຈິງ​ນັ້ນ​ສືບ​ຕໍ່​ກຳ​ແໜ້ນ​ຈິນຕະນາການ​ຂອງ​ວິ​ສາ​ຫະກິດ. IDC ໄດ້ລາຍງານວ່າເມື່ອເວົ້າເຖິງໂຄງສ້າງພື້ນຖານ, GPU ເລັ່ງຄອມພິວເຕີ້ແລະ HPC ຄືກັບການຂະຫຍາຍໃຫຍ່ຂື້ນຢູ່ໃນບັນດາການພິຈາລະນາຊັ້ນນໍາສໍາລັບຜູ້ນໍາດ້ານເຕັກໂນໂລຢີແລະສະຖາປະນິກທີ່ກໍາລັງຊອກຫາການສ້າງໂຄງສ້າງພື້ນຖານ AI ຂອງພວກເຂົາ.

ແຕ່ສໍາລັບອົງການຈັດຕັ້ງທັງຫມົດທີ່ໄດ້ປະສົບຜົນສໍາເລັດນໍາໃຊ້ AI ກັບບັນຫາໂລກທີ່ແທ້ຈິງ, ມີຫຼາຍຕໍ່ສູ້ເພື່ອຜ່ານຂັ້ນຕອນການທົດລອງຫຼືການທົດລອງ. ການຄົ້ນຄວ້າຂອງ IDC ໃນປີ 2021 ພົບວ່າ ໜ້ອຍກວ່າໜຶ່ງສ່ວນສາມຂອງຜູ້ຕອບແບບສອບຖາມໄດ້ຍ້າຍໂຄງການ AI ຂອງເຂົາເຈົ້າໄປສູ່ການຜະລິດ, ແລະພຽງແຕ່ໜຶ່ງສ່ວນສາມຂອງຈຳນວນເຫຼົ່ານັ້ນໄດ້ບັນລຸ “ຂັ້ນຕອນການຜະລິດທີ່ແກ່ແລ້ວ”.

ອຸປະສັກທີ່ອ້າງເຖິງລວມເຖິງບັນຫາການປຸງແຕ່ງ ແລະການກະກຽມຂໍ້ມູນ ແລະປັບປຸງໂຄງສ້າງພື້ນຖານເພື່ອສະໜັບສະໜູນ AI ​​ໃນລະດັບວິສາຫະກິດ. ວິສາຫະກິດຈໍາເປັນຕ້ອງລົງທຶນໃນ “ໂຄງສ້າງພື້ນຖານທີ່ມີຈຸດປະສົງແລະຂະຫນາດທີ່ເຫມາະສົມ”, IDC ກ່າວ.

ບັນຫາ AI ແມ່ນຫຍັງຢູ່ທີ່ນີ້?

ດັ່ງນັ້ນອົງການຈັດຕັ້ງເຫຼົ່ານັ້ນຜິດພາດກັບ AI ຢູ່ໃສ? ປັດໄຈຫນຶ່ງອາດຈະເປັນທີ່ຜູ້ນໍາດ້ານເຕັກໂນໂລຢີແລະຜູ້ຊ່ຽວຊານດ້ານ AI ລົ້ມເຫລວໃນການເບິ່ງລວມຢູ່ໃນທໍ່ AI ທີ່ກວ້າງກວ່າໃນຂະນະທີ່ເອົາໃຈໃສ່ກັບ GPUs ຫຼາຍເກີນໄປເມື່ອປຽບທຽບກັບເຄື່ອງຈັກຄອມພິວເຕີ້ອື່ນໆ, ໂດຍສະເພາະ CPU ທີ່ຫນ້າເຄົາລົບ.

ເນື່ອງຈາກວ່າໃນທີ່ສຸດ, ມັນບໍ່ແມ່ນຄໍາຖາມຂອງການສະຫນັບສະຫນູນ CPUs ທຽບກັບ GPUs ທຽບກັບ ASICs. ແທນທີ່ຈະ, ມັນແມ່ນກ່ຽວກັບການຊອກຫາວິທີທີ່ດີທີ່ສຸດທີ່ຈະສ້າງທໍ່ AI ທີ່ສາມາດນໍາທ່ານຈາກແນວຄວາມຄິດແລະຂໍ້ມູນແລະການສ້າງແບບຈໍາລອງໄປສູ່ການນໍາໃຊ້ແລະການຄາດເດົາ. ແລະນັ້ນຫມາຍຄວາມວ່າການຍົກຍ້ອງຄວາມເຂັ້ມແຂງຕາມລໍາດັບຂອງສະຖາປັດຕະຍະກໍາໂປເຊດເຊີທີ່ແຕກຕ່າງກັນ, ດັ່ງນັ້ນທ່ານສາມາດນໍາໃຊ້ເຄື່ອງຈັກຄອມພິວເຕີ້ທີ່ຖືກຕ້ອງໃນເວລາທີ່ເຫມາະສົມ.

ໃນຖານະເປັນຜູ້ອໍານວຍການອາວຸໂສຂອງ Intel, Datacenter AI Strategy and Execution, Shardul Brahmbhatt ອະທິບາຍວ່າ, “CPU ໄດ້ຖືກນໍາໃຊ້ສໍາລັບ microservices ແລະ instances ຄອມພິວເຕີແບບດັ້ງເດີມຢູ່ໃນຄລາວ. ແລະ GPUs ໄດ້ຖືກນໍາໃຊ້ສໍາລັບຄອມພິວເຕີ້ຂະຫນານ, ເຊັ່ນ: ການຖ່າຍທອດສື່, ເກມ, ແລະສໍາລັບວຽກງານ AI.”

ດັ່ງນັ້ນ, ຍ້ອນວ່າ hyperscalers ແລະຜູ້ນຟັງອື່ນໆໄດ້ຫັນຄວາມສົນໃຈຂອງເຂົາເຈົ້າກັບ AI, ມັນຈະກາຍເປັນທີ່ຈະແຈ້ງວ່າພວກເຂົາເຈົ້າກໍາລັງໃຊ້ຄວາມເຂັ້ມແຂງດຽວກັນເຫຼົ່ານີ້ສໍາລັບວຽກງານທີ່ແຕກຕ່າງກັນ.

ຄວາມສາມາດໃນການຄິດໄລ່ຂະຫນານຂອງ GPUs ເຮັດໃຫ້ພວກເຂົາມີຄວາມເຫມາະສົມສໍາລັບການຝຶກອົບຮົມ AI algorithms, ສໍາລັບຕົວຢ່າງ. ໃນຂະນະດຽວກັນ, CPUs ມີຂອບໃນເວລາທີ່ມັນມາກັບ batch ຕ່ໍາ, latency ຕ່ໍາ inference ໃນເວລາທີ່ແທ້ຈິງ, ແລະການນໍາໃຊ້ algorithms ເຫຼົ່ານັ້ນເພື່ອວິເຄາະຂໍ້ມູນສົດແລະສົ່ງຜົນໄດ້ຮັບແລະການຄາດຄະເນ.

ອີກເທື່ອຫນຶ່ງ, ມີຄໍາເຕືອນ, Brahmbhatt ອະທິບາຍວ່າ, “ມີບ່ອນທີ່ທ່ານຕ້ອງການເຮັດຫຼາຍ inference batch. ແລະການອ້າງອິງຊຸດນັ້ນກໍ່ແມ່ນບາງສິ່ງບາງຢ່າງທີ່ເຮັດຜ່ານ GPUs ຫຼື ASICs.”

ຊອກຫາທາງລຸ່ມຂອງທໍ່

ແຕ່ທໍ່ AI ຂະຫຍາຍອອກໄປນອກເຫນືອຈາກການຝຶກອົບຮົມແລະການຄາດເດົາ. ຢູ່ເບື້ອງຊ້າຍຂອງທໍ່, ຂໍ້ມູນຕ້ອງໄດ້ຮັບການປຸງແຕ່ງກ່ອນ, ແລະວິທີການພັດທະນາ. CPU ທົ່ວໄປມີບົດບາດສໍາຄັນຢູ່ທີ່ນີ້.

ໃນຄວາມເປັນຈິງ, GPUs ກວມເອົາອັດຕາສ່ວນຫນ້ອຍຂອງກິດຈະກໍາຂອງໂປເຊດເຊີທັງຫມົດໃນທົ່ວທໍ່ AI, ດ້ວຍການເຮັດວຽກຂອງ “ຂັ້ນຕອນຂໍ້ມູນ” ທີ່ໃຊ້ CPU ກວມເອົາສອງສ່ວນສາມໂດຍລວມ, ອີງຕາມ Intel (ທ່ານສາມາດອ່ານບົດສະຫຼຸບການແກ້ໄຂ – ເພີ່ມປະສິດທິພາບ Inference ກັບ. Intel CPU Technology ທີ່ນີ້).

ແລະ Brahmbhatt ເຕືອນພວກເຮົາວ່າສະຖາປັດຕະຍະກໍາ CPU ມີຂໍ້ດີອື່ນໆ, ລວມທັງການດໍາເນີນໂຄງການ.

“ເນື່ອງຈາກວ່າ CPUs ໄດ້ຖືກນໍາໃຊ້ຢ່າງກວ້າງຂວາງ, ມີລະບົບນິເວດທີ່ມີຢູ່ແລ້ວຂອງນັກພັດທະນາແລະຄໍາຮ້ອງສະຫມັກທີ່ມີຢູ່, ບວກກັບເຄື່ອງມືທີ່ໃຫ້ຄວາມສະດວກໃນການນໍາໃຊ້ແລະການດໍາເນີນໂຄງການສໍາລັບຄອມພິວເຕີຈຸດປະສົງທົ່ວໄປ,” ລາວເວົ້າ.

“ອັນທີສອງ, CPUs ໃຫ້ການເຂົ້າເຖິງພື້ນທີ່ຫນ່ວຍຄວາມຈໍາທີ່ໃຫຍ່ກວ່າໄວຂຶ້ນ. ແລະຫຼັງຈາກນັ້ນສິ່ງທີສາມແມ່ນມັນເປັນຄອມພິວເຕີ້ທີ່ບໍ່ມີໂຄງສ້າງທຽບກັບ GPUs, ເຊິ່ງເປັນຄອມພິວເຕີ້ຂະຫນານຫຼາຍ. ສໍາລັບເຫດຜົນເຫຼົ່ານີ້, CPUs ດໍາເນີນການເປັນຕົວຍ້າຍຂໍ້ມູນທີ່ໃຫ້ອາຫານ GPUs, ດ້ວຍວິທີນີ້ການຊ່ວຍເຫຼືອແບບຈໍາລອງລະບົບຄໍາແນະນໍາເຊັ່ນດຽວກັນກັບການພັດທະນາການໂຫຼດເຊັ່ນເຄືອຂ່າຍ neural ເສັ້ນສະແດງ.

ແຜນການເປີດສໍາລັບການພັດທະນາ AI

ດັ່ງນັ້ນພວກເຮົາຄວນເບິ່ງບົດບາດຂອງ CPU ແລະ GPU ຕາມລໍາດັບແນວໃດເມື່ອວາງແຜນການພັດທະນາ AI, ບໍ່ວ່າຈະຢູ່ໃນ prem, ໃນຟັງ, ຫຼື straddling ທັງສອງ?

GPUs ປະຕິວັດການພັດທະນາ AI, ເພາະວ່າພວກເຂົາໄດ້ສະເຫນີວິທີການເລັ່ງການພັດທະນາ AI ໂດຍການໂຫຼດການເຮັດວຽກຈາກ CPU. ແຕ່ມັນບໍ່ປະຕິບັດຕາມວ່ານີ້ແມ່ນທາງເລືອກທີ່ສົມເຫດສົມຜົນທີ່ສຸດສໍາລັບວຽກທີ່ມອບໃຫ້.

ດັ່ງທີ່ສະຖາປະນິກເວທີ Intel Sharath Raghava ອະທິບາຍວ່າ “ແອັບພລິເຄຊັນ AI ມີການຄິດໄລ່ vectorized. ການຄິດໄລ່ vector ແມ່ນຂະຫນານ. ເພື່ອດໍາເນີນການປະສິດທິພາບການເຮັດວຽກຂອງ AI, ຫນຶ່ງສາມາດຂຸດຄົ້ນຄວາມສາມາດຂອງ CPUs ແລະ GPUs ພິຈາລະນາຂະຫນາດຂອງ vector computations, offload latency, parallelizability, ແລະປັດໃຈອື່ນໆຈໍານວນຫຼາຍ.” ແຕ່ລາວສືບຕໍ່, ສໍາລັບວຽກງານ “ຂະຫນາດນ້ອຍ”, “ຄ່າໃຊ້ຈ່າຍ” ຂອງການໂຫຼດຈະຫຼາຍເກີນໄປ, ແລະມັນອາດຈະບໍ່ມີຄວາມຫມາຍທີ່ຈະດໍາເນີນການກັບ GPU ຫຼືເຄື່ອງເລັ່ງຄວາມໄວ.

CPU ຍັງສາມາດໄດ້ຮັບຜົນປະໂຫຍດຈາກການລວມເຂົ້າກັນຢ່າງໃກ້ຊິດກັບອົງປະກອບຂອງລະບົບອື່ນໆທີ່ຊ່ວຍໃຫ້ພວກເຂົາເຮັດສໍາເລັດວຽກ AI ຢ່າງໄວວາ. ການໄດ້ຮັບມູນຄ່າສູງສຸດຈາກການຕິດຕັ້ງ AI ກ່ຽວຂ້ອງກັບຫຼາຍກວ່າການດໍາເນີນການພຽງແຕ່ຕົວແບບຂອງຕົວມັນເອງ – ຄວາມເຂົ້າໃຈທີ່ຊອກຫາແມ່ນຂຶ້ນກັບການປະຕິບັດກ່ອນການປຸງແຕ່ງ, ການສົມມຸດຕິຖານແລະການປະຕິບັດຫລັງການປຸງແຕ່ງທີ່ມີປະສິດທິພາບ. Preprocessing ຕ້ອງການຂໍ້ມູນເພື່ອກະກຽມໃຫ້ກົງກັບຄວາມຄາດຫວັງຂອງວັດສະດຸປ້ອນຂອງຕົວແບບທີ່ໄດ້ຮັບການຝຶກອົບຮົມກ່ອນທີ່ຈະຖືກປ້ອນເພື່ອສ້າງ inference. ຂໍ້ມູນທີ່ເປັນປະໂຫຍດແມ່ນໄດ້ຖືກສະກັດຈາກຜົນໄດ້ຮັບ inference ໃນຂັ້ນຕອນ postprocessing.

ຖ້າພວກເຮົາຄິດກ່ຽວກັບລະບົບການກວດສອບການລ່ວງລະເມີດຂອງສູນຂໍ້ມູນ (IDS) ເປັນຕົວຢ່າງ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະປະຕິບັດຜົນຜະລິດຂອງຕົວແບບເພື່ອປົກປ້ອງແລະປ້ອງກັນຄວາມເສຍຫາຍຈາກການໂຈມຕີທາງອິນເຕີເນັດຢ່າງທັນເວລາ. ແລະໂດຍປົກກະຕິ, ຂັ້ນຕອນການປຸງແຕ່ງແລະຫຼັງການປຸງແຕ່ງແມ່ນມີປະສິດທິພາບຫຼາຍຂຶ້ນເມື່ອພວກມັນຖືກປະຕິບັດຢູ່ໃນ CPUs ຂອງລະບົບເຈົ້າພາບເພາະວ່າພວກມັນຖືກປະສົມປະສານຢ່າງໃກ້ຊິດກັບສ່ວນທີ່ເຫຼືອຂອງລະບົບນິເວດສະຖາປັດຕະຍະກໍາ.

ການເພີ່ມປະສິດທິພາບພາຍໃຕ້ຄໍາສັ່ງຂອງຜູ້ເລີ່ມຕົ້ນ

ດັ່ງນັ້ນ, ມັນຫມາຍຄວາມວ່າຈະປະຖິ້ມຜົນປະໂຫຍດຂອງການເລັ່ງ GPU ທັງຫມົດບໍ? ບໍ່​ຈ​ໍ​າ​ເປັນ. Intel ໄດ້ສ້າງການເລັ່ງ AI ເຂົ້າໄປໃນ CPU Xeon Scalable ຂອງຕົນສໍາລັບບາງປີ. ຊ່ວງດັ່ງກ່າວລວມມີ Deep Learning Boost ສຳລັບການປະເມີນປະສິດທິພາບສູງໃນແບບຮຽນແບບເລິກລັບ, ໃນຂະນະທີ່ Intel’s Advanced Vector Extensions 512 (AVX 512) ແລະ Vector Neural Network Extensions (VNNI) ເລັ່ງການປະຕິບັດການ inferencing INT8. ແຕ່ DL Boost ຍັງໃຊ້ຮູບແບບຈຸດລອຍຂອງສະຫມອງ (BF16) ເພື່ອເພີ່ມປະສິດທິພາບໃນການເຮັດວຽກຂອງການຝຶກອົບຮົມທີ່ບໍ່ຕ້ອງການລະດັບຄວາມແມ່ນຍໍາສູງ.

CPU ລຸ້ນທີ 4 Xeon Scalable ທີ່ຈະມາເຖິງຂອງ Intel ຈະເພີ່ມການຄູນມາຕຣິກເບື້ອງຂັ້ນສູງ, ຫຼື AMX. ນີ້ຈະເປັນການຊຸກຍູ້ 8 ເທົ່າຕໍ່ກັບສ່ວນຂະຫຍາຍ AVX-512 VNNI x86 ທີ່ປະຕິບັດໃນໂປເຊດເຊີກ່ອນໜ້ານີ້ຕາມການຄຳນວນຂອງ Intel, ແລະອະນຸຍາດໃຫ້ໂປຣເຊສເຊີ Intel Xeon Scalable ລຸ້ນທີ 4 ສາມາດ “ຈັດການວຽກເຝິກຊ້ອມ ແລະລະບົບ DL algorithms ຄືກັບ GPU”. ແຕ່ເຄື່ອງເລັ່ງດຽວກັນເຫຼົ່ານັ້ນຍັງສາມາດຖືກນໍາໄປໃຊ້ກັບຄອມພິວເຕີ້ CPU ທົ່ວໄປສໍາລັບ AI ແລະການເຮັດວຽກທີ່ບໍ່ແມ່ນ AI.

ນັ້ນບໍ່ໄດ້ຫມາຍຄວາມວ່າ Intel ຄາດວ່າທໍ່ AI ຈະເປັນ x86 ຕັ້ງແຕ່ຕົ້ນຈົນຈົບ. ໃນເວລາທີ່ມັນມີຄວາມຮູ້ສຶກຫຼາຍທີ່ຈະເອົາອອກຢ່າງເຕັມທີ່ຂອງວຽກງານການຝຶກອົບຮົມທີ່ຈະໄດ້ຮັບຜົນປະໂຫຍດຈາກການຂະຫນານ, Intel ສະເຫນີຂະບວນການຝຶກອົບຮົມ Habana Gaudi AI ຂອງຕົນ. ການທົດສອບ Benchmark ຊີ້ໃຫ້ເຫັນວ່າພະລັງງານສຸດທ້າຍຂອງ Amazon EC2 DL1 instances ທີ່ສາມາດສະຫນອງປະສິດທິພາບລາຄາໄດ້ເຖິງ 40 ເປີເຊັນດີກວ່າການປຽບທຽບ Nvidia GPU-based instances ການຝຶກອົບຮົມຍັງຢູ່ໃນຄລາວ.

ໃນເວລາດຽວກັນ, Intel’s Data Center GPU Flex Series ແມ່ນມຸ່ງໄປສູ່ການໂຫຼດແລະການດໍາເນີນງານທີ່ໄດ້ຮັບຜົນປະໂຫຍດຈາກການຂະຫນານເຊັ່ນ AI inference, ດ້ວຍການຈັດຕັ້ງປະຕິບັດທີ່ແຕກຕ່າງກັນຢູ່ໃນແບບ “ເບົາ” ແລະແບບ AI ທີ່ສັບສົນຫຼາຍ. Intel Data Center GPU ອື່ນ, ທີ່ມີຊື່ລະຫັດ “Ponte Vecchio” ແລະໃນປັດຈຸບັນຂາຍພາຍໃຕ້ຍີ່ຫໍ້ Max Series, ໃນໄວໆນີ້ຈະເລີ່ມພະລັງງານ “Aurora” supercomputer ຢູ່ຫ້ອງທົດລອງແຫ່ງຊາດ Argonne.

ພວກເຮົາສາມາດໄປສິ້ນສຸດໄດ້ບໍ?

ທ່າແຮງ, ດັ່ງນັ້ນ, ຊິລິໂຄນຂອງ Intel ສາມາດ underpin ທໍ່ AI ທັງຫມົດ, ໃນຂະນະທີ່ຫຼຸດຜ່ອນຄວາມຕ້ອງການທີ່ຈະ offload ຂໍ້ມູນລະຫວ່າງເຄື່ອງຈັກຄອມພິວເຕີທີ່ແຕກຕ່າງກັນໂດຍບໍ່ຈໍາເປັນ. ໂປເຊດເຊີຂອງບໍລິສັດ – ບໍ່ວ່າຈະເປັນ GPU ຫຼື CPU – ຍັງສະຫນັບສະຫນູນຮູບແບບຊອບແວທົ່ວໄປໂດຍອີງໃສ່ເຄື່ອງມື open-source ແລະກອບການເພີ່ມປະສິດທິພາບຂອງ Intel ຜ່ານສະພາບແວດລ້ອມການພັດທະນາ oneAPI ຂອງມັນ.

Brahmbhatt ອ້າງເຖິງມໍລະດົກຂອງ Intel ໃນການສ້າງລະບົບນິເວດຊອບແວ x86 ໂດຍອີງໃສ່ຊຸມຊົນແລະແຫຼ່ງເປີດເປັນປະໂຫຍດອີກຢ່າງຫນຶ່ງ. “ປັດຊະຍາທີ່ Intel ມີແມ່ນ ‘ໃຫ້ລະບົບນິເວດຂັບເຄື່ອນການຮັບຮອງເອົາ.’ ແລະພວກເຮົາຕ້ອງຮັບປະກັນວ່າພວກເຮົາມີຄວາມຍຸຕິທໍາແລະເປີດກວ້າງຕໍ່ລະບົບນິເວດ, ແລະພວກເຮົາສະຫນອງນ້ໍາລັບໃດໆຂອງພວກເຮົາກັບຄືນສູ່ລະບົບນິເວດ.”

“ພວກເຮົາກໍາລັງໃຊ້ຊໍແວທົ່ວໄປ, ເພື່ອໃຫ້ແນ່ໃຈວ່ານັກພັດທະນາບໍ່ຈໍາເປັນຕ້ອງກັງວົນກ່ຽວກັບຄວາມແຕກຕ່າງພື້ນຖານຂອງ IP ລະຫວ່າງ CPU ແລະ GPU ສໍາລັບ AI.”

ການປະສົມປະສານຂອງ stack ຊອບແວທົ່ວໄປແລະການສຸມໃສ່ການນໍາໃຊ້ເຄື່ອງຈັກຄອມພິວເຕີທີ່ເຫມາະສົມກັບວຽກງານທີ່ເຫມາະສົມແມ່ນມີຄວາມສໍາຄັນຫຼາຍໃນວິສາຫະກິດ. ທຸລະກິດແມ່ນອີງໃສ່ AI ເພື່ອຊ່ວຍໃຫ້ພວກເຂົາແກ້ໄຂບັນຫາທີ່ຮີບດ່ວນທີ່ສຸດຂອງພວກເຂົາ, ບໍ່ວ່າຈະຢູ່ໃນເມຄຫຼືຢູ່ໃນ prem. ແຕ່ການເຮັດວຽກແບບປະສົມຕ້ອງການຊອບແວທີ່ມີລັກສະນະເຕັມທີ່, ເຊັ່ນດຽວກັນກັບການບໍາລຸງຮັກສາແລະການຄຸ້ມຄອງ stack ຂອງລະບົບ, ເພື່ອດໍາເນີນການລະຫັດທີ່ບໍ່ລວມຢູ່ໃນ kernel ທີ່ນັ່ງຢູ່ໃນເຄື່ອງເລັ່ງ.

ດັ່ງນັ້ນ, ເມື່ອຕອບຄໍາຖາມທີ່ວ່າ “ພວກເຮົາເອົາ AI ໄປສູ່ຂະຫນາດວິສາຫະກິດໄດ້ແນວໃດ” ຄໍາຕອບອາດຈະຂຶ້ນກັບການພິຈາລະນາຮູບພາບທີ່ໃຫຍ່ກວ່າແລະໃຫ້ແນ່ໃຈວ່າທ່ານໃຊ້ອຸປະກອນຮາດແວແລະຊຸດຊອບແວຢ່າງສົມບູນໃນການກໍາຈັດຂອງເຈົ້າ.

ສະຫນັບສະຫນູນໂດຍ Intel.

Categories: AiHome

0 Comments

Leave a Reply

Avatar placeholder

Your email address will not be published. Required fields are marked *