ຄຸນສົມບັດທີ່ໄດ້ຮັບການສະຫນັບສະຫນູນ ມັນເປັນເວລາໜຶ່ງທົດສະວັດເຄິ່ງແລ້ວນັບຕັ້ງແຕ່ນັກຄົ້ນຄວ້າເຮັດໃຫ້ໂລກຕື່ນຕາຕື່ນໃຈກັບໂລກເທັກໂນໂລຢີໂດຍການສະແດງໃຫ້ເຫັນວ່າໜ່ວຍປະມວນຜົນກາຟິກສາມາດຖືກໃຊ້ເພື່ອເລັ່ງການເຮັດວຽກຂອງ AI ທີ່ສຳຄັນໄດ້.

ຄວາມ​ເປັນ​ຈິງ​ນັ້ນ​ສືບ​ຕໍ່​ກຳ​ແໜ້ນ​ຈິນຕະນາການ​ຂອງ​ວິ​ສາ​ຫະກິດ. IDC ໄດ້ລາຍງານວ່າເມື່ອເວົ້າເຖິງໂຄງສ້າງພື້ນຖານ, GPU ເລັ່ງຄອມພິວເຕີ້ແລະ HPC ຄືກັບການຂະຫຍາຍໃຫຍ່ຂື້ນຢູ່ໃນບັນດາການພິຈາລະນາຊັ້ນນໍາສໍາລັບຜູ້ນໍາດ້ານເຕັກໂນໂລຢີແລະສະຖາປະນິກທີ່ກໍາລັງຊອກຫາການສ້າງໂຄງສ້າງພື້ນຖານ AI ຂອງພວກເຂົາ.

ແຕ່ສໍາລັບອົງການຈັດຕັ້ງທັງຫມົດທີ່ໄດ້ປະສົບຜົນສໍາເລັດນໍາໃຊ້ AI ກັບບັນຫາໂລກທີ່ແທ້ຈິງ, ມີຫຼາຍຕໍ່ສູ້ເພື່ອຜ່ານຂັ້ນຕອນການທົດລອງຫຼືການທົດລອງ. ການຄົ້ນຄວ້າຂອງ IDC ໃນປີ 2021 ພົບວ່າ ໜ້ອຍກວ່າໜຶ່ງສ່ວນສາມຂອງຜູ້ຕອບແບບສອບຖາມໄດ້ຍ້າຍໂຄງການ AI ຂອງເຂົາເຈົ້າໄປສູ່ການຜະລິດ, ແລະພຽງແຕ່ໜຶ່ງສ່ວນສາມຂອງຈຳນວນເຫຼົ່ານັ້ນໄດ້ບັນລຸ “ຂັ້ນຕອນການຜະລິດທີ່ແກ່ແລ້ວ”.

ອຸປະສັກທີ່ອ້າງເຖິງລວມເຖິງບັນຫາການປຸງແຕ່ງ ແລະການກະກຽມຂໍ້ມູນ ແລະປັບປຸງໂຄງສ້າງພື້ນຖານເພື່ອສະໜັບສະໜູນ AI ​​ໃນລະດັບວິສາຫະກິດ. ວິສາຫະກິດຈໍາເປັນຕ້ອງລົງທຶນໃນ “ໂຄງສ້າງພື້ນຖານທີ່ມີຈຸດປະສົງແລະຂະຫນາດທີ່ເຫມາະສົມ”, IDC ກ່າວ.

AI ມີບັນຫາຫຍັງຢູ່ທີ່ນີ້?

ດັ່ງນັ້ນອົງການຈັດຕັ້ງເຫຼົ່ານັ້ນຜິດພາດກັບ AI ຢູ່ໃສ? ປັດໄຈຫນຶ່ງອາດຈະເປັນທີ່ຜູ້ນໍາດ້ານເຕັກໂນໂລຢີແລະຜູ້ຊ່ຽວຊານດ້ານ AI ລົ້ມເຫລວໃນການເບິ່ງລວມຢູ່ໃນທໍ່ AI ທີ່ກວ້າງກວ່າໃນຂະນະທີ່ເອົາໃຈໃສ່ກັບ GPUs ຫຼາຍເກີນໄປເມື່ອປຽບທຽບກັບເຄື່ອງຈັກຄອມພິວເຕີ້ອື່ນໆ, ໂດຍສະເພາະ CPU ທີ່ຫນ້າເຄົາລົບ.

ເນື່ອງຈາກວ່າໃນທີ່ສຸດ, ມັນບໍ່ແມ່ນຄໍາຖາມຂອງການສະຫນັບສະຫນູນ CPUs ທຽບກັບ GPUs ທຽບກັບ ASICs. ແທນທີ່ຈະ, ມັນແມ່ນກ່ຽວກັບການຊອກຫາວິທີທີ່ດີທີ່ສຸດທີ່ຈະສ້າງທໍ່ AI ທີ່ສາມາດນໍາທ່ານຈາກແນວຄວາມຄິດແລະຂໍ້ມູນແລະການສ້າງແບບຈໍາລອງໄປສູ່ການນໍາໃຊ້ແລະການຄາດເດົາ. ແລະນັ້ນຫມາຍຄວາມວ່າການຍົກຍ້ອງຄວາມເຂັ້ມແຂງຕາມລໍາດັບຂອງສະຖາປັດຕະຍະກໍາໂປເຊດເຊີທີ່ແຕກຕ່າງກັນ, ດັ່ງນັ້ນທ່ານສາມາດນໍາໃຊ້ເຄື່ອງຈັກຄອມພິວເຕີ້ທີ່ຖືກຕ້ອງໃນເວລາທີ່ເຫມາະສົມ.

ໃນຖານະເປັນຜູ້ອໍານວຍການອາວຸໂສຂອງ Intel, Datacenter AI Strategy and Execution, Shardul Brahmbhatt ອະທິບາຍວ່າ, “CPU ໄດ້ຖືກນໍາໃຊ້ສໍາລັບ microservices ແລະ instances ຄອມພິວເຕີແບບດັ້ງເດີມໃນ cloud. ແລະ GPUs ໄດ້ຖືກນໍາໃຊ້ສໍາລັບຄອມພິວເຕີ້ຂະຫນານ, ເຊັ່ນ: media streaming, gaming, and for AI workloads. .”

ດັ່ງນັ້ນ, ຍ້ອນວ່າ hyperscalers ແລະຜູ້ນຟັງອື່ນໆໄດ້ຫັນຄວາມສົນໃຈຂອງເຂົາເຈົ້າກັບ AI, ມັນຈະກາຍເປັນທີ່ຈະແຈ້ງວ່າພວກເຂົາເຈົ້າກໍາລັງໃຊ້ຄວາມເຂັ້ມແຂງດຽວກັນເຫຼົ່ານີ້ສໍາລັບວຽກງານທີ່ແຕກຕ່າງກັນ.

ຄວາມສາມາດຂອງ GPUs ປະມານຄອມພິວເຕີ້ຂະຫນານເຮັດໃຫ້ພວກເຂົາເຫມາະສົມສູງສໍາລັບການຝຶກອົບຮົມ AI algorithms, ສໍາລັບຕົວຢ່າງ. ໃນຂະນະດຽວກັນ, CPUs ມີຂອບໃນເວລາທີ່ມັນມາກັບ batch ຕ່ໍາ, latency ຕ່ໍາ inference ໃນເວລາທີ່ແທ້ຈິງ, ແລະການນໍາໃຊ້ algorithms ເຫຼົ່ານັ້ນເພື່ອວິເຄາະຂໍ້ມູນສົດແລະສົ່ງຜົນໄດ້ຮັບແລະການຄາດຄະເນ.

ອີກເທື່ອຫນຶ່ງ, ມີຄໍາເຕືອນ, Brahmbhatt ອະທິບາຍວ່າ, “ມີບ່ອນທີ່ທ່ານຕ້ອງການເຮັດຫຼາຍ inference batch. ແລະການ inference batch ແມ່ນບາງສິ່ງບາງຢ່າງທີ່ເຮັດໂດຍຜ່ານ GPUs ຫຼື ASICs.”

ຊອກຫາລົງທໍ່

ແຕ່ທໍ່ AI ຂະຫຍາຍອອກໄປນອກເຫນືອຈາກການຝຶກອົບຮົມແລະການຄາດເດົາ. ຢູ່ເບື້ອງຊ້າຍຂອງທໍ່, ຂໍ້ມູນຕ້ອງໄດ້ຮັບການປຸງແຕ່ງກ່ອນ, ແລະວິທີການພັດທະນາ. CPU ທົ່ວໄປມີບົດບາດສໍາຄັນຢູ່ທີ່ນີ້.

ໃນຄວາມເປັນຈິງ, GPUs ກວມເອົາອັດຕາສ່ວນຫນ້ອຍຂອງກິດຈະກໍາຂອງໂປເຊດເຊີທັງຫມົດໃນທົ່ວທໍ່ AI, ດ້ວຍການເຮັດວຽກຂອງ “ຂັ້ນຕອນຂໍ້ມູນ” ທີ່ໃຊ້ CPU ກວມເອົາສອງສ່ວນສາມໂດຍລວມ, ອີງຕາມ Intel (ທ່ານສາມາດອ່ານບົດສະຫຼຸບການແກ້ໄຂ – ເພີ່ມປະສິດທິພາບ Inference ກັບ. Intel CPU Technology ທີ່ນີ້).

ແລະ Brahmbhatt ເຕືອນພວກເຮົາວ່າສະຖາປັດຕະຍະກໍາ CPU ມີຂໍ້ດີອື່ນໆ, ລວມທັງການດໍາເນີນໂຄງການ.

“ເນື່ອງຈາກວ່າ CPUs ໄດ້ຖືກນໍາໃຊ້ຢ່າງກວ້າງຂວາງ, ມີລະບົບນິເວດທີ່ມີຢູ່ແລ້ວຂອງນັກພັດທະນາແລະຄໍາຮ້ອງສະຫມັກທີ່ມີຢູ່, ບວກກັບເຄື່ອງມືທີ່ໃຫ້ຄວາມສະດວກໃນການນໍາໃຊ້ແລະການດໍາເນີນໂຄງການສໍາລັບຄອມພິວເຕີຈຸດປະສົງທົ່ວໄປ,” ລາວເວົ້າ.

“ອັນທີສອງ, CPUs ໃຫ້ການເຂົ້າເຖິງພື້ນທີ່ຫນ່ວຍຄວາມຈໍາທີ່ໃຫຍ່ກວ່າໄວຂຶ້ນ. ແລະຫຼັງຈາກນັ້ນສິ່ງທີ່ສາມແມ່ນມັນເປັນຄອມພິວເຕີ້ທີ່ບໍ່ມີໂຄງສ້າງຫຼາຍທຽບກັບ GPUs. [which] ມີ​ຄໍາ​ນວນ​ຂະ​ຫນານ​ຫຼາຍ​ກວ່າ​. ສໍາລັບເຫດຜົນເຫຼົ່ານີ້, CPUs ດໍາເນີນການເປັນຕົວຍ້າຍຂໍ້ມູນທີ່ໃຫ້ອາຫານ GPUs, ດັ່ງນັ້ນການຊ່ວຍເຫຼືອກັບ Recommender System ແບບຈໍາລອງເຊັ່ນດຽວກັນກັບການພັດທະນາການໂຫຼດຂອງການເຮັດວຽກເຊັ່ນ Graph Neural Networks.”

ແຜນການເປີດສໍາລັບການພັດທະນາ AI

ດັ່ງນັ້ນພວກເຮົາຄວນເບິ່ງບົດບາດຂອງ CPU ແລະ GPU ຕາມລໍາດັບແນວໃດເມື່ອວາງແຜນການພັດທະນາ AI, ບໍ່ວ່າຈະຢູ່ໃນ prem, ໃນຟັງ, ຫຼື straddling ທັງສອງ?

GPUs ປະຕິວັດການພັດທະນາ AI, ເພາະວ່າພວກເຂົາສະເຫນີວິທີການເລັ່ງການດໍາເນີນການອອກຈາກ CPU. ແຕ່ມັນບໍ່ປະຕິບັດຕາມວ່ານີ້ແມ່ນທາງເລືອກທີ່ສົມເຫດສົມຜົນທີ່ສຸດສໍາລັບວຽກທີ່ມອບໃຫ້.

ດັ່ງທີ່ສະຖາປະນິກແພລະຕະຟອມ Intel Sharath Raghava ອະທິບາຍວ່າ “ແອັບພລິເຄຊັນ AI ມີການຄິດໄລ່ vectorized. ການຄິດໄລ່ vector ແມ່ນຂະຫນານກັນໄດ້. ເພື່ອດໍາເນີນການປະສິດທິພາບການເຮັດວຽກຂອງ AI, ຫນຶ່ງສາມາດຂຸດຄົ້ນຄວາມສາມາດຂອງ CPUs ແລະ GPUs ພິຈາລະນາຂະຫນາດຂອງການຄິດໄລ່ vector, offload latency, parallelizability, ແລະປັດໃຈອື່ນໆຈໍານວນຫຼາຍ” . ແຕ່ລາວສືບຕໍ່, ສໍາລັບວຽກງານ “ຂະຫນາດນ້ອຍ”, “ຄ່າໃຊ້ຈ່າຍ” ຂອງການໂຫຼດຈະຫຼາຍເກີນໄປ, ແລະມັນອາດຈະບໍ່ມີຄວາມຫມາຍທີ່ຈະດໍາເນີນການກັບ GPU ຫຼືເຄື່ອງເລັ່ງ.

CPU ຍັງສາມາດໄດ້ຮັບຜົນປະໂຫຍດຈາກການລວມເຂົ້າກັນຢ່າງໃກ້ຊິດກັບອົງປະກອບຂອງລະບົບອື່ນໆທີ່ຊ່ວຍໃຫ້ພວກເຂົາເຮັດສໍາເລັດວຽກ AI ຢ່າງໄວວາ. ການໄດ້ຮັບມູນຄ່າສູງສຸດຈາກການນໍາໃຊ້ AI ກ່ຽວຂ້ອງກັບການດໍາເນີນການຫຼາຍກ່ວາພຽງແຕ່ຕົວແບບຂອງຕົວມັນເອງ – ຄວາມເຂົ້າໃຈທີ່ຊອກຫາແມ່ນຂຶ້ນກັບການປະຕິບັດການ preprocessing, inference, ແລະ postprocessing ປະສິດທິພາບ. Preprocessing ຕ້ອງການຂໍ້ມູນເພື່ອກະກຽມໃຫ້ກົງກັບຄວາມຄາດຫວັງຂອງວັດສະດຸປ້ອນຂອງຕົວແບບທີ່ໄດ້ຮັບການຝຶກອົບຮົມກ່ອນທີ່ຈະຖືກປ້ອນເພື່ອສ້າງ inference. ຂໍ້ມູນທີ່ເປັນປະໂຫຍດແມ່ນໄດ້ຖືກສະກັດຈາກຜົນໄດ້ຮັບ inference ໃນຂັ້ນຕອນ postprocessing.

ຖ້າພວກເຮົາຄິດກ່ຽວກັບລະບົບການກວດສອບການບຸກລຸກຂອງສູນຂໍ້ມູນ (IDS) ເປັນຕົວຢ່າງ, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະປະຕິບັດຜົນຜະລິດຂອງຕົວແບບເພື່ອປົກປ້ອງແລະປ້ອງກັນຄວາມເສຍຫາຍຈາກການໂຈມຕີທາງອິນເຕີເນັດຢ່າງທັນເວລາ. ແລະໂດຍປົກກະຕິ, ຂັ້ນຕອນການປຸງແຕ່ງແລະຫຼັງການປຸງແຕ່ງແມ່ນມີປະສິດທິພາບຫຼາຍຂຶ້ນເມື່ອພວກມັນຖືກປະຕິບັດຢູ່ໃນ CPUs ຂອງລະບົບເຈົ້າພາບເພາະວ່າພວກມັນຖືກປະສົມປະສານຢ່າງໃກ້ຊິດກັບສ່ວນທີ່ເຫຼືອຂອງລະບົບນິເວດສະຖາປັດຕະຍະກໍາ.

ການເພີ່ມປະສິດທິພາບພາຍໃຕ້ຄໍາສັ່ງເລີ່ມຕົ້ນ

ດັ່ງນັ້ນ, ມັນຫມາຍຄວາມວ່າຈະປະຖິ້ມຜົນປະໂຫຍດຂອງການເລັ່ງ GPU ທັງຫມົດບໍ? ບໍ່​ຈ​ໍ​າ​ເປັນ. Intel ໄດ້ສ້າງການເລັ່ງ AI ເຂົ້າໄປໃນ CPU Xeon Scalable ຂອງຕົນສໍາລັບບາງປີ. ຊ່ວງດັ່ງກ່າວລວມມີ Deep Learning Boost ສຳລັບການປະເມີນປະສິດທິພາບສູງໃນແບບຮຽນແບບເລິກລັບ, ໃນຂະນະທີ່ Intel’s Advanced Vector Extensions 512 (AVX 512) ແລະ Vector Neural Network Extensions (VNNI) ເລັ່ງການປະຕິບັດການ inferencing INT8. ແຕ່ DL Boost ຍັງໃຊ້ຮູບແບບຈຸດລອຍຂອງສະຫມອງ (BF16) ເພື່ອເພີ່ມປະສິດທິພາບໃນການເຮັດວຽກຂອງການຝຶກອົບຮົມທີ່ບໍ່ຕ້ອງການລະດັບຄວາມແມ່ນຍໍາສູງ.

CPU ລຸ້ນທີ 4 Xeon Scalable ທີ່ຈະມາເຖິງຂອງ Intel ຈະເພີ່ມການຄູນມາຕຣິກເບື້ອງຂັ້ນສູງ, ຫຼື AMX. ນີ້ຈະໃຫ້ການຊຸກຍູ້ຕື່ມອີກ 8 ເທົ່າຕໍ່ກັບສ່ວນຂະຫຍາຍ AVX-512 VNNI x86 ທີ່ໄດ້ປະຕິບັດໃນໂປເຊດເຊີກ່ອນໜ້ານີ້ຕາມການຄຳນວນຂອງ Intel, ແລະອະນຸຍາດໃຫ້ໂປຣເຊສເຊີ Intel Xeon Scalable ລຸ້ນທີ 4 ສາມາດ “ຈັດການວຽກຝຶກຊ້ອມ ແລະລະບົບ DL algorithms ຄືກັບ GPU”. ແຕ່ເຄື່ອງເລັ່ງດຽວກັນເຫຼົ່ານັ້ນຍັງສາມາດຖືກນໍາໄປໃຊ້ກັບຄອມພິວເຕີ້ CPU ທົ່ວໄປສໍາລັບ AI ແລະການເຮັດວຽກທີ່ບໍ່ແມ່ນ AI.

ນັ້ນບໍ່ໄດ້ຫມາຍຄວາມວ່າ Intel ຄາດວ່າທໍ່ AI ຈະເປັນ x86 ຕັ້ງແຕ່ຕົ້ນຈົນຈົບ. ໃນເວລາທີ່ມັນມີຄວາມຮູ້ສຶກຫຼາຍທີ່ຈະເອົາອອກຢ່າງເຕັມທີ່ຂອງວຽກງານການຝຶກອົບຮົມທີ່ຈະໄດ້ຮັບຜົນປະໂຫຍດຈາກການຂະຫນານ, Intel ສະເຫນີຂະບວນການຝຶກອົບຮົມ Habana Gaudi AI ຂອງຕົນ. ການທົດສອບ Benchmark ຊີ້ໃຫ້ເຫັນວ່າພະລັງງານສຸດທ້າຍຂອງ Amazon EC2 DL1 instances ທີ່ສາມາດສະຫນອງປະສິດທິພາບລາຄາໄດ້ເຖິງ 40 ເປີເຊັນດີກວ່າການປຽບທຽບ Nvidia GPU-based instances ການຝຶກອົບຮົມຍັງຢູ່ໃນຄລາວ.

ໃນເວລາດຽວກັນ, Intel’s Data Center GPU Flex Series ແມ່ນມຸ່ງໄປສູ່ການເຮັດວຽກແລະການດໍາເນີນງານທີ່ໄດ້ຮັບຜົນປະໂຫຍດຈາກການຂະຫນານເຊັ່ນ AI inference, ດ້ວຍການຈັດຕັ້ງປະຕິບັດທີ່ແຕກຕ່າງກັນຢູ່ໃນແບບ “ເບົາ” ແລະແບບ AI ທີ່ສັບສົນຫຼາຍ. GPU ສູນຂໍ້ມູນ Intel® ອີກອັນໜຶ່ງ, ທີ່ມີຊື່ລະຫັດວ່າ Ponte Vecchio (PVC), ໃນໄວໆນີ້ຈະເລີ່ມໃຫ້ພະລັງງານຄອມພິວເຕີຊຸບເປີຄອມພິວເຕີ Aurora ຢູ່ຫ້ອງທົດລອງແຫ່ງຊາດ Argonne.

ພວກເຮົາສາມາດໄປສິ້ນສຸດໄດ້ບໍ?

ທ່າແຮງ, ດັ່ງນັ້ນ, ຊິລິໂຄນຂອງ Intel ສາມາດ underpin ທໍ່ AI ທັງຫມົດ, ໃນຂະນະທີ່ຫຼຸດຜ່ອນຄວາມຕ້ອງການທີ່ຈະ offload ຂໍ້ມູນລະຫວ່າງເຄື່ອງຈັກຄອມພິວເຕີທີ່ແຕກຕ່າງກັນໂດຍບໍ່ຈໍາເປັນ. ໂປເຊດເຊີຂອງບໍລິສັດ – ບໍ່ວ່າຈະເປັນ GPU ຫຼື CPU – ຍັງສະຫນັບສະຫນູນຮູບແບບຊອບແວທົ່ວໄປໂດຍອີງໃສ່ເຄື່ອງມື open-source ແລະກອບການເພີ່ມປະສິດທິພາບຂອງ Intel ຜ່ານໂຄງການ OneAPI ຂອງມັນ.

Brahmbhatt ອ້າງເຖິງມໍລະດົກຂອງ Intel ໃນການສ້າງລະບົບນິເວດຊອບແວ x86 ໂດຍອີງໃສ່ຊຸມຊົນແລະແຫຼ່ງເປີດເປັນປະໂຫຍດອີກຢ່າງຫນຶ່ງ. “ປັດຊະຍາທີ່ Intel ມີແມ່ນ … ‘ໃຫ້ລະບົບນິເວດຂັບເຄື່ອນການຮັບຮອງເອົາ’. ແລະພວກເຮົາຈໍາເປັນຕ້ອງຮັບປະກັນວ່າພວກເຮົາມີຄວາມຍຸຕິທໍາແລະເປີດເຜີຍຕໍ່ລະບົບນິເວດ, ແລະພວກເຮົາສະຫນອງນ້ໍາຊອດລັບໃດໆຂອງພວກເຮົາກັບຄືນສູ່ລະບົບນິເວດ.”

“ພວກເຮົາກໍາລັງໃຊ້ຊໍແວທົ່ວໄປ, ເພື່ອໃຫ້ແນ່ໃຈວ່ານັກພັດທະນາບໍ່ຈໍາເປັນຕ້ອງກັງວົນກ່ຽວກັບຄວາມແຕກຕ່າງພື້ນຖານຂອງ IP ລະຫວ່າງ CPU ແລະ GPU ສໍາລັບ AI.”

ການປະສົມປະສານຂອງ stack ຊອບແວທົ່ວໄປແລະການສຸມໃສ່ການນໍາໃຊ້ເຄື່ອງຈັກຄອມພິວເຕີທີ່ເຫມາະສົມກັບວຽກງານທີ່ເຫມາະສົມແມ່ນມີຄວາມສໍາຄັນຫຼາຍໃນວິສາຫະກິດ. ທຸລະກິດແມ່ນອີງໃສ່ AI ເພື່ອຊ່ວຍໃຫ້ພວກເຂົາແກ້ໄຂບັນຫາທີ່ຮີບດ່ວນທີ່ສຸດຂອງພວກເຂົາ, ບໍ່ວ່າຈະຢູ່ໃນເມຄຫຼືຢູ່ໃນ prem. ແຕ່ການເຮັດວຽກແບບປະສົມຕ້ອງການຊອບແວທີ່ມີລັກສະນະເຕັມທີ່, ເຊັ່ນດຽວກັນກັບການບໍາລຸງຮັກສາແລະການຄຸ້ມຄອງ stack ຂອງລະບົບ, ເພື່ອດໍາເນີນການລະຫັດທີ່ບໍ່ລວມຢູ່ໃນ kernel ທີ່ນັ່ງຢູ່ໃນເຄື່ອງເລັ່ງ.

ດັ່ງນັ້ນ, ເມື່ອຕອບຄໍາຖາມ “ພວກເຮົາຈະເອົາ AI ໄປສູ່ຂະຫນາດວິສາຫະກິດໄດ້ແນວໃດ” ຄໍາຕອບອາດຈະຂຶ້ນກັບການພິຈາລະນາຮູບພາບທີ່ໃຫຍ່ກວ່າແລະໃຫ້ແນ່ໃຈວ່າທ່ານໃຊ້ອຸປະກອນຮາດແວແລະຊຸດຊອບແວຢ່າງສົມບູນໃນການກໍາຈັດຂອງເຈົ້າ.

ສະຫນັບສະຫນູນໂດຍ Intel.

Categories: AiHome

0 Comments

Leave a Reply

Avatar placeholder

Your email address will not be published. Required fields are marked *