• ລູກຄ້າ CoreWeave ຈະມີການເຂົ້າເຖິງ GPU ໃຫມ່ທີ່ປັບປຸງການປະຕິບັດ, ການຝຶກອົບຮົມແລະເວລາ inference ສໍາລັບ AI ຫຼາຍຄັ້ງ

  • ໂຄງສ້າງພື້ນຖານ Kubernetes-native ຂອງບໍລິສັດໃຫ້ເວລາໝູນວຽນຊັ້ນນໍາຂອງອຸດສາຫະກໍາ ແລະຄວາມສາມາດໃນການປັບຂະໜາດອັດຕະໂນມັດທີ່ຕອບສະໜອງໄດ້ສໍາລັບການນໍາໃຊ້ຄອມພິວເຕີ ແລະປະສິດທິພາບທີ່ດີທີ່ສຸດ.

  • ລູກຄ້າຈ່າຍພຽງແຕ່ສໍາລັບຄວາມສາມາດຄອມພິວເຕີທີ່ເຂົາເຈົ້າໃຊ້, ເຮັດໃຫ້ CoreWeave 50% ຫາ 80% ລາຄາຖືກກວ່າຄູ່ແຂ່ງ.

SPRINGFIELD, NJ, ວັນທີ 07 ພະຈິກ 2022–(BUSINESS WIRE)—CoreWeave, ຜູ້ໃຫ້ບໍລິການຄລາວພິເສດທີ່ສ້າງຂຶ້ນເພື່ອການເລັ່ງວຽກ GPU ຂະໜາດໃຫຍ່, ປະກາດໃນມື້ນີ້ວ່າມັນເປັນອັນທໍາອິດທີ່ສະເໜີໃຫ້ຟັງຊັນຄລາວກັບ NVIDIA HGX H100 supercomputing. CoreWeave, Amazon, Google, Microsoft ແລະ Oracle ແມ່ນຜູ້ໃຫ້ບໍລິການ cloud ທໍາອິດທີ່ລວມຢູ່ໃນການເປີດຕົວແພລະຕະຟອມ AI ພື້ນຖານນີ້. CoreWeave ເປັນຜູ້ໃຫ້ບໍລິການ Elite Cloud ທໍາອິດສໍາລັບ Compute ໃນ NVIDIA Partner Network (NPN) ແລະຍັງຢູ່ໃນບັນດາຜູ້ໃຫ້ບໍລິການ Elite Cloud ຂອງ NPN ສໍາລັບການ Visualization.

ທ່ານ Michael Intrator, ຜູ້ຮ່ວມກໍ່ຕັ້ງ ແລະຊີອີໂອຂອງ CoreWeave ກ່າວວ່າ “ນີ້ກວດສອບສິ່ງທີ່ພວກເຮົາກໍາລັງສ້າງແລະບ່ອນທີ່ພວກເຮົາກໍາລັງມຸ່ງຫນ້າໄປ”. “ຄວາມສໍາເລັດຂອງ CoreWeave ຈະສືບຕໍ່ໄດ້ຮັບການຂັບເຄື່ອນໂດຍຄໍາຫມັ້ນສັນຍາຂອງພວກເຮົາເພື່ອເຮັດໃຫ້ GPU-accelerated compute ມີໃຫ້ແກ່ລູກຄ້າ startup ແລະວິສາຫະກິດຄືກັນ. ການລົງທຶນໃນແພລະຕະຟອມ NVIDIA HGX H100 ອະນຸຍາດໃຫ້ພວກເຮົາຂະຫຍາຍຄໍາຫມັ້ນສັນຍານັ້ນ, ແລະຮູບແບບລາຄາຂອງພວກເຮົາເຮັດໃຫ້ພວກເຮົາເປັນຄູ່ຮ່ວມງານທີ່ເຫມາະສົມສໍາລັບການໃດໆ. ບໍລິສັດຊອກຫາທີ່ຈະດໍາເນີນການຂະຫນາດໃຫຍ່, GPU-ເລັ່ງວຽກງານ AI.”

ລະບົບນິເວດແລະເວທີຂອງ NVIDIA ແມ່ນມາດຕະຖານອຸດສາຫະກໍາສໍາລັບ AI. ແພລະຕະຟອມ NVIDIA HGX H100 ອະນຸຍາດໃຫ້ກ້າວກະໂດດໄປຂ້າງຫນ້າໃນຄວາມກວ້າງແລະຂອບເຂດຂອງທຸລະກິດວຽກງານ AI ສາມາດແກ້ໄຂໄດ້. NVIDIA HGX H100 ຊ່ວຍໃຫ້ປະສິດທິພາບທີ່ດີຂຶ້ນເຖິງ 7 ເທົ່າໃນຄໍາຮ້ອງສະຫມັກຄອມພິວເຕີ້ທີ່ມີປະສິດທິພາບສູງ (HPC), ການຝຶກອົບຮົມ AI ໄວເຖິງເກົ້າເທົ່າໃນແບບຈໍາລອງທີ່ໃຫຍ່ທີ່ສຸດແລະເຖິງ 30 ເທົ່າ AI inference ໄວກວ່າ NVIDIA HGX A100. ຄວາມໄວນັ້ນ, ບວກກັບຄວາມລ່າຊ້າເຄືອຂ່າຍ NVIDIA GPUDirect ຕໍ່າສຸດໃນຕະຫຼາດກັບເວທີ NVIDIA Quantum-2 InfiniBand, ຫຼຸດຜ່ອນເວລາການຝຶກອົບຮົມຂອງຕົວແບບ AI ເປັນ “ມື້ຫຼືຊົ່ວໂມງແທນທີ່ຈະເປັນເດືອນ.” ເຕັກໂນໂລຢີດັ່ງກ່າວແມ່ນມີຄວາມ ສຳ ຄັນຫຼາຍທີ່ AI ໄດ້ແຜ່ລາມໄປສູ່ທຸກໆອຸດສາຫະ ກຳ.

ທ່ານ Dave Salvator, ຜູ້ອໍານວຍການຝ່າຍການຕະຫຼາດຜະລິດຕະພັນຂອງ NVIDIA ກ່າວວ່າ “AI ແລະ HPC workloads ຕ້ອງການໂຄງສ້າງພື້ນຖານທີ່ມີປະສິດທິພາບທີ່ສະຫນອງການປະຕິບັດຄ່າໃຊ້ຈ່າຍແລະຂະຫນາດເພື່ອຕອບສະຫນອງຄວາມຕ້ອງການຂອງວຽກແລະຄໍາຮ້ອງສະຫມັກທີ່ຕ້ອງການທີ່ສຸດໃນປະຈຸບັນ”, Dave Salvator, ຜູ້ອໍານວຍການຕະຫຼາດຜະລິດຕະພັນຂອງ NVIDIA ກ່າວ. “ການສະເຫນີໃຫມ່ຂອງ CoreWeave ຂອງຕົວຢ່າງທີ່ມີເຄື່ອງຄອມພິວເຕີ້ຊຸບເປີຄອມພິວເຕີ NVIDIA HGX H100 ຈະຊ່ວຍໃຫ້ລູກຄ້າມີຄວາມຍືດຫຍຸ່ນແລະການປະຕິບັດທີ່ຈໍາເປັນເພື່ອໃຊ້ພະລັງງານຄໍາຮ້ອງສະຫມັກ HPC ຂະຫນາດໃຫຍ່.”

ໃນລັກສະນະດຽວກັນທີ່ຜູ້ຂັບຂີ່ລົດທີ່ປະຫຍັດນໍ້າມັນປະຫຍັດເງິນຄ່າອາຍແກັສ, ລູກຄ້າ CoreWeave ໃຊ້ເວລາລະຫວ່າງ 50% ຫາ 80% ຫນ້ອຍລົງໃນຊັບພະຍາກອນຄອມພິວເຕີ້. ໂຄງສ້າງຄ່າໃຊ້ຈ່າຍທີ່ປັບຕົວຂອງບໍລິສັດແມ່ນສອງເທົ່າ. ທໍາອິດ, ລູກຄ້າພຽງແຕ່ຈ່າຍສໍາລັບຊັບພະຍາກອນ HPC ທີ່ພວກເຂົາໃຊ້, ແລະ CoreWeave cloud instances ແມ່ນສາມາດຕັ້ງຄ່າໄດ້ສູງ. ອັນທີສອງ, ໂຄງສ້າງພື້ນຖານຂອງ Kubernetes-native ຂອງ CoreWeave ແລະເຄືອຂ່າຍສ້າງຂໍ້ໄດ້ປຽບດ້ານການປະຕິບັດ, ລວມທັງເວລາການຫມຸນຊັ້ນນໍາຂອງອຸດສາຫະກໍາແລະຄວາມສາມາດໃນການປັບຂະຫນາດອັດຕະໂນມັດທີ່ຕອບສະຫນອງທີ່ຊ່ວຍໃຫ້ລູກຄ້າໃຊ້ຄອມພິວເຕີ້ທີ່ມີປະສິດທິພາບຫຼາຍຂຶ້ນ. ຄູ່ແຂ່ງຂອງ CoreWeave ຄິດຄ່າບໍລິການຄວາມອາດສາມາດຂອງຄອມພີວເຕີທີ່ບໍ່ມີປະໂຫຍດເພື່ອຮັກສາການເຂົ້າເຖິງ GPUs ແລະນໍາໃຊ້ຜະລິດຕະພັນເຄືອຂ່າຍທີ່ມີມໍລະດົກທີ່ຫຼຸດລົງປະສິດທິພາບທີ່ມີຂະຫນາດ.

Brian Venturo, ຜູ້ຮ່ວມກໍ່ຕັ້ງ CoreWeave ແລະຫົວ ໜ້າ ພະນັກງານເຕັກໂນໂລຢີກ່າວວ່າ “ໂຄງສ້າງພື້ນຖານຂອງ CoreWeave ແມ່ນສ້າງຂື້ນເພື່ອຈຸດປະສົງຂອງ GPU ທີ່ມີຂະ ໜາດ ໃຫຍ່ – ພວກເຮົາມີຄວາມຊ່ຽວຊານໃນການບໍລິການ AI ແລະແອັບພລິເຄຊັນການຮຽນຮູ້ເຄື່ອງຈັກທີ່ຕ້ອງການຫຼາຍທີ່ສຸດ,” ກ່າວ. “ພວກເຮົາສ້າງຄວາມເຂັ້ມແຂງໃຫ້ລູກຄ້າຂອງພວກເຮົາເພື່ອສ້າງເຕັກໂນໂລຢີທີ່ປ່ຽນແປງຂອງໂລກໂດຍການສະຫນອງການເຂົ້າເຖິງຕົວຈິງກັບຄອມພິວເຕີ້ທີ່ມີປະສິດທິພາບສູງໃນລະດັບ, ຢູ່ເທິງພື້ນຖານໂຄງລ່າງທີ່ໄວທີ່ສຸດແລະມີຄວາມຍືດຫຍຸ່ນທີ່ສຸດຂອງອຸດສາຫະກໍາ.”

CoreWeave ໝູນໃຊ້ໂຄງການ Kubernetes ແບບໂອເພນຊອດ, ປະສົມປະສານກັບເທັກໂນໂລຍີທີ່ດີທີ່ສຸດໃນຊັ້ນຮຽນເຊັ່ນ: ກໍານົດ.AI ແລະສະຫນອງການສະຫນັບສະຫນູນສໍາລັບແບບຈໍາລອງ AI open-source ລວມທັງ Stable Diffusion, GPT-NeoX-20B ແລະ BLOOM ເປັນສ່ວນຫນຶ່ງຂອງພາລະກິດຂອງຕົນເພື່ອ ນໍາພາໂລກໃນ AI ແລະໂຄງສ້າງພື້ນຖານການຮຽນຮູ້ເຄື່ອງຈັກ.

ສ້າງຕັ້ງຂຶ້ນໃນປີ 2017, CoreWeave ສະໜອງຊັບພະຍາກອນຄອມພິວເຕີ GPU ທີ່ໄວ, ປ່ຽນແປງໄດ້ ແລະສາມາດໃຊ້ໄດ້ສູງທີ່ໄວຂຶ້ນເຖິງ 35 ເທົ່າ ແລະ 80% ລາຄາຖືກກວ່າຟັງຄລາວທົ່ວໄປທົ່ວໄປ. ຜູ້ໃຫ້ບໍລິການ Cloud Elite ສໍາລັບ Compute ແລະ Visualization ໃນ NPN, CoreWeave ໃຫ້ບໍລິການຄລາວສໍາລັບໂຄງການທີ່ໃຊ້ຄອມພິວເຕີ້ຫຼາຍ, ລວມທັງ AI, ການຮຽນຮູ້ຂອງເຄື່ອງຈັກ, ຜົນກະທົບທາງພາບແລະການສະແດງຜົນ, ການປະມວນຜົນ batch ແລະການຖ່າຍທອດ pixels ລວງ. ໂຄງລ່າງພື້ນຖານຂອງ CoreWeave ແມ່ນມີຈຸດປະສົງສ້າງຂື້ນເພື່ອການໂຫຼດວຽກທີ່ແຕກຫັກ, ໂດຍມີຄວາມສາມາດໃນການປັບຂະໜາດຂຶ້ນ ຫຼື ລົງໃນວິນາທີ.

ຂໍ້ມູນເພີ່ມເຕີມກ່ຽວກັບການສະເຫນີຂາຍ NVIDIA HGX H100 ແມ່ນມີຢູ່ໃນເວັບໄຊທ໌ CoreWeave ທີ່ https://coreweave.com/products/hgx-h100.

ກ່ຽວກັບ CoreWeave

CoreWeave ເປັນຜູ້ໃຫ້ບໍລິການຄລາວພິເສດ, ສະໜອງຊັບພະຍາກອນຄອມພິວເຕີ GPU ຂະໜາດໃຫຍ່ຢູ່ເທິງພື້ນຖານໂຄງລ່າງທີ່ໄວທີ່ສຸດ ແລະມີຄວາມຍືດຫຍຸ່ນທີ່ສຸດຂອງອຸດສາຫະກໍາ. CoreWeave ສ້າງໂຊລູຊັ່ນຄລາວສໍາລັບກໍລະນີການນໍາໃຊ້ທີ່ເຂັ້ມຂຸ້ນຂອງຄອມພິວເຕີ້ – ຊັບສິນດິຈິຕອນ, VFX ແລະການສະແດງຜົນ, ການຮຽນຮູ້ເຄື່ອງຈັກແລະ AI, ການປະມວນຜົນ batch ແລະ pixel streaming – ທີ່ໄວຂຶ້ນເຖິງ 35 ເທົ່າແລະລາຄາແພງກວ່າ 80% ຫນ້ອຍກວ່າຟັງສາທາລະນະທົ່ວໄປ. ສຶກສາເພີ່ມເຕີມໄດ້ທີ່ www.coreweave.com.

ເບິ່ງສະບັບຕົ້ນສະບັບໃນ businesswire.com: https://www.businesswire.com/news/home/20221107005057/en/

ຕິດຕໍ່ພົວພັນ

ສາມເທື່ອ
Katie LeChase
coreweave@treblepr.com

Categories: AiHome

0 Comments

Leave a Reply

Avatar placeholder

Your email address will not be published. Required fields are marked *