ຄວາມຄິດຂອງ Joy Buolamwini ເບິ່ງຄືວ່າງ່າຍດາຍ. ສໍາລັບໂຄງການຫ້ອງຮຽນໃນຂະນະທີ່ຢູ່ໂຮງຮຽນຈົບການສຶກສາຢູ່ MIT, ນາງຕ້ອງການສ້າງກະຈົກທີ່ຈະສ້າງແຮງບັນດານໃຈໃຫ້ນາງທຸກໆມື້ໂດຍການສະແດງຮູບພາບດິຈິຕອນຂອງວິລະຊົນຂອງນາງໃສ່ໃບຫນ້າຂອງນາງ. ​ແຕ່​ເມື່ອ​ນາງ​ເລີ່ມ​ໃຊ້​ຊອບ​ແວ​ຈຳ​ແນກ​ໃບ​ໜ້າ​ຂັ້ນ​ພື້ນ​ຖານ​ທີ່​ຈຳ​ເປັນ​ເພື່ອ​ຕັ້ງ​ໂຄງ​ການ​ກະຈົກ, ນາງ​ໄດ້​ພົບ​ກັບ​ບັນ​ຫາ​ທີ່​ບໍ່​ຄາດ​ຄິດ: ມັນ​ບໍ່​ສາ​ມາດ​ກວດ​ພົບ​ໃບ​ໜ້າ​ຂອງ​ນາງ. ບໍ່ແນ່ໃຈວ່າສິ່ງທີ່ຜິດພາດ, Buolamwini ມີຫມູ່ເພື່ອນແລະເພື່ອນຮ່ວມງານຈໍານວນຫນ້ອຍຫນຶ່ງທົດສອບຊອບແວດ້ວຍຕົນເອງ, ແຕ່ມັນຮັບຮູ້ແຕ່ລະຄົນແລະທຸກຄົນຂອງເຂົາເຈົ້າໂດຍບໍ່ມີການລົ້ມເຫລວ.

ທັນໃດນັ້ນ, ບັນຫາໄດ້ກາຍເປັນທີ່ຊັດເຈນ, ຍ້ອນວ່ານັກຮຽນຊັ້ນສູງໄດ້ເຂົ້າຫາຫນ້າກາກສີຂາວແລະເຫັນວ່າໃບຫນ້າຂອງນາງຖືກກວດພົບທັນທີ: ການຮັບຮູ້ໃບຫນ້າ AI ບໍ່ສາມາດເອົາຜິວຫນັງຊ້ໍາຂອງນາງໄດ້.

ປະສົບການທີ່ຕິດຢູ່ກັບ Buolamwini ແລະເປັນແຮງບັນດານໃຈໃຫ້ນາງເຮັດການຄົ້ນຄວ້າກ່ຽວກັບເລື່ອງນີ້. ນາງເລົ່າວ່າ “ຂ້ອຍມີຄຳຖາມບາງອັນ. “ນີ້ແມ່ນພຽງແຕ່ໃບຫນ້າຂອງຂ້ອຍ, ຫຼືມີສິ່ງອື່ນໆທີ່ຫຼີ້ນຢູ່ບໍ?” ນັກສຶກສາຈົບການສຶກສາໄດ້ເລີ່ມຕົ້ນການສືບສວນປະເພດຜິວຫນັງແລະຄວາມລໍາອຽງທາງເພດໃນ AI ການຄ້າຈາກບໍລິສັດເຊັ່ນ Amazon, Google, Microsoft, ແລະ IBM, ໃນທີ່ສຸດກໍຂຽນທິດສະດີຂອງນາງກ່ຽວກັບວິຊາດັ່ງກ່າວ, ແລະນາງໄດ້ຄົ້ນພົບຫົວຂໍ້ທີ່ມີບັນຫາ. ລະບົບເຫຼົ່ານີ້ປະຕິບັດໄດ້ດີກວ່າໃບຫນ້າທີ່ມີຜິວຫນັງອ່ອນກວ່າໃບຫນ້າທີ່ມີຜິວຫນັງຊ້ໍາ, Buolamwini ພົບເຫັນ, ແລະໃນຂະນະທີ່ອັດຕາຄວາມຜິດພາດສໍາລັບຜູ້ຊາຍທີ່ມີຜິວຫນັງອ່ອນກວ່າແມ່ນຫນ້ອຍກວ່າ 1%, ພວກມັນສູງກວ່າ 30% ສໍາລັບແມ່ຍິງທີ່ມີຜິວຫນັງຊ້ໍາ.

ໃນເວລານັ້ນ, ການນໍາໃຊ້ AI ແມ່ນເພີ່ມຂຶ້ນຢ່າງໄວວາ, ແລະທຸກໆອຸດສາຫະກໍາແລະຂະແຫນງການກໍ່ເລີ່ມຮັບເອົາຄວາມສາມາດຂອງຕົນ; ເຖິງຢ່າງນັ້ນ, ມັນເຫັນໄດ້ຊັດເຈນກັບ Buolamwini ວ່ານີ້ແມ່ນພຽງແຕ່ການເລີ່ມຕົ້ນ. “ບັນຫານີ້ໄດ້ກາຍເປັນເລື່ອງຮີບດ່ວນສໍາລັບຂ້ອຍເພາະວ່າຂ້ອຍໄດ້ເຫັນວ່າ AI ຖືກນໍາໃຊ້ໃນຫຼາຍພາກສ່ວນຂອງຊີວິດ – ຜູ້ຖືກຈ້າງ, ຜູ້ຖືກໄລ່ອອກ, ຜູ້ທີ່ຈະໄດ້ຮັບເງິນກູ້ຢືມ,” ນາງອະທິບາຍ. “ໂອກາດໄດ້ຖືກຄຸ້ມຄອງໂດຍຜູ້ຮັກສາປະຕູລະບົບ algorithmic, ແລະນັ້ນຫມາຍຄວາມວ່າເລື້ອຍໆ, ຜູ້ຮັກສາປະຕູເຫຼົ່ານີ້ໄດ້ຂັດຂວາງໂອກາດໂດຍອີງໃສ່ເຊື້ອຊາດແລະພື້ນຖານຂອງບົດບາດຍິງຊາຍ.”

ຫຼັງຈາກຮຽນຈົບຊັ້ນມັດທະຍົມປາຍ, Biolamwini ຕັດສິນໃຈສືບຕໍ່ການຄົ້ນຄວ້າກ່ຽວກັບຄວາມລຳອຽງທາງດ້ານເຊື້ອຊາດຜິວພັນຂອງ AI ແລະຮັບຮູ້ຢ່າງໄວວາວ່າອັນນີ້ສ່ວນໃຫຍ່ເປັນຜົນມາຈາກຊຸດຂໍ້ມູນ ແລະຮູບພາບທີ່ບໍ່ຫຼາກຫຼາຍທີ່ໃຊ້ໂດຍພະນັກງານເທັກໂນໂລຍີຊາຍທີ່ມີສີຂາວບໍ່ສົມສ່ວນເພື່ອຝຶກ AI ແລະແຈ້ງ algorithms ຂອງມັນ.

ແລະໃນປີ 2018, ສິ່ງພິມທີ່ສໍາຄັນ, ເຊັ່ນ: New York Times, ໄດ້ເລີ່ມສ່ອງແສງເຖິງການຄົ້ນພົບຂອງນາງ, ບັງຄັບໃຫ້ບໍລິສັດເຕັກໂນໂລຢີເອົາໃຈໃສ່. ໃນຂະນະທີ່ຜູ້ຫຼິ້ນເຕັກໂນໂລຢີໂລກໄດ້ຖອຍຫລັງໄປສູ່ການປ້ອງກັນແລະຂັດຂວາງການມີສ່ວນຮ່ວມຂອງຕົນເອງ, ເຖິງແມ່ນວ່າ, ສໍາລັບຜູ້ບໍລິໂພກແລະຍີ່ຫໍ້ຈໍານວນຫຼາຍທີ່ຊອກຫາການນໍາໃຊ້ AI, ບັນຫາໄດ້ກາຍເປັນຕາຕົກໃຈ – ແລະສໍາລັບຜູ້ທີ່ໄດ້ປະສົບກັບມັນດ້ວຍມືທໍາອິດ, ມັນຮູ້ສຶກວ່າໃນທີ່ສຸດກໍ່ມີ. ຄໍາອະທິບາຍ.

ທ່ານດຣ. Ellis Monk, ອາຈານສອນວິຊາສັງຄົມວິທະຍາຢູ່ໂຮງຮຽນສາທາລະນະສຸກ TH Chan ຂອງມະຫາວິທະຍາໄລ Harvard. ລາວພົບກ້ອງຖ່າຍຮູບທີ່ບໍ່ສາມາດຖ່າຍຮູບຂອງລາວໃນແສງສະຫວ່າງທີ່ແນ່ນອນ, ເຄື່ອງເປົ່າມືອັດຕະໂນມັດທີ່ບໍ່ສາມາດກວດພົບມືຂອງລາວ, ແລະແມ້ກະທັ້ງຮູບພາບຂອງເດັກນ້ອຍສີຂາວທັງຫມົດໃນເວລາທີ່ຊອກຫາ “ເດັກນ້ອຍທີ່ຫນ້າຮັກ” ໃນເຄື່ອງຈັກຊອກຫາ. “ເຈົ້າພຽງແຕ່ສັງເກດເຫັນວ່າຫຼາຍເຕັກໂນໂລຢີທີ່ຍອມຮັບວ່າມັນເຮັດວຽກສໍາລັບທຸກຄົນ, ແລະໃນຄວາມເປັນຈິງ, ພວກເຂົາພຽງແຕ່ບໍ່ສົນໃຈການມີຢູ່ຂອງເຈົ້າ, ເຊິ່ງສາມາດມີຄວາມຮູ້ສຶກທີ່ຂາດມະນຸດຫຼາຍ.”

ດຣ. Monk, ຜູ້ທີ່ໄດ້ຄົ້ນຄ້ວາການແບ່ງຊັ້ນຜິວ ໜັງ ແລະສີຜິວ ໜັງ ເປັນເວລາຫຼາຍກວ່າ ໜຶ່ງ ທົດສະວັດ, ໄດ້ມີຄວາມເປັນເອກກະພາບກັນມາດົນນານກັບການ ຈຳ ແນກໂດຍອີງໃສ່ສີຜິວ ໜັງ ທີ່ແຜ່ລາມຢູ່ໃນສະຫະລັດຕັ້ງແຕ່ສະ ໄໝ ເປັນຂ້າທາດ.

“ເຖິງແມ່ນວ່າປະຊາຊົນເວົ້າກ່ຽວກັບຄວາມບໍ່ສະເຫມີພາບທາງດ້ານເຊື້ອຊາດແລະເຊື້ອຊາດ, ມີຄວາມແຕກຕ່າງກັນຫຼາຍໃນຄວາມແຕກຕ່າງໃນແລະໃນທົ່ວປະເພດການສໍາມະໂນຄົວເຫຼົ່ານີ້ທີ່ພວກເຮົາມັກຈະໃຊ້ຕະຫຼອດເວລາ – ສີດໍາ, ອາຊີ, ລາຕິນ, ສີຂາວ, ແລະອື່ນໆ – ແລະຄວາມແຕກຕ່າງເຫຼົ່ານີ້ບໍ່ແມ່ນ. ມັນ ຈຳ ເປັນທີ່ຈະເລືອກເອົາໄດ້ງ່າຍທີ່ສຸດຖ້າພວກເຮົາຢູ່ໃນລະດັບຂອງປະເພດການ ສຳ ຫຼວດທີ່ກວ້າງຂວາງນີ້, ເຊິ່ງລວມເອົາທຸກຄົນເຂົ້າກັນໂດຍບໍ່ ຄຳ ນຶງເຖິງຮູບລັກສະນະທີ່ເປັນປະກົດການ,” ລາວເວົ້າ. “ແຕ່ສິ່ງທີ່ການຄົ້ນຄວ້າຂອງຂ້ອຍສະແດງໃຫ້ເຫັນວ່າເກືອບທຸກສິ່ງທີ່ພວກເຮົາເວົ້າກ່ຽວກັບເມື່ອພວກເຮົາຄິດກ່ຽວກັບຄວາມບໍ່ສະເຫມີພາບທາງດ້ານເຊື້ອຊາດ – ຈາກລະບົບການສຶກສາເຖິງວິທີທີ່ພວກເຮົາຈັດການກັບຕໍາຫຼວດແລະຜູ້ພິພາກສາຕໍ່ສຸຂະພາບຈິດແລະຮ່າງກາຍ, ຄ່າຈ້າງ, ລາຍໄດ້, ທຸກສິ່ງທຸກຢ່າງທີ່ພວກເຮົາສາມາດຄິດໄດ້ – ແມ່ນ. ຕົວຈິງແລ້ວແມ່ນອີງໃສ່ຄວາມບໍ່ສະເໝີພາບຂອງສີຜິວ ຫຼືການແບ່ງຊັ້ນຜິວໜັງ. ດັ່ງນັ້ນ, ມີຜົນໄດ້ຮັບຊີວິດອັນບໍ່ຫນ້າເຊື່ອທີ່ກ່ຽວຂ້ອງກັບຄວາມສະຫວ່າງຫຼືຄວາມມືດຂອງຜິວຫນັງຂອງໃຜຜູ້ຫນຶ່ງ.”

ດ້ວຍບາງສິ່ງບາງຢ່າງທີ່ຝັງເລິກຢູ່ໃນສັງຄົມວິທະຍາຂອງຊາວອາເມຣິກັນ, ທ່ານດຣ. Monk ເວົ້າວ່າມັນເປັນທໍາມະຊາດເທົ່ານັ້ນທີ່ມັນຈະຂະຫຍາຍໄປສູ່ເຕັກໂນໂລຢີທີ່ດໍາເນີນໂຄງການໂດຍພວກເຂົາ. “ເມື່ອພວກເຮົາຄິດກ່ຽວກັບການຫັນປ່ຽນໄປສູ່ໂລກເຕັກໂນໂລຢີ, ສິ່ງດຽວກັນທີ່ກໍາລັງຖືກດ້ອຍໂອກາດແລະຖືກລະເລີຍໂດຍການສົນທະນາທີ່ພວກເຮົາມີຄວາມບໍ່ສະເຫມີພາບທາງດ້ານເຊື້ອຊາດໃນສະຫະລັດ – ຜິວຫນັງແລະສີຜິວ – ຍັງຖືກດ້ອຍໂອກາດແລະຖືກລະເລີຍໃນໂລກເຕັກໂນໂລຢີ.” ລາວອະທິບາຍ. “ປະຊາຊົນໃນປະຫວັດສາດຍັງບໍ່ໄດ້ທົດສອບຜະລິດຕະພັນຂອງເຂົາເຈົ້າໃນທົ່ວປະເພດເຊື້ອຊາດທີ່ແຕກຕ່າງກັນ, ເຊິ່ງແນ່ນອນວ່າລວມທັງລັກສະນະຂອງສີຜິວຂອງເຕັກໂນໂລຊີຄອມພິວເຕີວິໄສທັດ.”

ດັ່ງນັ້ນ, ຕັ້ງແຕ່ເລີ່ມຕົ້ນ, ຜະລິດຕະພັນ AI ບໍ່ໄດ້ຖືກສ້າງຂື້ນດ້ວຍຄວາມຕັ້ງໃຈວ່າພວກເຂົາຈະເຮັດວຽກໄດ້ດີສໍາລັບທຸກຄົນ. ສາດສະດາຈານ Harvard ກ່າວຕື່ມວ່າ “ຖ້າທ່ານບໍ່ຕັ້ງໃຈໃນການອອກແບບຜະລິດຕະພັນຂອງທ່ານໃຫ້ເຮັດວຽກໄດ້ດີໃນທົ່ວສະພາບຜິວ ໜັງ ຢ່າງຕໍ່ເນື່ອງແລະການທົດສອບຢ່າງເຂັ້ມງວດເພື່ອໃຫ້ແນ່ໃຈວ່າເປັນແນວນັ້ນ, ທ່ານກໍ່ຈະມີບັນຫາໃຫຍ່ເຫຼົ່ານີ້ໃນເຕັກໂນໂລຢີ,” ສາດສະດາຈານ Harvard ກ່າວຕື່ມວ່າ.

ດຣ. Monk ເຊື່ອວ່າການຂະຫຍາຍຕົວຂອງ AI, ໂດຍສະເພາະໂດຍອຸດສາຫະກໍາທີ່ບໍ່ແມ່ນເຕັກໂນໂລຢີ, ໄດ້ຊ່ວຍສ່ອງແສງເຖິງຄວາມບົກຜ່ອງດ້ານເຕັກໂນໂລຢີທີ່ອ້ອມຮອບສີ – ແຕ່ສໍາຄັນກວ່ານັ້ນ, ມັນໄດ້ນໍາເອົາຄວາມສົນໃຈກັບບັນຫາທີ່ຕິດພັນ: colorism ໂດຍລວມ. ລາວຄິດວ່າຖ້າສິ່ງນີ້ຖືກພິຈາລະນາແລະແກ້ໄຂ, ການແກ້ໄຂຄວາມລໍາອຽງດ້ານເຊື້ອຊາດຂອງ AI ແລະການປ່ຽນແປງນະໂຍບາຍດ້ານທີ່ມັນດໍາເນີນການແມ່ນເປັນໄປໄດ້ທັງຫມົດ. ແລະມັນຢູ່ໃນໃຈວ່າ ດຣ. Monk ໄດ້ເປີດຕົວການຮ່ວມມືກັບ Google ໃນຕົ້ນປີນີ້.

ການ​ຮ່ວມ​ມື​ດັ່ງ​ກ່າວ​ໄດ້​ມີ​ຂຶ້ນ​ຫຼັງ​ຈາກ​ທີ່​ປະ​ຊາ​ຊົນ​ບາງ​ຄົນ​ທີ່​ເຮັດ​ວຽກ​ຢູ່​ໃນ​ການ​ຮັບ​ຜິດ​ຊອບ AI ໄດ້​ໄປ​ຫາ Dr. Monk ສອງ​ສາມ​ປີ​ກ່ອນ​ຫນ້າ​ນີ້​ເພື່ອ​ປຶກ​ສາ​ຫາ​ລື​ການ​ຄົ້ນ​ຄວ້າ​ຂອງ​ຕົນ​ກ່ຽວ​ກັບ​ອະ​ຄະ​ຕິ​ສີ​ຜິວ​ຫນັງ​ແລະ AI machine-learning​. ທັນທີທີ່ເຂົາເຈົ້າໄດ້ຮຽນຮູ້ກ່ຽວກັບຂະຫນາດຜິວຫນັງທີ່ສາດສະດາຈານສັງຄົມວິທະຍາໄດ້ອອກແບບແລະຖືກນໍາໃຊ້ໃນການເຮັດວຽກສ່ວນບຸກຄົນແລະການຄົ້ນຄວ້າຂອງລາວ, ເຊິ່ງໄດ້ສະແດງໃຫ້ເຫັນວ່າມີຫຼາຍກ່ວາ Fitzpatrick Scale, ມາດຕະຖານອຸດສາຫະກໍາສໍາລັບທົດສະວັດ, ແລະລວມທັງ 40-. ຂະຫນາດຈຸດ.

“ສິ່ງທີ່ຂະຫນາດຊ່ວຍໃຫ້ພວກເຮົາເຮັດມັນໃຫ້ແນ່ໃຈວ່າພວກເຮົາກໍາລັງວັດແທກສີຜິວໄດ້ດີເພື່ອໃຫ້ພວກເຮົາມີຂໍ້ມູນແລະການວິເຄາະທີ່ເວົ້າເຖິງຄວາມບໍ່ສະເຫມີພາບເຫຼົ່ານີ້ແລະສາມາດເລີ່ມຕົ້ນການສົນທະນາທີ່ເຂັ້ມແຂງ, ແລະກົງໄປກົງມາ, ຊື່ສັດຫຼາຍກວ່າເກົ່າ. ເຊື້ອຊາດມີຄວາມສຳຄັນແນວໃດໃນສະຫະລັດ ແລະນອກເໜືອໄປຈາກນັ້ນ,” ດຣ. ພະສົງ ກ່າວ.

Google ປະກາດໃນເດືອນພຶດສະພາວ່າມັນຈະປ່ອຍ Monk Skin Tone Scale ແລະປະສົມປະສານມັນໃນທົ່ວແພລະຕະຟອມຂອງຕົນເພື່ອປັບປຸງການເປັນຕົວແທນໃນຮູບພາບແລະເພື່ອປະເມີນວ່າຜະລິດຕະພັນຫຼືຄຸນສົມບັດຂອງມັນເຮັດວຽກໄດ້ດີໃນທົ່ວສີຜິວ. ມັນຍັງຫວັງວ່າການເຮັດດັ່ງນັ້ນຈະນໍາໄປສູ່ການປ່ຽນແປງໃນທົ່ວ AI, ດີເກີນຂອບເຂດຂອງ Google, ເຊິ່ງຜະລິດຕະພັນແລະການບໍລິການທີ່ຂັບເຄື່ອນດ້ວຍ AI ທຸກປະເພດແມ່ນສ້າງຂຶ້ນດ້ວຍຊຸດຂໍ້ມູນຕົວແທນຫຼາຍຂຶ້ນແລະດັ່ງນັ້ນຈຶ່ງສາມາດແຍກອອກຈາກຄວາມລໍາອຽງເຊື້ອຊາດທີ່ຄອບງໍາມາດົນນານ. ເຕັກ​ໂນ​ໂລ​ຊີ​.

ດຣ. Monk ເຊື່ອວ່າການຮ່ວມມືຂອງລາວກັບ Google ແມ່ນຫຼັກຖານສະແດງເຖິງຄວາມສາມາດໃນການແກ້ໄຂຄວາມຜິດພາດທາງປະຫວັດສາດທີ່ມີຢູ່ໃນ AI, ແຕ່ລາວຊີ້ໃຫ້ເຫັນວ່າມັນບໍ່ຈໍາເປັນຕ້ອງມາແກ້ໄຂຖ້າມັນເຮັດຢ່າງຖືກຕ້ອງເພື່ອເລີ່ມຕົ້ນ. ທ່ານກ່າວວ່າ “ເວລາຫຼາຍ, ມີຄວາມຮີບດ່ວນທີ່ຈະເປັນຄົນ ທຳ ອິດທີ່ຈະເຮັດບາງສິ່ງບາງຢ່າງທີ່ມັນສາມາດປ່ຽນແທນຄວາມລະມັດລະວັງທີ່ພວກເຮົາຕ້ອງໃຊ້ທຸກຄັ້ງທີ່ພວກເຮົາ ນຳ ສະ ເໜີ ເຕັກໂນໂລຢີນີ້ໄປສູ່ສັງຄົມ,”. “ຂ້ອຍຈະເວົ້າໄດ້ວ່າມັນອາດຈະຕ້ອງມີຄວາມລະມັດລະວັງຫຼາຍກ່ຽວກັບການເປີດຕົວເຕັກໂນໂລຢີເຫຼົ່ານີ້ໃນຕອນທໍາອິດ, ດັ່ງນັ້ນ, ມັນບໍ່ແມ່ນພຽງແຕ່ການຫຼຸດຜ່ອນສິ່ງທີ່ມີຢູ່ແລ້ວແລະພະຍາຍາມແກ້ໄຂມັນ.”

ແລະໃນຂະນະທີ່ແນວຄິດແບບນັ້ນອາດຈະບໍ່ເປັນມາດຕະຖານ, ຜູ້ນຫນຸ່ມບາງຄົນໃນຊ່ອງ AI ໄດ້ພະຍາຍາມແກ້ໄຂແລະແກ້ໄຂຄວາມລໍາອຽງທາງດ້ານເຊື້ອຊາດຕັ້ງແຕ່ເລີ່ມຕົ້ນ. ຫນຶ່ງບໍລິສັດດັ່ງກ່າວ, ເປັນຜູ້ໃຫ້ບໍລິການ AI ຊັ້ນນໍາ Perfect Corp., ເຊິ່ງຜະລິດຕະພັນຂອງເຂົາເຈົ້າໄດ້ຮັບອະນຸຍາດຈາກຍີ່ຫໍ້ຄວາມງາມແລະແຟຊັ່ນນັບບໍ່ຖ້ວນ, ລວມທັງ Estée Lauder, Neutrogena, ແລະ Target, ແລະບໍລິສັດເຕັກໂນໂລຢີຈໍານວນຫນຶ່ງເຊັ່ນ Meta ແລະ Snap. ບໍ່ເຫມືອນກັບບາງບໍລິສັດເຕັກໂນໂລຢີທີ່ເຂົ້າມາໃນເຫດການກ່ອນທີ່ຈະມີຄວາມເຂົ້າໃຈກ່ຽວກັບຄວາມລໍາອຽງທາງເຊື້ອຊາດຂອງ AI, execs ຢູ່ Perfect Corp. ຮູ້ສຶກວ່າມີຄວາມຮັບຜິດຊອບໃນການສ້າງເຕັກໂນໂລຢີທີ່ເຮັດວຽກສໍາລັບທຸກຄົນ, ບໍ່ວ່າຈະເປັນສີຜິວ.

ທ່ານ Wayne Liu, ຫົວຫນ້າຝ່າຍເຕີບໂຕຂອງ Perfect Corp ກ່າວວ່າ “ການລວມເອົາສີຜິວທີ່ສົມບູນເປັນບູລິມະສິດຈາກແນວຄວາມຄິດເບື້ອງຕົ້ນຂອງເຕັກໂນໂລຢີແລະເປັນຫນຶ່ງທີ່ຊ່ວຍຊີ້ນໍາການພັດທະນາເຄື່ອງມືຂອງພວກເຮົາ,” Wayne Liu, ຫົວຫນ້າຝ່າຍເຕີບໂຕຂອງບໍລິສັດ Perfect Corp. ບໍລິສັດ, ເຊິ່ງກໍ່ຕັ້ງໂດຍ Alice Chang, ແມ່ຍິງທີ່ມີສີສັນ, ໄດ້ຮັບຮູ້ຂໍ້ຈໍາກັດຂອງ AI ຕັ້ງແຕ່ເລີ່ມຕົ້ນ, ດັ່ງນັ້ນຈຶ່ງເຮັດວຽກເພື່ອຊອກຫາວິທີແກ້ໄຂກ່ອນທີ່ຈະອອກຕະຫຼາດ.

“ພວກເຮົາໄດ້ພັດທະນາເຕັກໂນໂລຢີທີ່ກ້າວຫນ້າ, ເຊັ່ນ: ການຕັ້ງຄ່າການປັບອັດຕະໂນມັດແບບພິເສດສໍາລັບການປັບແສງສະຫວ່າງແລະມຸມ, ເພື່ອຮັບປະກັນປະສົບການທີ່ລວມແລະຖືກຕ້ອງເຊິ່ງລວມເອົາລະດັບສີຜິວທີ່ສົມບູນ,” Liu ອະທິບາຍ.

ແຕ່ບໍລິສັດ Perfect Corp. ຮູ້ວ່າເປັນຜູ້ໃຫ້ບໍລິການ AI-powered ໃຫ້ກັບຍີ່ຫໍ້ອື່ນໆ, ການນໍາທາງຂອງການຂາດແຄນເຕັກໂນໂລຊີບໍ່ໄດ້ຢຸດຢູ່ກັບທີມງານຂອງຕົນ, ສະນັ້ນບໍລິສັດໄດ້ກໍານົດຈຸດຂອງການເຮັດວຽກກັບຄູ່ຮ່ວມງານຍີ່ຫໍ້ຂອງຕົນເພື່ອຮັບປະກັນວ່າອະຄະຕິເຊື້ອຊາດໃດໆໄດ້ຖືກແກ້ໄຂໃນການພັດທະນາ. ໄລຍະ. “ການນໍາໃຊ້ທີ່ກວ້າງຂວາງແລະຖືກຕ້ອງຂອງການແກ້ໄຂ AI ຂອງພວກເຮົາຍ້ອນວ່າມັນໃຊ້ກັບຜູ້ບໍລິໂພກທັງຫມົດແມ່ນມີຄວາມຈໍາເປັນຕໍ່ຄວາມສໍາເລັດຂອງເຄື່ອງມືແລະການແກ້ໄຂຂອງພວກເຮົາ, ແລະມີຄວາມຈໍາເປັນເພື່ອໃຫ້ຍີ່ຫໍ້ແລະຜູ້ບໍລິໂພກອີງໃສ່ເຕັກໂນໂລຢີປະເພດນີ້ເປັນຜົນປະໂຫຍດທີ່ຈະຊ່ວຍໃຫ້ພວກເຂົາຢູ່ໃນພວກເຂົາ. ການຕັດສິນໃຈຊື້,” Liu ກ່າວຕື່ມວ່າ.

ຫຼາຍປີຫຼັງຈາກການເປີດຕົວ AI Shade Finder ແລະເຄື່ອງມືການວິເຄາະຜິວຫນັງ AI, Perfect Corp. ຍັງຄົງເປັນຄວາມຈິງຕໍ່ກັບເປົ້າໝາຍເບື້ອງຕົ້ນຂອງການລວມຕົວຂອງມັນ. ເທກໂນໂລຍີຂອງມັນມີຄວາມຫນ້າເຊື່ອຖືໃນການທົດສອບ 95% ແລະສືບຕໍ່ການຈັບຄູ່ຫຼືການຈັບຄູ່ກັບຮົ່ມຂອງມະນຸດແລະຫຼາຍກວ່າການວິເຄາະຜິວຫນັງ. ເຖິງແມ່ນວ່າມີຄວາມພະຍາຍາມຢ່າງຫຼວງຫຼາຍເຫຼົ່ານີ້ແລະຜົນໄດ້ຮັບທີ່ຫນ້າປະທັບໃຈຢ່າງຕໍ່ເນື່ອງ, ແນວໃດກໍ່ຕາມ, Liu ຮູ້ວ່າ, ເຖິງແມ່ນວ່າຊື່ຂອງບໍລິສັດ Perfect Corp., ບໍ່ມີບໍລິສັດໃດທີ່ສົມບູນແບບແລະຈະມີບ່ອນຫວ່າງສໍາລັບການປັບປຸງ. ລາວແລະເພື່ອນຮ່ວມງານຮູ້ສຶກວ່າຄໍາຄຶດຄໍາເຫັນແລະການປັບຕົວເປັນສິ່ງຈໍາເປັນຕໍ່ການເຕີບໂຕຂອງເຕັກໂນໂລຢີຂອງພວກເຂົາແລະອຸດສາຫະກໍາທັງຫມົດ.

“ມັນເປັນສິ່ງສໍາຄັນທີ່ພວກເຮົາຟັງຄໍາຕິຊົມທັງຫມົດ, ທັງຈາກຄູ່ຮ່ວມງານຂອງຍີ່ຫໍ້ແລະຜູ້ຄ້າປີກ, ແລະສິ່ງທີ່ພວກເຮົາສັງເກດເຫັນຈາກການປ່ຽນແປງພຶດຕິກໍາຂອງຜູ້ບໍລິໂພກ, ເພື່ອສືບຕໍ່ພັດທະນາແລະສະຫນອງເຕັກໂນໂລຢີທີ່ຊ່ວຍໃນການເດີນທາງການຊື້ເຄື່ອງຂອງຜູ້ບໍລິໂພກ,” ລາວເວົ້າ. “AI ແມ່ນປະສົບການສໍາລັບທຸກຄົນ, ບໍ່ແມ່ນປະສົບການສໍາລັບສ່ວນໃຫຍ່, ແລະຄວາມສໍາເລັດຂອງເຕັກໂນໂລຢີທີ່ເປັນເຄື່ອງມືທີ່ແທ້ຈິງເພື່ອຊ່ວຍໃນປະສົບການການຊື້ເຄື່ອງຂອງຜູ້ບໍລິໂພກແມ່ນຂຶ້ນກັບຄວາມຖືກຕ້ອງແລະຄວາມສາມາດໃນການເຮັດວຽກສໍາລັບຜູ້ບໍລິໂພກທັງຫມົດ, ບໍ່ພຽງແຕ່ສ່ວນຫນຶ່ງຂອງພວກເຂົາ. .” .”

Categories: AiHome

0 Comments

Leave a Reply

Avatar placeholder

Your email address will not be published. Required fields are marked *