ຄວາມສ່ຽງທີ່ເປັນໄປໄດ້ຂອງປັນຍາປະດິດ
ຄວາມສ່ຽງທີ່ເປັນໄປໄດ້ຂອງປັນຍາທຽມແມ່ນຫຍັງ?
ປັນຍາປະດິດ, ຫຼື AI ຍ້ອນວ່າມັນຖືກກ່າວເຖິງເລື້ອຍໆ, ແມ່ນຫົວຂໍ້ທີ່ໄດ້ຮັບການປຶກສາຫາລືຫຼາຍໃນທົດສະວັດທີ່ຜ່ານມາ. ມັນກໍາລັງພັດທະນາຢ່າງໄວວາ, ເຮັດໃຫ້ຂະບວນການເຮັດວຽກຂອງທຸລະກິດສ່ວນໃຫຍ່ງ່າຍຂຶ້ນແລະມີປະສິດທິພາບຫຼາຍຂຶ້ນ. ເຖິງແມ່ນວ່າໃນຊີວິດປະຈໍາວັນຂອງຫຼາຍໆຄົນ AI ໄດ້ສະແດງໃຫ້ເຫັນທ່າແຮງອັນໃຫຍ່ຫຼວງແລະໄດ້ຖືກປະຕິບັດແລ້ວໃນຫຼາຍໆ app ທີ່ແຕກຕ່າງກັນ, ເຮັດໃຫ້ຊີວິດງ່າຍຂຶ້ນແລະສັບສົນຫນ້ອຍ. AI ໄດ້ນໍາເອົາຂໍ້ໄດ້ປຽບຫຼາຍຢ່າງມາສູ່ພວກເຮົາ ແລະວິທະຍາສາດກໍາລັງເປີດທາງໃຫ້ເກີດມີຫຼາຍຂຶ້ນ ດັ່ງນັ້ນມັນປອດໄພທີ່ຈະເວົ້າວ່າ AI ຈະເປັນສິ່ງທີ່ຂາດບໍ່ໄດ້ໃນອະນາຄົດ, ຖ້າມັນບໍ່ມີແລ້ວ.
ແຕ່ວ່າທຸກຫຼຽນມີສອງດ້ານ, AI ກໍ່ຄືກັນ. ເທກໂນໂລຍີນີ້ຍັງມາພ້ອມກັບຄວາມສ່ຽງແລະຂໍ້ເສຍທີ່ອາດຈະເກີດຂື້ນ. ຜູ້ຊ່ຽວຊານແລະຜູ້ຄຸ້ມຄອງດ້ານວິຊາການຈໍານວນຫຼາຍຂອງເວລາຂອງພວກເຮົາກໍາລັງສະແດງຄວາມກັງວົນຂອງເຂົາເຈົ້າກ່ຽວກັບບັນຫາທີ່ AI ອາດຈະເຮັດໃຫ້ເກີດໃນອະນາຄົດແລະດັ່ງນັ້ນພວກເຮົາຈໍາເປັນຕ້ອງລະມັດລະວັງເພື່ອແກ້ໄຂບັນຫາເຫຼົ່ານີ້ໃນຂະນະທີ່ພວກເຂົາຍັງສາມາດແກ້ໄຂໄດ້. ພວກເຮົາຫມາຍຄວາມວ່າແນວໃດ?
ມີຫຼາຍສິ່ງທີ່ຕ້ອງພິຈາລະນາກ່ຽວກັບບັນຫາສະເພາະເຫຼົ່ານີ້. ໃນບົດຄວາມນີ້ພວກເຮົາຈະພະຍາຍາມອະທິບາຍບາງຄວາມສ່ຽງທີ່ການພັດທະນາໄວຂອງ AI ອາດຈະນໍາມາສູ່ໂລກຂອງພວກເຮົາແລະສິ່ງທີ່ຈໍາເປັນຕ້ອງໄດ້ປະຕິບັດເພື່ອຕິດຕາມແລະນໍາພາຄວາມກ້າວຫນ້າໃນທິດທາງທີ່ຖືກຕ້ອງ.
1. ວຽກ
ພວກເຮົາແນ່ໃຈວ່າທຸກຄົນມີໂອກາດທີ່ຈະໄດ້ຍິນຫຼືອ່ານກ່ຽວກັບການປິ່ນປົວທີ່ມີທ່າແຮງທີ່ເຄື່ອງຈັກແລະອັດຕະໂນມັດອາດຈະນໍາສະເຫນີໃຫ້ໂຮງຮຽນເກົ່າ, ສະຖານທີ່ເຮັດວຽກຂອງມະນຸດ. ບາງຄົນອາດຈະທົນທຸກກັບຄວາມກັງວົນຫຼາຍລະດັບກ່ຽວກັບເຄື່ອງທີ່ລັກເອົາວຽກເຮັດງານທຳຂອງເຂົາເຈົ້າ. ຄວາມຢ້ານກົວນັ້ນອາດຈະໄດ້ຮັບການສ້າງຕັ້ງຂຶ້ນຢ່າງດີ, ອັດຕະໂນມັດວຽກເຮັດງານທໍາເປັນຄວາມສ່ຽງທີ່ຍິ່ງໃຫຍ່ສໍາລັບປະຊາຊົນຈໍານວນຫຼາຍ: ປະມານ 25% ຂອງຄົນອາເມລິກາອາດຈະສູນເສຍວຽກເຮັດງານທໍາຂອງເຂົາເຈົ້າເນື່ອງຈາກວ່າບາງຈຸດເຄື່ອງຈັກສາມາດທົດແທນໃຫ້ເຂົາເຈົ້າ. ໂດຍສະເພາະທີ່ມີຄວາມສ່ຽງແມ່ນຕໍາແຫນ່ງທີ່ມີຄ່າຈ້າງຕໍ່າທີ່ບຸກຄົນໃດຫນຶ່ງເຮັດວຽກຊ້ໍາຊ້ອນ, ເຊັ່ນວຽກບໍລິຫານຫຼືບໍລິການອາຫານ. ຢ່າງໃດກໍ່ຕາມ, ເຖິງແມ່ນວ່າຜູ້ຮຽນຈົບມະຫາວິທະຍາໄລບາງຄົນກໍ່ມີຄວາມສ່ຽງ, ຂັ້ນຕອນການຮຽນຮູ້ເຄື່ອງຈັກຂັ້ນສູງອາດຈະສາມາດທົດແທນພວກເຂົາໃນບາງຕໍາແຫນ່ງວຽກທີ່ສັບສົນຍ້ອນວ່າພວກເຂົາກາຍເປັນທີ່ຫລອມໂລຫະ, ໂດຍສະເພາະໂດຍຜ່ານການນໍາໃຊ້ເຄືອຂ່າຍ neural ແລະການຮຽນຮູ້ເລິກ.
ແຕ່ພວກເຮົາບໍ່ສາມາດເວົ້າໄດ້ແທ້ໆວ່າຫຸ່ນຍົນຈະຍູ້ມະນຸດອອກຈາກຕະຫຼາດວຽກຢ່າງສົມບູນ. ພະນັກງານພຽງແຕ່ຈະຕ້ອງປັບຕົວ, ສຶກສາອົບຮົມຕົນເອງແລະຊອກຫາວິທີການເຮັດວຽກໂດຍການຮ່ວມມືກັບ AI, ເຮັດໃຫ້ການນໍາໃຊ້ທີ່ດີທີ່ສຸດທີ່ເປັນໄປໄດ້ຂອງປະສິດທິພາບແລະເຫດຜົນກົນຈັກ. AI ຍັງບໍ່ສົມບູນແບບ, ສໍາລັບຕົວຢ່າງ, ມັນບໍ່ສາມາດໂທຫາຄໍາຕັດສິນໄດ້, ດັ່ງນັ້ນປັດໄຈຂອງມະນຸດຈະຍັງຄົງເປັນການຕັດສິນໃຈໃນເວລາທີ່ເຮັດວຽກຄຽງຄູ່ກັບເຄື່ອງຈັກ.
ມີເທກໂນໂລຍີທີ່ອີງໃສ່ AI ຫຼາຍທີ່ໃຊ້ວິທີແກ້ໄຂອັດຕະໂນມັດທີ່ຕ້ອງໄດ້ຮັບການຝຶກອົບຮົມແລະການຝຶກອົບຮົມນີ້ແມ່ນຂຶ້ນກັບການປ້ອນຂໍ້ມູນຂອງມະນຸດ. ຕົວຢ່າງທີ່ດີສໍາລັບການນີ້ແມ່ນການແປພາສາດ້ວຍເຄື່ອງຈັກທີ່ໄດ້ຮັບຂໍ້ມູນຈາກການແປພາສາຈໍານວນຫລາຍທີ່ສ້າງຂຶ້ນໂດຍມະນຸດ. ຕົວຢ່າງທີ່ດີອີກອັນໜຶ່ງແມ່ນຊອບແວການຖອດຂໍ້ຄວາມທີ່ໄດ້ຮັບຂໍ້ມູນການຝຶກອົບຮົມຈາກການຖອດຂໍ້ຄວາມທີ່ຖືກຕ້ອງໂດຍຜູ້ຖອດຂໍ້ຄວາມຈາກມະນຸດມືອາຊີບ. ດ້ວຍວິທີນີ້, ຊອບແວໄດ້ຮັບການປັບປຸງເທື່ອລະກ້າວ, ປັບປຸງສູດການຄິດໄລ່ຂອງມັນໂດຍຜ່ານຕົວຢ່າງຊີວິດຈິງ. ຜູ້ຖອດຂໍ້ຄວາມຂອງມະນຸດໄດ້ຮັບຜົນປະໂຫຍດຈາກຊອບແວເພາະວ່າມັນຊ່ວຍໃຫ້ພວກເຂົາເຮັດການຖອດຂໍ້ຄວາມໄວຂຶ້ນ. ຊອບແວຈະສ້າງສະບັບຮ່າງສະບັບຮ່າງຂອງຂໍ້ຄວາມຖອດຈາກສຽງ, ເຊິ່ງຖືກແກ້ໄຂ ແລະແກ້ໄຂໂດຍຕົວຖອດຂໍ້ຄວາມ. ນີ້ຊ່ວຍປະຢັດເວລາຫຼາຍ, ແລະຫມາຍຄວາມວ່າໃນທີ່ສຸດຜະລິດຕະພັນສຸດທ້າຍຈະຖືກຈັດສົ່ງໄວແລະຈະຖືກຕ້ອງຫຼາຍຂຶ້ນ.
2. ບັນຫາຄວາມລຳອຽງ
ສິ່ງທີ່ຍິ່ງໃຫຍ່ກ່ຽວກັບສູດການຄິດໄລ່ແມ່ນວ່າພວກເຂົາສະເຫມີຕັດສິນໃຈທີ່ຍຸດຕິທໍາ, ບໍ່ລໍາອຽງ, ກົງກັນຂ້າມກັບມະນຸດທີ່ມີຫົວຂໍ້ແລະອາລົມ. ຫຼືພວກເຂົາ? ຄວາມຈິງແມ່ນວ່າຂະບວນການຕັດສິນໃຈຂອງຊອບແວອັດຕະໂນມັດໃດໆແມ່ນຂຶ້ນກັບຂໍ້ມູນທີ່ພວກເຂົາໄດ້ຮັບການຝຶກອົບຮົມ. ດັ່ງນັ້ນ, ມີຄວາມສ່ຽງຕໍ່ການຈໍາແນກໃນບາງໂອກາດເມື່ອຕົວຢ່າງບາງສ່ວນຂອງປະຊາກອນບໍ່ໄດ້ເປັນຕົວແທນພຽງພໍໃນຂໍ້ມູນທີ່ໃຊ້. ຊອບແວການຮັບຮູ້ໃບໜ້າກຳລັງຖືກສືບສວນຢູ່ແລ້ວສຳລັບບາງບັນຫາເຫຼົ່ານີ້, ກໍລະນີຄວາມລຳອຽງເກີດຂຶ້ນແລ້ວ.
ຕົວຢ່າງອັນດີອັນໜຶ່ງຂອງຄວາມລຳອຽງຂອງປັນຍາປະດິດແມ່ນ COMPAS (Corectional Offender Management Profiling for Alternative Sanctions). ນີ້ແມ່ນເປັນເຄື່ອງມືການປະເມີນຄວາມສ່ຽງແລະຄວາມຕ້ອງການສໍາລັບການຄາດຄະເນຄວາມສ່ຽງ recidivism ໃນບັນດາຜູ້ກະທໍາຜິດ. ເຄື່ອງມືທີ່ອີງໃສ່ algorithm ນີ້ໄດ້ຖືກສືບສວນ ແລະຜົນໄດ້ຮັບໄດ້ສະແດງໃຫ້ເຫັນວ່າຂໍ້ມູນຂອງ COMPAS ມີຄວາມລໍາອຽງທາງດ້ານເຊື້ອຊາດ. ຕົວຢ່າງ, ອີງຕາມຂໍ້ມູນ, ຜູ້ຖືກກ່າວຟ້ອງໃນອາຟຣິກາ - ອາເມລິກາມີແນວໂນ້ມທີ່ຈະຖືກຕັດສິນທີ່ບໍ່ຖືກຕ້ອງວ່າມີຄວາມສ່ຽງສູງຕໍ່ການຖືກຂົ່ມເຫັງຫຼາຍກ່ວາເຊື້ອຊາດອື່ນໆ. ສູດການຄິດໄລ່ຍັງມີແນວໂນ້ມທີ່ຈະເຮັດຜິດກົງກັນຂ້າມກັບຄົນເຊື້ອຊາດຂາວ.
ດັ່ງນັ້ນ, ສິ່ງທີ່ເກີດຂຶ້ນທີ່ນີ້? ສູດການຄິດໄລ່ແມ່ນຂຶ້ນກັບຂໍ້ມູນ, ດັ່ງນັ້ນຖ້າຂໍ້ມູນມີຄວາມລໍາອຽງ, ຊອບແວຈະໃຫ້ຜົນໄດ້ຮັບທີ່ມີຄວາມລໍາອຽງເຊັ່ນດຽວກັນ. ບາງຄັ້ງມັນຍັງມີສິ່ງທີ່ຕ້ອງເຮັດກັບວິທີການເກັບກໍາຂໍ້ມູນ.
ເທັກໂນໂລຍີການຮັບຮູ້ສຽງເວົ້າແບບອັດຕະໂນມັດຍັງສາມາດມີຄວາມລຳອຽງຂື້ນກັບເພດ ຫຼືເຊື້ອຊາດ ເນື່ອງຈາກຄວາມຈິງທີ່ວ່າຂໍ້ມູນການຝຶກອົບຮົມບໍ່ຈຳເປັນຈະຕ້ອງຖືກເລືອກໃນເລື່ອງທີ່ຈະຮັບປະກັນຄວາມລວມພຽງພໍ.
3. ຄວາມກັງວົນກ່ຽວກັບຄວາມປອດໄພ
ມີບັນຫາບາງຢ່າງກ່ຽວກັບປັນຍາປະດິດທີ່ເປັນອັນຕະລາຍຫຼາຍທີ່ພວກເຂົາສາມາດນໍາໄປສູ່ອຸປະຕິເຫດ. ຕົວຢ່າງທີ່ໂດດເດັ່ນອີກອັນໜຶ່ງຂອງເທັກໂນໂລຍີ AI ທີ່ນຳໃຊ້ແມ່ນລົດທີ່ຂັບລົດເອງ. ຜູ້ຊ່ຽວຊານຫຼາຍຄົນເຊື່ອວ່ານີ້ແມ່ນອະນາຄົດຂອງການຂົນສົ່ງ. ແຕ່ສິ່ງສຳຄັນທີ່ກີດຂວາງການນຳໃຊ້ລົດທີ່ຂັບດ້ວຍຕົນເອງເຂົ້າໄປໃນການສັນຈອນໃນທັນທີນັ້ນແມ່ນຄວາມຜິດປົກກະຕິທີ່ອາດເປັນອັນຕະລາຍຕໍ່ຊີວິດຜູ້ໂດຍສານແລະຄົນຍ່າງ. ການໂຕ້ວາທີກ່ຽວກັບໄພຂົ່ມຂູ່ທີ່ຍານພາຫະນະປົກຄອງຕົນເອງສາມາດເກີດຂື້ນໃນຖະຫນົນຫົນທາງແມ່ນຍັງມີຕົວຈິງຫຼາຍ. ມີຜູ້ຄົນທີ່ຄິດວ່າອາດຈະເກີດອຸບັດຕິເຫດໜ້ອຍລົງ ຖ້າຫາກລົດທີ່ຂັບດ້ວຍຕົນເອງໄດ້ຮັບອະນຸຍາດໃຫ້ຂີ່ຢູ່ເທິງຖະໜົນ. ໃນທາງກົງກັນຂ້າມ, ມີການສຶກສາທີ່ສະແດງໃຫ້ເຫັນວ່າພວກເຂົາອາດຈະເຮັດໃຫ້ເກີດອຸປະຕິເຫດຫຼາຍ, ເພາະວ່າການປະຕິບັດຫຼາຍຢ່າງຂອງພວກມັນຈະອີງໃສ່ຄວາມມັກທີ່ຜູ້ຂັບຂີ່ກໍານົດ. ດຽວນີ້ມັນຂຶ້ນກັບຜູ້ອອກແບບທີ່ຈະເລືອກລະຫວ່າງຄວາມປອດໄພ ແລະຊີວິດຂອງຄົນ ແລະຄວາມມັກຂອງຜູ້ຂັບຂີ່ (ເຊັ່ນ: ຄວາມໄວສະເລ່ຍ ແລະນິໄສການຂັບຂີ່ອື່ນໆ). ເປົ້າຫມາຍຕົ້ນຕໍຂອງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໃນກໍລະນີໃດກໍ່ຕາມຄວນຈະເປັນການຫຼຸດຜ່ອນອຸປະຕິເຫດລົດໃຫຍ່, ໂດຍຜ່ານການປະຕິບັດລະບົບ AI ທີ່ມີປະສິດທິພາບແລະເຊັນເຊີຂັ້ນສູງທີ່ສາມາດກວດພົບແລະແມ້ກະທັ້ງຄາດຄະເນສະຖານະການການຈະລາຈອນທີ່ເປັນໄປໄດ້. ຢ່າງໃດກໍ່ຕາມ, ຊີວິດຈິງແມ່ນສະເຫມີສັບສົນກັບໂຄງການໃດກໍ່ຕາມ, ດັ່ງນັ້ນຂໍ້ຈໍາກັດຂອງເຕັກໂນໂລຢີນີ້ຍັງຄົງເປັນຫນຶ່ງໃນປັດໃຈຈໍາກັດສໍາລັບການປະຕິບັດຢ່າງກວ້າງຂວາງຂອງມັນ. ບັນຫາອີກອັນຫນຶ່ງແມ່ນປັດໃຈຄວາມໄວ້ວາງໃຈ. ສໍາລັບປະຊາຊົນຈໍານວນຫຼາຍທີ່ມີປະສົບການຂັບລົດຫຼາຍປີແລະຫຼາຍປີ, ການວາງຄວາມໄວ້ວາງໃຈທັງຫມົດເຂົ້າໄປໃນມືດິຈິຕອນອາດຈະຖືກເຫັນວ່າເປັນການກະທໍາຂອງສັນຍາລັກຂອງແນວໂນ້ມດິຈິຕອນ. ໃນກໍລະນີໃດກໍ່ຕາມ, ຈົນກ່ວາທັງຫມົດນີ້ຖືກແກ້ໄຂ, ບາງວິທີແກ້ໄຂເຕັກໂນໂລຢີທີ່ກ້າວຫນ້າໄດ້ຖືກປະຕິບັດແລ້ວໃນລົດໃຫມ່, ແລະຜູ້ຂັບຂີ່ຂອງມະນຸດສາມາດໄດ້ຮັບຜົນປະໂຫຍດຈາກເຊັນເຊີຕ່າງໆ, ການແກ້ໄຂເບກແລະການຄວບຄຸມການຂັບຂີ່.
4. ຈຸດປະສົງທີ່ເປັນອັນຕະລາຍ
ເທກໂນໂລຍີຄວນຮັບໃຊ້ຄວາມຕ້ອງການຂອງຄົນແລະຖືກນໍາໃຊ້ເພື່ອເຮັດໃຫ້ຊີວິດຂອງພວກເຂົາງ່າຍຂຶ້ນ, ມີຄວາມສຸກຫຼາຍແລະມັນຄວນຈະປະຫຍັດເວລາອັນມີຄ່າຂອງທຸກໆຄົນ. ແຕ່ບາງຄັ້ງເທັກໂນໂລຍີ AI ຍັງຖືກໃຊ້ເພື່ອຈຸດປະສົງທີ່ເປັນອັນຕະລາຍ, ໃນລັກສະນະທີ່ມີຄວາມສ່ຽງທີ່ສໍາຄັນຕໍ່ຄວາມປອດໄພທາງດ້ານຮ່າງກາຍ, ດິຈິຕອນແລະທາງດ້ານການເມືອງຂອງພວກເຮົາ.
- ຄວາມປອດໄພທາງຮ່າງກາຍ: ຄວາມສ່ຽງທີ່ອາດເກີດຂຶ້ນອັນໜຶ່ງຂອງ AI, ທີ່ຟັງແລ້ວເປັນເລື່ອງທີ່ໜ້າຕື່ນຕາຕື່ນໃຈໃນຕອນທຳອິດ ແລະ ອາດຈະເຮັດໃຫ້ເຈົ້າເຈັບກະດູກຄືສົງຄາມທີ່ອາດຈະເກີດຂຶ້ນລະຫວ່າງປະເທດທີ່ກ້າວໜ້າທາງດ້ານເທັກໂນໂລຍີ, ດຳເນີນໂດຍລະບົບອາວຸດທີ່ເປັນເອກະລາດທີ່ມີໂຄງການຂ້າໃນລັກສະນະທີ່ມີປະສິດທິພາບ ແລະໂຫດຮ້າຍທີ່ສຸດ. ດ້ວຍເຫດຜົນນີ້, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ສຸດທີ່ຈະຄວບຄຸມການພັດທະນາເຕັກໂນໂລຢີດ້ານການທະຫານຜ່ານສົນທິສັນຍາ, ກົດລະບຽບແລະການລົງໂທດ, ເພື່ອຮັກສາມະນຸດຈາກຄວາມສ່ຽງທີ່ບໍ່ດີຂອງສົງຄາມໂດຍອີງໃສ່ AI.
- ຄວາມປອດໄພດ້ານດິຈິຕອລ: ແຮກເກີເປັນໄພຂົ່ມຂູ່ຕໍ່ຄວາມປອດໄພດ້ານດິຈິຕອລຂອງພວກເຮົາຢູ່ກ່ອນແລ້ວ ແລະຊອບແວ AI ໄດ້ຖືກນຳໃຊ້ແລ້ວສຳລັບການແຮກຂັ້ນສູງ. ດ້ວຍການພັດທະນາຊອບແວດັ່ງກ່າວ, ແຮກເກີຈະມີປະສິດທິພາບຫຼາຍຂຶ້ນໃນການກະທໍາຜິດຂອງພວກເຂົາແລະຕົວຕົນອອນໄລນ໌ຂອງພວກເຮົາຈະມີຄວາມສ່ຽງຕໍ່ການລັກ. ຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນສ່ວນຕົວຂອງທ່ານອາດຈະຖືກທຳລາຍຍິ່ງຂຶ້ນຜ່ານມາລແວທີ່ລະອຽດອ່ອນ, ຂັບເຄື່ອນໂດຍ AI ແລະເຮັດໃຫ້ອັນຕະລາຍຫຼາຍຂຶ້ນຜ່ານການໃຊ້ການຮຽນຮູ້ແບບເລິກເຊິ່ງ. ຈິນຕະນາການເຖິງໂຈນດິຈິຕອລ, ລີ້ຊ່ອນຢູ່ທາງຫຼັງຂອງໂປຣແກມທີ່ທ່ານມັກ, ກາຍເປັນຄົນຂີ້ຄ້ານນັບມື້ນັບຫຼາຍຂຶ້ນ, ຮຽນຮູ້ຈາກຕົວຢ່າງຊີວິດຈິງລ້ານໆຂອງການໃຊ້ຊອບແວ ແລະການສ້າງການລັກເອກະລັກທີ່ຊັບຊ້ອນໂດຍອີງໃສ່ຂໍ້ມູນນັ້ນ.
- ຄວາມປອດໄພທາງດ້ານການເມືອງ: ໃນຊ່ວງເວລາທີ່ວຸ້ນວາຍທີ່ພວກເຮົາອາໄສຢູ່, ຄວາມຢ້ານກົວຂອງຂ່າວປອມແລະການບັນທຶກການສໍ້ໂກງແມ່ນຂ້ອນຂ້າງສົມເຫດສົມຜົນ. AI ສາມາດສ້າງຄວາມເສຍຫາຍຫຼາຍໂດຍການໂຄສະນາເຜີຍແຜ່ຂໍ້ມູນຂ່າວສານແບບອັດຕະໂນມັດ, ເຊິ່ງສາມາດເປັນອັນຕະລາຍທີ່ສຸດໃນລະຫວ່າງການເລືອກຕັ້ງ.
ດັ່ງນັ້ນ, ເພື່ອສະຫຼຸບ, ພວກເຮົາອາດຈະຖາມຕົວເອງວ່າປັນຍາປະດິດສາມາດສ້າງຄວາມເສຍຫາຍຕໍ່ພວກເຮົາຫຼາຍປານໃດແລະມັນເປັນອັນຕະລາຍຫຼາຍກວ່າທີ່ດີຕໍ່ມະນຸດ.
ຜູ້ຊ່ຽວຊານກ່າວວ່າການພັດທະນາດ້ານຈັນຍາບັນແລະອົງການກົດລະບຽບຈະມີບົດບາດສໍາຄັນໃນເວລາທີ່ມັນມາກັບການແກ້ໄຂຂໍ້ເສຍທີ່ປັນຍາປະດິດອາດຈະເຮັດໃຫ້ເກີດຊີວິດຂອງພວກເຮົາ. ສິ່ງໃດກໍ່ຕາມທີ່ເກີດຂື້ນ, ພວກເຮົາແນ່ໃຈວ່າມັນຈະມີຜົນກະທົບອັນໃຫຍ່ຫຼວງຕໍ່ໂລກຂອງພວກເຮົາໃນອະນາຄົດ.
ຊອບແວການຮັບຮູ້ສຽງເວົ້າ, ໂດຍອີງໃສ່ໂປໂຕຄອນ AI ຂັ້ນສູງໄດ້ຖືກນໍາໃຊ້ແລ້ວ, ແລະມັນນໍາເອົາຂໍ້ດີຫຼາຍມາສູ່ໂລກທຸລະກິດ: ຂະບວນການເຮັດວຽກແມ່ນໄວແລະງ່າຍດາຍກວ່າ. Gglot ເປັນຜູ້ນໃຫຍ່ໃນດ້ານນີ້ແລະພວກເຮົາກໍາລັງລົງທຶນຫຼາຍໃນການພັດທະນາເຕັກໂນໂລຢີຂອງພວກເຮົາຕື່ມອີກ.