ຄວາມສ່ຽງທີ່ເປັນໄປໄດ້ຂອງປັນຍາປະດິດ

ຄວາມສ່ຽງທີ່ເປັນໄປໄດ້ຂອງປັນຍາທຽມແມ່ນຫຍັງ?

ປັນຍາປະດິດ, ຫຼື AI ຍ້ອນວ່າມັນຖືກກ່າວເຖິງເລື້ອຍໆ, ແມ່ນຫົວຂໍ້ທີ່ໄດ້ຮັບການປຶກສາຫາລືຫຼາຍໃນທົດສະວັດທີ່ຜ່ານມາ. ມັນກໍາລັງພັດທະນາຢ່າງໄວວາ, ເຮັດໃຫ້ຂະບວນການເຮັດວຽກຂອງທຸລະກິດສ່ວນໃຫຍ່ງ່າຍຂຶ້ນແລະມີປະສິດທິພາບຫຼາຍຂຶ້ນ. ເຖິງແມ່ນວ່າໃນຊີວິດປະຈໍາວັນຂອງຫຼາຍໆຄົນ AI ໄດ້ສະແດງໃຫ້ເຫັນທ່າແຮງອັນໃຫຍ່ຫຼວງແລະໄດ້ຖືກປະຕິບັດແລ້ວໃນຫຼາຍໆ app ທີ່ແຕກຕ່າງກັນ, ເຮັດໃຫ້ຊີວິດງ່າຍຂຶ້ນແລະສັບສົນຫນ້ອຍ. AI ໄດ້ນໍາເອົາຂໍ້ໄດ້ປຽບຫຼາຍຢ່າງມາສູ່ພວກເຮົາ ແລະວິທະຍາສາດກໍາລັງເປີດທາງໃຫ້ເກີດມີຫຼາຍຂຶ້ນ ດັ່ງນັ້ນມັນປອດໄພທີ່ຈະເວົ້າວ່າ AI ຈະເປັນສິ່ງທີ່ຂາດບໍ່ໄດ້ໃນອະນາຄົດ, ຖ້າມັນບໍ່ມີແລ້ວ.

ແຕ່ວ່າທຸກຫຼຽນມີສອງດ້ານ, AI ກໍ່ຄືກັນ. ເທກໂນໂລຍີນີ້ຍັງມາພ້ອມກັບຄວາມສ່ຽງແລະຂໍ້ເສຍທີ່ອາດຈະເກີດຂື້ນ. ຜູ້ຊ່ຽວຊານແລະຜູ້ຄຸ້ມຄອງດ້ານວິຊາການຈໍານວນຫຼາຍຂອງເວລາຂອງພວກເຮົາກໍາລັງສະແດງຄວາມກັງວົນຂອງເຂົາເຈົ້າກ່ຽວກັບບັນຫາທີ່ AI ອາດຈະເຮັດໃຫ້ເກີດໃນອະນາຄົດແລະດັ່ງນັ້ນພວກເຮົາຈໍາເປັນຕ້ອງລະມັດລະວັງເພື່ອແກ້ໄຂບັນຫາເຫຼົ່ານີ້ໃນຂະນະທີ່ພວກເຂົາຍັງສາມາດແກ້ໄຂໄດ້. ພວກເຮົາຫມາຍຄວາມວ່າແນວໃດ?

ມີຫຼາຍສິ່ງທີ່ຕ້ອງພິຈາລະນາກ່ຽວກັບບັນຫາສະເພາະເຫຼົ່ານີ້. ໃນບົດຄວາມນີ້ພວກເຮົາຈະພະຍາຍາມອະທິບາຍບາງຄວາມສ່ຽງທີ່ການພັດທະນາໄວຂອງ AI ອາດຈະນໍາມາສູ່ໂລກຂອງພວກເຮົາແລະສິ່ງທີ່ຈໍາເປັນຕ້ອງໄດ້ປະຕິບັດເພື່ອຕິດຕາມແລະນໍາພາຄວາມກ້າວຫນ້າໃນທິດທາງທີ່ຖືກຕ້ອງ.

1. ວຽກ

ບໍ່ມີຫົວຂໍ້ 1 3

ພວກເຮົາແນ່ໃຈວ່າທຸກຄົນມີໂອກາດທີ່ຈະໄດ້ຍິນຫຼືອ່ານກ່ຽວກັບການປິ່ນປົວທີ່ມີທ່າແຮງທີ່ເຄື່ອງຈັກແລະອັດຕະໂນມັດອາດຈະນໍາສະເຫນີໃຫ້ໂຮງຮຽນເກົ່າ, ສະຖານທີ່ເຮັດວຽກຂອງມະນຸດ. ບາງ​ຄົນ​ອາດ​ຈະ​ທົນ​ທຸກ​ກັບ​ຄວາມ​ກັງ​ວົນ​ຫຼາຍ​ລະ​ດັບ​ກ່ຽວ​ກັບ​ເຄື່ອງ​ທີ່​ລັກ​ເອົາ​ວຽກ​ເຮັດ​ງານ​ທຳ​ຂອງ​ເຂົາ​ເຈົ້າ. ຄວາມ​ຢ້ານ​ກົວ​ນັ້ນ​ອາດ​ຈະ​ໄດ້​ຮັບ​ການ​ສ້າງ​ຕັ້ງ​ຂຶ້ນ​ຢ່າງ​ດີ, ອັດ​ຕະ​ໂນ​ມັດ​ວຽກ​ເຮັດ​ງານ​ທໍາ​ເປັນ​ຄວາມ​ສ່ຽງ​ທີ່​ຍິ່ງ​ໃຫຍ່​ສໍາ​ລັບ​ປະ​ຊາ​ຊົນ​ຈໍາ​ນວນ​ຫຼາຍ: ປະ​ມານ 25% ຂອງ​ຄົນ​ອາ​ເມລິ​ກາ​ອາດ​ຈະ​ສູນ​ເສຍ​ວຽກ​ເຮັດ​ງານ​ທໍາ​ຂອງ​ເຂົາ​ເຈົ້າ​ເນື່ອງ​ຈາກ​ວ່າ​ບາງ​ຈຸດ​ເຄື່ອງ​ຈັກ​ສາ​ມາດ​ທົດ​ແທນ​ໃຫ້​ເຂົາ​ເຈົ້າ. ໂດຍສະເພາະທີ່ມີຄວາມສ່ຽງແມ່ນຕໍາແຫນ່ງທີ່ມີຄ່າຈ້າງຕໍ່າທີ່ບຸກຄົນໃດຫນຶ່ງເຮັດວຽກຊ້ໍາຊ້ອນ, ເຊັ່ນວຽກບໍລິຫານຫຼືບໍລິການອາຫານ. ຢ່າງໃດກໍ່ຕາມ, ເຖິງແມ່ນວ່າຜູ້ຮຽນຈົບມະຫາວິທະຍາໄລບາງຄົນກໍ່ມີຄວາມສ່ຽງ, ຂັ້ນຕອນການຮຽນຮູ້ເຄື່ອງຈັກຂັ້ນສູງອາດຈະສາມາດທົດແທນພວກເຂົາໃນບາງຕໍາແຫນ່ງວຽກທີ່ສັບສົນຍ້ອນວ່າພວກເຂົາກາຍເປັນທີ່ຫລອມໂລຫະ, ໂດຍສະເພາະໂດຍຜ່ານການນໍາໃຊ້ເຄືອຂ່າຍ neural ແລະການຮຽນຮູ້ເລິກ.

ແຕ່ພວກເຮົາບໍ່ສາມາດເວົ້າໄດ້ແທ້ໆວ່າຫຸ່ນຍົນຈະຍູ້ມະນຸດອອກຈາກຕະຫຼາດວຽກຢ່າງສົມບູນ. ພະນັກງານພຽງແຕ່ຈະຕ້ອງປັບຕົວ, ສຶກສາອົບຮົມຕົນເອງແລະຊອກຫາວິທີການເຮັດວຽກໂດຍການຮ່ວມມືກັບ AI, ເຮັດໃຫ້ການນໍາໃຊ້ທີ່ດີທີ່ສຸດທີ່ເປັນໄປໄດ້ຂອງປະສິດທິພາບແລະເຫດຜົນກົນຈັກ. AI ຍັງບໍ່ສົມບູນແບບ, ສໍາລັບຕົວຢ່າງ, ມັນບໍ່ສາມາດໂທຫາຄໍາຕັດສິນໄດ້, ດັ່ງນັ້ນປັດໄຈຂອງມະນຸດຈະຍັງຄົງເປັນການຕັດສິນໃຈໃນເວລາທີ່ເຮັດວຽກຄຽງຄູ່ກັບເຄື່ອງຈັກ.

ມີເທກໂນໂລຍີທີ່ອີງໃສ່ AI ຫຼາຍທີ່ໃຊ້ວິທີແກ້ໄຂອັດຕະໂນມັດທີ່ຕ້ອງໄດ້ຮັບການຝຶກອົບຮົມແລະການຝຶກອົບຮົມນີ້ແມ່ນຂຶ້ນກັບການປ້ອນຂໍ້ມູນຂອງມະນຸດ. ຕົວຢ່າງທີ່ດີສໍາລັບການນີ້ແມ່ນການແປພາສາດ້ວຍເຄື່ອງຈັກທີ່ໄດ້ຮັບຂໍ້ມູນຈາກການແປພາສາຈໍານວນຫລາຍທີ່ສ້າງຂຶ້ນໂດຍມະນຸດ. ຕົວຢ່າງທີ່ດີອີກອັນໜຶ່ງແມ່ນຊອບແວການຖອດຂໍ້ຄວາມທີ່ໄດ້ຮັບຂໍ້ມູນການຝຶກອົບຮົມຈາກການຖອດຂໍ້ຄວາມທີ່ຖືກຕ້ອງໂດຍຜູ້ຖອດຂໍ້ຄວາມຈາກມະນຸດມືອາຊີບ. ດ້ວຍວິທີນີ້, ຊອບແວໄດ້ຮັບການປັບປຸງເທື່ອລະກ້າວ, ປັບປຸງສູດການຄິດໄລ່ຂອງມັນໂດຍຜ່ານຕົວຢ່າງຊີວິດຈິງ. ຜູ້ຖອດຂໍ້ຄວາມຂອງມະນຸດໄດ້ຮັບຜົນປະໂຫຍດຈາກຊອບແວເພາະວ່າມັນຊ່ວຍໃຫ້ພວກເຂົາເຮັດການຖອດຂໍ້ຄວາມໄວຂຶ້ນ. ຊອບແວຈະສ້າງສະບັບຮ່າງສະບັບຮ່າງຂອງຂໍ້ຄວາມຖອດຈາກສຽງ, ເຊິ່ງຖືກແກ້ໄຂ ແລະແກ້ໄຂໂດຍຕົວຖອດຂໍ້ຄວາມ. ນີ້ຊ່ວຍປະຢັດເວລາຫຼາຍ, ແລະຫມາຍຄວາມວ່າໃນທີ່ສຸດຜະລິດຕະພັນສຸດທ້າຍຈະຖືກຈັດສົ່ງໄວແລະຈະຖືກຕ້ອງຫຼາຍຂຶ້ນ.

2. ບັນຫາຄວາມລຳອຽງ

ສິ່ງທີ່ຍິ່ງໃຫຍ່ກ່ຽວກັບສູດການຄິດໄລ່ແມ່ນວ່າພວກເຂົາສະເຫມີຕັດສິນໃຈທີ່ຍຸດຕິທໍາ, ບໍ່ລໍາອຽງ, ກົງກັນຂ້າມກັບມະນຸດທີ່ມີຫົວຂໍ້ແລະອາລົມ. ຫຼືພວກເຂົາ? ຄວາມຈິງແມ່ນວ່າຂະບວນການຕັດສິນໃຈຂອງຊອບແວອັດຕະໂນມັດໃດໆແມ່ນຂຶ້ນກັບຂໍ້ມູນທີ່ພວກເຂົາໄດ້ຮັບການຝຶກອົບຮົມ. ດັ່ງນັ້ນ, ມີຄວາມສ່ຽງຕໍ່ການຈໍາແນກໃນບາງໂອກາດເມື່ອຕົວຢ່າງບາງສ່ວນຂອງປະຊາກອນບໍ່ໄດ້ເປັນຕົວແທນພຽງພໍໃນຂໍ້ມູນທີ່ໃຊ້. ຊອບແວການຮັບຮູ້ໃບໜ້າກຳລັງຖືກສືບສວນຢູ່ແລ້ວສຳລັບບາງບັນຫາເຫຼົ່ານີ້, ກໍລະນີຄວາມລຳອຽງເກີດຂຶ້ນແລ້ວ.

ຕົວຢ່າງອັນດີອັນໜຶ່ງຂອງຄວາມລຳອຽງຂອງປັນຍາປະດິດແມ່ນ COMPAS (Corectional Offender Management Profiling for Alternative Sanctions). ນີ້​ແມ່ນ​ເປັນ​ເຄື່ອງ​ມື​ການ​ປະ​ເມີນ​ຄວາມ​ສ່ຽງ​ແລະ​ຄວາມ​ຕ້ອງ​ການ​ສໍາ​ລັບ​ການ​ຄາດ​ຄະ​ເນ​ຄວາມ​ສ່ຽງ recidivism ໃນ​ບັນ​ດາ​ຜູ້​ກະ​ທໍາ​ຜິດ​. ເຄື່ອງມືທີ່ອີງໃສ່ algorithm ນີ້ໄດ້ຖືກສືບສວນ ແລະຜົນໄດ້ຮັບໄດ້ສະແດງໃຫ້ເຫັນວ່າຂໍ້ມູນຂອງ COMPAS ມີຄວາມລໍາອຽງທາງດ້ານເຊື້ອຊາດ. ຕົວຢ່າງ, ອີງຕາມຂໍ້ມູນ, ຜູ້ຖືກກ່າວຟ້ອງໃນອາຟຣິກາ - ອາເມລິກາມີແນວໂນ້ມທີ່ຈະຖືກຕັດສິນທີ່ບໍ່ຖືກຕ້ອງວ່າມີຄວາມສ່ຽງສູງຕໍ່ການຖືກຂົ່ມເຫັງຫຼາຍກ່ວາເຊື້ອຊາດອື່ນໆ. ສູດການຄິດໄລ່ຍັງມີແນວໂນ້ມທີ່ຈະເຮັດຜິດກົງກັນຂ້າມກັບຄົນເຊື້ອຊາດຂາວ.

ດັ່ງນັ້ນ, ສິ່ງທີ່ເກີດຂຶ້ນທີ່ນີ້? ສູດການຄິດໄລ່ແມ່ນຂຶ້ນກັບຂໍ້ມູນ, ດັ່ງນັ້ນຖ້າຂໍ້ມູນມີຄວາມລໍາອຽງ, ຊອບແວຈະໃຫ້ຜົນໄດ້ຮັບທີ່ມີຄວາມລໍາອຽງເຊັ່ນດຽວກັນ. ບາງຄັ້ງມັນຍັງມີສິ່ງທີ່ຕ້ອງເຮັດກັບວິທີການເກັບກໍາຂໍ້ມູນ.

ເທັກໂນໂລຍີການຮັບຮູ້ສຽງເວົ້າແບບອັດຕະໂນມັດຍັງສາມາດມີຄວາມລຳອຽງຂື້ນກັບເພດ ຫຼືເຊື້ອຊາດ ເນື່ອງຈາກຄວາມຈິງທີ່ວ່າຂໍ້ມູນການຝຶກອົບຮົມບໍ່ຈຳເປັນຈະຕ້ອງຖືກເລືອກໃນເລື່ອງທີ່ຈະຮັບປະກັນຄວາມລວມພຽງພໍ.

3. ຄວາມກັງວົນກ່ຽວກັບຄວາມປອດໄພ

ບໍ່ມີຫົວຂໍ້ 2 2

ມີບັນຫາບາງຢ່າງກ່ຽວກັບປັນຍາປະດິດທີ່ເປັນອັນຕະລາຍຫຼາຍທີ່ພວກເຂົາສາມາດນໍາໄປສູ່ອຸປະຕິເຫດ. ຕົວຢ່າງທີ່ໂດດເດັ່ນອີກອັນໜຶ່ງຂອງເທັກໂນໂລຍີ AI ທີ່ນຳໃຊ້ແມ່ນລົດທີ່ຂັບລົດເອງ. ຜູ້ຊ່ຽວຊານຫຼາຍຄົນເຊື່ອວ່ານີ້ແມ່ນອະນາຄົດຂອງການຂົນສົ່ງ. ​ແຕ່​ສິ່ງ​ສຳຄັນ​ທີ່​ກີດຂວາງ​ການ​ນຳ​ໃຊ້​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ​ເຂົ້າ​ໄປ​ໃນ​ການ​ສັນຈອນ​ໃນ​ທັນ​ທີ​ນັ້ນ​ແມ່ນ​ຄວາມ​ຜິດ​ປົກກະຕິ​ທີ່​ອາດ​ເປັນ​ອັນຕະລາຍ​ຕໍ່​ຊີວິດ​ຜູ້​ໂດຍສານ​ແລະ​ຄົນ​ຍ່າງ. ການໂຕ້ວາທີກ່ຽວກັບໄພຂົ່ມຂູ່ທີ່ຍານພາຫະນະປົກຄອງຕົນເອງສາມາດເກີດຂື້ນໃນຖະຫນົນຫົນທາງແມ່ນຍັງມີຕົວຈິງຫຼາຍ. ມີ​ຜູ້​ຄົນ​ທີ່​ຄິດ​ວ່າ​ອາດ​ຈະ​ເກີດ​ອຸ​ບັດ​ຕິ​ເຫດ​ໜ້ອຍ​ລົງ ຖ້າ​ຫາກ​ລົດ​ທີ່​ຂັບ​ດ້ວຍ​ຕົນ​ເອງ​ໄດ້​ຮັບ​ອະນຸຍາດ​ໃຫ້​ຂີ່​ຢູ່​ເທິງ​ຖະໜົນ. ໃນທາງກົງກັນຂ້າມ, ມີການສຶກສາທີ່ສະແດງໃຫ້ເຫັນວ່າພວກເຂົາອາດຈະເຮັດໃຫ້ເກີດອຸປະຕິເຫດຫຼາຍ, ເພາະວ່າການປະຕິບັດຫຼາຍຢ່າງຂອງພວກມັນຈະອີງໃສ່ຄວາມມັກທີ່ຜູ້ຂັບຂີ່ກໍານົດ. ດຽວນີ້ມັນຂຶ້ນກັບຜູ້ອອກແບບທີ່ຈະເລືອກລະຫວ່າງຄວາມປອດໄພ ແລະຊີວິດຂອງຄົນ ແລະຄວາມມັກຂອງຜູ້ຂັບຂີ່ (ເຊັ່ນ: ຄວາມໄວສະເລ່ຍ ແລະນິໄສການຂັບຂີ່ອື່ນໆ). ເປົ້າຫມາຍຕົ້ນຕໍຂອງລົດທີ່ຂັບລົດດ້ວຍຕົນເອງໃນກໍລະນີໃດກໍ່ຕາມຄວນຈະເປັນການຫຼຸດຜ່ອນອຸປະຕິເຫດລົດໃຫຍ່, ໂດຍຜ່ານການປະຕິບັດລະບົບ AI ທີ່ມີປະສິດທິພາບແລະເຊັນເຊີຂັ້ນສູງທີ່ສາມາດກວດພົບແລະແມ້ກະທັ້ງຄາດຄະເນສະຖານະການການຈະລາຈອນທີ່ເປັນໄປໄດ້. ຢ່າງໃດກໍ່ຕາມ, ຊີວິດຈິງແມ່ນສະເຫມີສັບສົນກັບໂຄງການໃດກໍ່ຕາມ, ດັ່ງນັ້ນຂໍ້ຈໍາກັດຂອງເຕັກໂນໂລຢີນີ້ຍັງຄົງເປັນຫນຶ່ງໃນປັດໃຈຈໍາກັດສໍາລັບການປະຕິບັດຢ່າງກວ້າງຂວາງຂອງມັນ. ບັນຫາອີກອັນຫນຶ່ງແມ່ນປັດໃຈຄວາມໄວ້ວາງໃຈ. ສໍາລັບປະຊາຊົນຈໍານວນຫຼາຍທີ່ມີປະສົບການຂັບລົດຫຼາຍປີແລະຫຼາຍປີ, ການວາງຄວາມໄວ້ວາງໃຈທັງຫມົດເຂົ້າໄປໃນມືດິຈິຕອນອາດຈະຖືກເຫັນວ່າເປັນການກະທໍາຂອງສັນຍາລັກຂອງແນວໂນ້ມດິຈິຕອນ. ໃນກໍລະນີໃດກໍ່ຕາມ, ຈົນກ່ວາທັງຫມົດນີ້ຖືກແກ້ໄຂ, ບາງວິທີແກ້ໄຂເຕັກໂນໂລຢີທີ່ກ້າວຫນ້າໄດ້ຖືກປະຕິບັດແລ້ວໃນລົດໃຫມ່, ແລະຜູ້ຂັບຂີ່ຂອງມະນຸດສາມາດໄດ້ຮັບຜົນປະໂຫຍດຈາກເຊັນເຊີຕ່າງໆ, ການແກ້ໄຂເບກແລະການຄວບຄຸມການຂັບຂີ່.

4. ຈຸດປະສົງທີ່ເປັນອັນຕະລາຍ

ເທກໂນໂລຍີຄວນຮັບໃຊ້ຄວາມຕ້ອງການຂອງຄົນແລະຖືກນໍາໃຊ້ເພື່ອເຮັດໃຫ້ຊີວິດຂອງພວກເຂົາງ່າຍຂຶ້ນ, ມີຄວາມສຸກຫຼາຍແລະມັນຄວນຈະປະຫຍັດເວລາອັນມີຄ່າຂອງທຸກໆຄົນ. ແຕ່ບາງຄັ້ງເທັກໂນໂລຍີ AI ຍັງຖືກໃຊ້ເພື່ອຈຸດປະສົງທີ່ເປັນອັນຕະລາຍ, ໃນລັກສະນະທີ່ມີຄວາມສ່ຽງທີ່ສໍາຄັນຕໍ່ຄວາມປອດໄພທາງດ້ານຮ່າງກາຍ, ດິຈິຕອນແລະທາງດ້ານການເມືອງຂອງພວກເຮົາ.

  • ຄວາມປອດໄພທາງຮ່າງກາຍ: ຄວາມສ່ຽງທີ່ອາດເກີດຂຶ້ນອັນໜຶ່ງຂອງ AI, ທີ່ຟັງແລ້ວເປັນເລື່ອງທີ່ໜ້າຕື່ນຕາຕື່ນໃຈໃນຕອນທຳອິດ ແລະ ອາດຈະເຮັດໃຫ້ເຈົ້າເຈັບກະດູກຄືສົງຄາມທີ່ອາດຈະເກີດຂຶ້ນລະຫວ່າງປະເທດທີ່ກ້າວໜ້າທາງດ້ານເທັກໂນໂລຍີ, ດຳເນີນໂດຍລະບົບອາວຸດທີ່ເປັນເອກະລາດທີ່ມີໂຄງການຂ້າໃນລັກສະນະທີ່ມີປະສິດທິພາບ ແລະໂຫດຮ້າຍທີ່ສຸດ. ດ້ວຍເຫດຜົນນີ້, ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ສຸດທີ່ຈະຄວບຄຸມການພັດທະນາເຕັກໂນໂລຢີດ້ານການທະຫານຜ່ານສົນທິສັນຍາ, ກົດລະບຽບແລະການລົງໂທດ, ເພື່ອຮັກສາມະນຸດຈາກຄວາມສ່ຽງທີ່ບໍ່ດີຂອງສົງຄາມໂດຍອີງໃສ່ AI.
  • ຄວາມປອດໄພດ້ານດິຈິຕອລ: ແຮກເກີເປັນໄພຂົ່ມຂູ່ຕໍ່ຄວາມປອດໄພດ້ານດິຈິຕອລຂອງພວກເຮົາຢູ່ກ່ອນແລ້ວ ແລະຊອບແວ AI ໄດ້ຖືກນຳໃຊ້ແລ້ວສຳລັບການແຮກຂັ້ນສູງ. ດ້ວຍການພັດທະນາຊອບແວດັ່ງກ່າວ, ແຮກເກີຈະມີປະສິດທິພາບຫຼາຍຂຶ້ນໃນການກະທໍາຜິດຂອງພວກເຂົາແລະຕົວຕົນອອນໄລນ໌ຂອງພວກເຮົາຈະມີຄວາມສ່ຽງຕໍ່ການລັກ. ຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນສ່ວນຕົວຂອງທ່ານອາດຈະຖືກທຳລາຍຍິ່ງຂຶ້ນຜ່ານມາລແວທີ່ລະອຽດອ່ອນ, ຂັບເຄື່ອນໂດຍ AI ແລະເຮັດໃຫ້ອັນຕະລາຍຫຼາຍຂຶ້ນຜ່ານການໃຊ້ການຮຽນຮູ້ແບບເລິກເຊິ່ງ. ຈິນຕະນາການເຖິງໂຈນດິຈິຕອລ, ລີ້ຊ່ອນຢູ່ທາງຫຼັງຂອງໂປຣແກມທີ່ທ່ານມັກ, ກາຍເປັນຄົນຂີ້ຄ້ານນັບມື້ນັບຫຼາຍຂຶ້ນ, ຮຽນຮູ້ຈາກຕົວຢ່າງຊີວິດຈິງລ້ານໆຂອງການໃຊ້ຊອບແວ ແລະການສ້າງການລັກເອກະລັກທີ່ຊັບຊ້ອນໂດຍອີງໃສ່ຂໍ້ມູນນັ້ນ.
ບໍ່ມີຫົວຂໍ້ 3 2
  • ຄວາມປອດໄພທາງດ້ານການເມືອງ: ໃນຊ່ວງເວລາທີ່ວຸ້ນວາຍທີ່ພວກເຮົາອາໄສຢູ່, ຄວາມຢ້ານກົວຂອງຂ່າວປອມແລະການບັນທຶກການສໍ້ໂກງແມ່ນຂ້ອນຂ້າງສົມເຫດສົມຜົນ. AI ສາມາດສ້າງຄວາມເສຍຫາຍຫຼາຍໂດຍການໂຄສະນາເຜີຍແຜ່ຂໍ້ມູນຂ່າວສານແບບອັດຕະໂນມັດ, ເຊິ່ງສາມາດເປັນອັນຕະລາຍທີ່ສຸດໃນລະຫວ່າງການເລືອກຕັ້ງ.

ດັ່ງນັ້ນ, ເພື່ອສະຫຼຸບ, ພວກເຮົາອາດຈະຖາມຕົວເອງວ່າປັນຍາປະດິດສາມາດສ້າງຄວາມເສຍຫາຍຕໍ່ພວກເຮົາຫຼາຍປານໃດແລະມັນເປັນອັນຕະລາຍຫຼາຍກວ່າທີ່ດີຕໍ່ມະນຸດ.

ຜູ້ຊ່ຽວຊານກ່າວວ່າການພັດທະນາດ້ານຈັນຍາບັນແລະອົງການກົດລະບຽບຈະມີບົດບາດສໍາຄັນໃນເວລາທີ່ມັນມາກັບການແກ້ໄຂຂໍ້ເສຍທີ່ປັນຍາປະດິດອາດຈະເຮັດໃຫ້ເກີດຊີວິດຂອງພວກເຮົາ. ສິ່ງໃດກໍ່ຕາມທີ່ເກີດຂື້ນ, ພວກເຮົາແນ່ໃຈວ່າມັນຈະມີຜົນກະທົບອັນໃຫຍ່ຫຼວງຕໍ່ໂລກຂອງພວກເຮົາໃນອະນາຄົດ.

ຊອບແວການຮັບຮູ້ສຽງເວົ້າ, ໂດຍອີງໃສ່ໂປໂຕຄອນ AI ຂັ້ນສູງໄດ້ຖືກນໍາໃຊ້ແລ້ວ, ແລະມັນນໍາເອົາຂໍ້ດີຫຼາຍມາສູ່ໂລກທຸລະກິດ: ຂະບວນການເຮັດວຽກແມ່ນໄວແລະງ່າຍດາຍກວ່າ. Gglot ເປັນຜູ້ນໃຫຍ່ໃນດ້ານນີ້ແລະພວກເຮົາກໍາລັງລົງທຶນຫຼາຍໃນການພັດທະນາເຕັກໂນໂລຢີຂອງພວກເຮົາຕື່ມອີກ.