ความเสี่ยงที่อาจเกิดขึ้นจากปัญญาประดิษฐ์

อะไรคือความเสี่ยงที่อาจเกิดขึ้นจากปัญญาประดิษฐ์?

ปัญญาประดิษฐ์หรือ AI ที่มักเรียกกันว่าเป็นหัวข้อที่มีการพูดคุยกันมากในทศวรรษที่ผ่านมา มีการพัฒนาอย่างรวดเร็ว ทำให้ขั้นตอนการทำงานของธุรกิจส่วนใหญ่ง่ายขึ้นและมีประสิทธิภาพมากขึ้น แม้แต่ในชีวิตประจำวันของหลายๆ คน AI ก็ได้แสดงศักยภาพที่ยอดเยี่ยมและถูกนำไปใช้ในแอพต่างๆ มากมาย ทำให้ชีวิตง่ายขึ้นและซับซ้อนน้อยลง AI นำข้อได้เปรียบมากมายมาสู่เรา และวิทยาศาสตร์กำลังปูทางไปสู่สิ่งอื่นๆ อีกมากมาย ดังนั้นจึงปลอดภัยที่จะกล่าวว่า AI จะเป็นสิ่งที่ขาดไม่ได้ในอนาคต หากยังไม่ได้เป็นเช่นนั้น

แต่เช่นเดียวกับเหรียญทุกเหรียญมีสองด้าน AI ก็เช่นกัน เทคโนโลยีนี้ยังมาพร้อมกับความเสี่ยงและข้อเสียที่อาจเกิดขึ้นมากมาย ผู้เชี่ยวชาญและผู้บงการด้านเทคนิคหลายคนในยุคของเรากำลังแสดงความกังวลเกี่ยวกับปัญหาที่ AI ที่อาจเกิดขึ้นในอนาคต ดังนั้นเราจึงจำเป็นต้องระมัดระวังในการแก้ไขปัญหาเหล่านี้ในขณะที่ยังคงสามารถแก้ไขได้ เราหมายถึงอะไรโดยที่?

มีหลายสิ่งที่ต้องพิจารณาเกี่ยวกับปัญหาเฉพาะเหล่านี้ ในบทความนี้ เราจะพยายามอธิบายความเสี่ยงบางประการที่การพัฒนา AI ที่รวดเร็วอย่างน่าทึ่งอาจนำมาสู่โลกของเรา และมาตรการที่จำเป็นต้องดำเนินการเพื่อติดตามและชี้แนะความก้าวหน้านั้นไปในทิศทางที่ถูกต้อง

1. งาน

ไม่มีชื่อ 1 3

เรามั่นใจว่าทุกคนมีโอกาสได้ยินหรืออ่านเกี่ยวกับการปฏิบัติที่อาจเป็นไปได้ที่เครื่องจักรและระบบอัตโนมัติอาจนำเสนอต่อโรงเรียนเก่า สถานที่ทำงานที่ใช้มนุษย์เป็นหลัก บางคนอาจมีความวิตกกังวลในระดับต่างๆ เกี่ยวกับเครื่องจักรที่ขโมยงานของตน ความกลัวดังกล่าวอาจมีรากฐานมาอย่างดี งานอัตโนมัติถือเป็นความเสี่ยงอย่างมากสำหรับคนจำนวนมาก: ประมาณ 25% ของชาวอเมริกันอาจตกงานเพราะในบางจุดเครื่องจักรจะเข้ามาแทนที่พวกเขาได้ ตำแหน่งที่มีความเสี่ยงเป็นพิเศษคือตำแหน่งงานที่ได้รับค่าจ้างต่ำซึ่งบุคคลต้องทำงานซ้ำๆ เช่น งานธุรการหรืองานบริการด้านอาหาร อย่างไรก็ตาม แม้แต่ผู้สำเร็จการศึกษาจากมหาวิทยาลัยบางคนก็มีความเสี่ยง อัลกอริธึมการเรียนรู้ของเครื่องขั้นสูงอาจเข้ามาแทนที่ตำแหน่งงานที่ซับซ้อนบางตำแหน่งได้ เนื่องจากมีการปรับปรุงให้ดีขึ้น โดยเฉพาะอย่างยิ่งผ่านการใช้โครงข่ายประสาทเทียมและการเรียนรู้เชิงลึก

แต่เราไม่สามารถพูดได้จริงๆ ว่าหุ่นยนต์จะผลักมนุษย์ออกจากตลาดงานโดยสิ้นเชิง พนักงานเพียงแค่ต้องปรับตัว ให้ความรู้ตัวเอง และหาวิธีทำงานโดยร่วมมือกับ AI ใช้ประโยชน์จากประสิทธิภาพและตรรกะทางกลไกให้เกิดประโยชน์สูงสุด AI ยังไม่สมบูรณ์แบบ เช่น ไม่สามารถตัดสินได้ ดังนั้น ปัจจัยด้านมนุษย์จะยังคงมีความสำคัญเมื่อทำงานร่วมกับเครื่องจักร

มีเทคโนโลยีที่ใช้ AI มากมายที่ใช้โซลูชันอัตโนมัติซึ่งจำเป็นต้องได้รับการฝึกอบรม และการฝึกอบรมนี้ขึ้นอยู่กับข้อมูลของมนุษย์ ตัวอย่างที่ดีสำหรับกรณีนี้คือการแปลด้วยคอมพิวเตอร์ซึ่งได้รับข้อมูลจากการแปลที่มนุษย์สร้างขึ้นจำนวนมาก อีกตัวอย่างที่ดีคือซอฟต์แวร์ถอดเสียงที่ได้รับข้อมูลการฝึกอบรมจากการถอดเสียงที่แม่นยำโดยนักถอดเสียงมืออาชีพ วิธีนี้ทำให้ซอฟต์แวร์ได้รับการปรับปรุงทีละน้อย โดยปรับแต่งอัลกอริธึมผ่านตัวอย่างในชีวิตจริง ผู้ถอดเสียงที่เป็นมนุษย์จะได้รับประโยชน์จากซอฟต์แวร์นี้ เนื่องจากช่วยให้สามารถถอดเสียงได้รวดเร็วยิ่งขึ้น ซอฟต์แวร์จะสร้างบทถอดเสียงเวอร์ชันร่างคร่าวๆ ซึ่งจากนั้นผู้ถอดเสียงจะแก้ไขและแก้ไข ซึ่งช่วยประหยัดเวลาได้มาก และหมายความว่าในท้ายที่สุดแล้วผลิตภัณฑ์ขั้นสุดท้ายจะถูกจัดส่งเร็วขึ้นและแม่นยำยิ่งขึ้น

2. ปัญหาเรื่องอคติ

ข้อดีของอัลกอริธึมก็คือ อัลกอริธึมมักจะทำการตัดสินใจอย่างยุติธรรมและปราศจากอคติ ตรงกันข้ามกับการตัดสินใจโดยอาศัยอัตวิสัยและอารมณ์ของมนุษย์อย่างชัดเจน หรือพวกเขา? ความจริงก็คือกระบวนการตัดสินใจของซอฟต์แวร์อัตโนมัติขึ้นอยู่กับข้อมูลที่ได้รับการฝึกอบรม ดังนั้นจึงมีความเสี่ยงที่จะถูกเลือกปฏิบัติในบางโอกาส เช่น ประชากรบางกลุ่มไม่เพียงพอในข้อมูลที่ใช้ ซอฟต์แวร์จดจำใบหน้ากำลังได้รับการตรวจสอบสำหรับปัญหาเหล่านี้บางส่วน ซึ่งมีกรณีของอคติเกิดขึ้นแล้ว

ตัวอย่างที่ดีอย่างหนึ่งของความลำเอียงของปัญญาประดิษฐ์คือ COMPAS (โปรไฟล์การจัดการผู้กระทำความผิดในราชทัณฑ์เพื่อการลงโทษทางเลือก) นี่เป็นเครื่องมือประเมินความเสี่ยงและความต้องการสำหรับการทำนายความเสี่ยงจากการกระทำผิดซ้ำในหมู่ผู้กระทำความผิด เครื่องมือที่ใช้อัลกอริทึมนี้ได้รับการตรวจสอบและผลลัพธ์แสดงให้เห็นว่าข้อมูล COMPAS มีอคติทางเชื้อชาติอย่างร้ายแรง ตัวอย่างเช่น จากข้อมูลดังกล่าว จำเลยชาวแอฟริกันอเมริกันมีแนวโน้มที่จะถูกตัดสินอย่างไม่ถูกต้องว่ามีความเสี่ยงต่อการกระทำผิดซ้ำมากกว่าเชื้อชาติอื่นๆ อัลกอริธึมยังมีแนวโน้มที่จะทำผิดพลาดตรงกันข้ามกับคนเชื้อชาติขาว

แล้วเกิดอะไรขึ้นที่นี่? อัลกอริธึมขึ้นอยู่กับข้อมูล ดังนั้นหากข้อมูลมีอคติ ซอฟต์แวร์ก็มีแนวโน้มที่จะให้ผลลัพธ์ที่มีอคติเช่นกัน บางครั้งก็เกี่ยวข้องกับวิธีการรวบรวมข้อมูลด้วย

เทคโนโลยีการรู้จำเสียงอัตโนมัติอาจมีอคติโดยขึ้นอยู่กับเพศหรือเชื้อชาติ เนื่องจากข้อมูลการฝึกอบรมไม่จำเป็นต้องเลือกในเรื่องที่จะรับประกันความครอบคลุมที่เพียงพอ

3. ข้อกังวลด้านความปลอดภัย

ไม่มีชื่อ 2 2

มีปัญหาบางอย่างเกี่ยวกับปัญญาประดิษฐ์ที่เป็นอันตรายมากจนสามารถนำไปสู่อุบัติเหตุได้ ตัวอย่างที่โดดเด่นอย่างหนึ่งของเทคโนโลยี AI ที่ประยุกต์คือรถยนต์ที่ขับเคลื่อนด้วยตนเอง ผู้เชี่ยวชาญหลายคนเชื่อว่านี่คืออนาคตของการคมนาคม แต่สิ่งสำคัญที่ขัดขวางการนำรถยนต์ไร้คนขับไปใช้ในการจราจรในทันทีคือการทำงานผิดปกติซึ่งอาจเป็นอันตรายต่อชีวิตของผู้โดยสารและคนเดินถนน การถกเถียงเรื่องภัยคุกคามที่ยานพาหนะไร้คนขับอาจเกิดขึ้นบนท้องถนนยังคงเป็นเรื่องจริง มีหลายคนที่คิดว่าอุบัติเหตุจะน้อยลงหากอนุญาตให้มีรถยนต์ขับเคลื่อนด้วยตนเองบนท้องถนน ในทางกลับกัน มีการศึกษาที่แสดงให้เห็นว่าสิ่งเหล่านี้อาจทำให้เกิดการขัดข้องจำนวนมาก เนื่องจากการกระทำหลายอย่างจะขึ้นอยู่กับการตั้งค่าที่ผู้ขับขี่กำหนด ตอนนี้ก็ขึ้นอยู่กับนักออกแบบว่าจะเลือกระหว่างความปลอดภัยกับชีวิตของผู้คนและความชอบของผู้ขี่ (เช่น ความเร็วเฉลี่ยและพฤติกรรมการขับขี่อื่นๆ) เป้าหมายหลักของรถยนต์ที่ขับเคลื่อนด้วยตนเองไม่ว่าในกรณีใดควรเป็นการลดอุบัติเหตุทางรถยนต์ โดยการใช้อัลกอริธึม AI ที่มีประสิทธิภาพและเซ็นเซอร์ขั้นสูงที่สามารถตรวจจับและคาดการณ์สถานการณ์การจราจรที่เป็นไปได้ อย่างไรก็ตาม ชีวิตจริงมักจะซับซ้อนกว่าโปรแกรมใดๆ เสมอ ดังนั้นข้อจำกัดของเทคโนโลยีนี้จึงยังคงเป็นปัจจัยหนึ่งที่จำกัดสำหรับการนำไปใช้อย่างแพร่หลาย ปัญหาอีกประการหนึ่งคือปัจจัยของความไว้วางใจ สำหรับหลายๆ คนที่มีประสบการณ์การขับขี่มานานหลายปี การมอบความไว้วางใจให้กับมือดิจิทัลอาจถูกมองว่าเป็นการยอมจำนนเชิงสัญลักษณ์ต่อเทรนด์ดิจิทัล ไม่ว่าในกรณีใด จนกว่าปัญหาทั้งหมดนี้จะได้รับการแก้ไข โซลูชันทางเทคโนโลยีขั้นสูงบางอย่างได้ถูกนำมาใช้กับรถยนต์รุ่นใหม่แล้ว และผู้ขับขี่ที่เป็นมนุษย์จะได้รับประโยชน์จากเซ็นเซอร์ต่างๆ ระบบช่วยเบรก และระบบควบคุมความเร็วคงที่

4. วัตถุประสงค์ที่เป็นอันตราย

เทคโนโลยีควรตอบสนองความต้องการของผู้คนและนำไปใช้เพื่อทำให้ชีวิตของพวกเขาง่ายขึ้น สนุกสนานยิ่งขึ้น และควรประหยัดเวลาอันมีค่าของทุกคน แต่บางครั้งเทคโนโลยี AI ก็ถูกนำมาใช้เพื่อจุดประสงค์ที่เป็นอันตราย ในลักษณะที่ก่อให้เกิดความเสี่ยงที่สำคัญต่อความมั่นคงทางกายภาพ ดิจิทัล และการเมืองของเรา

  • ความปลอดภัยทางกายภาพ: ความเสี่ยงที่อาจเกิดขึ้นจาก AI ซึ่งฟังดูน่าทึ่งในตอนแรกและอาจทำให้คุณรู้สึกหนาวสั่นคือสงครามที่อาจเกิดขึ้นระหว่างประเทศที่ก้าวหน้าทางเทคโนโลยี ซึ่งดำเนินการโดยระบบอาวุธอัตโนมัติที่ตั้งโปรแกรมให้สังหารอย่างมีประสิทธิภาพและโหดเหี้ยมที่สุด ด้วยเหตุนี้จึงเป็นสิ่งสำคัญอย่างยิ่งที่จะต้องควบคุมการพัฒนาเทคโนโลยีทางทหารผ่านสนธิสัญญา กฎระเบียบ และการคว่ำบาตร เพื่อปกป้องมนุษยชาติจากความเสี่ยงที่เป็นลางร้ายของการทำสงครามโดยใช้ AI
  • การรักษาความปลอดภัยทางดิจิทัล: แฮกเกอร์เป็นภัยคุกคามต่อความปลอดภัยทางดิจิทัลของเราอยู่แล้ว และซอฟต์แวร์ AI ก็ถูกใช้สำหรับการแฮ็กขั้นสูงแล้ว ด้วยการพัฒนาซอฟต์แวร์ดังกล่าว แฮกเกอร์จะมีประสิทธิภาพมากขึ้นในการทำผิด และตัวตนออนไลน์ของเราจะเสี่ยงต่อการถูกขโมยมากขึ้น ความเป็นส่วนตัวของข้อมูลส่วนบุคคลของคุณอาจถูกบุกรุกมากยิ่งขึ้นผ่านมัลแวร์ที่ละเอียดอ่อน ซึ่งขับเคลื่อนโดย AI และทำให้เป็นอันตรายมากยิ่งขึ้นผ่านการใช้การเรียนรู้เชิงลึก ลองนึกภาพโจรดิจิทัลที่ซุ่มซ่อนอยู่เบื้องหลังโปรแกรมโปรดของคุณ กลายเป็นเจ้าเล่ห์มากขึ้นทุกวัน เรียนรู้จากตัวอย่างการใช้ซอฟต์แวร์ในชีวิตจริงนับล้านตัวอย่าง และสร้างการขโมยข้อมูลระบุตัวตนที่ซับซ้อนโดยอิงจากข้อมูลนั้น
ไม่มีชื่อ 3 2
  • ความมั่นคงทางการเมือง: ในช่วงเวลาที่ยากลำบากที่เราอาศัยอยู่ ความกลัวข่าวปลอมและการบันทึกภาพฉ้อโกงเป็นสิ่งที่สมเหตุสมผล AI อาจสร้างความเสียหายได้มากจากการรณรงค์บิดเบือนข้อมูลโดยอัตโนมัติ ซึ่งอาจเป็นอันตรายอย่างยิ่งในระหว่างการเลือกตั้ง

สรุปแล้ว เราอาจถามตัวเองว่าปัญญาประดิษฐ์สามารถสร้างความเสียหายให้กับเราได้มากเพียงใด และมันสามารถก่อให้เกิดอันตรายมากกว่าผลดีต่อมวลมนุษยชาติได้หรือไม่

ผู้เชี่ยวชาญระบุว่าการพัฒนาด้านจริยธรรมและหน่วยงานกำกับดูแลจะมีบทบาทสำคัญในการบรรเทาข้อเสียที่ปัญญาประดิษฐ์อาจก่อให้เกิดต่อชีวิตของเรา ไม่ว่าจะเกิดอะไรขึ้นเรามั่นใจว่ามันจะมีผลกระทบอย่างมากต่อโลกของเราในอนาคต

ซอฟต์แวร์การรู้จำคำพูดที่ใช้โปรโตคอล AI ขั้นสูงกำลังถูกใช้งานอยู่แล้ว และนำข้อดีมากมายมาสู่โลกธุรกิจ: ขั้นตอนการทำงานรวดเร็วและง่ายดายยิ่งขึ้น Gglot เป็นผู้เล่นรายใหญ่ในสาขานี้ และเรากำลังลงทุนอย่างมากในการพัฒนาเทคโนโลยีของเราต่อไป