סיכונים פוטנציאליים לבינה מלאכותית
מהם סיכונים פוטנציאליים של בינה מלאכותית?
אינטליגנציה מלאכותית, או ה- AI כפי שהוא מכונה לעתים קרובות, הוא נושא שנדון רבות בעשור האחרון. זה מתפתח במהירות, מה שהופך את זרימת העבודה של מרבית העסקים לקלה ויעילה יותר. אפילו בחיי היומיום של אנשים רבים AI הראה פוטנציאל רב וכבר מיושם באפליקציות רבות ושונות, מה שהופך את החיים לקלים ופחות מסובכים. AI הביאה לנו יתרונות רבים והמדע סולל את הדרך לעוד הרבה דברים לבוא, כך שניתן לומר כי AI יהיה הכרחי בעתיד, אם זה כבר לא יהיה.
אבל כמו שלכל מדליה יש שני צדדים, כך גם ל- AI. לטכנולוגיה זו גם סיכונים וחסרונות פוטנציאליים רבים. מומחים רבים ומוחות טכניים של זמננו מביעים את דאגתם מהבעיות ש- AI עלול לגרום בעתיד ולכן עלינו להקפיד לטפל בבעיות אלה בזמן שהם עדיין יכולים להיות מתוקנים. למה אנו מתכוונים בכך?
יש הרבה דברים שצריך לקחת בחשבון בנוגע לנושאים הספציפיים האלה. במאמר זה ננסה לתאר כמה מהסיכונים שההתפתחות המהירה והמדהימה של AI יכולה להביא לעולם שלנו ואיזה מידה יש לנקוט בכדי לעקוב ולהנחות את ההתקדמות בכיוון הנכון.
1. משרות
אנו בטוחים שלכולם כבר הייתה הזדמנות לשמוע או לקרוא על הטיפול הפוטנציאלי שמכונות ואוטומציה עשויים להציג במקומות עבודה מבוססי בית ספר ישן. יש אנשים שעלולים לסבול ממידות שונות של חרדה מפני מכונות שגונבות את עבודתם. הפחד הזה עשוי להיות מבוסס, אוטומציה של עבודה מהווה סיכון גדול עבור אנשים רבים: כ -25% מהאמריקאים עלולים לאבד את מקום עבודתם מכיוון שבשלב מסוים מכונות יוכלו להחליפם. במיוחד בסיכון נמצאים עמדות בשכר נמוך בהן אדם מבצע משימות שחוזרות על עצמן, כמו עבודות במינהל או בשירות אוכל. עם זאת, אפילו חלק מבוגרי האוניברסיטאות נמצאים בסיכון, אלגוריתמים מתקדמים של למידת מכונה יוכלו להחליף אותם בכמה עמדות עבודה מורכבות משום שהם נעשים מעודנים יותר, במיוחד באמצעות רשתות עצביות ולמידה עמוקה.
אבל אנחנו לא באמת יכולים לומר שרובוטים ידחיקו לחלוטין את בני האדם משוק העבודה. העובדים פשוט יצטרכו להסתגל, לחנך את עצמם ולמצוא דרך לעבוד על ידי שיתוף פעולה עם AI, תוך ניצול מיטבי של היעילות וההיגיון המכני שלה. AI עדיין לא מושלם, למשל הוא לא מסוגל לבצע שיחות שיפוט, ולכן הגורם האנושי עדיין יהיה מכריע בעבודה לצד מכונות.
יש הרבה טכנולוגיות מבוססות AI המשתמשות בפתרונות אוטומטיים שצריך להכשיר והדרכה זו תלויה בתשומת אנוש. דוגמה טובה לכך הם תרגומי מכונות שמקבלים קלט ממספר רב של תרגומים שנוצרו על ידי בני אדם. דוגמה טובה נוספת היא תוכנת תמלול שמקבלת את נתוני ההדרכה מתמלולים מדויקים שנעשים על ידי מתמללים אנושיים מקצועיים. בדרך זו התוכנה משתפרת לאט לאט, ומעדנת את האלגוריתמים שלה באמצעות דוגמאות מהחיים האמיתיים. מתמללים אנושיים נהנים מהתוכנה מכיוון שהיא מסייעת להם לבצע תמלילים מהירים יותר. התוכנה יוצרת גרסת טיוטה גסה של התמליל, אשר לאחר מכן נערך ומתוקן על ידי המתמלל. זה חוסך זמן רב, ומשמעותו שבסופו של דבר המוצר הסופי יועבר מהר יותר ויהיה מדויק יותר.
2. בעיית ההטיה
דבר נהדר באלגוריתמים הוא שהם מקבלים תמיד החלטות הוגנות ולא מוטות, בניגוד חד לבני אדם סובייקטיביים ורגשיים. או שמא? האמת היא שתהליך קבלת ההחלטות של כל תוכנה אוטומטית תלוי בנתונים עליהם הוכשרו. לכן, קיים סיכון לאפליה במקרים בהם למשל פלח מסוים באוכלוסייה אינו מיוצג מספיק בנתונים המשמשים. תוכנת זיהוי פנים כבר נחקרת בגלל חלק מהבעיות הללו, מקרים של הטיה כבר התרחשו.
אחת הדוגמאות הנהדרות לאופן שבו הבינה המלאכותית יכולה להיות מוטה היא COMPAS (פרופיל ניהול עברייני תיקון לסנקציות אלטרנטיביות). זהו כלי הערכת סיכונים וצרכים לחיזוי הסיכון לרדיטיביזם בקרב עבריינים. כלי זה מבוסס אלגוריתם נחקר ותוצאות הראו כי נתוני COMPAS היו מוטים באופן גזעני ברצינות. לדוגמא, על פי הנתונים, נאשמים אפרו-אמריקאים היו בעלי סיכוי גבוה יותר להישפט באופן שגוי כבעלי סיכון גבוה יותר לרצידיביזם בהשוואה לגזעים אחרים. האלגוריתם נטה גם לטעות הפוכה באנשים בני גזע לבן.
אז מה קרה כאן? האלגוריתם תלוי בנתונים ולכן אם הנתונים מוטים, התוכנה תיתן ככל הנראה גם תוצאות מוטות. לפעמים זה קשור גם לאופן שבו נאספו הנתונים.
טכנולוגיית זיהוי דיבור אוטומטית יכולה להיות מוטה גם בהתאם למין או גזע בשל העובדה שנתוני האימון אינם נבחרים בהכרח בעניין שיבטיח הכללה מספקת.
3. חששות בטיחותיים
ישנן כמה בעיות בבינה מלאכותית שהן כל כך מסוכנות שהן עלולות להוביל לתאונות. אחת הדוגמאות הבולטות יותר לטכנולוגיית AI מיושמת היא המכונית הנהיגה העצמית. מומחים רבים מאמינים כי זהו עתיד התחבורה. אך הדבר העיקרי המעכב את היישום המיידי של מכוניות בנהיגה עצמית לתנועה הוא התקלות שבהן עלולות לסכן את חיי הנוסעים והולכי הרגל. הוויכוח על האיום שעלול להוות כלי רכב אוטונומיים בכבישים עדיין ממשי. יש אנשים שחושבים שיכולים להיות פחות תאונות אם היו מאפשרים מכוניות לנהיגה עצמית על הכביש. מצד שני, ישנם מחקרים שהראו שהם עלולים לגרום להרבה קריסות, מכיוון שרבים מפעולותיהם יתבססו על ההעדפות שקבע הנהג. כעת נותר על המעצבים לבחור בין בטיחות לחיי האנשים ולהעדפות הרוכבים (כמו מהירות ממוצעת וכמה הרגלי נהיגה אחרים). המטרה העיקרית של מכוניות בנהיגה עצמית בכל מקרה צריכה להיות צמצום תאונות רכב, באמצעות הטמעת אלגוריתמי AI יעילים וחיישנים מתקדמים שיכולים לזהות ואף לחזות תרחישי תנועה אפשריים. עם זאת, החיים האמיתיים תמיד מסובכים יותר מכל תוכנית, ולכן המגבלות של טכנולוגיה זו הן עדיין אחד הגורמים המגבילים ליישומה הנרחב. בעיה נוספת היא גורם האמון. עבור אנשים רבים עם ניסיון של שנים ושנים בנהיגה, הכנסת כל האמון לידיים דיגיטליות עשויה להיראות כמעשה של כניעה סמלית למגמות דיגיטליות. בכל מקרה, עד שכל הפתרונות הללו לא ייפתרו, כבר יושמו כמה פתרונות טכנולוגיים מתקדמים במכוניות חדשות יותר, ונהגים אנושיים יכולים ליהנות מחיישנים שונים, פתרונות בלימה מסייעים ובקרות שיוט.
4. מטרות זדוניות
הטכנולוגיה צריכה לשרת את צרכי האנשים ולהשתמש בה כדי להפוך את חייהם לקלים יותר, מהנים יותר והיא צריכה לחסוך את הזמן היקר של כולם. אך לעיתים נעשה שימוש בטכנולוגיית AI גם למטרות זדוניות, באופן המהווה סיכון משמעותי לביטחוננו הפיזי, הדיגיטלי והפוליטי.
- אבטחה פיזית: סיכון פוטנציאלי אחד ל- AI, שנשמע דרמטי למדי בהתחלה ועשוי לצנן את עצמותיך הוא מלחמה פוטנציאלית בין מדינות מתקדמות טכנולוגית, המתבצעת על ידי מערכות נשק אוטונומיות שתוכנתו להרוג באופן היעיל והחסר הרחם ביותר. זו הסיבה שחשוב ביותר להסדיר את התפתחותה של טכנולוגיה צבאית כזו באמצעות אמנות, תקנות וסנקציות, על מנת להגן על האנושות מפני הסיכון המבשר הרע של מלחמה מבוססת AI.
- אבטחה דיגיטלית: האקרים הם כבר איום על הבטיחות הדיגיטלית שלנו ותוכנות AI כבר משמשות לפריצה מתקדמת. עם פיתוח תוכנה כזו, האקרים יהיו יעילים יותר במעשיהם הרעיים וזהותנו המקוונת תהיה חשופה יותר לגניבה. הפרטיות של הנתונים האישיים שלך עשויה להיות נפגעת עוד יותר באמצעות תוכנות זדוניות עדינות, המופעלות על ידי AI והופכות מסוכנות עוד יותר באמצעות למידה מעמיקה. תארו לעצמכם גנב דיגיטלי, האורב בחלק האחורי של התוכניות האהובות עליכם, הופך לערמומי יותר מיום ליום, לומד ממיליון דוגמאות מהחיים האמיתיים לשימוש בתוכנה ומעצב גניבות זהות מורכבות על סמך הנתונים הללו.
- ביטחון פוליטי: בתקופות הסוערות בהן אנו חיים, החשש מפני חדשות מזויפות והקלטות הונאה די מוצדק. AI יכול לגרום נזק רב על ידי קמפיינים דיסאינפורמציים אוטומטיים, שעלולים להיות מסוכנים ביותר במהלך בחירות.
לכן, לסיום, אנו עשויים לשאול את עצמנו כמה נזק בינה מלאכותית יכולה לגרום לנו והאם היא יכולה להזיק לאנושות יותר מאשר להועיל.
מומחים קובעים כי גופי פיתוח אתיים ורגולטורים יהיו חלק מרכזי בכל הנוגע להפחתת החסרונות שעלולים לגרום לבינה המלאכותית לחיינו. לא משנה מה יקרה, אנו בטוחים כי תהיה לכך השפעה עצומה על עולמנו בעתיד.
תוכנת זיהוי דיבור, המבוססת על פרוטוקולי AI מתקדמים כבר נמצאת בשימוש, והיא מביאה יתרונות רבים לעולם העסקים: תהליכי העבודה מהירים ופשוטים יותר. Gglot היא שחקן גדול בתחום הזה ואנו משקיעים רבות בפיתוח הטכנולוגיה שלנו.