Արհեստական ինտելեկտի հնարավոր ռիսկերը
Որո՞նք են արհեստական ինտելեկտի որոշ հնարավոր ռիսկերը:
Արհեստական ինտելեկտը կամ արհեստական ինտելեկտը, ինչպես այն նաև հաճախ են անվանում, թեմա է, որը շատ է քննարկվել վերջին տասնամյակում: Այն զարգանում է արագ տեմպերով` դարձնելով բիզնեսների մեծ մասի աշխատանքային հոսքը ավելի հեշտ և արդյունավետ: Նույնիսկ շատ մարդկանց առօրյա կյանքում AI-ն ցույց է տվել մեծ ներուժ և արդեն ներդրվում է բազմաթիվ տարբեր հավելվածներում՝ կյանքը հեշտացնելով և ավելի քիչ բարդացնելով: AI-ն մեզ շատ առավելություններ է բերել, և գիտությունը ճանապարհ է հարթում գալիք շատ ավելիի համար, ուստի կարելի է վստահորեն ասել, որ AI-ն ապագայում անփոխարինելի կլինի, եթե դա դեռ չկա:
Բայց ինչպես յուրաքանչյուր մեդալ ունի երկու կողմ, այնպես էլ AI-ն: Այս տեխնոլոգիան ունի նաև բազմաթիվ հնարավոր ռիսկեր և թերություններ: Մեր ժամանակի շատ փորձագետներ և տեխնիկական ղեկավարներ իրենց մտահոգություններն են հայտնում այն խնդիրների վերաբերյալ, որոնք կարող է առաջացնել AI-ն ապագայում, և, հետևաբար, մենք պետք է զգույշ լինենք լուծելու այդ խնդիրները, քանի դեռ դրանք հնարավոր կլինի շտկել: Ի՞նչ նկատի ունենք դրանով:
Կան շատ բաներ, որոնք պետք է հաշվի առնել այս կոնկրետ հարցերի վերաբերյալ: Այս հոդվածում մենք կփորձենք նկարագրել որոշ ռիսկեր, որոնք կարող է բերել AI-ի շլացուցիչ արագ զարգացումը մեր աշխարհին, և ինչ միջոցներ պետք է ձեռնարկել՝ այդ առաջընթացը ճիշտ ուղղությամբ վերահսկելու և ուղղորդելու համար:
1. Աշխատանք
Համոզված ենք, որ բոլորն արդեն հնարավորություն են ունեցել լսելու կամ կարդալու այն պոտենցիալ վերաբերմունքի մասին, որը մեքենաները և ավտոմատացումը կարող են ներկայացնել հին դպրոցական, մարդկանց վրա հիմնված աշխատավայրերում: Որոշ մարդիկ կարող են տառապել տարբեր աստիճանի անհանգստությունից այն պատճառով, որ մեքենաները գողանում են իրենց աշխատանքը: Այդ վախը կարող է հիմնավոր լինել, աշխատանքի ավտոմատացումը մեծ ռիսկ է շատ մարդկանց համար. ամերիկացիների մոտ 25%-ը կարող է կորցնել աշխատանքը, քանի որ ինչ-որ պահի մեքենաները կկարողանան փոխարինել նրանց: Հատկապես ռիսկային են ցածր վարձատրվող պաշտոնները, որտեղ անձը կատարում է կրկնվող առաջադրանքներ, օրինակ՝ աշխատատեղեր վարչակազմում կամ սննդի սպասարկում: Այնուամենայնիվ, նույնիսկ որոշ բուհերի շրջանավարտներ վտանգի տակ են, առաջադեմ մեքենայական ուսուցման ալգորիթմները կարող են փոխարինել դրանք որոշ բարդ աշխատանքային դիրքերում, քանի որ դրանք դառնում են ավելի կատարելագործված, հատկապես նեյրոնային ցանցերի և խորը ուսուցման միջոցով:
Բայց իրականում չենք կարող ասել, որ ռոբոտներն ամբողջությամբ դուրս են մղելու մարդկանց աշխատանքի շուկայից: Աշխատակիցները պարզապես պետք է հարմարվեն, կրթվեն և աշխատանքի ուղի գտնեն՝ համագործակցելով արհեստական ինտելեկտի հետ՝ առավելագույնս օգտագործելով դրա արդյունավետությունն ու մեխանիկական տրամաբանությունը։ AI-ն դեռ կատարյալ չէ, օրինակ՝ այն ի վիճակի չէ դատողություններ անել, ուստի մարդկային գործոնը դեռ որոշիչ կլինի մեքենաների հետ աշխատելիս:
AI-ի վրա հիմնված բազմաթիվ տեխնոլոգիաներ կան, որոնք օգտագործում են ավտոմատացված լուծումներ, որոնք պետք է վերապատրաստվեն, և այս ուսուցումը կախված է մարդու ներդրումից: Դրա լավ օրինակն են մեքենայական թարգմանությունները, որոնք ստացվում են մարդկանց կողմից ստեղծված մեծ թվով թարգմանություններից: Մեկ այլ լավ օրինակ է տառադարձման ծրագրակազմը, որը ստանում է ուսուցման տվյալները պրոֆեսիոնալ մարդկային արտագրողների կողմից կատարված ճշգրիտ տառադարձումներից: Այս կերպ ծրագրաշարը կամաց-կամաց կատարելագործվում է՝ կատարելագործելով իր ալգորիթմները իրական կյանքի օրինակների միջոցով: Մարդկանց արտագրողներն օգուտ են քաղում ծրագրաշարից, քանի որ այն օգնում է նրանց ավելի արագ տառադարձումներ կատարել: Ծրագրաշարը ստեղծում է տառադարձության կոպիտ, նախագիծ տարբերակը, որն այնուհետև խմբագրվում և ուղղվում է արտագրողի կողմից: Սա զգալիորեն խնայում է ժամանակ, և նշանակում է, որ վերջում վերջնական արտադրանքը կմատակարարվի ավելի արագ և կլինի ավելի ճշգրիտ:
2. կողմնակալության խնդիրը
Ալգորիթմների մասին հիանալի բանն այն է, որ նրանք միշտ արդար, ոչ կողմնակալ որոշումներ են կայացնում՝ ի տարբերություն սուբյեկտիվ և զգացմունքային մարդկանց: Կամ նրանք. Ճշմարտությունն այն է, որ ցանկացած ավտոմատացված ծրագրաշարի որոշումների կայացման գործընթացը կախված է այն տվյալներից, որոնց վրա նրանք վերապատրաստվել են: Այսպիսով, խտրականության վտանգ կա այն դեպքերում, երբ, օրինակ, բնակչության որոշակի հատվածը բավականաչափ ներկայացված չէ օգտագործված տվյալների մեջ։ Դեմքի ճանաչման ծրագրակազմն արդեն ուսումնասիրվում է այս որոշ խնդիրների համար, կողմնակալության դեպքեր արդեն եղել են:
Արհեստական ինտելեկտը որքան կողմնակալ կարող է լինել, հիանալի օրինակ է COMPAS-ը (ուղղիչ հանցագործների կառավարման պրոֆիլավորում այլընտրանքային պատժամիջոցների համար): Սա ռիսկերի և կարիքների գնահատման գործիք է՝ իրավախախտների շրջանում կրկնահանցագործության ռիսկի կանխատեսման համար: Ալգորիթմի վրա հիմնված այս գործիքը հետաքննվել է, և արդյունքները ցույց են տվել, որ COMPAS-ի տվյալները ռասայական կողմնակալության են ենթարկվել: Օրինակ, ըստ տվյալների, աֆրոամերիկացի մեղադրյալներին ավելի հավանական է, որ սխալ գնահատականներ ստանային՝ կրկնահանցագործության ավելի բարձր ռիսկ ունենալու համար, քան մյուս ռասաները: Ալգորիթմը նաև հակված էր հակառակ սխալը թույլ տալ սպիտակ ռասայի մարդկանց հետ:
Այսպիսով, ի՞նչ է տեղի ունեցել այստեղ: Ալգորիթմը կախված է տվյալներից, այնպես որ, եթե տվյալները կողմնակալ են, ծրագրաշարը, հավանաբար, նույնպես կողմնակալ արդյունքներ կտա: Երբեմն դա նաև կապ ունի տվյալների հավաքագրման հետ:
Խոսքի ավտոմատ ճանաչման տեխնոլոգիան կարող է նաև կողմնակալ լինել՝ կախված սեռից կամ ռասայից, քանի որ ուսուցման տվյալները պարտադիր չէ, որ ընտրվեն այն հարցում, որը կապահովի բավարար ներառականություն:
3. Անվտանգության մտահոգություններ
Արհեստական ինտելեկտի հետ կապված որոշ խնդիրներ կան, որոնք այնքան վտանգավոր են, որ կարող են վթարների պատճառ դառնալ։ Կիրառական AI տեխնոլոգիայի առավել ակնառու օրինակներից մեկը ինքնակառավարվող մեքենան է: Շատ փորձագետներ կարծում են, որ սա է տրանսպորտի ապագան։ Բայց հիմնականը, որ խոչընդոտում է ինքնակառավարվող մեքենաների անհապաղ ներդրմանը երթևեկության մեջ, դրա անսարքություններն են, որոնք կարող են վտանգել ուղևորների և հետիոտների կյանքը։ Ճանապարհներին ավտոնոմ մեքենաների սպառնալիքի մասին բանավեճը դեռ շատ արդիական է: Կան մարդիկ, ովքեր կարծում են, որ եթե ինքնակառավարվող մեքենաները երթևեկեն ճանապարհին, կարող են ավելի քիչ վթարներ լինել։ Մյուս կողմից, կան ուսումնասիրություններ, որոնք ցույց են տվել, որ դրանք կարող են բազմաթիվ վթարների պատճառ դառնալ, քանի որ նրանց գործողություններից շատերը հիմնված են լինելու վարորդի կողմից սահմանված նախապատվությունների վրա: Այժմ դիզայներներին մնում է ընտրություն կատարել անվտանգության և մարդկանց կյանքի և վարորդի նախասիրությունների միջև (օրինակ՝ միջին արագությունը և վարելու որոշ այլ սովորություններ): Ինքնավար մեքենաների հիմնական նպատակն ամեն դեպքում պետք է լինի ավտովթարների նվազեցումը` արդյունավետ AI ալգորիթմների և առաջադեմ սենսորների ներդրման միջոցով, որոնք կարող են հայտնաբերել և նույնիսկ կանխատեսել երթևեկության հնարավոր սցենարները: Այնուամենայնիվ, իրական կյանքը միշտ ավելի բարդ է, քան ցանկացած ծրագիր, ուստի այս տեխնոլոգիայի սահմանափակումները դեռևս հանդիսանում են դրա համատարած իրականացման սահմանափակող գործոններից մեկը: Մյուս խնդիրը վստահության գործոնն է։ Տարիների և տարիների վարորդական փորձ ունեցող շատ մարդկանց համար ամբողջ վստահությունը թվային ձեռքերում դնելը կարող է դիտվել որպես թվային միտումների նկատմամբ խորհրդանշական կապիտուլյացիայի ակտ: Ամեն դեպքում, քանի դեռ այս ամենը չի լուծվել, որոշ առաջադեմ տեխնոլոգիական լուծումներ արդեն ներդրվել են նոր մեքենաներում, և մարդ վարորդները կարող են օգտվել տարբեր սենսորներից, արգելակման աջակցվող լուծումներից և նավարկության կոնտրոլներից:
4. Վնասակար նպատակներ
Տեխնոլոգիան պետք է ծառայի մարդկանց կարիքներին և օգտագործվի նրանց կյանքը հեշտացնելու, ավելի հաճելի դարձնելու համար, և այն պետք է խնայի բոլորի թանկարժեք ժամանակը: Բայց երբեմն արհեստական ինտելեկտի տեխնոլոգիան նույնպես օգտագործվել է չարամիտ նպատակներով՝ այնպիսի ձևով, որը զգալի վտանգ է ներկայացնում մեր ֆիզիկական, թվային և քաղաքական անվտանգության համար:
- Ֆիզիկական անվտանգություն. AI-ի պոտենցիալ վտանգներից մեկը, որը սկզբում բավականին դրամատիկ է թվում և կարող է ձեզ մինչև ոսկորները սառեցնել, պոտենցիալ պատերազմն է տեխնոլոգիապես զարգացած երկրների միջև, որն իրականացվում է ինքնավար զենքի համակարգերով, որոնք ծրագրված են սպանել ամենաարդյունավետ և անողոք ձևով: Ահա թե ինչու չափազանց կարևոր է կարգավորել նման ռազմական տեխնոլոգիաների զարգացումը պայմանագրերի, կանոնակարգերի և պատժամիջոցների միջոցով՝ մարդկությունը պաշտպանելու համար արհեստական ինտելեկտի վրա հիմնված պատերազմի չարագուշակ ռիսկից:
- Թվային անվտանգություն. հաքերներն արդեն իսկ սպառնալիք են մեր թվային անվտանգության համար, և AI ծրագրակազմն արդեն օգտագործվում է առաջադեմ հաքերների համար: Նման ծրագրաշարի մշակմամբ հաքերներն ավելի արդյունավետ կլինեն իրենց չարագործություններում, և մեր առցանց ինքնությունը ավելի խոցելի կլինի գողության նկատմամբ: Ձեր անձնական տվյալների գաղտնիությունը կարող է ավելի շատ վտանգվել նուրբ չարամիտ ծրագրերի միջոցով, որոնք սնուցվում են AI-ով և էլ ավելի վտանգավոր կդառնան խորը ուսուցման միջոցով: Պատկերացրեք թվային գողին, որը թաքնված է ձեր սիրելի ծրագրերի հետևում, օրեցօր դառնում է ավելի խորամանկ, սովորում է ծրագրային ապահովման օգտագործման միլիոնավոր իրական կյանքի օրինակներից և այդ տվյալների հիման վրա ինքնության բարդ գողություններ է անում:
- Քաղաքական անվտանգություն. մեր ապրած բուռն ժամանակներում կեղծ լուրերի և կեղծ ձայնագրությունների վախը միանգամայն արդարացված է: Արհեստական ինտելեկտը կարող է մեծ վնաս հասցնել ավտոմատացված ապատեղեկատվության քարոզարշավներին, որոնք կարող են չափազանց վտանգավոր լինել ընտրությունների ժամանակ։
Այսպիսով, եզրակացնելու համար մենք կարող ենք ինքներս մեզ հարց տալ, թե արհեստական ինտելեկտը որքան վնաս կարող է հասցնել մեզ և կարո՞ղ է ավելի շատ վնաս, քան օգուտ մարդկությանը:
Փորձագետները նշում են, որ էթիկական զարգացման և կարգավորող մարմինները մեծ դեր կխաղան, երբ խոսքը վերաբերում է այն թերությունները, որոնք արհեստական ինտելեկտը կարող է առաջացնել մեր կյանքում: Ինչ էլ որ լինի, մենք վստահ ենք, որ ապագայում դա հսկայական ազդեցություն կունենա մեր աշխարհի վրա։
Խոսքի ճանաչման ծրագրակազմը, որը հիմնված է AI-ի առաջադեմ արձանագրությունների վրա, արդեն օգտագործվում է, և այն բազմաթիվ առավելություններ է բերում բիզնես աշխարհին. աշխատանքային հոսքերն ավելի արագ և պարզ են: Gglot-ը մեծ խաղացող է այս ոլորտում, և մենք մեծ ներդրումներ ենք կատարում մեր տեխնոլոգիաների հետագա զարգացման համար: