Жасалма интеллекттин потенциалдуу тобокелдиктери

Жасалма интеллекттин потенциалдуу коркунучтары кандай?

Жасалма интеллект же AI - бул акыркы он жылдыкта көп талкууланган тема. Ал тездик менен өнүгүп, көпчүлүк ишканалардын иш процессин жеңилдетип, натыйжалуураак кылат. Көптөгөн адамдардын күнүмдүк жашоосунда да AI чоң потенциалды көрсөтүп, жашоону жеңилдетип, татаалдаштырып, көптөгөн ар кандай колдонмолордо ишке ашырылууда. AI бизге көптөгөн артыкчылыктарды алып келди жана илим дагы көп нерселерге жол ачып жатат, андыктан AI келечекте сөзсүз болот деп айтууга болот.

Бирок ар бир медалдын эки тарабы болгон сыяктуу, AI да ошондой. Бул технология ошондой эле көптөгөн мүмкүн болуучу тобокелдиктер жана кемчиликтер менен коштолот. Биздин замандын көптөгөн эксперттери жана техникалык чеберлери AI келечекте алып келиши мүмкүн болгон көйгөйлөргө тынчсыздануусун билдирип жатышат, ошондуктан биз бул көйгөйлөрдү оңдоого мүмкүн болгон учурда этият болушубуз керек. Муну менен эмнени айткыбыз келет?

Бул конкреттүү маселелерге байланыштуу каралышы керек болгон көп нерселер бар. Бул макалада биз AIнын укмуштуудай тез өнүгүшү биздин дүйнөгө алып келиши мүмкүн болгон кээ бир тобокелдиктерди жана бул прогрессти туура багытта көзөмөлдөө жана багыттоо үчүн кандай чараларды көрүү керектигин сүрөттөөгө аракет кылабыз.

1. Жумуштар

Аталышы жок 13

Машиналар жана автоматика эски мектепке, адамдык жумуш орундарына бере турган потенциалдуу мамилени угууга же окууга ар кимдин мүмкүнчүлүгү болгон деп ишенебиз. Кээ бир адамдар жумушун уурдаган машиналар жөнүндө ар кандай деңгээлдеги тынчсыздануулардан жабыр тартышы мүмкүн. Бул коркуу негиздүү болушу мүмкүн, жумушту автоматташтыруу көптөгөн адамдар үчүн чоң коркунуч болуп саналат: америкалыктардын болжол менен 25% жумушунан айрылышы мүмкүн, анткени кандайдыр бир учурда машиналар аларды алмаштыра алат. Айрыкча тобокелчиликке дуушар болгон аз айлык акы төлөнүүчү кызматтарда адам кайра-кайра кайталануучу тапшырмаларды аткарат, мисалы, администрациядагы жумуштар же тамак-аш тейлөөсү. Бирок, кээ бир университеттин бүтүрүүчүлөрү да коркунучка дуушар болушат, өнүккөн машина үйрөнүү алгоритмдери аларды кээ бир татаал жумуш орундарында алмаштыра алышы мүмкүн, анткени алар өзгөчө нейрон тармактарын жана терең үйрөнүүнү колдонуу аркылуу такталып жатат.

Бирок роботтор адамдарды жумуш базарынан толугу менен сүрүп чыгарат деп айта албайбыз. Кызматкерлер жөн гана тууралап, өздөрүн үйрөтүп, AI менен кызматташып, анын эффективдүүлүгүн жана механикалык логикасын эң жакшы колдонуп, иштөөнүн жолун табышы керек. AI дагы деле идеалдуу эмес, мисалы, ал чечим чыгарууга жөндөмсүз, ошондуктан машиналар менен бирге иштөөдө адам фактору дагы эле чечүүчү болот.

AI негизиндеги көптөгөн технологиялар бар, ал автоматташтырылган чечимдерди колдонот, аларды үйрөтүү керек жана бул окутуу адамдын салымынан көз каранды. Буга жакшы мисал машина котормолору болуп саналат, алар адам тарабынан жасалган көп сандагы котормолордун эсебинен киришет. Дагы бир жакшы мисал, профессионалдуу адам транскрипторлору тарабынан жасалган так транскрипциялардан окутуу маалыматтарын алган транскрипция программасы. Ошентип, программалык камсыздоо аз-аздан өркүндөтүлүп, алгоритмдерин реалдуу турмуштук мисалдар аркылуу тактоодо. Адамдын транскрипторлору программалык камсыздоодон пайда алышат, анткени ал транскрипттерди тезирээк түзүүгө жардам берет. Программалык камсыздоо транскрипттин болжолдуу, эскиздик версиясын түзөт, андан кийин аны транскриптор түзөтөт жана түзөтөт. Бул көп убакытты үнөмдөйт жана акырында акыркы продукт тезирээк жеткирилет жана так болот дегенди билдирет.

2. Бир тараптуулук маселеси

Алгоритмдердин эң сонун жагы - алар субъективдүү жана эмоционалдуу адамдардан кескин айырмаланып, ар дайым калыс, бейтарап чечимдерди кабыл алышат. Же аларбы? Чындыгында, ар кандай автоматташтырылган программалык камсыздоонун чечим кабыл алуу процесси алар үйрөтүлгөн маалыматтардан көз каранды. Ошентип, мисалы, колдонулган маалыматтарда калктын белгилүү бир бөлүгү жетиштүү көрсөтүлбөгөн учурларда басмырлоо коркунучу бар. Бул көйгөйлөрдүн айрымдары үчүн жүзүн таануу программасы мурунтан эле иликтенип жатат, бир жактуу учурлар буга чейин да болгон.

Жасалма интеллекттин бир жактуу болушунун эң сонун мисалдарынын бири COMPAS (Alternative Sanctions үчүн түзөтүүчү кылмышкерлерди башкаруу профилин түзүү). Бул кылмышкерлердин арасында кайталануу коркунучун болжолдоо үчүн тобокелдикти жана муктаждыкты баалоо куралы. Бул алгоритмге негизделген курал иликтенип, натыйжалар COMPAS маалыматтары расалык жактан олуттуу түрдө калыс экенин көрсөттү. Мисалы, маалыматтарга ылайык, африкалык-америкалык айыпталуучулар башка расалардагыга караганда рецидив жасоо коркунучу жогору деп туура эмес соттолгон. Алгоритм ошондой эле ак расанын адамдары менен тескери ката кетирген.

Демек, бул жерде эмне болду? Алгоритм маалыматтарга көз каранды, андыктан маалыматтар бир жактуу болсо, программалык камсыздоо да бир тараптуу натыйжаларды берет. Кээде бул маалымат кантип чогултулганына да байланыштуу.

Кепти автоматтык түрдө таануу технологиясы жынысына же расасына жараша бир жактуу болушу мүмкүн, анткени окутуу маалыматтары сөзсүз түрдө жетиштүү инклюзивдүүлүктү камсыз кыла турган материяда тандалбайт.

3. Коопсуздук маселелери

Аталышы жок 2 2

Жасалма интеллекттин кээ бир көйгөйлөрү бар, алар кырсыкка алып келиши мүмкүн. Колдонулган AI технологиясынын эң көрүнүктүү мисалдарынын бири - бул өзүн-өзү башкаруучу унаа. Көптөгөн эксперттер бул транспорттун келечеги деп эсептешет. Бирок автотранспорттордун токтоосуз түрдө жол кыймылына киргизилишине тоскоол болуп жаткан негизги нерсе, жүргүнчүлөрдүн жана жөө жүргүнчүлөрдүн өмүрүнө коркунуч туудурган анын бузулушу. Автономдуу унаалар жолдордо кандай коркунуч жаратышы мүмкүн деген талаш-тартыштар дагы эле актуалдуу бойдон калууда. Жолдо өзүн өзү башкарган унааларга уруксат берилсе, кырсыктар аз болмок деп ойлогондор бар. Башка жагынан алганда, алар көптөгөн кырсыктарга алып келиши мүмкүн экенин көрсөткөн изилдөөлөр бар, анткени алардын иш-аракеттеринин көбү айдоочу тарабынан коюлган артыкчылыктарга негизделет. Эми дизайнерлер коопсуздук менен адамдардын өмүрүн жана чабандестердин каалоолорун (мисалы, орточо ылдамдык жана башка айдоо адаттары) тандап алышы керек. Кандай гана учурда болбосун, өзүн-өзү башкара турган унаалардын негизги максаты, эффективдүү AI алгоритмдерин жана ар кандай мүмкүн болгон жол кыймылынын сценарийлерин аныктай жана алдын ала айта алган өнүккөн сенсорлорду ишке ашыруу аркылуу автокырсыктарды азайтуу болушу керек. Бирок, реалдуу жашоо ар кандай программага караганда ар дайым татаалыраак, ошондуктан бул технологиянын чектөөлөрү дагы эле аны кеңири жайылтуу үчүн чектөөчү факторлордун бири болуп саналат. Дагы бир көйгөй - ишеним фактору. Көп жылдык жана көп жылдык айдоочулук тажрыйбасы бар көптөгөн адамдар үчүн бардык ишенимди санариптик колго тапшыруу санариптик тенденцияларга символикалык баш ийүү актысы катары каралышы мүмкүн. Кандай болгон күндө да, мунун баары чечилмейинче, айрым өнүккөн технологиялык чечимдер жаңыраак унааларда ишке ашырылган жана адам айдоочулары ар кандай сенсорлордон, көмөкчү тормоздук чечимдерден жана круиздик контролдон пайдалана алышат.

4. Зыяндуу максаттар

Технология адамдардын муктаждыктарына кызмат кылып, алардын жашоосун жеңилдетүү, ырахаттуу кылуу үчүн колдонулушу керек жана ар бир адамдын баалуу убактысын үнөмдөөгө тийиш. Бирок кээде AI технологиясы физикалык, санариптик жана саясий коопсуздугубузга олуттуу коркунуч туудурган зыяндуу максаттарда да колдонулат.

  • Физикалык коопсуздук: AIнын потенциалдуу коркунучу, башында укмуштуудай сезилет жана сизди сөөктөрүңүзгө чейин муздатып коюшу мүмкүн, бул эң натыйжалуу жана ырайымсыз түрдө өлтүрүүгө программаланган автономдуу курал системалары тарабынан ишке ашырылган технологиялык жактан өнүккөн өлкөлөрдүн ортосундагы потенциалдуу согуш. Ошондуктан адамзатты AI негизиндеги согуштун коркунучтуу коркунучунан коргоо үчүн келишимдер, жоболор жана санкциялар аркылуу мындай аскердик технологиянын өнүгүшүн жөнгө салуу өтө маанилүү.
  • Санариптик коопсуздук: Хакерлер биздин санариптик коопсуздугубузга коркунуч туудурууда жана AI программасы өнүккөн хакерлик үчүн колдонулууда. Мындай программалык камсыздоонун өнүгүшү менен хакерлер өздөрүнүн кыянат иштеринде натыйжалуураак болот жана биздин онлайн инсандыгыбыз уурулукка көбүрөөк дуушар болот. Жеке маалыматтарыңыздын купуялыгы AI тарабынан иштетилген тымызын кесепеттүү программа аркылуу ого бетер бузулушу мүмкүн жана терең үйрөнүүнү колдонуу аркылуу ого бетер кооптуу болушу мүмкүн. Элестетиңиз, санариптик ууру, сүйүктүү программаларыңыздын артында жашынып, күндөн-күнгө куураак болуп, программалык камсыздоону колдонуунун миллиондон чыныгы мисалдарынан үйрөнүп, ошол маалыматтардын негизинде татаал инсандык уурулуктарды жасаган.
Аталышы жок 3 2
  • Саясий коопсуздук: биз жашап жаткан коогалаңдуу мезгилде фейк жаңылыктардан жана жасалма жазуулардан коркуу өзүн актайт. AI шайлоо учурунда өтө кооптуу болушу мүмкүн болгон автоматташтырылган жалган маалымат кампаниялары менен көп зыян келтириши мүмкүн.

Ошентип, жыйынтыктоо үчүн, биз өзүбүзгө суроо берсек болот: жасалма интеллект бизге канчалык зыян келтириши мүмкүн жана ал адамзатка пайдадан көбүрөөк зыян келтире алабы?

Эксперттердин айтымында, этикалык өнүктүрүү жана жөнгө салуучу органдар жасалма интеллект биздин жашообузга алып келиши мүмкүн болгон кемчиликтерди жоюуга келгенде чоң роль ойнойт. Эмнеси болсо да, бул келечекте биздин дүйнөбүзгө чоң таасирин тийгизет деп ишенебиз.

Өркүндөтүлгөн AI протоколдоруна негизделген кепти таануу программасы мурунтан эле колдонулуп жатат жана ал бизнес дүйнөсүнө көптөгөн артыкчылыктарды алып келет: иш процесстери тезирээк жана жөнөкөй. Gglot бул тармактагы чоң оюнчу жана биз технологиябызды андан ары өнүктүрүүгө көп каражат жумшап жатабыз.