Hatari Zinazowezekana za Akili Bandia

Je, ni Baadhi ya Hatari Zinazowezekana za Akili Bandia?

Akili ya Bandia, au AI kama inavyorejelewa mara nyingi, ni somo ambalo limejadiliwa sana katika muongo uliopita. Inaendelea kwa kasi, na kufanya utendakazi wa biashara nyingi kuwa rahisi na ufanisi zaidi. Hata katika maisha ya kila siku ya watu wengi AI imeonyesha uwezo mkubwa na tayari inatekelezwa katika programu nyingi tofauti, na kufanya maisha rahisi na chini ya magumu. AI imetuletea manufaa mengi na sayansi inafungua njia kwa mengi zaidi yajayo kwa hivyo ni salama kusema kwamba AI itakuwa ya lazima sana katika siku zijazo, ikiwa haiko tayari.

Lakini kama vile kila medali ina pande mbili, vivyo hivyo na AI. Teknolojia hii pia inakuja na hatari na hasara nyingi zinazowezekana. Wataalamu wengi na waakili wa kiufundi wa wakati wetu wanaelezea wasiwasi wao juu ya matatizo ambayo AI inaweza kusababisha katika siku zijazo na kwa hivyo tunahitaji kuwa makini kushughulikia masuala haya wakati bado yanaweza kurekebishwa. Tunamaanisha nini kwa hilo?

Kuna mambo mengi ambayo yanahitaji kuzingatiwa kuhusiana na maswala haya mahususi. Katika makala haya tutajaribu kuelezea baadhi ya hatari ambazo maendeleo ya haraka sana ya AI yanaweza kuleta katika ulimwengu wetu na ni hatua gani zinahitajika kuchukuliwa ili kufuatilia na kuongoza maendeleo hayo katika mwelekeo sahihi.

1. Kazi

Haina jina 1 3

Tuna uhakika kwamba kila mtu tayari alikuwa na fursa ya kusikia au kusoma kuhusu manufaa ambayo mashine na mitambo ya kiotomatiki inaweza kuwasilisha kwa shule za zamani, sehemu za kazi za kibinadamu. Watu wengine wanaweza kuteseka kutokana na viwango mbalimbali vya wasiwasi kuhusu mashine zinazoiba kazi zao. Hofu hiyo inaweza kuwa na msingi mzuri, otomatiki ya kazi ni hatari kubwa kwa watu wengi: karibu 25% ya Wamarekani wanaweza kupoteza kazi yao kwa sababu wakati fulani mashine zitaweza kuzibadilisha. Hasa katika hatari ni nafasi za malipo ya chini ambapo mtu hufanya kazi zinazorudiwa, kama kazi katika usimamizi au huduma ya chakula. Walakini, hata baadhi ya wahitimu wa chuo kikuu wako hatarini, kanuni za hali ya juu za kujifunza kwa mashine zinaweza kuzibadilisha katika nafasi zingine ngumu za kazi kwa sababu zinaboreshwa zaidi, haswa kupitia matumizi ya mitandao ya neva na kujifunza kwa kina.

Lakini hatuwezi kusema kwamba roboti zitawaondoa kabisa wanadamu kwenye soko la ajira. Wafanyakazi watalazimika tu kurekebisha, kujielimisha na kutafuta njia ya kufanya kazi kwa kushirikiana na AI, na kufanya matumizi bora ya ufanisi wake na mantiki ya mitambo. AI bado si kamilifu, kwa mfano haiwezi kutoa hukumu, kwa hivyo kipengele cha binadamu bado kitakuwa na maamuzi wakati wa kufanya kazi pamoja na mashine.

Kuna teknolojia nyingi za msingi za AI ambazo hutumia suluhu za kiotomatiki ambazo zinahitaji kufunzwa na mafunzo haya yanategemea maoni ya mwanadamu. Mfano mzuri kwa hili ni tafsiri za mashine ambazo hupata maoni kutoka kwa idadi kubwa ya tafsiri zinazozalishwa na binadamu. Mfano mwingine mzuri ni programu ya unukuzi ambayo hupata data ya mafunzo kutoka kwa unukuu sahihi unaofanywa na wanakili wa kibinadamu. Kwa njia hii programu huimarishwa kidogo kidogo, ikiboresha algoriti zake kupitia mifano halisi ya maisha. Wanukuzi wa kibinadamu hunufaika na programu kwa sababu inawasaidia kufanya manukuu haraka. Programu hutengeneza toleo mbovu, la rasimu ya manukuu, ambayo huhaririwa na kusahihishwa na mwandishi. Hii inaokoa muda mwingi, na inamaanisha kuwa mwishowe bidhaa ya mwisho itawasilishwa kwa haraka na itakuwa sahihi zaidi.

2. Tatizo la upendeleo

Jambo kuu kuhusu algorithms ni kwamba kila wakati hufanya maamuzi ya haki, yasiyo ya upendeleo, tofauti kabisa na wanadamu wa kibinafsi na wa kihemko. Au wanafanya hivyo? Ukweli ni kwamba mchakato wa kufanya maamuzi wa programu yoyote ya kiotomatiki inategemea data ambayo wamefunzwa. Kwa hivyo, kuna hatari ya ubaguzi katika matukio ambapo kwa mfano sehemu fulani ya idadi ya watu haijawakilishwa vya kutosha katika data iliyotumika. Programu ya utambuzi wa uso tayari inachunguzwa kwa baadhi ya matatizo haya, matukio ya upendeleo tayari yametokea.

Mfano mmoja mzuri wa jinsi akili ya bandia inaweza kupendelea ni COMPAS (Uchambuzi wa Usimamizi wa Mkosaji wa Kurekebisha kwa Vikwazo Mbadala). Hiki ni chombo cha tathmini ya hatari na mahitaji kwa ajili ya kutabiri hatari ya kurudiwa tena kati ya wakosaji. Zana hii ya msingi wa algoriti ilichunguzwa na matokeo yameonyesha kuwa data ya COMPAS ilikuwa na upendeleo mkubwa wa rangi. Kwa mfano, kulingana na data, washtakiwa wa Kiafrika-Amerika walikuwa na uwezekano mkubwa wa kuhukumiwa kimakosa kuwa na hatari kubwa ya kurudia kuliko jamii zingine. Algorithm pia ilielekea kufanya makosa kinyume na watu wa rangi nyeupe.

Kwa hiyo, nini kilitokea hapa? Algorithm inategemea data kwa hivyo ikiwa data ina upendeleo, programu inaweza kutoa matokeo ya upendeleo pia. Wakati mwingine pia ina kitu cha kufanya na jinsi data ilikusanywa.

Teknolojia ya Kiotomatiki ya Utambuzi wa Usemi pia inaweza kuegemea upande wowote kulingana na jinsia au rangi kutokana na ukweli kwamba data ya mafunzo si lazima ichaguliwe katika suala ambalo linaweza kuhakikisha ushirikishwaji wa kutosha.

3. Masuala ya usalama

Haina jina 2 2

Kuna baadhi ya matatizo ya akili ya bandia ambayo ni hatari sana ambayo yanaweza kusababisha ajali. Mojawapo ya mifano maarufu zaidi ya teknolojia ya AI iliyotumika ni gari linalojiendesha. Wataalamu wengi wanaamini kwamba hii ni siku zijazo za usafiri. Lakini kikubwa kinachokwamisha utekelezwaji wa haraka wa magari yanayojiendesha kwenye trafiki ni ubovu wake ambao unaweza kuhatarisha maisha ya abiria na watembea kwa miguu. Mjadala juu ya tishio ambalo magari yanayojiendesha yanaweza kusababisha barabarani bado ni halisi. Kuna watu wanaofikiri kwamba kunaweza kuwa na ajali chache ikiwa magari ya kujiendesha yangeruhusiwa barabarani. Kwa upande mwingine, kuna tafiti ambazo zimeonyesha kuwa zinaweza kusababisha ajali nyingi, kwa sababu matendo yao mengi yatatokana na mapendekezo yaliyowekwa na dereva. Sasa ni juu ya wabunifu kuchagua kati ya usalama na maisha ya watu na mapendeleo ya wapanda farasi (kama vile kasi ya wastani na tabia zingine za kuendesha gari). Lengo kuu la magari ya kujitegemea kwa hali yoyote inapaswa kuwa kupunguzwa kwa ajali za magari, kupitia utekelezaji wa algorithms ya AI yenye ufanisi na sensorer ya juu ambayo inaweza kuchunguza na hata kutabiri matukio yoyote ya trafiki iwezekanavyo. Hata hivyo, maisha halisi daima ni ngumu zaidi kuwa mpango wowote, hivyo mapungufu ya teknolojia hii bado ni moja ya sababu za kikwazo kwa utekelezaji wake ulioenea. Tatizo jingine ni sababu ya uaminifu. Kwa watu wengi walio na uzoefu wa miaka na miaka ya kuendesha gari, kuweka uaminifu wote kwenye mikono ya kidijitali kunaweza kuonekana kama kitendo cha kuiga mienendo ya kidijitali. Kwa hali yoyote, mpaka yote haya yatatatuliwa, baadhi ya ufumbuzi wa teknolojia ya juu tayari kutekelezwa katika magari mapya, na madereva ya binadamu wanaweza kufaidika na sensorer mbalimbali, kusaidiwa ufumbuzi wa kusimama na udhibiti wa cruise.

4. Malengo mabaya

Teknolojia inapaswa kuhudumia mahitaji ya watu na itumike kurahisisha maisha yao, ya kufurahisha zaidi na inapaswa kuokoa muda wa thamani wa kila mtu. Lakini wakati mwingine teknolojia ya AI pia imekuwa ikitumiwa kwa madhumuni mabaya, kwa njia ambayo inahatarisha usalama wetu wa kimwili, dijitali na kisiasa.

  • Usalama wa kimwili: Hatari moja inayoweza kutokea ya AI, ambayo inasikika kuwa kubwa sana mwanzoni na inaweza kukufanya ushindwe na mifupa yako ni vita vinavyoweza kutokea kati ya nchi zilizoendelea kiteknolojia, vinavyotekelezwa na mifumo ya silaha inayojiendesha iliyopangwa kuua kwa njia bora na isiyo na huruma. Hii ndiyo sababu ni muhimu sana kudhibiti maendeleo ya teknolojia hiyo ya kijeshi kupitia mikataba, kanuni na vikwazo, ili kulinda ubinadamu kutokana na hatari ya kutisha ya vita vya AI.
  • Usalama wa kidijitali: Wadukuzi tayari ni tishio kwa usalama wetu dijitali na programu ya AI tayari inatumika kwa udukuzi wa hali ya juu. Kwa uundaji wa programu kama hizo, wadukuzi watakuwa na ufanisi zaidi katika makosa yao na utambulisho wetu mtandaoni utakuwa katika hatari zaidi ya wizi. Faragha ya data yako ya kibinafsi inaweza kuathiriwa zaidi kupitia programu hasidi ya hila, inayoendeshwa na AI na kufanywa kuwa hatari zaidi kwa kutumia kujifunza kwa kina. Hebu wazia mwizi wa kidijitali, anayenyemelea nyuma ya programu zako uzipendazo, akiwa mjanja zaidi siku baada ya siku, akijifunza kutoka kwa mifano milioni halisi ya maisha ya matumizi ya programu na kuunda wizi changamano wa utambulisho kulingana na data hiyo.
Haina jina 3 2
  • Usalama wa kisiasa: katika nyakati za misukosuko tunazoishi, hofu ya habari za uwongo na rekodi za ulaghai ni sawa. AI inaweza kufanya uharibifu mkubwa kwa kampeni za kiotomatiki za kutoa taarifa zisizo sahihi, ambazo zinaweza kuwa hatari sana wakati wa uchaguzi.

Kwa hiyo, ili kumalizia, tunaweza kujiuliza ni uharibifu kiasi gani ambao akili ya bandia inaweza kutuletea na je, inaweza kuwadhuru zaidi wanadamu.

Wataalamu wanasema kwamba maendeleo ya kimaadili na mashirika ya udhibiti yatachukua sehemu kubwa linapokuja suala la kupunguza hasara ambazo akili bandia zinaweza kusababisha maishani mwetu. Chochote kitakachotokea, tuna hakika kwamba kitakuwa na athari kubwa kwa ulimwengu wetu katika siku zijazo.

Programu ya utambuzi wa hotuba, kulingana na itifaki za hali ya juu za AI tayari inatumiwa, na inaleta faida nyingi kwa ulimwengu wa biashara: mtiririko wa kazi ni haraka na rahisi. Gglot ni mdau mkubwa katika nyanja hii na tunawekeza sana katika kuendeleza teknolojia yetu zaidi.