Iespējamie mākslīgā intelekta riski

Kādi ir daži iespējamie mākslīgā intelekta riski?

Mākslīgais intelekts jeb mākslīgais intelekts, kā to bieži dēvē arī par tēmu, kas pēdējo desmit gadu laikā ir daudz apspriests. Tas strauji attīstās, padarot darbplūsmu lielākajai daļai uzņēmumu vieglāku un efektīvāku. Pat daudzu cilvēku ikdienas dzīvē AI ir parādījis lielu potenciālu, un tas jau tiek ieviests daudzās dažādās lietotnēs, padarot dzīvi vieglāku un sarežģītāku. AI mums ir devis daudz priekšrocību, un zinātne bruģē ceļu uz daudz ko citu, tāpēc var droši teikt, ka AI nākotnē būs neaizstājams, ja tas vēl nav.

Bet tāpat kā katrai medaļai ir divas puses, arī AI. Šai tehnoloģijai ir arī daudzi iespējamie riski un trūkumi. Daudzi mūsdienu eksperti un tehniskie vadītāji pauž bažas par problēmām, ko mākslīgais intelekts var radīt nākotnē, un tāpēc mums ir jābūt uzmanīgiem, lai risinātu šīs problēmas, kamēr tās vēl ir iespējams novērst. Ko mēs ar to domājam?

Ir daudzas lietas, kas jāņem vērā saistībā ar šiem konkrētajiem jautājumiem. Šajā rakstā mēs centīsimies aprakstīt dažus riskus, ko mūsu pasaulei var radīt žilbinoši straujā AI attīstība, un kādi pasākumi ir jāveic, lai uzraudzītu un virzītu šo progresu pareizajā virzienā.

1. Darbavietas

Bez nosaukuma 13

Mēs esam pārliecināti, ka ikvienam jau bija iespēja dzirdēt vai lasīt par potenciālo gardumu, ko mašīnas un automatizācija varētu sniegt vecajām, cilvēku balstītām darbavietām. Daži cilvēki var ciest no dažāda līmeņa satraukuma par mašīnām, kas zog viņu darbu. Šīs bailes varētu būt pamatotas, darba automatizācija ir liels risks daudziem cilvēkiem: aptuveni 25% amerikāņu var zaudēt darbu, jo kādā brīdī mašīnas varēs tās aizstāt. Īpaši apdraudēti ir zema atalgojuma amati, kuros persona veic atkārtotus uzdevumus, piemēram, darbu administrācijā vai ēdināšanā. Tomēr pat daži augstskolu absolventi ir apdraudēti, uzlaboti mašīnmācīšanās algoritmi varētu tos aizstāt dažās sarežģītās darba pozīcijās, jo tie kļūst arvien pilnveidoti, jo īpaši izmantojot neironu tīklus un dziļu mācīšanos.

Bet mēs nevaram īsti teikt, ka roboti pilnībā izstums cilvēkus no darba tirgus. Darbiniekiem vienkārši būs jāpielāgojas, jāizglītojas un jāatrod veids, kā strādāt, sadarbojoties ar AI, pēc iespējas labāk izmantojot tā efektivitāti un mehānisko loģiku. AI joprojām nav ideāls, piemēram, tas nespēj pieņemt lēmumus, tāpēc cilvēciskais faktors joprojām būs noteicošais, strādājot kopā ar mašīnām.

Ir daudz uz AI balstītu tehnoloģiju, kas izmanto automatizētus risinājumus, kas ir jāapmāca, un šī apmācība ir atkarīga no cilvēka ieguldījuma. Labs piemērs tam ir mašīntulkojumi, kas tiek izmantoti no liela skaita cilvēku ģenerētu tulkojumu. Vēl viens labs piemērs ir transkripcijas programmatūra, kas iegūst apmācības datus no precīzām transkripcijām, ko veic profesionāli transkripcijas darbinieki. Tādā veidā programmatūra tiek pakāpeniski uzlabota, pilnveidojot tās algoritmus, izmantojot reālas dzīves piemērus. Cilvēku pārrakstītāji gūst labumu no programmatūras, jo tā palīdz viņiem ātrāk veikt atšifrējumus. Programmatūra ģenerē aptuvenu stenogrammas melnraksta versiju, kuru pēc tam rediģē un labo transkribētājs. Tas ietaupa daudz laika un nozīmē, ka galu galā galaprodukts tiks piegādāts ātrāk un būs precīzāks.

2. Neobjektivitātes problēma

Lieliska algoritmu īpašība ir tā, ka tie vienmēr pieņem godīgus, objektīvus lēmumus, krasā pretstatā subjektīviem un emocionāliem cilvēkiem. Vai arī viņi to dara? Patiesība ir tāda, ka jebkuras automatizētas programmatūras lēmumu pieņemšanas process ir atkarīgs no datiem, par kuriem tā ir apmācīta. Tātad pastāv diskriminācijas risks gadījumos, kad, piemēram, noteikta iedzīvotāju daļa izmantotajos datos nav pietiekami pārstāvēta. Sejas atpazīšanas programmatūra jau tiek izmeklēta attiecībā uz dažām no šīm problēmām, jau ir bijuši neobjektivitātes gadījumi.

Viens lielisks piemērs tam, cik neobjektīvs var būt mākslīgais intelekts, ir COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Šis ir riska un vajadzību novērtēšanas rīks, lai prognozētu likumpārkāpēju recidīva risku. Šis uz algoritmu balstīts rīks tika izpētīts, un rezultāti parādīja, ka COMPAS dati bija nopietni rasistiski neobjektīvi. Piemēram, saskaņā ar datiem afroamerikāņu apsūdzētajiem biežāk tika nepareizi novērtēts, ka viņiem ir lielāks recidīva risks nekā citām rasēm. Algoritmam arī bija tendence pieļaut pretēju kļūdu ar baltās rases cilvēkiem.

Tātad, kas šeit notika? Algoritms ir atkarīgs no datiem, tāpēc, ja dati ir neobjektīvi, programmatūra, iespējams, sniegs arī neobjektīvus rezultātus. Dažreiz tas ir saistīts arī ar to, kā dati tika vākti.

Automātiskās runas atpazīšanas tehnoloģija var būt arī neobjektīva atkarībā no dzimuma vai rases, jo apmācības dati ne vienmēr tiek atlasīti materiālā, kas nodrošinātu pietiekamu iekļautību.

3. Drošības apsvērumi

Bez nosaukuma 2 2

Ar mākslīgo intelektu ir dažas problēmas, kas ir tik bīstamas, ka var izraisīt negadījumus. Viens no spilgtākajiem AI tehnoloģijas piemēriem ir pašbraucoša automašīna. Daudzi eksperti uzskata, ka tā ir transporta nākotne. Taču galvenais, kas kavē tūlītēju pašbraucošo automašīnu ieviešanu satiksmē, ir to darbības traucējumi, kas var apdraudēt pasažieru un gājēju dzīvību. Debates par draudiem, ko autonomie transportlīdzekļi varētu radīt uz ceļiem, joprojām ir ļoti aktuāli. Ir cilvēki, kas domā, ka negadījumu varētu būt mazāk, ja uz ceļa tiktu atļautas pašbraucošās automašīnas. No otras puses, ir pētījumi, kas ir parādījuši, ka tie var izraisīt daudzas avārijas, jo daudzas viņu darbības būs balstītas uz vadītāja iestatītajām vēlmēm. Tagad dizaineru ziņā ir izvēlēties starp drošību un cilvēku dzīves un braucēja vēlmēm (piemēram, vidējo ātrumu un dažiem citiem braukšanas paradumiem). Pašbraucošo automašīnu galvenajam mērķim jebkurā gadījumā vajadzētu būt autoavāriju samazināšanai, ieviešot efektīvus mākslīgā intelekta algoritmus un uzlabotus sensorus, kas spēj atklāt un pat paredzēt visus iespējamos satiksmes scenārijus. Tomēr reālā dzīve vienmēr ir sarežģītāka nekā jebkura programma, tāpēc šīs tehnoloģijas ierobežojumi joprojām ir viens no ierobežojošajiem faktoriem tās plašā ieviešanā. Vēl viena problēma ir uzticības faktors. Daudziem cilvēkiem ar gadiem ilgu braukšanas pieredzi visas uzticības nodošana digitālajās rokās var tikt uzskatīta par simbolisku kapitulāciju digitālajām tendencēm. Jebkurā gadījumā, kamēr tas viss nav atrisināts, jaunākās automašīnās jau ir ieviesti daži progresīvi tehnoloģiski risinājumi, un cilvēku vadītāji var gūt labumu no dažādiem sensoriem, palīgbremzēšanas risinājumiem un kruīza kontroles.

4. Ļaunprātīgi nolūki

Tehnoloģijām ir jākalpo cilvēku vajadzībām, un tās jāizmanto, lai padarītu viņu dzīvi vieglāku, patīkamāku, un tam vajadzētu ietaupīt ikviena dārgo laiku. Taču dažreiz mākslīgā intelekta tehnoloģija ir izmantota arī ļaunprātīgos nolūkos tādā veidā, kas rada ievērojamu risku mūsu fiziskajai, digitālajai un politiskajai drošībai.

  • Fiziskā drošība: Viens no iespējamiem mākslīgā intelekta riskiem, kas sākumā izklausās diezgan dramatisks un var atvēsināt līdz kauliem, ir potenciāls karš starp tehnoloģiski attīstītām valstīm, ko veic autonomas ieroču sistēmas, kas ieprogrammētas nogalināt visefektīvākajā un nesaudzīgākajā veidā. Tāpēc ir ārkārtīgi svarīgi regulēt šādu militāro tehnoloģiju attīstību, izmantojot līgumus, noteikumus un sankcijas, lai pasargātu cilvēci no draudošā riska, ko rada AI balstīta karadarbība.
  • Digitālā drošība: hakeri jau apdraud mūsu digitālo drošību, un AI programmatūra jau tiek izmantota uzlabotai uzlaušanai. Izstrādājot šādu programmatūru, hakeri savos nedarbos būs efektīvāki, un mūsu tiešsaistes identitāte būs neaizsargātāka pret zādzībām. Jūsu personas datu konfidencialitāte var tikt apdraudēta vēl vairāk, izmantojot smalku ļaunprogrammatūru, ko nodrošina AI, un padarīt to vēl bīstamāku, izmantojot dziļo mācīšanos. Iedomājieties digitālo zagli, kas slēpjas jūsu iecienītāko programmu aizmugurē un ar katru dienu kļūst arvien viltīgāks, mācās no miljoniem programmatūras izmantošanas reālu piemēru un izstrādā sarežģītas identitātes zādzības, pamatojoties uz šiem datiem.
Bez nosaukuma 3 2
  • Politiskā drošība: nemierīgajos laikos, kuros dzīvojam, bailes no viltus ziņām un krāpnieciskiem ierakstiem ir diezgan pamatotas. AI varētu nodarīt lielu kaitējumu automatizētas dezinformācijas kampaņas, kas vēlēšanu laikā var būt ārkārtīgi bīstamas.

Tātad, nobeigumā, mēs varētu sev uzdot jautājumu, cik lielu kaitējumu mākslīgais intelekts varētu mums nodarīt un vai tas cilvēcei var nodarīt vairāk ļauna nekā laba.

Eksperti norāda, ka ētiskajai attīstībai un regulējošām iestādēm būs liela nozīme, lai mazinātu trūkumus, ko mākslīgais intelekts var radīt mūsu dzīvē. Lai kas arī notiktu, mēs esam pārliecināti, ka tam būs milzīga ietekme uz mūsu pasauli nākotnē.

Runas atpazīšanas programmatūra, kuras pamatā ir uzlaboti AI protokoli, jau tiek izmantota, un tā sniedz daudzas priekšrocības biznesa pasaulei: darbplūsmas ir ātrākas un vienkāršākas. Gglot ir liels spēlētājs šajā jomā, un mēs ieguldām lielus ieguldījumus savas tehnoloģijas tālākā attīstībā.