Eblaj Riskoj de Artefarita Inteligenteco

Kio Estas Iuj Eblaj Riskoj de Artefarita Inteligenteco?

Artefarita inteligenteco, aŭ la AI kiel ĝi ankaŭ estas ofte referita, estas temo kiu estis multe diskutita en la lasta jardeko. Ĝi rapide disvolviĝas, igante la laborfluon de plej multaj entreprenoj pli facila kaj pli efika. Eĉ en la ĉiutaga vivo de multaj homoj AI montris grandan potencialon kaj jam estas efektivigita en multaj malsamaj programoj, farante la vivon pli facila kaj malpli komplika. AI alportis multajn avantaĝojn al ni kaj scienco pavimas la vojon por veni multe pli, do estas sekure diri, ke AI estos nemalhavebla estonte, se ĝi ne estas jam.

Sed same kiel ĉiu medalo havas du flankojn, ankaŭ AI havas. Ĉi tiu teknologio ankaŭ venas kun multaj eblaj riskoj kaj malavantaĝoj. Multaj fakuloj kaj teknikaj plancerboj de nia tempo esprimas siajn zorgojn pri la problemoj, kiujn AI povus kaŭzi estontece, kaj tial ni devas zorgi trakti ĉi tiujn problemojn dum ili ankoraŭ povas esti korektitaj. Kion ni volas diri per tio?

Estas multaj aferoj, kiujn oni devas konsideri rilate al ĉi tiuj apartaj aferoj. En ĉi tiu artikolo ni provos priskribi kelkajn el la riskoj, kiujn la blindige rapida disvolviĝo de AI povus alporti al nia mondo kaj kian mezuron necesas preni por kontroli kaj gvidi tiun progreson en la ĝusta direkto.

1. Laborpostenoj

Sentitola 1 3

Ni certas, ke ĉiuj jam havis la ŝancon aŭdi aŭ legi pri la ebla regalo, kiun maŝinoj kaj aŭtomatigo povus prezenti al malnovaj lernejaj, hombazitaj laborlokoj. Iuj homoj povus suferi diversajn gradojn de angoro pri maŝinoj, kiuj ŝtelas siajn laborpostenojn. Tiu timo povus esti bone bazita, laboraŭtomatigo estas granda risko por multaj homoj: ĉirkaŭ 25 % de usonanoj eble perdos sian laboron ĉar iam maŝinoj povos anstataŭigi ilin. Precipe en risko estas malaltsalajraj postenoj en kiuj persono faras ripetemajn taskojn, kiel laborpostenojn en administrado aŭ manĝservo. Tamen, eĉ iuj universitataj diplomiĝintoj estas en risko, altnivelaj maŝinlernado-algoritmoj eble povus anstataŭigi ilin en iuj kompleksaj laborpostenoj ĉar ili fariĝas pli rafinitaj, precipe per la uzo de neŭralaj retoj kaj profunda lernado.

Sed ni ne povas vere diri, ke robotoj tute forpuŝos homojn el la labormerkato. Dungitoj simple devos alĝustigi, eduki sin kaj trovi manieron labori per kunlaboro kun AI, farante la plej bonan eblan uzon de ĝia efikeco kaj mekanika logiko. AI ankoraŭ ne estas perfekta, ekzemple ĝi ne kapablas fari juĝvokojn, do la homa faktoro ankoraŭ estos decida kiam oni laboras kune kun maŝinoj.

Estas multe da teknologio bazita en AI, kiu uzas aŭtomatigitajn solvojn, kiuj devas esti trejnitaj kaj ĉi tiu trejnado dependas de homa enigo. Bona ekzemplo por tio estas maŝintradukoj, kiuj akiras enigaĵon el granda nombro da homaj tradukoj. Alia bona ekzemplo estas transskriba programaro, kiu ricevas la trejnajn datumojn de precizaj transskriboj faritaj de profesiaj homaj transskribantoj. Tiel la programaro plibonigas iom post iom, rafinante siajn algoritmojn per realaj ekzemploj. Homaj transskribantoj profitas de la programaro ĉar ĝi helpas ilin fari transskribaĵojn pli rapide. La programaro generas malglatan, skizan version de la transskribaĵo, kiu tiam estas redaktita kaj korektita de la transskribanto. Ĉi tio ŝparas multan tempon, kaj signifas, ke finfine la fina produkto estos liverita pli rapide kaj estos pli preciza.

2. La problemo de biaso

Granda afero pri algoritmoj estas, ke ili ĉiam faras justajn, nepartiajn decidojn, en akra kontrasto al subjektivaj kaj emociaj homoj. Aŭ ĉu ili? La vero estas, ke la decidprocezo de ajna aŭtomatigita programaro dependas de la datumoj, sur kiuj ili estis trejnitaj. Do, ekzistas risko de diskriminacio en okazoj kiam ekzemple certa segmento de la loĝantaro ne estas sufiĉe reprezentita en la uzataj datumoj. Vizaĝa rekona programaro jam estas enketata por iuj el ĉi tiuj problemoj, kazoj de antaŭjuĝo jam okazis.

Unu bonega ekzemplo de kiom partia la artefarita inteligenteco povas esti estas COMPAS (Korectional Offender Management Profiling for Alternative Sanctions). Ĉi tio estas risko-kaj-bezona taksa ilo por antaŭdiro de recidivrisko inter leĝrompintoj. Ĉi tiu algoritm-bazita ilo estis esplorita kaj rezultoj montris ke la COMPAS-datumoj estis grave rase partiaj. Ekzemple, laŭ la datumoj, afro-amerikanaj akuzitoj pli verŝajne estis malĝuste juĝitaj por havi pli altan riskon de recidivo ol aliaj rasoj. La algoritmo ankaŭ emis fari la kontraŭan eraron kun homoj de blanka raso.

Do, kio okazis ĉi tie? La algoritmo dependas de datumoj, do se la datumoj estas partiaj, la programaro probable donos ankaŭ nepartiajn rezultojn. Kelkfoje ĝi ankaŭ rilatas al kiel la datumoj estis kolektitaj.

Aŭtomatigita Parola Rekono-teknologio ankaŭ povas esti influita depende de sekso aŭ raso pro la fakto ke trejnaj datumoj ne estas nepre elektitaj en materio kiu certigus sufiĉe da inkluziveco.

3. Sekurecaj zorgoj

Sentitola 2 2

Estas iuj problemoj kun artefarita inteligenteco, kiuj estas tiel danĝeraj, ke ili povas konduki al akcidentoj. Unu el la pli elstaraj ekzemploj de aplikata AI-teknologio estas la memvetura aŭto. Multaj fakuloj opinias, ke ĉi tio estas la estonteco de transportado. Sed la ĉefa afero, kiu malhelpas la tujan efektivigon de memveturaj aŭtoj en trafikon, estas ĝiaj misfunkcioj, kiuj povus endanĝerigi la vivon de pasaĝeroj kaj piedirantoj. La debato pri la minaco, kiun aŭtonomaj veturiloj povus prezenti sur la vojoj, estas ankoraŭ tre reala. Estas homoj, kiuj opinias, ke povus esti malpli da akcidentoj, se aŭtoveturaj aŭtoj estus permesitaj survoje. Aliflanke, ekzistas studoj, kiuj montris, ke ili povus kaŭzi multajn kraŝojn, ĉar multaj el iliaj agoj estos bazitaj sur la preferoj fiksitaj de la ŝoforo. Nun dependas de la dizajnistoj elekti inter sekureco kaj vivo kaj preferoj de homoj (kiel averaĝa rapideco kaj iuj aliaj veturkutimoj). La ĉefa celo de memveturaj aŭtoj ĉiukaze devus esti la redukto de aŭtomobilaj akcidentoj, per la efektivigo de efikaj AI-algoritmoj kaj altnivelaj sensiloj, kiuj povas detekti kaj eĉ antaŭdiri ajnajn eblajn trafikajn scenarojn. Tamen, la reala vivo estas ĉiam pli komplika ol ajna programo, do la limigoj de ĉi tiu teknologio ankoraŭ estas unu el la limigaj faktoroj por ĝia disvastigita efektivigo. Alia problemo estas la faktoro de fido. Por multaj homoj kun jaroj kaj jaroj da vetursperto, meti la tutan fidon en ciferecajn manojn povus esti vidita kiel ago de simbola kapitulaco al ciferecaj tendencoj. Ĉiukaze, ĝis ĉio ĉi estas solvita, iuj altnivelaj teknologiaj solvoj jam estis efektivigitaj en pli novaj aŭtoj, kaj homaj ŝoforoj povas profiti el diversaj sensiloj, helpitaj bremsaj solvoj kaj krozkontroloj.

4. Malicaj celoj

Teknologio devas servi la bezonojn de homoj kaj esti uzata por plifaciligi, pli ĝua ilian vivon kaj ĝi devus ŝpari la altvaloran tempon de ĉiuj. Sed foje AI-teknologio ankaŭ estis uzata por malicaj celoj, en maniero kiu prezentas gravan riskon al nia fizika, cifereca kaj politika sekureco.

  • Fizika sekureco: Unu ebla risko de AI, kiu sonas sufiĉe drameca komence kaj povus malvarmigi vin ĝis viaj ostoj, estas ebla milito inter teknologie progresintaj landoj, farita per aŭtonomaj armilsistemoj programitaj por mortigi en la plej efika kaj senkompata maniero. Tial estas ege grave reguligi la evoluon de tia milita teknologio per traktatoj, regularoj kaj sankcioj, por protekti la homaron kontraŭ la malbonaŭgura risko de AI bazita militado.
  • Cifereca sekureco: Hakistoj jam estas minaco al nia cifereca sekureco kaj AI-programaro jam estas uzata por altnivela hakado. Kun la disvolviĝo de tia programaro, piratoj estos pli efikaj en siaj misfaroj kaj nia interreta identeco estos pli vundebla al ŝtelo. Privateco de viaj personaj datumoj povus esti endanĝerigita eĉ pli per subtila malware, funkciigita de AI kaj eĉ pli danĝera per la uzo de profunda lernado. Imagu ciferecan ŝteliston, kaŝatentan en la malantaŭo de viaj plej ŝatataj programoj, fariĝante pli ruza tago post tago, lernante de milionoj da realvivaj ekzemploj de softvaruzo kaj kreante kompleksajn identajn ŝtelojn bazitajn sur tiuj datumoj.
Sentitola 3 2
  • Politika sekureco: en la turbulaj tempoj, en kiuj ni vivas, la timo pri falsaj novaĵoj kaj fraŭdaj registradoj estas sufiĉe pravigita. AI povus fari multe da damaĝo per aŭtomataj misinformkampanjoj, kiuj povas esti ekstreme danĝeraj dum elektoj.

Do, por konkludi, ni povus demandi nin, kiom da damaĝo povus fari al ni artefarita inteligenteco kaj ĉu ĝi povas fari pli da damaĝo ol bono al la homaro.

Fakuloj deklaras, ke etika disvolviĝo kaj reguligaj korpoj ludos gravan rolon kiam temas mildigi la malavantaĝojn, kiujn artefarita inteligenteco povus kaŭzi al niaj vivoj. Kio ajn okazos, ni certas, ke ĝi havos grandegan efikon sur nia mondo en la estonteco.

Parola rekona programaro, bazita sur altnivelaj AI-protokoloj, jam estas uzata, kaj ĝi alportas multajn avantaĝojn al la komerca mondo: laborfluoj estas pli rapidaj kaj pli simplaj. Gglot estas granda ludanto en ĉi tiu kampo kaj ni multe investas por disvolvi nian teknologion plu.