Riscos potencials de la intel·ligència artificial
Quins són alguns dels riscos potencials de la intel·ligència artificial?
La intel·ligència artificial, o la intel·ligència artificial com també s'anomena sovint, és un tema que s'ha parlat molt en l'última dècada. S'està desenvolupant ràpidament, fent que el flux de treball de la majoria de les empreses sigui més fàcil i eficient. Fins i tot en la vida quotidiana de moltes persones, la IA ha mostrat un gran potencial i ja s'està implementant en moltes aplicacions diferents, fent la vida més fàcil i menys complicada. La IA ens ha aportat molts avantatges i la ciència està preparant el camí per a molt més, per la qual cosa es pot dir que la IA serà indispensable en el futur, si no ho és ja.
Però de la mateixa manera que cada medalla té dues cares, també ho té la IA. Aquesta tecnologia també comporta molts riscos i desavantatges potencials. Molts experts i cervells tècnics del nostre temps expressen la seva preocupació sobre els problemes que la IA podria causar en el futur i, per tant, hem de tenir cura d'abordar aquests problemes mentre encara es puguin corregir. Què volem dir amb això?
Hi ha moltes coses que s'han de tenir en compte pel que fa a aquests problemes concrets. En aquest article intentarem descriure alguns dels riscos que el desenvolupament fulgurantment ràpid de la IA pot comportar al nostre món i quines mesures cal prendre per controlar i guiar aquest progrés en la direcció correcta.
1. Feines
Estem segurs que tothom ja va tenir l'oportunitat d'escoltar o llegir sobre el possible tracte que les màquines i l'automatització poden presentar als llocs de treball basats en humans de la vella escola. Algunes persones poden patir diversos graus d'ansietat per les màquines que els roben la feina. Aquesta por podria estar ben fundada, l'automatització del treball és un gran risc per a moltes persones: al voltant del 25% dels nord-americans poden perdre la feina perquè en algun moment les màquines podran substituir-les. Es troben especialment en risc els llocs de baix salari en què una persona fa tasques repetitives, com ara feines d'administració o servei d'alimentació. Tanmateix, fins i tot alguns graduats universitaris estan en risc, els algorismes avançats d'aprenentatge automàtic poden ser capaços de substituir-los en algunes posicions de treball complexes perquè s'estan perfeccionant, especialment mitjançant l'ús de xarxes neuronals i l'aprenentatge profund.
Però realment no podem dir que els robots expulsaran completament els humans del mercat laboral. Els empleats simplement hauran d'ajustar-se, educar-se i trobar una manera de treballar cooperant amb la IA, fent el millor ús possible de la seva eficiència i lògica mecànica. La IA encara no és perfecta, per exemple, no és capaç de fer trucades de judici, de manera que el factor humà encara serà decisiu quan es treballa al costat de màquines.
Hi ha molta tecnologia basada en IA que utilitza solucions automatitzades que s'han de formar i aquesta formació depèn de l'aportació humana. Un bon exemple d'això són les traduccions automàtiques que obtenen informació d'un gran nombre de traduccions generades per humans. Un altre bon exemple és el programari de transcripció que obté les dades d'entrenament a partir de transcripcions precises fetes per transcriptors humans professionals. D'aquesta manera, el programari es millora a poc a poc, perfeccionant els seus algorismes a través d'exemples de la vida real. Els transcriptors humans es beneficien del programari perquè els ajuda a fer transcripcions més ràpidament. El programari genera una versió aproximada d'esborrany de la transcripció, que després és editada i corregida pel transcriptor. Això estalvia molt de temps i significa que al final el producte final es lliurarà més ràpid i serà més precís.
2. El problema del biaix
Una gran cosa dels algorismes és que sempre prenen decisions justes i no esbiaixades, en fort contrast amb els humans subjectius i emocionals. O ells? El cert és que el procés de presa de decisions de qualsevol programari automatitzat depèn de les dades sobre les quals s'ha entrenat. Així doncs, hi ha risc de discriminació en ocasions en què, per exemple, un determinat segment de la població no està prou representat en les dades utilitzades. El programari de reconeixement facial ja s'està investigant per alguns d'aquests problemes, ja es van produir casos de biaix.
Un bon exemple de fins a quin punt pot ser esbiaixada la intel·ligència artificial és COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Aquesta és una eina d'avaluació de riscos i necessitats per a la predicció del risc de reincidència entre els delinqüents. Es va investigar aquesta eina basada en algoritmes i els resultats han demostrat que les dades de COMPAS estaven seriosament esbiaixades racialment. Per exemple, segons les dades, els acusats afroamericans tenien més probabilitats de ser jutjats incorrectament per tenir un risc més elevat de reincidència que altres races. L'algoritme també va tendir a cometre l'error contrari amb persones de raça blanca.
Aleshores, què va passar aquí? L'algorisme depèn de les dades, de manera que si les dades estan esbiaixades, el programari també donarà resultats esbiaixats. De vegades també té alguna cosa a veure amb com es van recollir les dades.
La tecnologia de reconeixement de veu automatitzat també es pot esbiaixar en funció del gènere o la raça a causa del fet que les dades d'entrenament no es seleccionen necessàriament en matèria que garanteixi una inclusió suficient.
3. Problemes de seguretat
Hi ha alguns problemes amb la intel·ligència artificial que són tan perillosos que poden provocar accidents. Un dels exemples més destacats de la tecnologia d'IA aplicada és el cotxe autònom. Molts experts creuen que aquest és el futur del transport. Però el principal que dificulta la implantació immediata dels cotxes autònoms al trànsit són els seus mals funcionaments que poden posar en perill la vida dels passatgers i vianants. El debat sobre l'amenaça que poden suposar els vehicles autònoms a les carreteres és encara molt actual. Hi ha gent que pensa que podria haver-hi menys accidents si es permetés la circulació de cotxes autònoms. D'altra banda, hi ha estudis que han demostrat que poden provocar molts xocs, perquè moltes de les seves accions es basaran en les preferències marcades pel conductor. Ara correspon als dissenyadors triar entre la seguretat i la vida de les persones i les preferències del pilot (com la velocitat mitjana i alguns altres hàbits de conducció). L'objectiu principal dels cotxes autònoms hauria de ser, en tot cas, la reducció dels accidents automobilístics, mitjançant la implementació d'algoritmes d'IA eficients i sensors avançats que puguin detectar i fins i tot predir qualsevol possible escenari de trànsit. Tanmateix, la vida real sempre és més complicada que qualsevol programa, per la qual cosa les limitacions d'aquesta tecnologia segueixen sent un dels factors limitants per a la seva implantació generalitzada. Un altre problema és el factor de confiança. Per a moltes persones amb anys i anys d'experiència en la conducció, posar tota la confiança en mans digitals pot ser vist com un acte de capitulació simbòlica a les tendències digitals. En tot cas, fins que tot això no es resolgui, ja s'han implantat algunes solucions tecnològiques avançades en els cotxes més nous, i els conductors humans poden beneficiar-se de diversos sensors, solucions de frenada assistida i controls de creuer.
4. Propòsits maliciosos
La tecnologia ha de satisfer les necessitats de les persones i s'ha d'utilitzar per fer-li la vida més fàcil, més agradable i hauria d'estalviar un temps preciós a tothom. Però de vegades la tecnologia d'IA també s'ha utilitzat amb finalitats malicioses, d'una manera que suposa un risc important per a la nostra seguretat física, digital i política.
- Seguretat física: un risc potencial de la IA, que sona força dramàtic al principi i que us pot refredar fins als ossos és una possible guerra entre països tecnològicament avançats, duta a terme per sistemes d'armes autònoms programats per matar de la manera més eficient i despietada. Per això és extremadament important regular el desenvolupament d'aquesta tecnologia militar mitjançant tractats, regulacions i sancions, per tal de salvaguardar la humanitat del nefast risc de la guerra basada en IA.
- Seguretat digital: els pirates informàtics ja són una amenaça per a la nostra seguretat digital i el programari d'IA ja s'està utilitzant per a la pirateria avançada. Amb el desenvolupament d'aquest programari, els pirates informàtics seran més eficients en les seves feines i la nostra identitat en línia serà més vulnerable al robatori. La privadesa de les vostres dades personals es pot veure encara més compromesa amb programari maliciós subtil, impulsat per IA i encara més perillós mitjançant l'ús de l'aprenentatge profund. Imagineu-vos un lladre digital que s'amaga al darrere dels vostres programes preferits, esdevé més astut dia a dia, aprenent de milions d'exemples reals d'ús de programari i elaborant complexos robatoris d'identitat basats en aquestes dades.
- Seguretat política: en els temps convulsos que vivim, la por a les notícies falses i a les gravacions fraudulentes està força justificada. La IA podria fer molt mal amb campanyes automatitzades de desinformació, que poden ser extremadament perilloses durant les eleccions.
Així, per concloure, ens podríem preguntar quant de dany ens podria fer la intel·ligència artificial i pot fer més mal que bé a la humanitat.
Els experts afirmen que el desenvolupament ètic i els organismes reguladors jugaran un paper important a l'hora de mitigar els desavantatges que la intel·ligència artificial pot causar a les nostres vides. Passi el que passi, estem segurs que tindrà un gran impacte en el nostre món en el futur.
Ja s'utilitza programari de reconeixement de veu, basat en protocols avançats d'IA, i aporta molts avantatges al món empresarial: els fluxos de treball són més ràpids i senzills. Gglot és un gran jugador en aquest camp i estem invertint molt en el desenvolupament de la nostra tecnologia.