Riscos potenciais da intelixencia artificial

Cales son algúns dos riscos potenciais da intelixencia artificial?

A intelixencia artificial, ou a intelixencia artificial como tamén se adoita chamar, é un tema que se debateu moito na última década. Estase a desenvolver rapidamente, facendo que o fluxo de traballo da maioría das empresas sexa máis fácil e eficiente. Incluso na vida cotiá de moitas persoas a IA mostrou un gran potencial e xa se está a implementar en moitas aplicacións diferentes, facendo a vida máis fácil e menos complicada. A IA aportounos moitas vantaxes e a ciencia está preparando o camiño para que veñan moito máis, polo que cabe dicir que a IA será indispensable no futuro, se non o é xa.

Pero do mesmo xeito que cada medalla ten dúas caras, a IA tamén ten. Esta tecnoloxía tamén ten moitos riscos e inconvenientes potenciais. Moitos expertos e mentes técnicos do noso tempo están expresando a súa preocupación polos problemas que a IA pode causar no futuro e, polo tanto, debemos ter coidado ao abordar estes problemas mentres aínda se poidan corrixir. Que queremos dicir con iso?

Hai moitas cousas que hai que ter en conta con respecto a estas cuestións particulares. Neste artigo trataremos de describir algúns dos riscos que o deslumbrante desenvolvemento da IA pode traer ao noso mundo e que medidas hai que tomar para controlar e guiar ese progreso na dirección correcta.

1. Postos de traballo

Sen título 13

Estamos seguros de que todo o mundo xa tivo a oportunidade de escoitar ou ler sobre o posible trato que as máquinas e a automatización poden presentar aos lugares de traballo baseados en humanos da antiga escola. Algunhas persoas poden sufrir varios graos de ansiedade por que as máquinas lles rouben o seu traballo. Ese medo pode estar ben fundado, a automatización do traballo é un gran risco para moitas persoas: preto do 25% dos estadounidenses poden perder o seu traballo porque nalgún momento as máquinas poderán substituílos. Especialmente en risco están os postos de baixo salario nos que unha persoa realiza tarefas repetitivas, como traballos na administración ou na alimentación. Non obstante, aínda que algúns titulados universitarios corren risco, os algoritmos avanzados de aprendizaxe automática poden substituílos nalgúns postos de traballo complexos porque son cada vez máis refinados, especialmente mediante o uso de redes neuronais e a aprendizaxe profunda.

Pero realmente non podemos dicir que os robots expulsen completamente aos humanos do mercado laboral. Os empregados simplemente terán que axustarse, educarse e atopar unha forma de traballar cooperando coa IA, facendo o mellor uso posible da súa eficiencia e lóxica mecánica. A IA aínda non é perfecta, por exemplo, non é capaz de facer xuízos, polo que o factor humano seguirá sendo decisivo cando se traballe xunto ás máquinas.

Hai moita tecnoloxía baseada na IA que usa solucións automatizadas que deben ser adestradas e esta formación depende da entrada humana. Un bo exemplo para isto son as traducións automáticas que obteñen información dun gran número de traducións xeradas por humanos. Outro bo exemplo é o software de transcrición que obtén os datos de adestramento de transcricións precisas feitas por transcriptores humanos profesionais. Deste xeito, o software vaise mellorando pouco a pouco, perfeccionando os seus algoritmos a través de exemplos da vida real. Os transcriptores humanos benefícianse do software porque lles axuda a facer transcricións máis rápido. O software xera unha versión borrador da transcrición, que logo é editada e corrixida polo transcriptor. Isto aforra moito tempo e significa que ao final o produto final entregarase máis rápido e será máis preciso.

2. O problema da parcialidade

Unha gran cousa dos algoritmos é que sempre toman decisións xustas e non tendenciosas, en forte contraste cos humanos subxectivos e emocionais. Ou eles? O certo é que o proceso de toma de decisións de calquera software automatizado depende dos datos nos que se formaron. Así, existe o risco de discriminación nas ocasións nas que, por exemplo, un determinado segmento da poboación non está suficientemente representado nos datos empregados. Xa se está investigando o software de recoñecemento facial por algúns destes problemas, xa se produciron casos de sesgo.

Un gran exemplo do sesgado que pode ser a intelixencia artificial é COMPAS (Perfil de Xestión de Delincuentes Correccionales para Sancións Alternativas). Esta é unha ferramenta de avaliación de riscos e necesidades para a predición do risco de reincidencia entre os delincuentes. Investigouse esta ferramenta baseada en algoritmos e os resultados demostraron que os datos COMPAS tiñan un sesgo racial grave. Por exemplo, segundo os datos, os acusados afroamericanos tiñan máis probabilidades de ser xulgados incorrectamente por ter un maior risco de reincidencia que outras razas. O algoritmo tamén tendía a cometer o erro contrario coas persoas de raza branca.

Entón, que pasou aquí? O algoritmo depende dos datos, polo que se os datos están sesgados, o software probablemente tamén dea resultados sesgados. Ás veces tamén ten algo que ver coa forma en que se recolleron os datos.

A tecnoloxía de recoñecemento de voz automatizado tamén pode estar sesgada dependendo do sexo ou da raza debido ao feito de que os datos de adestramento non se seleccionan necesariamente en materia que garanta a suficiente inclusión.

3. Problemas de seguridade

Sen título 2 2

Hai algúns problemas coa intelixencia artificial que son tan perigosos que poden provocar accidentes. Un dos exemplos máis destacados da tecnoloxía de IA aplicada é o coche autónomo. Moitos expertos cren que este é o futuro do transporte. Pero o principal que está a dificultar a implantación inmediata dos coches autónomos no tráfico son as súas avarías que poden poñer en perigo a vida dos pasaxeiros e dos peóns. O debate sobre a ameaza que poden supoñer os vehículos autónomos nas estradas segue sendo moi actual. Hai xente que pensa que poderían producirse menos accidentes se se permitise a circulación de coches autónomos. Por outra banda, hai estudos que demostraron que poden provocar moitos accidentes, porque moitas das súas accións estarán baseadas nas preferencias que marca o condutor. Agora correspóndelles aos deseñadores escoller entre a seguridade e a vida das persoas e as preferencias dos pilotos (como a velocidade media e algúns outros hábitos de condución). O obxectivo principal dos coches autónomos en todo caso debería ser a redución dos accidentes automovilísticos, mediante a implementación de algoritmos de IA eficientes e sensores avanzados que poidan detectar e mesmo predecir calquera posible escenario de tráfico. Non obstante, a vida real sempre é máis complicada que calquera programa, polo que as limitacións desta tecnoloxía seguen sendo un dos factores limitantes para a súa implantación xeneralizada. Outro problema é o factor de confianza. Para moitas persoas con anos e anos de experiencia na condución, poñer toda a confianza en mans dixitais pode ser visto como un acto de capitulación simbólica ante as tendencias dixitais. En todo caso, mentres non se solucione todo isto, xa se implantaron algunhas solucións tecnolóxicas avanzadas nos coches máis novos, e os condutores humanos poden beneficiarse de diversos sensores, solucións de freada asistida e controis de crucero.

4. Fins maliciosos

A tecnoloxía debe atender ás necesidades das persoas e utilizarse para facerlles a vida máis fácil, máis agradable e debería aforrarlle a todos un tempo precioso. Pero ás veces a tecnoloxía de intelixencia artificial tamén se utilizou con fins maliciosos, de forma que supón un risco importante para a nosa seguridade física, dixital e política.

  • Seguridade física: un risco potencial da intelixencia artificial, que soa bastante dramático ao principio e que pode enfriarche ata os teus ósos é unha posible guerra entre países tecnoloxicamente avanzados, levada a cabo por sistemas de armas autónomos programados para matar da forma máis eficiente e despiadada. É por iso que é extremadamente importante regular o desenvolvemento desta tecnoloxía militar mediante tratados, regulamentos e sancións, co fin de salvagardar á humanidade do nefasto risco da guerra baseada na IA.
  • Seguridade dixital: os piratas informáticos xa son unha ameaza para a nosa seguridade dixital e xa se está a utilizar o software de intelixencia artificial para o hackeo avanzado. Co desenvolvemento deste tipo de software, os hackers serán máis eficientes nas súas fechorías e a nosa identidade en liña será máis vulnerable ao roubo. A privacidade dos teus datos persoais pode verse aínda máis comprometida a través de software malicioso sutil, impulsado pola intelixencia artificial e que se fai aínda máis perigoso co uso da aprendizaxe profunda. Imaxina un ladrón dixital, axeitado na parte traseira dos teus programas favoritos, volvéndose máis astuto día a día, aprendendo de millóns de exemplos reais de uso de software e elaborando complexos roubos de identidade a partir deses datos.
Sen título 3 2
  • Seguridade política: nos tempos convulsos que vivimos, o medo ás noticias falsas e ás gravacións fraudulentas está bastante xustificado. A IA podería facer moito dano coas campañas automatizadas de desinformación, que poden ser extremadamente perigosas durante as eleccións.

Entón, para concluír, poderiamos preguntarnos canto dano pode facernos a intelixencia artificial e pode facer máis mal que ben á humanidade.

Os expertos afirman que o desenvolvemento ético e os organismos reguladores desempeñarán un papel importante á hora de mitigar as desvantaxes que a intelixencia artificial pode causar nas nosas vidas. Pase o que pase, estamos seguros de que terá un gran impacto no noso mundo no futuro.

Xa se está a utilizar software de recoñecemento de voz, baseado en protocolos avanzados de intelixencia artificial, que aporta moitas vantaxes ao mundo empresarial: os fluxos de traballo son máis rápidos e sinxelos. Gglot é un gran xogador neste campo e estamos investindo moito no desenvolvemento da nosa tecnoloxía.