Riscos potenciais de inteligência artificial

Quais são alguns dos riscos potenciais da inteligência artificial?

A inteligência artificial, ou IA, como também é frequentemente chamada, é um assunto muito discutido na última década. Ele está se desenvolvendo rapidamente, tornando o fluxo de trabalho da maioria das empresas mais fácil e eficiente. Mesmo no dia a dia de muitas pessoas, a IA mostrou grande potencial e já está sendo implementada em diversos aplicativos, tornando a vida mais fácil e menos complicada. A IA trouxe muitas vantagens para nós e a ciência está abrindo caminho para muito mais por vir, por isso é seguro dizer que a IA será indispensável no futuro, se é que já não é.

Mas, assim como toda medalha tem dois lados, o AI também tem. Essa tecnologia também apresenta muitos riscos e desvantagens potenciais. Muitos especialistas e gênios técnicos de nosso tempo estão expressando suas preocupações sobre os problemas que a IA pode causar no futuro e, portanto, precisamos ter o cuidado de resolver esses problemas enquanto eles ainda podem ser corrigidos. O que queremos dizer com isso?

Há muitas coisas que precisam ser consideradas em relação a essas questões específicas. Neste artigo, tentaremos descrever alguns dos riscos que o desenvolvimento incrivelmente rápido da IA pode trazer para o nosso mundo e que medidas precisam ser tomadas para monitorar e orientar esse progresso na direção certa.

1. Empregos

Sem título 1 3

Temos certeza de que todos já tiveram a oportunidade de ouvir ou ler sobre o potencial tratamento que as máquinas e a automação podem representar para locais de trabalho humanos da velha escola. Algumas pessoas podem sofrer de vários graus de ansiedade sobre máquinas roubando seus empregos. Esse medo pode ser bem fundado, a automação de empregos é um grande risco para muitas pessoas: cerca de 25% dos americanos podem perder seus empregos porque em algum momento as máquinas serão capazes de substituí-los. Especialmente em risco estão os cargos de baixa remuneração em que uma pessoa executa tarefas repetitivas, como empregos na administração ou no serviço de alimentação. No entanto, mesmo alguns graduados universitários estão em risco, algoritmos avançados de aprendizado de máquina podem ser capazes de substituí-los em algumas posições de trabalho complexas porque estão se tornando mais refinados, especialmente por meio do uso de redes neurais e aprendizado profundo.

Mas não podemos realmente dizer que os robôs irão expulsar completamente os humanos do mercado de trabalho. Os funcionários terão apenas que se ajustar, se educar e encontrar uma forma de trabalhar cooperando com a IA, fazendo o melhor uso de sua eficiência e lógica mecânica. A IA ainda não é perfeita, por exemplo, não é capaz de fazer julgamentos, então o fator humano ainda será decisivo ao trabalhar ao lado de máquinas.

Existe uma grande quantidade de tecnologia baseada em IA que usa soluções automatizadas que precisam ser treinadas e esse treinamento depende da intervenção humana. Um bom exemplo disso são as traduções automáticas que obtêm informações de um grande número de traduções geradas por humanos. Outro bom exemplo é o software de transcrição que obtém os dados de treinamento de transcrições precisas feitas por transcritores humanos profissionais. Dessa forma o software vai sendo aprimorado aos poucos, refinando seus algoritmos por meio de exemplos da vida real. Os transcritores humanos se beneficiam do software porque os ajuda a fazer as transcrições com mais rapidez. O software gera uma versão preliminar da transcrição, que é editada e corrigida pelo transcritor. Isso economiza muito tempo e significa que no final o produto final será entregue mais rápido e com mais precisão.

2. O problema do preconceito

Uma coisa boa sobre algoritmos é que eles sempre tomam decisões justas e imparciais, em nítido contraste com humanos subjetivos e emocionais. Ou eles querem? A verdade é que o processo de tomada de decisão de qualquer software automatizado depende dos dados em que foi treinado. Assim, existe o risco de discriminação em ocasiões em que, por exemplo, determinado segmento da população não está suficientemente representado nos dados utilizados. Um software de reconhecimento facial já está sendo investigado para alguns desses problemas, casos de viés já ocorreram.

Um grande exemplo de como a inteligência artificial pode ser tendenciosa é o COMPAS (Perfil de Gerenciamento de Delinquente Correcional para Sanções Alternativas). Esta é uma ferramenta de avaliação de risco e necessidades para a previsão do risco de reincidência entre os infratores. Esta ferramenta baseada em algoritmo foi investigada e os resultados mostraram que os dados do COMPAS eram seriamente tendenciosos racialmente. Por exemplo, de acordo com os dados, os réus afro-americanos eram mais propensos a serem incorretamente julgados como tendo um risco maior de reincidência do que outras raças. O algoritmo também tendia a cometer o erro oposto com pessoas de raça branca.

Então, o que aconteceu aqui? O algoritmo depende dos dados, portanto, se os dados forem tendenciosos, o software provavelmente também fornecerá resultados tendenciosos. Às vezes, também tem a ver com a forma como os dados foram coletados.

A tecnologia de reconhecimento automatizado de fala também pode ser tendenciosa, dependendo do sexo ou raça, devido ao fato de que os dados de treinamento não são necessariamente selecionados de forma a garantir inclusão suficiente.

3. Questões de segurança

Sem título 2 2

Existem alguns problemas com a inteligência artificial que são tão perigosos que podem causar acidentes. Um dos exemplos mais proeminentes de tecnologia de IA aplicada é o carro autônomo. Muitos especialistas acreditam que este é o futuro do transporte. Mas o principal fator que impede a implementação imediata de carros autônomos no tráfego são seus defeitos, que podem colocar em risco a vida de passageiros e pedestres. O debate sobre a ameaça que os veículos autônomos podem representar nas estradas ainda é muito atual. Há pessoas que pensam que poderia haver menos acidentes se os carros autônomos fossem permitidos na estrada. Por outro lado, há estudos que mostram que podem causar muitos travamentos, pois muitas de suas ações serão baseadas nas preferências definidas pelo driver. Agora cabe aos designers escolher entre a segurança e a vida das pessoas e as preferências do piloto (como velocidade média e alguns outros hábitos de direção). O principal objetivo dos carros autônomos em qualquer caso deve ser a redução de acidentes automobilísticos, por meio da implementação de algoritmos de IA eficientes e sensores avançados que possam detectar e até mesmo prever possíveis cenários de tráfego. No entanto, a vida real é sempre mais complicada que qualquer programa, por isso as limitações desta tecnologia ainda são um dos fatores limitantes para sua ampla implementação. Outro problema é o fator confiança. Para muitas pessoas com anos e anos de experiência como motorista, colocar toda a confiança em mãos digitais pode ser visto como um ato de capitulação simbólica às tendências digitais. Em qualquer caso, até que tudo isso seja resolvido, algumas soluções tecnológicas avançadas já foram implementadas em carros mais novos, e os motoristas humanos podem se beneficiar de vários sensores, soluções de travagem assistida e controles de cruzeiro.

4. Fins maliciosos

A tecnologia deve atender às necessidades das pessoas e ser usada para tornar suas vidas mais fáceis, mais agradáveis e deve economizar o tempo precioso de todos. Mas às vezes a tecnologia de IA também tem sido usada para fins maliciosos, de uma forma que representa um risco significativo para nossa segurança física, digital e política.

  • Segurança física: um risco potencial da IA, que parece bastante dramático no início e pode deixá-lo gelado até os ossos, é uma guerra potencial entre países tecnologicamente avançados, realizada por sistemas de armas autônomos programados para matar da maneira mais eficiente e cruel. É por isso que é extremamente importante regular o desenvolvimento de tal tecnologia militar por meio de tratados, regulamentos e sanções, a fim de salvaguardar a humanidade do risco nefasto da guerra baseada em IA.
  • Segurança digital: os hackers já são uma ameaça à nossa segurança digital e o software de IA já está sendo usado para hackers avançados. Com o desenvolvimento de tal software, os hackers serão mais eficientes em seus delitos e nossa identidade online ficará mais vulnerável ao roubo. A privacidade de seus dados pessoais pode ser comprometida ainda mais por meio de malware sutil, alimentado por IA e tornada ainda mais perigosa com o uso de aprendizado profundo. Imagine um ladrão digital se escondendo atrás de seus programas favoritos, tornando-se mais astuto a cada dia, aprendendo com milhões de exemplos da vida real de uso de software e criando roubos de identidade complexos com base nesses dados.
Sem título 3 2
  • Segurança política: nos tempos turbulentos em que vivemos, o medo de notícias falsas e gravações fraudulentas é bastante justificado. A IA pode causar muitos danos por campanhas automatizadas de desinformação, que podem ser extremamente perigosas durante as eleições.

Portanto, para concluir, podemos nos perguntar quanto dano a inteligência artificial pode nos causar e pode fazer mais mal do que bem à humanidade.

Os especialistas afirmam que o desenvolvimento ético e os órgãos reguladores desempenharão um papel importante quando se trata de mitigar as desvantagens que a inteligência artificial pode causar às nossas vidas. Aconteça o que acontecer, temos certeza de que terá um grande impacto em nosso mundo no futuro.

Softwares de reconhecimento de voz, baseados em protocolos avançados de IA já estão sendo utilizados e trazem muitas vantagens para o mundo dos negócios: os fluxos de trabalho são mais rápidos e simples. A Gglot é um grande player neste campo e estamos investindo pesadamente no desenvolvimento de nossa tecnologia.