Riscos potenciais da inteligência artificial

Quais são alguns riscos potenciais da inteligência artificial?

A inteligência artificial, ou a IA, como também é frequentemente chamada, é um assunto que tem sido muito discutido na última década. Está se desenvolvendo rapidamente, tornando o fluxo de trabalho da maioria das empresas mais fácil e eficiente. Mesmo no dia a dia de muitas pessoas, a IA mostrou um grande potencial e já está sendo implementada em muitos aplicativos diferentes, tornando a vida mais fácil e menos complicada. A IA trouxe muitas vantagens para nós e a ciência está abrindo caminho para muito mais por vir, então é seguro dizer que a IA será indispensável no futuro, se já não for.

Mas, assim como toda medalha tem dois lados, o mesmo acontece com a IA. Essa tecnologia também vem com muitos riscos e desvantagens potenciais. Muitos especialistas e técnicos mentores do nosso tempo estão expressando suas preocupações sobre os problemas da IA pode causar no futuro e, portanto, precisamos ter cuidado para lidar com isso problemas enquanto eles ainda podem ser corrigidos. O que queremos dizer com isso?

Há muitas coisas que precisam ser consideradas em relação a essas questões específicas. Neste artigo, tentaremos descrever alguns dos riscos que o desenvolvimento incrivelmente rápido da IA pode trazer ao nosso mundo e quais medidas precisam ser tomadas para monitorar e orientar esse progresso na direção certa.

1. Empregos

Sem título 1 3

Temos certeza de que todos já tiveram a oportunidade de ouvir ou ler sobre o potencial tratamento que as máquinas e a automação podem apresentar aos idosos escola, locais de trabalho baseados no homem. Algumas pessoas podem sofrer de vários graus de ansiedade sobre as máquinas roubarem seus empregos. Esse medo pode ser bem fundamentado, a automação do trabalho é um grande risco para muitas pessoas: cerca de 25% dos americanos podem perdem o emprego porque em algum momento as máquinas poderão substituí-los. Especialmente em risco estão os cargos de baixos salários em que uma pessoa faz repetições tarefas, como empregos na administração ou no serviço de alimentação. No entanto, mesmo alguns graduados universitários estão em risco, algoritmos avançados de aprendizado de máquina podem estar capazes de substituí-los em algumas posições de trabalho complexas porque estão se tornando mais refinado, especialmente através do uso de redes neurais e aprendizagem.

Mas não podemos realmente dizer que os robôs expulsarão completamente os humanos de mercado de trabalho. Os funcionários simplesmente terão que se ajustar, se educar e encontrar uma maneira de trabalhar cooperando com a IA, fazendo o melhor uso possível de sua eficiência e lógica mecânica. A IA ainda não é perfeita, por exemplo, não é capaz de fazer julgamentos, de modo que o fator humano ainda será decisivo quando trabalhando ao lado de máquinas.

Há muita tecnologia baseada em IA que usa soluções automatizadas que precisam ser treinadas e esse treinamento depende da contribuição humana. Um bom exemplo disso são as traduções automáticas que obtêm informações de um grande número de traduções geradas por humanos. Outro bom exemplo é o software de transcrição que obtém os dados de treinamento de transcrições precisas feitas por transcritores humanos profissionais. Dessa forma, o software é aprimorado aos poucos, refinando seus algoritmos por meio de exemplos da vida real. Os transcritores humanos se beneficiam do software porque ele os ajuda a tornar as transcrições mais rápidas. O software gera uma versão preliminar da transcrição, que é então editada e corrigida pelo transcritor. Isso economiza muito tempo e significa que, no final, o produto final será entregue mais rapidamente e será mais preciso.

2. O problema do viés

Uma grande coisa sobre os algoritmos é que eles sempre são justos, não tendenciosos decisões, em nítido contraste com os humanos subjetivos e emocionais. Ou não? A verdade é que o processo de tomada de decisão de qualquer software automatizado depende nos dados em que foram treinados. Portanto, existe o risco de discriminação em ocasiões em que, por exemplo, um determinado segmento do população não está representada o suficiente nos dados utilizados. Reconhecimento facial software já está sendo investigado para alguns desses problemas, casos de viés já ocorreu.

Um ótimo exemplo de como a inteligência artificial pode ser tendenciosa é COMPAS (Perfil de Gestão de Infratores Penitenciários para Sanções Alternativas). Esta é uma ferramenta de avaliação de risco e necessidades para prever o risco de reincidência entre os infratores. Esta ferramenta baseada em algoritmos foi investigada e os resultados foram mostrou que os dados do COMPAS eram seriamente tendenciosos racialmente. Por exemplo de acordo com os dados, os réus afro-americanos eram mais propensos a ser incorretamente julgado como tendo um risco maior de reincidência do que outras raças. O algoritmo também tendia a cometer o erro oposto com pessoas de raça branca.

Então, o que aconteceu aqui? O algoritmo é dependente de dados, portanto, se os dados são tendenciosos, o software provavelmente também fornecerá resultados tendenciosos. Às vezes também tem algo a ver com a forma como os dados foram coletados.

A tecnologia de reconhecimento automatizado de fala também pode ser tendenciosa dependendo do gênero ou raça devido ao fato de que os dados de treinamento não são necessariamente selecionados de forma a garantir inclusão suficiente.

3. Preocupações de segurança

Sem título 2 2

Existem alguns problemas com a inteligência artificial que são tão perigosos que podem levar a acidentes. Um dos exemplos mais proeminentes de tecnologia de IA aplicada é o carro autônomo. Muitos especialistas acreditam que este é o futuro do transporte. Mas a principal coisa que está impedindo a implementação imediata de carros autônomos no trânsito são seus problemas de funcionamento, que podem colocar em risco a vida de passageiros e pedestres. O debate sobre a ameaça que os veículos autônomos podem representar nas estradas ainda é muito atual. Há pessoas que pensam que poderia haver menos acidentes se os carros autônomos fossem permitidos nas estradas. Por outro lado, existem estudos que mostraram que eles podem causar muitos acidentes, porque muitas de suas ações serão baseadas nas preferências definidas pelo motorista. Agora cabe aos designers escolher entre a segurança e a vida das pessoas e as preferências do piloto (como velocidade média e alguns outros hábitos de direção). O principal objetivo dos carros autônomos, em qualquer caso, deve ser a redução de acidentes automobilísticos, por meio da implementação de algoritmos de IA eficientes e sensores avançados que possam detectar e até prever possíveis cenários de tráfego. No entanto, a vida real é sempre mais complicada do que qualquer programa, portanto, as limitações dessa tecnologia ainda são um dos fatores limitantes para sua ampla implementação. Outro problema é o fator de confiança. Para muitas pessoas com anos e anos de experiência como motorista, colocar toda a confiança nas mãos digitais pode ser visto como um ato de capitulação simbólica às tendências digitais. De qualquer forma, até que tudo isso seja resolvido, algumas soluções tecnológicas avançadas já foram implementadas em carros mais novos, e os motoristas humanos podem se beneficiar de vários sensores, soluções de frenagem assistida e controles de cruzeiro.

4. Fins maliciosos

A tecnologia deve atender às necessidades das pessoas e ser usada para tornar suas vidas mais fácil, mais agradável e deve economizar o precioso tempo de todos. Mas às vezes, a tecnologia de IA também tem sido usada para fins maliciosos, de certa forma Isso representa um risco significativo para nossa segurança física, digital e política.

  • Segurança física: Um risco potencial da IA, que parece bastante dramático no início e pode arrepiar você até os ossos, é uma guerra potencial entre países tecnologicamente avançados, realizada por sistemas de armas autônomos programados para matar da maneira mais eficiente e implacável. É por isso que é extremamente importante regular o desenvolvimento dessa tecnologia militar por meio de tratados, regulamentos e sanções, a fim de proteger a humanidade do risco sinistro de uma guerra baseada em IA.
  • Segurança digital: os hackers já são uma ameaça à nossa segurança digital e o software de IA já está sendo usado para hacking avançado. Com o desenvolvimento desse software, os hackers serão mais eficientes em seus delitos e nossa identidade online ficará mais vulnerável a roubos. A privacidade de seus dados pessoais pode ser comprometida ainda mais por meio de malware sutil, alimentado por IA e ainda mais perigoso com o uso de aprendizado profundo. Imagine um ladrão digital, à espreita na parte de trás de seus programas favoritos, tornando-se mais astuto a cada dia, aprendendo com milhões de exemplos da vida real de uso de software e criando roubos de identidade complexos com base nesses dados.
Sem título 3 2
  • Segurança política: nos tempos turbulentos em que vivemos, o medo da falsificação notícias e gravações fraudulentas é bastante justificada. A IA pode causar muitos danos por automatizado campanhas de desinformação, que podem ser extremamente perigosas durante as eleições.

Então, para concluir, podemos nos perguntar quanto dano artificial A inteligência pode nos fazer e pode fazer mais mal do que bem à humanidade.

Especialistas afirmam que o desenvolvimento ético e os órgãos reguladores desempenharão um papel importante maior parte quando se trata de mitigar as desvantagens que o artificial inteligência pode causar às nossas vidas. Aconteça o que acontecer, temos certeza de que terá um enorme impacto em nosso mundo no futuro.

O software de reconhecimento de fala, baseado em protocolos avançados de IA, já é sendo usado, e traz muitas vantagens para o mundo dos negócios: os fluxos de trabalho são mais rápido e mais simples. Gglot é um grande player neste campo e estamos fortemente investindo no desenvolvimento de nossa tecnologia.