Risques potentiels de l'intelligence artificielle
Quels sont les risques potentiels de l'intelligence artificielle?
L'intelligence artificielle, ou l'IA comme on l'appelle souvent, est un sujet qui a été beaucoup discuté au cours de la dernière décennie. Il se développe rapidement, rendant le flux de travail de la plupart des entreprises plus facile et plus efficace. Même dans la vie quotidienne de nombreuses personnes, l'IA a montré un grand potentiel et est déjà mise en œuvre dans de nombreuses applications différentes, ce qui rend la vie plus facile et moins compliquée. L'IA nous a apporté de nombreux avantages et la science ouvre la voie à bien d'autres choses à venir, il est donc prudent de dire que l'IA sera indispensable à l'avenir, si ce n'est déjà fait.
Mais tout comme chaque médaille a deux côtés, il en va de même pour l'IA. Cette technologie comporte également de nombreux risques et inconvénients potentiels. De nombreux experts et cerveaux techniques de notre époque expriment leurs inquiétudes quant aux problèmes que l'IA pourrait causer à l'avenir et nous devons donc faire attention à résoudre ces problèmes tant qu'ils peuvent encore être corrigés. Qu'est-ce que nous entendons par là?
Il y a beaucoup de choses à considérer en ce qui concerne ces problèmes particuliers. Dans cet article, nous tenterons de décrire certains des risques que le développement incroyablement rapide de l'IA pourrait apporter à notre monde et quelles mesures doivent être prises pour suivre et guider ces progrès dans la bonne direction.
1. Emplois
Nous sommes sûrs que tout le monde a déjà eu l'occasion d'entendre ou de lire sur le traitement potentiel que les machines et l'automatisation pourraient présenter aux lieux de travail de la vieille école, basés sur l'homme. Certaines personnes peuvent souffrir de divers degrés d'anxiété à propos des machines qui volent leur emploi. Cette crainte est peut-être bien fondée, l'automatisation des tâches est un grand risque pour de nombreuses personnes: environ 25% des Américains pourraient perdre leur emploi parce qu'à un moment donné, des machines pourront les remplacer. Les postes à bas salaires dans lesquels une personne effectue des tâches répétitives, comme des emplois dans l'administration ou la restauration, sont particulièrement à risque. Cependant, même certains diplômés universitaires sont à risque, des algorithmes avancés d'apprentissage automatique pourraient être en mesure de les remplacer dans certains postes de travail complexes car ils sont de plus en plus raffinés, en particulier grâce à l'utilisation de réseaux de neurones et à l'apprentissage profond.
Mais nous ne pouvons pas vraiment dire que les robots chasseront complètement les humains du marché du travail. Les employés devront simplement s'adapter, se former et trouver un moyen de travailler en coopérant avec l'IA, en utilisant au mieux son efficacité et sa logique mécanique. L'IA n'est pas encore parfaite, par exemple, elle n'est pas capable de faire des appels de jugement, donc le facteur humain sera toujours déterminant lorsque l'on travaille aux côtés de machines.
Il existe de nombreuses technologies basées sur l'IA qui utilisent des solutions automatisées qui doivent être formées et cette formation dépend de l'apport humain. Un bon exemple de ceci sont les traductions automatiques qui tirent profit d'un grand nombre de traductions générées par l'homme. Un autre bon exemple est le logiciel de transcription qui obtient les données d'entraînement à partir de transcriptions précises effectuées par des transcripteurs humains professionnels. De cette façon, le logiciel est amélioré petit à petit, affinant ses algorithmes grâce à des exemples réels. Les transcripteurs humains bénéficient du logiciel car il les aide à faire des transcriptions plus rapidement. Le logiciel génère une version brouillon de la transcription, qui est ensuite éditée et corrigée par le transcripteur. Cela économise beaucoup de temps et signifie qu'au final, le produit final sera livré plus rapidement et sera plus précis.
2. Le problème du biais
Un grand avantage des algorithmes est qu'ils prennent toujours des décisions justes et non biaisées, contrairement aux humains subjectifs et émotionnels. Ou le font-ils? La vérité est que le processus de prise de décision de tout logiciel automatisé dépend des données sur lesquelles il a été formé. Il existe donc un risque de discrimination dans les cas où, par exemple, un certain segment de la population n'est pas suffisamment représenté dans les données utilisées. Un logiciel de reconnaissance faciale est déjà à l'étude pour certains de ces problèmes, des cas de biais se sont déjà produits.
COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) est un excellent exemple de la partialité de l'intelligence artificielle. Il s'agit d'un outil d'évaluation des risques et des besoins permettant de prédire le risque de récidive chez les délinquants. Cet outil basé sur un algorithme a été étudié et les résultats ont montré que les données COMPAS étaient sérieusement racistes. Par exemple, selon les données, les accusés afro-américains étaient plus susceptibles d'être jugés à tort comme ayant un risque de récidive plus élevé que les autres races. L'algorithme avait également tendance à faire l'erreur inverse avec les personnes de race blanche.
Alors, que s'est-il passé ici? L'algorithme dépend des données, donc si les données sont biaisées, le logiciel donnera probablement également des résultats biaisés. Parfois, cela a aussi quelque chose à voir avec la façon dont les données ont été collectées.
La technologie de reconnaissance vocale automatisée peut également être biaisée en fonction du sexe ou de la race en raison du fait que les données d'entraînement ne sont pas nécessairement sélectionnées dans une matière qui assurerait une inclusion suffisante.
3. Problèmes de sécurité
Il y a des problèmes d'intelligence artificielle qui sont si dangereux qu'ils peuvent entraîner des accidents. L'un des exemples les plus marquants de la technologie de l'IA appliquée est la voiture autonome. De nombreux experts estiment que c'est l'avenir des transports. Mais le principal obstacle à la mise en œuvre immédiate des voitures autonomes dans la circulation est ses dysfonctionnements qui pourraient mettre en danger la vie des passagers et des piétons. Le débat sur la menace que pourraient représenter les véhicules autonomes sur les routes est toujours d'actualité. Il y a des gens qui pensent qu'il pourrait y avoir moins d'accidents si les voitures autonomes étaient autorisées sur la route. D'un autre côté, il existe des études qui ont montré qu'ils pourraient provoquer de nombreux plantages, car bon nombre de leurs actions seront basées sur les préférences définies par le conducteur. Il appartient maintenant aux concepteurs de choisir entre la sécurité et la vie des gens et les préférences du conducteur (comme la vitesse moyenne et certaines autres habitudes de conduite). Dans tous les cas, l'objectif principal des voitures autonomes devrait être la réduction des accidents automobiles, grâce à la mise en œuvre d'algorithmes d'IA efficaces et de capteurs avancés capables de détecter et même de prédire tous les scénarios de circulation possibles. Cependant, la vie réelle est toujours plus compliquée que n'importe quel programme, de sorte que les limites de cette technologie sont toujours l'un des facteurs limitants de sa mise en œuvre généralisée. Un autre problème est le facteur de confiance. Pour de nombreuses personnes ayant des années et des années d'expérience de conduite, mettre toute la confiance entre les mains du numérique peut être considéré comme un acte de capitulation symbolique face aux tendances numériques. Dans tous les cas, jusqu'à ce que tout cela soit résolu, certaines solutions technologiques avancées ont déjà été mises en œuvre dans les voitures plus récentes, et les conducteurs humains peuvent bénéficier de divers capteurs, solutions de freinage assisté et régulateurs de vitesse.
4. À des fins malveillantes
La technologie doit répondre aux besoins des gens et être utilisée pour leur rendre la vie plus facile, plus agréable et elle doit faire gagner un temps précieux à chacun. Mais parfois, la technologie de l'IA a également été utilisée à des fins malveillantes, d'une manière qui pose un risque important pour notre sécurité physique, numérique et politique.
- Sécurité physique: Un risque potentiel de l'IA, qui semble assez dramatique au début et pourrait vous refroidir jusqu'aux os, est une guerre potentielle entre des pays technologiquement avancés, menée par des systèmes d'armes autonomes programmés pour tuer de la manière la plus efficace et la plus impitoyable. C'est pourquoi il est extrêmement important de réglementer le développement de cette technologie militaire par des traités, des règlements et des sanctions, afin de protéger l'humanité du risque inquiétant d'une guerre basée sur l'IA.
- Sécurité numérique: les pirates informatiques constituent déjà une menace pour notre sécurité numérique et un logiciel d'IA est déjà utilisé pour le piratage avancé. Avec le développement de tels logiciels, les pirates seront plus efficaces dans leurs méfaits et notre identité en ligne sera plus vulnérable au vol. La confidentialité de vos données personnelles pourrait être encore plus compromise par des logiciels malveillants subtils, alimentés par l'intelligence artificielle et rendue encore plus dangereuse par l'utilisation de l'apprentissage en profondeur. Imaginez un voleur numérique, caché derrière vos programmes préférés, devenant de jour en jour plus rusé, apprenant de millions d'exemples réels d'utilisation de logiciels et fabriquant des vols d'identité complexes basés sur ces données.
- Sécurité politique: en cette période de turbulence dans laquelle nous vivons, la peur des fausses nouvelles et des enregistrements frauduleux est tout à fait justifiée. L'IA pourrait faire beaucoup de dégâts par des campagnes de désinformation automatisées, qui peuvent être extrêmement dangereuses pendant les élections.
Donc, pour conclure, nous pourrions nous demander quels dommages l'intelligence artificielle pourrait nous faire et peut-elle faire plus de mal que de bien à l'humanité.
Les experts affirment que le développement éthique et les organismes de réglementation joueront un rôle majeur lorsqu'il s'agira d'atténuer les inconvénients que l'intelligence artificielle pourrait causer à nos vies. Quoi qu'il arrive, nous sommes convaincus que cela aura un impact énorme sur notre monde à l'avenir.
Un logiciel de reconnaissance vocale, basé sur des protocoles d'IA avancés, est déjà utilisé et apporte de nombreux avantages au monde des affaires : les flux de travail sont plus rapides et plus simples. Gglot est un acteur majeur dans ce domaine et nous investissons massivement dans le développement de notre technologie.