Pour ceux qui ont l’œil et l’oreille attentifs à ces sujets, rares sont les thèmes qui ont suscité autant d’anticipation et d’appréhension que l’IA.
Cet article ne traitera pas des fondements scientifiques de l’IA ni n’entrera trop dans le détail de ses usages actuels. Nous souhaitons plutôt offrir un bref aperçu de son immense potentiel pour le bien… ou de ses risques d’utilisation abusive par des individus ou des entreprises. Comme c’est souvent le cas, l’IA pourrait être une avancée scientifique pour laquelle la société n’est pas tout à fait prête. L’histoire est jalonnée d’innovations technologiques que l’humanité a adoptées avec empressement avant d’atteindre le niveau de maturité sociétale nécessaire pour en assumer pleinement le contrôle et la responsabilité.
On disait de la mitrailleuse qu’elle mettrait fin à toutes les guerres, car, en tant que machine à tuer parfaite, son usage semblait impensable. On a tenu un discours similaire à propos de l’énergie nucléaire. Capable de produire une énergie quasi illimitée lorsqu’elle est utilisée correctement, elle a d’abord fait les manchettes lorsqu’un dispositif de fission a été largué sur le Japon, tuant instantanément des dizaines de milliers de personnes — un acte qui a contribué à mettre fin au conflit le plus meurtrier de l’histoire moderne.
Les pires scénarios liés à l’IA ne deviennent possibles que si elle demeure non réglementée et mal comprise.
L’IA souffre — ou bénéficie — de cette même dichotomie. Sans compréhension claire de son impact et de ses risques de détournement, nous sommes laissés à imaginer toutes sortes d’issues, qu’elles soient catastrophiques ou idéalistes.
Brève histoire de l’IA – Réalité et fiction
La quête de l’intelligence artificielle n’a rien de nouveau. Scientifiques et mathématiciens y ont consacré leur vie, cherchant à en percer les secrets et débattant de sa viabilité, de ses vulnérabilités et de son potentiel à transformer l’histoire humaine.
Alan Turing, pionnier légendaire de l’informatique, immortalisé dans le film The Imitation Game, a conçu le test de Turing : une série d’épreuves visant à déterminer si une machine peut interagir avec un humain d’une manière indiscernable de celle d’un autre humain. Ce jalon n’a toujours pas été pleinement atteint.
Les écrivains se sont eux aussi passionnés pour l’IA — et les lecteurs encore davantage. Isaac Asimov, célèbre auteur de science-fiction, a écrit son œuvre classique I, Robot, où il formule les désormais célèbres Trois Lois de la robotique :
Première Loi
Un robot ne peut porter atteinte à un être humain ni, par son inaction, permettre qu’un être humain soit blessé.
Deuxième Loi
Un robot doit obéir aux ordres donnés par les êtres humains, sauf si ces ordres entrent en conflit avec la Première Loi.
Troisième Loi
Un robot doit protéger sa propre existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi.
Le paradoxe est évident. Utiliser ces lois comme règles de programmation inviolables semble clarifier les choses. Mais Asimov a négligé un détail fondamental : ces trois lois excluent nécessairement l’existence d’une véritable IA. Une intelligence artificielle authentique devrait démontrer une conscience de soi et un libre arbitre — ce dernier étant totalement incompatible avec l’esprit des Trois Lois. En définitive, la « véritable » IA restera peut-être un idéal jamais pleinement réalisable.
La fiction regorge de quasi-catastrophes liées à l’IA : Frankenstein de Mary Shelley (qui évoquait le sujet sans le nommer), la franchise The Terminator, The Matrix, ou encore la représentation la plus sombre et plausible d’une IA dévoyée : HAL 9000 dans 2001: A Space Odyssey. Toutes ont laissé une empreinte durable dans notre imaginaire collectif — et ont peut-être, involontairement, compliqué les efforts de relations publiques de l’IA.
Dans la réalité, les avancées ont été plus modestes. L’ordinateur Deep Blue d’IBM a battu le champion du monde Garry Kasparov. Plus tard, Watson a remporté le jeu télévisé Jeopardy! en surpassant deux anciens champions. Mais sans conscience de soi ni libre arbitre, il ne s’agit pas encore de véritables exemples d’IA, seulement d’étapes supplémentaires vers celle-ci.
Les grandes entreprises sont les plus susceptibles de disposer d’une stratégie en IA — mais seulement 50 % en ont réellement une.
Définition et gouvernance
L’IA est définie de différentes manières selon les experts et les instances gouvernementales. Une fois une définition standardisée établie, l’IA devra probablement faire l’objet d’une réglementation stricte pour encadrer son usage. Ironiquement, cette réglementation devra aussi empêcher qu’elle devienne réellement intelligente et consciente d’elle-même, pour éviter les dilemmes moraux évoqués plus haut.
La gouvernance multilatérale de l’IA est devenue un sujet brûlant. À la suite d’une recommandation du G7, un Partenariat mondial sur l’IA a été créé, appuyé notamment par le International Centre of Expertise in Montreal for the Advancement of Artificial Intelligence.
Malgré ces efforts préliminaires, la réglementation de l’IA — y compris la définition même de sa philosophie, de ses usages, de sa légalité et de son potentiel — demeure embryonnaire et peu coordonnée. Les gouvernements discutent, le milieu académique débat, et les partisans de l’IA explorent ses limites potentielles.
Pendant ce temps, les entreprises avancent à grande vitesse, déployant et adoptant l’IA comme jamais auparavant. Alors, qui tient vraiment la barre ?
Applications et responsabilités
Une gouvernance adéquate peut prévenir tout scénario apocalyptique. Déjà, le rôle de l’IA en santé, en justice, en application de la loi, en éducation, en finance — et peut-être plus inquiétant encore, dans le développement de l’IA elle-même — croît à un rythme soutenu.
Si l’IA doit réaliser les promesses qu’on lui prête, il faudra instaurer la confiance. Que ce soit sous la forme de lois à la Asimov, d’organismes internationaux de surveillance, d’une transparence totale, d’une fiabilité accrue — ou plus probablement d’une combinaison de ces éléments. Mais son avenir est assuré. Et nous y jouerons tous un rôle.
D’ici 2025, 90 % des nouvelles applications d’entreprise intégreront de l’IA embarquée.
La pandémie de COVID-19 a constitué l’un des premiers grands tests mondiaux de l’IA. Les entreprises ont dû repenser leurs modes d’opération, leur utilisation de la main-d’œuvre et leur relation avec les consommateurs. En ce sens, la pandémie a agi comme un accélérateur, rendant impératif l’établissement de pratiques responsables et de mécanismes pour limiter les usages malveillants.
Les entreprises ont également leur part de responsabilité. Selon KPMG, elles peuvent adopter une posture proactive en :
- Développant des principes, critères de conception et mécanismes de contrôle en IA.
- Concevrant et implantant des modèles de gouvernance de bout en bout.
- Évaluant les cadres actuels de gouvernance et de gestion des risques.
- Mettant en place des comités et des cadres de gouvernance.
- Intégrant un cadre de gestion des risques propres à l’IA.
- Établissant des critères pour assurer un contrôle continu des algorithmes sans freiner l’innovation.
Moins de 50 % des consommateurs comprennent réellement l’IA.
« L’IA ne réduira probablement pas la main-d’œuvre active, mais elle la transformera ! Elle permettra d’automatiser de nombreuses tâches aujourd’hui effectuées par des humains, leur donnant l’occasion d’être redéployés vers des rôles plus stratégiques, tout en orientant la formation des nouvelles générations vers des domaines nécessitant une interaction humaine. »
— Blair Richardson, VP, Client Success, COFOMOA
Le monde des affaires est à l’aube d’une révolution de l’IA, dont l’impact pourrait égaler — voire dépasser — celui de l’avènement d’Internet. Certains affirment que nous sommes déjà dans l’âge d’or de l’IA. En 2016, le moteur de recommandation de Netflix aurait généré 1 milliard $ US en revenus, tandis que des agents conversationnels toujours plus intelligents permettraient aux entreprises d’économiser 8 milliards $ US.
73 % des consommateurs mondiaux se disent ouverts à l’IA si elle simplifie leur vie et leur travail.
L’ambivalence demeure forte : 87 % des Américains sondés saluent l’arrivée des voitures autonomes, mais 35 % affirment qu’ils ne monteraient jamais dans un véhicule entièrement autonome.
Comme toute révolution technologique, l’IA suscitera des résistances.
Sa croissance fulgurante soulèvera d’innombrables dilemmes moraux : impact sur l’emploi, répartition de la richesse créée, risques d’« stupidité artificielle », protection contre les cybermenaces, ou encore lutte contre les biais algorithmiques.
En fin de compte, le succès de l’IA ne résidera peut-être pas dans sa capacité à imiter la pensée humaine, mais dans sa capacité à dépasser nos biais et nos limites. Tout en nous gardant en sécurité. Employés. En santé. Et loin d’une armée de robots décidés à conquérir le monde.
Nous vivons une époque fascinante.
Les informations présentées dans cet article ont été compilées à partir de plusieurs sources :
- https://en.wikipedia.org/wiki/Three_Laws_of_Robotics
- https://en.wikipedia.org/wiki/Deep_Blue_(chess_computer)
- https://en.wikipedia.org/wiki/Watson_(computer)
- https://sloanreview.mit.edu/projects/reshaping-business-with-artificial-intelligence/
- https://gpai.ai
- https://ceimia.org/en/
- https://www.idc.com/research/viewtoc.jsp?containerId=US45599219
- https://dataprot.net/statistics/ai-statistics/
- https://www.businessinsider.com/netflix-recommendation-engine-worth-1-billion-per-year-2016-6
- https://www.juniperresearch.com/resources/analystxpress/july-2017/chatbot-conversations-to-deliver-8bn-cost-saving
- https://www.pega.com/system/files/resources/pdf/what-consumers-really-think-of-ai-infographic.pdf
- https://dataprot.net/statistics/ai-statistics/
- https://www.change.org/p/google-google-must-change-school-girl-results-from-sexualized-images-to-actual-girls-in-school


