Déjà inscrit ou abonné ? Connectez-vous ici

Accédez à cet article gratuitement

Il suffit de vous inscrire à nos infolettres

Vous recevrez maintenant nos infolettres par courriel. Sachez que vous pouvez vous désabonner en tout temps en suivant le lien "Me désabonner" dans le bas d'une infolettre.

Intelligence artificielle: l'ère des robots est arrivée

Par Rémi Leroux Mise en ligne : 11 septembre 2017  |  Magazine : octobre 2017

Illustrations: Rémi Leroux

Automobile, domotique, santé, téléphonie… Les machines intelligentes sont partout. Voici celles qui changeront votre quotidien, maintenant ou très bientôt.

Vous êtes confortablement installé devant votre téléviseur, prêt à choisir un film sur Netflix. Cette plateforme de diffusion en flux continu (streaming) vous propose une sélection de longs métrages qui titille votre curiosité.

Ces suggestions ne sont pas dues au hasard. Elles sont le fruit de l’intelligence artificielle (IA), un terme qui désigne les nombreuses technologies informatiques cherchant à imiter l’intelligence humaine pour ainsi analyser des données, raisonner, parler, prendre des décisions… Par exemple, Netflix utilise des algorithmes d’apprentissage automatique (machine learning, en anglais) qui sont capables de déterminer, à partir de vos précédents visionnements et de façon prédictive, si vous êtes plutôt disposé à poursuivre la diffusion de votre série ou si vous êtes ouvert à de nouvelles propositions. Le système génère aussi, pour chaque film ou série, une note en pourcentage reflétant la probabilité que vous vous y intéressiez.

L’IA peut prendre des formes beaucoup plus élaborées dans d’autres contextes. Transport, santé, secteurs manufacturier et bancaire, commerce, alimentation et restauration… Les champs d’application sont infinis, puisque l’IA laisse aux machines le soin d’exécuter des fonctions normalement réservées à l’être humain : conduite automobile, détection du cancer, compilation et synthèse de données, etc.

Dans le grand concert mondial de l’intelligence artificielle, Montréal joue un rôle de premier plan. La métropole québécoise dispose en effet de laboratoires à la fine pointe de la recherche et voit naître de jeunes entreprises qui pèsent de plus en plus lourd dans le secteur. Element AI, par exemple, a été cofondée par Jean-François Gagné, Nicolas Chapados ainsi que par Yoshua Bengio, directeur de l’Institut des algorithmes d’apprentissage de Montréal (MILA) et pointure internationale de l’apprentissage profond. La mission d’Element AI : aider les entreprises à intégrer l’intelligence artificielle dans leurs activités, afin de tirer profit des données numériques dont elles disposent. Il pourrait s’agir, par exemple, de modéliser les risques en assurance de dommages dans le but d’en revoir les tarifs.

>> À lire aussi: Siri contre Google Now

En juin 2017, moins d’un an après sa création, Element AI a annoncé avoir récolté 137 millions de dollars auprès de plusieurs investisseurs, dont Microsoft, Intel et Nvidia. Cet argent sera investi dans des activités de recherche et développement (R&D) et permettra l’embauche de quelque 250 employés.

Parce que l’intelligence artificielle s’immisce dans notre quotidien, à la maison comme au travail, et sans que nous en soyons toujours bien conscients, Protégez-Vous propose une immersion au cœur de ces innombrables formes d’apprentissage de la machine. Une machine dont les films de science-fiction nous disent qu’elle pourrait bien, à terme, devenir plus intelligente que l’être humain…

De la science-fiction, vraiment ?

Émilie Bouchard, 39 ans, est avocate dans un cabinet du centre-ville de Montréal. Elle habite sur la Rive-Sud avec son conjoint et leurs trois enfants. Dans la vraie vie, Émilie n’existe pas. Mais pour les besoins de cet article, nous l’avons imaginée afin de la faire évoluer dans un monde où l’intelligence artificielle (IA) serait omniprésente au quotidien. Il ne s’agit pas de science-fiction pour autant. Émilie vit dans un futur très proche, en 2020, et toutes les situations décrites dans cet article permettront d’illustrer les grandes applications de l’IA.

Pour construire ce récit, nous nous sommes inspirés d’entrevues réalisées avec plusieurs experts : Philippe Beaudoin, vice-président à la recherche à Element AI ; Michel Gagnon, spécialiste de l’intelligence artificielle au Département de génie informatique et génie logiciel à Polytechnique Montréal ; Valérie Bécaert, directrice exécutive de l’Institut de valorisation des données (IVADO) ; et Me Jean-Sébastien Desroches, avocat et associé du bureau d’avocats Lavery et responsable du laboratoire juridique sur l’intelligence artificielle.

Les termes suivis d’un astérisque sont expliqués dans notre lexique (lire ci-dessous). Par ailleurs, toutes les technologies dont il est question dans cet article existent. Certaines sont déjà commercialisées, tandis que d’autres devraient l’être dans les prochaines années.

Lundi 14 septembre 2020 

6 h 30: Émilie Bouchard se réveille au son des Variations Goldberg, une œuvre de Bach que son « assistante vocale intelligente », Alexa, a choisie dans sa liste de morceaux favoris. Mais ce matin, Émilie n’a pas le temps de se laisser bercer par la musique, et elle demande plutôt à son assistante vocale quel est l’état de la circulation en direction de l’île de Montréal. Alexa est un logiciel intégré à Echo, le haut-parleur intelligent d’Amazon commercialisé en 2015 (Google vend un système équivalent, Google Assistant. Cet objet connecté utilise le réseau Wi-Fi de la maison pour surfer sur Internet et obtenir les renseignements que demande Émilie.

L’assistante vocale répond que des ralentissements sont à prévoir sur l’autoroute 20 et le pont Jacques-Cartier après 7 h 30. Elle suggère donc à Émilie de prendre le nouveau pont Champlain. Ce système utilise certaines technologies propres à l’intelligence artificielle, en particulier les réseaux de neurones artificiels*, des programmes informatiques composés d’algorithmes reliés entre eux, à la manière du cerveau humain et imitant le fonctionnement de ce dernier. La machine apprend donc à « raisonner » par elle-même.

7 h 5: Dans la cuisine, la famille d’Émilie déjeune. En passant près du réfrigérateur, Émilie donne deux petits coups sur la porte, qui devient instantanément transparente. Elle peut regarder à l’intérieur du frigo sans l’ouvrir et constate alors qu’il n’y a plus de lait. Son conjoint lui dit qu’il en a déjà commandé, ainsi que quelques autres produits, sur le site de son supermarché préféré. La porte du réfrigérateur LG Smart InstaView redevient opaque, et Émilie demande alors à son assistante vocale intelligente d’afficher sur l’écran tactile à cristaux liquides de l’électroménager quelques recettes de brochettes de keftas de bœuf qu’elle compte cuisiner durant la fin de semaine.

7 h 25: Émilie quitte son domicile. Lorsqu’elle entre dans son auto, une Ford CMax Hybrid, son téléphone intelligent se connecte automatiquement à son assistante vocale intelligente et lui donne des informations sur l’état de la circulation. Une fois sur l’autoroute, Émilie enclenche le système de pilotage automatique dont sont désormais équipés les véhicules hybrides du constructeur américain. Comme Toyota, Audi, Nissan et bien d’autres entreprises, Ford a accéléré ses investissements dans le secteur de l’IA. En 2017, le fabricant a injecté 1 milliard de dollars dans la société émergente Argo AI en plus d’entamer un partenariat avec Amazon pour intégrer l’assistante vocale Alexa à ses véhicules.

Dans le secteur automobile, Tesla a été la première entreprise, en 2015, à équiper ses voitures de la conduite entièrement automatique. La compagnie californienne est aussi la première à avoir utilisé l’apprentissage profond* pour automatiser ses voitures. Grâce à 12 capteurs répartis autour de la voiture, une caméra à haute résolution installée en haut du pare-brise, un sonar situé en bas du pare-chocs et un GPS embarqué, la Tesla Model S, par exemple, est capable d’accélérer, de freiner et de prendre les virages sans l’intervention du conducteur.

9 h 35: Tour de la Bourse, square Victoria, à Montréal. Avant de rejoindre ses collègues pour la pause café, Émilie lance une requête à l’aide du logiciel Ross. Depuis que son bureau utilise cette application intelligente élaborée à partir du programme Watson d’IBM (voyez les explications à « 16 h 40 » dans l’horaire d’Émilie), l’avocate gagne un temps précieux dans sa pratique quotidienne.

En 2016, aux États-Unis, le cabinet BakerHostetler a été l’un des premiers à introduire Ross dans la routine de travail de ses quelque 900 avocats. Cet outil comprend les questions qu’on lui pose et peut produire un avis en se fondant sur des milliards de données numériques (dont les extraits de lois et la jurisprudence). Il informe également les avocats lorsqu’un jugement qui vient d’être rendu pourrait s’avérer pertinent pour eux.

Bien sûr, Émilie se souvient que l’implantation de cette application a provoqué des remous au bureau. Des techniciens juridiques ont perdu leur emploi, puisque le logiciel compile des données plus vite qu’eux, et à moindre coût. Comme c’est le cas pour de nombreuses professions, le monde juridique a dû s’adapter aux nouvelles réalités nées de l’IA.

12 h 30: Pour le dîner, Émilie a rendez-vous avec un ami dans la zone commerciale du complexe Desjardins, à Montréal. Au métro Place-des-Arts, son téléphone cellulaire vibre. Situé tout près, le Musée d’art contemporain vient de lui envoyer une notification pour l’inviter à assister au vernissage de sa nouvelle exposition la fin de semaine suivante. À proximité de son point de rendez-vous, nouvelle vibration, envoyée cette fois par l’application de la Société des Alcools du Québec (SAQ). La succursale du complexe Desjardins lui annonce qu’elle vend un vin espagnol qui accompagnerait à merveille ses brochettes de bœuf. Pour faire cette suggestion, le système informatique a tenu compte des vins préférés d’Émilie – enregistrés dans son compte du programme de fidélisation de la SAQ – ainsi que de la géolocalisation de son téléphone, de l’état des stocks dans la succursale et de ses récentes recherches en ligne.

16 h 40: Émilie a rendez-vous dans un centre médical pour passer une radiographie des poumons et effectuer quelques analyses. Cette clinique est équipée de « Watson », un superlogiciel informatique mis au point par IBM. Il est capable d’analyser des données (celles du dossier médical du patient ou de ressources numériques, comme des revues ou des sites médicaux), d’interpréter les radiographies, d’établir un diagnostic et de proposer des protocoles de traitement en cas de besoin. Ce logiciel s’appuie sur l’apprentissage profond*.

La cancérologie a été l’un des premiers domaines de la médecine à bénéficier d’applications issues de l’IA. Les premières versions d’aide au diagnostic assisté par ordinateur (computer-aided diagnosis, ou CADx) étaient basées sur des technologies plus anciennes de l’IA et n’étaient pas aussi fiables que les logiciels qui se servent de l’apprentissage profond. Considérés comme des outils d’aide à la décision, ces programmes ne sont toutefois pas destinés à remplacer les médecins et spécialistes, mais plutôt à les décharger de certaines tâches.

18 h 45: Retour à la maison. Tout le monde est rentré tard et personne ne veut cuisiner. Émilie commande une pizza en ligne, puis elle reprend son magasinage de matelas sur le Web, qu’elle avait commencé la veille. Sur le site du fabricant, elle accède au catalogue de produits, mais elle hésite toujours entre un modèle en latex et un autre fait de mousse viscoélastique. Ne parvenant pas à faire son choix, elle se connecte au chatbot du site, soit l’agent conversationnel* qui, espère-t-elle, va l’aider. La petite fenêtre de conversation s’ouvre au bas de l’écran et Émilie tape sa question.

Les chatbots ont longtemps été élaborés à partir d’une technologie d’apprentissage automatique* assez simple (reconnaissance de mots-clés et réponses établies à partir de ces mots). Les générations qui sont actuellement en phase de conception s’appuient désormais sur l’apprentissage profond et seront capables non seulement de vous aider à choisir votre matelas, mais aussi… de vous commander une pizza.

Petit lexique de l’IA

Agent conversationnel (chatbot). Interface qui gère l’interaction entre un humain et un agent virtuel via un dialogue (oral ou écrit). Le système interprète les formulations de l’utilisateur et y apporte des réponses. La technologie des chatbots repose sur la branche du traitement du langage naturel.

Apprentissage automatique (machine learning). Champ de recherche de l’IA qui s’appuie sur des processus d’apprentissage permettant à une machine d’évoluer et de s’améliorer dans une tâche sans que ses algorithmes soient modifiés.

Apprentissage profond (deep learning). Champ de recherche des réseaux de neurones artificiels (voyez la définition), l’apprentissage profond se caractérise par un grand nombre de couches de ces neurones qui permet d’établir des relations complexes au moyen des données fournies. La machine se nourrit de milliards de données qui lui permettent de raisonner par elle-même, de faire des déductions et de prendre des décisions. Elle est utilisée notamment dans la reconnaissance d’image ou dans le traitement du langage naturel (voyez la définition).

Domotique. Ensemble des techniques de l’électronique, de l’automatisme, de l’informatique et des télécommunications utilisées dans un bâtiment afin de centraliser et de contrôler différents systèmes (comme le chauffage, la climatisation, les caméras, les haut-parleurs...).

Langage naturel. Langage utilisé par les humains par opposition au langage formel, au langage de programmation ou au langage machine.

Réseau de neurones artificiels. Programme informatique composé d’algorithmes reliés entre eux, à la manière du cerveau humain. Les réseaux neuronaux imitent ainsi le fonctionnement du cerveau : chaque neurone peut s’améliorer au contact des autres. Plus les liens et les combinaisons de neurones se multiplient, plus le système est capable de raisonner par lui-même.

Sources : journaldunet.com, techrepublic.com, blog.hubspot.com, ictc-ctic.ca.

Sommes-nous prêts?

Collecte des données, protection de la vie privée, disparition de milliers d’emplois... L’intelligence artificielle soulève de nombreux défis, mais apporte encore peu de réponses.

La Commission de l’éthique en science et en technologie (CEST) est un organisme qui relève du ministère de l’Économie, de la Science et de l’Innovation. Elle peut être sollicitée par le gouvernement dès qu’apparaissent des enjeux éthiques soulevés par de nouveaux développements technologiques et scientifiques – ce qui est le cas avec l’intelligence artificielle (IA). Jocelyn Maclure, professeur de philosophie à l’Université Laval et président de la CEST, répond à nos questions.

Protégez-Vous : En 2017, la CEST s’est donné pour mandat de réfléchir aux enjeux éthiques relatifs à l’IA. Quels sont les défis que vous avez identifiés ?

Jocelyn Maclure : Le plus sensible est lié à la fiabilité et à la sécurité des machines intelligentes. Avec l’apprentissage profond, celles-ci deviennent de plus en plus autonomes et elles vont prendre des décisions par elles-mêmes, sans dépendre d’une programmation préalable établie par un informaticien. Or, qu’adviendra-t-il si la décision prise par la machine est une erreur ? Ou s’il y a une défaillance qui corrompt cette prise de décision ? À qui imputera-t-on la responsabilité morale et légale de cette situation ? C’est un enjeu éthique clé, car il y a une grande complexité dans l’architecture même de ces machines, qui dépendent de technologies développées par différentes compagnies, différentes équipes, dans différents pays. Il est donc important d’adopter des règles communes et de renforcer la coordination entre les États. La régulation ne devra pas être basée sur une forme de catastrophisme, mais il faudra être conscient des risques afin de les limiter et de profiter au mieux de ces nouvelles technologies. La protection des renseignements personnels doit aussi faire l’objet d’une importante réflexion.

P.-V. : Il est également question des effets de l’intelligence artificielle sur l’emploi…

J.M. : En effet, les développements de l’IA vont engendrer une nouvelle phase d’automatisation des emplois, comme celle que nos sociétés ont connue au 19e siècle avec la révolution industrielle. Il y a donc clairement plusieurs catégories d’emplois où, dans un proche avenir, les humains risquent d’être remplacés par des machines. [C’est le cas] dans le domaine des transports en particulier, où la recherche a beaucoup progressé. Des métiers qui exigent un niveau de scolarisation plus poussé sont également appelés à évoluer. L’un des exemples les plus spectaculaires qui existe actuellement est celui des logiciels en radiologie capables de détecter des tumeurs de façon plus efficace que des radiologistes. L’IA va assurément devenir un outil indispensable de diagnostic en radiologie, mais cela ne signifie pas que l’on n’aura plus besoin de radiologistes, au contraire. Simplement, une part plus importante de leur travail sera confiée à des machines, et leurs tâches devront être repensées.

P.-V. : Est-on à la veille de voir apparaître une superintelligence capable de dépasser l’être humain ?

J.M. : Certains chercheurs le croient, et ce ne serait qu’une question de temps avant que des formes de superintelligence artificielle voient le jour. La question n’est donc plus de savoir si cela va advenir, mais plutôt quand. Certains parlent de 25 ans, d’autres de 50. Donc, oui, un jour, une forme de super-IA sera capable de dépasser l’être humain, et lorsque ce sera le cas, elle va rapidement le dépasser. Pour certains chercheurs, la seule façon pour les individus de continuer à garder le contrôle sur la machine serait d’aller vers une forme d’hybridation homme-machine. Une vision que la science-fiction alimente beaucoup, mais qui est encore loin de la réalité. Il reste que si ces algorithmes sont excellents pour reconnaître des « modèles », des grandes tendances, la vie humaine est faite de singularité, de spontanéité et d’inédit que seule l’intelligence humaine, et pour longtemps, est capable d’appréhender de façon intuitive.

- Jocelyn Maclure, professeur de philosophie à l’Université Laval et président de la Commission de l’éthique en science et en technologie
Ajouter aux favoris
Ajouter aux favoris

Pour suivre toutes les mises à jour et nouveautés sur cet article, vous devez être connecté.

Technologie

Commentaires 1 Masquer

L'envoi de commentaires est un privilège réservé à nos abonnés.

  • Par LUC DESJARDINS | 15 septembre 2017

    Pour ce qui est des automobiles, les plus nouvelles sont dottées de radar de proximité et certaines vont tout simplement s'immobiliser toute seule. Qu'en est-il de ces ondes radar - sur la santé des humains - qui nous bombarderons de tout azimuth dans quelques années à mesure que ces technologies seront implantées partout.

    Par SUZANNE ETHIER | 28 septembre 2017

    Enfin quelqu'un qui s'inquiète des effets sur la santé humaine (et végétale, et animale) en fonction du "comment ça marche" de ces technologies devenues (ou en devenir) plus intelligentes que nous. Que l'on parle des radars, du Wi-Fi, de la téléphonie cellulaire--nous sommes rendus au 5G, et et l'ultime invasion, les compteurs dits intelligents. On parle ici de champs électro-magnétiques et de micro-ondes pulsées sans arrêt, 24/24. Sur chacune de nos maisons. Ondes et données qui "voyagent" via des routeurs, via les tours cellulaires. Comme on dit, on baigne dedans. Mais au nom de la facilité, et puisque le tout est incolore, inodore et invisible, on l'accepte et on en redemande. D'ici une génération, on constatera la catastrophe (irréversible).