Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Intelligence Artificielle : Quelles promesses ? Quelles menaces ?

avril 2017 par Marc Jacob

Pour ce nouveau débat, le Cercle de la sécurité avait choisi pour thème l’Intelligence Artificielle. Autour de Florence Puybareau,
Dominique Cardon, Associate Professor en sociologie au Medialabs à Sciences Po et Jean-Gabriel Ganascia, Professeur a l’Université Pierre et Marie Curie et Président du Comité d’Ethique du CNRS ont animé le débat. L’Intelligence Artificielle fait à la fois rêver et peur. Le mythe de Frankenstein reste présent dans tous les esprits à tort ou à raison…

Jean-Gabriel Ganascia, Florence Puybareau et Dominique Cardon

Jean-Gabriel Ganascia en préambule dressé un rapide historique de l’IA. Il a rappelé en outre que le Web repose sur l’IA. Depuis 60 date à laquelle l’IA est devenue une matière à part entière les progrès en ce domaine ont été fulgurants. Dominique Cardon, pour sa part, explique que le concept d’IA a évolué par vague avec des crises. Il rappelle qu’en ce domaine, il y a deux écoles : celle de l’Intelligence Artificielle et celle de l’Intelligence Augmentée. Cette dernière, plus pragmatique, a été à l’origine de la création de l’ordinateur personnelle, de la souris....

Depuis quelques années de grandes entreprises comme Google, Microsoft donnent crédit à l’IA et au fait que les machines vont dépasser les hommes un peu comme dans la littérature de sciences fiction explique Jean-Gabriel Ganacia. Effectivement, complète Dominique Cardon, il y a là encore deux écoles ceux qui ont une vision pragmatique et ceux qui sont dans le rêve, la science-fiction. En outre, explique Jean-Gabriel Ganascia parfois dans la même organisation on trouve les deux volets de cette vision.

Pour Dominique Cardon, en 60 ans il y a eu une évolution profonde des démarches. Aujourd’hui, on modélise différemment le monde afin que la machine puisse mieux le calculer. Pour Jean-Gabriel Ganascia à ce jour la machine ne pourra pas dépasser l’homme, même si elles vont devenir de plus en plus autonome mais dans
leur espace limité. Dominique Cardon abonde dans son sens. Selon la loi de Moore, les machines devraient devenir plus intelligentes que les hommes. Par contre, cette loi
voit ses limites. Par ailleurs, il remarque que les entreprises qui produisent des solutions d’IA mettent en gardent sur les travers de cette sciences. Il pense que ces éditeurs nous cachent des choses qui pourraient être liées à la souveraineté.... Pour Dominique Cardon l’IA remet en cause la souveraineté de l’Etat car elle remet en cause les catégories sociales. Ainsi, il y a des transferts massifs d’informations vers ces sociétés via les traces des comportements sur le Web. Ces
éditeurs de ce fait ont plus d’informations sur les citoyens que les États. Il se pose donc un problème d’éthique. Pour limiter le pouvoir de ces sociétés, il faudrait en premier lieu qu’elles payent des impôts. Pour lui, il n’y a pas de véritable consentement même s’il existe des clauses et ce le RGPD risque de ne pas suffisamment réguler leur comportement. Il y a de la part de ces sociétés un problème de loyauté vis à vis des internautes sur l’utilisation de leurs données.

Pour Jean-Gabriel Ganascia aujourd’hui tout le monde prend de l’information ce qui modifie la logique. Il faut que les hommes politiques et les citoyens aient une meilleure compréhension des enjeux. Il y a des promesses mirifique de la part des éditeurs pour satisfaire plutôt les investisseurs potentiels rebondit Dominique
Cardon. Il faut tout de même être conscient que c’est l’homme qui apprend aux machines et leur donnons les directions éthiques ou non...

Pour ces deux scientifiques, l’Intelligence Artificielle ne permet pas à la machine de se retourner contre l’Homme... ainsi le mythe de Frankenstein de s’éloigne de nous… Toutefois c’est l’usage que font les hommes de cette technologie qu’il faut surveiller de près pour éviter tout dérapage !


Voir les articles précédents

    

Voir les articles suivants