L'intelligence artificielle aussi connue sous l'abréviation "IA", fait partie du domaine informatique. Elle consiste à doter un système informatique d'un certain degré d'intelligence afin qu'il puisse effectuer une ou plusieurs tâches de façon autonome et automatique en suivant un raisonnement logique.
Il existe deux types d'Intelligence Artificielle :
L'IA faible
Elle consiste à programmer des outils numériques à l'aide d'algorithmes pour exécuter une tâche plus ou moins complexe (gagner aux échecs par exemple). C'est cette première forme d'IA qui se développe essentiellement aujourd'hui. Le superordinateur Deep Blue d'IBM qui a battu le champion d'échecs Garry Kasparov ou encore AlphaGo de Google DeepMind qui a vaincu le champion du monde de jeu de go ne sont que de simples IA faibles (cf. "Brève chronologie"). Ces IA sont très efficaces pour remplir une tâche spécialisée.
L'IA forte
Elle vise à créer des machines capables d'apprendre elles-mêmes le comportement adéquat en s'entraînant, comme un enfant qui finit par comprendre lui-même la logique d'un jeu à force d'expérience. Cette "IA forte" en est encore au stade expérimental.
Selon Franck Pengam, tous les commentateurs de l'émergence d'une IA dite forte s'accordent plus ou moins sur la supériorité de l'IA sur l'humain dans tous les domaines d'ici 30 à 200 ans. (Géopolitique Profonde n°2, Mars 2018).
Puisant dans des bases de données gigantesques, des algorithmes sont déjà si complexes que certaines machines prennent des décisions que l'Homme ne peut pas expliquer à ce jour. Plus étonnant encore, certaines IA détectent lorsqu'un humain tente de modifier leur comportement et peuvent même tout faire pour s'opposer à l'acte s'il entre en conflit avec l'objectif initial de l'IA.
Ces progrès concernant l'IA peuvent donc paraître inquiétants et nous pouvons légitimement nous demander : « L'IA, faut-il en avoir peur ? »
Dans une première partie, voyons les avantages de l'IA, ses limites ainsi que les dangers qu'elle représente et le cadre légal qu'il est nécessaire de mettre en place pour contrôler ces risques.
Brève chronologie
1950 : Le mathématicien britannique Alan Turing publie son article "Computing Machinery and Intelligence" et pose la question "Les machines peuvent-elles penser ?" Il met au point son test à l'aveugle pour déterminer qui est l'humain ou l'ordinateur (le Test de Turing)
1956 : La conférence de Dartmouth (États-Unis), présidée par John McCarthy voit la naissance d'un nouveau sujet de recherche : doter une machine d'une intelligence proche de celle de l'homme
1966 : Shakey, le premier robot capable de percevoir en partie son environnement et de déplacer des objets est dévoilé à l'université de Stanford, aux États-Unis.
1986 : Une nouvelle technologie voit le jour. Elle permet l'apprentissage de la machine grâce à des réseaux de neurones artificiels, en tenant compte des erreurs commises par ces derniers
1990 : Les interactions entre plusieurs machines autonomes font apparaître des comportements collectifs intelligents. C'est l'émergence des systèmes multi-agents.
1997 : Le champion du monde d'échecs, Garry Kasparov, est battu par la machine Deeper Blue d'IBM.
2011 : Watson, le programme informatique d'intelligence artificielle conçu par IBM, remporte le jeu télévisé américain Jeopardy.
2016 : Le jeu de go était le dernier jeu à deux joueurs, et excluant le hasard, qui résistait à l'ordinateur. C'est le programme AlphaGo mis au point par une équipe de Google, DeepMind, société britannique spécialisée en intelligence artificielle, qui a battu pour la première fois les champions de go. Ce programme s'est entraîné à jouer des milliers de parties contre lui-même pour développer de nouvelles stratégies tout seul et améliorer sa tactique..
2017 : L'IA Libratus bat les quatre meilleurs joueurs mondiaux de poker.
Et ce n'est qu'un début, jusqu'à nos jours l'IA n'a cessé de faire des progrès fulgurants dans tous les domaines de l'activité humaine...
Avantages de l'IA
Les robots qui sont la forme la plus fréquente d'IA facilitent le travail humain en rendant les tâches moins fatigantes pour l'homme. Ils sont courants en entreprises, mais nous pouvons en trouver dans tous les domaines :
1. Dans le domaine commercial
Exemple de WiiGo, un caddy-robot qui vous suit et vous aide à faire vos courses. Le système de reconnaissance visuelle identifie la personne, lui permettant ensuite de suivre celle-ci partout dans le magasin.
2. Dans le domaine médical
Exemple de Paro, c'est un robot thérapeutique à l'attention des personnes atteintes de la maladie d'Alzheimer et de démences. Il réagit quand on le touche, il peut exprimer sa joie, sa tristesse, son mécontentement . Il sait reconnaître des voix et des prénoms. Il favorise la communication et les interactions sociales, apaisent et diminue les troubles du comportements et s'accompagne souvent d'une baisse des médications.
Selon le docteur Laurent Alexandre, le développement de la génomique, des neurosciences et des capteurs électroniques connectés surveillant la santé, vont bouleverser le domaine médical. Les milliards de données qui composeront notre dossier médical ne pourront être analysés que par des IA. Les deux groupes numériques les plus investis dans la santé sont IBM et Google, mais Microsoft, Facebook, Amazon et Baidu se sont également engagés très sérieusement dans le secteur (L'Express, 27/12/17).
3. Dans le domaine militaire
Les robots militaires sont ceux qui peuvent présenter le plus de risques, s'ils sont détournés.
- Déployés en Irak par l'armée américaine, les robots Swords ont été surpris à pointer leurs canons vers des soldats de leur propre camp, selon un officier, heureusement sans faire de victimes.
- Des drones de loisirs sont actuellement utilisés par les terroristes dans le conflit Syrien et Irakien pour commettre des attentats.
- Des drones de loisirs sont actuellement utilisés par les terroristes dans le conflit Syrien et Irakien pour commettre des attentats.
- De Handle à Atlas : Les 2 exemples suivants nous permettent de constater l'évolution des robots de la société Boston Dynamics entre février 2017 et octobre 2018.
L'entreprise Boston Dynamics a diffusé le 27 février 2017 des images de Handle, un nouveau robot aux capacités étonnantes. D'après la vidéo, on découvre que la machine peut se déplacer assez rapidement, à une vitesse d'environ 14 km/h, et réaliser des bonds impressionnants (jusqu'à 1m20) tout en gardant un bon équilibre, la marque de fabrique des robots Boston Dynamics, devenue l'une des filiales d'Alphabet en 2013. Comme son nom l'indique, Handle a été conçu pour attraper et manipuler des objets, et il paraît en effet assez doué à ce petit jeu.
Ces images servent à promouvoir ces robots et montrent surtout leurs exploits, sans forcément donner d'autres indications, notamment le taux de chute.
Boston Dynamics a fait plusieurs fois sensation ces dernières années avec ses robots à l'équilibre hors norme. Néanmoins, on attend toujours de voir la société transformer ses prototypes en réalité commerciale.
Jusqu'à maintenant, aucun d'entre eux n'est en effet parvenu à trouver sa place en magasin ou en entreprise. Ainsi, Alphabet lui-même douterait de la capacité de Boston Dynamics à développer un produit commercialisable au cours des prochaines années.
Déjà connu pour ses saltos arrières ou ses footings sur des terrains escarpés, Atlas, le robot humanoïde de Boston Dynamics, s'est encore amélioré et ses prouesses sont de plus en plus impressionnantes. La société américaine, championne de robotique, a publié jeudi 11 octobre 2018 sur YouTube une nouvelle vidéo montrant la machine sauter à grandes enjambées par-dessus des rondins et des caisses, dans un hangar transformé en terrain de « parkour », une discipline sportive exigeante qui consiste à franchir des obstacles grâce à ses seules capacités motrices.
Si spectaculaires que soient les progrès de ces robots, on peut facilement imaginer les dangers qu'ils représenteraient s'ils tombaient en de mauvaises mains.
Les dernières avancées de l'IA
Des chercheurs de l'Université du Maryland ont mis au point le Deception Analysis and Reasoning Engine (DARE), une IA détectant automatiquement le mensonge dans des vidéos de procès. DARE a appris à détecter et analyser les micro-expressions humaines (lèvres saillantes, sourcils froncés, etc.) et les différentes fréquences de voix d'un individu pour constater s'il fabule ou non. À plus long terme, le programme vise explicitement à être utilisé par les services de renseignement pour « prédire le mensonge dans un environnement ouvert ».
Des chercheurs de l'Institut de technologie du Massachusetts (MIT) ont réussi à créer des synapses artificielles. Il s'agirait d'une avancée déterminante et du dernier frein à l'accroissement de la puissance des IA. Un processeur basé sur un réseau neuronal imite le fonctionnement du cerveau humain en passant d'une transmission d'informations binaires (les processus informatiques actuels) à une liaison analogique (humaine). Cette découverte permettrait l'émergence de « puces neuromorphiques » pour traiter des millions de flux de calculs parallèles à l'instar du cerveau de l'Homme. Ces processeurs auront une puissance de calcul comparable à des supercalculateurs.
La Chine veut devenir leader mondial de l'intelligence artificielle
L'empire du Milieu veut devenir leader mondial de l'intelligence artificielle et ne cache plus ses ambitions d'hégémonie. Le gouvernement chinois a, en effet, rendu public récemment le plan de développement national qu'il compte mettre en place pour l'émergence de l'intelligence artificielle «made in china». Ce projet prévoit d'augmenter le poids économique de ce secteur d'avenir de 150 milliards de yuans (22,15 milliards USD) d'ici 2020 à 400 milliards de yuans (59,07 milliards de dollars) à l'horizon 2025, selon les chiffres officiels fournis par le gouvernement chinois.
Par exemple, en Chine, le JT est présenté par une Intelligence Artificielle. L'Agence de presse officielle Xinhua a mis au point un présentateur de JT virtuel. Doté d'une voix de synthèse, Qiu Hao est capable de lire des actualités et de moduler ses expressions en fonction des mots prononcés.
Dans tous ces domaines, l'IA est donc bénéfique pour l'homme qui n'a pas de raison d'en avoir peur. Néanmoins, elle peut également présenter certains risques.
Origines des lois de la robotique
Très rapidement, les robots ont été considérés par les humains comme un danger potentiel. L'hypothèse d'un robot se rebellant contre les humains a été soulevée par Stanley Kubrick dans son film 2001, l'Odyssée de l'Espace dès 1968, mais à l'époque ceci n'était que de la science fiction.
Isaac Asimov avait édicté les trois lois de la robotique afin de calmer les craintes de l'Homme ordinaire envers la « machine ». Il les exposa pour la première fois dans sa nouvelle "Cercle Vicieux" en 1942 :
Première Loi : "Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger."
Deuxième Loi : "Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la première loi."
Troisième Loi : "Un robot doit protéger son existence dans la mesure ou cette protection n'est pas en contradiction avec la première ou la deuxième loi."
Un autre exemple de robots devenant autonomes et se rebellant contre les humains apparaît également dans Real Humans, série télévisée de Lars Lundström en 2012
Person of Interest, série télévisée, évoque également les dangers d'une machine qui deviendrait autonome.
Ainsi, bien qu'issues de la science fiction, ces trois lois sont toujours reconnues par la communauté scientifique. Asimov était parfaitement conscient des limites de ses trois lois, d'autant qu'il les avait conçues de manière à profiter de leurs faiblesses. Assez rapidement, dès 1950, il en pointa certaines limites, en particulier concernant la première loi qui protège l'humain en tant qu'individu et non en tant qu'espèce. En effet, il serait préférable en toute logique de sacrifier un individu si cela pouvait permettre de sauver un groupe plus important, sinon l'humanité tout entière. Malgré cette prise de conscience précoce, ce n'est qu'en 1985 qu'il intégra cette idée en modifiant les Lois.
Il ajouta aux trois lois une Loi zéro qui plaçait l'intérêt de l'humanité au-dessus de celui d'un seul individu :
Loi zéro : "un robot ne peut nuire à l'humanité ni laisser sans assistance l'humanité en danger."
Si Asimov était fier de ses lois de la robotique, c'est qu'elles représentaient pour lui un code moral et déontologique, établi non seulement pour les robots et leurs créateurs, mais aussi et surtout pour tous les scientifiques.
L'aspect législatif
Nécessité d'une réflexion éthique et d'une législation
En raison des risques précédemment cités, il est important de légiférer en matière d'IA.
La robotique militaire est en plein essor, les drones armés se généralisent et deviennent de plus en plus autonomes. Les trois lois de la robotique sont là pour rappeler aux scientifiques leurs responsabilités. Les robots militaires tueurs ne peuvent pas, par définition, être conformes à la première loi. Dans ce contexte, une réflexion éthique est donc nécessaire pour éviter à la robotique un développement aveugle. En ce sens, les trois lois d'Asimov gardent toute leur pertinence.
Chaque jour de nouvelles innovations naissent, soulevant de nouvelles questions. C'est le cas pour les automatismes de plus en plus nombreux dans les cockpits d'avions.
« Transformer l'avion en drone et le ramener au sol en cas d'incapacité des deux pilotes (acte terroriste, par exemple) est techniquement imaginable, mais pose de nombreux problèmes. Sera-t-on sûr que c'est bien la compagnie aérienne qui en prend le contrôle depuis le sol ? Sur quel aéroport le faire atterrir ? Est-ce possible dans toutes les régions du monde ? »
Le Parlement européen a mis sur pied un rapport pour faire face au développement de l'IA.
Selon ce rapport, l'automatisation aura un impact largement positif sur la société mais cet impact doit être surveillé, notamment en ce qui concerne l'évolution du marché du travail et la répartition de la richesse. Il faut garder un œil sur les usages militaires, notamment ceux des nations extérieures à l'Union européenne. La nécessité de mettre en place un accord mondial dès que possible a été évoquée.
Il faut standardiser et réguler non seulement pour éviter d'éventuelles dérives et préparer le terrain pour le futur, mais aussi pour permettre un développement des technologies dès aujourd'hui. Le parfait exemple est le véhicule autonome. "On ne peut pas demander aux industriels d'avoir 28 procédures et 28 versions de leurs logiciels pour chaque pays de l'Union, avec la voiture qui redémarre à la frontière," a déclaré Roberto Viola, directeur général de DG Connect.
Les grandes lignes du rapport du Parlement Européen
La question de la responsabilité civile et juridique en cas d'accident :
- L'idée d'un statut juridique de "personne électronique", est une piste pour d'éventuels futurs systèmes disposant d'une autonomie et d'une capacité d'apprentissage très développées.
-Un robot ou une IA reste un outil. La responsabilité est celle de son fabricant et de celui qui l'utilise.
A l'heure actuelle, entre 80 et 93% des accidents de la route sont dûs à des erreurs humaines. L'automatisation est donc fortement souhaitable, mais impliquera une responsabilité accrue des constructeurs, en particulier sur l'aspect logiciel.
L'impact sur l'emploi
Des destructions d'emplois sont à prévoir mais elles seront compensées par d'autres emplois créés en retour. Il peut y avoir un déséquilibre entre les destructions et les créations d'emploi et une répartition très inégale de la richesse. Une taxe sur les robots a été introduite pour compenser les pertes d'emplois.
Conclusion
Dans l'avenir, les robots seront de plus en plus présents et nous aideront à accomplir de plus en plus de tâches, mais les risques seront accrus également, d'où la nécessité d'un cadre légal qui définisse strictement les limites à ne pas dépasser.
Certains scientifiques continuent d'envisager l'IA comme un danger potentiel. Selon le mathématicien et physicien Stephen Hawking « les humains, limités par leur évolution biologique lente, seraient bientôt remplacés car dans l'impossibilité de rivaliser face à l'AI. ». En somme, il annonce la fin de l'humanité.
C'est également le cas de Nick Bostrom, philosophe suédois, qui a publié en 2014 Superintelligence. Selon lui, l'hypothèse d'une IA capable de concurrencer l'intelligence humaine reste toujours d'actualité : "on ignore quand l'intelligence artificielle (AI) sera en mesure de concurrencer l'intelligence humaine, mais cela arrivera très certainement dans le courant du XXIe siècle".
Les recherches de Nick Bostrom supposent que deux conditions soient remplies pour assister à la prise de contrôle de l'intelligence sur terre par les machines. La première serait l'existence de nombreux ordinateurs à faible coût embarquant cette superintelligence, de sorte que la population informatique dépasse la population humaine. Le second, appelé auto-amélioration récursive, entend que les logiciels soient capables de s'améliorer eux-mêmes.
D'autres chercheurs considèrent que nous sommes loin de l'existence de machines extrêmement intelligentes et que l'humanité n'est pas en danger, comme Stéphan Clémençon, pilote de la chaire Machine learning for Big Data à Télécom ParisTech :
Pour l'instant, il y a peu de systèmes vraiment autonomes et les seuls points négatifs du "machine learning", à savoir les capacités des machines à apprendre seules, concernent la destruction d'emplois que les processus d'automatisation génèrent. Au regard de l'état de l'art en machine learning, il y a encore de grandes étapes à franchir avant de créer des algorithmes capables de s'adapter seuls à leur environnement.»
Selon Thierry Artières, chercheur au laboratoire d'informatique fondamentale de l'Université d'Aix-Marseille, nous sommes loin de l'existence de machines extrêmement intelligentes : « On sait améliorer les performances logicielles dans des périmètres confinés, comme la reconnaissance de personnes dans des images ou encore la recherche d'information». Pour l'instant, il n'existe pas de machine capable de « décloisonner ces périmètres ».
Le volume de données à disposition de Google peut paraître inquiètant, mais le chercheur souligne que « L'avantage de Google, Facebook ou Microsoft n'est pas algorithmique mais réside dans le volume de données à disposition : plus vous en avez, plus vous disposez de statistiques fiables qui renforcent la précision de vos systèmes».
Nous sommes donc encore loin de pouvoir donner naissance à un cerveau artificiel et pour l'instant l'humanité n'est pas en danger. Même si un cadre légal est indispensable et si, comme le dit Seth Baum, directeur exécutif de Global catastrophic risk institute, « ce qui importe le plus c'est que nous prenions des mesures dès à présent, pour réduire au minimum le risque d'une catastrophe par la suite », afin de faire face aux risques posés par l'IA forte , il n'y a pas de raison d'en avoir peur.
Trouver "Intelligence Artificielle" sur Coodoeil
Source intelligence-artificielle.ovh 2020
Votre Publicité ici ?
L'annuaire Coodoeil vous propose des espaces publicitaires dans ses rubriques pour y afficher une bannière, un logo ou un article contextuel avec lien vers votre site.
Contactez-nous....