MPNF

Intelligence Artificielle risques ou opportunités

machines indépendantes

 

L’intelligence artificielle est-elle une réponse à des problématiques sociétales, environnementales et humaines ou représente-t-elle une menace pour l’humanité et le libre-arbitre des personnes ? Quels sont les atouts de la France et quelles sont les stratégies envisagées dans ce domaine ?

L’intelligence artificielle vise à comprendre comment fonctionne la cognition humaine et à la reproduire. Elle désigne des technologies qui reposent sur l’utilisation d’algorithmes. Ces technologies qui ont des déclinaisons multiples se caractérisent souvent par leur capacité prédictive. Il s’agit de doter les machines d’une intelligence et d’une autonomie propres.

Outre les impacts sur la vie quotidienne, elles peuvent aller jusqu’à modifier les frontières entre l’homme et la machine. Dans son rapport « Pour une intelligence artificielle maîtrisée, utile et démystifiée », du 14 mars 2017, l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) estime que l’avènement d’une super-intelligence ne fait pas partie des risques à court et à moyen terme. Il identifie cependant trois grands enjeux sont liés à l’intelligence artificielle : ses conséquences économiques et sociales, les questions éthiques et juridiques et les questions technologiques et scientifiques posées par les progrès en IA.

Les principaux enjeux économiques et sociaux de l’IA

L’OPECST ainsi que le groupe de travail co-piloté par le Conseil national du numérique et France Stratégie, dont le rapport « France IA » est également publié en mars 2017, dressent le constat de l’émergence d’une économie globalisée dominée par des « plateformes ». Cette « plateformisation » de l’économie représente un enjeu de compétitivité internationale, où l’accès aux données devient un avantage comparatif. Pour la première fois depuis la Révolution industrielle, la France et l’Europe ne sont pas à l’origine de cette révolution technologique. Les États-Unis avec les GAFAM (Google, Amazon, Facebook, Apple, Microsoft) et la Chine sont désormais en situation de duopole au niveau mondial.

En outre, l’automatisation est susceptible de détruire plus d’emplois qu’elle n’en crée. Elle risque aussi de créer un marché du travail à deux vitesses : une minorité d’emplois très qualifiés pour une élite surdiplômée et une majorité de travailleurs précaires dont les compétences ne rapporteront pas assez pour vivre. Il est également à craindre un niveau de chômage élevé, créé par la substitution des logiciels aux emplois les moins qualifiés.

Les deux rapports interrogent la complémentarité humain-machine sous l’angle de son degré d’acceptabilité sociale. L’IA pose en effet un défi aux politiques d’éducation et de formation continue. Elle introduit une révolution potentielle du cadre de vie et de l’aide aux personnes, notamment avec l’apparition de robots de service, d’agents d’assistance, d’accompagnement, et d’aide à la mobilité.

Les enjeux éthiques et juridiques liés à la robotique et aux intelligences artificielles

Par exemple, toutes les applications domestiques ou médicales contiennent des risques en matière de respect de la vie privée et des données personnelles. Comment s’assurer que des données de santé ne seront pas vendues à une compagnie privée ou à un futur employeur ? Comment conjuguer cette collecte massive de données de santé et le respect du « droit à l’oubli » ? Bref, comment s’assurer qu’intelligence artificielle et robotique riment avec traitement des données éthique ?

Face à un marché mondial de la robotique et des technologies de l’intelligence artificielle en forte croissance et à une généralisation de la robotique dans la vie quotidienne, la définition d’un statut légal pour les robots et autres intelligences artificielles fait débat.

Au-delà des “lois d’Asimov”, qui énoncent des principes éthiques généraux, la régulation des systèmes d’intelligence artificielle supervisés ou renforcés suscite une réflexion sur l’élaboration d’un droit de la robotique.

  • Ainsi, l’Union européenne étudie-t-elle l’éventualité d’une législation visant à réglementer les droits et les devoirs de ce type d’agents autonomes à partir du rapport de la députée européenne Mady Delvaux-Stehres sur le droit des robots et des IA présenté au Parlement européen le 12 janvier 2017. -* Dans son rapport de mars 2017, l’OPECST prolonge la réflexion du précédent rapport de mai 2016 sur les contours d’un droit de la robotique. Ce droit doit notamment porter sur la protection des données personnelles et de la vie privée, la propriété intellectuelle, les régimes de responsabilité envisagés ou envisageables, la définition d’un droit applicable selon le type d’agents autonomes (robots industriels, robots de service, voitures autonomes…).

  • Pour sa part, la Commission nationale de l’informatique et des libertés (Cnil) a manifesté son inquiétude en octobre 2017 au sujet de la protection des données personnelles dans le cadre de la “smart city” (ville numérique) et des véhicules connectés.

Les enjeux technologiques et scientifiques

Ces enjeux sont liés aux algorithmes utilisés par les technologies d’IA. Les algorithmes posent quatre types de questions.

  • Le risque de piratage (drone, voiture autonome) ou la perte de contrôle des systèmes d’IA (notamment lors d’une crise militaire) obligent à prévoir une désactivation des systèmes IA.

  • L’introduction de biais en amont des algorithmes, dès le stade des jeux de données, nécessite, selon les rapporteurs, d’être vigilant notamment pour les algorithmes d’apprentissage automatique.

  • Le fonctionnement des algorithmes d’apprentissage renforcé (le deep learning) à travers des réseaux de neurones artificiels en couches multiples donnent, dans un certain nombre de domaines, d’excellents résultats et très rapidement, sans qu’il soit possible d’avancer une explication théorique satisfaisante (exemple, l’algorithme AlphaGo Zéro de Google). Ce traitement non supervisé de l’information pose des problèmes éthiques (quelle autonomie de l’homme par rapport à un fonctionnement qu’il ne comprend pas ?) et juridiques (qui est responsable ?).

  • La sélection par les algorithmes d’un contenu d’informations ciblées, tout comme la publicité personnalisée ou la logique de construction des « fils d’actualité » des réseaux sociaux, ou encore les fausses informations (fake news), nécessitent la mise en place d’outils de vérification.

Quelle stratégie ?

L’état de la recherche sur l’intelligence artificielle en France

Dans son rapport de mars 2017, l’Office parlementaire souligne la place occupée par de nombreux organismes publics intervenant dans la recherche en intelligence artificielle. Au premier chef figurent l’Institut national de recherche en informatique et en automatique (Inria), le CNRS, le CEA, et différentes universités et grandes écoles dont les travaux ont une visibilité internationale. Toutefois, l’OPECST note que la reconnaissance internationale de la recherche française s’accompagne d’une importante diaspora de chercheurs français en IA.

L’OPECST dresse le constat d’une communauté française de l’intelligence artificielle encore insuffisamment organisée et visible.

L’Observatoire des acteurs de l’intelligence artificielle du ministère de l’enseignement supérieur, de la recherche et de l’innovation recense dans une cartographie interactive 542 structures françaises de l’Intelligence Artificielle (équipes de recherche et entreprises).

Dans le cadre de la cartographie réalisée pour France IA, un travail d’identification à mis au jour un réseau de plus de 250 équipes de recherche en intelligence artificielle pure ainsi qu’en sciences humaines, pour un total de 5 300 chercheurs, dont plus de 4 000 répartis hors de la région parisienne.

La mise en valeur et le développement de la filière de l’IA

En janvier 2017, la secrétaire d’État chargée du numérique et de l’innovation, Axelle Lemaire, a lancé l’opération « France IA », qui réunit 17 groupes de travail associant 500 contributeurs (experts, chercheurs académiques et représentants du monde l’entreprise privée) chargés de définir une stratégie de mise en valeur et de développement de la filière de l’IA en France.

Le rapport de “France IA”, présenté au président de la République à la Cité des Sciences et de l’industrie à Paris le 21 mars 2017, confirme la place de la France dans un domaine jugé essentiel pour l’avenir, mais souligne la faiblesse des grands groupes industriels dans la recherche en amont sur l’intelligence artificielle et invite à réaliser des progrès pour faciliter les transferts de technologies et les expérimentations.

La cinquantaine des propositions de “France IA” s’articulent autour de cinq grands domaines : l’investissement dans la recherche et développement ; la formation aux nouveaux enjeux et métiers et ce, dès l’école primaire ; le transfert de la recherche vers les applications industrielles et économiques ; le développement d’une “stratégie industrielle” pour intégrer l’IA dans chaque filière ainsi que la poursuite du débat public en vue de faciliter la compréhension des enjeux sociétaux et économiques par les citoyens. Sous l’impulsion de ce rapport, le président François Hollande avait annoncé un financement public d’un montant de 1,5 milliard d’euros pour les dix prochaines années dans le cadre du programme d’investissements d’avenir.

Six mois après la présentation du plan “France IA”, Mounir Mahjoubi, secrétaire d’État au numérique, a été chargé par le Premier ministre Édouard Philippe de mener une nouvelle mission d’information sur le sujet. Les conclusions de cette mission, confiée au mathématicien et député LREM des Yvelines Cédric Villani, sont attendues fin mars 2018. Elle a pour objectif, selon les termes du secrétaire d’État, “de proposer une stratégie pour les prochaines années (et) définir si un débat national doit être mené et sur quels sujets”.

Coinsexe |
Coralie de Nantes |
Un mâle... des mots |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | Ljosalfheim
| Gregescortme
| Bonne à tout faire d'Eva