Intelligence artificielle et société : Différence entre versions

De IRHM.MP
Aller à : navigation, rechercher
(Page créée avec « ==Intelligence artificielle et société == ===Résumé et recommandations === L'intelligence artificielle (IA) est l'une des technologies qui transforme notre société... »)
 
(Artificial Intelligence and Society)
Ligne 102 : Ligne 102 :
  
 
Enfin, dans l'imaginaire populaire, la robotique et plus généralement l'IA sont influencées par des récits issus de la littérature fantastique plutôt que par des preuves scientifiques. Il est important de démystifier et de diffuser la robotique et la science de l'IA en s'engageant dans l'éducation publique, la discussion et le débat avec tous les citoyens.
 
Enfin, dans l'imaginaire populaire, la robotique et plus généralement l'IA sont influencées par des récits issus de la littérature fantastique plutôt que par des preuves scientifiques. Il est important de démystifier et de diffuser la robotique et la science de l'IA en s'engageant dans l'éducation publique, la discussion et le débat avec tous les citoyens.
 
== Artificial Intelligence and Society ==
 
 
'''Executive summary and recommendations'''
 
 
Artificial intelligence (AI) is one of the technologies that is transforming our society and many aspects of our daily lives. AI has already provided many positive benefits and may be a source of considerable economic prosperity. It also gives rise to questions about employment, confidentiality of data, privacy, infringement of ethical values and trust in results.
 
 
Policy makers should encourage and scientists should commit to:
 
 
* Careful stewardship is necessary to help share the benefits of AI across society . This will require close attention to the impact of AI on employment which will be in turn shaped by a range of factors including political, economic, and cultural elements, as well as progress in AI technologies.
 
 
* AI systems and data should be trustworthy . This should be facilitated through measures addressing the quality, lack of bias and traceability of data. While this can be further aided by making the data more accessible, personal data should not be made available to unauthorized parties.
 
 
* AI systems and data should be safe and secure . This is essential in the case of applications that involve human vulnerability and may require provably correct systems.
 
 
* Further research is needed to help develop explainable AI systems . When important decisions are suggested by AI impacting people, those concerned should be given sufficient information and be allowed to challenge the decisions (e.g., refuse a treatment or appeal a decision).
 
 
* Insights from many fields are needed in order to maximize the societal benefits of AI . Interdisciplinary research should involve diverse fields such as natural, life and medical sciences, engineering, robotics, humanities, economic and social sciences, ethics, computer science and AI itself.
 
 
* Citizens need to be AI-ready . A range of AI educational opportunities and information should be available and a well-founded dialogue with citizens is required to demystify this field.
 
 
* Public policy debate on the destructive/military usage of AI should be promoted . International undertakings limiting the risks of autonomous weapons should be considered by the relevant UN body.
 
 
* Talent exchanges and cooperation between public research and private sector should be encouraged . This would facilitate safe and rapid deployment of applications in areas of great human benefit. Collaboration is important for large-scale collection of data that are crucial for developing AI systems.
 
 
===Introduction ===
 
 
AI refers to a set of methods and technologies aimed at making computers or other devices function intelligently. AI is basically a collection of algorithms operating on (usually big) data. Machine Learning (ML) is a subset of AI which deals with algorithms extracting useful information from complex data. ML applications have recently made an unanticipated impact in many areas of science and technology. There is broad consensus that AI research is progressing steadily, and that its impact on society will likely increase in the future.
 
 
The development of sophisticated algorithmic systems, combined with the availability of data and processing power, has yielded remarkable successes in various specialized tasks such as speech recognition, image classification, fault detection, autonomous vehicles, decision support systems, robotics, machine translation, legged locomotion, and question-answering systems. Some of these applications are providing extremely valuable support tools for people with disabilities. Using brain- machine interfaces, paralyzed people can interact with their environment through a computer.
 
 
Within natural and social sciences, machine learning algorithms are enabling progress and providing new tools for handling and modeling of complex data and processes, with huge potential benefits. Since a large part of what civilization has to offer is a product of human intelligence, we can only imagine what might be achieved when this intelligence is magnified by the tools AI may provide.
 
 
There is however a number of questions and concerns about potential pitfalls that require further consideration.
 
 
Progress in AI research makes it timely to focus efforts not only on making AI more capable, but also on maximizing its societal benefits while respecting ethical values. The deployment and technical developments of AI should therefore be guided by ethical considerations. Concerns are rising that biases may result from AI systems relying on statistical data analysis and machine learning.
 
 
In this general context, we first address the problems posed by AI’s transformative economic impact. Second, we address the general properties that AI systems should have in order to interact satisfactorily and ethically with humans. We then address more specific issues related to the use of AI systems in healthcare, questions raised by possible AI applications to autonomous weapon systems, and consider the potential of AI embedded in robotics systems. This analysis gives rise to a set of recommendations gathered in the executive summary.
 
 
===1. Managing and optimizing AI's impact on our Societies ===
 
 
There is a general agreement between economists and computer scientists that research needs to be done in order to maximize the economic benefits of AI while mitigating adverse effects. At this stage, it is important to consider the possible impact of AI in terms of increased inequality, unemployment and unethical behaviors. These outstanding issues are examined in further detail in what follows.
 
 
====1.1 Labor market forecasting ====
 
 
AI could bring about significant economic benefits: across sectors, AI technologies offer the promise of boosting productivity and creating new products and services. This potential raises questions about the impact of AI on employment and working life.
 
 
AI will likely have a considerable disruptive effect on work, with certain jobs being lost, others being created, and others changing. Studies that make projections about the impact of AI on employment have high degrees of uncertainty about the rate of change, and the proportion of tasks or jobs that might be likely to be automated.
 
 
In the longer-term, technologies contribute to increased population-level productivity and wealth. However, these benefits can take time to emerge, and there can be periods in the interim where parts of the population experience dis-benefits. This suggests there may be significant transitional effects causing disruption for some people or places, and potentially widening societal inequalities in the short term. There is clearly a need for research anticipating the economic and societal impact of such disparity, taking into account vulnerability of jobs to automation. It will be easier to analyze the impact of AI systems on various kinds of jobs, those requiring lower skilled workers and those needing highly trained professionals, than to predict the jobs that may be created in the future under various policies. There are a number of plausible future paths along which AI technologies might develop. A range of factors will play a role in shaping the impact of AI on employment, including political, economic, and cultural elements, as well as the capabilities of AI technologies. Using the best available research evidence from across disciplines can help develop policies that share across society the benefits of these technology-enabled changes.
 
 
====1.2 Policies for managing and integrating AI development in society ====
 
 
AI will have an important impact on a range of sectors in society, augmenting or replacing human work. The challenge is to anticipate these changes and develop policies that will limit negative effects and allow a better integration of AI. Education is key both in driving AI adoption and in combating inequality.
 
 
Basic understanding of the use of data and AI technologies is needed across all ages, not only of producers and professional users of AI but for all citizens. Introducing key concepts in schools can help ensure this. Adopting a broad and balanced curriculum for educating young people in sciences, mathematics, computing, arts and humanities could equip them with a range of skills and provide a stronger basis for lifelong learning.
 
 
There is also high-demand for highly skilled employees. A range of sectors and professions will require skills to use AI in ways that are useful for them. New initiatives can help create a pool of informed users of AI systems. Support for novel apprenticeship tracks and infrastructures is also needed to build advanced skills in AI that will allow new applications with the creation of many new jobs.
 
 
These issues were already part of the declaration of Ottawa on "Realizing our digital future and shaping its impact on knowledge, industry, and the workforce" at the last G7 summit. Governments are encouraged to implement policies that will be inclusive and able to provide every citizen with equitable access to the AI benefits. This requires that information quality, security and resilience are also guaranteed as well as transparency, openness and interoperability of the AI systems.
 
 
In those areas where AI’s capabilities have outpaced current regulations, there may be a need for new governance approaches that take into account ethical questions arising from human interaction with intelligent machines. It is worth emphasizing the role of humanities and social sciences broadly and in partnership with developers and users in exploring the ways in which AI may challenge existing ethical norms or indeed reveal the ways in which AI presents new ethical challenges.
 
 
===2. Features of AI systems that should be encouraged ===
 
 
====2.1 Data ====
 
 
Our ability to take full advantage of the synergy between AI and big data will depend in part on our capacity to acquire, critically assess and manage data. Much of the current AI technology requires access to huge volumes of data. To take full advantage of the technology, new frameworks may be necessary to make data available. This is notably true for open data and for private data of public interest where new standards might be necessary to help ensure that data can be used effectively. For example, an effort will be needed to make the meaning of data explicit, together with a representation of the context in which they have been derived, and the information about their origin and their processing. All these issues can be addressed by AI techniques, that can thus be important for keeping the many promises of open data, and providing interoperability between different types, e.g., social, economic, organizational, and technical.
 
 
At the same time, access to high quality datasets should respect privacy and confidentiality of personal data and address concerns about unfair-biases and individual rights. The best possible efforts should be made in order that access to confidential data by third parties like banks, insurance companies, potential employers is governed by regulations. Datasets must be protected against malicious attacks. Policies governing data collection, sharing and access should be in place not only for large companies but also for open source initiatives.
 
 
====2.2 Performance and explainability ====
 
 
Some of the most successful and popular developments of AI - notably deep learning - suffer from low levels of explainability at present, and different AI methods support different types of explainability. In some cases, this might reduce the confidence that users can have in such tools. Certain domains consider explanations as essential: in medical applications, a diagnosis without explanation is unlikely to be acceptable. The tradeoffs between performance and explainability should be made explicit while aiming at developing more explainable models. The limitations of the implemented algorithms need to be described to allow users to understand the reasons for the decisions proposed by AI systems. Improving the explainability of AI can help ensure that the AI system does not introduce biases. Disparate impact has emerged as the predominant legal and theoretical concept used to designate unintended discrimination produced by the application of algorithms where a personal attribute (like ethnicity, social origins, gender and age) has a direct effect on the decisions made by the algorithm. AI systems used to make decisions which have a deep impact on the everyday life of people should not generate an undesirable disparate impact.
 
 
====2.3 Verification and validation of on-line evolving systems ====
 
 
On-line evolving systems change in time based on the data they continuously encounter. It has recently become clear that an AI system can drift away from its initial state in an undesired fashion, for example with respect to gender and race. On-line evolving systems therefore require monitoring of the output to eventually detect undesired evolutions.
 
 
===3. Exemplary fields of application and societal consequences ===
 
 
====3.1 Health care applications ====
 
 
AI offers significant potential benefits in systems that support decision-making in health and care. Structural problems in this field can lead to diagnostic errors, possible failure of expertise and inefficient communication of information between research, engineering and clinical worlds. AI can help assess huge amounts of research publications, spot unlikely and weak correlations in huge data sets, analyze images and other data produced by the healthcare systems and develop new technologies. Because of the vital importance of improving clinical decision support systems, AI may contribute significantly to helping clinicians with a range of tools and devices for assisting, and complementing decision making regarding diagnosis and therapeutic options. The goal is improvement in interpreting observations and measurements, in producing diagnoses, and in making health care more accurate, effective and accessible. This requires careful system design, taking into account how AI can work alongside human users, the type of interpretability that might be necessary in different contexts, and the ways in which such systems can be verified and validated. It will be important that physicians and patients can be confident in such systems, and that these systems work well for diverse user groups.
 
 
Careful data governance is also necessary. Collaborations across countries to accelerate advances through AI is in the interest of citizens in all countries.
 
 
====3.2 Autonomous weapons ====
 
 
AI opens new possibilities for military applications, particularly with regard to weapon systems with significant autonomy in the critical functions of selecting and attacking targets. Such autonomous weapons might lead to a new arms race, lower the threshold for war or become a tool for oppressors or terrorists. Some organizations call for a ban on autonomous weapons, similar to conventions in the chemical or biological weapons realm. Such a prohibition would require a precise definition of weapons and autonomy. In the absence of a ban of Lethal Autonomous Weapons Systems (LAWS), the compliance of any weapon system with International Humanitarian Law should be guaranteed. These weapons should be integrated into existing command and control structures in such a way that responsibility and legal accountability remain associated with specific human actors. There is a clear need for transparency and public discussion of issues raised in this area.
 
 
====3.3 Robotics ====
 
 
Robots are sensing and moving machines embodying AI. The physical contact of the machine with the environment, including humans, is a challenge. Robots should be safe, reliable and secure. Until recently, robots were mainly used in manufacturing industry and confined to specific situations without sharing space with humans. Today following the second wave of robotics development, robots can increasingly share the same space and interact with humans. While AI applications are focused on technologies that process data to derive knowledge for decision making, the ultimate goal of robotics is to create technical systems with capacities to interact with the physical world.
 
 
In addition to using machine learning algorithms, robotics faces fundamental constraints in terms of physical safety. Robotics design requires software certification and formal verification to maximize fault tolerance, reliability, and ability to survive.
 
 
Despite recent advancements, the expectations of progress often over estimate the pace of technological change.
 
 
Finally, in popular imagination, robotics and more generally AI are influenced by fantasy narratives rather than by scientific evidence. It is important to demystify and disseminate robotics and AI science by engaging in public education, discussion and debate with all citizens.
 
 
Royal Society Canada
 
Académie des sciences  France
 
Deutsche Akademie der Naturforscher Germany
 
Leopoldina Accademia Nazionale dei Lincei Italy
 
Science Council Japan
 
Royal Society United Kingdom
 
National Academy of Sciences United States of America
 
 
 
Summit of the G7 science academies
 

Version du 12 octobre 2019 à 22:42

Intelligence artificielle et société

Résumé et recommandations

L'intelligence artificielle (IA) est l'une des technologies qui transforme notre société et de nombreux aspects de notre vie quotidienne. L'IA a déjà procuré de nombreux avantages et elle pourrait être une source de prospérité économique considérable. Elle soulève également des questions sur l'emploi, la confidentialité des données, la vie privée, la violation des valeurs éthiques et la confiance dans les résultats.

Les décideurs politiques devraient encourager la prise en compte des points suivants qui devraient également mobiliser les scientifiques :

  • Une gestion prudente est nécessaire pour aider à partager les bénéfices de l'IA dans l'ensemble de la société . Pour cela, il faudra porter une attention particulière à l'impact de l'IA sur l'emploi, qui sera à son tour influencé par une série de facteurs, notamment des aspects politiques, économiques et culturels, ainsi que par les progrès des technologies d'IA.
  • Les systèmes et les données d'IA doivent être fiables . Cela devrait être facilité par des mesures portant sur la qualité, l'absence de biais et la traçabilité des données. Bien que cela puisse être encore facilité en rendant les données plus accessibles, les données à caractère personnel ne devraient pas être mises à la disposition de tiers non autorisés.
  • Les systèmes et les données d'IA doivent être sûrs et sécurisés . Ceci est essentiel dans le cas d'applications qui impliquent une vulnérabilité humaine et qui peuvent nécessiter des systèmes dont il est prouvé qu'ils sont corrects.
  • Des recherches sont nécessaires pour aider à mettre au point des systèmes d'IA explicables . Lorsque des décisions importantes suggérées par l'IA ont une incidence sur des personnes, les individus concernés devraient recevoir une information suffisante et être autorisés à contester ces décisions (par exemple refuser un traitement ou faire appel d'une décision).
  • Des connaissances dans de nombreux domaines sont nécessaires pour tirer le maximum de bénéfices sociétaux de l'IA . La recherche interdisciplinaire devrait porter sur divers domaines tels que les sciences de la nature, les sciences de la vie et les sciences médicales, l’ingénierie, la robotique, les sciences humaines, les sciences économiques et sociales, l'éthique, l'informatique et l'IA elle-même.
  • Les citoyens doivent être prêts à l'IA . Un éventail de possibilités de formation et d'information sur l'IA devrait être mis à leur disposition et un dialogue bien fondé avec les citoyens devrait être engagé pour démystifier ce domaine.
  • Un débat de politique publique portant sur l'utilisation destructive/militaire de l'IA devrait être encouragé . Les engagements internationaux limitant les risques liés aux armes autonomes devraient être examinés par les organes compétents de l'ONU.
  • Les échanges de talents et la coopération entre la recherche publique et le secteur privé devraient être encouragés . Ils faciliteraient le déploiement sûr et rapide d'applications dans des domaines présentant un grand intérêt pour l’homme. La collaboration est importante pour la collecte à grande échelle de données essentielles au développement de systèmes d'IA.

Introduction

L'IA fait référence à un ensemble de méthodes et de technologies visant à faire fonctionner intelligemment des ordinateurs ou d'autres dispositifs. L'IA consiste essentiellement en un ensemble d'algorithmes fonctionnant sur des données (généralement volumineuses). L'apprentissage machine (ML) est un sous-ensemble de l'IA qui traite des algorithmes d'extraction d'informations utiles, à partir de données complexes. Les applications de l’apprentissage machine ont eu récemment un impact inattendu dans de nombreux domaines de la science et de la technologie. Il existe un large consensus sur la progression régulière de la recherche sur l'IA et sur l’augmentation probable de son impact sur le futur de la société.

Le développement de systèmes algorithmiques sophistiqués, combiné à la disponibilité des données et à la puissance de traitement, a conduit à des résultats remarquables pour une série de tâches spécialisées telles que la reconnaissance vocale, la classification d'images, la détection de défauts, les véhicules autonomes, les systèmes d'aide à la décision, la robotique, la traduction automatique, la locomotion de robots humanoïdes, et les systèmes automatiques de réponse aux questions. Certaines de ces applications fournissent des outils de soutien extrêmement précieux pour les personnes handicapées. Grâce à des interfaces cerveau-machine, les individus paralysés peuvent interagir avec leur environnement au moyen d’un ordinateur.

Dans le domaine des sciences de la nature et dans celui des sciences sociales, les algorithmes d'apprentissage machine permettent des progrès et fournissent de nouveaux outils pour le traitement et la modélisation de données et de processus complexes, avec d'énormes avantages potentiels. Étant donné qu'une grande partie de ce que la civilisation a à offrir est issue de l'intelligence humaine, nous ne pouvons qu'imaginer ce qui pourrait être accompli lorsque cette intelligence sera amplifiée par les outils que l'IA peut fournir.

Il y a toutefois un certain nombre de questions et d’inquiétudes sur des écueils potentiels qui méritent un examen plus approfondi.

Les progrès de la recherche sur l'IA permettent de concentrer les efforts non seulement sur l'amélioration des capacités de l'IA, mais aussi sur la maximisation de ses bénéfices pour la société tout en respectant les valeurs éthiques. Le déploiement et l'évolution technique de l'IA devraient donc être guidés par des considérations éthiques. On craint de plus en plus que des biais puissent être générés par les systèmes d'IA fondés sur l'analyse de données statistiques et l'apprentissage automatique.

Dans ce contexte général, on traitera en premier lieu les problèmes posés par l'impact économique transformatif de l'IA. Puis, dans un deuxième temps des propriétés générales dont les systèmes d'IA devraient disposer pour interagir de façon satisfaisante et éthique avec les humains. On abordera ensuite des questions plus spécifiques liées à l'utilisation des systèmes d'IA dans le domaine de la santé, des questions soulevées par d'éventuelles applications de l'IA à des systèmes d'armes autonomes, et on considèrera le potentiel de l'IA intégrée dans les systèmes robotiques. Cette analyse conduit à un ensemble de recommandations rassemblées dans le résumé de ce document.

1. Gérer et optimiser l'impact de l'IA sur nos sociétés

Les économistes et les informaticiens s’accordent généralement pour dire qu'il faut faire de la recherche afin de maximiser les bénéfices économiques de l'IA tout en en atténuant les effets négatifs. A ce stade, il est important de considérer l'impact possible de l'IA en termes d’accroissement des inégalités, de chômage et de comportements non éthiques. Ces questions en suspens sont examinées plus en détail dans ce qui suit.

1.1 Prévisions du marché du travail

L'IA pourrait apporter des avantages économiques importants : dans tous les secteurs, les technologies de l'IA offrent la promesse d'accroître la productivité et de créer de nouveaux produits et services. Ce potentiel soulève des questions sur l'impact de l'IA sur l'emploi et la vie professionnelle.

L'IA aura probablement un effet perturbateur considérable sur le travail, certains emplois seront perdus, d'autres seront créés et d'autres enfin seront en mutation. Les études de projections sur l'impact de l'IA sur l'emploi comportent un degré élevé d'incertitude quant à la vitesse des changements et à la proportion des tâches ou des emplois susceptibles d'être automatisés.

A plus long terme, les technologies contribueront à accroître la productivité et la richesse de la population. Toutefois, ces avantages peuvent prendre du temps à se manifester, et on peut vivre des périodes au cours desquelles une partie de la population n'éprouvera que les inconvénients. Cela donne à penser que des effets transitoires importants pourraient apparaître et entrainer des perturbations pour certaines personnes ou certains lieux, et potentiellement aggraver les inégalités sociales à court terme. Il est clairement nécessaire de mener des recherches pour anticiper l'impact économique et sociétal d'une telle disparité, en tenant compte de la vulnérabilité des emplois à l'automatisation. Il sera plus facile d'analyser l'impact des systèmes d'IA sur divers types d'emplois, ceux qui nécessitent des travailleurs peu qualifiés et ceux qui ont besoin de professionnels hautement qualifiés, que de prévoir les emplois qui pourraient être créés à l'avenir dans le cadre de politiques diverses.

Il existe un certain nombre de pistes plausibles pour le développement futur des technologies de l’IA. Une série de facteurs joueront un rôle dans la détermination de l'impact de l'IA sur l'emploi, y compris des éléments politiques, économiques et culturels, ainsi que les capacités des technologies de l'IA. L'utilisation des meilleures données de recherche disponibles dans toutes les disciplines peut aider à élaborer des politiques qui feront partager les avantages de ces changements technologiques à l'ensemble de la société.

1.2 Politiques de gestion et d'intégration du développement de l'IA dans la société

L'IA aura un impact important sur toute une série de secteurs de la société, en augmentant ou en remplaçant le travail humain. Le défi consiste à anticiper ces changements et à élaborer des politiques qui limiteront les effets négatifs et permettront une meilleure intégration de l'IA. L'éducation est essentielle à la fois pour favoriser l'adoption de l'IA et pour lutter contre les inégalités.

Une compréhension de base de l'utilisation des données et des technologies d'IA est nécessaire à tous les âges, non seulement pour les producteurs et les utilisateurs professionnels de l'IA, mais aussi pour tous les citoyens. L'introduction de concepts clés dans les écoles peut aider à y parvenir. L'adoption d'un programme d'études large et équilibré pour l'éducation des jeunes dans les domaines des sciences, des mathématiques, de l'informatique, des arts et des sciences humaines pourrait leur permettre d'acquérir un large éventail de compétences et fournir une base plus solide pour l'apprentissage tout au long de la vie.

Il y a aussi une forte demande de recrutement de personnes hautement qualifiées. De nombreux secteurs et de professions nécessiteront des compétences pour utiliser de l'IA d'une manière qui leur soit utile. De nouvelles initiatives peuvent aider à créer un ensemble d'utilisateurs avertis des systèmes d'IA. Il est également nécessaire de soutenir de nouvelles filières d'apprentissage et des infrastructures pour développer des compétences avancées en IA qui permettront de nouvelles applications et la création en nombres de nouveaux emplois.

Ces questions faisaient déjà partie de la déclaration d'Ottawa rédigée lors du dernier sommet du G7 « Réaliser notre avenir numérique et façonner son impact sur le savoir, l'industrie et la main-d' œuvre ». Les gouvernements sont encouragés à mettre en œuvre des politiques qui seront inclusives et capables de fournir à chaque citoyen un accès équitable aux prestations de l’IA. Cela suppose que la qualité, la sécurité et la résilience de l'information soient également garanties, de même que la transparence, l'ouverture et l'interopérabilité des systèmes d'IA.

Dans les domaines où les capacités de l’IA ont dépassé la réglementation actuelle, il pourrait être nécessaire d'adopter de nouvelles approches de gouvernance qui tiennent compte des questions éthiques soulevées par l'interaction humaine avec des machines intelligentes. Il convient de souligner le rôle des sciences humaines et sociales en général et du partenariat avec les concepteurs et les utilisateurs pour explorer les façons dont l’IA peut remettre en question les normes éthiques existantes ou pour identifier les nouveaux défis éthiques de l'intelligence artificielle.

2. Caractéristiques des systèmes d'IA qui devraient être encouragées

2.1 Données

Notre capacité à tirer pleinement parti de la synergie entre l'IA et les données massives dépendra en partie de notre capacité à acquérir, évaluer de façon critique et gérer les données. Une grande partie de la technologie actuelle de l’IA nécessite l'accès à d'énormes volumes de données. Pour tirer pleinement parti de ces technologies, de nouveaux cadres réglementaires peuvent être nécessaires pour que les données soient disponibles. C'est notamment le cas des données ouvertes et des données privées d'intérêt public, pour lesquelles de nouvelles normes pourraient s'avérer nécessaires afin de garantir une utilisation efficace des données. Il faudra par exemple, s'efforcer de rendre explicite la signification des données, ainsi qu'une représentation du contexte dans lequel elles ont été obtenues et des informations sur leur origine et leur traitement. Toutes ces questions peuvent être abordées par des techniques d'IA, qui peuvent donc être importantes pour tenir les multiples promesses des données ouvertes et assurer l'interopérabilité entre différents types, par exemple, sociaux, économiques, organisationnels et techniques.

Dans le même temps, l'accès à des ensembles de données de haute qualité devrait respecter la vie privée et la confidentialité des données personnelles et répondre aux préoccupations concernant les biais injustifiés et le respect des droits individuels. Tout doit être mis en œuvre pour que l'accès aux données confidentielles par des tiers tels que les banques, les compagnies d'assurance, les employeurs potentiels soit régi par des réglementations. Les ensembles de données doivent être protégés contre les attaques malveillantes. Des politiques régissant la collecte, le partage et l'accès aux données devraient être en place non seulement pour les grandes entreprises, mais aussi pour les initiatives « open source ».

2.2 Rendement et possibilité d'explication

Certains des développements les plus réussis et les plus populaires de l'IA - notamment l'apprentissage approfondi - souffrent actuellement de faibles niveaux d'explicabilité et différentes méthodes d'IA demandent divers types d'explicabilité, ce qui pourrait, dans certains cas, réduire la confiance que les utilisateurs accordent à de tels outils. Certains domaines requièrent des explications : dans les applications médicales, un diagnostic sans explication a peu de chances d'être acceptable. Les compromis entre la performance et l'explicabilité devraient être explicités tout en visant à développer des modèles plus explicables. Les limites des algorithmes implémentés doivent être décrites pour permettre aux utilisateurs de comprendre les raisons des décisions proposées par les systèmes d'IA.

L'amélioration de l'explicabilité de l'IA peut aider à s'assurer que le système d'IA n'introduit pas de biais. L'impact différencié (« disparate impact ») est apparu comme étant le concept juridique et théorique prédominant utilisé pour désigner la discrimination involontaire produite par l'application d'algorithmes lorsqu'un attribut personnel (comme l'origine ethnique, sociale, le sexe et l'âge) a un effet direct sur les décisions prises par l'algorithme. Les systèmes d'IA utilisés pour prendre des décisions qui ont un impact profond sur la vie quotidienne des gens ne devraient pas générer un impact différencié indésirable.

2.3 Vérification et validation des systèmes évolutifs en ligne

Les systèmes en ligne évoluent dans le temps en fonction des données qu'ils traitent en permanence. Il est récemment apparu clairement qu'un système d'IA peut s'éloigner de son état initial d'une manière non souhaitée, par exemple pour le genre et la race. L'évolution des systèmes en ligne nécessite donc une surveillance de leur production pour éventuellement détecter des évo lutions indésirables.

3. Domaines d'application exemplaires et conséquences sociétales

3.1 Applications dans le domaine des soins de santé

L'IA offre des avantages potentiels importants dans les systèmes qui étayent la prise de décisions en matière de santé et de soins. Les problèmes structurels dans ce domaine peuvent conduire à des erreurs de diagnostic, à une défaillance éventuelle de l’expertise et à une communication inefficace de l'information entre le monde de la recherche, de l'ingénierie et le monde clinique. L'IA peut aider à évaluer d'énormes quantités de publications de recherche, à repérer les corrélations improbables et faibles dans d'énormes ensembles de données, à analyser les images et autres données produites par les systèmes de santé et à développer de nouvelles technologies. En raison de l'importance vitale de l’amélioration des systèmes d'aide à la décision clinique, l'IA peut contribuer de manière significative à aider les cliniciens en leur fournissant une gamme d'outils et de dispositifs pour les assister et compléter la prise de décision concernant le diagnostic et les options thérapeutiques. L'objectif consiste à améliorer l'interprétation des observations et des mesures, de produire des diagnostics et de rendre les soins de santé plus précis, efficaces et accessibles. Cela nécessite une conception soignée du système, en tenant compte de la manière dont l’IA peut fonctionner aux côtés des utilisateurs humains, du type d'interprétabilité qui pourrait être nécessaire dans différents contextes, et des façons dont ces systèmes peuvent être vérifiés et validés. Il sera important que les médecins et les patients puissent avoir confiance en de tels systèmes et que ces systèmes fonctionnent bien pour divers groupes d'utilisateurs.

Une gouvernance prudente des données est également nécessaire. Il est dans l'intérêt des citoyens de tous les pays de collaborer entre eux pour accélérer les progrès grâce à l'IA.

3.2 Armes autonomes

L'IA ouvre de nouvelles possibilités d'applications militaires, notamment en ce qui concerne les systèmes d'armes dotés d'une autonomie importante dans les fonctions critiques de sélection et d'attaque des cibles. De telles armes autonomes pourraient conduire à une nouvelle course aux armements, abaisser le seuil de déclenchement d’une guerre ou devenir un outil pour les oppresseurs ou les terroristes. Certaines organisations appellent à l'interdiction des armes autonomes, à l'instar des conventions dans le domaine des armes chimiques ou biologiques. Une telle interdiction nécessiterait une définition précise des armes et de leur autonomie. En l'absence d'une interdiction des systèmes d'armes létales autonomes (LAWS), la conformité de tout système d'armes avec le droit international humanitaire devrait être garantie. Ces armes devraient être intégrées dans les structures de commandement et de contrôle existantes de manière à ce que la responsabilité et l'obligation légale de rendre des comptes restent associées à des acteurs humains spécifiques. Il y a un besoin évident de transparence et de débat public sur les questions soulevées dans ce domaine.

3.3 Robotique

Les robots sont des machines dotées de senseurs et de moyens de déplacement qui incarnent l'IA. Le contact physique de la machine avec l'environnement, y compris l'homme, est un défi. Les robots doivent être sûrs, fiables et sécurisés. Jusqu'à récemment, les robots étaient principalement utilisés dans l'industrie manufacturière et confinés à des situations spécifiques sans partager l'espace avec les humains. Aujourd'hui, après la deuxième vague de développement de la robotique, les robots peuvent de plus en plus partager le même espace et interagir avec les humains. Alors que les applications d'intelligence artificielle se concentrent sur les technologies qui traitent les données pour en tirer des connaissances utiles à la prise de décision, le but ultime de la robotique est de créer des systèmes techniques capables d'interagir avec le monde physique.

Outre l'utilisation d'algorithmes d'apprentissage machine, la robotique est confrontée à des contraintes fondamentales en termes de sécurité physique. La conception de la robotique nécessite une certification logicielle et une vérification formelle pour maximiser la tolérance aux pannes, la fiabilité et la capacité de survie.

Malgré les progrès récents, les attentes en matière de progrès surestiment souvent le rythme de l'évolution technologique.

Enfin, dans l'imaginaire populaire, la robotique et plus généralement l'IA sont influencées par des récits issus de la littérature fantastique plutôt que par des preuves scientifiques. Il est important de démystifier et de diffuser la robotique et la science de l'IA en s'engageant dans l'éducation publique, la discussion et le débat avec tous les citoyens.