Transition numérique dans l'ESR à l'horizon 2040

De IRHM.MP
Aller à : navigation, rechercher

La transition numérique dans la recherche et l’enseignement supérieur à l’horizon 2040

M. Barzman, M. Gerphagnon, O. Mora, coord.

Éditions Quæ - © Éditions Quæ, 2020 - ISBN : 978-2-7592-3152-2 e-ISBN : 978-2-7592-3153-9 x-ISBN : 978-2-7592-3154-6

Ce livre est issu du rapport de la prospective Transition numérique et pratiques de recherche et d’enseignement supérieur en agronomie, environnement, alimentation et sciences vétérinaires à l’horizon 2040. Cette prospective a été mise en ligne en octobre 2019. Elle est le résultat d’une réflexion menée, lors d’une dizaine de réunions de janvier 2018 à juin 2019, par un ensemble d’experts répartis en trois groupes : un groupe de travail responsable de la construction des scénarios, un comité en charge du suivi institutionnel, et une équipe projet en charge de la conduite et de la construction de l’étude prospective.

Cet ouvrage a bénéficié du soutien financier de la Direction de l’expertise, de la prospective et des études (Depe) de l’INRA. Il est diffusé sous licence CC-by-NC-ND.

Sommaire

Préface

À l’origine de cette étude prospective, plusieurs réflexions collectives, à l’Inra et au sein du collectif que représente Agreenium, ont convergé sur l’importance d’anticiper l’impact de la transition numérique sur les activités de recherche et d’enseignement supérieur. Au sein de l’Inra, ce besoin d’anticipation a émergé conjointement à la direction des ressources humaines et du développement durable — qui réfléchit aux évolutions des activités des personnels de la recherche pour une bonne gestion des emplois et des compétences mais aussi aux impacts sur les organisations et façons de travailler — et chez le délégué scientifique à la transition numérique, qui a mission de préparer l’Institut aux changements induits par le caractère disruptif des technologies numériques. À l’échelle d’Agreenium, la réflexion sur la transformation pédagogique liée à la transition numérique, à la suite des travaux du Conseil national du numérique, a rapidement débouché sur le besoin de maîtriser ces enjeux dans l’enseignement supérieur, pour mieux anticiper les impacts aux différents niveaux d’organisation et aux échelles collective et individuelle. Ces besoins convergents et complémentaires ont conduit l’Inra et Agreenium à confier à la Délégation à l’expertise scientifique collective, à la prospective et aux études de l’Inra, une étude prospective pour envisager les conséquences de la transition numérique sur les pratiques de recherche et celles d’enseignement supérieur.

Cette étude prospective a été conduite selon la « méthode des scénarios », qui permet d’explorer les futurs possibles en prenant en compte la complexité du système, les interrelations entre les différents facteurs en jeu, et les incertitudes. Elle a mobilisé une équipe projet et un groupe d’experts pendant dix-huit mois. La production ressortant de leur travail est impressionnante, tant par la quantité des contributions analysées (publications scientifiques, rapports d’études, dires d’experts, focus groups…), que par la qualité du rapport. Que tous les contributeurs soient donc ici doublement remerciés, d’abord pour avoir participé à cette aventure collective que constitue toujours une étude prospective, mais aussi parce que le travail consenti a été intense tout au long de ces dix-huit mois.

Si les commanditaires à l’origine du cahier des charges de l’étude avaient imaginé que le périmètre thématique allait permettre de limiter le champ d’investigation, il est très vite apparu que les domaines avaient finalement peu d’influence et que les travaux menés pouvaient concerner l’ensemble de l’enseignement supérieur et de la recherche (ESR), qu’il soit français ou non.

S’il est trop tôt pour envisager la façon dont les responsables de la recherche et de l’enseignement supérieur vont se les approprier, nous considérons, à notre niveau de responsabilité dans un système d’enseignement supérieur et de recherche, que nous devons engager rapidement une stratégie collective pour prendre ce qui nous paraît le meilleur dans chacun des scénarios contrastés proposés, et plus généralement anticiper pour éviter le pire. Cette étude, qui a pris en compte les principales dimensions de l’activité de recherche et d’enseignement supérieur, en l’organisant en sept composantes (organisation institutionnelle de l’ESR, pratiques d’enseignement et de formation, éthique et culture numérique, données, interactions de l’ESR avec la société, pratiques de recherche, contexte sociétal), aboutit en effet à des propositions paradoxales qui peuvent souvent inquiéter, alors qu’il existe des chemins de progrès humain considérable permis par la transition numérique. Comment profiter de l’immense apport de la plateformisation dans la production et le partage des connaissances, sans prendre le risque que les données soient captées et monétisées par des entreprises mondialisées ? Quelle organisation et quel pilotage de l’ESR peuvent être envisagés aux différentes échelles (mondiale, continentale, nationale, régionale) si l’on considère que la connaissance est un bien commun ? Comment concilier d’un côté le développement des usages des outils numériques pour la recherche et l’enseignement supérieur et d’un autre côté la frugalité dans la consommation d’énergie et de terres rares qui s’imposera un jour ou l’autre à tous ? Ces quelques questions trouvent des éléments de réponse dans l’analyse des enjeux pour la recherche et pour l’enseignement supérieur de chacun des scénarios envisagés, et nous devons donc chercher la bonne combinatoire pour tracer le chemin désirable. La transition numérique est une véritable opportunité pour la recherche et l’enseignement supérieur, sous réserve que les choix d’aujourd’hui créent les conditions de poursuite de l’émancipation humaine dans une nature préservée.

Enfin, l’étude prospective se projetant à l’horizon 2040, il nous faut décider maintenant pour la génération qui va suivre, afin d’éviter de reproduire la « dépendance au sentier » que nous connaissons aujourd’hui dans d’autres activités face à des enjeux nouveaux. Après ce chantier doit donc en venir un nouveau : celui de l’élaboration d’une stratégie collective pour notre système d’enseignement supérieur et de recherche, que ce soit par grandes thématiques aux différents niveaux de politiques publiques (en particulier française et européenne), ou dans les négociations internationales (pour la bonne répartition des pouvoirs publics et des pouvoirs privés). Nous espérons humblement que cette étude prospective, menée dans un champ thématique à nombreux défis d’avenir mais pour lequel il n’était pas naturel d’associer recherche et enseignement supérieur, va être à l’origine d’un engagement sans précédent pour affirmer une volonté politique permettant la réussite de la transition numérique dans l’ensemble du système d’enseignement supérieur et de recherche.

Aperçu des questions posées

La transition numérique impacte tous les secteurs d’activité. L’enseignement supérieur

et la recherche publics (ESR) ne sont pas exempts des bouleversements qu’elle induit. Les transformations des pratiques et des modes d’organisation de l’ESR, des relations entre les acteurs de cet écosystème, ainsi qu’un sentiment d’accélération de ces transformations génèrent diverses images du futur — fantasmées ou plausibles. Avec cette prospective, nous proposons d’éclairer le débat concernant les implications à venir de cette transition pour la recherche et l’enseignement supérieur dans les sciences agronomiques, de l’environnement, de l’alimentation et vétérinaires.

Dans l’enseignement supérieur, la transition numérique modifie les contenus, les outils et les méthodes pédagogiques. Les rôles respectifs des enseignants et des apprenants et l’élaboration des parcours de formation sont et seront transformés par les algorithmes, les intelligences artificielles et le développement de plateformes numériques. La profusion de ressources pédagogiques en ligne renforce les possibilités d’autoformation et remet en question la contribution du présentiel, de la formation initiale et des diplômes dans le parcours de chacun. Par qui, humains ou algorithmes, et comment les contenus et les parcours de formation les plus adaptés et correspondant aux besoins seront-ils décidés ? Quels rôles les enseignants, les formateurs et les apprenants joueront-ils dans des parcours numériques individualisés ou dans des communautés d’apprentissage digitalisées ? Le foisonnement des outils numériques favorisera-t-il l’accès à l’enseignement et à la formation pour tous ou renforcera-t-il les inégalités ? Face aux enjeux économiques et aux grands opérateurs privés, quelle sera la place de l’enseignement supérieur et de la formation publics dans le marché de la connaissance ? Comment les métiers de la recherche et de l’enseignement supérieur ainsi que les compétences associées au numérique pourront-ils être accompagnés et développés dans ce contexte ?

La recherche et les pratiques de recherche se trouvent également face à des opportunités et des défis inédits. Le numérique a permis l’émergence de nouveaux métiers et de nouvelles façons de produire, de valider et de faire circuler la connaissance. Les données massives favorisent les approches abductives basées sur la fouille de données tandis que les outils d’intelligence artificielle et de simulation en émergence transforment les pratiques de recherche. De nouveaux métiers apparaissent afin de traiter, analyser et gérer ces données massives ; comment vont-ils s’articuler avec les disciplines existantes ? Des collectifs de recherche se structurent en réseaux ou s’assemblent autour de grands dispositifs scientifiques, parfois incluant aussi la société civile. De nouvelles interactions apparaissent au sein d’écosystèmes de recherche et d’innovation en évolution. Les nouvelles capacités de communication permettent une organisation distribuée, mondialisée, centrée autour de clusters territoriaux ou de réseaux individuels labiles. Enfin, le numérique transforme nos objets d’étude : agriculture numérique, foodtech, e-santé, sciences vétérinaires connectées, etc. Face à ces changements, quelle sera la place du numérique dans la recherche en 2040 ?

Cette étude prospective, commanditée par l’Inra et Agreenium, explore l’évolution des rôles et des pratiques dans la recherche et l’enseignement supérieur en agronomie, environnement, alimentation et santé animale face à la transition numérique. Au-delà de ces domaines d’application, cette initiative traite des questions pertinentes pour un large éventail d’acteurs concernés par le fonctionnement de la recherche, l’apprentissage et les modes de partage des savoirs, de l’enjeu des données dans l’économie numérique et de nouvelles relations entre la science et la société. Ce rapport présente le travail effectué sur deux parties, après une nécessaire exposition de la méthodologie adoptée, où sont décrites les méthodes et démarches qui ont servi à élaborer quatre scénarios et identifier les enjeux majeurs pour le devenir de la recherche et l’enseignement supérieur publics.

La première partie (Rétrospectives, tendances actuelles et hypothèses d’évolution) synthétise le travail effectué sur les tendances passées et actuelles (rétrospectives), ainsi que sur les hypothèses d’évolution identifiées pour les différentes composantes du système. Elles concernent les pratiques de recherche, les pratiques d’enseignement et de formation, les données, les interactions de l’ESR avec la société, l’éthique et les cultures numériques dans l’ESR, le contexte (société, économie et politique) et l’organisation institutionnelle de l’ESR.

La seconde partie présente les quatre scénarios contrastés d’évolution à l’horizon 2040 (chapitre 8), leurs enjeux, en termes d’opportunités et de risques (chapitre 9) et leurs enseignements identifiés à partir des grandes questions qu’ils mettent en lumière (chapitre 10).

Méthodologie

L’objectif de cette prospective est d’anticiper les conséquences à venir des évolutions engendrées par la transition numérique sur la recherche et l’enseignement supérieur, en particulier dans les domaines d’application que sont l’agriculture, l’alimentation, l’environnement et la santé animale — domaines de compétences de l’Inra et des autres membres d’Agreenium. Afin d’appréhender un large éventail des évolutions possibles, en tenant compte des incertitudes et des interdépendances, cette prospective a été conduite selon une méthode systémique à caractère exploratoire.

Le choix de la méthode des scénarios

La prospective s’est appuyée sur la méthode des scénarios basée sur l’analyse morphologique d’un système (Godet et Durance, 2008 ; de Jouvenel, 2004). Cette méthode permet d’appréhender les évolutions de long terme, en intégrant les discontinuités et les ruptures éventuelles.

À travers la série d’étapes décrites ci-dessous, il est possible avec cette méthode de construire une diversité de scénarios exploratoires répondant aux critères de pertinence, cohérence, plausibilité, transparence et contraste. La construction des scénarios s’appuie sur des combinaisons d’hypothèses d’évolution et se traduit par la production de récits où les chaînes de causalité sont explicitées. Les scénarios élaborés visent à renouveler les regards et les questionnements sur les transformations actuelles et à venir, auxquelles il convient de se préparer, ainsi que sur les actions à engager. Leur objectif est de contribuer aux débats et aux questionnements sur les évolutions en cours et de faciliter l’anticipation des enjeux futurs et l’identification des leviers d’action pour y répondre. Le travail de prospective prépare donc le terrain en éclairant les futurs possibles en amont de l’élaboration stratégique.

Organisation de la prospective

La transition numérique touche de multiples façons un grand nombre d’activités et de secteurs, et ce large spectre d’effets concerne également la recherche et l’enseignement supérieur. Pour prendre en compte les effets systémiques, la prospective s’est appuyée sur un ensemble de participants multi-institutionnels, pluridisciplinaire, incluant des acteurs partie prenante. Ceux-ci ont été répartis en trois groupes1.

Comité de suivi

Le comité de suivi a orienté tout au long de l’étude le déroulement de l’étude en fonction des résultats préliminaires, du calendrier de la réalisation de l’étude prévu, et des objectifs définis. Il regroupait des représentants Inra et Agreenium, soit les commanditaires de l’opération.

Groupe de travail

Le groupe de travail a assuré, avec l’équipe projet, l’analyse rétrospective du système et la construction des scénarios. Il était composé d’acteurs issus de la recherche, de l’enseignement supérieur, des collectivités territoriales, du développement agricole, et de la coordination internationale.

1. La liste des membres des différents groupes figure au début de l’ouvrage.

Équipe projet

L’équipe projet a conduit l’exercice au quotidien en assurant l’animation globale de l’exercice et notamment des ateliers avec le groupe de travail ainsi que les synthèses bibliographiques ayant servi de support aux discussions internes, et la mise en forme des travaux.

Collectivement, les domaines d’expertise des membres du groupe de travail et de l’équipe projet couvraient les systèmes d’information, la politique des données, les ressources humaines, les sciences vétérinaires, l’agronomie, la génétique, la bio-informatique, la sociologie, les sciences de l’éducation, la sociologie du travail, et l’économie.

Les étapes de la prospective

Le cadrage du sujet

Dans la phase de cadrage, le groupe de travail a discuté et s’est accordé sur l’horizon temporel de la prospective et sur son périmètre thématique.

L’horizon de la prospective a été fixé à 2040. Ni trop lointain, ni trop proche, cet horizon répondait à la nécessité d’envisager, d’une part, des ruptures possibles et la généralisation de signaux faibles, notamment les transformations des usages numériques en lien avec les changements générationnels, et, d’autre part, de prendre de la distance vis-à-vis des enjeux immédiats et de court terme pour étudier des transformations plus systémiques.

La transition numérique impacte de nombreux secteurs d’activité, depuis la gouvernance mondiale jusqu’aux relations sociales des individus. Il était donc particulièrement important de clarifier le périmètre thématique pour éviter de se perdre dans une analyse excessivement globalisante. Il fallait en même temps veiller à prendre en compte l’ensemble des modifications générées par le numérique qui étaient pertinentes pour le sujet de cette prospective. En effet, la transition numérique est une transformation sociétale qui impacte à la fois les pratiques de recherche et d’enseignement ainsi que de grandes questions politiques, sociales et économiques.

L’identification des composantes et variables définissant le système

Dans une deuxième phase, le groupe de travail a identifié les facteurs déterminants du devenir de l’enseignement supérieur et de la recherche dans le cadre de la transition numérique. Ces facteurs sont présentés sous forme de diverses composantes, qui ensemble constituent le « système » de la prospective.

Pour cela, le groupe de travail a d’abord identifié les grands enjeux du numérique pour la recherche et l’enseignement à l’horizon 2040. Puis ces enjeux ont été regroupés afin de définir des domaines thématiques relativement indépendants, qui ont été considérés comme les composantes du système. Le système ainsi défini comprend sept composantes, présentées dans la figure 1.

Figure 1. Les sept composantes du système.

Chaque composante est elle-même définie par une série de variables qui permettent de la décrire. Comme leur nom l’indique, les variables varient, qualitativement ou quantitativement, au cours du temps. Elles sont constitutives de la composante. Pour cette prospective, chaque composante a été définie par trois à quatre variables.

L’analyse rétrospective des variables et leurs hypothèses d’évolution possible à l’horizon 2040

La troisième phase de la prospective a consisté, pour chaque variable, à construire une base de connaissance des dynamiques passées et en cours, puis à élaborer des hypothèses d’évolution spécifiques à la variable en question.

Dans un premier temps, une revue de la littérature menée par l’équipe projet et discutée par le groupe de travail a permis de dégager les tendances passées et en cours de chacune des variables. Ce travail qui correspond à l’analyse rétrospective du système est présenté en détail dans la première partie.

Dans un second temps, l’analyse des tendances passées des variables et l’identification des signaux faibles et des ruptures possibles ont servi de base à l’élaboration de nombreuses hypothèses d’évolution (94) des variables à l’horizon 2040. Les variables et les hypothèses d’évolution des variables sont schématisées dans la figure 2 ci-dessous, à travers l’exemple de la composante « Pratiques de recherche ».

Figure 2. Découpage en variables et construction d’hypothèses d’évolution des variables d’une composante.

La construction des scénarios

Au sein de chaque composante, le groupe de travail a combiné les hypothèses d’évolution de chaque variable selon des agencements cohérents, plausibles, pertinents et contrastés pour aboutir à des hypothèses d’évolution des composantes. À titre d’exemple, le processus de formulation d’hypothèses d’évolution d’une composante à partir d’hypothèses d’évolution de variables est présenté, toujours pour la composante « Pratiques de recherche », dans la figure 3 ci-dessous. On obtient ainsi un jeu de 31 hypothèses d’évolution possible des composantes. Ces hypothèses sont présentées dans la première partie à la fin de chaque chapitre décrivant les dynamiques passées et futures des composantes.

Les hypothèses d’évolution des composantes ont ensuite été regroupées dans un tableau dit « morphologique » (à retrouver au début du chapitre 8), qui a permis la construction des scénarios. À l’aide de ce tableau, le groupe de travail a combiné les hypothèses d’évolution des composantes pour construire quatre scénarios. Une combinaison d’hypothèses d’évolution de composantes (les « xxx ») constituant un scénario x est schématisée dans la figure 4 ci-dessous.

Les scénarios ont été construits avec les objectifs de pertinence par rapport à la question de départ, de cohérence interne en proposant une combinaison d’hypothèses non contradictoires entre elles, de plausibilité au regard des évolutions en cours, et d’intérêt pour les acteurs concernés. La finalité était de bâtir des scénarios suffisamment contrastés pour identifier le maximum de risques et d’opportunités associés à la transition numérique.

Figure 4. Construction d’un scénario (abstrait) par agencement d’hypothèses d’évolution des composantes dans le tableau morphologique.

Figure 3. Formulation des hypothèses d’évolution d’une composante (en orange) à partir des hypothèses d’évolution des variables.

En parallèle aux étapes décrites précédemment, l’équipe projet a enrichi et affiné l’analyse menée avec le groupe de travail par trois approfondissements complémentaires.

Tout d’abord, pour enrichir la réflexion sur l’avenir de l’enseignement en général, de l’intelligence artificielle dans l’apprentissage et du numérique dans la santé animale, trois auditions ont été organisées lors d’ateliers du groupe de travail :

Prospective PREA2K30 – « Éducation et apprentissages à l’horizon 2030 », présentée le 23 mai 2018 par Georges-Louis Baron de l’Université Paris-Descartes ;

« Panorama de l’intelligence artificielle pour l’éducation », présenté le 10 septembre 2018 par François Boucher de Sorbonne Université ;

Prospective VetFuturs – « Évolution du numérique dans les soins vétérinaires et stratégies à adopter par la profession », présentée le 10 septembre 2018 par Denis Avignon du Conseil national de l’Ordre des vétérinaires.

En outre, deux ateliers participatifs du type « focus group » ont été menés pour apporter un regard critique sur les hypothèses d’évolution des composantes quant aux pratiques d’enseignement, de formation et de recherche, et enrichir la réflexion prospective. Les focus groups font appel à des formes d’animation dynamique, participative et collective. Des petits groupes de trois à quatre participants ont effectué des rotations rapides d’une station à une autre, en discutant et notant leurs commentaires. Le travail en petits groupes a alterné avec des discussions en réunion plénière. Ces ateliers ont été organisés :

le 18 octobre 2018, avec une quinzaine d’ingénieurs pédagogiques d’Agreenium et d’ingénieurs formation de l’Inra ;

le 22 octobre 2018, avec une quinzaine d’enseignants-chercheurs d’Agreenium et de chercheurs de l’Inra.

Enfin, avec des objectifs similaires, des consultations d’étudiants ont eu lieu. Les hypothèses d’évolution ont été proposées à un groupe d’étudiants élus au Conseil national de l’enseignement supérieur et de la recherche en agronomie, alimentation et sciences vétérinaires, et au conseil d’administration d’Agreenium, afin d’obtenir leur point de vue.

À ce stade, le groupe de travail et l’équipe projet ont établi quatre scénarios, détaillés dans le chapitre 8. Ceux-ci se présentent sous la forme de récits basés sur une articulation des hypothèses d’évolution des composantes. Pris dans son ensemble, ce jeu de scénarios est conçu pour rendre compte de la pluralité des futurs possibles, et ainsi décrire l’éventail des futurs qu’il convient d’anticiper.

Les enjeux des scénarios pour la recherche et l’enseignement supérieur

Pour faciliter l’appropriation des scénarios et leur usage stratégique, le groupe de travail a consacré un atelier à une réflexion sur les enjeux de la transition numérique pour l’ESR au regard des changements envisagés dans les quatre scénarios. Ceux-ci ont été élaborés à travers un exercice « SWOT » — Strength, Weakness, Opportunity, Threat, c’est-à-dire atouts et vulnérabilités des institutions, et opportunités et menaces pour les établissements de recherche et d’enseignement supérieur en agronomie, environnement, alimentation et santé animale. Les résultats de ce travail sont présentés dans les chapitres 9 et 10.

Partie I Rétrospectives, tendances actuelles et hypothèses d’évolution

Afin d’élaborer des scénarios plausibles, contrastés et cohérents au vu des connaissances actuelles, il est nécessaire d’appuyer le raisonnement prospectif sur une analyse rétrospective des dynamiques du système.

Cette partie présente les analyses rétrospectives et les hypothèses d’évolution des sept composantes formant le système. Pour mémoire, chaque composante comprend trois à cinq variables qui sont présentées dans le tableau 1.

Chaque chapitre est consacré à une composante. Pour chacune des variables décrivant la composante, sont présentés les tendances actuelles, les signaux faibles et les ruptures possibles identifiés à travers une revue de la littérature et des discussions d’experts.

Tableau 1. Les composantes et leurs variables.

Composantes Variables caractérisant la composante

Pratiques de recherche Transformation des collectifs de recherche Production de connaissances

Processus de validation des connaissances

Métiers et articulation des compétences disciplinaires et numériques

Pratiques d’enseignement et de formation Contenu des formations

Outils d’enseignement et formation Accès à la formation

Modalités de formation et de certification

Données Production et stockage des données Traitement des données

Qualité des données

Modalité de circulation des connaissances et données

Interactions de l’ESR avec la société Place de l’ESR dans son écosystème

L’ESR et les médias

Évaluation de l’ESR par la société

Éthique et cultures numériques Éducation numérique des chercheurs

et enseignants-chercheurs

Place du scientifique et de l’enseignant dans la société Circulation des enjeux éthiques entre l’ESR et la société Statut juridique des données et des contenus à des fins de recherche et d’enseignement

Contexte (société, économie et politique) Sensibilisation aux défis environnementaux

Le numérique dans la société L’économie numérique

Politique et acteurs du numérique

Organisation institutionnelle de l’ESR Structuration des organisations

Pilotage et stratégie Métiers et compétences

Modèle économique de l’ESR

Chaque chapitre se termine par une présentation des hypothèses d’évolution de la composante en 2040.

L’ensemble de ces analyses permet in fine de définir les différentes hypothèses d’évolution à 2040 de chaque composante, qui seront mobilisées dans la construction des scénarios (voir partie 2).

Pratiques de recherche

Olivier Mora, Geneviève Aubin-Houzelstein, Mélanie Gerphagnon, Jean-François Gibrat, Yann Moulier-Boutang

Cette composante traite des conséquences du numérique sur l’évolution des pratiques de recherche proprement dites sous quatre angles : les collectifs de recherche, la production de connaissances, les processus de validation des connaissances, et l’évolution des métiers de la recherche. Dans ce chapitre, une première partie examine ainsi l’évolution des collectifs de recherche. Une deuxième partie envisage les transformations des processus de production de connaissances et l’émergence de nouveaux types de raisonnement et d’élaboration des connaissances liés aux données massives et aux intelligences artificielles. Une troisième partie s’interroge sur les modalités de validation et de diffusion des connaissances ouvertes. Enfin, une dernière partie explore la façon dont les sciences de la donnée peuvent modifier le paysage des champs disciplinaires, en favorisant l’interdisciplinarité et l’émergence de chercheurs en sciences de la donnée, et influencer le contenu même de la connaissance.

Transformations des collectifs de recherche

Le numérique modifie la nature et les dynamiques des collectifs scientifiques. Il change

les modes de fonctionnement et de création des collaborations, en favorisant une ouverture des collectifs à chaque étape du processus de la recherche : formation de collectifs interdisciplinaires, intégration d’acteurs extérieurs, et transformation de l’environnement de recherche. Il accroît la flexibilité et la complexité des collectifs autour de projets ou de grandes infrastructures, souvent poussés par la demande d’innovation avec des acteurs privés.

Une flexibilité et une complexification progressives des collectifs de recherche

L’affirmation de collectifs à durée déterminée basés sur les réseaux individuels de chercheurs

Jusque vers les années 2000, les collectifs de recherche publics étaient stables, fortement ancrés dans leurs laboratoires et départements d’origine. Le développement de la recherche sur projet, lancé dès les années 1980, s’est institutionnalisé avec la création de l’Agence nationale de la recherche (ANR) en 2005, la loi de programme pour la recherche, et la mise en place concomitante d’appels d’offres européens. Le mode projet a augmenté la flexibilité des équipes, favorisé les collaborations nationales et internationales, tout en affaiblissant le lien du porteur de projet avec son unité de recherche puisque celui-ci peut disposer directement d’une autonomie financière. Ce mode projet a entraîné de la sorte une instabilité des collectifs de recherche centrés autour du porteur de projet, une plus grande précarisation des jeunes chercheurs engagés le temps du projet, ainsi qu’une certaine perte de sens pour certaines catégories de personnel, en particulier les techniciens, qui passent de projet en projet sans continuité dans leurs activités. La carrière des chercheurs étant liée à l’obtention de tels contrats, cela a développé un certain individualisme et un esprit de compétition dans la course à l’excellence (Roddaz, 2017).

L’importance des infrastructures de recherche dans la constitution des collectifs

La recherche par mode projet a changé l’échelle des collaborations, qui sont devenues de plus en plus internationales, avec des consortiums parfois de très grande taille, à budget très conséquent, mais également à fonctionnement complexe et très lourd d’un point de vue administratif. Les instituts de recherche, conscients des enjeux financiers et de la reconnaissance internationale liés à l’obtention de contrats de ce type, ont développé des politiques spécifiques afin de promouvoir et faciliter ces collaborations de grande envergure.

Ces contrats ont permis de développer des infrastructures de recherche à portée nationale et internationale autour desquelles se fédèrent des collectifs de recherche. Les grands équipements peuvent constituer des lieux importants de collaboration scientifique, générateurs de nouveaux projets. Ils ne se limitent plus à une fonction d’instruments de service (Aggeri et al., 2007). Ces infrastructures génèrent de grandes quantités de données et utilisent des outils numériques puissants pour gérer et analyser les résultats.

Un élargissement des collectifs de recherche : des collaborations facilitées et transformées par les outils numériques

Les chercheurs ont progressivement utilisé les outils numériques pour s’intégrer à des réseaux de collaboration. Depuis les années 2000, ils ont développé leur image en ligne afin d’être plus facilement identifiés par des collaborateurs potentiels, en s’inscrivant dans des réseaux sociaux scientifiques tels que Research Gate, professionnels comme LinkedIn, ou génériques comme Facebook et Twitter. De plus en plus, ils déposent des vidéos sur des sites génériques. Ils mobilisent leurs « traces numériques », ils développent des stratégies de publication individuelles afin d’avoir une meilleure évaluation dans les analyses bibliométriques auxquelles ils sont soumis. Ils publient dans des journaux ouverts en ligne pour accroître leur lectorat et gagner en visibilité. Le développement du numérique et des réseaux sociaux transforme les processus de publication et de validation des résultats par les pairs, et la visibilité des travaux publiés.

De ce fait, les chercheurs s’ouvrent à de nouveaux partenaires. Comme les citoyens aspirent de plus en plus à devenir des acteurs à part entière de la recherche — ce qui est facilité par les outils numériques — chercheurs, citoyens, entreprises et usagers se retrouvent dans des projets de recherche participative, sur des plateformes virtuelles ou dans des lieux physiques ancrés dans les territoires. Ces tiers-lieux (Besson, 2007), que l’on nomme aussi open labs (Mérindol et Versailles, 2016) ou espaces ouverts d’innovation (Capdevila, 2015), regroupent notamment des living labs, des fablabs et des hackerspaces. Les chercheurs s’ouvrent à de nouveaux collectifs, répondent à de nouvelles règles et tissent ainsi de nouveaux liens avec la société, les entreprises et les usagers. Ce mouvement contribue à renouveler les relations sciences-société en instaurant des rapports de confiance entre citoyens et scientifiques grâce à une plus forte transparence des données, tout en réinterrogeant le rôle des chercheurs (de Menthière et al., 2017).

Une forte incitation à l’innovation et aux partenariats avec le privé

Si les domaines de l’agriculture, de l’environnement, de l’alimentation et de la santé animale ont historiquement développé des partenariats avec le monde professionnel, les politiques publiques les poussent à la valorisation économique de leurs résultats, et à se saisir de la révolution numérique comme d’une véritable opportunité. En 2017, Cyril Kao donnait sa vision du rôle du numérique dans le monde agricole en ces termes (Alim’Agri, 2017) : « Comme de nombreux autres secteurs, l’agriculture et l’agroalimentaire sont entrés de plain-pied dans l’ère du numérique : les gisements de données sont immenses. Et les possibilités de les traiter tout autant ! […] Nous avons cette opportunité : accompagner l’émergence de nouveaux écosystèmes en intégrant la recherche académique, l’enseignement supérieur, startup, incubateurs et pôles de compétitivité. »

Ainsi, les organismes de recherche se structurent afin d’aider les chercheurs à créer leur startup, et les activités d’innovation et de partenariat avec le privé sont prises en compte dans l’évaluation des chercheurs.

De nouvelles approches qui visent à renforcer les liens entre la production et l’usage des connaissances se développent et remettent en cause le mythe d’un processus linéaire de l’innovation : l’innovation ouverte (Chesbrough, 2003) ; l’expérimentation collective entendue comme des formes de recherche-action coopérative (Joly et al., 2010), ou bien l’innovation basée sur des communautés (Gangi et Wasko, 2009).

Production de connaissances

Toute la chaîne de production des connaissances est affectée par le développement des outils numériques même si toutes les disciplines ne sont pas affectées de la même manière. En effet, il n’y a pas un seul type de raisonnement scientifique — une seule épistémè — qui qualifierait les sciences en général, mais des styles de raisonnement scientifique (Hacking, 2003) : raisonnement mathématique (dont l’analyse statistique et le calcul de probabilités), exploration expérimentale et mesure de relations, modélisation, construction de taxonomies et classification, explication de la genèse, observations…

Dans les sciences, l’élaboration des théories peut se faire selon deux grands types de raisonnement : inductif ou déductif. En pratique, la plupart du temps, grâce à une combinaison des deux. Dans les sciences expérimentales, les expériences permettent de valider ou d’infirmer les théories proposées, tandis que les théories permettent de planifier de nouvelles expériences. Ce qu’apporte le numérique, c’est d’abord la possibilité de faire des expériences in silico, notamment d’effectuer des simulations de systèmes pour lesquels il n’est pas possible de faire des expériences directement (la formation de galaxies par exemple). Plus récemment, certains auteurs ont pensé que l’intelligence artificielle pourrait permettre d’extraire automatiquement des principes généraux à partir de grands jeux de données, ce qui pourrait conduire à un changement de paradigme scientifique. De plus, l’accès au Web et la généralisation de plateformes de services sont aussi des moteurs des transformations de la production de connaissances.

Mais il faut aussi prendre en compte la diversité des formes d’insertion sociale de la connaissance. Un modèle de la big science basé sur des investissements financiers gouvernementaux, des laboratoires de grande dimension et de forts liens à l’industrie s’était développé dans les années 1960. À partir des années 1990, de nouvelles approches se sont intéressées à l’intégration d’acteurs concernés et partie prenante dans la construction des connaissances et des technologies afin de mieux relier la connaissance produite aux contextes sociaux d’application : science en mode 2 (Gibbons et al., 1994), science post-normale (Funtowicz et Ravetz, 1993), coconstruction de la connaissance (Rabeharisoa et Callon, 2004). Les transformations en cours de la production de connaissances liées au numérique semblent parfois prolonger ces tendances, notamment en facilitant la participation des acteurs et l’intégration des savoirs d’expérience à la production de connaissances. Cependant, le caractère central des données et des capacités de traitement des données dans les dynamiques de production de connaissances semble donner un rôle croissant aux grands acteurs privés du numérique, qui n’est pas sans rappeler les promesses de la big science des années 1960.

Les effets de la transition numérique sur la production de connaissances

Le développement d’un raisonnement inductif et déductif dans les pratiques scientifiques

Le premier effet important de la transition numérique concerne la construction de connaissances à partir de données existantes par des raisonnements inductifs et déductifs. L’exploration et la fouille des données par des outils statistiques permettent de générer par raisonnement inductif des hypothèses qui sont ensuite testées de manière classique dans une approche déductive (Kitchin, 2014). Ce type d’approche est désormais développé dans de nombreux domaines, dont la génétique et l’écologie.

Étudiant la distribution et l’abondance des populations d’oiseaux en Amérique du Nord, Kelling et al. (2009) montrent l’importance de réaliser des analyses exploratoires sur des variables prédictives en analysant des corrélations à l’intérieur de grandes bases de données. Des modèles basés sur de l’apprentissage automatique, la fouille de données (data mining) et des approches statistiques sont utilisés pour prédire la distribution et l’abondance. Kelling et al. insistent sur le rôle de la visualisation en ligne des données et de leur traitement automatisé pour en inférer des hypothèses sur des schémas de distribution des populations d’oiseaux. L’approche orientée par les données (data-driven) dans laquelle domine le raisonnement par abduction2, qui combine des raisonnements inductif et déductif3, se justifie en recherche sur la biodiversité du fait de la complexité des systèmes écologiques (très grande échelle spatiale et temporelle), et de la difficulté de formuler un petit nombre d’hypothèses claires et faciles à examiner. Même si l’idée d’un changement de paradigme est controversée du fait d’une coexistence traditionnelle dans un grand nombre de sciences de démarches inductives et déductives, les outils numériques participent d’une rupture dans les pratiques de recherche. Ainsi, en écologie, avant le numérique, le cheminement de l’expérimentation était le suivant : observation in situ, hypothèses de causalité, étude expérimentale, puis analyse des résultats (hypothético-déductif). Désormais, le numérique et l’acquisition de données massives permettent le chemin inverse, orienté par les données : analyse des bases de données et des métadonnées, hypothèses de causalité, expérience in silico (simulation), expérience in vivo, puis, observation in situ.

Ces changements dans la production de connaissances impliquent également de repenser les dispositifs d’observation (ce qu’il faut mesurer) et de collecte de données. Ils nécessitent d’accorder une attention particulière aux hypothèses méthodologiques qui président à la construction des données, pour éviter les biais dans les données fournies aux outils d’apprentissage automatique.

De nouvelles pratiques ouvertes à la société s’appuyant sur les réseaux sociaux numériques

Le rôle de l’Internet et des réseaux sociaux dans la production de connaissances s’affirme à travers le développement de pratiques ouvertes : l’implication des non-professionnels dans la production de connaissances, l’accès aux ressources et aux données par l’Internet, la communication entre chercheurs via les réseaux sociaux. D’un côté, ces pratiques ouvertes

Le raisonnement par abduction (théorisé par le philosophe Charles Sanders Peirce) désigne une forme de raisonnement qui permet d’expliquer un phénomène ou une observation à partir de certains faits. C’est la recherche des causes, ou d’une hypothèse explicative. Ce raisonnement consiste à inférer des causes plausibles, ou une hypothèse explicative, à partir d’observations (Catellin, 2004).

Pour résumer, les fronts de recherche s’ouvraient auparavant sur la base d’intuitions ; désormais, l’interprétation des données massives occupe une place centrale dans la formulation des hypothèses en permettant d’aller plus facilement vers l’expression d’énoncés plausibles de l’hypothèse à tester.

de recherche s’inscrivent pleinement dans le prolongement des pratiques qui ont historiquement structuré l’Internet dans une vision d’ouverture et de partage des connaissances. Ainsi, les informaticiens ont été les premiers à utiliser des processus d’évaluation par les pairs dans les communautés du software. On peut aussi par exemple citer Wikipédia qui s’est construit par des procédures collaboratives ouvertes de contribution et d’évaluation des contenus. D’un autre côté, ces pratiques ouvertes sont également dans le prolongement historique d’une implication des acteurs sociétaux (association de malades, recherche-action en agriculture) dans la production de connaissances.

L’accès aux ressources numériques en ligne peut faciliter le développement d’autres types de recherche et transforme les objets et les pratiques de recherche. C’est ce que l’on constate en histoire où le développement de recherches transversales a été facilité par l’Internet : les recherches s’orientent vers des objets thématiques plutôt que sur le traitement d’un fonds documentaire, et conduisent au développement d’approches internationales telles que l’histoire connectée ou l’histoire globale (Vinck et Natale, 2015).

Le numérique modifie aussi les pratiques de recherche en facilitant les relations entre les chercheurs, en structurant des communautés de recherche. Ainsi, les scientifiques utilisent des espaces de projet collaboratif (Wikipédia, Google Docs, figshare, GitHub, Overleaf), des blogs et des microblogs (Research Blogging, Twitter), des communautés en ligne (YouTube, Mendeley, CiteULike, Zotero), des sites de mise en réseau de professionnels (Facebook, Academia.edu, LinkedIn, ResearchGate) pour développer des idées et des collaborations qui aboutissent à la production de connaissances.

Dans le domaine de la génétique, un exemple récent décrit l’usage des réseaux sociaux pour l’identification génétique d’une nouvelle souche d’E. coli fortement pathogène (Casey et al., 2011). Plutôt qu’un processus long et méticuleux d’acquisition des données par un seul laboratoire, puis d’évaluation par les pairs et de publication dans un journal, une communauté virtuelle de chercheurs en bio-informatique a interprété, en temps réel, le séquençage génétique de la souche d’E. coli réalisé par une firme chinoise spécialisée et mis en ligne.

Dans le domaine de l’écologie et des sciences de la biodiversité, des pratiques collaboratives permettent d’étudier les migrations des populations d’oiseaux. La collecte des données s’appuie sur des observations en ligne d’amateurs, les birdwatchers, la validation des données étant assurée par un contrôle de qualité individualisé où l’on mesure les capacités de l’observateur à fournir une description adéquate, et ensuite des extrapolations des données sont réalisées grâce à des outils de simulation pour générer les données manquantes (Kelling et al., 2009).

L’Internet est un lieu d’expérimentation de pratiques collaboratives en ligne basées sur l’open source, d’interactions autour de plateformes de calcul et de traitement, et de dissémination des travaux. Les plateformes numériques telles que Zooniverse (autour d’une grande diversité de domaines) ou Tela botanica (centrée sur la botanique), les jeux, les partenariats entre des institutions, les hackerspaces mais aussi les évènements comme les hackatons (réunions de programmation informatique en mode collaboratif) jouent un rôle central dans l’émergence de pratiques collaboratives en ligne.

Les données massives et les intelligences artificielles

La promesse technologique des données massives (big data)

Les données massives (big data) modifient les méthodes des sciences en donnant une large place à l’analyse statistique, aux méthodes mathématiques de fouille des données basées sur l’apprentissage automatique, et à la visualisation des données. Pour certains auteurs (Anderson, 2008 ; Kelling et al., 2009), les données massives incarnent une rupture épistémologique dans les pratiques scientifiques. Elles rendraient possible le passage d’une science fabriquant une connaissance des phénomènes à partir de lois universelles (permettant des prédictions universelles) à une généralisation à partir d’un très grand nombre d’exemples qui permet une prédiction même si l’on ne sait pas exactement comment ce résultat positif est obtenu. C’est l’hypothèse que formule Anderson (2008) en s’appuyant sur le succès des outils développés par Google4. L’émergence des données massives signerait « la fin de la théorie » et laisserait place à une connaissance qui abandonne la prétention à l’universel et à la causalité pour se concentrer sur l’efficacité, obtenue à partir d’une prédiction reposant sur la fouille de données, l’analyse statistique des corrélations et l’apprentissage automatique appliqué à de vastes corpus de données. Il s’agit d’une vision empirique de production de la connaissance qui s’appuie sur la calculabilité, sur la détection de corrélations à l’intérieur de volumes massifs de données.

La théorie d’Anderson a été critiquée de multiples manières : elle naturalise les données comme si elles émanaient directement du réel alors qu’elles sont « obtenues » et résultent de cadrages conceptuels préalables. Elle oublie que des théories et des connaissances encapsulées dans ces théories sont à la base des programmes qui détectent des corrélations dans les corpus de données, que les données « ne parlent pas par elles-mêmes », qu’elles ne peuvent être interprétées en dehors de tout contexte, et que leur interprétation nécessite une expertise spécifique (c.-à-d. des connaissances) sur le domaine étudié (Kitchin, 2014 ; Vayre, 2018).

L’affirmation des intelligences artificielles et un tournant dans la modélisation

Souvent reliées aux données massives, les évolutions de l’intelligence artificielle (IA) sont susceptibles de transformer fortement la production de connaissances. Le champ de l’IA s’est constitué autour de l’IA « symbolique » qui, s’appuyant sur les sciences cognitives, s’intéresse au raisonnement formel et à la logique. Dans les années 2000, une approche « connexionniste » de l’IA s’est développée, basée sur des raisonnements statistiques et mathématiques, en combinant les avancées méthodologiques de l’apprentissage automatique (machine learning), des réseaux de neurones et de l’apprentissage profond (deep learning) (Cardon et al., 2018). S’appuyant sur l’accroissement des capacités de calcul, et sur l’explosion des capacités de mémoire des ordinateurs, cette approche domine les avancées récentes de l’IA pour l’analyse de données, le traitement du langage et des images. La combinaison des réseaux de neurones et de l’apprentissage profond appliquée à des données massives a permis de développer des « machines à prédire », capables « de produire des prédictions pertinentes en apprenant des données » (ibid.).

Cet usage des données massives provient des pratiques développées par le marketing et la publicité en ligne qui traitent des grands volumes de données en temps réel pour anticiper et orienter les comportements des consommateurs (Vayre, 2018).

Le développement de l’IA connexionniste change la manière de concevoir la modélisation : plutôt que des modèles reproduisant des mécanismes réels, il s’agit de détecter des corrélations, des propriétés émergentes, par des analyses statistiques et des méthodes d’apprentissage automatique5. Dans le domaine de l’agriculture et de l’environnement, ces approches sont aujourd’hui peu développées, mais les grands acteurs mondiaux du numérique, Gafam (Google, Amazon, Facebook, Apple et Microsoft) et BATX (Baidu, Alibaba, Tencent et Xiaomi), investissent pour développer des IA pour l’agriculture. Pour autant, comme le souligne le rapport de Gondret et al. (2019), la faible masse des données et l’hétérogénéité des situations en agriculture amènent à privilégier le développement d’approches hybrides couplant une approche par les données et des modélisations plus classiques basées sur la connaissance existante.

Dans les domaines de l’environnement, de l’agronomie, de l’alimentation et de la santé animale, des infrastructures nouvelles en termes de capteurs, d’enregistrements et de bases de données sont développées. Elles sont nécessaires au bon fonctionnement des IA connexionnistes. La constitution de bases de données distribuées et leur partage orientent la production de la connaissance dans un grand nombre de disciplines. Ainsi, les standards définissant les données archivées deviennent des enjeux cruciaux6. Le stockage des données devient également vital pour la production de la connaissance. MacKenzie (2016) suggère notamment, par ses observations du champ de la génétique et de la post-génétique, que les modèles d’infrastructures de données pourraient évoluer du stockage et de l’archivage des données vers une logistique de flux.

Vers une captation des connaissances par le capitalisme de plateforme ?

À propos de la transformation des pratiques de la production de connaissances par le numérique, certains auteurs soulignent le rôle central des plateformes que ce soit pour l’archivage et le traitement des données ou pour l’organisation des réseaux sociaux. Constituées en oligopoles privés, même s’il en existe de publiques (archives ouvertes HAL par exemple), ces plateformes fournissent gratuitement des services individualisés aux chercheurs (ResearchGate, Academia, Mendeley, Google Scholar). Ainsi, elles ont acquis une centralité dans les pratiques de recherche. Ces plateformes scientifiques apparaissent pour les sciences comme des équivalents du réseau social Facebook (qui est le modèle du capitalisme de plateforme).

Les recherches actuelles en IA portent sur les notions d’interprétabilité et de causalité, on imagine une IA en capacité d’identifier des relations de causalité entre variables en s’appuyant sur de vastes corpus de données. Une seconde tendance de l’IA qui pourrait se développer dans les vingt prochaines années concerne l’automatisation de l’analyse.

Car les standards de stockage des données rendent possibles certains types de recherche et en rendent impossibles d’autres (Bowker, 2005).

Les Gafam jouent désormais un rôle prépondérant dans la collecte, la gestion et le traitement des données qui deviennent centrales dans la production des connaissances, à l’intersection des relations de pouvoir, de la valeur économique et des connaissances validées (MacKenzie, 2016). Mirowski (2018) relate les travaux engagés par les grands éditeurs scientifiques pour automatiser des pans entiers de la chaîne de production de connaissances comme le peer-reviewing. Cet auteur voit dans les mouvements actuels autour des données, de l’automatisation de certaines tâches scientifiques et des réseaux sociaux numériques, une dynamique de captation progressive des sciences par le capitalisme de plateforme (Mirowski, 2018). Dans le même ordre d’idée, Granjon et Magis (2016) soulignent la relation étroite entre le libre accès (qui vise à mettre à disposition le savoir scientifique) et une concentration continue de l’édition scientifique. Ces phénomènes peuvent être compris comme une économie politique ayant pour horizon la suppression du travail scientifique, remplacé par des processus d’automatisation mobilisant soit des intelligences artificielles, soit des systèmes de scoring (évaluation rapide) par les autres membres du réseau (à la façon des métriques de Research Gate ou de bioRxiv).

Processus de validation des connaissances

La publication dans des revues scientifiques était et reste pour l’instant le mode traditionnel et reconnu de validation et de diffusion des connaissances scientifiques. Mais le numérique a révolutionné la publication scientifique, tant du point de vue quantitatif que qualitatif. Il a participé à l’envolée du nombre d’articles publiés dans le monde : d’un peu plus de 800 000 articles en 2000 à près de 1 800 000 en 2015 (Observatoire des sciences et techniques, 2018). Il a été déterminant dans la diversification des modes de support avec le passage aux documents multimédias, incluant des données brutes et des métadonnées, facilitant l’évaluation et permettant théoriquement la reproduction des expériences.

La part de l’édition numérique n’a cessé de croître et atteignait 60 % du chiffre d’affaires de l’édition scientifique mondiale en 2015 (Direction de l’information scientifique et technique, 2015). Des revues exclusivement électroniques ont vu le jour. De nouvelles formes de publications liées aux données sont apparues dans les années 2000, telles que les data papers, les revues systématiques de la littérature et les méta-analyses. Les grands éditeurs privés historiques ont fortement investi dans le numérique, ce qui leur a permis de renforcer leur position. En situation d’oligopole, ils fixent les prix et font d’énormes profits.

Le numérique favorise la remise en cause des modes d’édition traditionnels

La communauté scientifique a fortement critiqué la mainmise du système d’édition par les grands éditeurs. Cela a conduit au développement du libre accès (Couture, 2014) et à la structuration institutionnelle des revendications, comme le controversé Plan S en Europe (Else, 2018) ou le désabonnement de certaines universités à l’éditeur scientifique Elsevier (Gaind, 2019). Cette tendance est maintenant qualifiée de mouvement pour le libre accès (Brainard, 2019).

Le numérique a complètement transformé les usages, en permettant une diffusion beaucoup plus large et plus rapide des résultats scientifiques. Avec le développement d’approches alternatives telles que les preprints et la science ouverte, il a participé à la remise en cause du système classique d’évaluation par les pairs dans des revues à comité de lecture.

Vers une séparation de l’évaluation des articles et de la publication ?

Le numérique rend possible la séparation des activités d’évaluation et de publication, les revues scientifiques n’ayant plus l’exclusivité d’aucune de ces deux activités. L’évaluation classique par les pairs elle-même est elle aussi remise en cause. Elle est accusée d’entraîner un déséquilibre lié à l’anonymat (les relecteurs sont anonymes, mais pas les auteurs) et la fonction de relecteur est chronophage et mal reconnue. Des alternatives sont proposées et des expériences menées depuis le début des années 2000 : évaluation en double ou triple aveugle, évaluation par les pairs ouverte (Sharma, 2017), Peer Community In (dispositif d’évaluation d’articles par des communautés scientifiques sans implication des maisons d’édition) ; elles sont facilitées par les outils numériques. De plus comme on l’a vu plus haut, de grands éditeurs étudient des processus d’automatisation d’évaluation par les pairs utilisant des intelligences artificielles qui permettraient de se passer d’un comité de lecture humain. Enfin, des espaces de dialogue entre scientifiques, voire de dénonciation de fraude, se sont ouverts sur les réseaux sociaux, tels que les sites PubPeer ou Retraction Watch.

Les preprints, plébiscités par les communautés de mathématiciens et physiciens depuis les années 1990, sont à présent considérés par les biologistes comme une alternative intéressante à la publication traditionnelle. En effet, ils permettent de faire connaître ses résultats bien plus rapidement qu’avec le processus d’évaluation par les pairs traditionnel (Bert, 2016). Les preprints alimentent le mouvement plus large de la science ouverte.

La science ouverte, progressivement institutionnalisée depuis les années 1990, combine plusieurs aspects : l’accès aux publications scientifiques (le libre accès) ; l’accès aux données (les bases de données ouvertes) ; la participation citoyenne à la production scientifique ; des formes de production scientifique alternatives à l’article scientifique ; la reconnaissance des contributions dans la production scientifique (Mehler et Weiner, 2018). Elle vise un meilleur accès à l’information dans un contexte de numérisation croissante. La donnée ouverte concerne l’activité de recherche à toutes ses étapes. La collecte, la gestion et la publication des données sont envisagées sous l’angle de la transparence, du partage et de la réutilisation par la communauté scientifique et font l’objet de validation à toutes les étapes (Pampel et Dallmeier-Tiessen, 2014).

En parallèle, des mouvements de critique de l’usage des outils numériques pour la validation des connaissances scientifiques se développent. Ils visent tout particulièrement les altmetrics et leur utilisation à des fins d’évaluation des chercheurs, et la fragilisation de l’information numérique, victime de l’obsolescence des équipements informatiques et des logiciels, et de la durée de vie limitée des dispositifs de stockage numérique.

Métiers et articulation des compétences disciplinaires et numériques

L’avènement du numérique et l’avalanche de données ont bouleversé certaines disciplines en permettant des avancées importantes. L’un des changements majeurs a trait aux multiples réorganisations que produit la multiplication de données numériques, ce qui conduit à valoriser de nouvelles qualifications, en premier lieu les compétences pour traiter des données numériques (les sciences de la donnée). Les sciences de la donnée, et le numérique dans son ensemble, ont ainsi modifié les approches disciplinaires. L’une des questions abordées dans cette partie concerne les rôles respectifs des chercheurs en sciences de la donnée, des spécialistes disciplinaires et de la science de la donnée.

Selon Broudoux (2017), « une discipline repose sur un système structuré de connaissances mettant en œuvre des épistémologies, des concepts, des méthodes, des terrains d’expérimentation et d’observation qui lui sont propres. Elle possède une identité académique constituée par des instances institutionnelles qui en délimitent son périmètre. Le champ est constitué par les espaces sur lesquels s’exerce l’action scientifique (calculs, expérimentations, terrains d’observations) à partir desquels se construisent les disciplines. Mais [il] est aussi “social” ».

Ainsi, les spécialistes disciplinaires présentent des profils très hétérogènes, mobilisant des styles de pensée différents et des organisations sociales spécifiques.

La dynamique des disciplines

Les spécialistes disciplinaires ont un vocabulaire, des concepts ou bien encore des méthodes, des revues permettant de construire des connaissances qui leur sont propres. Cependant, cet ensemble spécifique, une discipline, évolue au cours du temps. Les disciplines se créent, disparaissent, fusionnent, se segmentent.

Comment et en quoi le numérique modifie-t-il les dynamiques disciplinaires ? On pourrait formuler ici trois types d’hypothèses :

  • le numérique favoriserait le développement des sciences fortement instrumentées, qui génèrent et manipulent de grandes quantités de données quantitatives ;
  • le numérique entraînerait une réduction du nombre de disciplines, ou un processus de fusion qui favoriserait la domination de disciplines qui se prêtent le mieux au développement de bases de données.
  • dans les sciences où dominent des données qualitatives, le numérique donnerait une place centrale au Web comme ressource (sociologie, histoire), et produirait un éloignement des terrains traditionnels (observation directe, archives matérielles…) ;

L’exemple de l’écologie face au numérique : des reconfigurations disciplinaires et interdisciplinaires

L’affirmation de l’écologie en tant que discipline scientifique académique s’est faite suite à une lutte particulière tout au long du XXe siècle, du fait notamment de sa nature de science de terrain et de l’environnement (Köhler, 2002). En 1984, les frères Legendre dans leur ouvrage Écologie numérique ont posé les bases d’une discipline basée sur la traduction des observations en équations et sur l’analyse statistique des relations observées.

Ce pan de l’écologie, né il y a un peu plus de 30 ans, connaît un véritable essor à l’heure actuelle. En effet, l’écologie numérique se construit au carrefour des statistiques, des mathématiques et de l’écologie ; la modélisation en est un des résultats. La modélisation permet de simplifier la description des processus, de quantifier et comprendre le rôle de chacun d’eux, de tester des hypothèses, de généraliser des résultats, de faire des analogies ou bien encore de déterminer des paramètres non mesurables ou non mesurés in situ. L’évolution des moyens, des puissances et des infrastructures de calculs associée à l’accroissement des données acquises a permis le développement de cette approche (Jørgensen, 1992). Il apparaît clairement qu’il existe un avant et un après l’ère du numérique pour l’écologie : d’une science de l’observation de l’environnement, elle se tourne désormais vers l’analyse des données numériques.

D’autres domaines comme l’étude de la biodiversité ont vécu des ruptures au cours des deux dernières décennies. Avec les avancées méthodologiques de la génomique réalisées depuis les années 2000, la biodiversité est maintenant évaluée sur la base de la génétique et les études actuelles de diversité sont en grande partie des études de diversité génétique des populations et des communautés (Rees et al., 2014). De plus, les avancées de la biologie moléculaire ont eu pour conséquence de repenser la définition même d’espèce (Konstantinidis et al., 2006) et donc de diversité spécifique, unité de base de l’étude de la biodiversité.

Les quantités de données acquises sur la biodiversité, notamment du monde microbien, ont nécessité des approches différentes d’analyse de résultats. Les chercheurs, spécialistes disciplinaires, travaillant sur de telles thématiques ont dû s’adapter et acquérir de nouvelles compétences en statistique et en mathématiques afin de pouvoir analyser des jeux de données très importants. Par ailleurs, l’acquisition des séquences génétiques, accompagnées de métadonnées environnementales, a favorisé l’émergence de l’interdisciplinarité au cœur de la démarche des écologues.

Les chercheurs en sciences de la donnée : les spécialistes disciplinaires de demain ?

L’ère du numérique, débutée à la fin des années 1990, a apporté de nombreuses opportunités méthodologiques permettant l’accès à une multitude de questions scientifiques. Elle constitue un levier de progrès et d’innovation dans de nombreux domaines du vivant et a également créé ses propres métiers. Les chercheurs en sciences de la donnée en sont le parfait exemple. Métier jugé « the sexiest job of the 21st century » (Davenport et Pati, 2012), il s’insère dans un domaine d’expertise beaucoup plus large que les sciences de la donnée. Néanmoins, la question se pose : les sciences de la donnée représentent-elles une discipline autonome ou plutôt une compétence utile dans de nombreuses disciplines ?

Selon certains critères de la définition exposée par Broudoux (2017), les sciences de la donnée constituent bien une discipline. En effet, elles possèdent leurs méthodes propres (modèles statistiques appliqués au traitement d’une très grande masse de données), ainsi que des terrains d’expérimentation qui également leur sont propres : les bases de données. Cependant elles ne présentent pas à proprement parler de concepts propres. Un scientifique des données se situe en fin de compte au centre d’un polyèdre de compétences interconnectées qui agrège des connaissances statistiques, informatiques, mathématiques, et des connaissances spécialisées correspondant au domaine étudié. Aussi certains chercheurs considèrent que cette « nouvelle science » n’est pas une discipline autonome, mais qu’elle est un champ d’interdisciplinarité où collaborent statisticiens, mathématiciens (optimisation) et informaticiens (bases de données, architectures…) (Besse et Laurent, 2016).

D’un autre côté, une discipline est aussi un ensemble de connaissances enseignées. De ce point de vue, les sciences de la donnée sont effectivement devenues une matière enseignée au même titre que la biologie. De nombreuses universités et écoles proposent désormais des filières en sciences de la donnée, que ce soit en formation initiale ou en formation continue (Insa de Toulouse, Université Paris-Saclay7 pour ne citer qu’elles). En ce qui concerne les domaines analysés de cette prospective, plusieurs écoles d’agronomie françaises proposent une spécialisation en sciences de la donnée lors de la troisième année de formation.

https://www.universite-paris-saclay.fr/fr/bdbc/data-sciences-cartographie-des-45-formations (consulté en octobre 2019).

Hypothèses d’évolution à 2040 pour « Pratiques de recherche »

À partir des analyses précédentes, quatre hypothèses d’évolution des pratiques de recherche ont été bâties.

Le capitalisme numérique de la connaissance

En 2040, les grands groupes de l’industrie numérique ont capté les données et développé des capacités de modélisation. Il y a eu une automatisation de toute la chaîne de production des connaissances et une captation de toute cette chaîne par les entreprises privées du numérique : données, traitements, connaissances, modèles, publication. Ces entreprises produisent des connaissances pour générer des services marchands dans une logique de capitalisme de plateforme. Les processus de validation et de diffusion des connaissances sont réalisés sur des plateformes en ligne au sein de communautés de pairs étendues au-delà de la communauté scientifique, s’appuyant sur des IA. On assiste à une privatisation de la recherche : d’une part, l’usage des IA et des données massives a créé une désintermédiation du travail scientifique aboutissant à la suppression de certaines pratiques. L’évaluation par les pairs est par exemple réalisée par une IA spécifique et privée. D’autre part, les activités publiques de recherche liées à des activités marchandes ont été internalisées par les grands groupes du numérique. Il résulte de ces transformations une diminution de la capacité d’intervention sur les milieux complexes, et peu de production de connaissances dans les domaines non marchands. Aussi, les entreprises du numérique externalisent les recherches sur des sujets émergents vers la recherche publique, qui est désormais un prestataire de service pour le privé.

La connaissance pour les biens communs

En 2040, l’usage de l’IA dans la recherche a entraîné une redistribution des rôles et des thématiques de recherche entre le public et le privé. Tandis que la recherche privée valorise la production de connaissances à des fins marchandes, la recherche publique se concentre sur la production de connaissances pour les biens communs en développant des liens avec des acteurs de la société civile. Il s’agit notamment d’ouvrir avec les citoyens des espaces des possibles en explorant les sorties des verrous sociotechniques des systèmes marchands. Il y a une auto-organisation de la recherche pour la validation et la diffusion de la connaissance, et un élargissement des processus de validation aux acteurs de la société pour traiter la question des biens communs. Les liens entre scientifiques et société civile se développent pour la collecte, l’analyse de données, et plus en amont la construction des problématiques de recherche. La production de connaissances est ancrée dans les territoires et les problématiques de recherche sont reliées à des contextes d’application où l’enjeu est le traitement de biens communs (eau, biodiversité, paysage, carbone). Des outils numériques sont mobilisés pour le traitement des objets complexes. Dans ce cadre, le développement de biens communs informationnels permet de faciliter la circulation des données sur les biens communs et la production de connaissances.

Les chercheurs autonomes et outillés par l’IA

En 2040, les outils numériques ont favorisé une grande autonomie des chercheurs qui reconfigurent constamment leurs collectifs de recherche en fonction des projets et des questions de recherche. Les collectifs de chercheurs se reconfigurent ainsi au gré des projets et ont peu de liens avec leur structure d’origine. Les chercheurs utilisent et développent de puissants outils d’IA combinant des approches connexionniste et symbolique : une large part de l’analyse a été automatisée, et l’IA est désormais capable d’établir des relations de causalité au sein de corpus massifs de données. Aussi, les chercheurs ont dans leur grande majorité acquis des compétences en sciences de la donnée. C’est la grande variété de données massives qui permet de valider les résultats. Cependant, on compte toujours des spécialistes disciplinaires dont les compétences sont mobilisées en fonction des questions traitées pour contrôler les résultats de l’IA et les interpréter. La validation de la connaissance s’effectue de manière continue grâce à des outils en ligne qui mobilisent des techniques d’évaluation par scoring.

Une production de connaissances ancrée dans les territoires

Ce scénario prolonge les tendances actuelles et combine des évolutions hétérogènes. La division du travail scientifique (recherche/édition/innovation) est conservée.

Les territoires qui constituent les contextes d’application des connaissances produites sont structurants pour la formulation des problématiques de recherche. Les dispositifs de recherche-innovation s’ancrent dans les territoires, afin d’être en lien avec les problématiques des acteurs partie prenante de ces espaces, ce qui renforce la collecte des données locales. Cela ne bouleverse pas l’organisation et le fonctionnement de la recherche. Les grands éditeurs extraterritoriaux conservent leur rôle dans la diffusion des connaissances, avec un processus d’évaluation basé sur les chercheurs. Un mode de production de la connaissance abductif, s’appuyant sur la fouille de données, se généralise dans un grand nombre de disciplines, tout en conservant des procédures classiques de mise à l’épreuve et de validation des hypothèses de recherche propres à chaque discipline. Des assembleurs interdisciplinaires émergent : ils s’appuient sur les compétences de spécialistes disciplinaires et sur l’exploitation des bases de données par des outils numériques.

Pratiques d’enseignement et de formation

Geneviève Aubin-Houzelstein, Caroline Martin, Alain Bénard, François Bouchet, Sébastien Perrot

La transition numérique peut transformer en profondeur les contenus, les outils et méthodes pédagogiques, le rôle et la position des enseignants et formateurs, et les modèles économiques de l’enseignement supérieur et de la formation. Par qui, humains ou algorithmes, et comment, les contenus et les parcours de formation seront-ils décidés ? Quels équilibres seront trouvés entre les thématiques classiques et d’autres, plus opérationnelles ou interdisciplinaires ? Le foisonnement des nouveaux outils numériques favorisera-t-il l’accès à l’enseignement et à la formation pour tous et à la carte, ou au contraire, renforcera-t-il les inégalités ? Quels nouveaux rôles les enseignants et formateurs joueront-ils dans des parcours numériques individualisés ou dans des communautés d’apprentissage totalement ou partiellement digitalisées ? Quelle valeur sera accordée aux diplômes et certifications, s’ils existent encore ? Vu les coûts de développement des formations numériques et les enjeux économiques, quelle place l’enseignement supérieur et la formation publics garderont-ils dans le marché de la formation face aux grands opérateurs privés ?

Contenu des formations

Au cours de l’histoire de l’éducation et de la pédagogie, les contenus pédagogiques et les pratiques d’enseignement ont fortement évolué. C’est le cas par exemple de l’enseignement de l’agronomie (Doré, 2009).

L’enseignement agronomique fortement imprégné des pratiques de terrain

Dans les disciplines universitaires comme les sciences agronomiques, l’évolution des contenus pédagogiques est marquée par deux tendances principales : le contexte économique et politique des structures d’enseignement ; les modalités de production de la connaissance.

Les contenus évoluent en fonction du contexte politique, social et économique. La nécessité d’intégrer une dimension économique dans les enseignements se concrétise dans les années 1980. Faire correspondre la formation des futurs travailleurs avec des compétences exploitables et les diplômes au marché du travail devient une demande sociale prégnante. La conséquence sur les enseignements est notable avec une plus grande intégration de matières et de processus propres au monde de l’entreprise et de son organisation dans l’enseignement des disciplines (par exemple gestion de projet).

Dans le domaine de l’agronomie, l’enseignement était déjà très marqué par l’apprentissage de la discipline sur le terrain. Dans les années 1970, dans le cursus d’ingénieur agronome, l’agronomie occupait une place importante en première année. Il s’agissait d’initier les étudiants à la compréhension des fondements de la discipline et au maniement de certains outils. Mais l’évolution progressive de la structure des premiers emplois occupés par les ingénieurs diplômés a amené à une transformation graduelle des objectifs de formation. Ainsi, à la fin des années 1970, une part encore importante des étudiants issus de la spécialisation de troisième année « Sciences et techniques des productions végétales » trouvait un emploi dans les secteurs de la recherche et de l’enseignement et dans des métiers directement en rapport avec la production végétale ou le conseil. À la fin des années 1980, la moitié des étudiants issus de la même spécialité se plaçait dans l’industrie, le commerce et les services. La coévolution des enseignements et des métiers s’est traduite par des modifications profondes des enseignements d’agronomie. Les stages réalisés par les étudiants se sont largement diversifiés : l’apprentissage par la recherche (stage en laboratoire) a été complété par l’expérience dans d’autres milieux (conseil en bureau d’étude, ingénieur qualité, etc.), avec un retour très positif vers le corps enseignant, identifiant mieux à partir de ces expériences la diversité des situations professionnelles dans lesquelles l’agronomie était mobilisée, et les enseignements à construire pour y préparer (Robin et al., 2007).

Comment apprendre au xxie siècle ?

De façon générale, la tendance des contenus de formation semble s’orienter vers la mise en place de procédures pédagogiques adaptées à la diversité des individus au sein même d’un enseignement collectif de masse. Déjà dans les années 1970, des personnalités des sciences de l’éducation parlaient de « notion de pédagogie différentielle » (Vial, 1975 et 1978). Cette tendance s’est accentuée à partir des années 1990, au moment où les limites du système éducatif (à la fois secondaire avec le collège unique et universitaire) se sont révélées. De plus, avec le déploiement du réseau Internet et le développement d’outils numériques au potentiel encore incertain mais fort en termes d’apprentissage, l’évolution de ce qu’il faut apprendre au XXIe siècle est encore largement à définir tant le système éducatif actuel est empreint d’inertie (Jutand et Dartiguepeyrou, 2013).

Néanmoins, on identifie des changements profonds qui émergent dans le monde pédagogique. Ces changements sont souvent autant disruptifs qu’ils sont ancrés dans le mode de vie des nouvelles générations d’étudiants. Pour donner un aperçu rapide de cette explosion innovante, sans toutefois les expliquer, ces nouvelles méthodes incluent : l’échec productif, la démarche design ou conception créative, l’analyse formative, le transapprentissage linguistique, et l’apprentissage par les médias sociaux, par les jeux vidéo, ou assisté par blockchain (Sharples et al., 2016). L’apprentissage à l’aide de la simulation s’est, par exemple, beaucoup développé dans les études de médecine et vétérinaires.

Toutes ces innovations sont caractérisées par une prise en compte de l’individu apprenant, de son vécu et de ses connaissances acquises, et placé au centre d’un dispositif d’apprentissage horizontal. Avec l’utilisation des technologies numériques, ses connaissances s’inscrivent également dans une démarche dans laquelle la formation connaît l’apprenant grâce à l’analyse de son profil, de ses motivations à se former, de son niveau initial et de celui où il veut arriver.

Une autre tendance concerne l’enseignement de techniques pour être plus efficace dans son apprentissage. Cet enseignement part du principe que les étudiants formés aujourd’hui pourront de moins en moins s’appuyer uniquement sur leur formation initiale : ils devront se former tout au long de la vie, ce que permettent de plus en plus les plateformes numériques d’apprentissage. Il s’agit de permettre l’acquisition de compétences transversales, souvent identifiées sous le terme de 21st-century skills. Parmi ces compétences, le rôle de la pensée critique, notamment dans les dynamiques d’apprentissage, est de plus en plus mis en avant (Zimmerman et Schunk, 2001). Le numérique peut apporter une aide pour le passage d’un apprentissage régulé par un tiers (y compris sous forme d’un agent contrôlé par une intelligence artificielle ; Azevedo et al., 2013) vers un vrai apprentissage autorégulé (Hadwin et al., 2011).

Outils d’enseignement et de formation

L’évolution des supports

Le numérique et sa démocratisation, avec l’arrivée des ordinateurs individuels, permettent à tout un chacun la fabrication de nouveaux supports qui gagnent en interactivité et en animation. Par exemple, l’arrivée du vidéoprojecteur a permis l’utilisation de supports animés. Avec le tableau interactif, ils rendent l’enseignement dynamique et permettent la fabrication de nouveaux contenus directement pendant l’enseignement. Le support numérique envahit l’enseignement, ce qui remet en cause le rôle de l’enseignant :

« Il ne faudrait pas que le numérique remplace l’enseignant ou lui dicte un enseignement. Il faut au contraire que cela lui permette de gagner en autonomie et en inventivité pédagogique. » (Borne, 2004.)

Alors que Bruno Devauchelle posait en 2009 la question « Faut-il numériser les manuels ? », la plupart des lycées ont aujourd’hui planifié l’usage du manuel numérique en partenariat avec les Régions. Le manuel numérique s’avère encore souvent une simple numérisation du support papier, ne bénéficiant alors pas pleinement des possibilités d’interaction

qu’offre cette technologie ; mais la démocratisation de l’usage ouvre un marché concurrentiel qui saura fournir des supports réfléchis nativement pour le numérique et toute l’interactivité qu’il promeut. Les universités numériques thématiques (UNT) ont notamment vocation à encourager le partage des ressources éducatives entre universités.

L’enseignant s’appuie donc sur des supports de plus en plus informatisés mais l’étudiant lui-même délaisse son cahier de prise de notes pour utiliser son ordinateur portable, mobilisant un logiciel de cartographie mentale, ou bien encore son smartphone pour prendre une photo du schéma projeté ou enregistrer l’explication du formateur.

Notons que des méthodes comme la pédagogie inversée s’appuient pleinement sur les supports numériques et que les simulateurs ou la réalité virtuelle sont parfois mobilisés à des fins d’enseignement. L’interactivité dans les enseignements de type travaux dirigés en présentiel est parfois facilitée par l’utilisation de boîtiers de vote (ou d’applications téléphone utilisées par les étudiants), qui permettent à l’enseignant d’adapter son rythme en fonction du niveau de compréhension mesuré quasiment en temps réel.

De l’amphithéâtre à l’enseignement massif en ligne

Les évolutions des technologies numériques induisent de nouveaux usages. L’arrivée de l’ordinateur personnel a libéré la fabrication des contenus tandis que l’Internet a été le vecteur pour les partager. La diversité des supports et leur richesse (multimédia, interactivité) peuvent s’appuyer sur des technologies de communication ou transmission toujours en pleine évolution depuis l’arrivée de l’ADSL à la fin du siècle dernier jusqu’à la 4G en solution mobile plus récemment. Le réseau permet non seulement le partage des contenus mais depuis quelque temps le partage de la classe elle-même, avec la notion de classe virtuelle ou de vidéo-cours qui offre aux élèves des places en classe alors que les amphithéâtres atteignent leur capacité maximale. L’étudiant gagne également en souplesse puisqu’il peut visionner cette retransmission du cours au moment qu’il choisit et sans déplacement. Ces pratiques sont en voie de généralisation dans certaines universités (par exemple en Australie) où les distances sont un facteur limitant à la présence des étudiants aux cours en amphithéâtre.

L’ouverture de l’enseignement et des formations ainsi que les solutions permettant sa mise en œuvre apparaissent dès le début du millénaire, avec un engagement de la France plus récent, daté de 2013 (Institut Montaigne, 2017).

Les plateformes d’enseignement définissent un nouveau paysage et la solution libre Moodle apparue en 2002 compte désormais 100 000 sites avec plus de 120 millions d’utilisateurs dans plus de 100 langues. Ces outils mettent en œuvre un ensemble de fonctionnalités mêlant vidéo, accès à des ressources complémentaires (calcul, applications, exercices interactifs, forum d’échange…) et mécanismes d’évaluation (autocorrection correction par les pairs). Après la simple numérisation des contenus, nous assistons à une transformation qui propose un cours repensé avec les possibilités du numérique, certains l’associant à « l’innovation pédagogique » (Mohib, 2010).

Les plateformes représentent un moyen simple et transparent de collecte d’informations sur les étudiants pour leur offrir des solutions adaptées, voire personnalisées, ou encore alimenter de nouveaux services. Nous sommes entrés dans l’ère de l’analyse de l’apprentissage (Learning Analytics), permettant d’une part aux enseignants de mieux suivre le travail hors classe des étudiants via un ensemble d’indicateurs regroupés dans un tableau de bord (Schwendimann et al., 2016) ; et d’autre part aux étudiants eux-mêmes de mieux détecter si le travail qu’ils réalisent correspond aux attentes, à leurs propres objectifs et/ou à ce que font leurs camarades. Les tableaux de bord étudiants sont ainsi un moyen commun d’aide à l’autorégulation des apprentissages (Bodily et Verbert, 2017).

L’enseignement du numérique et l’environnement numérique de l’enseignement

La place de l’enseignement du numérique dans les cursus évolue peu à peu avec des politiques successives qui ont instauré les B2I et C2I (Brevet ou certificat Informatique / Internet) au début du millénaire, puis Pix, une plateforme de certification des compétences numériques qui évalue des compétences situées dans le référentiel européen DIGCOMP. Les cursus d’enseignement supérieur comportent de plus en plus fréquemment des cours sur le numérique. Le développement informatique, l’algorithmie et la gestion de données s’invitent désormais dans de nombreux cursus en dehors des filières informatiques. En complément de la formation des apprenants ou des enseignants, soulignons la prise de conscience récente de l’importance du numérique dans l’enseignement. La Stratégie nationale de l’enseignement supérieur (StraNES) commanditée en 2013 se voit ainsi complétée par le « référentiel de transformation numérique de l’enseignement supérieur ». Le bon usage des outils numériques nécessite lui-même une formation qu’il est important de bien prendre en compte, faute de quoi leur usage pourrait accroître les inégalités entre apprenants.

L’environnement de l’étudiant et de l’enseignant s’appuie lui aussi sur un outillage numérique nouveau qui tend à offrir une solution numérique globale avec des services d’accès aux enseignements numériques, aux ressources de formation mais aussi à divers outils de communication ou encore aux services administratifs en ligne. On parle parfois de campus numérique ou bien encore d’ENT pour espace numérique de travail (MESRI, 2013). La gestion de la scolarité elle-même est progressivement numérisée.

Outils d’enseignement et formation : quelles évolutions ?

S’il est indéniable que l’outil d’enseignement se veut de plus en plus numérique, on peut s’interroger sur l’évolution de la dématérialisation. Va-t-on vers une plateformisation quasi totale et un usage totalement ouvert des ressources pédagogiques qui remettraient en question l’organisation actuelle, par exemple en aboutissant à la suppression des lieux d’enseignement ? Au contraire, le numérique va-t-il venir en soutien d’enseignements en présentiel pour de petits groupes en forte interaction ? Quels acteurs mettront en œuvre

les outils numériques d’enseignement de demain qui nécessitent des investissements lourds et une mutualisation forte ? L’État mobilisera-t-il les moyens nécessaires (compétences, finances et infrastructures) pour offrir de grands outils de manière égalitaire au plus grand nombre ou bien laissera-t-il le marché décider de tout ?

Accès à la formation

Une apparente amélioration

De nombreux indicateurs sont à la hausse, attestant d’une meilleure mixité, d’une augmentation des étudiants qui accèdent à l’enseignement supérieur et d’une forte ouverture aux étudiants étrangers, notamment européens.

Il est indéniable que la grande tendance depuis un siècle a été un accès plus large à l’enseignement supérieur pour des populations traditionnellement en dehors. Cette augmentation bénéficie à tous et engendre une évolution de l’effectif qui accède à l’enseignement supérieur, multiplié par 8 entre 1960 et 2010 (Comité pour la StraNES, 2014). La France reste une terre d’accueil et bien que rétrogradée à la quatrième place derrière l’Australie, elle accueille environ 300 000 étudiants étrangers chaque année.

Globalement, nous avons assisté à une progression sociale du niveau d’étude, et l’engagement fort de l’État dans l’organisation et le financement maintient un accès relativement équitable à l’enseignement supérieur avec notamment une part financière incombant aux ménages qui reste modérée à ce jour (DEPP, 2018).

Des inégalités qui persistent

L’état de l’école 2018 (DEPP, 2018) montre cependant que les filières les plus sélectives restent majoritairement plus accessibles aux étudiants dont l’origine sociale est aisée. Il en est de même pour la mixité : le pourcentage de jeunes femmes accédant au supérieur est élevé alors qu’il chute pour l’accès aux grandes écoles ou au troisième cycle universitaire.

Le bon classement de la France au rang des pays d’accueil pourrait aussi être mis à mal avec l’augmentation récente des frais d’inscription pour les étrangers. De plus, la dépense de l’État pour l’éducation marque un ralentissement alors même qu’une part croissante d’étudiants se dirige vers l’enseignement supérieur privé (MENESR, 2017).

Les récentes fortes augmentations des frais de scolarité dans le privé mais aussi dans le public risquent de creuser les inégalités. L’ensemble du territoire n’est pas couvert de manière totalement égalitaire et les chances d’obtenir son baccalauréat pour un élève de sixième varient de 58 à 82 % selon la localisation géographique. Enfin, du côté de la formation continue, le personnel des grandes entreprises reste plus favorisé pour l’accès aux formations.

Quelles évolutions à venir ?

Malgré une démocratisation de l’accès à l’enseignement supérieur, des inégalités persistent et pourraient s’accentuer au regard du financement nécessaire, de l’encadrement social et familial de l’étudiant ou de son territoire d’origine (national ou international). Le numérique et la vitesse d’évolution des technologies peuvent mener à une exclusion de certaines catégories de populations étudiantes des filières donnant accès à des emplois de haute qualification. Ainsi, pour certains experts, le développement de la formation à distance via des outils numériques pourrait amplifier la fracture numérique existante.

À l’inverse, pour d’autres experts, le numérique et l’ouverture de l’enseignement pourraient favoriser une plus grande équité et appuyer un enseignement accessible à tous, géographiquement et financièrement, sous réserve d’un accompagnement à l’usage des moyens mis en œuvre.

Modalités de formation et de certification

L’apprentissage, sur le plan des acteurs impliqués et de leurs rôles, des formes, des contenus et des outils associés, ainsi que son évaluation et la reconnaissance des acquis, sont en pleine évolution.

Par le passé, les modalités de formations initiale et continue étaient caractérisées par le présentiel avec d’un côté des apprenants, et de l’autre, un formateur ou enseignant. Aujourd’hui, le présentiel recule en France, même s’il se maintient davantage que dans d’autres pays d’Europe (Segonds, 2015). L’utilisation croissante de l’apprentissage en ligne (e-learning) ou apprentissage à distance caractérise la tendance actuelle (Galiano, 2017). Mais on assiste surtout à une hybridation entre apprentissage en présentiel et à distance ainsi qu’à une hybridation entre dispositifs de formation en milieu professionnel et dans des lieux dédiés à l’enseignement. Cette évolution est portée en partie par le souhait de rapprocher les dispositifs de formation du contexte professionnel dans lequel les apprenants sont appelés à évoluer, et elle est facilitée par les nouveaux outils numériques.

Les outils numériques ne permettent pas seulement l’apprentissage en ligne, ils apportent aussi un large éventail de modalités numériques pour la formation telles que vidéos, classes virtuelles, modules numériques de formation, blogs, forums, communautés en ligne, applications mobiles. On parle alors de digital learning. L’accès à du contenu depuis tout appareil est devenu une attente incontournable. L’évolution rapide des appareils et des navigateurs fait émerger des enjeux à la fois techniques et pédagogiques. La vidéo — média dominant sur Internet — offre un large éventail de ressources pédagogiques en même temps que le défi d’assurer une production de qualité et le juste degré de pédagogie et d’engagement garantissant l’apprentissage. Les réalités virtuelles et augmentées n’en sont qu’aux prémices de leurs applications pour l’apprentissage. Elles ouvrent la voie à des formats pédagogiques immersifs et sont des accélérateurs d’apprentissage.

Une autre évolution associée au développement du numérique concerne la « gamification » ou techniques de jeu favorisant l’émotion, le plaisir et ainsi l’apprentissage. Le numérique permet également de générer et d’utiliser des données d’apprentissage. L’augmentation du volume associé à ces données commence à rendre possible l’utilisation de techniques d’intelligence artificielle numériques, par exemple pour prédire le décrochage d’apprenants dans des MOOC ou Massive Open Online Course, des formations en ligne (Halawa et al., 2014).

Dans le domaine de la pédagogie, la formation continue est considérée comme un creuset d’innovation. Elle implique des acteurs en prise directe avec les évolutions sociales, économiques et professionnelles. Elle est directement influencée par l’évolution vers des types de management plus participatifs et autocontrôlés, et par l’évolution des rapports entre offre et demande tendant à un pilotage plus fort de la production par la demande.

Rôles des apprenants, enseignants et formateurs

Parmi les modalités qui définissent les rôles des uns et des autres, on distingue l’enseignant en salle, le tutorat ou accompagnement individuel, le compagnonnage et le coaching, l’apprentissage en ligne, la formation à distance, et le recours à l’intelligence artificielle (MTES, 2008).

Aujourd’hui, l’enseignant en salle est confronté à un public ayant accès en temps réel à des connaissances par Internet. Il voit son rôle évoluer vers d’autres fonctions que la transmission pure et simple d’informations et de connaissances.

Dans l’accompagnement individuel, le tuteur guide, conseille et met en relation un individu et une situation professionnelle donnée. Il élabore avec l’apprenant son projet personnel et son parcours individuel sur la base d’un codiagnostic des prérequis et des besoins. Il a une fonction de socialisation et d’insertion où il transmet le langage technique, des savoir-être, des comportements, des attitudes et des postures professionnelles. Il aide l’apprenant à évaluer sa pratique, sa progression, sa capacité à mobiliser les outils du savoir et son intégration.

Le compagnonnage est une modalité de formation en situation professionnelle où le compagnon favorise le partage des savoirs et des savoir-faire avec un nouvel arrivant sur un mode pédagogique démonstratif. Le coach est différent, c’est un accompagnateur qui a pour objectif l’adaptation des comportements de son client aux situations professionnelles considérées comme problématiques. Il cherche à développer l’autonomie et à faciliter le développement personnel plutôt que la reproduction de modèles.

L’intelligence artificielle peut remplir de nombreuses fonctions pédagogiques auparavant accomplies par l’enseignant, ou bien peut accompagner l’enseignant pour créer un environnement plus adapté à l’apprentissage (Bouchet, 2018).

L’émergence d’une diversité d’outils numériques aux fonctions multiples permet d’entrevoir la possibilité d’une approche pédagogique hybride mêlant apports du numérique et coach accompagnant. Dans ce contexte, les apprenants apprennent à apprendre et à mobiliser des informations pour résoudre des problèmes plutôt qu’à acquérir des connaissances spécifiques. Les enseignants choisissent les ressources numériques pertinentes parmi les bases à leur disposition et scénarisent les situations d’apprentissage afin de construire des modules d’enseignement spécifiques et adaptés à leurs objectifs pédagogiques. Il peut s’agir de situations pédagogiques soit in situ pour des apprentissages pratiques particulièrement pertinents dans leur discipline ou pour le savoir-être en collectif, soit dans de nouveaux lieux d’apprentissages modulaires, adaptables et propices à l’interaction et aux nouveaux médias d’apprentissage. Les enseignants ont donc un rôle majeur dans la pédagogie et la gestion des connaissances. En ce qui concerne la production de ressources numériques ou l’utilisation d’outils numériques complexes, ils s’appuient — lorsqu’il y en a dans leur structure d’enseignement — sur les ingénieurs pédagogiques qui sont indispensables pour offrir des formations utilisant les outils les plus récents et les plus prometteurs. Les enseignants peuvent aussi animer des exercices réflexifs sur les enseignements tirés de l’expérience d’apprentissage.

L’accélération de la production de connaissances, la plasticité et l’accessibilité des technologies numériques et les communautés d’apprentissage en ligne font émerger des approches pédagogiques où les outils et les contenus d’apprentissage sont coconstruits par des enseignants et des apprenants selon les besoins du moment. Les apprenants deviennent concepteurs et acteurs d’un apprentissage qui est de moins en moins basé sur des contenus et des modalités préétablis. L’échange et la coconstruction de l’expérience pédagogique constituent l’essentiel de l’enseignement, et la frontière entre sachants et apprenants s’amenuise.

Diplôme et certification professionnelle

Les méthodes de reconnaissance des acquis sont de deux types : le diplôme et la certification professionnelle. Le diplôme occupe depuis les années 1980 une place importante dans les systèmes éducatif et d’emploi français. La tension sur l’emploi rend difficile l’intégration dans le marché du travail sans le « parchemin », d’où l’action des pouvoirs publics pour créer des certifications professionnelles permettant d’obtenir un « diplôme » reconnu sans passer par la case formation et examen. Ces deux modes de reconnaissance sont actuellement indispensables dans un contexte de fort chômage.

Cependant, les entreprises cherchent surtout à ce que leurs employés se qualifient sur ce dont elles ont immédiatement besoin et non pas forcément à ce qu’ils obtiennent des diplômes — sources de revendications salariales, de changement de postes ou de départ du salarié. Aujourd’hui, la priorité en matière de certification et de diplôme est la dimension de flexibilité et d’employabilité des salariés tout au long de la vie. Les certificats professionnels constituent des parties de diplômes acquises en un temps adapté à l’entreprise et au salarié, créent de la flexibilité accrue, et produisent des blocs de compétences à la convenance du salarié (Maillard, 2011). Pour assurer l’adéquation entre la formation des employés et les besoins de l’entreprise, certains grands groupes vont jusqu’à créer leurs propres programmes de formation initiale. C’est le cas par exemple des écoles ou des Google scholarships. Face à l’accélération du changement, les entreprises exigent de l’agilité et des capacités à rapidement acquérir de nouvelles compétences. La capacité à l’auto-apprentissage et l’acquisition de compétences et de connaissances par le biais de certificats obtenus tout au long de son parcours professionnel prennent donc plus d’importance. Cet apprentissage en continu selon les contingences peut désormais se faire via les nombreuses ressources pédagogiques en ligne. De plus, avec la multiplication de MOOC à vocation certifiante, des certifications sur des compétences de plus en plus fines se développent, introduisant une « granularisation » des apprentissages. La reconnaissance de l’acquisition de compétences se développe notamment par l’utilisation de badges ouverts que les apprenants peuvent mettre en avant sur leurs profils en ligne et à travers lesquels ils constituent de véritables portefeuilles de compétences.

Relation entre formation initiale et continue

Place croissante de la formation continue

La formation continue s’est développée et professionnalisée à partir des années 1970, suivie par l’apparition d’une pédagogie spécifique à un public adulte (Dufour, 2013). Avec la montée du chômage, la formation continue apparaît non seulement comme un facteur de promotion sociale mais aussi comme un levier pour prévenir et lutter contre le chômage. Au niveau européen, la question de la formation et de l’apprentissage a constitué dès le début des années 2000 un pilier des politiques de l’emploi. Les orientations européennes se sont progressivement imposées en France. Des lois successives ont renforcé le droit à la formation professionnelle et mis en place des dispositifs permettant d’accéder à des diplômes d’enseignement supérieur (Légifrance, 2007, 2017, 2018). Ainsi, des passerelles entre formations initiale et continue ont été créées.

Les formations initiale et continue se sont rapprochées autour de la notion de compétence qui a pris son essor dans les années 1990. Cette notion de compétence a profondément modifié la pédagogie de la formation initiale comme de la formation continue, que ce soit en matière d’objectifs d’apprentissage (« être capable de » et non plus seulement « savoir »), de méthodes pédagogiques (pédagogie active et non plus seulement cours magistral) et d’évaluation (Institut Montaigne, 2017). Les politiques publiques en faveur de la formation continue ont progressivement entraîné l’apparition d’un nouveau marché économique. Les organismes dédiés se sont multipliés sur le territoire français, passant de 12 000 à 17 000 environ, entre 1999 et 2010 (Dares, 2012). Les établissements publics à caractère scientifique et technologique (EPST) et les universités ont alors commencé à externaliser une partie de leur formation continue.

Ces 30 dernières années, l’enseignement supérieur a été marqué par sa massification, l’allongement de la durée des études supérieures, et un financement qui, quoique croissant, n’a pas compensé la forte hausse des effectifs (MENESR, 2017). La dépense moyenne par

étudiant a baissé régulièrement depuis 2008 (Piketty, 2017). En parallèle, le financement de l’État pour la formation continue de ses agents a fortement augmenté dans le début des années 2000, a atteint un pic en 2009 et diminue depuis (Dares, 2017).

Rapprochement des formations initiale et continue autour du numérique

Les enjeux démographiques et financiers ont poussé à augmenter l’usage des nouvelles technologies et du numérique dans l’éducation et la formation tout au long de la vie. Le développement des MOOC à l’échelle mondiale ou l’émergence de nouveaux opérateurs de formation dotés de modèles massivement numériques montrent que ce secteur connaît une véritable révolution.

Les questions soulevées par le numérique en matière d’évolution pédagogique sont les mêmes, qu’il s’agisse de formation initiale ou continue : reconsidération du rôle du présentiel, développement de l’apprentissage mixte (blended learning) et, plus globalement, diversification des méthodes pédagogiques, personnalisation de l’accompagnement des étudiants/apprenants, certification et évaluation des formations, etc. (Cese, 2015). Avec le numérique, les formations se focalisent sur l’acquisition de compétences. En permettant le fractionnement des formations et la personnalisation des parcours, le numérique est une opportunité pour créer des passerelles entre formation initiale et formation continue. En particulier, il permet de réutiliser des modules déposés sur des plateformes d’apprentissage.

Le numérique entraîne une remise en cause et des évolutions des missions des enseignants et des formateurs. Il favorise la désintermédiation entre les acteurs de la formation. Les professionnels de la formation initiale et continue ont d’ailleurs parfois le sentiment de « perdre le contrôle » de l’ingénierie de formation, d’être fragilisés, et ont besoin de se former pour s’adapter aux évolutions de leur métier.

On observe un double mouvement de concurrence et de volonté de mutualisation des moyens entre les offres de formation initiale et de formation continue. La qualité de l’offre de formation numérique devient un critère de choix pour les « clients-apprenants », une vitrine, une image de marque des universités et organismes de formation. Ceux-ci développent donc des politiques de soutien au développement de l’apprentissage numérique. Cependant, il leur faut considérer l’adéquation entre coût de formation et modèle économique. Le développement de formations numériques présente un coût non négligeable alors même que les apprenants ne sont pas toujours prêts à les payer. Les établissements envisagent donc des collaborations et des mutualisations, dont France université numérique (FUN) et l’Université numérique en agrobiosciences (Agreen U) sont des exemples.

Jusqu’à présent, l’enseignement supérieur n’était qu’un acteur minoritaire de la formation continue, que ce soit en présentiel ou en apprentissage numérique. Par exemple, le développement de MOOC universitaires reste marginal par rapport à l’effort déployé par les organismes de formation continue dans ce domaine, et les usagers des MOOC sont en majorité des hauts diplômés déjà dans la vie active. Mais l’Université vise à renforcer sa place sur le marché de la formation continue à travers le développement de son offre numérique (Cese, 2015).

Hypothèses d’évolution à 2040 pour « Pratiques d’enseignement et de formation »

À partir des analyses précédentes, cinq hypothèses d’évolution des pratiques d’enseignement et de formation ont été élaborées.

Fracture sociale et ultra-libéralisation de l’apprentissage

En 2040, le numérique a augmenté les inégalités. Les personnes diplômées ont appris à utiliser les outils numériques d’enseignement à des fins de développement de carrière et savent sélectionner les bons cursus conduisant aux meilleurs diplômes et certifications parmi la multitude d’offres. Celles qui n’ont aucun diplôme ne sont pas formées au numérique. Les écarts sont accentués du fait que les formations numériques de qualité étant payantes, n’y accèdent que les personnes avec un certain niveau de revenu. En effet, ce sont les grandes entreprises numériques, Gafam et BATX, qui dominent le système d’enseignement et de formation. Leurs enjeux sont de développer les compétences dont elles ont besoin, que ce soit en formation initiale ou continue ; mais aussi de rendre la population dépendante de leurs produits et services. Les outils numériques d’enseignement et de formation proposés sont de haute qualité.

Les formations ou « universités » proposées par de grandes entreprises entrent en compétition avec l’enseignement public, dont les moyens plus limités ne permettent pas de proposer un niveau de formation aussi performant, et vers lequel se tournent les étudiants et apprenants de milieux peu favorisés. Les formations initiales et continues sont donc à deux vitesses. Les enseignants ont deux options. Soit ils rejoignent les formations des grandes entreprises où ils ont accès aux outils numériques les plus performants et où ils peuvent développer des pédagogies innovantes pour des apprenants triés sur le volet. Soit ils restent dans le système public où les moyens limités ne leur permettent pas d’offrir les mêmes services mais les poussent à développer des stratégies de contournement pour un public moins expert en numérique.

Une société de l’apprentissage inclusif

La politique d’enseignement et de formation a pour ambition de proposer un enseignement et une formation continue de qualité, accessibles à tous, quels que soient les niveaux d’éducation et les moyens financiers des apprenants. Les outils numériques sont devenus extrêmement variés pour répondre à la variété des apprenants qui peuvent ainsi trouver ceux qui leur conviennent. Pour garantir l’adéquation à leur public, les outils et

les contenus sont coconstruits par les apprenants eux-mêmes dans des communautés d’apprentissage hybrides, en ligne et en présentiel. La place de l’enseignant est modifiée : il est un facilitateur, un agrégateur de savoirs et de savoir-faire, un animateur de communautés. Le numérique favorise le développement d’une société d’apprentissage, et la formation continue devient prépondérante sur la formation initiale qui n’est finalement que la première étape d’un processus engagé tout au long de la vie. Les communautés d’apprentissage hétérogènes réunies autour d’objets communs construisent elles-mêmes leurs propres contenus de formation à caractère transdisciplinaire.

Planification numérique de l’enseignement

Le ministère en charge de l’Enseignement supérieur et de la Recherche mise sur la technologie et confie à des algorithmes la mission de produire des cursus d’enseignement et de formation personnalisés, à la carte. Son but est de garantir l’employabilité des citoyens en développant les compétences recherchées par les employeurs, parmi lesquelles les compétences numériques ont une place prépondérante. L’État planificateur met à disposition des apprenants des ressources numériques de grande qualité utilisées à distance et en présentiel. Les enseignants deviennent des coaches accompagnants dont le rôle principal est de conseiller les apprenants dans leurs parcours numériques individualisés, de s’assurer de leur montée en compétence et de les orienter en fonction de leurs performances. Ils sont eux-mêmes parfaitement au fait des avancées en technologie numérique d’apprentissage sur lesquelles ils ne cessent de se former, ils connaissent le marché de l’emploi et ont des compétences dans le relationnel.

La jungle numérique de l’apprentissage

Du fait du désinvestissement des politiques publiques envers l’enseignement et la formation ainsi que du rejet des nouvelles générations vis-à-vis de l’enseignement traditionnel, les organismes de formation continue et la certification ont totalement disparu. Chacun est responsable du développement de son capital formation et se débrouille seul, en utilisant des outils numériques développés par toutes sortes d’entreprises, dont des startups et de puissantes entreprises intermédiaires. Cependant, cette totale liberté n’est qu’un leurre, car l’apprenant est complètement dépendant des algorithmes de formation qui vont décider de son parcours. Les indicateurs rigides sur lesquels ils sont basés lui ouvrent ou lui ferment des opportunités de développement professionnel. Le seul accès à la formation est l’entreprise. C’est elle qui paie les formations pour ses salariés, donne accès aux données et les analyse, mais aussi programme les parcours de formation individuels à l’aide d’algorithmes. De façon naturelle, les individus constituent des communautés de formation centrées autour d’un coach accompagnant qui est soit rémunéré par l’entreprise numérique, soit auto-entrepreneur. La profession d’enseignant en tant que telle n’existe plus.

Foisonnement numérique et écosystèmes locaux de l’apprentissage

Les ressources pour l’apprentissage en ligne continuent de se multiplier. Face à cette abondance, chacun est libre de développer son capital formation en rejoignant ou en constituant une communauté de formation connectée mais locale et centrée autour d’un coach accompagnant. Localement, des communautés d’apprentissage s’organisent et tissent des liens avec les institutions territoriales de l’ESR. Cela n’empêche pas ces groupes d’interagir au niveau mondial via Internet avec d’autres acteurs lointains.

Données

Alain Bénard, Caroline Martin, Christian Pichot, Mehdi Siné

Dans les domaines agronomique et vétérinaire, l’évolution de la recherche comme celle de la formation dépendent fortement de la capacité à s’adapter aux changements en matière de données. L’usage du numérique modifie les modes de production de données ; leurs origine et nature se diversifient et les volumes produits augmentent exponentiellement. Le premier enjeu concerne la production et le stockage des données. Doit-on et peut-on toutes les conserver ? Le deuxième enjeu concerne leur traitement. Quelles méthodes et quels outils faudra-t-il développer pour traiter la double problématique de diversité et volume qui constitue ce qu’on appelle communément les données massives et pour laquelle apparaissent de nouveaux métiers ? Un troisième enjeu concerne leur qualité. Les grands défis du XXIe siècle posent pour la plupart des questions d’ordre global telles que l’adaptation au changement climatique ou encore la sécurité alimentaire à l’horizon 2050 et au-delà. Y répondre nécessite de croiser les disciplines, de mobiliser et analyser des jeux de données provenant de multiples origines, dont les simulations. Dans ce contexte, la réutilisation des données à des fins multiples prend une importance majeure. Elle impose des exigences de qualité et d’interopérabilité qui modifient les pratiques habituelles de leur utilisation tout au long de leur cycle de vie. Un quatrième enjeu concerne les modalités de circulation de la connaissance et des données. Les principes FAIR (Findable, Accessible, Interoperable and Reusable) (voir plus loin la section « Qualité des données ») récemment édictés formalisent de nouvelles attentes. Le partage des données « autant que possible » devient la nouvelle norme et constitue un des éléments majeurs de la science ouverte. Pour autant, cette ouverture ne peut être sans limites afin de protéger les personnes ou les intérêts et enjeux particuliers. Le partage des données s’accompagne ainsi de la mise en place « autant que nécessaire » de réglementations spécifiant les modalités de circulation et d’usage, comme l’illustre la récente instauration du Règlement général pour la protection des données.

Production et stockage des données

L’arrivée du PC puis du Web au milieu des années 1990 révolutionne la production de données et entraîne une accélération de la fourniture de supports numériques, à commencer par le multimédia (son, image, vidéo) facile à manipuler. Tout devient numérique et le partage offert au travers du Web permet des valorisations sans limites ; l’information géographique ou la donnée satellitaire peut se manipuler sur un simple ordinateur personnel et des résultats multimédias peuvent valoriser les travaux.

Les deux décennies suivantes nous font entrer dans l’ère des données massives et de ses trois « V » : croissance du Volume généré, Variété des données, et Vitesse de production des données.

La collecte manuelle cède peu à peu la place aux capteurs numériques et à la montée en puissance de chaînes de production de données (workflow ou plan de travail basé sur la modélisation). De nouveaux flux de données sont issus de services qui génèrent eux-mêmes de nouvelles données comme les plateformes d’enseignement ou encore l’agriculture de précision, sans oublier les traces laissées par les utilisateurs lors de leur passage sur le Web.

Du point de vue du stockage, la mise à disposition de gros volumes de données pour une population connectée implique d’utiliser Internet comme support de transport et de s’appuyer sur des infrastructures de stockage de haute performance telles que les data centers — qui questionnent la consommation énergétique de l’ensemble. Les Gafam ont apporté leur lot de nouveautés ; par exemple, l’hégémonie des bases de données relationnelles est désormais concurrencée par des solutions de stockage fortement distribué pour des données peu structurées.

Plus d’instrumentation, plus de volume et plus de partage et de réutilisation impliquent une meilleure description des données au travers de métadonnées et des travaux importants sur l’interopérabilité. Ce constat influence la collecte de données qui doit prendre en compte cet aspect et répondre à des critères de plus en plus définis sur le plan qualité et réutilisation notamment. Un article de Servigne et al. (2012) tente de représenter « de manière homogène des données hétérogènes » et rappelle tout l’intérêt des travaux sur la standardisation et la sémantique.

Le déluge de données que certains prédisent pourrait mettre à mal les capacités des établissements publics à gérer les données. Cela est vrai pour la question du stockage, aussi bien que pour celle du traitement, dans un contexte où des acteurs privés du numérique sont devenus plus puissants que les États. La production traditionnelle de données par la science s’appuyant sur des protocoles rigoureux sera-t-elle encore de mise devant l’abondance des capteurs dans un monde ultraconnecté ? Le succès ou le recul de la mouvance pour la science ouverte — qui inclut la donnée ouverte — orientera fortement le cycle de vie des données de demain, notamment avec des exigences accrues de qualité et traçabilité. La collecte en temps réel, automatique et transparente effectuée par des objets connectés ou des services en ligne, questionne déjà les usages des données, parfois peu compatibles avec la protection de la vie privée et l’autonomie des individus. Les réglementations en cours et à venir devront à la fois rassurer les usagers et permettre la fluidité des échanges.

Traitement des données

Les moyens et l’organisation

Le traitement de la donnée dépend non seulement des caractéristiques des données telles que décrites dans la section précédente mais aussi des moyens disponibles et de leur organisation. Avant l’arrivée de l’ordinateur personnel dans les années 1980, la donnée était collectée dans un but bien précis pour une analyse généralement statistique, avec des moyens limités, à travers des ordinateurs centraux.

Depuis, l’ordinateur personnel et sa fulgurante évolution ont apporté une autonomie de traitement aux chercheurs avec une puissance porteuse de nouvelles approches : le langage de programmation R, très utilisé dans la communauté scientifique, voit le jour en 2003, tandis que le premier ordinateur personnel multicœur apparaît en 2005. Les ordinateurs centralisés ne disparaissent toutefois pas du paysage et l’on assiste à la montée en puissance des grappes ou clusters de calcul moins coûteux que les supercalculateurs, que seuls certains peuvent s’offrir ; la disponibilité et la « scalabilité » de ces offres permettent l’exécution de traitements difficilement réalisables sur des ordinateurs individuels, et le couplage de ces deux moyens autorise des traitements et donc des recherches jusqu’ici impensables.

L’enseignement supérieur et la recherche se sont organisés pour mutualiser des ressources de calcul et de stockage. Le réseau de partage Renater démarre en 1999 et le groupement d’intérêt scientifique France Grilles fédère un certain nombre de ressources numériques mises à la disposition des communautés scientifiques.

Aujourd’hui, le chercheur navigue parmi ces offres, des solutions locales ou simplement l’usage de son ordinateur personnel, et les services de cloud computing vendus par les Gafam (AWS, Google Cloud ou couplage à des outils livrés par les Gafam tels que l’outil open source d’apprentissage automatique Tensor Flow). L’offre de moyens s’appuie sur Internet et le partage qu’il permet, ainsi que sur une industrie du logiciel florissante. La donnée elle-même devient un constituant de la recherche que l’on peut collecter, fabriquer, acheter, partager et réutiliser à loisir ; le mouvement de la donnée ouverte est lancé. L’évolution des capteurs, aujourd’hui essentiellement numériques, la multiplicité des objets connectés et les prétraitements que les uns et les autres peuvent réaliser apportent une évolution importante dans les premières étapes du traitement des données. Les promesses de l’ordinateur quantique, réservé aujourd’hui à quelques grands comptes, pourraient bouleverser les organisations actuelles. À la différence de l’ordinateur classique, qui ne traite que des informations binaires, l’ordinateur quantique traite des Qbits qui peuvent prendre une infinité de valeurs ; le traitement simultané de ces informations lui confère un potentiel bien supérieur. À titre d’exemple, le physicien Peter Shor a démontré dans les années 1990 qu’un ordinateur quantique pouvait casser une forte clé de chiffrement en une centaine de secondes alors que les ordinateurs les plus puissants du moment devaient y consacrer environ un milliard d’années.

Les activités et méthodes

L’évolution décrite au chapitre précédent engendre des usages et des possibilités auparavant inenvisageables. La modélisation, bien que déjà ancrée dans la science et dans l’enseignement, se développe fortement. On modélise aujourd’hui pour répondre à de grands enjeux comme l’évolution du climat ou le futur de l’alimentation mondiale. La simulation permet d’explorer de multiples hypothèses d’évolution. L’enseignement explore également le potentiel de la simulation numérique pour mettre en situation les apprenants, avec par exemple des plateformes de réalité virtuelle (comme Silva Numerica8).

Le parallélisme des calculs n’est pas seulement au cœur des algorithmes mais aussi dans l’activité scientifique elle-même qui met en œuvre l’interdisciplinarité et répartit les traitements dans les collectifs. Les workflows de traitements permettent d’ordonnancer de multiples traitements de données pour souvent produire un résultat numérique qui, à son tour, alimente un autre processus numérique. Ce flot de données et de traitements numériques appelle à établir des règles de communication et de description des processus de traitement et des données, pour assurer une interopérabilité que l’on voudrait généraliser. Le Web de données et les Web services développés massivement sont souvent confrontés à cette question.

Ces dernières années ont vu l’intelligence artificielle et la fouille de données occuper le devant de la scène, avec des activités différentes engendrant de nouveaux métiers et une approche plus globale de la science. Le traitement d’images basé sur des intelligences artificielles permet aux chercheurs et aux entreprises de développer des services d’analyse d’images pour l’agriculture.

Les données massives, non seulement par leurs volumes mais aussi par leur diversité, nécessitent de mettre en œuvre des moyens et des technologies qui ne sont pas forcément accessibles à tous, que ce soit sur le plan financier ou celui des compétences disponibles. La capacité à traiter les données disponibles sous diverses formes dans un monde de données massives pourrait donc engendrer des exclusions et favoriser une science à deux vitesses, voire laisser certains créneaux à de grands groupes privés ou publics. La mutualisation et le mouvement de la science ouverte — pratiqués actuellement par d’autres communautés scientifiques — peuvent apporter une solution au traitement des données massives. Les technologies et leur accessibilité, ordinateur quantique et intelligence artificielle notamment, influenceront certainement les équilibres. Enfin, la réglementation sur l’accès et le traitement des données, sous l’influence, d’une part, des grands groupes, et d’autre part, des citoyens, dessine un paysage futur difficile à anticiper.

8. https://pollen.chlorofil.fr/silva-numerica-apprendre-la-foret-par-simulation (consulté en octobre 2019).

Qualité des données

La qualité des données : une question d’importance

L’augmentation croissante des volumes de données dans les organisations de recherche et d’enseignement supérieur, conjuguée à une évolution régulière des systèmes d’information, engendre des préoccupations importantes autour de la qualité de ces données. Par leur qualité, on désigne l’aptitude de l’ensemble de leurs caractéristiques intrinsèques (fraîcheur, disponibilité, cohérence fonctionnelle ou technique, traçabilité, sécurisation, exhaustivité) à satisfaire des exigences internes (pilotages, prise de décision…) et des exigences externes (réglementations…) à l’organisation. Dans un contexte où les organisations sont contraintes de collecter plus de données pour produire plus d’informations, la question de leur qualité est prégnante, les facteurs de dégradation de leur qualité sont multiples, et le coût de leur fiabilisation est incertain.

La qualité des données est essentielle à la réalisation des recherches nécessitant l’interopérabilité de systèmes complexes et des jeux de données qui les composent. En particulier, elle exige une traçabilité qui se manifeste dans de nombreux secteurs scientifiques et économiques : santé et pharmacie, agroalimentaire et grande distribution, chimie, automobile…

Mettre en qualité les données : une incitation forte

La qualité des données est un enjeu majeur pour la réutilisation de celles qui sont issues de données massives. Les bailleurs de fonds publics de la recherche, certains éditeurs et un nombre croissant d’agences gouvernementales exigent dorénavant la publication de données ouvertes ou facilement réutilisables, et des plans de gestion de données à long terme. Dans cette optique, le FAIR (Findable, Accessible, Interoperable, Reusable) data apparaît comme un moyen précieux pour mieux valoriser les données. Il repose sur les principes suivants : les données sont faciles à retrouver par tous, sont dans tous les cas récupérables par leur identifiant à l’aide d’un protocole standard de communication, les jeux de données utilisent des métadonnées contextuelles précises, les contenus et formats respectent les standards internationaux, et enfin, les données sont mises à disposition selon une licence explicite et accessible.

En France, la Loi pour une république numérique d’octobre 2016 précise que dès lors que les données liées à une publication ne sont pas protégées par un droit spécifique et qu’elles ont été rendues publiques par le chercheur, leur réutilisation est libre. Depuis juillet 2018, un plan national de la science ouverte prévoit également une obligation d’assurer la qualité des données par la mise en pratique des principes FAIR et l’exigence d’inclure un plan de gestion des données (data management plan) dans tous les appels d’offres ANR.

La qualité des données facteur de convergence technologique

Grâce aux récentes avancées en informatique cognitive, en intelligence artificielle et dans la puissance de traitement des données, la gestion de la qualité des données risque d’évoluer fortement. Cette question de la qualité ne se posera plus de la même manière, mais fera intervenir des processus d’intelligence artificielle pour extraire du sens de ces quantités massives de données. L’intelligence artificielle pourrait alors agir à plusieurs niveaux : l’identification, la prédiction, l’automatisation intelligente de la collecte de données, la détection efficace des anomalies, l’enrichissement des données elles-mêmes.

Les évolutions de la qualité des données s’orientent vers une intervention importante de la machine au travers de l’intelligence artificielle pour affiner les méthodes de mise en qualité des données, afin notamment de satisfaire aux exigences de qualité formulées par les agences de financement de la recherche. En conséquence, il est possible que certains champs de recherche ou domaines disciplinaires qui ne pourraient pas répondre à ces exigences soient marginalisés.

Modalité de circulation des connaissances et données

Un modèle à bout de souffle ?

La publication et la diffusion des écrits scientifiques décrivant les travaux de recherche et les résultats obtenus ont longtemps constitué la principale modalité de circulation des connaissances. Cette publication recouvrait un double objectif. Premièrement, cela permettait de porter à la connaissance de l’ensemble de la communauté les protocoles expérimentaux mis en œuvre afin que d’autres scientifiques puissent reproduire l’expérience. Deuxièmement, cela permettait d’enregistrer l’origine de la découverte et d’alimenter la notoriété de son auteur. À partir du XIXe siècle, de nombreuses revues scientifiques voient le jour ainsi que de grands éditeurs scientifiques encore connus aujourd’hui (Elsevier est fondé en 1880). À la fin du XXe siècle, la pression à la publication (publish or perish) s’est accrue en raison des évolutions sociétales et gestionnaires exigeant un retour sur investissement des financements alloués à la science. C’est aussi une des conséquences des systèmes d’évaluation des scientifiques dont le critère majeur est la publication des résultats dans des revues scientifiques à comité de lecture et à fort facteur d’impact. L’édition scientifique est ainsi devenue un marché contrôlé majoritairement par des groupes d’édition privés, de plus en plus concentrés et associant étroitement publications et services. Pour les institutions de recherche et d’enseignement, le coût des abonnements aux revues scientifiques est toujours en hausse selon une logique qui donne un avantage compétitif important aux grands éditeurs.

Des démarches pour sortir du modèle traditionnel : libre accès et donnée ouverte

Avec l’essor d’Internet et la philosophie qui le sous-tend, un mouvement du libre accès a émergé, revendiquant un accès en ligne et gratuit aux publications scientifiques, car partant du principe que les résultats scientifiques sont des biens publics. Ce mouvement du libre accès s’est développé à travers la création d’archives ouvertes, de déclarations, d’incitations politiques et par le développement de nouveaux modes de publication. Il concerne les publications mais également les données de la recherche. En parallèle, s’est développé un mouvement de la donnée ouverte, c’est-à-dire l’ouverture de données publiques. La philosophie de ce mouvement réside dans le fait que la création de valeur passe désormais aussi par la mise à disposition et le partage des données.

Vers une science ouverte ?

En 2012, la Commission européenne a fait du libre accès aux publications scientifiques un principe général. Depuis, elle accélère les initiatives et incitations pour mettre à disposition les publications scientifiques et ouvrir les données issues de la recherche publique. Dans le monde, de nombreuses initiatives et législations en faveur de l’ouverture des données scientifiques ont aussi vu le jour, remettant en cause le modèle traditionnel de la publication scientifique. Les États-Unis ont été l’un des premiers pays à introduire des dispositions légales (US Congress, 2008) concernant la mise à disposition pour le public des travaux de recherches financés par le National Institutes of Health (NIH). Au Royaume-Uni, le libre accès est également un principe désormais ancré dans les pratiques, associé à deux types d’accès (green pour un libre accès par auto-archivage et gold pour un libre accès aux revues) aux travaux scientifiques. Ces deux États sont très investis dans ces systèmes de publication, et ont lancé ensemble en 2013 une initiative intitulée UK-US Global Innovation Initiative. D’autres pays développent eux aussi des initiatives pour ouvrir les données et les publications scientifiques, comme l’Allemagne (avec la modification de la loi allemande sur le droit d’auteur) et la France (Loi pour une république numérique, Plan national pour la science ouverte).

Des limites à dépasser

Si la donnée ouverte et le libre accès ont fortement amélioré les conditions de circulation des données et des publications, notamment grâce à l’essor d’Internet, il existe encore de fortes contraintes à dépasser :

  • des contraintes techniques, les principaux problèmes concernant l’exploitation des données ouvertes étant d’ordre technique, faute de pouvoir traiter humainement les données massives ;
  • des contraintes juridiques, le fondement du droit d’auteur étant fortement revisité par tous ces modèles. Le débat se cristallise autour du respect du droit d’auteur comme principe de créativité et de diversité culturelle, associé au principe de la juste rémunération
  • des créateurs dans un environnement numérique, versus la notion de bien commun appliquée aux objets scientifiques. Ce débat n’est pas clos au niveau du Parlement européen et de la Commission européenne ;
  • des contraintes économiques, une partie des données de recherche constituant potentiellement un actif exploitable pour les entreprises et les secteurs économique et industriel, au-delà du partage et de la réutilisation dans le monde de la recherche lui-même. La mise à disposition de jeux de données doit trouver ses acteurs économiques et ses débouchés. Sans des politiques incitatives (capital-risque / startups…), des quantités de jeux de données ne pourront pas être exploitables économiquement.

La science ouverte à la croisée des chemins

L’évolution vers la science ouverte semble bien engagée. L’intensité des changements à opérer pour atteindre une vraie politique de science ouverte peut cependant varier en fonction de plusieurs facteurs. Premièrement, le degré d’incitation de la puissance publique à mettre en place les conditions idoines à l’ouverture des données publiques et des publications scientifiques varie. Une forte incitation avec un contrôle avancé de la qualité des données permet une exploitation scientifique et économique générant de la valeur et un cercle vertueux d’ouverture. Une moindre incitation génère des différences de mises en ouverture entre les producteurs de données, et donc, des systèmes à plusieurs vitesses dommageables à la libre circulation des données et des connaissances.

Hypothèses d’évolution à 2040 pour « Données »

À partir des analyses précédentes, cinq hypothèses d’évolution sur cette composante « Données » ont été élaborées.

La donnée surréglementée

La méfiance de la société vis-à-vis de l’utilisation des données qui la concernent aboutit à des réglementations publiques qui imposent, aux collecteurs et utilisateurs de données, des déclarations systématiques et des mécanismes de protection et de qualité des données très encadrés. Il en résulte des difficultés à valoriser les données massives, ce qui freine le développement de certains travaux scientifiques. Du point de vue des métiers, une connaissance juridique de plus en plus importante s’avère nécessaire pour la bonne application des réglementations.

La donnée ouverte réussie

Les exigences des financeurs et des éditeurs en termes de qualité et d’interopérabilité des données ont abouti à l’application généralisée des principes FAIR (Findable, Accessible, Interoperable, Reusable). Les données et métadonnées peuvent ainsi être plus facilement localisées et utilisées dans un contexte où les technologies ont continué d’évoluer sans rupture majeure ni contrainte particulière. De nouveaux métiers centrés sur la certification des données et des métadonnées qui les accompagnent permettent d’alimenter les entrepôts de données de manière fiable. Les données sont alors réutilisées en toute confiance dans un monde où la donnée ouverte s’impose comme constituant la règle en 2040.

Les données massives et les données expertes

En 2040, le foisonnement des objets et capteurs connectés permet d’obtenir de très grandes quantités de données à bas coût, ce qui concurrence la donnée traditionnelle obtenue par un protocole et parfois coûteuse à collecter. De la même façon, les données issues de la simulation s’inscrivent dans le paysage comme une nouvelle source de données qui alimentent des travaux de recherche ou l’enseignement. Les chercheurs ont dû adapter leurs compétences pour traiter de nouvelles sources très souvent peu structurées (données massives) et de qualité variable ; ils continuent cependant d’organiser des collectes de données plus ciblées, sur des données qui ne sont pas disponibles par ailleurs et qui sont nécessaires à leur recherche. Certains d’entre eux mettent au point des prétraitements implémentés directement dans les capteurs pour épurer et agréger les données brutes. Les problèmes que peut engendrer le croisement des nombreuses données entraînent dans le même temps un renforcement des réglementations.

Un tsunami de données

En 2040, les collectifs scientifiques sont submergés par les quantités de données qu’ils collectent mais ne peuvent organiser, stocker, traiter ou publier. Cette difficulté engendre un recours massif aux spécialistes en analyse de données, seule solution pour faire le tri dans les données et identifier a minima ce qui mérite d’être conservé, traité et éventuellement mis à disposition, car il est devenu impossible de tout conserver… La question du stockage est devenue secondaire, étant acquis qu’il est impossible de tout conserver et que les travaux doivent être menés sur un flux continu de données. La qualité est devenue une question secondaire, le volume compensant une éventuelle défaillance. Dans ce scénario, l’échec de la donnée ouverte tout comme son succès peuvent être envisagés indifféremment, car d’un côté, les scientifiques utilisent les données massives, signe que l’ouverture existe, mais de l’autre, ils peuvent être en difficulté pour publier les données qu’ils collectent.

Une dévalorisation des données produites par la recherche publique

En 2040, l’ESR est mis à mal par les capacités des entreprises privées devenues centrales dans le traitement des données. Ces entreprises détiennent suffisamment de données pour alimenter leur recherche basée sur l’IA, les données de projets scientifiques n’apportant que très peu de plus-value. Cette nouvelle science s’appuie sur des données de haute qualité notamment en termes d’interopérabilité, ce qui exclut de nombreux fournisseurs de données ; seuls les analystes de haut niveau sont capables de les traiter. La recherche publique est dépassée technologiquement par les entreprises dans le monde de la donnée ouverte. La capacité de traitement est devenue cruciale et la donnée simulée acquiert une valeur reconnue dans un contexte où la finalité est la prédiction.

Interactions de l’ESR avec la société====

Marco Barzman, Évelyne Lhoste

Les liens entre l’ESR et son écosystème se transforment. La transition numérique et les autres grandes transitions, la mondialisation, la priorité à l’innovation et le souhait d’augmenter l’efficacité, l’impact et la visibilité de la recherche et de l’enseignement supérieur tendent à impliquer plus directement une plus grande variété d’acteurs qu’auparavant.

Après la seconde guerre mondiale et jusqu’aux années 1980, le système de recherche et de développement agricole adopte une structure linéaire allant de la recherche jusqu’aux utilisateurs finaux en passant par l’enseignement et le conseil. Cette linéarité reflète l’idée d’une diffusion des connaissances et d’inventions allant de la recherche vers des utilisateurs finaux (Rogers, 1962). L’objectif principal durant cette période est d’atteindre l’autosuffisance alimentaire et les interlocuteurs privilégiés sont les exploitants agricoles et l’État (Acta, 2016). L’Inra contribue au développement des filières de production et des industries agroalimentaires.

Depuis les années 1980, le système de recherche et d’innovation se caractérise par le développement de formes hybrides de partenariats entre recherche publique et firmes industrielles (Pestre, 2003). Ses enjeux économiques sont fixés conjointement par les acteurs de la recherche académique, l’État et les industries. Dans les années 1990, de nouveaux défis — environnementaux, sanitaires, bien-être animal, contribution à la croissance économique — portés par des acteurs de la société civile transforment leur relation avec l’ESR. Les thématiques traitées par les organismes de recherche et d’enseignement en agronomie, environnement, alimentation et sciences vétérinaires se diversifient et créent des liens avec de nouveaux types d’acteurs (Acta, 2016).

L’innovation et la production de connaissances sont comprises comme émergeant d’un processus réticulaire et multi-acteur, mais le mythe d’un processus d’innovation linéaire est encore vivace.

Place de l’ESR dans son écosystème

L’ESR et les acteurs économiques

Le mouvement des données ouvertes facilite leur partage avec des acteurs économiques. En même temps, le numérique contribue à reconfigurer la chaîne de production et de circulation des connaissances.

L’innovation ouverte, associée au développement du numérique, favorise le développement de partenariats entre recherches publique et privée (Livre blanc de l’ESR, 2017). De nombreux groupes, telle la Fondation Concorde (un think tank politique), appellent à créer de nouveaux écosystèmes rapprochant enseignants-chercheurs et entreprises, recherche finalisée et entreprises, startups et universités, écoles et laboratoires, pour répondre à la concurrence engendrée par le numérique autour de l’innovation (Fondation Concorde, 2017).

Il existe de nombreuses initiatives favorisant des partenariats ciblant l’innovation. Certaines sont centrées sur de nouveaux usages des technologies du numérique. C’est le cas de l’Institut de convergence « Agriculture numérique, #digitAg » qui crée de nouvelles relations entre chercheurs, enseignants, producteurs, entreprises et collectivités territoriales autour du numérique en agriculture (Irstea, 2016). D’autres initiatives sont plus générales. Le Plan national pour l’innovation lancé en novembre 2013 met en avant le rôle de l’ESR dans les Pôles étudiants pour l’innovation, le transfert et l’entrepreneuriat — un programme d’accompagnement des étudiants dans la création de startups. Des instituts de recherche technologique associant des établissements d’enseignement supérieur et de recherche, des grands groupes et des petites et moyennes entreprises autour d’un programme commun de recherche, sont créés. Ils concentrent des moyens pour améliorer la visibilité internationale de la recherche et favoriser une stratégie industrielle de conquête de marchés (Livre blanc de l’ESR, 2017). Le label Carnot, créé en 2006, favorise la recherche partenariale et l’innovation au sein des PME et des grands groupes — par exemple, 3BCAR est un institut Carnot porté par l’Inra sur la valorisation de la biomasse. Le programme Cifre (Conventions industrielles de formation par la recherche) subventionne depuis longtemps des entreprises pour l’embauche de doctorants (ANRT, 2019). L’Inra accompagne la création de startups pour renforcer les liens avec le monde de l’entreprise (Inra, 2018). Les SATT, sociétés d’accélération du transfert de technologies, créées par des établissements de recherche publics dans le cadre du Programme d’investissements d’avenir, favorisent la création de startups et le transfert des innovations issues de la recherche académique vers les entreprises.

On retrouve dans d’autres pays les mêmes efforts de rapprochement entre mondes académiques et entreprises. Les centres Catapult au Royaume-Uni (Catapult Network, 2017) indiquent par exemple avoir créé 3 000 collaborations entre acteurs académiques et industriels en quatre ans. Le programme états-unien Manufacturing USA lancé en 2014 développe des solutions pour la recherche et développement, la transition technologique, la formation des travailleurs et l’enseignement (Manufacturing USA, 2019).

Les avancées dans le monde du numérique promettent la possibilité d’une intelligence artificielle, alimentée de données produites hors du monde académique, qui remplacerait de nombreuses fonctions de la recherche académique dans le cycle de l’innovation.

Relations de l’ESR avec une diversité d’acteurs des territoires

Les territoires sont devenus un lieu privilégié pour développer l’innovation. La politique de site de l’ESR, en plus de créer une masse critique plus visible, s’inscrit aussi dans un développement territorial impliquant une grande diversité d’acteurs locaux. Dans certains territoires, la recherche publique est par exemple incitée à participer aux initiatives French Tech, un label lancé en 2013 désignant les territoires les plus favorables aux startups du numérique (Livre blanc de l’ESR, 2017). Il existe un réseau thématique French Tech sur l’éducation et la formation (#EdTech) et un autre sur l’agronomie et l’agro-industrie (#FoodTech #AgTech). À l’Inra, l’accent mis sur le territoire et l’innovation ouverte, avec des dispositifs tels que les Laboratoires d’innovation territoriale (LIT) et Territoires d’innovation – Grande ambition (Tiga), favorise les relations avec des réseaux d’agriculteurs, les PME et les acteurs de l’économie sociale et solidaire (Inra, 2016a). Les living labs, souvent soutenus par des collectivités territoriales, facilitent la coproduction de connaissances et d’innovation, et les interactions entre usagers et entreprises.

Relations de l’ESR avec des acteurs internationaux

La mondialisation et le numérique favorisent les liens avec des acteurs au-delà des frontières nationales. Les politiques européennes de recherche sont déterminantes. Les collaborations pluridisciplinaires, multiculturelles et multinationales y sont encouragées pour démultiplier le potentiel de recherche et d’innovation (MESR, 2009). Dans l’ESR français, on note à la fois un souhait de s’intégrer dans le paysage international et une inquiétude vis-à-vis d’un retard du système dans ce processus, y compris par rapport à la diffusion des outils et pratiques numériques (Institut Montaigne, 2017).

Au-delà de l’activité de recherche et d’enseignement, il y a aussi dans l’ESR un souhait de s’impliquer davantage dans les arènes mondiales où se définissent les agendas de recherche et les régulations concernant les défis globaux et les biens publics mondiaux (MESR, 2009). Sur la donnée ouverte, l’Inra participe déjà à des structures internationales telles que le Global Open Data for Agriculture and Nutrition ou la Research Data Alliance (Inra, 2017).

Relations de l’ESR avec la société civile non marchande

Les débats de société dans les domaines de l’agronomie, de l’alimentation, de l’environnement et de la santé animale se multiplient et augmentent en intensité. Dans les années 1960, ce sont les impacts sanitaires et environnementaux de l’agriculture qui donnent naissance aux premières ONG environnementalistes (Trench, 2008). Dans les années 1990, le débat sur les OGM en particulier s’immisce dans la relation auparavant privilégiée et linéaire entre recherche, développement agricole et producteurs (Acta, 2016).

Avec le Web 1.0 — l’Internet unidirectionnel jusqu’en 2003 — la publication sur Internet permet à de nombreux citoyens de s’informer. Avec le Web 2.0 — l’Internet interactif depuis 2003 — les réseaux sociaux et le smartphone, les citoyens publient et diffusent l’information. Ils peuvent accéder aux coulisses de la production scientifique et participer aux discussions internes (Trench, 2008).

Du fait de ces débats et de ces nouveaux outils, la relation entre l’ESR et la société civile non marchande évolue. Les citoyens affirment leur opinion vis-à-vis des débats scientifiques et incitent les acteurs de l’ESR à leur donner une place (Bensaude-Vincent, 2013). En agronomie, le système de recherche et développement doit dorénavant répondre à des attentes multiples de la société. Cela interroge le modèle agricole dominant et les modes de recherche classiques au vu de leurs conséquences mitigées, tant du point de vue de la production agroalimentaire que de ses conséquences environnementales et sociales (Acta, 2016). En 2013, l’Inra renonce à des essais OGM de plein champ (Inra, 2013). En 2018, dans un contexte de débats intenses sur le glyphosate et les perturbateurs endocriniens, il programme l’exclusion des pesticides de ses essais.

L’ESR, la communication avec les médias, les citoyens

Le passage à une nouvelle relation entre l’ESR et les citoyens est reflété dans la nature changeante de la communication entre ces deux sphères. Les chercheurs en Public Communication of Science and Technology (PCST) décrivent une évolution de la communication scientifique qui suit trois paradigmes chronologiques (Trench, 2008) :

  • le déficit ;
  • le dialogue ;
  • la participation.

Le paradigme du déficit (Dissemination) domine la communication scientifique entre 1960 et 1990 (Schiele, 2008). Selon ce paradigme diffusionniste, la science transmet unidirectionnellement ses connaissances à un public qui manque de culture scientifique et qui serait mal équipé pour comprendre — d’où le « déficit » (Le Marec et Schiele, 2017). Selon ce principe, l’émergence d’une controverse révèle une communication défaillante (Horst, 2008). Des enquêtes en 2006 et 2009 montrent que cette vision des relations sciences-société perdure dans la communauté scientifique (Besley et Nisbet, 2011).

Le paradigme du dialogue (Dialogue) concurrence celui du déficit à partir des années 1990 (Le Marec et Schiele, 2017 ; Trench, 2008). Dans ce paradigme, on reproche à la science de s’aliéner les préoccupations de la société et de s’enfermer dans un monde de concepts et de formalismes (Cheng et al., 2008). Pour mieux comprendre le public et tenir compte du contexte dans lequel s’opère la communication, on engage, à l’aide de spécialistes de la communication scientifique, une communication à double sens (Brown University, 2014). La remise en question des affirmations de la science est bienvenue — elle permet d’équilibrer et diversifier l’information (Bauer, 2008).

Le paradigme de la participation (Conversation) — ou modèle de l’engagement — va au-delà de la communication en envisageant la contribution active d’une diversité d’acteurs à un processus de négociation. Le dialogue ne sert plus seulement à une meilleure compréhension mutuelle, mais à pratiquer la science comme une activité collective autour d’enjeux qui concernent tout le monde (Riise, 2008). Il s’agit de positionner la science dans la société plutôt que de l’opposer à la société (Schiele, 2008). Les controverses sont considérées comme inhérentes au processus du développement technologique et de l’innovation (Horst, 2008).

Sciences participatives

Le paradigme de la participation engage l’ESR dans des démarches où il s’agit d’apprendre à collaborer avec des acteurs sociaux n’appartenant pas au monde des grandes entreprises. Ce mouvement a débuté dès les années 1970, notamment avec l’engagement de chercheurs de l’Inra dans des recherches-actions avec les agriculteurs et avec la création des boutiques de sciences dans les universités néerlandaises (Sciences citoyennes, 2013). Il s’est poursuivi dans les années 1980 avec les revendications des associations de malades pour influer sur la recherche sur le HIV. Dans les années 2000, l’Inserm a créé le Groupe de réflexion sur les associations de malades (Gram) et une mission Inserm-associations pour faciliter les interactions entre chercheurs et associations.

Actuellement, l’intérêt pour les sciences participatives à l’Inra est fort (Merilhou-Goudard, 2017). Il existe de multiples initiatives dont la collecte de données sur la maladie de Lyme, la sélection participative pour l’agriculture biologique, ou la production agricole en circuits courts avec une participation d’agriculteurs et de consommateurs à la définition des protocoles de recherche. Le comité directeur de l’Inra s’est enrichi d’un « délégué aux Sciences en société », l’Institut a signé une convention de partenariat avec l’association Consommation, logement et cadre de vie en 2016, et la composition de son conseil d’administration a été ajustée en 2015 pour « assurer une représentation diversifiée des secteurs de la production, du développement et de la coopération agricoles, et des secteurs situés en amont et en aval ». L’Inra est par ailleurs membre de l’association Alliss, un think tank qui a pour but de promouvoir la participation du tiers secteur de la recherche au système de recherche et d’innovation (Alliss, 2017).

L’approche participative est mise en avant pour favoriser l’apprentissage tout en contribuant à la recherche. Il existe par exemple des projets impliquant des enfants-chercheurs, des parents-chercheurs, ou des patients et des enseignants qui expérimentent en collaboration avec des chercheurs du monde académique (Taddei et al., 2017). Si le numérique facilite la mobilisation d’acteurs non académiques dans la production de connaissances (crowdsourcing, people-powered research, making, ou DIY-Bio), il peut aussi faciliter le mouvement convers, c’est-à-dire l’implication des scientifiques dans des laboratoires ouverts (tiers-lieux, makerspaces, fablabs, ou living labs).

Perception d’une méfiance de la société civile envers l’ESR

Les réseaux sociaux facilitent parfois la diffusion de fake science, des pratiques allant « de la diffusion de fausses informations à la promotion de médicaments, en passant par l’activisme climatosceptique ou antivaccin » mené par des revues scientifiques peu scrupuleuses, ce qui contribue à l’érosion de la confiance vis-à-vis de la communication issue de la science (Berditchevskaia et al., 2017). On peut cependant considérer que cette érosion supposée représente une opportunité pour les scientifiques de participer au débat dans la société (Horst, 2008 ; Schiele, 2008) et de promouvoir le sens critique des citoyens. De ce point de vue, l’enseignement porte l’importante mission « d’apprendre à apprendre, à interroger et interpréter, plutôt qu’à consommer naïvement les informations disponibles » (Taddei et al., 2017).

En fait, si certains auteurs font état d’une perte de confiance de la société envers la science (Price et Peterson, 2016), la tendance n’est pas claire. Le Livre blanc de l’ESR (2017) signale que la Cité des sciences reçoit plus de 2 millions de visiteurs par an et que 66 % des personnes sondées en 2016 se déclarent intéressés par l’actualité scientifique, contre 42 % par l’actualité sportive. Des enquêtes aux États-Unis indiquent que la confiance du public dans la communauté scientifique se maintient à un niveau élevé (Funk, 2017).

Des stratégies sont mises en place pour éviter une déconnexion entre le monde scientifique et celui des publics. À l’échelle mondiale, l’émergence des MOOC (Massive Open Online Course) depuis 2010 révèle le besoin que les universitaires mais également les chercheurs des organismes de recherche ont de se rapprocher d’un public plus large que les seuls étudiants. Aux Pays-Bas, le Rathenau Institut organise des études et des débats pour « stimuler l’opinion publique et politique sur les aspects sociaux de la science et de la technologie » (Van Est et al., 2014). En France, l’Institut des hautes études pour la science et la technologie se propose comme référent des relations sciences-société. Ce type d’initiatives et, plus généralement, le passage à une relation multidirectionnelle soulignent l’importance du rôle des médiateurs scientifiques (Torregrosa, 2009) et de l’évolution de ces métiers vers une approche plus distribuée de la circulation des connaissances. Aux États-Unis, une étude montre que des métiers tels que pédagogues informels, gardiens de parcs naturels, guides curateurs de musées, ou employés de zoos exercent de facto cette fonction et bénéficient de la confiance des publics. Les auteurs de cette étude proposent la formalisation de partenariats avec ces intermédiaires afin d’améliorer le dialogue science-société (Merson et al., 2018). Les tiers-lieux, qui prolifèrent en particulier dans les centres de culture scientifique et technique et les universités, permettent d’envisager des relations plus horizontales entre experts scientifiques et experts non professionnels, avec un rôle accru de professionnels de l’intermédiation entre des acteurs impliqués dans des activités de production de connaissances.

Possible perte de visibilité

L’enjeu est de taille : si l’engagement de l’ESR dans les questions de société est inefficace, sa communication peut se voir « ringardisée » et d’autres secteurs de la société pourraient dominer les activités médiatiques qui le concernent.

Le foisonnement d’informations transmises par les technologies numériques a créé une « économie de l’attention » où producteurs et fournisseurs de connaissances et d’informations se font concurrence. Le défi aujourd’hui est de capter l’attention des publics, en créant par exemple de la viralité ou l’« effet Mathieu », qui confère une visibilité surnuméraire (Cardon, 2015). La notoriété, basée sur le degré de présence dans les médias, devient essentielle et ce critère s’applique déjà aux universités. Le système Webometrics, créé par la recherche publique espagnole, classe les universités par rapport à l’accessibilité de leur site Web et à la quantité de contenu sur Internet. La science joue le jeu de la visibilité en investissant dans les nouveaux outils de communication comme Twitter, les MOOC interactifs, ou YouTube avec la participation de YouTubers scientifiques (Livre blanc de l’ESR, 2017). Pour l’instant pourtant, des enquêtes indiquent que les scientifiques préfèrent le journalisme traditionnel (Allgaier et al., 2013) et que, lorsqu’ils ont recours aux réseaux sociaux, ils en font un usage peu interactif (Jahng et Lee, 2018).

Le recours à Internet et aux téléphones portables aux dépens des médias traditionnels (Peters, 2013) change la nature de la communication. De nouvelles formes de visualisation des résultats scientifiques font entrer en jeu l’art, les émotions et la dimension humaine dans la communication (Socientize, 2013). Dramaturgie, théâtralisation, récits, mise en scène cinématographique et personnification de la communication institutionnelle transmettent une compréhension plus profonde et plus critique de la science (Boujaoude et al., 2005 ; Wahl, 2016). Tout cela n’empêche pas de compléter la communication virtuelle par des canaux de communication populaires et in real life (IRL) pour créer des tiers-lieux propices à la mobilisation des non-scientifiques. Le Dutch National Research Agenda (2016) a ainsi recours à des magazines et sites Internet de vulgarisation de la science, festivals de musique, et talk-shows télévisés pour sa programmation participative de la recherche. Le consortium Engage2020 (2013) recense 57 méthodes et outils d’engagement : festivals des sciences, cafés scientifiques, journées portes ouvertes, salons ou interventions dans les écoles, jusqu’à la représentation des sciences dans le cinéma grand public (Kirby, 2008).

IRL ou virtuelle, la communication entre deux mondes historiquement séparés nécessite un apprentissage. En 2008, de nombreux chercheurs français estimaient qu’ils n’avaient pas les capacités oratoires pour communiquer efficacement avec des non-chercheurs (Gaillard, 2008). Aujourd’hui, les jeunes scientifiques sont mieux préparés dans ce domaine avec, par exemple, « Ma thèse en 180 s », un concours basé sur la présentation ultrarapide d’une thèse doctorale dans un langage accessible à tous. Les nouveaux outils de communication accélèrent le flux des informations et cette nouvelle temporalité pourrait créer une tension avec le temps long de la recherche. Cependant, une bonne communication ne suffit pas à satisfaire les besoins d’acteurs sociaux qui revendiquent plus de démocratie dans les choix stratégiques du système de recherche, et d’innovation pour répondre aux défis environnementaux et sociaux.

Évaluation de l’ESR par la société

Impliquer les organisations citoyennes dans les orientations stratégiques

L’implication croissante de la société civile non marchande dans le fonctionnement de l’ESR pose la question de la démocratie et des limites des démarches participatives. Est-ce que le droit de regard des citoyens sur la science s’étend jusqu’à jouer un rôle dans la définition des stratégies au même titre que les grandes firmes industrielles et que l’État ? En tout état de cause, cette demande de participation de la société dans les orientations de la recherche est légitime (Brown University, 2014). Au Royaume-Uni, la Royal Commission on Environmental Pollution recommande d’impliquer le public dans la formulation des stratégies de recherche « plutôt que simplement le consulter a posteriori sur des propositions » (O’Riordan, 2000). Une évaluation de sept cas de coconception de programmation de la recherche conclut que ce modèle peut améliorer l’efficacité et la pertinence de la science et sa capacité de contribution à l’innovation (OECD, 2017). À l’Inra, des actions communes élaborées via un dialogue constructif avec les acteurs de la société civile non marchande sont en cours (Inra, 2016a).

Impliquer les citoyens dans l’évaluation

Historiquement, les structures de l’ESR, leurs acteurs, les connaissances qui y sont produites, et les réponses à des appels à projets sont évalués par des organisations et par des acteurs issus de l’ESR, dans des structures étatiques. Aujourd’hui, les structures formelles d’évaluation de l’ESR commencent à s’ouvrir au-delà du monde académique. Depuis 2014, le Haut Conseil de l’Évaluation de la recherche et de l’enseignement supérieur conduit des évaluations avec un mélange de chercheurs et d’enseignants-chercheurs d’une part, et d’étudiants et de professionnels issus des secteurs privés ou publics, d’autre part (Pumain et Dardel, 2014). De même, l’Agence nationale de la recherche, qui évalue des réponses à des appels à projets, inclut dans son comité de pilotage scientifique des acteurs non académiques issus du monde des entreprises (ANR, 2019). Pourquoi ne pas y intégrer des représentants de la société civile qui défendraient non seulement des enjeux économiques, mais aussi sociaux et environnementaux ? En parallèle, des systèmes de notation par Internet se développent et pourraient un jour s’appliquer à l’ESR. Il s’agit d’outils d’évaluation et de classement fréquents dans l’hôtellerie, la restauration et les transports — TripAdvisor, par exemple — qui reposent essentiellement sur des critères subjectifs. Pour l’évaluation de certains établissements de l’ESR en tant qu’employeurs, cette notation existe déjà — les sites indeed.fr et glassdoor.fr publient des avis de stagiaires et d’agents sur l’Inra et AgroParisTech, respectivement.

Un tel degré d’implication de la société civile dans l’évaluation de la recherche pourrait remettre en cause les normes académiques — tout comme les grandes firmes industrielles influencent la programmation de la recherche conjointement avec l’État sur des enjeux économiques. Il reste à voir si les scientifiques sont prêts à accepter de tels changements. Des enquêtes récentes menées dans plusieurs pays montrent que si les scientifiques considèrent important d’établir un « dialogue entre partenaires égaux », ils considèrent le « grand public » mal renseigné sur la science et préfèrent l’exclure des arènes internes (Peters, 2013 ; Besley et Nesbit, 2011).

Quoi qu’il en soit, le monde académique doit fournir des réponses à une société civile de plus en plus présente. Autrement, l’ESR risque de devenir objet de méfiance ou de désintérêt.

Hypothèses d’évolution à 2040 pour « Interactions de l’ESR avec la société »

À partir des analyses précédentes, cinq hypothèses d’évolution des interactions de l’ESR avec la société ont été élaborées.

Coopération

Certains groupes concernés issus de la société civile atteignent, grâce à une légitimité acquise de longue date et via les réseaux sociaux, un degré important d’influence sur la recherche et l’enseignement. Ils réussissent à promouvoir des domaines qu’ils jugent prioritaires tels que la gestion des déchets nucléaires, le bien-être animal ou le réchauffement climatique. Dans le but d’améliorer ses relations avec la société et d’accomplir sa mission au service de l’intérêt général, l’ESR coconçoit sa communication avec ses partenaires économiques historiques et les acteurs de la société civile. Ensemble, ils mettent en place des médiateurs pour contrebalancer l’effet des infox et construire un dialogue démocratique. En plus de ces interactions au niveau national, la reconfiguration territoriale de la recherche et de l’enseignement supérieur favorise l’intégration des acteurs territoriaux dans les sphères décisionnelles de l’ESR, encourageant ce dernier à intégrer les enjeux sociaux, économiques et environnementaux des territoires dans le cycle de recherche-innovation.

Contrôle de l’ESR par les groupes concernés et les lobbies

Des représentants de lobbies et de groupes concernés siègent dans les comités d’évaluation institutionnels, ce qui leur permet de définir la stratégie de l’ESR. En devenant membres majoritaires des conseils d’administration des universités, instituts et agences de financement de la recherche, ils orientent la recherche et l’enseignement supérieur. Ce pouvoir leur permet de promouvoir un mélange de recherches générique et finalisée qui répondent à leurs enjeux. Parallèlement, les chercheurs et enseignants-chercheurs, majoritairement contractuels, communiquent sur Internet où ils promeuvent leurs talents, compétences et thématiques afin d’augmenter leurs visibilité et employabilité.

Recherche agile et partenariale

Le délai entre la recherche et sa mise en pratique au service de la société marchande s’est considérablement raccourci, notamment sous l’impulsion du numérique. La société civile marchande renforce son rôle de partenaire institutionnel de l’ESR et siège dans les différents comités d’évaluation de la recherche et de l’enseignement supérieur. Ce partenariat public-privé institutionnalisé est assumé par les instituts de recherche qui communiquent en collaboration avec leurs partenaires afin de promouvoir, notamment, une recherche distribuée et horizontale tournée vers les enjeux d’innovation définis par le secteur privé. Ce partenariat pousse une partie des instituts à fonctionner comme des prestataires de service qui, in fine, créent leurs propres startups, rachetées ultérieurement par les entreprises partenaires de l’institution.

ESR spécifique et fier de l’être

Suite à des tentatives ratées de partenariats conjoints avec des firmes industrielles et des acteurs de la société civile non marchande, l’enseignement supérieur et la recherche refusent l’évaluation par des acteurs sociaux et ne s’engagent plus dans les débats vifs du moment concernant la relation science-société. L’ESR adopte une stratégie alternative. Il défend son travail sur le temps long. Il met en avant l’utilité d’une activité de recherche et de formation des étudiants bénéficiant d’un certain décalage temporel avec le temps de la société civile et l’importance d’une distance vis-à-vis des intérêts marchands. Face au foisonnement de messages issus de la société civile marchande et non marchande, l’ESR assume dans sa communication institutionnelle la distance par rapport aux groupes d’intérêts et le temps long en recherche et dans la formation des étudiants. Cette stratégie crée un îlot de confiance de la société envers l’ESR.

Impuissance de l’ESR face à la puissance des réseaux

L’incapacité de l’ESR à communiquer sur son utilité sociale, couplée à la pression de groupes de la société civile marchande et non marchande organisés sur les réseaux sociaux, conduit dans un premier temps à la disparition de plusieurs thématiques et disciplines. En réaction, l’ESR cherche de nouvelles alliances pour se détacher de l’opinion de la société et assumer pleinement son décalage de temporalité face au dictat de la rapidité et du raccourcissement du cycle recherche-innovation-transfert.

Éthique et cultures numériques dans l’ESR

Caroline Martin, Geneviève Aubin-Houzelstein, Olivier Mora, Georges-Louis Baron, Évelyne Lhoste

Transparence et ouverture, éthique et déontologie des pratiques scientifiques et d’enseignement sont des éléments de réponse mis en œuvre pour favoriser les interactions entre société, chercheurs et enseignants, et légitimer la place des connaissances scientifiques dans la société. Les enseignants et les chercheurs sont amenés à s’impliquer dans le numérique pour comprendre les nouvelles formes de production et circulation des connaissances, comprendre les outils issus des nouvelles technologies et du numérique, apprendre à tracer leur production, et apprendre à pratiquer la transparence et protéger, valoriser voire labelliser leurs productions et savoir-faire. Ils doivent aussi apprendre à vivre dans une société ouverte où la connaissance est plurielle et n’est plus l’apanage des seuls experts professionnels.

Comment le numérique pourra-t-il accompagner les enseignants et les chercheurs à l’avenir pour réinventer les méthodes de production, de circulation et de transfert des savoirs ? Quelles seront leur aptitude et leur capacité à continuer le dialogue nécessaire entre science et société dans un contexte d’usage généralisé des outils numériques ? Comment le numérique leur permettra-t-il de réinventer leur posture professionnelle et de garantir la spécificité des connaissances scientifiques ?

Éducation numérique des chercheurs, enseignants et enseignants-chercheurs

L’éducation (ou formation) numérique des enseignants-chercheurs et chercheurs fait référence à l’apprentissage de l’usage des outils numériques pour la recherche et pour l’enseignement. Elle comporte plusieurs volets : apprendre à utiliser les outils numériques ; comprendre comment ils fonctionnent ; développer son esprit critique en matière d’usage ; mettre en œuvre une éthique et une déontologie autour de ces pratiques numériques ; acquérir des compétences techniques spécifiques pour développer des supports pédagogiques (Bouchardon et Cailleau, 2018).

Une formation au numérique « sur le tas », très fortement liée à l’individu

Dans les années 1990, l’arrivée de la messagerie électronique et d’Internet a transformé le quotidien des chercheurs et enseignants-chercheurs qui se sont approprié nouveaux outils sans doute plus rapidement que la population générale du fait de l’impact qu’ils avaient sur leurs pratiques de travail. Le numérique facilite les collaborations internationales en raccourcissant le temps et l’espace, transforme la façon de faire sa bibliographie, de publier, de communiquer ses résultats scientifiques et d’enseigner, de tracer, stocker, partager ses informations professionnelles.

Dans les années 2000 sont apparus les réseaux sociaux tels que Twitter et Facebook pour lesquels les chercheurs et enseignants-chercheurs ont eu une adhésion très variable et directement liée à leur usage personnel (Trioreau, 2016). Les établissements d’enseignement supérieur et de recherche, eux, s’en sont emparés par la suite pour leur communication institutionnelle.

En revanche, les chercheurs et enseignants-chercheurs ont souvent recours aux réseaux professionnels tels que LinkedIn ou ResearchGate, car ils permettent d’augmenter leur visibilité et leur identité numérique, de développer des collaborations.

Les avancées technologiques, en particulier celles liées aux données massives, ont fait évoluer les métiers existants. Dans certaines disciplines, comme la génomique, le numérique a bouleversé l’organisation de la recherche (mutualisation d’outils dans des plateformes haut débit et développement des collaborations sur des projets de grande ampleur, développement de nouvelles disciplines telles que les humanités numériques, ou nouveaux métiers tels que chercheur en science de la donnée). En matière d’enseignement, le numérique a profondément transformé les méthodes pédagogiques, et il ouvre des possibilités d’apprentissage personnalisé en lien avec les learning analytics.

Malgré la diffusion progressive du numérique dans l’éducation et l’enseignement, l’« encapacitation » et la réflexivité sur les usages restent insuffisantes

Après les initiatives individuelles, les politiques et les institutions ont pris conscience des énormes enjeux du numérique en éducation. Beaucoup d’établissements ont travaillé des schémas directeurs du numérique, fixant des objectifs en termes de développement d’infrastructures mutualisées, d’organisation et d’incitation à la formation numérique, notamment sur des plateformes. Les politiques nationales et internationales ont progressivement augmenté leur soutien aux infrastructures et au développement de la pédagogie numérique.

Si le besoin en ressources a été majoritairement comblé, la montée en compétences des agents reste un véritable enjeu. Elle demeure très hétérogène, car fortement liée aux individus. On remarque un vrai décalage entre l’utilisation des outils et la réflexivité sur leurs usages. Ainsi, si la culture de l’ouverture est soutenue par les politiques publiques et les institutions (Légifrance, 2016), les agents n’ont pas toujours conscience des conséquences en matière de propriété intellectuelle, de « copyright », de données personnelles, de cybersécurité. De même, si l’utilisation des réseaux sociaux permet de rapprocher les enseignants-chercheurs et les chercheurs de la société, ils les mettent également en première ligne : ils peuvent se retrouver sursollicités, pris à parti, cibles d’attaque, ou perdus dans la jungle des outils en ligne. « […] La nouvelle injonction au “Be visible or Vanish” laisse parfois les chercheurs désemparés face à la multiplication d’outils de visibilité différents, complémentaires, voire concurrents. Et cela au détriment souvent d’une réflexion sur ce qui constitue une bonne présence en ligne en général. » (Réseau Urfist.)

L’appropriation des outils ne suit pas le rythme des innovations technologiques et les usagers se retrouvent souvent perdus devant l’offre pléthorique que les institutions peinent à réguler. Les outils numériques rendent encore plus floues les limites entre vie privée et vie professionnelle, provoquent une accélération généralisée des échanges sans que des règles collectives d’usage soient adoptées dans les établissements d’enseignement supérieur et de recherche. La demande pour comprendre les mécanismes et enjeux sousjacents au numérique est croissante. Afin de développer la capacité d’analyse critique de l’information disponible sur le Web par exemple, il est nécessaire de comprendre les algorithmes utilisés par les moteurs de recherche. « On ne peut comprendre le monde numérique dans sa totalité sans comprendre suffisamment ce qu’est son cœur informatique. » (Berry, 2008.)

Place du scientifique et de l’enseignant dans la société

Le statut social du scientifique et de l’enseignant dans la société change. Les chercheurs académiques et les enseignants ont longtemps été perçus comme détenteurs exclusifs du savoir scientifique. Ils sont désormais concurrencés dans de nombreux domaines par l’émergence d’experts non académiques, qu’ils soient amateurs éclairés, praticiens ou malades détenteurs de savoirs d’expérience. Évoluant dans un environnement où d’autres acteurs font circuler, voire produisent des connaissances ou des savoirs en mobilisant les outils numériques, les enseignants sont également affectés par ces transformations dans leurs activités de formation. Ces transformations modifient le regard sur les scientifiques et les enseignants, réinterrogent ce qui fait science et bousculent l’identité professionnelle des chercheurs et des enseignants.

Une remise en cause de l’autorité scientifique du chercheur et de l’enseignant

Par le passé, le statut de chercheur et d’enseignant-chercheur bénéficiait d’une forte légitimité et d’une forte reconnaissance sociale. Dans la première moitié du XXe siècle, le modèle du scientifique éducateur et représentant de l’Universel ou de l’objectivité était très répandu, dans un contexte où la « promotion de la science [était] identifiée au progrès moral, intellectuel et social ». Ainsi la « défense organisée de la communauté scientifique [était] assimilée à la défense de l’intérêt de la République » (Bonneuil, 2006). La spécificité du lien au savoir du savant et de l’enseignant leur donnait alors un rôle de détenteur du savoir et d’éducateur ; ces deux figures incarnaient le progrès social de la République.

Le prestige du chercheur a diminué du fait de l’affaiblissement de l’identification entre « la science » et le « progrès moral, intellectuel et social », notamment en raison de la crise de la notion de progrès mais aussi de la critique de certaines avancées scientifiques et techniques. De la même manière, le « prestige » associé à la profession d’enseignant comme « éducateur de la République » a perdu de sa valeur. L’accessibilité à de multiples savoirs scientifiques en temps réel sur l’Internet, les compétences et l’agilité numérique des publics apprenants, et les progrès des technologies éducatives numériques remettent en question le rôle classique de l’enseignant, seul détenteur d’un savoir qu’il transmet.

En créant une plus grande porosité entre les pratiques non professionnelles (dites amateurs) et les sciences institutionnalisées, le numérique introduit une concurrence des autorités. Comme le soulignent Diminescu et Wieviorka (2015), ces évolutions génèrent une inquiétude parmi les professionnels dont certains « craignent notamment un appauvrissement de la rigueur scientifique propre aux professionnels de la recherche [et une orientation vers une recherche] de moins en moins “gratuite”, commandée par les seuls intérêts scientifiques de ceux qui la conduisent ».

D’autres auteurs retiennent de ces considérations une autre vision de l’activité scientifique « désormais immergée dans une “agora” peuplée d’entrepreneurs, de juristes, de législateurs, de médias et de militants » (Bonneuil et Joly, 2013). Cette porosité conduirait ainsi au développement de pratiques nouvelles de recherche, qui mobilisent des chercheurs académiques et d’autres experts travaillant hors des cadres universitaires grâce à des outils et modes de coopération associés au numérique dans des projets collaboratifs, comme dans le domaine de l’histoire numérique (digital history) (Vinck et Natale, 2015).

Un brouillage des frontières entre professionnels et amateurs

La place des amateurs dans les pratiques scientifiques est très ancienne comme en témoignent les collectionneurs, les expérimentateurs et les cabinets de curiosités. Leur contribution est reconnue dans les disciplines anciennes et les sciences de terrain, en particulier naturelles (Charvolin, 2007). Les usages du numérique réactivent cette relation.

L’affirmation du non-expert professionnel dans la production de connaissances

Le numérique a joué un rôle décisif dans la diversification des formes de participation des non-professionnels à la production de connaissances et à l’innovation. Les premiers groupes de discussion apparus sur l’Arpanet — premier réseau de communication entre ordinateurs au début des années 1970 — puis sur Internet concernaient essentiellement les chercheurs et abordaient des problèmes techniques et des sujets culturels. C’est ainsi que se sont développées des communautés centrées sur la culture hackers et sur les logiciels libres à code source ouvert. Par la suite, d’autres collectifs dépassant le seul cadre de la communauté scientifique se sont organisés autour d’objectifs de création et de production de connaissances ouvertes. On peut citer ici les communautés créatives à l’origine du kitesurf — un nouveau sport de glisse — ou de l’imprimante 3D Reprap, mais aussi de l’encyclopédie en ligne Wikipédia ou le réseau de botanistes francophones Tela botanica.

Internet permet également aux non-professionnels de contribuer à des forums de discussion. Ce sont par exemple des malades qui échangent sur leurs savoirs d’expérience et tentent de les articuler avec les connaissances scientifiques. Grâce à ces forums, ils s’organisent pour mettre en politique un problème de santé ou faire reconnaître une maladie méconnue (Méadel et Akrich, 2010). Internet transforme ainsi les manières de produire des connaissances et contribue à élargir le cercle restreint des experts non professionnels : « les projets récents visant la création de très grandes bases de données, de même que la multiplication des plateformes en ligne de sciences participatives, contribuent à donner une nouvelle visibilité à la contribution des amateurs à l’activité scientifique, tout en offrant de nouvelles possibilités de participation » (Heaton et al., 2016).

L’émergence des communautés en ligne

À propos de l’encyclopédie en ligne Wikipédia, Auray a montré que le rapport au savoir a été profondément modifié, remettant en cause l’autorité des experts professionnels et multipliant les forums d’échanges entre amateurs (Auray et al., 2009). À l’instar des informaticiens qui ont construit Internet dès son origine, ces amateurs éclairés se sont organisés en communautés de pairs semblables aux communautés disciplinaires des chercheurs professionnels.

Depuis l’avènement du Web 2.0, l’apparition de nouveaux outils techniques (blogs, plateformes de diffusion…) et surtout l’intégration de nouvelles fonctions de communication, une figure majeure de l’internaute actif est incarnée par le pro-am, le professionnel-amateur (Leadbeater et Miller, 2004). Celui-ci « est parvenu à se réapproprier des sphères de l’activité sociale traditionnellement dévolues aux professionnels telles que […] la science ». Son émergence a remis en cause la figure de l’expert (Adenot, 2016). Examinant le cas de l’émergence de la chaîne E-penser, qui mobilise YouTube et des blogs, Adenot (ibid.) conclut son étude en affirmant que ces outils et ces communautés brouillent les frontières traditionnelles entre la figure de l’expert/scientifique et celle de l’amateur, et font apparaître un nouvel éthos de l’expertise qui « semble […] ne plus s’ériger uniquement sur des critères académiques, tels que le parcours universitaire ou professionnel [et inclut les] utilisateurs […] dans le mode de reconnaissance des compétences ».

L’expertise n’est alors plus seulement basée sur l’appréciation et le jugement des pairs mais aussi sur l’évaluation des utilisateurs des connaissances.

L’émergence des algorithmes et des intelligences artificielles dans la relation enseignant-apprenant

Avec le développement des technologies numériques, certains savoirs ou contenus sont détachés de l’enseignant qui les a produits et accessibles à distance, la relation maîtreélève s’en trouve donc radicalement transformée (Dioni, 2008).

« On s’accorde aujourd’hui à dire que le changement le plus important ne provient pas de l’interaction élève-machine mais des capacités de la machine à modifier l’organisation sociale et, par là même, à modifier l’importance accordée aux rôles de l’élève et de l’enseignant, l’organisation curriculaire, la nature des interactions maître-élèves dans le traitement de l’information et l’évaluation des apprentissages » (ibid.). Ainsi, l’irruption du numérique ajoute, à l’acte d’enseigner, la nécessité de construire une capacité d’accompagnement des apprentissages.

Certains, s’appuyant sur la généralisation d’une offre de MOOC, évoquent l’hypothèse disruptive d’une plateformisation de l’enseignement et de la formation qui pourrait conduire, à terme, à une marchandisation des savoirs à travers une « convergence entre les industries éducatives et les industries culturelles » (Bullich, 2018).

Circulation des enjeux éthiques entre l’ESR et la société

Un poids croissant des citoyens dans les débats éthiques et les choix scientifiques et techniques, facilité par le numérique

Outre la participation des amateurs et la reconnaissance de différentes formes de savoir, le point de vue des citoyens dans les débats éthiques et les choix scientifiques et techniques est désormais pris en compte. Des structures associatives visent « la réappropriation citoyenne et démocratique de la science afin de la mettre au service du bien commun » (Sciences citoyennes) et à développer et faciliter les coopérations entre la société civile et l’ESR (Alliss, 2017). Ces collectifs de chercheurs et de citoyens ont reçu l’accueil favorable d’établissements publics à caractère scientifique et technologique et d’organisations du tiers secteur de la recherche ; ils atteignent parfois un poids politique non négligeable.

Les citoyens ne se contentent plus d’intervenir dans les débats scientifiques, ils souhaitent prendre une part active dans la recherche. C’est dans ce contexte que les sciences participatives se sont développées en France depuis les années 1990. En lien avec le développement du numérique et des données massives, elles se sont diversifiées et ont explosé depuis les années 2000 (Houllier et Merilhou-Goudard, 2016). On assiste à présent à leur institutionnalisation, avec la signature de la Charte française des sciences et recherches participatives en 2017, dans laquelle les principes éthiques, déontologiques et d’intégrité scientifique tiennent une place importante.

Si le numérique peut faciliter les interactions entre l’ESR et la société, les réseaux sociaux engendrent également une polarisation des communautés. Ainsi, pour certains auteurs, les réseaux sociaux ouvriraient une nouvelle ère de l’information, marquée par de forts clivages de l’opinion.

Une plus grande prise en compte des enjeux éthiques par les chercheurs et les enseignants

Après mai 1968, le chercheur public questionne son rôle social. Il devient un « savant engagé » puis un « chercheur responsable » qui propose son expertise non seulement à des institutions mais aussi à des groupements de citoyens pour éclairer les choix scientifiques et techniques (Rouvroy, 2016). Dans les années 1990, avec le reflux global des mobilisations et de l’engagement, le « chercheur responsable » est progressivement remplacé par le « lanceur d’alerte » (Maison des journalistes, 2018). La numérisation et l’accessibilité des données et le développement des réseaux sociaux ont facilité la dissémination d’informations sensibles et confidentielles, et les lanceurs d’alerte internautes se sont multipliés. Cela a conduit le législateur à prendre en compte leur protection (Légifrance, 2016).

L’encapacitation des chercheurs et enseignants-chercheurs les conduit à interroger leurs pratiques, à chercher à les légitimer et à se structurer collectivement. Ainsi, les instituts de recherche et les universités se sont dotés de comités d’éthique qui s’emparent des questions propres à leurs établissements telles que le Gene drive ou la responsabilité vis-à-vis des données personnelles. Une directive européenne de 2013 encadre l’expérimentation animale avec, notamment, l’évaluation éthique des protocoles utilisant des animaux à des fins de recherche. Depuis 2016, la formation des doctorants doit obligatoirement comprendre un module sur l’éthique de la recherche et l’intégrité scientifique.

Statut juridique des données et des contenus

Un contexte favorable à l’ouverture

Le partage et la visibilité sont des principes essentiels dans la recherche et l’enseignement. En 2002, l’initiative de Budapest pour l’accès ouvert à la littérature scientifique, puis en 2007, la déclaration de Berlin qui élargit le concept à l’ensemble de la production scientifique, affirment l’engagement de la communauté scientifique à garantir l’accès libre (mais pas obligatoirement gratuit) aux données de recherche produites en son sein. Cet engagement s’applique dans l’absolu aussi bien aux publications qu’aux données produites en amont de ces dernières, même si, historiquement, il s’est appliqué pendant plus de dix ans aux seules publications (Déclaration de Berlin, 2003 ; OCDE, 2007).

D’autre part, depuis juillet 1978 (Loi 1978-753), la législation française et européenne a évolué, élargissant toujours davantage le principe de l’ouverture des données publiques : loi de 2003 sur l’ouverture des données publiques, directive européenne Inspire de 2007 visant à établir une infrastructure d’information géographique dans la Communauté européenne pour favoriser la protection de l’environnement. À l’échelle européenne, l’UE franchit un pas avec Horizon 2020, en rendant obligatoire la diffusion en libre accès de l’ensemble des productions (publications et données) issues de travaux financés dans le cadre de projets H2020, notamment au travers de sa plateforme OpenAire dédiée aux publications. Enfin, la Loi pour une république numérique vise à favoriser la circulation des données et du savoir, et établit le principe de l’ouverture des données (Loi 2016-1321).

L’état du droit pour les données et les contenus scientifiques

La plupart des contenus scientifiques sont protégés pas le régime juridique du droit d’auteur classique (Code la propriété intellectuelle, article L113-1 et suivants). Tous les écrits scientifiques, les conférences, les logiciels sont protégés. Ce n’est pas le cas des données de manière générale, car elles ne sont pas réputées avoir un auteur. Cependant, le fait de réunir et de structurer les données entre elles est protégeable juridiquement par le droit sui generis des bases de données, par le droit des contrats, ou par le droit d’auteur dans certaines conditions de production.

Avec le développement du Web et de la diffusion de textes et désormais de données, des formes alternatives de protection se sont mises en place pour s’adapter juridiquement aux nouvelles formes de diffusion. Les licences creative commons (CC) sont utilisées pour les textes et documents principalement. Leur principal objectif est de diffuser et de partager des œuvres sur le Web en proposant une solution alternative légale que le droit classique ne pouvait pas complètement couvrir. Les licences CC proposent donc que l’auteur soit acteur des conditions de diffusion de son œuvre sur Internet.

Une nouvelle directive sur le droit d’auteur

Au niveau européen, les développements juridiques autour de la question du droit d’auteur et de la révision de la directive de 2011 concernant le droit d’auteur (directive dite copyright) et visant à étendre le périmètre des exceptions au droit d’auteur sont importants, tant pour les droits patrimoniaux que pour le droit moral de l’auteur. Pour certains juristes, à force d’exceptions au principe du droit d’auteur, c’est le droit d’auteur lui-même qui pourrait finir par devenir l’exception. L’objectif de ces initiatives est de permettre aux créateurs de contenus de percevoir une plus grande partie des revenus générés par la diffusion de leurs productions et œuvres sur Internet.

La problématique des données personnelles

Le Règlement général pour la protection des données (RGPD, ou GDPR en anglais, pour General Data Protection Regulation) a été adopté par le Parlement européen le 14 avril 2016, et est en vigueur depuis le 25 mai 2018. L’objectif est de garantir à chaque personne le contrôle de ses données personnelles. Le RGPD met en œuvre de nouvelles exigences. Tout traitement de données personnelles au sein des établissements devra être inscrit sur un registre interne, et maintenu à jour. Il s’agit donc d’un changement culturel majeur : on passe de la vérification de conformité a priori, au principe d’accountability, de responsabilisation avec une vérification a posteriori des bonnes conditions de traitement.

Hypothèses d’évolution à 2040 pour « Éthique et cultures numériques »

À partir des analyses précédentes, quatre hypothèses d’évolution de l’éthique et des cultures numériques dans l’ESR ont été élaborées.

Un numérique pour tous

En 2040, l’ESR est resté en phase avec l’évolution de la société. Une forte coopération science-société s’est structurée incluant des groupes porteurs d’enjeux et mobilisant les technologies numériques. Organisés sur des plateformes Web, les porteurs d’enjeux éthiques jouent un rôle d’alerte, et leurs actions induisent des réorientations de la recherche et de l’enseignement, en constituant des contrepouvoirs utiles au traitement d’enjeux communs.

L’adaptation proactive au numérique par l’éducation a permis de devancer les innovations numériques et d’anticiper leurs effets sur la recherche et l’enseignement. Des dispositifs de régulation publique des usages du numérique ont instauré la confiance entre les scientifiques et les acteurs sociétaux. L’ouverture des données et l’innovation ouverte se sont généralisées, et les licences ouvertes ont favorisé la circulation des données et des connaissances, et les interactions entre acteurs. Ainsi les frontières s’effacent entre les acteurs du monde académique et ceux de la société. Des coopérations entre chercheurs institutionnels et chercheurs amateurs s’instituent au sein de plateformes numériques de recherche. De façon similaire, le rôle de l’enseignement statutaire est reconfiguré. Centré sur des plateformes d’apprentissage en ligne, le rôle de l’enseignant consiste à accompagner des cursus de formation des apprenants et à structurer des contenus de formation adéquats à partir des ressources diverses en ligne.

Un numérique clivant dans les relations ESR-société

La méfiance de la société vis-à-vis de la sphère publique en général augmente, ce qui entraîne une perte de crédibilité envers les acteurs de l’ESR public et le monde académique en particulier. Le développement d’une intelligence artificielle de plus en plus performante pousse les citoyens à remettre en cause le rôle des enseignants et des chercheurs : ceux-ci ne sont plus reconnus comme des références en matière de production et de transmission de connaissances, ni comme experts à consulter pour les choix scientifiques et techniques. La population se tourne vers des acteurs émergents issus notamment du privé et du monde associatif, qui dominent les modes de communication numériques pour disséminer leurs idées et constituent de véritables contrepouvoirs.

Le monde académique, qui n’a pas pris en main de façon active son acculturation aux nouveaux outils numériques, est distancé par ces nouveaux relais d’opinion et sa crédibilité baisse encore. Il ouvre ses données mais elles sont rares, du fait de la faiblesse de l’État, et ses capacités financières à capter d’autres données sont modestes. Il cohabite avec une donnée ouverte maîtrisée par des Gafam très puissants, non contraints, qui préconisent l’ouverture des données de la part de l’ensemble des acteurs, jouissent des données publiques, du travail des bénévoles et des traces des consommateurs, mais ne communiquent pas leurs algorithmes et captent les métadonnées ouvertes pour en faire un usage commercial.

Tensions et dialogues de sourds

L’autorité scientifique du monde académique est constamment contestée sur les réseaux sociaux par différents acteurs : conflits, débats, tensions se multiplient autour des sujets scientifiques à impact sociétal. Le numérique est ainsi source de conflits dans les relations sociales. Le monde académique défend la culture de la science ouverte, mais comme il n’existe aucun vrai dialogue entre les groupes d’opinions différentes, il entre en tension avec les défenseurs de la culture propriétaire, et les deux coexistent sans évoluer. Le monde académique entre en compétition avec de nouveaux acteurs qui ne sont pas véritablement contraints, à la différence des agents publics, et qui en utilisent les données. Des conflictualités sociales, économiques et politiques sont générées par le numérique dans tous les secteurs.

Régulation et usages raisonnés du numérique

Le temps de l’usage non maîtrisé et non régulé du numérique est terminé. La rareté croissante des ressources nécessaires au fonctionnement et à la production des outils numériques conduit l’État à en réguler les usages. Seuls certains secteurs peuvent utiliser sans restriction les outils numériques. Après une phase de contestation, la société a intégré le fait que pour poursuivre quelques activités numériques, elle devait développer des usages raisonnés.

Contexte : société, économie et politique

Mélanie Gerphagnon, Caroline Martin, Marco Barzman, Fabrice Phung

La transition numérique est d’abord une transformation sociétale. Elle modifie les relations sociales, le travail et le rapport au temps et à l’espace, les activités économiques, ainsi que la prise en compte de l’environnement. La gouvernance est elle aussi impactée, car les usages du numérique ont des répercussions sur l’organisation politique. C’est ce contexte général de la transition numérique dans la société qui est traité dans ce chapitre.

Sensibilisation aux défis environnementaux

Depuis les années 1990, le mouvement environnementaliste se renforce. Le changement global est désormais connu, visible et ressenti par tous : augmentation de la fréquence des évènements climatiques extrêmes, chute avérée de la biodiversité, hausse du niveau de la mer, pollution de l’air et de l’eau… La lutte contre le changement climatique arrive en tête des attentes de la société française vis-à-vis de l’État (Repères, 2015). La transition écologique et la période clef que nous traversons ne peuvent être traitées indépendamment des transformations sociétales en cours, parmi lesquelles la transition numérique occupe sans doute une place centrale.

La transition numérique est souvent associée à la transition écologique. Les discours sur le numérique portent une promesse d’optimisation ou de réduction de l’utilisation des ressources dans tous les secteurs : agriculture (smart farming), économie (e-commerce), transport (smart transport), énergie (smart grids). Pourtant, le numérique consomme d’importantes quantités d’énergie et de ressources naturelles telles que les terres et métaux rares (lithium, indium, cobalt) eux-mêmes nécessaires à la production d’énergies renouvelables.

Bien que le numérique constitue un levier pour s’adapter au changement climatique (par exemple le paradigme IT for Green), son interaction directe avec la transition écologique est pour le moment peu prise en compte dans l’élaboration des politiques publiques internationales (The Shift Project, 2018). Les technologies numériques sont envisagées comme une façon de réduire les impacts de l’activité humaine sur l’environnement. Elles pourraient réduire les déplacements, le gaspillage de papier et de temps, augmenter la collaboration et le partage, et faciliter la mise en place de réseaux d’énergie intelligents, d’un monitoring permanent de l’environnement, ou d’une agriculture de précision… Cependant, l’impact du numérique sur les écosystèmes et les populations est conséquent. Par exemple, la fabrication annuelle de smartphones utilise près de 9 000 tonnes de cobalt, soit environ 10 % de la production totale de ce métal (The Shift Project, 2018). Par ailleurs, certains métaux indispensables à la fabrication des outils numériques le sont également pour la fabrication d’équipements nécessaires à la production d’énergie renouvelable (éolienne, panneaux solaires) ; c’est le cas de l’indium, du cobalt, ou encore du manganèse (Banque mondiale, 2017). La plupart de ces métaux se raréfient (Halloy, 2018). La situation est d’autant plus préoccupante que leur taux de recyclage est à l’heure actuelle inférieur à 1 % (The Shift Project, 2018). Par ailleurs, le bilan carbone du secteur du numérique est en croissance forte. Ces émissions sont générées par les data centers (25 %), les infrastructures de réseau (28 %) et les équipements des consommateurs (47 %) (Tinetti et al., 2016).

Il existe donc un antagonisme possible entre ces deux transitions importantes, numérique et écologique — alors que toutes les deux devraient être mises en place, pensées et élaborées de manière complémentaire. À l’avenir, le secteur du numérique pourrait être contraint d’évoluer vers des technologies et des usages plus sobres en énergie et en ressources.

Le numérique dans la société

Les impacts du numérique dans la société ne sont pas encore clairs, car nous n’avons que peu de recul sur ces transformations. Si ses nombreux bénéfices expliquent son succès actuel, d’autres conséquences sont plus problématiques : l’infobésité, une réduction de l’attention, une surintensification du travail, une transformation des liens sociaux et du rapport au temps. La sphère privée est autant impactée par les transformations sociétales apportées par le numérique que la sphère professionnelle, et les contours de ces sphères s’effacent avec les usages du numérique.

La transition numérique est aussi marquée par une inégalité dans les usages de ces outils. Les différentes populations n’ont pas forcément le même accès au numérique, selon leur origine géographique ou sociale. Les usages du numérique ne sont pas encore bien compris. L’esprit critique vis-à-vis de ses outils et de ses usages pourrait devenir une compétence indispensable. L’avenir du rôle attribué au numérique dans la société est donc encore incertain.

Accès au numérique

Alors qu’en 2004, seuls 30,5 % des ménages étaient munis d’une connexion Internet, ils étaient 78 % en 2014. Même si des différences générationnelles, territoriales et entre classes sociales existent, elles diminuent depuis 2011. Par exemple, une étude Insee rapporte que les écarts de connexion à Internet entre communes rurales et agglomération parisienne sont passés d’environ 40 % en 2004 à seulement 13 % en 2011. De plus, les différences entre classes sociales marquées au début de la décennie sont elles aussi en train d’être résorbées. En effet, les classes populaires ont en grande partie rattrapé leur retard de connexion à Internet, avec un taux désormais proche de celui des classes moyennes et supérieures : entre 2006 et 2017, en France, la proportion d’employés ayant une connexion Internet à domicile est passée de 51 à 93 %, celle des ouvriers de 38 à 83 % (Credoc, 2017).

Cependant, l’accès au numérique ne se réduit pas à la connectivité Internet : il demeure des différences d’usage et de capacité d’usage. En effet, les niveaux d’étude et de revenus restent des facteurs déterminants d’inégalité face au numérique. En 2017, en moyenne 40 % des personnes ayant des bas revenus et 74 % des personnes non diplômées ne s’estiment pas compétentes pour utiliser un ordinateur (Rapport Marsouin, 2017). De nombreuses actions sont donc requises pour encapaciter l’ensemble de la population française et permettre à tous un accès aux outils numériques.

Impacts du numérique sur la santé, infobésité et économie de l’attention

Les écrans — smartphones, tablettes, TV — sont désormais omniprésents dans les foyers français. Une étude menée par le CSA en 2017, sur 10 000 foyers de France métropolitaine, rapporte que le nombre moyen d’écrans par foyer permettant de regarder de la vidéo s’est stabilisé autour de 5,5 depuis 2014. De nombreuses études sont menées afin d’évaluer leurs effets sur la santé (Serres, 2012 ; Fourgous, 2012 ; Tisseron, 2013). Une revue de littérature menée par Blocquaux (2017) révèle très clairement des points de vue opposés d’experts allant d’une vision « techno enjouée » aux « articles de presse anxiogènes ». L’omniprésence des écrans dans les foyers français couplée à un accès facile à Internet permet des usages (communication, information, diffusion…) et des supports (infographie, podcasts, vidéos, photos…) numériques multiples. Cette connexion permanente au monde offre l’accès à de très nombreuses informations en continu.

En 1993, David Shenk crée le terme « infobesity » (infobésité) pour désigner le trop-plein de « masse grasse » provoqué par le bombardement d’informations, par analogie avec la pathologie qu’est l’obésité. Le numérique permet en effet de démultiplier le nombre, les sources et les types d’informations auxquelles nous avons accès, à un tel point que l’attention des individus est devenue une ressource rare. Cette rareté est à l’origine d’un concept formulé par Simon (1971) : l’économie de l’attention. Gloria Mark, chercheuse à l’Université de Californie, montre que le temps d’attention moyen a diminué drastiquement au cours de la dernière décennie : en 2004, la moyenne de concentration des personnes par activité était de 3 min ; en 2012, ce temps était en moyenne de 1 min 15 s, et si l’on s’intéresse aux millennials, nés avec les smartphones et Internet, ce temps est réduit à 40 s (Mark et al., 2016a).

La sphère professionnelle n’est pas exempte d’infobésité. Ce phénomène est particulièrement étudié sur les populations d’employés fortement impactées par les technologies de l’information et de la communication (TIC) telles que les cadres. Le sociologue Thierry Venin démontre le lien étroit entre TIC et stress au travail (Venin, 2013). Dans de nombreuses études, l’avalanche d’e-mails, l’injonction d’y répondre mais aussi le multitasking (multitâche) permis par les TIC sont désignés comme principales sources de stress (Mark et al., 2008 et 2016b ; Felio, 2013 ; Venin, 2013). Par ailleurs, les TIC participent à une intensification et à une densification du travail avec une course à l’urgence, une pression temporelle, celle de l’instantanéité. Outre le coût pour la santé individuelle des employés, le stress au travail présente un coût pour la société entière puisqu’une étude menée par l’INRS (l’Institut national de recherche et de sécurité pour la prévention des accidents du travail et des maladies professionnelles) conclut que : « le coût social du stress (dépenses de soins, celles liées à l’absentéisme, aux cessations d’activité et aux décès prématurés) a été estimé en 2007 entre 2 et 3 milliards » (Trontin et al., 2010).

Ces coûts peuvent sans doute être revus à la hausse compte tenu de l’augmentation de l’usage des TIC au travail au cours de ces dix dernières années. Du fait des conséquences du numérique sur de très nombreux employés, la législation française a d’ailleurs promulgué un nouveau droit : le droit à la déconnexion.

Le numérique et l’information

La désinformation, l’organisation de l’ignorance et les infox ne sont pas apparues avec le numérique. Alors que le centenaire de l’armistice a été célébré récemment, il est de circonstance de rappeler que l’expression « bourrage de crâne » est née à cette époque où les journaux soumis à la censure étatique et relatant des faits inexacts, ou infox, proliféraient. La même stratégie que celle utilisée par l’industrie du tabac est actuellement employée par des lobbies pour semer le doute sur l’existence du changement climatique (Oreskes et Conway, 2016). L’apprentissage de la critique de l’information est donc désormais devenu nécessaire pour savoir dénouer le vrai du faux (Sahut, 2017). Cet apprentissage est sans doute encore plus urgent dans un contexte où la réalité virtuelle et les procédés permettant de modifier la réalité (deep fake) progressent de manière fulgurante (Foer, 2018). En 2017, 73 % des Français ne font pas confiance aux informations sur les réseaux sociaux (Credoc, 2017). Dans l’enseignement supérieur, les étudiants déclarent se référer à l’autorité de la source et à sa réputation pour valider la véracité d’une information. Cependant, lors de leurs propres recherches d’information, ils oublient leurs critères d’évaluation (Kim et Sin, 2011).

Paradoxalement, le numérique facilite le lancement d’alertes, offrant ainsi aux citoyens et aux médias les données qui leur manquent pour critiquer une position officielle. En effet, cet outil permet de révéler des informations issues de fuites de grande envergure. Les Panama Papers et les Football Leaks sont par exemple basés sur des millions de documents. Sans le support numérique, il est peu probable que de si grandes quantités de données aient pu être analysées si rapidement.

L’économie numérique

L’économie numérique concerne la production des biens et services supportant le processus de numérisation de l’économie. Elle englobe les activités économiques et sociales qui sont activées par des infrastructures telles que les réseaux fixes ou mobiles, les plateformes logicielles et les capteurs. Elle ne se limite pas à un secteur d’activité en particulier, son périmètre est donc difficile à cerner. Dans la statistique publique, l’économie numérique est assimilée aux technologies de l’information et de la communication (TIC), et en particulier aux secteurs producteurs (Lemoine, 2014).

La révolution de l’économie numérique

La contribution totale de l’économie numérique à la croissance des pays est composée d’un effet direct via l’accumulation de capital numérique, et d’un effet indirect mesuré par la diffusion du capital numérique dans le système productif. En France, le numérique représente 5,5 % de la valeur ajoutée créée, et son poids dans la contribution à la croissance est plus important que celui des secteurs traditionnels. L’introduction du numérique dans l’économie se fonde sur trois piliers structurants :

  • un pilier technologique, à travers les capacités de transmission et de traitement de données toujours plus massives, le développement de l’intelligence artificielle et des objets connectés ;
  • un pilier économique, avec l’apparition d’acteurs économiques puissants (la valeur cumulée des Gafam est similaire à la valeur totale du CAC40) qui sont en mesure de réorganiser les chaînes de valeur et d’imposer de nouveaux modèles d’affaires ;
  • un pilier social, avec de nouveaux modes de sociabilité et d’action collective. Le numérique stimule les innovations d’usage et de consommation, mais appelle aussi de nouveaux modes de régulation et de gouvernance économique.

L’économie numérique influence donc tous les secteurs d’activité, est à l’origine de nouveaux secteurs, et a rendu l’existence d’autres secteurs dépendante d’elle (Lemoine et al., 2011). De manière générale, la transformation numérique des secteurs économiques traditionnels et la « plateformisation » (nouvelle forme d’organisation) ont engendré plusieurs phénomènes (INRS, 2016) :

  • une désintermédiation et une ré-intermédiation des chaînes de valeur, où les consommateurs deviennent des acteurs, où de nouveaux acteurs apparaissent et où la donnée devient une ressource nouvelle et centrale dans la chaîne de valeur ;
  • une automatisation, avec des effets sur la productivité du travail, du capital, et sur l’usage de l’énergie et des matières premières ;
  • une dématérialisation, avec l’émergence de nouveaux canaux de communication, et des coûts de transaction en forte baisse.

L’économie numérique en France

La France a subi une forte désindustrialisation au cours des 25 dernières années, compensée en partie par une montée en puissance des services, représentant aujourd’hui 78 % de l’emploi dans le pays. Cette désindustrialisation est due au transfert de certaines unités de production vers des pays à plus faible coût de main-d’œuvre, à une intensification du travail qui a mené à la réduction des effectifs, à un recours accru aux entreprises extérieures, et enfin à une forte mutation technologique. Les TIC ont modifié la relation client/fournisseur à travers une dématérialisation des échanges (automates, Internet dans les banques, services postaux, assurance…). Elles ont par ailleurs permis le développement de l’e-commerce, qui, dans un contexte de mondialisation de la production, a concouru à l’augmentation des échanges et au fort développement des activités de logistique. C’est le domaine des services qui représente le plus grand poids économique des TIC (87,4 %). Si l’on considère l’e-commerce dans sa globalité, ce sont le commerce de détail (23,1 %) et l’industrie (20,4 %) qui ont les plus forts poids dans les ventes par Internet (Ministère de l’Économie et des Finances, 2017). Ainsi, une enquête Eurostat (2016) montre que 66 % des particuliers en France réalisent au moins une commande en ligne sur une année — valeur au-dessus de la moyenne européenne (55 %), mais qui reste derrière celle rapportée pour le Royaume-Uni (83 %) et la Suède (76 %).

La nouvelle révolution numérique de la blockchain

L’économie pourrait être complètement bouleversée et transformée par la blockchain9. Les opérations entourant les échanges — appels d’offres, validations partielles par des tiers, règlements conditionnés — pourraient être gérées automatiquement et en confiance grâce aux smart contracts. Pour résumer, l’économie deviendrait en partie programmable. Depuis quelques années, un écosystème dynamique se développe progressivement, avec des startups, des cabinets de conseil et l’implication de grandes entreprises qui étudient le sujet et y dédient des ressources. La blockchain pourrait ainsi provoquer une véritable mutation dans la chaîne de valeur. Les plateformes numériques, qui sont des systèmes centralisés, ne sont pas à l’abri. Il reste néanmoins encore des obstacles pour son développement dans le commerce, car l’enregistrement des transactions va à l’encontre du secret des affaires par exemple. D’autre part, la nature même de la blockchain utilisée et de ses caractéristiques fondatrices (à la fois publique et décentralisée) continue de poser des difficultés importantes pour une application à grande échelle, au domaine financier par exemple (Waelbroeck, 2007 ; France Stratégie, 2018).

Les risques de la transformation numérique de l’économie

L’impact du numérique sur la fonction de production et sur la productivité pourrait amener ce secteur à capter la valeur et des marges, mais également remettre en cause l’équilibre même d’un marché (Lemoine, 2014). De plus, le risque que la place de l’humain dans l’économie soit reléguée à une simple variable de production, au même niveau que les machines voire moins, car considéré comme peu fiable, n’est pas à négliger. Un risque similaire est anticipé en lien avec le développement de l’intelligence artificielle appliqué à l’industrie (Ministère de l’Économie et des Finances, 2016).

9. Définition Wikipédia 18 août 2018 : « Une blockchain, ou chaîne de blocs, est une technologie de stockage et de transmission d’informations sans organe de contrôle. Techniquement, il s’agit d’une base de données distribuée dont les informations envoyées par les utilisateurs et les liens internes à la base sont vérifiés et groupés à intervalles de temps réguliers en blocs, l’ensemble étant sécurisé par cryptographie, et formant ainsi une chaîne. »

Politique et acteurs du numérique

Le numérique — données, outils, usages — a acquis une importance majeure pour une grande diversité d’acteurs en tant que ressource commerciale et en tant que source de biens communs. La façon dont cette ressource est partagée entre les différents acteurs du numérique est une question politique qui impacte toute la société, et notamment la recherche et l’enseignement supérieur. La situation est nouvelle, changeante, et les rôles des différents acteurs concernés — les grands acteurs économiques, les startups, les citoyens et la sphère étatique — ne sont pas encore définis.

Des grands acteurs économiques du numérique…

Les grands acteurs économiques du numérique — Gafam (Google, Amazon, Facebook, Apple, Microsoft) pour les groupes essentiellement états-uniens, et BATX (Baidu, Alibaba, Tencent et Xiaomi) pour les groupes chinois — ont bénéficié d’une large liberté qui leur a permis d’acquérir un degré important de maîtrise sur les ressources numériques et leurs usages. Ces géants du numérique poursuivent leur montée en puissance et captent un nombre croissant de fonctions auparavant prises en charge par la sphère publique. Ils sont devenus, par exemple, incontournables dans la communication d’urgence associée à la gestion des catastrophes. Ils pourraient s’impliquer dans les fonctions régaliennes de l’État et, à l’aide de systèmes de modélisation et d’intelligence artificielle d’aide à la décision, s’immiscer dans l’élaboration de politiques publiques — un scénario imaginé par Misuraca et al. (2012) intitulé Privatised Governance.

… et des plus petits

La nature dynamique de la ressource et l’émergence accélérée de nouveaux usages favorisent également la création d’un grand nombre de petites entreprises dynamiques, les startups. Si elles atteignent la réussite économique, les startups fusionnent souvent avec de plus grandes entreprises. Il existe aussi une large population d’acteurs économiques qui ne sont actuellement pas reconnus. Il s’agit de la multitude de contributeurs (individuels ou collectifs) dont l’activité en ligne génère de nouvelles ressources (Moulier-Boutang, 2010 ; Casilli, 2019). Avec la montée en puissance des réseaux sociaux, l’organisation de boycotts et de campagnes d’information, et la création de contre-pouvoirs, des communautés issues de la société civile pourraient se coordonner pour participer activement à la gouvernance — c’est ce type d’évolution qui est développé dans le scénario de Self-service Governance de Misuraca et al. (2012).

Le rôle de la sphère étatique

Dans ce contexte marqué par une domination globale de quelques acteurs économiques, la sphère étatique peut choisir parmi trois postures. Elle peut soit tenter d’avoir une maîtrise complète des ressources numériques, comme c’est le cas pour la République populaire de Chine, soit adopter le laisser-faire pour favoriser des entreprises déjà en position d’avantage, comme cela semble être le cas pour les États-Unis. Ou bien encore, elle peut adopter une voie médiane pour éviter que la puissance et les intérêts commerciaux ne priment sur les questions d’accès, neutralité, qualité, et protection des utilisateurs et contributeurs. Il s’agit là de réguler l’économie et la politique du numérique sans toutefois les contrôler (Verdier, 2018), et de faciliter une démocratie numérique.

La puissance publique pourrait ainsi devenir garante d’une démocratie numérique à travers notamment un numérique inclusif et reconnaître la dimension de « biens communs » aux connaissances et aux données produites grâce aux outils numériques afin d’éviter leur captation par des acteurs privés ou publics (Alix et al., 2018). Il serait aussi du ressort des pouvoirs publics de réguler les plateformes privées pour qu’elles soient au service de l’intérêt général. L’adoption récente par les États européens du Règlement général sur la protection des données (RGPD) indique un effort allant dans le sens d’une régulation étatique. Mais pour commencer, les gouvernements doivent déjà se doter euxmêmes des outils et savoir-faire numériques qui leur permettent de ne pas se retrouver en retard de phase face aux usages du numérique en cours dans le reste de la société (Clarke et al., 2017).

Les acteurs de l’ESR

Les acteurs publics de l’enseignement supérieur et de la recherche constituent un élément important de l’innovation associée au numérique. Ils sont à la fois utilisateurs des ressources numériques et producteurs d’outils, d’infrastructures, de données et de connaissances. Il reste à voir comment évoluera leur relation vis-à-vis des autres producteurs et fournisseurs privés de ressources numériques. D’après le groupe de prospective Prosper (2019), une absence de gouvernance mondiale pourrait à terme limiter l’accès aux données et à certaines sources de connaissances nouvelles pour la recherche publique. Face à la puissance des géants du numérique, le groupe Prosper met aussi en avant l’importance pour l’ESR de disposer de compétences et de ressources numériques du meilleur niveau, de développer des infrastructures numériques pour la recherche, et de favoriser les coopérations stratégiques plutôt que la compétition entre acteurs de la recherche.

Hypothèses d’évolution à 2040 pour « Contexte : société, économie et politique »

À partir des analyses précédentes, cinq hypothèses d’évolution du contexte de l’ESR en 2040 ont été élaborées.

Urgence environnementale et usages durables du numérique

Face aux enjeux stratégiques de la gestion des ressources naturelles et énergétiques, l’État a donné d’énormes moyens à la recherche pour trouver des solutions, et a ainsi créé un cadre pour un usage durable du numérique. Dans les années 2030-2040, on a assisté à un retour de la planification. En 2040, l’Europe est désormais indépendante et assure sa propre souveraineté économique dans le secteur numérique (moteurs de recherche, plateformes, centres de stockage, ressources européennes). Une régulation et une coordination européenne et citoyenne des politiques numériques ont permis le développement d’un renouveau numérique, aux usages maîtrisés, non abusifs, plus positifs et respectueux de l’environnement. Ce nouveau monde numérique est utilisé par exemple pour recréer du lien social sur l’ensemble du territoire, et ainsi former des collectifs autour d’idées ou de projets de société en rapprochant des acteurs qui n’auraient pas eu l’opportunité de se rencontrer dans la vie du fait de l’éloignement géographique ou social. Cet ensemble entraîne un renouveau de l’engagement citoyen.

Nouvelle renaissance des communautés avec un capitalisme de proximité

En 2040, les outils numériques ont permis le développement d’une économie alternative qui tente de se détacher du modèle capitaliste néo-libéral en équilibrant les enjeux économiques, sociaux et environnementaux. L’ensemble de la société civile maîtrise désormais les usages du numérique, les citoyens ont développé un esprit critique sur la façon de vérifier l’origine des informations diffusées sur le Web. Cette maîtrise leur permet de s’organiser en communautés, de créer des contre-pouvoirs, et, in fine, de constituer un tiers secteur de la recherche qui contribue aux politiques publiques. L’usage du numérique est plus raisonné que dans les décennies passées. De plus, afin d’anticiper la raréfaction des ressources, des pans de recherche sont développés pour remplacer et recycler les terres rares, développer des technologies numériques sobres, utilisant peu d’énergie. L’ESR s’est emparé de l’urgence environnementale pour trouver des solutions durables.

Le plan Gafam

En 2040, les Gafam sont toutes puissantes et certaines fonctions régaliennes françaises et européennes sont entièrement gérées par les grands acteurs économiques du numérique. Les oligopoles numériques mondiaux, imposés au cours de la décennie précédente par les États-Unis (avec les Gafam) et actuellement par la Chine (Baidu, Alibaba), dictent leur régime économique à de nombreux secteurs d’activité et drainent l’ensemble des revenus économiques. La recherche et l’enseignement supérieur sont désormais gérés et financés directement par les Gafam. Sans le contrepoids étatique, ce sont dorénavant eux qui définissent les choix stratégiques et tactiques pour répondre aux défis environnementaux et sociaux liés à la raréfaction des ressources. Par ailleurs, les grandes entreprises privées contrôlent les données produites par les consommateurs et les citoyens : toutes les activités en ligne sont tracées, les relations analysées, les opinions politiques enregistrées par ces entreprises privées, et donnent lieu à un scoring de chaque citoyen.

L’État délègue des services publics au privé

L’État s’appuie sur des entreprises privées du numérique pour la gestion de l’action publique et la fourniture de services. Une multitude de plateformes de service se sont développées en utilisant les technologies de blockchain. Pour autant, l’État et les citoyens gardent un contrôle sur les technologies numériques à travers un débat public ouvert sur les usages du numérique et le fonctionnement des algorithmes, et des lois interdisant les situations de monopole et la captation des données. Cette démocratie technique s’appuie sur une régulation du numérique mise en place à l’échelle européenne.

Frugalité numérique subie

Avant 2040, les ressources ont été épuisées et les technologies numériques développées précédemment ne sont plus viables. Par manque d’anticipation, il n’existe pas de substitut et le recyclage des matériaux n’est pas efficace. La société ne peut plus développer ni même continuer ses pratiques numériques d’antan. Les pouvoirs publics mettent en place des régulations très restrictives qui limitent fortement les usages du numérique, notamment récréatif, sans pour autant les éliminer. La règlementation permet par exemple aux citoyens d’utiliser le numérique de façon raisonnée pour former des communautés organisées et coordonnées permettant une autogouvernance de la société civile et le développement d’une économie alternative, décroissante, qui essaye de ne pas se fonder sur le modèle classique capitaliste.

Organisation institutionnelle de l’ESR

Marco Barzman, Mélanie Gerphagnon, avec la contribution d’Évelyne Lhoste

Ce chapitre traite de la manière dont l’organisation institutionnelle de l’ESR détermine et est influencée par la transition numérique. Sont traités les enjeux liés à la structuration des organisations, au pilotage des institutions, au périmètre des métiers, et au modèle économique de l’ESR.

Structuration des organisations

La forme la plus traditionnelle d’organisation de la recherche est la coordination hiérarchique. Elle est typiquement dirigée par un « manager » et s’effectue à travers des relations verticales au sein d’un type spécifique de fonctions tel que ressources humaines, comptabilité, communication, formation, enseignement ou recherche. Elle engendre de fortes spécialisations et une gestion par « silos ».

Plus récemment, la coordination par projet est venue s’ajouter à cette organisation verticale. Elle est typiquement centralisée autour d’un « chef de projet » et favorise un fonctionnement plus transversal autour d’un objet tel qu’un produit, un projet de recherche, la conception d’une formation ou la réalisation d’un diplôme.

Aujourd’hui, le développement du numérique favorise d’autres types d’organisation qui prennent une importance croissante (Mallard, 2012 ; Clarke et al., 2017). C’est le cas du fonctionnement en réseau. Il se distingue des deux types de coordination précédents par sa situation dans la sphère informelle et par une organisation flexible et en mouvement permanent. Cette forme d’organisation est particulière aussi par son individualisation : chaque agent possède son propre réseau distinct de celui de ses collègues. Les outils numériques tels que messagerie électronique, forums, blogs ou wikis renforcent ce fonctionnement en réseau et permettent plus de diversité et un champ d’action mondial. Cette évolution contribue à l’apparition de nouvelles formes d’organisation décentralisées et horizontales. On parle par exemple d’entreprise libérée, de sociocratie, ou de gouvernance collégiale où la prise de décision est distribuée (Harmant, 2015 ; Jakubowicz, 2016). Ces systèmes, qui peuvent par ailleurs permettre des économies en management, ambitionnent de réduire les relations verticales, afin de favoriser l’intelligence collective, l’agilité et la flexibilité. Si le fonctionnement plus transversal et en réseau est perçu comme source d’innovation, il génère une complexité qui représente aussi un défi pour les institutions (Inra, 2016b).

Sur un autre plan, l’Internet et la mondialisation contribuent à exacerber la concurrence internationale entre les acteurs de l’ESR, en particulier entre les établissements d’enseignement. Les classements mondiaux des universités et l’effort de rationalisation des coûts poussent les organismes de recherche et les universités d’une même région à se regrouper localement. C’est ainsi qu’une politique de site — souvent associée à un effort de territorialisation — est mise en place. Elle vise à améliorer les classements mondiaux mais risque de créer des inégalités entre les établissements (Musselin, 2017).

En parallèle, se développent des pratiques de travail à la fois à distance et plus flexibles. Ces pratiques sont associées à l’émergence de laboratoires virtuels, d’espaces de coworking, de communautés d’apprentissage en ligne (par exemple autour de Moodle — Modular Object-Oriented Dynamic Learning Environment), et de plateformes de recherche collaboratives ou de prestations de services. Il reste à voir comment le regroupement géographique, censé favoriser les relations de proximité, et la flexibilité des relations numériques vont s’articuler.

Pilotage et stratégie des institutions

Dans un monde qui change, la façon de piloter l’ESR et les stratégies adoptées évoluent.

Parmi d’autres facteurs, le numérique joue un rôle dans cette évolution. Premièrement, les nouvelles orientations des institutions peuvent déterminer la place qui est donnée au numérique dans les moyens alloués à la recherche et à l’enseignement. Deuxièmement, les nouveaux outils et usages associés au numérique peuvent influer sur la façon de piloter la recherche et l’enseignement. Troisièmement, le numérique impacte les relations entre, d’un côté, la recherche et l’enseignement supérieur, et de l’autre, les acteurs de la société civile, qui participent de plus en plus à une diversité d’activités de l’ESR, y compris à la définition de ses orientations.

Les grandes tendances, indépendamment du numérique

Depuis les années 1980, le système de recherche et d’innovation se caractérise par le développement de formes hybrides de partenariat entre recherche publique et firmes industrielles, sous l’influence des politiques publiques néolibérales (Pestre, 2003). Ses enjeux économiques sont fixés conjointement par les acteurs de la recherche académique, l’État et les industries. L’orientation vers une recherche académique au service de la croissance économique et de l’innovation technologique est explicite depuis l’adoption de l’agenda de Lisbonne en 2000 (Jacq, 2016 ; MESR, 2009). La politique de site a aussi pour objectifs de resserrer les liens entre le monde académique et celui des entreprises.

En France, jusqu’aux années 1990, les grands organismes dédiés à la recherche ont intégré deux fonctions : celle de la programmation de la recherche et celle de sa réalisation. Plus récemment, et notamment à partir d’une série de réformes en 2005, ce système intégré tend à évoluer vers un système à fonctions séparées (Barré, 2011), tel que celui des États-Unis où des agences dédiées assurent la programmation et l’allocation des ressources pour des opérateurs qui sont souvent de grandes universités intégrant sur un même campus recherche et enseignement. Avec la territorialisation et la politique de site, on assiste aussi en France à un rapprochement entre les mondes de la recherche et de l’enseignement supérieur (Musselin, 2017).

La place du numérique dans l’enseignement et la recherche

La transition numérique est déjà un sujet à part entière dans la stratégie des institutions de l’ESR. Le contrat d’objectif de l’Inra, par exemple, vise notamment à améliorer sa capacité à la conduite du changement, un objectif qui passe par un « premier chantier essentiel en programmation des moyens et gestion du changement : assurer la transition numérique » (Inra, 2018). L’incertitude réside dans l’ampleur de l’investissement dans le numérique. La capacité d’investissement de l’ESR dans les nouvelles technologies sera-t-elle suffisante au regard des moyens des grands acteurs du numérique qui constituent des compétiteurs potentiels ?

Le rôle du numérique dans les orientations et le pilotage

En déclarant que la donnée « est désormais devenue l’or de ce siècle », le groupe de travail de cette prospective a souligné que la maîtrise des données pouvait déterminer la capacité de pilotage de la recherche et de l’enseignement. Celle-ci pourrait se réduire si des acteurs privés venaient à posséder la majorité des données. Plus généralement, la concentration du pouvoir économique de certains grands acteurs privés du numérique, ainsi que l’ubérisation de l’enseignement et de la recherche pourraient réduire la capacité de pilotage des institutions publiques de l’ESR. L’intelligence artificielle associée au data mining promet d’améliorer ou d’accélérer les processus sociotechniques de la production scientifique sur la base de la prédiction de la productivité scientifique des individus. Même si le succès de ces initiatives demeure imprévisible (Clauset et al., 2017), cette « science de la science » ambitionne d’orienter la recherche.

Le rôle de la société civile dans le pilotage

Deux tendances fondamentales de la société actuelle, évoquée précédemment, viennent faciliter l’ouverture de la recherche à la société civile : premièrement, les possibilités liées aux technologies numériques (réseaux sociaux et accès facilité à la connaissance) ; et deuxièmement, le niveau croissant d’éducation et la volonté des citoyens de participer activement à la vie publique. En France, le collectif Alliss réunit des instituts de recherche, des universités et des organisations du tiers secteur de la recherche (associations, coopératives, petites entreprises...) (Alliss, 2017).

L’OCDE (2017) plaide pour la consultation d’acteurs multiples dans des exercices de coconception des programmes de recherche. Ces exercices sont facilités par les technologies numériques et complètent les ateliers et forums impliquant les parties prenantes. En 2015, aux Pays-Bas, le ministère de l’Éducation, de la Culture et de la Science et le ministère des Affaires économiques se sont donné pour objectif de centrer plus fortement la science sur les questions sociétales et sur les liens entre une diversité d’acteurs producteurs de connaissances. Ils ont ainsi mandaté une consultation de grande ampleur en vue de définir un programme de recherche national (Dutch National Research Agenda, 2016).

Métiers et compétences

Le numérique transforme les métiers et les compétences de l’ESR en termes de création, disparition de métiers, division des tâches, ou répartition des temps de travail du personnel de l’ESR.

Un multitâche connecté

La communication entre individus et l’acquisition, le traitement et l’échange de données sont devenus fréquents et rapides, favorisant ainsi les collaborations nationales et internationales, tout en faisant émerger de nouvelles contraintes. Cependant, l’augmentation de la part du travail consacré au management de la recherche et à la recherche de financements tendrait à reporter le travail de recherche sur les doctorants (Barrier, 2011), tout en constituant un gage d’autonomie pour des professionnels qui, à défaut, seraient menacés de devenir « des travailleurs du savoir » au sein d’organisations gérées par des administratifs « purs » (Dahan et Mangematin, 2010). La structuration en mode projet peut affaiblir les liens au sein des collectifs plus classiques (Schultz, 2006). Quoi qu’il en soit, les compétences multiples et le multitâche prennent une place croissante dans les métiers de la recherche et de l’enseignement. Dans le monde du management, la notion de compétences T-shaped (en forme de T) définit un individu qui combine des compétences superficielles dans de nombreux domaines avec la connaissance approfondie d’un domaine particulier (CIPS, 2014). Ce type de combinaison de compétences pourrait devenir important dans l’ESR.

Les nouveaux collectifs d’enseignement

La chronophagie de la recherche de financement et du management des équipes est ressentie encore plus fortement dans le cas des enseignants-chercheurs, qui consacrent au moins 50 % de leur temps à enseigner (Taquet, 2015). En effet, ces professionnels doivent se renouveler régulièrement dans la mise en œuvre des innovations pédagogiques permises par le numérique pour attirer le plus grand nombre d’étudiants « de qualité ». En conséquence, les établissements d’enseignement réorganisent leur fonction d’enseignement, avec l’appui d’ingénieurs pédagogiques auprès des enseignants-chercheurs. Le métier d’ingénieur pédagogique se situe au carrefour de la pédagogie, des technologies et du multimédia. Il s’agit là d’un exemple de nouveaux métiers apparus avec le numérique.

Des métiers en devenir et d’autres en voie d’extinction

Dans les disciplines concernant l’étude du vivant, l’une des révolutions liées au numérique a été l’accélération de l’acquisition de données de l’analyse « -omique » (génomique, transcriptomique, métabolomique). Cependant, si l’accès à ces données est désormais possible pour tous, leur exploitation demande des connaissances et compétences fines en informatique. Pour cette raison, les métiers tels que bio-informaticien, chercheur en sciences de la donnée, et data analyst sont en plein essor au détriment de métiers concernant des pratiques plus empiriques et nécessitant peu d’acquisition et d’analyse de données massives.

Modèle économique de l’ESR : évolution des modes de financement de la recherche

Le financement de la recherche publique dépendant essentiellement des États et de l’Union européenne, le système de recherche et d’innovation s’est structuré dans une interdépendance entre l’État, les industries et l’économie. L’analyse des sources de financement de l’ESR montre une diminution des budgets propres des organismes de recherche, et une augmentation des financements sur projet par le biais de fonds européens, nationaux et régionaux, et dans une modeste proportion sur fonds privés.

En France, la part des dotations budgétaires de l’État aux organismes de recherche publique pour l’ensemble de leur activité est passée de 89 % en 1982 à 68 % en 2014 (MENESR, 2017). Elle finance dorénavant essentiellement les infrastructures et les salaires. Le financement récurrent par l’État des budgets de fonctionnement conférait aux chercheurs une marge dans le choix des thématiques et dans les délais de réalisation. Aujourd’hui, les chercheurs, pour leur fonctionnement et pour les infrastructures de financements par projet émanant de l’Europe, sont plus dépendants de l’État, de l’ANR (Agence nationale de la recherche) et des Régions. Les budgets des programmes-cadre de l’Union européenne dédiés à la recherche ont été multipliés par 3,5 depuis leur création, alors que ceux de l’ANR ont pour leur part été réduits de 37 % depuis 2005. Ces deux modèles de financement sur projet sont très sélectifs, et certains chercheurs s’interrogent sur le bénéfice de répondre à ce genre d’appel d’offres lorsque le taux de sélection est inférieur à 20 % (von Hippel et von Hippel, 2015). Quel que soit leur degré de liberté thématique, il n’en reste pas moins que ces programmes et appels d’offres ont une durée limitée avec des échéances et des objectifs précis.

Hypothèses d’évolution à 2040 pour « Organisation institutionnelle de l’ESR »

À partir des analyses précédentes, quatre hypothèses d’évolution de l’organisation institutionnelle de l’ESR ont été élaborées.

Des puissances publiques (État et/ou Europe) planificatrices

Les données sont devenues l’or noir du XXIe siècle. Les puissances publiques ont le monopole de la gestion des données de recherche, d’enseignement supérieur, et plus globalement, des données de l’ensemble des individus du territoire européen. Avec ces métadonnées, elles ont développé une IA (intelligence artificielle) performante qui définit les thématiques de recherche et les formations les plus prometteuses. Il en résulte une spécialisation des métiers scientifiques où chaque individu apporte des compétences identifiées comme utiles à la recherche de demain, spécifiques et complémentaires à celles des collègues. Afin de favoriser les collaborations, l’Europe (ou des États) finance de nombreux échanges d’étudiants, de postdocs et de chercheurs. Cela assure à l’Europe une excellence scientifique reconnue internationalement et permet aux chercheurs de s’intégrer dans des réseaux dynamiques pour répondre aux appels d’offres internationaux.

Une ubérisation de la recherche et de l’enseignement supérieur

En 2040, la recherche et l’enseignement supérieur sont organisés autour de plateformes financées par des partenariats public-privé et les chercheurs et enseignants-chercheurs sont désormais de véritables auto-entrepreneurs. Les métiers de la recherche et de l’enseignement supérieur ont évolué vers une spécialisation accrue. Les chercheurs ont désormais des profils spécifiques tels que « rédacteurs d’articles », « expérimentateurs », « réviseurs », « enseignants » ou « gestionnaires de projets ». Les projets que décrochent les chercheurs auto-entrepreneurs leur permettent de financer leur salaire et ceux du personnel contractuel qu’ils ont embauché. En 2040, les laboratoires ne sont plus que virtuels et à durée de vie limitée. Afin de répondre à des appels d’offres, les chercheurs s’organisent en collectifs provisoires grâce aux plateformes collaboratives financées par des partenariats public-privé. Ces dernières ont accès à l’ensemble des données personnelles et professionnelles des chercheurs, ce qui leur permet de mettre en relation des individus ayant des compétences complémentaires et, en cas de succès, la plateforme se rémunère sur le budget du projet. Pour réaliser le travail de recherche, les collectifs utilisent des plateformes de prestation de services qui centralisent des ressources et fournissent les infrastructures et le matériel absents des laboratoires virtuels.

Les métropoles en concurrence

La recherche et l’enseignement supérieur publics se sont territorialisés et sont désormais organisés autour des métropoles françaises. Des pôles d’excellence, financés en grande partie par l’État, sont organisés autour des grandes infrastructures dites d’avenir en 2020. Ils sont en concurrence à l’international. Les institutions ont organisé une forte mobilité géographique pour redistribuer les chercheurs sur l’ensemble du territoire. Cette mobilité géographique se double d’une flexibilité disciplinaire qui est facilitée par les instituts. Les centres de recherche et les universités des métropoles qui ne sont pas labellisés d’excellence sont gérés directement par les Régions et proposent des thématiques et enseignements liés aux enjeux territoriaux. Les stratégies de recherche s’articulent donc aux besoins du territoire. Grâce à la visibilité dont bénéficient leurs réseaux sociaux, aux relations de proximité entretenues avec les universités, et à la démocratie participative, des acteurs de la société civile peuvent contribuer à la définition des enjeux de recherche et d’enseignement.

Une recherche et un enseignement privés pilotés par l’IA

Une augmentation progressive du financement de la recherche et de l’enseignement supérieur par les entreprises a résulté, en 2040, en une privatisation totale de ces deux secteurs. Pour s’adapter, les chercheurs et enseignants-chercheurs adoptent une grande flexibilité géographique et thématique. Les laboratoires et communautés d’apprentissage virtuels se généralisent et permettent une organisation interdisciplinaire, souple et dynamique, mieux adaptée aux financements de projet de courte durée. Le secteur privé, avec des moyens importants et une grande marge de manœuvre vis-à-vis de la règlementation sur les données, développe une diversité d’IA performantes permettant de piloter les systèmes de recherche et d’enseignement supérieur. Dans la recherche comme dans l’enseignement, les secteurs jugés prometteurs pour la recherche et l’innovation technologique, ainsi que les domaines de recherche finalisée sont préférentiellement financés au détriment de domaines orphelins.

Partie II Présentation des scénarios

Quatre scénarios

Marco Barzman, Mélanie Gerphagnon, Geneviève Aubin-Houzelstein, Alain Bénard, Olivier Mora

Les quatre scénarios présentés ici ont été construits en s’appuyant sur un tableau morphologique qui rassemble les hypothèses d’évolution des composantes présentées dans la première partie. Les scénarios ont été élaborés sous la forme d’une combinaison d’hypothèses d’évolution (figure 5) et approfondis dans des récits décrivant des avenirs contrastés de l’ESR à l’horizon 2040.

Analyse morphologique du système en 2040

Les 31 hypothèses d’évolution à l’horizon 2040 des composantes présentées en

détail dans la première partie ont constitué la matrice ou tableau morphologique nécessaire à l’élaboration des scénarios. Ce tableau et les quatre scénarios d’évolution sont présentés ci-dessous.

Le groupe de travail, avec l’appui de l’équipe projet, a identifié plusieurs combinaisons pertinentes et cohérentes des hypothèses d’évolution (figure 5), qui ont permis de construire quatre scénarios contrastés :

  • Scénario 1 : L’ESR au pied des géants du numérique ;
  • Scénario 2 : L’ESR et le numérique pour la préservation de la planète ;
  • Scénario 3 : Les écosystèmes numériques territorialisés de l’ESR ;
  • Scénario 4 : L’ESR face à la frugalité numérique.

Quatre futurs possibles pour envisager l’avenir

Les combinaisons d’hypothèses ont été affinées et converties en récits qui explicitent les chaînes de causalité et les interdépendances entre les différentes dynamiques décrites dans les composantes à l’œuvre dans chaque scénario. Les récits des scénarios sont présentés ci-après.

Figure 5. Tableau morphologique présentant les 31 hypothèses d’évolution de composantes et leur combinaison aboutissant aux quatre scénarios.

Les hypothèses d’évolution de composantes non surlignées en couleur n’ont pas été incluses dans les scénarios.

Scénario 1 : l’ESR au pied des géants du numérique

Les géants du numérique, par leur capacité à manier les ressources et les outils numériques et à proposer des services à la société civile, se sont imposés comme des acteurs centraux de la recherche et de l’enseignement. Depuis 2030, le nombre de chercheurs et d’enseignants-chercheurs dans l’ESR — public — s’est réduit avec le départ de nombreux scientifiques vers le privé. Désormais, le début d’une carrière scientifique s’effectue sous un statut d’auto-entrepreneur ou de salarié d’une entreprise. Les grandes firmes du numérique affichent leur engagement dans les sciences et l’innovation. Elles ont profité d’avantages fiscaux liés à l’investissement dans la recherche et l’enseignement supérieur, notamment en finançant et en développant depuis les années 2020 des plateformes d’intermédiation devenues essentielles aux activités de recherche.

Dans la recherche, des plateformes collaboratives et de prestation de services, gérées par les géants du numérique, permettent de conduire des recherches. Ces plateformes de mise en relation (matching), outillées par des intelligences artificielles, assurent la rencontre entre, d’un côté, des appels d’offres publics et des demandes d’entreprises privées et, de l’autre, des projets de recherche portés par des collectifs de chercheurs. La programmation de la recherche varie au gré des appels d’offres. Les plateformes collaboratives offrent aux chercheurs la possibilité de constituer le collectif de recherche qui optimisera leurs chances de remporter un appel d’offres. De plus, les plateformes de prestation de services garantissent l’accès à des données et à des puissances de calcul importantes. En effet, les approches orientées par les données et faisant appel à des intelligences artificielles sont le nouveau standard de la production de connaissances dans un grand nombre de domaines. En contrepartie, les plateformes s’approprient automatiquement les données produites par le collectif de chercheurs ayant utilisé leurs services. La validation des connaissances passe également par des plateformes en ligne où l’évaluation et la relecture sont réalisées en grande partie par l’intelligence artificielle. Les chercheurs sont évalués via les plateformes d’intermédiation : un scoring multifactoriel, déterminé par une intelligence artificielle, évalue le nombre et l’ampleur des projets dans lesquels ils sont impliqués, leurs publications et leurs financements. Une labellisation éthique complète ce scoring signalant leur degré de prise en compte des enjeux éthiques dans leurs recherches. L’activité des institutions de la recherche publique consiste désormais essentiellement à gérer la réputation des chercheurs, attribuant des labels à certains et les retirant à d’autres, dans une logique de marque (branding).

Dans l’enseignement supérieur, deux types de formation coexistent : un système privé sur des thématiques spécialisées, qui est le plus recherché par les étudiants, et un système public bénéficiant de moindres moyens sur les thématiques restantes. L’enseignement supérieur public persiste afin d’assurer une formation minimale à une large population mais sur des compétences non prioritaires pour les grands acteurs économiques. La fracture sociale et les inégalités sociales s’en trouvent renforcées. Les enseignants-chercheurs sont des auto-entrepreneurs évalués en fonction de leur notoriété numérique définie par scoring. La gratuité de certaines formations a un prix : les données personnelles et d’apprentissage des étudiants utilisant les plateformes d’enseignement des Gafam et BATX sont la propriété de ces entreprises qui en font un usage commercial, et les utilisent pour entraîner leur intelligence artificielle et mener des recherches. Le rôle des enseignants est de coacher les étudiants dans leur parcours de formation, notamment en identifiant et en faisant le tri entre les connaissances auxquelles ils doivent accéder, et en les orientant dans le dédale des formations en ligne. Un Learning Management System unique des Gafam s’est imposé et les enseignants n’ont d’autre choix que d’y réaliser l’ensemble des étapes de formation, depuis la conception et la formulation des objectifs de l’apprentissage jusqu’à l’évaluation finale en passant par la sélection des outils numériques et la formation d’équipes d’enseignement. Les certifications des formations s’effectuent grâce à des badges ouverts et interopérables, qui sont des images numériques attestant des compétences acquises par un étudiant. Les badges ouverts font l’objet d’un marché très concurrentiel où dominent de grandes universités internationales en partenariat avec les géants du numérique.

Scénario 2 : l’ESR et le numérique pour la préservation de la planète

Depuis 2020, l’urgence environnementale dans laquelle se trouve la planète est une priorité. Les États européens l’intègrent dans leurs politiques. Les défis concernant le climat, l’alimentation, l’énergie et la raréfaction des ressources naturelles se traduisent par d’ambitieuses politiques publiques. L’Union européenne (UE) s’affirme comme unité pertinente pour traiter efficacement ces questions. Elle a bâti par ailleurs une souveraineté dans le secteur du numérique en développant ses propres moteurs de recherche, plateformes, centres de stockage, outils de traitement et autres ressources numériques. Une régulation et une coordination à la fois européenne et nationale des politiques numériques permettent le développement d’un renouveau numérique aux usages maîtrisés. Mobilisant les technologies numériques, l’UE et les États membres ont investi des moyens conséquents dans la recherche et l’enseignement supérieur pour développer des solutions et implémenter les grands choix stratégiques face aux défis globaux. L’ESR public est ainsi renforcé.

Dans la recherche, le statut des chercheurs et enseignants-chercheurs est revalorisé. Recrutés par les États ou par l’UE, ils mènent, dans de bonnes conditions, des recherches de qualité visant à préserver la planète et la santé. Les critères environnementaux et sociaux sont intégrés dans tous les travaux de recherche y compris l’allocation de ressources numériques, gourmandes en énergie, lors du recours à l’intelligence artificielle. Les financements nationaux et européens, abondants, permettent aux chercheurs de se positionner sur des sujets émergents et de mener des recherches visant à renforcer les biens publics. Les politiques de libre accès et de donnée ouverte des années 2020 ont bien fonctionné et favorisé la coopération des acteurs scientifiques entre eux, permettant le développement de larges bases de données qui sont le support de recherches interdisciplinaires sur les transformations globales. Les savoirs des divers acteurs de la société sont mobilisés via des outils numériques. L’adaptation proactive au numérique par l’éducation a permis de maintenir la confiance entre scientifiques et non-scientifiques, d’apprendre à vivre en bonne intelligence avec l’évolution numérique, et de concilier la nanoseconde des outils électroniques et des réseaux avec le temps long de la science, du vivant, et de l’environnement. Ces mesures ont repositionné la recherche publique et ses chercheurs au cœur de la société européenne et des stratégies à mettre en place dans un contexte d’urgence environnementale.

Dans l’enseignement supérieur, l’orchestration des transitions par les pouvoirs publics se traduit par la mise en place d’une internationalisation de l’enseignement autour de thématiques spécifiques. En effet, les défis globaux prenant des formes différentes selon les lieux ; certaines problématiques d’adaptation, par exemple, peuvent être similaires entre des régions du monde éloignées. Les enseignants-chercheurs ont recentré leurs enseignements sur des problématiques liées aux défis globaux dans une interaction forte avec le terrain lorsque c’est pertinent. Les cours sont majoritairement dispensés en anglais pour répondre à l’internationalisation des étudiants. Ceux-ci, devenus très mobiles, construisent désormais leur parcours en piochant des modules au sein d’un catalogue numérique européen qui garantit une reconnaissance des diplômes dans toute l’Union, dans un contexte où les diplômes nationaux ont perdu de leur valeur. Il est devenu possible d’étudier une thématique et ses déclinaisons géographiques dans différentes régions de l’Europe pour obtenir une certification.

Scénario 3 : les écosystèmes numériques territorialisés de l’ESR

S’appuyant sur des politiques européennes de territorialisation et de développement régional, la recherche et l’enseignement supérieur publics s’organisent dans les territoires régionaux et métropolitains afin de répondre à leurs intérêts spécifiques. Le dispositif national de l’ESR est distribué géographiquement. Cette organisation est complétée par une mise en réseaux interterritoire facilitée par les outils numériques. Des dispositifs de recherche-innovation gérés par les territoires s’ancrent dans les problématiques des acteurs locaux, tout comme les thématiques enseignées qui se spécialisent autour de domaines spécifiques.

Des pôles d’ESR territoriaux associent la recherche et l’enseignement supérieur en lien avec les communautés environnantes et constituent le cœur d’écosystèmes de recherche et d’innovation. Une forte coopération science-société s’organise autour de plateformes numériques et de laboratoires ouverts ancrés dans les territoires. Des entreprises situées dans les territoires deviennent partenaires de l’ESR, et siègent dans les comités d’évaluation de la recherche. Les laboratoires de recherche ont des relations étroites avec leurs partenaires et promeuvent des cycles courts de recherche-innovation. Différentes formes de coopération entre chercheurs, enseignants-chercheurs et acteurs de terrain, tels que collectivités territoriales, entreprises, professionnels, consomm’acteurs ou patients, s’institutionnalisent. Les sciences participatives sont à l’ordre du jour. Des groupes de citoyens influencent les thématiques de recherche à promouvoir en s’impliquant dans des arènes territoriales de décision. Des porteurs d’enjeux collaborent avec des chercheurs pour lancer des alertes et orienter la recherche et l’enseignement. Les infrastructures numériques des territoires catalysent les interactions des acteurs publics et privés avec la recherche. De grandes quantités de données sont produites par des objets connectés et des capteurs, l’interopérabilité des données est renforcée, et le traitement des données par la recherche s’appuie sur des intelligences artificielles (IA). Les connaissances interou transdisciplinaires ainsi produites permettent de générer des innovations et de nouveaux services bénéficiant aux acteurs du territoire. Pour autant, la pertinence des recherches par rapport au territoire n’empêche pas l’excellence académique, et les réseaux de chercheurs restent très organisés aux échelles nationale, européenne et internationale.

L’ensemble de la société civile maîtrise désormais les usages du numérique, les citoyens ont développé un esprit critique sur l’origine des informations et cette maîtrise permet un usage du numérique plus raisonné que dans les décennies passées. L’autorégulation de ces usages et une nouvelle réglementation sur l’usage des données numériques prenant en compte la notion de biens communs renforcent la confiance entre scientifiques et acteurs sociaux, laquelle avait été écornée par la multiplication des fausses informations dans les années 2020 et la captation des données numériques. Les frontières entre experts amateurs et professionnels s’effacent. La complémentarité entre connaissances scientifiques et savoirs d’expérience s’affirme. Il émerge une recherche et un enseignement qui répondent aux demandes des territoires.

Les enseignants sont salariés d’une collectivité territoriale. Ils aident les étudiants à utiliser au mieux la multitude d’outils et de contenus numériques à leur disposition. Les travaux pratiques sur le terrain sont devenus plus prégnants dans l’enseignement. Les modules fondamentaux, tels que les statistiques ou les mathématiques, qui ne nécessitent pas de travaux pratiques sur le terrain, sont traités entièrement sur des plateformes numériques gérées par des ingénieurs pédagogiques qui coconstruisent les outils numériques avec les étudiants. Des communautés d’apprentissage se créent, où la coconstruction des savoirs en lien étroit avec les acteurs du territoire est centrale.

Scénario 4 : l’ESR face à la frugalité numérique

Dans les années 2020, les États font face à une raréfaction des ressources consommées par le numérique, à des coûts énergétiques et des impacts environnementaux et psychosociaux considérables. Le développement non maîtrisé du numérique devient un problème majeur. L’Union européenne et les États membres décident alors de réguler ses usages, profitant d’un contexte mondial favorable au développement de solutions pour la maîtrise du numérique dans le but de préserver l’environnement et le bien-être social. La part du numérique dans la consommation énergétique baisse drastiquement. Soumis à la « taxe data-byte », les consommateurs ont réduit l’intensité de leurs pratiques numériques. Mise en place en Europe dès 2035, cette taxe est calquée sur la taxe carbone des années 2020. Chaque citoyen dispose d’une quantité maximum de données qu’il peut utiliser et d’un espace maximum de stockage et de calcul. L’ESR et les entreprises ayant des besoins plus importants achètent des droits aux data-bytes auprès de la Banque centrale européenne du numérique qui en régule les usages.

La frugalité numérique, initialement plutôt subie, a été cependant bien acceptée, car les pouvoirs publics l’ont accompagnée par un investissement dans la recherche et par le développement d’une société d’apprentissage. L’appui au développement d’un usage frugal et alternatif pour réduire les impacts environnementaux et psychosociaux du numérique devient donc le programme prioritaire pour la recherche, l’enseignement supérieur et la formation. Si le numérique reste présent dans la société, les citoyens ont développé des usages qui les dégagent de l’asservissement digital en termes d’accélération permanente, de baisse du temps d’attention, d’éparpillement, de surcharge cognitive et de gestion de la déconnexion.

Le monde de la recherche bénéficie de plus de droits en matière d’usage de data-bytes mais donne l’exemple et contribue au développement de pratiques numériques frugales dans la société. Il coproduit des connaissances moins standardisées, plus proches des pratiques et ancrées dans les spécificités locales. Il optimise la mutualisation des ressources, le partage et la distribution des tâches et des savoirs au sein de communautés de recherche hybrides regroupant chercheurs professionnels et non professionnels. Les sciences de la donnée sont repensées pour économiser l’usage de data-bytes. La modélisation est moins fondée sur des pratiques in silico et plus directement couplée à l’expérimentation de laboratoire et de terrain. Une analyse coût-bénéfice est réalisée avant de lancer des projets basés sur l’intelligence artificielle, des simulations ou différents outils nécessitant d’importantes ressources numériques. Les thématiques de recherche sur les pratiques agricoles et vétérinaires, sur le fonctionnement du système alimentaire, et sur la gestion des ressources naturelles visent à créer des systèmes moins dépendants de ressources externes et donc mieux adaptés aux spécificités locales. Pour faciliter l’adéquation entre les connaissances et les besoins locaux, la déconcentration et le maillage géographique coordonné de l’ESR contribuent à économiser les ressources numériques.

L’enseignement supérieur, lui aussi déconcentré et distribué, participe de la même façon au renforcement de la frugalité numérique. Les nouvelles connaissances et pratiques s’acquièrent en se confrontant à la réalité locale, sur le terrain ou en laboratoire, et en interaction avec les autres acteurs. Les outils et contenus pédagogiques sont coconstruits par les apprenants, actifs au sein de communautés d’apprentissage hybrides, en ligne et en présentiel. Les enseignants sont désormais des facilitateurs, des agrégateurs de savoirs et de savoir-faire, et des animateurs de communautés réunies autour d’objets et de savoirs communs à caractère transdisciplinaire et à pertinence locale.

9. Enjeux des scénarios

Marco Barzman, Olivier Mora

Pour chacun des quatre scénarios dessinés, nous allons à présent considérer les enjeux pour les établissements de recherche et d’enseignement supérieur en agronomie, environnement, alimentation et sciences vétérinaires.

Le travail présenté ici est issu d’un exercice « SWOT » — acronyme anglais pour atouts et vulnérabilités des institutions, opportunités et menaces pour les institutions — mené lors d’un atelier du Groupe de travail de la prospective. À la fin de chaque exposé de scénario, les analyses sont récapitulées dans une figure (figures 6 à 9).

Scénario 1 : plateformisation de la recherche et de l’enseignement, et captation des données par des firmes privées

Les enjeux posés par le scénario 1 se rapportent aux conséquences d’une dynamique de plateformisation de la recherche et de l’enseignement supérieur et au positionnement de l’ESR public face à des concurrents dotés de moyens conséquents et développant de nouveaux modèles économiques.

Atouts et opportunités

Le scénario 1 envisage un rôle croissant des acteurs économiques du numérique récemment entrés dans les mondes de la recherche et de l’enseignement supérieur. Pour mémoire, dans ce scénario, les grands acteurs numériques captent les données et concentrent les capacités de traitement des données massives, absorbant une large part des activités de recherche et d’enseignement, à partir desquelles ils génèrent des services marchands. Les thématiques scientifiques à l’ordre du jour dans la recherche et dans l’enseignement supérieur changeraient rapidement en fonction de « modes » fluctuantes renforcées par la puissance massive des réseaux sociaux. Face à cette instabilité, le patrimoine scientifique de l’ESR — en termes de métiers, de savoir-faire, d’expertise, et de relations avec une diversité d’acteurs et de terrains — constitue un atout précieux. Ces ressources patrimoniales constituent également un thésaurus dans lequel on peut à tout moment puiser lorsqu’une nouvelle thématique émerge.

Face à ces mêmes fluctuations thématiques mues par des pressions éphémères (économiques, innovation, médias, réseaux sociaux), la capacité stratégique, de vision à long terme et de repérage des signaux faibles (par des services de prospectives notamment) de l’ESR fait figure de contrepoids bienvenu.

Dans l’enseignement, l’adoption de méthodes d’évaluations rapides et permanentes des enseignants par les apprenants (le scoring) représente une opportunité (aussi bien qu’une menace, en fonction des postures). Le scoring peut effectivement contribuer à équilibrer la relation enseignant-apprenant et s’accompagner d’un dynamisme continu du processus d’apprentissage.

Vulnérabilités

La domination des grandes firmes du numérique dans le scénario 1 se construit autour de trois fonctions : capter des données à partir des expériences des usagers et les stocker ; traiter des données massives par l’intelligence artificielle ; générer de la connaissance, des services marchands et de l’innovation à partir du traitement des données massives. Les points forts de ces firmes mettent en lumière certaines vulnérabilités de l’ESR public.

Une première vulnérabilité de la recherche concerne la question de la science ouverte. En développant un modèle de la donnée ouverte sans pour autant organiser la centralisation de ses données et s’assurer une maîtrise de leurs usages, la recherche pourrait faciliter une captation des données par de grands acteurs privés.

Une deuxième vulnérabilité concerne la maîtrise des outils de traitement de la donnée et de la communication. Dans les domaines de l’agronomie, l’environnement, l’alimentation et les sciences vétérinaires, ce sont le plus souvent des grandes firmes du numérique qui ont développé les outils numériques les plus performants — des outils utilisant les intelligences artificielles (IA), l’apprentissage automatique et les réseaux de neurones. Or les chercheurs de l’ESR utilisent aujourd’hui ces outils de communication, de stockage et de traitement des données mis au point par ces firmes privées. À terme, cela pourrait générer des formes de dépendance à ces technologies et à leurs propriétaires.

Enfin, les firmes du numérique ont su développer des liens étroits avec les individus et les acteurs sociétaux en captant de la donnée pour générer de l’innovation et des services marchands. Au regard de cela, la recherche reste engagée dans un modèle de production de connaissance et d’innovation qui peut paraître moins réactif et moins adaptable aux demandes fluctuantes du marché.

Pour l’enseignement supérieur, une première vulnérabilité concerne l’offre limitée de formation. L’enseignement public pourrait être fortement concurrencé par une offre abondante et organisée de ressources pédagogiques mises en ligne par des plateformes privées. Ces questions sont aujourd’hui en partie anticipées par la mise en place de plateformes publiques de formation. Mais on pourrait assister à une fuite des meilleurs étudiants vers le privé qui, par ses moyens et sa proximité à l’innovation et à l’emploi, pourrait bénéficier d’une plus grande attractivité.

Une seconde vulnérabilité de l’enseignement supérieur est là encore le risque de perte de données au profit d’acteurs plus organisés. En particulier, les données d’apprentissage sont de grande valeur pour la gestion des systèmes d’apprentissage (Learning Management System) et pour le fonctionnement d’intelligences artificielles (par exemple des algorithmes de recommandation).

Figure 6. Enjeux associés au scénario 1 — l’ESR au pied des géants du numérique.

Risques et limites de la plateformisation

La dynamique de plateformisation pourrait conduire à la disparition rapide de thématiques de recherche et d’enseignement dans le cas où l’ESR adopterait les logiques de court terme portées par les acteurs économiques et les réseaux sociaux. Si ces modes venaient à orienter la recherche, cela pourrait générer une perte d’expertise dans des domaines délaissés, la disparition de certaines disciplines, de la recherche exploratoire et des capacités à répondre à des enjeux de biens communs hors des intérêts marchands. Pour l’enseignement, cela signifie une grande volatilité des thématiques de formation, une évaluation de court terme de l’intérêt des thématiques, et la perte d’une vision d’ensemble de la formation de l’étudiant.

Scénario 2 : enjeux environnementaux globaux et internationalisation de la recherche et de l’enseignement supérieur

Les enjeux posés par le scénario 2 concernent la capacité de l’ESR à mobiliser la transition numérique pour répondre aux grands enjeux globaux et à l’urgence environnementale. Ils englobent sa capacité à fonctionner aux échelles européenne et internationale, sa performance sur des thématiques liées au futur de la planète et appréhendées de façon systémique, sa gestion des attentes fortes des responsables politiques, et son aptitude à mobiliser les ressources numériques pour atteindre ces objectifs.

Atouts et opportunités

L’action internationale est déjà inscrite dans les objectifs de la plupart des établissements publics français. Le renforcement des liens existants en Europe et au-delà est en cours. La recherche bénéficie d’un bon niveau de reconnaissance académique sur la scène internationale et d’une bonne insertion dans les réseaux internationaux (communautés scientifiques spécifiques, participation à des arènes internationales), en particulier à l’échelle européenne (participation à ou coordination de projets et de réseaux européens).

Les technologies du numérique dans ce scénario contribuent à développer des solutions aux problèmes environnementaux globaux. Elles doivent pleinement se déployer pour couvrir tous les secteurs, tous les acteurs et toute la planète. Le défi est de favoriser la généralisation des compétences en sciences de la donnée appliquées à des thématiques environnementales par des approches pluridisciplinaires et internationales. Des stratégies de mutualisation des outils et des infrastructures numériques sont déjà engagées. Le développement d’une science ouverte qui participe à ce partage des données et des outils de traitement à l’échelle européenne est en cours.

Concernant les thématiques, la recherche semble bien placée pour répondre aux enjeux du changement global, combinant à des approches territorialisées et des approches globales, des approches disciplinaires et systémiques, des recherches appliquées et fondamentales. On imagine aussi qu’une meilleure compréhension et gestion des biens communs prenne une place importante dans une recherche dont la finalité va au-delà des intérêts marchands.

L’enseignement supérieur français bénéficie déjà d’un positionnement européen fort, de liens internationaux bien établis, et d’une capacité à recruter des étudiants venus d’autres pays, renforcée par le déploiement en cours d’outils numériques (plateformes de recrutement, plateformes d’enseignement à distance, par exemple). Des politiques européennes favorisent des initiatives de coopération internationale, avec des étudiants originaires de différents pays travaillant ensemble sur des thématiques communes, en particulier via des outils collaboratifs en ligne. Il en va de même pour les thématiques d’enseignement pertinentes pour l’avenir de la planète. Ces thématiques gravitent autour des sciences de l’environnement, un domaine déjà bien développé dans l’enseignement supérieur.

Vulnérabilités

L’un des enjeux majeurs d’une telle évolution est la capacité de l’ESR à rapidement répondre aux politiques publiques et à contribuer efficacement à l’effort de préservation de la planète. La situation d’urgence, notamment climatique et environnementale, va générer des attentes fortes de la société vis-à-vis de la recherche. Ainsi un défi pour la recherche sera de construire des dispositifs plus explicitement orientés vers l’action et l’innovation pour fournir des solutions qui pourraient être rapidement implémentées.

Une collaboration internationale efficace suppose le partage des données à l’échelle européenne et leur forte interopérabilité. Or les mécanismes internationaux de partage et de gestion des données efficaces dans certains domaines comme l’agronomie ne sont pas en place.

L’internationalisation de l’enseignement supérieur suppose aussi l’usage de l’anglais dans l’apprentissage. Il faudra alors assurer un niveau de maîtrise de la langue des apprenants et des enseignants suffisant dans un contexte international.

D’autres formes de vulnérabilité de cette évolution concernent les relations entre États. La volonté d’une gestion des biens communs à une échelle globale peut être l’objet de tensions géopolitiques. L’orientation de l’Europe priorisant l’environnement pourrait se heurter dans la réalité avec d’autres priorités stratégiques portées par exemple par les États-Unis et la Chine. Enfin, l’instabilité de la situation de l’Union européenne et la dépendance de la recherche vis-à-vis de cette dernière créent une vulnérabilité liée à la pérennité des politiques et des financements.

Figure 7. Enjeux associés au scénario 2 — l’ESR et le numérique pour la préservation de la planète.

Scénario 3 : ancrage territorial de l’ESR et organisation multi-acteur

Les enjeux posés par le scénario 3 concernent la capacité de l’ESR à mobiliser la transition numérique pour travailler avec une diversité d’acteurs, fonctionner de façon décentralisée et renforcer son ancrage territorial.

Atouts et opportunités

La présence physique d’établissements d’enseignement supérieur et de centres de recherche relativement bien répartis sur l’ensemble du territoire national représente un atout dans ce scénario. Un certain nombre de structures actuelles de l’ESR, en particulier les écoles supérieures d’agronomie ou vétérinaires et les centres de recherche, sont déjà implantées en région. La localisation de ces institutions, les collaborations existantes entre les structures de recherche et d’enseignement, ainsi que les relations avec certains acteurs économiques du territoire préfigurent une dynamique de territorialisation de l’ESR. La mise en place de plateformes territoriales et la conception de ce que pourraient être des écosystèmes numériques territorialisés de l’ESR seraient à même de renforcer cette évolution.

En ce qui concerne la recherche, un ancrage dans les territoires et une étroite collaboration avec des acteurs économiques locaux constitue une opportunité pour intensifier les interactions avec les autres secteurs et renforcer la place de la recherche dans les processus d’innovation. Les sciences participatives et les sciences ouvertes sont essentielles à une telle dynamique. Dans l’éventail complet de ses possibilités, comprenant la participation à l’orientation de la recherche, à sa conduite ou à sa communication, la recherche publique s’est déjà positionnée en faveur d’une telle évolution.

Si une forte territorialisation de la recherche venait à voir le jour, celle-ci serait mise au défi de traiter des problématiques impliquant de multiples disciplines et concernant une diversité d’acteurs. Une des compétences de base pour accomplir ce type de travail est la transdisciplinarité, entendue ici comme une capacité à conduire des recherches prenant en compte une diversité d’intérêts et de points de vue sur des objets complexes. Ce type de compétences serait donc à développer. L’accès à des données massives et de nouveaux croisements de bases de données dorénavant possibles pourraient ouvrir de nouvelles perspectives en transdisciplinarité pour la compréhension et le développement des territoires.

L’enseignement supérieur dans les domaines qui nous concernent semble bien positionné pour répondre aux dynamiques décrites dans ce scénario. En effet, les thématiques de formation sont fréquemment en lien avec les enjeux du territoire et les interactions avec les acteurs du territoire sont un élément important des pratiques de formation. Avec une territorialisation accrue de l’enseignement supérieur, les liens avec les acteurs professionnels, associatifs et économiques du territoire pourraient être renforcés. Le recentrage de l’enseignement supérieur sur des thématiques hautement pertinentes pour le territoire pourrait augmenter son attractivité vis-à-vis des apprenants locaux.

Vulnérabilités

Si un certain nombre de structures actuelles de l’ESR se situent physiquement en région, leur organisation est toutefois majoritairement nationale. L’adoption de stratégies, l’attribution de diplômes et l’allocation des ressources restent centralisées. Un ancrage territorial et des collaborations locales efficaces appellent donc à une décentralisation des institutions afin qu’elles acquièrent une plus grande capacité à répondre à des demandes territoriales. Dans un tel schéma, la pertinence et le rôle d’un niveau organisationnel national se posent.

Face à des trajectoires territoriales fortement différenciées, des inégalités entre territoires pourraient émerger. Notamment, tous les territoires n’auront pas la même capacité à valoriser les données territoriales — un enjeu devenu important. Pour éviter la compétition entre territoires et les redondances, des mécanismes favorisant la collaboration et la mise en réseau des territoires seront nécessaires.

Pour réaliser l’équilibre entre une recherche au sein de territoires et sa mise en réseau entre territoires, l’interopérabilité des données est essentielle. Il faudra s’assurer dès lors que la relative indépendance des initiatives de recherche dans les territoires ne se fasse pas en silo et au détriment de la valorisation des recherches au-delà de chaque territoire.

La spécialisation de chaque territoire implique une vulnérabilité intrinsèque évidente pour l’enseignement supérieur. Si les contenus de l’enseignement sont uniquement déterminés par les besoins immédiats du territoire, les compétences acquises risquent d’être très spécialisées, peu robustes et peu adaptables aux besoins d’autres territoires ou aux besoins futurs.

La transition numérique dans le contexte d’un enseignement ancré dans les territoires tend à éloigner les méthodes d’apprentissage du schéma classique basé sur, d’un côté, des enseignants, et de l’autre, des apprenants. Si ce scénario n’a pas l’exclusivité d’une telle évolution, cette dernière pourra aller plus loin dans un environnement où les processus multi-acteurs sont privilégiés. L’enseignement tournera donc définitivement la page du cours classique pour s’engager dans la coconstruction de l’apprentissage, aussi bien en termes de contenus que de processus (par exemple classe inversée s’appuyant sur des ressources en ligne et généralisation de l’apprentissage par projet à partir de commanditaires locaux). Le défi pour l’enseignement supérieur sera de généraliser ces nouvelles pratiques actuellement minoritaires.

Figure 8. Enjeux associés au scénario 3 — les écosystèmes numériques territorialisés de l’ESR.

Scénario 4 : limitation des ressources et sobriété numérique

Les enjeux du scénario 4 concernent le développement d’un usage du numérique plus économe en énergie et en terres rares. Dans l’ESR, ils montrent l’importance d’une mutualisation des ressources numériques, notamment afin d’éviter les redondances, et la nécessité de (ré)associer les outils numériques aux activités de laboratoire et de terrain.

Atouts et opportunités

Les évolutions vers une frugalité numérique impliquent une relation plus forte au terrain et à l’expérimentation. En ce qui concerne la partie de l’ESR tournée vers les sciences du vivant, les sciences agronomiques et les sciences vétérinaires en particulier, la proximité historique au terrain et le recours à l’expérimentation in situ et en laboratoire plutôt qu’in silico sont encore d’actualité. Pour économiser les ressources liées à l’usage du numérique, la modélisation numérique serait étroitement couplée à l’expérimentation de terrain. Plus généralement, une coopération forte entre sciences du vivant et sciences de la donnée pourrait se développer.

Le développement d’usages numériques frugaux à la fois dans la recherche, dans l’enseignement et dans les activités humaines en général constitue une opportunité d’innovation qui en est à ses prémices à l’heure actuelle.

Vulnérabilités

Certaines disciplines, activités et pratiques de recherche reposent sur un usage intensif de ressources numériques. Dans un monde contraint par l’exigence de frugalité, l’actuelle redondance dans la production et le stockage de données est problématique. La recherche dans les « -omiques », la modélisation numérique, et plus généralement toutes les formes de recherches exploratoires basées sur des outils numériques tels que la fouille de données massives ou l’intelligence artificielle, sont fortement consommatrices de ressources numériques. Le défi est de développer de nouveaux usages et des pratiques scientifiques économes en numérique, l’un des défis majeurs étant l’archivage et le stockage des données.

Dans l’enseignement, certaines redondances dans la production et l’usage actuels des ressources pédagogiques sont source d’inefficacité notamment en termes de consommation de ressources liées au numérique. Une plus grande mutualisation des ressources entre institutions de l’enseignement supérieur exigerait une réorganisation et un renouveau du fonctionnement collaboratif.

Enfin, si un marché des data-bytes se mettait en place, ou plus généralement si l’accès aux ressources numériques devenait limité, on imagine facilement la possibilité d’une compétition et d’une fracture numérique entre les institutions de l’ESR.

Figure 9. Enjeux associés au scénario 4 — l’ESR face à la frugalité numérique.

10. Enseignements des scénarios

Marco Barzman, Olivier Mora

Cette prospective offre un cadre de réflexion et d’anticipation des enjeux à venir. Elle met en lumière les défis que la transition numérique pose à la recherche et à l’enseignement dans les domaines ici concernés.

Dans ce chapitre, nous examinerons dans un premier temps les spécificités des domaines concernés par cette étude vis-à-vis de la transition numérique. Puis nous récapitulerons dans second temps, de manière transversale, les enjeux des scénarios pour la recherche et pour l’enseignement supérieur.

Les spécificités des domaines concernés

La transition numérique influe sur une multitude de facettes de nos réalités. Elle intéresse une diversité d’acteurs et nourrit de nombreuses innovations qui concernent toutes les disciplines scientifiques et tous les domaines d’application de l’enseignement supérieur et de la recherche. Il émerge cependant des interactions spécifiques entre la transition numérique et les domaines concernés initialement par cette étude (les sciences du vivant). Elles concernent l’ancrage spatial, la temporalité du vivant et des processus naturels, la complexité des objets, la dimension humaine des activités et la relation aux intérêts économiques.

D’un côté, la dimension spatiale et géographique de la recherche et de l’enseignement sur la production agricole, l’élevage, les écosystèmes et la production alimentaire fait que nos domaines se prêtent à la territorialisation. Le développement d’écosystèmes numériques territorialisés — évoqué dans le scénario 3, où l’environnement numérique serait différent d’un numérique mondialisé et standardisé — fait particulièrement sens pour nos domaines. Les liens au terrain, au territoire et aux acteurs locaux, que ce soit par l’expérimentation, par l’apprentissage en situation ou par des thématiques liées à la spécificité locale (terroirs, identité locale, agroécosystèmes), évoquent un équilibre entre un numérique local associé à la réalité de proximité et la dématérialisation ex situ.

D’un autre côté, les approches de niveau global — évoquées dans le scénario 2, où l’objectif est de relever le défi de la préservation de la planète et du changement global — exigent un assemblage de données d’origines locales et provenant de divers domaines disciplinaires, et la mise en place d’approches multi-échelles et multidisciplinaires s’appuyant sur des outils numériques de simulation des phénomènes complexes. De plus, l’importance de la transmission des connaissances sur la gestion du vivant et des écosystèmes nécessite également un renforcement du continuum recherche-enseignement supérieur dans ce scénario.

Des dimensions humaines liées à la valeur culturelle de l’agriculture, à la sensibilité aux questions environnementales ou au bien-être animal, et à la dimension intime de l’alimentation jouent un rôle important. Pour l’alimentation par exemple, une évolution qui nous rendrait tous capteurs et tous émetteurs de données pourrait être perçue comme portant atteinte à cette intimité. Plus généralement, les acteurs de la société civile deviennent de plus en plus réactifs vis-à-vis de l’entrée du numérique dans la sphère privée, et cherchent à réguler ses usages. Par ailleurs, la qualité des relations humaines avec les acteurs de terrain ou du territoire, et notamment la construction de la confiance, ne peuvent être négligées dans ces domaines.

Les intérêts économiques associés au numérique ont une place particulière dans les domaines concernés notamment parce que des critères non économiques entrent également en jeu. Les domaines de recherche et d’enseignement sont dépendants d’outils numériques coûteux qui tendent à être développés par des acteurs du numérique dotés de moyens conséquents. Au-delà des activités marchandes liées au numérique, la recherche et l’enseignement supérieur dans ces domaines doivent aussi tenir compte de l’importance stratégique de l’agroalimentaire, du rôle croissant de la société civile non marchande dans la science, des grands défis globaux, et plus généralement de la question des biens communs.

Les enjeux des scénarios pour la recherche

Lien avec les secteurs d’application

L’adoption du numérique transforme à grande vitesse les secteurs d’activité étudiés par les sciences traitant de l’agriculture, de l’environnement, de l’alimentation et de la santé animale. L’agriculture connectée, l’agriculture de précision, l’automatisation du conseil, la robotisation, la gestion et le traitement des données dans la chaîne des soins vétérinaires, l’observation participative de la biodiversité, ou la plateformisation dans les systèmes alimentaires en sont quelques exemples. Ces évolutions rapides créent un défi pour les scientifiques qui doivent maintenir leur capacité d’anticipation des changements à venir. Les questions de recherche et les démarches adoptées pour y répondre doivent évoluer en tenant compte de ces changements dans les entreprises et la société civile. Le numérique dans la recherche a par exemple un rôle important à jouer dans la conception d’innovations et dans leur promotion. Cela est particulièrement pertinent pour le développement de pratiques plus respectueuses de l’environnement en agriculture et plus généralement en tout ce qui concerne la gestion de l’environnement et des écosystèmes.

Pourtant, s’il est clair que le numérique participe à un mouvement d’innovations dynamique dans la production agricole ou dans les soins vétérinaires, le rôle de la recherche publique devra être précisé. Dans les pratiques vétérinaires, on assiste à un nouveau flux de données au sein de la chaîne des soins et l’apparition, tout comme dans la santé humaine, d’un système ascendant (bottom-up). On constate que les technologies innovantes qui sont associées à ces nouvelles applications vétérinaires viennent du secteur privé (via des startups). La demande des praticiens se dirige plutôt vers des startups qui ont la capacité de répondre plus rapidement et de façon plus adaptée aux besoins que la recherche publique (D. Avignon, comm. pers., septembre 2018). Par ailleurs, pour les acteurs de l’innovation dans le secteur du numérique, la recherche agronomique, en tant que terrain d’application, bénéficierait d’une attractivité réduite et pourrait expliquer une impression de suivisme par rapport aux autres innovations numériques. Une étude sur l’intelligence artificielle dans la recherche agronomique alerte sur le risque de « rater le train de l’IA » (Gondret et al., 2019). D’après cette étude, « les approches reposant uniquement sur l’exploitation massive des données sont moins adaptées à l’agronomie qu’à d’autres domaines, et les approches hybrides couplant données et modèles de connaissances existantes sont plus nécessaires qu’ailleurs ». Les auteurs recommandent par conséquent des partenariats avec des acteurs spécialisés en IA.

Production de données et recherche orientée par la donnée

La production et la disponibilité de données massives créent une nouvelle situation pour la recherche. Les agriculteurs, les fournisseurs de soins vétérinaires, les entreprises de la chaîne de valeur alimentaire et les ménages produisent dorénavant plus de données que les scientifiques. De plus, certains de ces nouveaux producteurs de données — agriculteurs, éleveurs, mangeurs innovants — sont de facto engagés dans l’expérimentation. La recherche n’est donc plus l’unique source de données expérimentales. En conséquence, de nombreux phénomènes peuvent dorénavant être analysés à l’aide de jeux de données massives générées en dehors de la recherche. Face à cette nouvelle source de données diverses et massives, il serait judicieux de repenser la complémentarité entre production de données par la recherche et usage de données extérieures à la recherche. Sur un autre plan, l’accès aux données générées par les usages et collectées par des acteurs privés devient problématique pour la recherche du fait de leur caractère privé. Un des enjeux actuels pour la recherche consiste à faire reconnaître les données comme des biens communs issus des pratiques des individus, et à créer un cadre juridique permettant aux scientifiques de les mobiliser dans leurs travaux.

Par ailleurs, la disponibilité des données massives et les nouvelles capacités de recherche associées à la fouille des données font entrevoir une recherche abductive principalement orientée par la donnée. Si cette évolution du numérique offre effectivement de nouvelles possibilités, la recherche ne doit pas, selon les mots de Marin Dacos au colloque de restitution de la prospective le 27 juin 2019, « tomber dans une religion des données ».

Un risque identifié réside dans le développement d’une recherche où la qualité des données et leur implicite neutralité et applicabilité universelle ne seraient pas questionnées et où la réflexion, la problématisation et la formulation d’une question de recherche qui initie le processus scientifique seraient négligées.

Frontières disciplinaires, interet transdisciplinarité

Le numérique modifie les périmètres disciplinaires et favorise l’interet la transdisciplinarité. La mise en relation et l’analyse de jeux de données auparavant cloisonnés et les liens plus resserrés entre acteurs hétérogènes — facilités par les réseaux sociaux et par l’accessibilité de l’information scientifique — en sont les moteurs. Les croisements de bases de données massives entre des domaines auparavant disjoints permettent de traiter des objets d’étude plus complexes. Cette capacité amplifiée est particulièrement pertinente dans les domaines qui concernent l’étude et la gestion du vivant et des écosystèmes. En effet, le vivant et les écosystèmes sont régis par un ensemble foisonnant d’interactions biophysiques et humaines, où interdépendances, incertitudes et controverses sont monnaie courante. Cette reconfiguration des disciplines et des modes de recherche favorisée par le numérique représente une opportunité de renouveau et une source d’innovation, qui nécessitent de reconsidérer les relations entre les disciplines.

Il émerge donc un nouveau type de travail situé aux interfaces de plusieurs disciplines et de secteurs d’activité. Les compétences nécessaires à l’exercice de ce métier basé sur des recherches mêlant plusieurs disciplines (interdisciplinarité) et en collaboration avec des acteurs hétérogènes (transdisciplinarité) sont à développer. En parallèle, le rôle croissant des données associées aux outils numériques et à l’automatisation dans la chaîne de connaissances remplace certaines fonctions traditionnelles des chercheurs et donne une place plus grande aux chercheurs en science de la donnée.

Questions de temporalité

Le temps de l’étude de l’environnement et du vivant au sens large n’est pas le même que celui porté par le numérique. Dans les études classiques fondées sur l’observation et la compréhension du fonctionnement de l’environnement et du vivant, c’est le temps long qui s’impose. Par contraste, les études basées sur les analyses de données massives ou sur la modélisation n’ont pour limites temporelles que le temps de calcul. La nature du numérique, alliée à la plateformisation et à l’intensification du mode projet, concourt à l’accélération des pratiques scientifiques. Il faut donc développer des usages qui permettent à ces deux temporalités des sciences de coexister.

De plus, le numérique permet des observations par ailleurs irréalisables dans les domaines spécifiés. Des capteurs permettent d’acquérir des données massives à des pas de temps qu’un expérimentateur ne peut satisfaire, et à des niveaux de précision qui ne peuvent exister sans le numérique. Ces données massives sont utiles pour modéliser le fonctionnement du vivant et ce type d’acquisition de données est particulièrement précieux pour les observatoires de la nature qui opèrent sur le long terme. Cependant, l’obsolescence des instruments de mesure dépendant du numérique pose aussi un risque de perte de données ou de qualité de bases de données dans les dispositifs de recherche de type pluriannuel.

Questions éthiques

Une éthique et une déontologie doivent être construites par les acteurs de l’ESR, et avec les acteurs de la société, autour de plusieurs dimensions : les modalités de recours à l’intelligence artificielle pour assister les choix d’orientation scientifique, les règles collectives d’usage des données, la prise en compte de la problématique des données personnelles, l’aptitude à fonctionner avec la culture de la donnée ouverte en ménageant sa relation à l’innovation ouverte et aux droits d’auteur, et la gestion des limites entre vie privée et vie professionnelle. Les chercheurs, comme tous les utilisateurs du numérique, doivent développer un esprit critique et une capacité à analyser les mécanismes, les enjeux sous-jacents et les biais associés au numérique en ce qui concerne les algorithmes utilisés par les moteurs de recherche, la qualité des données et la supposée neutralité des données. L’utilisation massive de données personnelles, ou générées par les usages individuels, et les changements induits par la science ouverte créent également de nouveaux défis éthiques.

Relations science-société

Si le numérique change le mode de production des connaissances, il en est de même pour leur partage. Les acteurs de la société concernés par les pratiques agricoles, par leur alimentation, par le bien-être animal et par des considérations de santé publique, de préservation de l’environnement ou d’éthique ont dorénavant leurs propres canaux d’information. Ils questionnent la science. Il revient aux scientifiques de mettre en place d’autres formes d’engagement et de dialogue avec les acteurs de la société. Plutôt que de passivement constater une supposée montée de la méfiance envers la science sur les réseaux sociaux, les chercheurs peuvent profiter des technologies de la communication et de leurs nouveaux usages plus interactifs, conviviaux ou ludiques pour s’impliquer dans le dialogue, voire la coconstruction, avec les acteurs de la société civile. Ils peuvent valoriser de nouvelles formes de visualisation des résultats scientifiques intégrant l’art, les émotions et la dimension humaine dans la communication. Pour cela, des médiateurs scientifiques et des tiers-lieux facilitent des relations plus horizontales entre experts, scientifiques professionnels et non professionnels. Sur l’environnement, les pratiques agricoles, l’alimentation ou la santé animale, les contributions d’une multitude d’acteurs sont nécessaires pour développer des solutions. Adapter les modes de communication et d’interaction de la science aux besoins et habitudes actuels pourra non seulement répondre au risque de méfiance mais contribuera également à l’attractivité de la recherche — et de l’enseignement supérieur.

Les enjeux des scénarios pour l’enseignement supérieur

La plateformisation

Les plateformes pédagogiques ont déjà commencé à se développer, elles continueront de jouer un rôle important dans l’enseignement. Les institutions publiques sont donc confrontées à la question stratégique de devoir décider quelles relations elles souhaitent entretenir vis-à-vis de compétiteurs privés potentiels. Pour faire face à des acteurs économiques de grande taille, la création de plateformes pédagogiques publiques nationales ou européennes pourrait permettre de générer la masse critique nécessaire. Cette démarche est déjà amorcée par des initiatives telles que les MOOC de France Université numérique ou le lancement d’une université numérique en agrobiosciences (Agreen U). Un système de reconnaissance partagée et de certification des MOOC favoriserait le partage et la mutualisation des investissements dans ce type d’outils entre établissements. Par ailleurs, la demande croissante pour une formation tout au long de la vie pousse les établissements historiquement positionnés sur la formation initiale à offrir ce type de services. Les MOOC et plus généralement les parcours de formation numérique, s’ils s’avèrent économiquement intéressants, peuvent pour partie contribuer à satisfaire cette demande et orienter les établissements d’enseignement supérieur vers d’autres modalités d’apprentissage. Ils nécessitent cependant un accompagnement des apprenants par des enseignants.

La possibilité d’une entrée en compétition avec des acteurs mieux armés dans le numérique est sujette à réflexion. Elle pourrait conduire à une revalorisation du métier d’enseignant — notamment chez les enseignants-chercheurs historiquement évalués prioritairement sur le volet recherche — et à y apporter des innovations porteuses d’attractivité.

La relation virtuel-présentiel

S’il ne s’agit pas de totalement remplacer l’enseignement en présentiel par celui en virtuel, il apparaît tout de même important de clarifier les rôles, avantages et inconvénients de l’un et de l’autre. La valeur du cours magistral traditionnel est remise en question et les rôles respectifs des interactions en présentiel et à distance sont à définir. Il faut s’accorder sur la place à donner à l’apprentissage expérientiel (learning by doing) et voir si celui-ci passe obligatoirement par le présentiel. Il devient nécessaire de penser la relation virtuel-présentiel tout en notant la différence entre l’enseignement à distance asynchrone et synchrone — ce dernier permettant l’interactivité en temps réel. Les avantages de la simulation doivent être pris en compte. Elle permet — parfois à moindre coût — de réaliser une mise en situation virtuelle de l’apprenant, et par exemple d’éviter une expérimentation sur un animal réel. Le distanciel, streaming vidéo d’un cours en direct ou en différé par exemple, permet de démultiplier l’impact des enseignants et de pallier le manque de personnel enseignant.

Évolution du rôle des enseignants

Comme pour les chercheurs, le numérique induit un déplacement des compétences et des rôles des enseignants. Alors que l’on s’inquiète d’un éventuel remplacement de l’humain par la machine, les scénarios présentés dans cette étude, issus de l’expertise des enseignants-chercheurs et des responsables de formation, indiquent plutôt une généralisation de l’hybridité entre l’humain et les outils numériques, dans les dispositifs d’enseignement et de formation. Le « tout-numérique » semble peu plausible. Plutôt que de les remplacer, le numérique confère de nouveaux rôles aux enseignants. La multiplication des relations virtuelles semble s’accompagner d’une multiplication des interactions réelles et favorise les réseaux. En général, les ressources numériques et leur accessibilité éloignent les enseignants de la transmission des connaissances proprement dite et, comme indiqué dans les scénarios, les engagent vers l’accompagnement, le conseil et l’ingénierie pédagogique. Les enseignants évoluent dans un nouvel environnement professionnel où les ingénieurs pédagogiques jouent un rôle croissant. Cependant, il semble nécessaire d’accompagner cette évolution où l’enseignant peut avoir l’impression de « descendre de son piédestal » et a besoin d’acquérir des compétences en accompagnement, en conseil, en pédagogie inversée et en coconstruction de l’apprentissage.

Conclusion

Les quatre scénarios développés dans cet exercice de prospective constituent un cadre pour anticiper les risques et les opportunités pour les chercheurs, les enseignants et les établissements de l’ESR dans les domaines de l’agriculture, de l’environnement, de l’alimentation et de la santé animale. Cette prospective montre qu’il est important d’adopter une attitude proactive face à un phénomène qui peut, à première vue, sembler d’ordre essentiellement technologique mais qui en réalité concerne avant tout les usages et les pratiques. Dans la recherche et dans l’enseignement supérieur, comme dans tous les secteurs d’activité, la transition numérique risque de bouleverser les pratiques, les métiers et l’organisation des activités. Il s’agit donc d’anticiper ces transformations, afin de les orienter dans un sens souhaitable tout en minimisant les risques et les menaces qu’elles portent.

La transition numérique induit un déplacement des compétences et des rôles pour les chercheurs et les enseignants. Si l’idée d’un numérique assurant dans leur totalité les fonctions remplies par les enseignants et les chercheurs semble peu plausible, on assiste d’ores et déjà au développement d’un numérique qui redéfinit les rôles de chacun en offrant de nouvelles possibilités de relations, virtuelles et réelles.

Côté recherche, les outils numériques, les données massives et l’automatisation dans la chaîne de connaissances nécessitent de nouvelles compétences en science des données. La mise en relation de jeux de données auparavant cloisonnés, en plus des liens étendus entre acteurs, participe à la montée en puissance de l’interet de la transdisciplinarité.

Côté enseignement, les ressources numériques et leur accessibilité éloignent les enseignants d’un rôle de transmission des connaissances proprement dit et les engagent vers l’accompagnement, le conseil et l’ingénierie pédagogique. Parmi les nouvelles possibilités, il reste à trouver le juste équilibre entre l’usage du présentiel et du distanciel dans l’apprentissage.

Les technologies de la communication ouvrent et facilitent les relations entre chercheurs et enseignants, permettant ainsi une plus forte intégration de ces deux secteurs. De même, ces technologies et leurs nouveaux usages (réseaux sociaux, diffusion rapide de l’information) les rapprochent d’une plus grande diversité d’acteurs de l’innovation économique et de la société civile. Cependant, le bon usage des outils numériques de communication dans les relations entre la recherche et les acteurs de la société reste encore à définir. Au-delà d’une capacité de communication accrue, naît dorénavant une attente d’une nouvelle relation entre le monde scientifique et une société civile non marchande activement partie prenante. Le renforcement du continuum recherche-enseignement (particulièrement réalisable dans le domaine agronomique) et le développement des sciences participatives pourraient apporter une valeur ajoutée.

Les pratiques de recherche et d’enseignement sont impactées à tous les niveaux organisationnels : institutions, collectifs scientifiques et pédagogiques, et scientifiques et techniciens. Avec l’arrivée des approches orientées par les données et des sciences participatives, les modes de production et de diffusion de la connaissance évoluent fortement.

Certaines dynamiques possibles de transformation impliquent l’engagement conséquent des grands acteurs privés du numérique dans des stratégies de gestion et de traitement des données. Dans ce cas de figure, il apparaît essentiel que les institutions de l’ESR dans les domaines spécifiés précisent leur position vis-à-vis de ces nouveaux entrants et des outils et services qu’ils offrent. D’autres évolutions tenant compte de la contrainte imposée sur le numérique par la raréfaction de l’énergie et de certaines ressources naturelles doivent être envisagées. L’affirmation de relations nouvelles vis-à-vis d’une diversité croissante d’acteurs non scientifiques, entreprises ou groupes de citoyens, telle qu’illustrée par la territorialisation de l’ESR, est une tendance en cours qui appelle à réfléchir sur l’organisation et la structuration d’un écosystème numérique local. Enfin, la réflexion est à poursuivre sur les infrastructures de données et de traitement des données, ainsi que sur les dispositifs de formation, qui permettront de répondre efficacement aux défis globaux au cœur du travail des scientifiques dans les domaines de l’agriculture, de l’environnement, de l’alimentation et de la santé animale.

Ce type de réflexion pourra prendre la forme d’approfondissements spécifiques conduits par les acteurs intéressés, en utilisant comme point de départ les quatre scénarios développés dans cette étude prospective et en réfléchissant aux actions faisables et souhaitables au regard des risques à venir et des bénéfices attendus. Assurer le maintien de l’attractivité et de la pertinence de l’enseignement supérieur et de la recherche publique demandera à l’avenir un effort accru de pilotage et d’orientation de la transition numérique. Face à un environnement de plus en plus complexe, cette étude prospective est une contribution à l’anticipation des enjeux de la transition numérique, en préalable à la définition de stratégies institutionnelles.