Interview de Jean-Noël Barrot à l'OSXP 2023

Par: Abilian 10/01/2024 Collaboration Tous les articles

Jean-Noël Barrot, ministre chargé du numérique, a été interviewé par Delphine Sabattier au sujet de la politique de soutien à l'Open Source en France, à la suite d'une déclaration du président Emmanuel Macron soulignant son importance pour le pays.

La vidéo de l'interview

Points Clés de l'Interview

  1. Histoire de l'Open Source en France: JN Barrot souligne que la France valorise et défend l'Open Source depuis longtemps, bien avant la déclaration du président. Il mentionne l'implication de la France dans la construction d'une réglementation numérique européenne, soulignant son rôle dans la défense de l'Open Source.

  2. Stratégies de Défense de l'Open Source: Le ministère défend l'Open Source en exprimant ses positions lors des discussions européennes, en se consultant avec les acteurs de l'écosystème français, et en prenant en compte les opinions de groupes comme le CNLL (Conseil National du Logiciel Libre).

  3. Cyber Resilience Act: JN Barrot discute des inquiétudes liées au Cyber Resilience Act, notamment sur la différenciation entre logiciel open source et fermé. Il insiste sur l'exonération des logiciels libres de certaines obligations légales et affirme que la France a partagé ces inquiétudes au niveau européen.

  4. Souveraineté Technologique et Open Source: JN Barrot voit l'Open Source comme un moyen d'atteindre l'indépendance technologique, particulièrement dans l'IA. Il met en avant deux avantages principaux : la transparence (important pour la démocratie et la sécurité) et la promotion d'une concurrence équitable.

  5. Critique de la Fermeture des Modèles IA: Il critique l'idée de fermer les modèles d'IA comme moyen de sécurité, en se référant à l'approche d'Open AI et à des débats internationaux. Barrot soutient que l'Open Source est une partie de la solution aux problèmes posés par l'IA.

  6. Suprématie dans l'Hébergement et la Puissance de Calcul: Barrot exprime ses préoccupations concernant la domination de quelques entreprises dans le contrôle de l'hébergement et de la puissance de calcul, et l'impact de cela sur le développement de logiciels.

  7. Regulation et Intelligence Artificielle: Le ministre discute du règlement sur l'IA, en soulignant la nécessité de réguler les usages plutôt que les technologies elles-mêmes. Il évoque également le problème de la perpétuation de la suprématie dans le domaine de l'hébergement et de la puissance de calcul.

  8. Soutien aux Projets Open Source en IA: JN Barrot mentionne un appel à projet pour le développement de jeux d'apprentissage et de modèles d'IA open source, dans le but de favoriser la création de solutions d'intérêt général.

Conclusion: Jean-Noël Barrot confirme l'engagement de la France en faveur de l'Open Source, en mettant l'accent sur la transparence, la sécurité, la souveraineté technologique, et la concurrence équitable. Il souligne l'importance de l'Open Source dans le contexte de la réglementation de l'IA et des défis posés par la domination de certaines entreprises dans le domaine technologique.

Transcription de l'Interview

DS (Delphine Sabattier): Et donc, c'est l'heure d'accueillir le ministre chargé du numérique, Jean-Noël Barrot.

Alors, monsieur le ministre, je ne sais pas à quel point vous connaissez cette communauté de l'Open Source, mais elle est en plein dans l'actualité en ce moment, notamment depuis la déclaration du président de la République, Emmanuel Macron, qui nous a dit, "il faut faire de l'Open Source une force pour la France". Comment votre ministère s'empare-t-il de ce sujet ?

JNB: Je ne pense pas que la force du secteur du logiciel libre date de la déclaration récente du président de la République.

Je pense que ça fait bien longtemps que la France est fière de ce secteur, qu'elle s'appuie sur celui-ci et qu'elle défend ses intérêts chaque fois qu'ils sont engagés.

Et c'est le cas en ce moment, puisque en Europe, s'est construit progressivement ces cinq dernières années, je dirais, un édifice réglementaire pour l'économie et la société numérique, et que dans ce contexte, la France, qui a porté une partie du fardeau, puisqu'elle a présidé l'Union européenne pendant six mois, au 1er semestre 2022, la France a à coeur de promouvoir l'Open Source, en général, et de le défendre lorsque il est embarqué dans des régulations qui visent, en premier lieu, le logiciel fermé, sans se préoccuper de l'impact que cela peut avoir pour la vitalité du logiciel libre et de l'Open Source.

DS: C'est-à-dire, comment votre ministère justement le défend cet Open Source ?

JNB: Eh bien, en exprimant ses positions.

Lorsque des textes européens sont en cours d'examins, comme c'est le cas du Cyber Resilience Act, du règlement sur la cyber résilience ou du règlement sur l'intelligence artificielle, nous exprimons à tous les étages, dans les réunions techniques, dans les réunions de ce qu'on appelle les ambassadeurs, c'est les COREPER, et aux conseils qui réunissent les ministres du numérique et des télécoms, nous exprimons, je dis nous, parce que ça a été vrai de mes prédécesseurs aussi, nos positions, et pour cela, on sait évidemment pouvoir se tourner et se documenter, se renseigner auprès des acteurs de l'écosystème français, qui est sans doute l'écosystème le plus dynamique d'Europe et de loin.

Et on est toujours attentifs aux positions prises par le CNLL, et par nos amis du monde du libre, de manière à ce qu'on puisse apporter à la table des discussions les bonnes positions et emporter la conviction de nos amis européens.

DS: Et alors, vous, aujourd'hui, vous pouvez rassurer l'auditoire vis-à-vis du Cyber Resilience Act ?

JNB: Sur le Cyber Resilience Act, on a entendu les inquiétudes et on les partage. On les a donc exprimés à tous les niveaux. Mon sentiment, c'est qu'ils ont été entendus.

La prochaine étape va être d'examiner attentivement le compromis qui a été trouvé, ou l'accord informel qui a été trouvé entre le Parlement et le Conseil représenté par l'Espagne ce semestre. Lorsqu'un tel compromis est trouvé, il est présenté ensuite en ce qu'on appelle le COREPER, donc dans la Réunion des ambassadeurs. Et c'est à cette occasion qu'on va vérifier que nos exigences ont bien été respectées.

Quelles étaient-elles nos exigences ?

Et bien de différencier le logiciel ouvert et le logiciel fermé, d'exonérer le logiciel libre d'un certain nombre des obligations ou des charges juridiques que le règlement sur la Cyber Resilience entend faire peser sur les éditeurs de logiciels de manière à ce que les choses soient équilibrées et efficaces puisque, lorsqu'on est ouvert par définition, on est soumis au contrôle démocratique permanent et donc on doit pouvoir s'exonérer d'un certain nombre des contraintes de ceux qui opèrent des boîtes noires d'une part.

Et puis d'autre part, lorsqu'on est ouvert et qu'en plus on est à but non lucratif, qu'on fait ça d'une manière collaborative, on ne peut pas imaginer supporter des contraintes qui s'imposent à des acteurs commerciaux.

Donc dans ces deux dimensions, la dimension de la transparence et la dimension du caractère lucratif, on a plaidé pour qu'il y ait une gradation dans les obligations.

Un accord a été trouvé il y a quelques jours entre la présidence et le parlement.

Nous allons examiner cet accord dès qu'il nous sera présenté et veiller à ce que nos exigences soient bien respectées, sans quoi nous remontrons à l'assaut.

DS: Parce que dans l'open source, il n'y a pas que du but non lucratif, c'est ça l'inquiétude, tout à fait.

Sur la question de la souveraineté, on en parlait justement lors de la table ronde, sur la question de la cyber-sécurité et de l'open source, et le lien entre les deux, est-ce que vous voyez l'open source comme une manière de travailler, de gagner notre indépendance technologique, notamment dans le domaine de l'IA ?

JNB: Je pense qu'il y a un double dividende au logiciel livre.

Le premier dividende, c'est celui de la transparence. Et avec les inquiétudes qui entourent l'émergence des modèles à vocation générale, il n'y a pas de meilleur remède que l'ouverture et la transparence pour rassurer, rassurer les utilisateurs en permettant une appropriation et un contrôle démocratique sur les solutions logicielles.

Le deuxième dividende, c'est la garantie d'une concurrence équitable, ce qui a très largement fait défaut à l'économie numérique de ces dernières années. Je pense que là aussi, à l'affaut au niveau européen, mais même au niveau international, grâce à la France, grâce au président de la République et grâce à moi, nous avons quelque part emporté une bataille.

Cette bataille, vous la connaissez, c'est celle que les acteurs de l'IA, disons, fermés, voulaient précipiter en nous disant que la seule solution pour sécuriser le monde et éviter l'extinction humaine, c'était de fermer les modèles.

Et pour s'en convaincre, il suffit d'aller sur le site d'Open AI. Sur le site d'Open AI, vous avez un manifeste. Je parle du site avant, je n'ai pas été revoir depuis, mais avant le changement de gouvernance. Avant le changement de gouvernance, avant le sommet IA de Bletchley Park au Royaume-Uni sur les risques extrêmes et l'extermination de l'espèce humaine, vous aviez donc un manifeste sur le site d'Open AI, où les équipes d'Open AI expriment leurs objectifs.

C'est très intéressant.

Jusqu'à ce qu'on arrive au chapitre Safety, au chapitre Sécurité.

Et le chapitre Sécurité, il est relativement court.

Il indique tout simplement que pour nous prémunir contre tous ces risques extrêmes liés à la technologie que ces brave gens ainsi que d'autres développent, il faut fermer les modèles.

Et donc, ces équipes ainsi que d'autres sont venues à Bletchley Park plaider, en faveur d'une fermeture des modèles, comme assurance vie de l'humanité contre les risques extrêmes de l'intelligence artificielle.

Et cette idée-là avait commencé à prospérer très sérieusement et à infuser dans le débat public.

Nous lui avons fait échec, puisque nous sommes allés à Bletchley Park en rappelant tout ce que l'Open Source avait apporté en termes, je dirais, de disciplines démocratiques, mais aussi de disciplines technologiques sur les générations précédentes d'innovation technologique.

Et qu'on ne pouvait pas écarter d'un revers de la main l'idée que l'Open Source fait partie de la solution plutôt que de le désigner comme l'origine du problème.

Et que, bien au contraire, c'est dans l'Open Source qu'il allait falloir chercher les voisins et moyens, y compris pour cette question de la prolifération des modèles et leur appropriation pour leur utilisation à des fins malveillantes, la solution à ces problèmes-là.

Et je pense que nous l'avons emporté puisque ce qui est ressorti de ce sommet Bletchley Park, dont la vocation initiale, ou en tout cas dont certains auraient voulu qu'il se conclut sur l'idée qu'il fallait fermer les modèles, n'a pas du tout conclu de ces termes-là.

Il a conclu dans des termes beaucoup plus nuancés qui consistent à dire que l'Open Source fait partie de la solution. Peut-être qu'il ne faudra pas que tous les modèles soient Open Source dans toutes circonstances, en tout lieu, en tout temps, mais que c'est dans les solutions Open Source qu'on doit trouver l'un des moyens de régler les problèmes liés à l'utilisation malveillante des grands modèles de langage ou des modèles de fondation.

Maintenant, je voudrais faire une remarque connexe.

Ce que l'Open Source, c'est un concept logiciel, mais c'est aussi un esprit.

Et là, je veux parler de l'esprit du 2e dividende que j'évoquais tout à l'heure, qui est celui de la concurrence équitable.

J'ai passé beaucoup de temps ces dernières semaines et ces derniers mois, jusqu'à hier à Bruxelles, à réfléchir à la bonne architecture pour le règlement sur l'intelligence artificielle, qui est un règlement produit, c'est-à-dire un règlement comme on en a pour les ascenseurs, les extincteurs et les jouets, qui dit que si vous mettez sur le marché européen un système d'intelligence artificielle à haut risque qui peut engager la santé, la sécurité, la dignité humaine, alors vous devez obtenir un marquage CE et pour obtenir ce marquage CE, vous devez vous conformer à un certain nombre d'obligations, de documentations, d'audites préalables à la mise sur le marché et vous devez vous tenir à ces engagements, sans quoi que se passe-t-il, que se passe-t-il quand un ascenseur, un extincteur ou un jouet ne respecte plus les obligations afferentes au marquage CE ou un smartphone au hasard l'iPhone 12, c'est le retrait rappel.

Donc c'est un règlement qui, dès ses origines, est particulièrement exigeant et évidemment le plus exigeant du monde. Depuis, on a vu apparaître les grands modèles de langage, donc il y a un grand débat entre le Parlement qui voudrait utiliser ce réglement sur l'intelligence artificielle, ce réglement sur le marquage CE pour traiter de tous les sujets liés au grand modèle de langage.

Nous y sommes opposés parce que nous considérons qu'on ne régule pas une technologie, on régule les usages et qu'une technologie a plein de dimensions qui méritent d'être régulées mais pas dans les mêmes règlements.

Facebook ou les réseaux sociaux, ils sont régulés pour la vie personnelle avec le RGPD, pour la responsabilité sur les contenus illicites par le DSA, pour les questions de concurrence par le DM1, pour les questions de respect de la propriété intellectuelle par la directive des droits voisins et ainsi de suite.

Vous voyez ce que je veux dire ?

On ne va pas, dans la dernière ligne droite de la discussion d'un règlement sur l'intelligence artificielle qui a duré 4 ans, on ne va pas se précipiter pour traiter de toutes les questions de l'IA.

Et ce que je voudrais dire, c'est que tout cela nous occupe beaucoup ces derniers temps.

Mais en réalité, ce qui est le plus préoccupant pour moi ce n'est pas la prolifération des grands modèles de langage.

Ce n'est pas la question des droits d'auteur qui nous faudra traiter mais ce n'est pas le problème principal.

Le problème principal que nous sommes en train de vivre et auquel il faut que nous réagissions de manière très forte c'est la perpétuation de la suprématie d'une petite poignée d'acteurs dans le domaine du contrôle de l'accès à l'hébergement et la puissance de calcul.

Open AI, Mistral, Anthropic, tout cela, c'est formidable.

Ce sont des équipes de chercheurs extraordinaires qui sont en train de faire des découvertes majeures, etc.

Mais c'est la pointe émergée de l'iceberg.

L'iceberg, ce sont les dizaines de milliards de dollars qui sont investis par une toute petite poignée d'acteurs pour capter toute la puissance de calcul disponible sur la planète, d'une part, et ensuite investir le cash qui leur reste au capital de ces petites sociétés que sont Open AI, Anthropic, Mistral et d'autres, surtout Open AI, Anthropic, mais il y en a d'autres, investissements qui se chiffrent eux-mêmes en milliards voire en dizaines de milliards et qui sont consacrés à quoi, par ces petites entreprises, ces petites PME du modèle de langage, qui sont consacrés à louer à cette même poignée d'acteurs la puissance de calcul.

Il n'y a que quelque chose de formidablement circulaire qui s'apparente à un recyclage de rentes de monopoles constituées depuis dix ans, et à la captation, si l'on peut dire, de la killer app pour continuer de se préserver une situation d'ultradominance sur les marchés.

C'est ce problème-là qu'il va nous falloir résoudre.

Nous avons su, grâce à la France, avec l'Union Européenne prendre des mesures assez radicales pour mettre fin à des pratiques déloyales.

C'est le cas dans le DMA, et c'est le cas dans le règlement sur les données que le projet de loi que je porte aujourd'hui au Parlement anticipe en disant qu'il sera interdit de facturer des frais de transfert quand on passe d'un hébergeur à un autre, qu'il faudra pouvoir multiclouder, donc pouvoir avoir de l'interopérabilité.

C'est pas tout à fait la question du libre, mais vous voyez qu'on en est proche.

C'est la question de la captation de la puissance de calcul et du contrôle d'accès dans une logique d'ultradominance qui va s'imposer à nous si nous ne faisons rien.

Ce que je dis, c'est qu'aujourd'hui, se terminera peut-être la discussion, ou la discussion politique sur le règlement sur l'intelligence artificielle.

Oui, la fin du trilogue, c'est aujourd'hui ce soir.

S'il faut convoquer un nouveau trilogue, j'ai pas de problème à cela. Nous avons besoin d'un bon accord sur les questions dont traite le règlement sur l'IA.

Mais ce que je veux dire ici, c'est que le travail de régulation n'est pas terminé, non seulement parce qu'il faudra traiter la question des droits d'auteur, de la compatibilité avec le RGPD, tout un tas d'autres choses, mais surtout parce qu'il nous faudra prendre à bras le corps ce problème que je viens de présenter, qui est le risque de devoir se reconstituer une ultradomination dans le domaine de l'accès à l'hébergement et la puissance de calcul, qui est un problème fondamentalement lié aux possibilités de développer de manière ouverte et libre les logiciels dont nous avons besoin.

Et puis, il y a aussi cette question de comment faire pour que la valeur créée par ces modèles open source ne serve pas uniquement des intérêts privés, mais aussi l'intérêt général.

DS: J'imagine que ça, c'est un sujet sur lequel vous réfléchissez, vous travaillez.

JNB: Absolument.

Et comme vous le savez, comme un certain nombre d'entre vous le savent, le président de la République à Vivatec avant l'été, avait déjà parlé d'open source et avait, au côté des annonces qui concernent le développement des talents, 500 millions d'euros consacrés au développement de cluster, de formation et de recherche en IA, au côté des annonces concernant la base installée de puissance de calcul en France avec le renforcement de Jean Zé, 50 millions d'euros, notre supercalculateur, celui-là même qui a permis au modèle Bloom, ouvert d'être entraîné, il a annoncé un appel à projet pour les communs en matière d'IA.

Avec deux objectifs.

Le premier, c'est de soutenir le développement de jeux d'apprentissage pour les modèles d'IA issus de la langue et de la culture française, avec une claire incitation aux acteurs qui sont dépositaires d'une partie de ce patrimoine, des BNF, des INA et d'autres, a formé avec des acteurs du logiciel des consortiums de manière à pouvoir créer des jeux de données équilibrés ouverts, sous licence, éventuellement, mais qui permettent un entraînement raisonnable et raisonné, si l'on peut dire, des modèles d'intigences artificielles à venir dans une logique de commun, venez en France, plutôt que d'entraîner vos modèles sur l'Internet, vous pourrez entraîner ou raffiner vos modèles sur des jeux d'apprentissage de qualité.

Et vous connaissez le proverbe auvergnat: "garbage in, garbage out".

Si on a des jeux de données qui sont équilibrés, on aura à la sortie des modèles qui le seront sans doute un peu plus.

Le premier objectif, c'est ces jeux d'apprentissage.

Et le deuxième, c'est de soutenir des communs, des modèles, donc des modèles open source, qui ont une vocation, une vocation d'intérêt général, qui peuvent être développés par des acteurs qui ensuite les utiliseront dans diverses applications, y compris des applications commerciales.

Et là aussi, l'idée est de susciter la formation de consortium entre des acteurs de l'IA, des acteurs du libre, pour produire des solutions.

On a reçu beaucoup de candidatures à cet appel à projet et je m'en félicite.

Cela signifie qu'il y avait sans doute une attente, et c'est une manière très concrète pour nous de soutenir le développement de l'open source en matière d'intelligence artificielle.

DS: Merci beaucoup, monsieur le ministre. Merci.

[Applaudissements]