Développeur travaillant sur un code open source d’intelligence artificielle, illustrant l’innovation et les enjeux de sécurité liés à l’IA.

IA Open Source : entre innovation et sécurité

Article rédigé par Fabrice DEGROOTE et Anne-Maud LAGARDE, avocats chez Simon Associés

Temps de lecture : 5mn| Intelligence Artificielle

L’intelligence artificielle (IA) open source désigne tout outil d’IA dont le code source est librement accessible au public, permettant ainsi à toute personne d’y accéder, de l’utiliser, de le modifier, de le redistribuer ou de l’intégrer, en tout ou partie, à d’autres technologies. 

L’IA open source s’impose aujourd’hui comme un enjeu majeur d’innovation. En facilitant l’accès au code, l’open source encourage une dynamique de collaboration entre développeurs, favorisant de nouvelles avancées dans le domaine de l’IA.  

Cette ouverture s’aligne avec les exigences croissantes de transparence, de sécurité et de responsabilité imposées par les législateurs, comme en témoignent notamment le Règlement européen sur l’IA (« AI Act ») ou le Code volontaire canadien « Innovation, Sciences et Développement économique » (ISDE) (I).  

Toutefois, cette ouverture n’est pas sans risque. L’absence de garanties juridiques et contractuelles, le risque de condamnation pour contrefaçon ou encore le détournement du code source pour développer un outil d’IA illicite, soulèvent des questions sur l’équilibre entre innovation et sécurité (II) et incitent les juristes à adopter certaines pratiques préventives (III). 

 

Ce qu’il faut retenir de l’IA open source 

  • Innovation technologique : l’accès, la modification et l’amélioration du code source favorisent la recherche et la collaboration dans le domaine de l’IA ; 
  • Encouragement réglementaire : l’AI Act et le Code volontaire canadien ISDE soutiennent le recours à l’open source dans le domaine de l’IA, qualifiant celui-ci de « moteur d’innovation » ; 
  • Risques de sécurité : 
  • Incohérences et défaillances possibles en l’absence de concertation préalable des développeurs successifs ; 
  • Exploitation malveillante du code source pour développer des outils d’IA illicites et dangereux. 
  • Risques juridiques : 
  • Les contrats de licence d’utilisation prévoient que l’outil d’IA open source est mis à disposition « tel quel », c’est-à-dire sans garantie ni indemnisation pour l’utilisateur en cas de défaillance de l’outil ; 
  • Risque de condamnation pour contrefaçon en cas de développement ultérieur de l’outil d’IA au mépris des conditions de la licence open source et ce, même dans le cadre d’une relation contractuelle. 

 

I. Les apports innovants de l’IA open source 

Le recours à l’open source dans le domaine de l’IA est un facteur d’innovation et est donc favorisé tant au niveau technologique (A), qu’au niveau juridique (B). 

A. Les progrès technologiques dans le domaine de l’IA, favorisés par l’open source 

De plus en plus d’outils d’IA tels que LLaMa (Meta), Gemma (Google), Phi-2 (Microsoft) ou encore R1 (DeepSeek), sont proposés en open source.  En effet, l’open source permet d’explorer, d’adapter et d’améliorer les outils d’IA sans les contraintes financières des logiciels propriétaires.  L’open source encourage aussi une dynamique de collaboration entre développeurs et favorise ainsi de nouvelles avancées dans le domaine de l’IA. 

Porteur d’une utilisation responsable de l’IA open source, Microsoft propose une boîte à outils d’IA open source responsable, grâce à son service cloud Azure Machine Learning. Cette boîte à outils a pour objectif d’aider les développeurs à identifier les solutions les plus adaptées pour gérer les défaillances des outils d’IA sans en introduire de nouvelles ni altérer la performance de l’outil. 

Microsoft considère que le recours à l’IA open source est indispensable pour l’innovation puisqu’elle favorise le partage des connaissances entre des développeurs de multiples entreprises distinctes.[1]

B. Le recours à l’open source encouragé par les textes juridiques relatifs à l’IA 

Si les textes juridiques encadrant l’IA demeurent peu nombreux, ils prônent toutefois le recours à l’open source, considérant celui-ci comme un moteur d’innovation.[2]

En effet, les principes fondamentaux érigés par l’AI Act ou le Code volontaire canadien ISDE s’accordent avec la nature « ouverte » de l’IA open source : 

  • Principes de transparence et d’auditabilité : l’open source permet aux développeurs d’analyser le code source de l’outil d’IA et, le cas échéant, de le corriger et ainsi de mettre l’outil d’IA en conformité aux réglementations applicables ; 
  • Principe de responsabilité : l’open source permet aux utilisateurs de suivre chaque étape d’évolution de l’outil d’IA, facilitant ainsi l’identification du développeur responsable de la défaillance ; 
  • Principes de sécurité et de fiabilité : l’open source permet aux développeurs d’identifier et de corriger les défaillances ou les vulnérabilités du code source d’un outil d’IA. 

Si l’open source favorise de manière évidente l’innovation en matière d’IA, il n’est toutefois pas sans risque. 

 

II. Les risques liés à l’IA open source 

Le recours à l’open source dans le domaine de l’IA est susceptible d’entraîner des risques de sécurité (A) et des risques juridiques (B). 

A. Les risques de sécurité liés à l’IA open source 

Si la collaboration de plusieurs développeurs à un même outil d’IA open source peut contribuer à l’identification et à la correction des défaillances, elle peut aussi, en l’absence de concertation préalable de ces développeurs, provoquer des incohérences dans les mises à jour et des retards dans les corrections des failles de sécurité. 

Par ailleurs, la transparence des outils d’IA peut permettre à des développeurs malveillants de détourner et d’utiliser l’outil d’IA à des fins illicites. A titre d’exemple, en juillet 2022, des hackers ont développé une version non-censurée de l’outil d’IA open source de Meta (Llama 2), quelques jours seulement après sa publication, afin qu’il puisse leur donner la méthode de fabrication d’une bombe nucléaire.[3]

B. Les risques juridiques liés à l’IA open source 

Dans la plupart des cas, les contrats de licence d’utilisation prévoient que l’outil d’IA open source est mis à disposition « tel quel », c’est-à-dire sans garantie ni indemnisation en cas de défaillance de l’outil. Les recours dont disposent les utilisateurs contre les développeurs de l’outil d’IA open source sont donc limités. 

Par ailleurs, les développeurs peuvent détenir des droits de propriété intellectuelle sur leurs outils d’IA open source, sans que les utilisateurs et/ou développeurs ultérieurs en soient systématiquement informés. Ces derniers devront donc s’assurer que l’utilisation et/ou le développement de l’outil d’IA open source est libre et ne nécessite pas d’autorisation préalable des précédents développeurs afin d’éviter de voir leur responsabilité engagée sur le fondement de la contrefaçon et ce, y compris dans le cadre d’une relation contractuelle avec ces précédents développeurs[4]. 

 

III. Les bonnes pratiques à adopter pour limiter les risques liés à l’IA open source 

Les pratiques suivantes peuvent être adoptées afin de limiter les risques juridiques de l’IA open source : 

  • Analyser les conditions de la licence du composant open source avant de l’intégrer dans un outil d’IA ; 
  • S’assurer que l’utilisation et/ou le développement d’un outil d’IA open source ne contrevient pas aux droits de propriété intellectuelle des précédents développeurs ; 
  • Intégrer les conditions de la licence open source applicables dans le champ contractuel du contrat de développement spécifique de logiciel / du contrat de licence de logiciel.

À propos des auteurs

Cet article a été rédigé par par Fabrice Degroote et Anne-Maud Lagarde, tous deux avocats au Barreau de Paris et respectivement associé et collaboratrice au sein du département Numérique, Informatique, Innovation & Data du cabinet Simon Associés.

Références et sources

  1. Microsoft Research — Responsible AI: The research collaboration behind new open-source tools offered by Microsoft : Lire l’article sur le site de Microsoft .
  2. Considérant 102 du Règlement (UE) 2024/1689 : Consulter sur EUR-Lex .
  3. Tekkit.io — L’open source dans l’intelligence artificielle : enjeux, défis et perspectives : Lire l’article sur Tekkit.io .
  4. Cour de cassation — Décision du 15 février 2024 : Consulter la décision sur le site de la Cour de cassation .

 

Vous avez aimé l’article ? 

N’hésitez pas à le partager et à nous suivre sur nos réseaux sociaux pour en apprendre plus

 

Nous suivre sur LinkedIn
Share
Nous suivre sur YouTube