Protection juridique et risque pour un logiciel développé avec l’intelligence artificielle

Protection juridique et risque pour un logiciel développé avec l’intelligence artificielle

Article rédigé par Sylvie ROZENFELD

Rédactrice en chef d’Expertises

Temps de lecture : 7mn| Protection

L’automatisation et l’intelligence artificielle (IA) ont profondément transformé le développement de logiciels, en modifiant la manière de les concevoir et de produire du code. Ces technologies ont permis d’accélérer le processus de développement. Mais le recours à l’IA n’est toutefois pas sans risque. D’abord, on peut commettre un acte de contrefaçon en intégrant un code suggéré par l’IA alors que la licence qui y est rattachée ne l’autorise pas. Par ailleurs, se pose la question de savoir si un logiciel constitué de codes générés par l’IA reste “original”, condition de la protection par le droit d’auteur.

L’intégration d’outils d’intelligence artificielle dans le développement de logiciels permet aux développeurs de se concentrer sur la conception de solutions innovantes, en automatisant les tâches répétitives. L’IA peut générer du code, suggérer des améliorations et même détecter des bugs. Cependant, l’automatisation et l’IA ne sont pas sans risques. L’un des principaux défis est de garantir que les conditions d’utilisation de la licence rattachée au code suggéré par l’IA autorisent sa reprise. En effet, l’IA est souvent formée sur des bases de données contenant des milliards de lignes de code provenant de diverses sources, dont certaines peuvent être protégées par des droits d’auteur. Analysons de plus près la nature et l’impact de ces risques.

Risque de violer la licence du code suggéré par l’intelligence artificielle

Lorsque l’IA suggère du code, elle ne crée pas de nouveau code mais va aller piocher dans ses bases de données du code déjà existant. Il est donc essentiel de savoir à quelle licence ce code est rattaché. Si le code original est protégé par une licence qui interdit son utilisation dans certaines conditions, le reprendre pourrait constituer une violation du droit d’auteur. C’est un risque particulièrement élevé dans le cas de l’IA, qui peut générer du code basé sur une multitude de sources différentes. Pour pouvoir suggérer du code, l’IA, en particulier les systèmes d’apprentissage automatique, a été entraînée sur de vastes bases de données comportant des milliards de lignes de code sources provenant de diverses origines, y compris des projets open source, des bibliothèques de codes, des forums de développeurs et d’autres ressources. L’intelligence artificielle apprend des modèles et des structures dans ces bases et utilise ces connaissances pour générer du code. 

Or, les codes sources sur lesquels l’IA est formée peuvent être protégés par un droit de propriété intellectuelle, le Copyright aux Etats-Unis et le droit d’auteur en France, et être donc soumis à diverses licences. Certaines de ces licences peuvent être permissives, autorisant une large utilisation et une modification du code. D’autres peuvent être plus restrictives, limitant l’utilisation, la distribution ou la modification du code. Par exemple, certaines licences peuvent interdire l’utilisation commerciale du code, tandis que d’autres peuvent exiger que toute modification soit également rendue open source. 

Si un développeur intègre du code soumis à une licence open source restrictive, cela pourrait potentiellement constituer une violation de la licence du code source original, exposant les développeurs et leurs entreprises à des risques de poursuites judiciaires pour violation des droits de propriété intellectuelle. Or, quand ces outils suggèrent du code, ils ne donnent aucune information sur son régime juridique ni sur la licence à laquelle le code est soumis. 

Un exemple de violation de droit d’auteur : Copilot, l’IA de GitHub, attaquée en justice  

Ce risque n’est pas une hypothèse théorique puisqu’en novembre dernier, Microsoft, GitHub et OpenAI ont été visés par une plainte collective (class action) aux Etats-Unis concernant Copilot, l’IA de GitHub, accusé de violer les termes des licences open source et de porter atteinte aux droits de développeurs. La somme de neuf milliards de dollars de dommages et intérêts est réclamée[1]. 

Copilot est un outil développé par GitHub qui utilise l’intelligence artificielle pour suggérer du code aux développeurs. Il se sert de Codex d’OpenAI et génère des recommandations de code notamment au sein de Visual Studio de Microsoft. Il a été formé sur des milliards de lignes de code provenant de diverses sources publiques, y compris de nombreux projets open source. Copilot est capable de transformer des instructions en langage naturel en suggestions de code, ce qui peut aider les développeurs à coder plus rapidement et à se concentrer sur la logique métier plutôt que sur le code de base. Il propose la suite d’un développement avec précision en suggérant du code au fur et à mesure que la personne programme. Il parcourt les suggestions pour décider de les accepter ou de les rejeter. 

Une autre question se pose pour les développeurs qui créent un logiciel à partir de lignes de code générées par l’intelligence artificielle. Si ce code source est soumis à une licence open source contaminante comme la GPL, le logiciel qui incorpore le code suggéré par l’IA sera soumis à cette licence. Or, le développeur ignorant le régime juridique du code, faute d’information de la part de l’IA, court le risque de violer la licence, sans le savoir et d’être poursuivi en justice.  

Protection par le droit d’auteur du logiciel développé grâce à l’Intelligence Artificielle 

Enfin, on peut se poser la question de savoir si le logiciel développé à partir d’un code généré par une IA est protégé par le droit d’auteur. En France (et comme la plupart des pays signataires de la Convention de Berne)[2], le logiciel est considéré comme une œuvre de l’esprit et est donc protégé par le droit d’auteur, comme le stipule l’article L112-2 du Code de la propriété intellectuelle. Aux Etats-Unis, il est protégé par le Copyright. La seule condition de sa protection est l’originalité, à savoir la preuve d’un effort personnalisé allant au-delà de la simple mise en œuvre d’une logique automatique et contraignante. 

Aujourd’hui, l’apport de l’Intelligence Artificielle se limite à la suggestion de codes. Or, la protection par le droit d’auteur ne se limite pas au code source mais porte aussi sur le code objet, les travaux préparatoires, l’architecture, l’arborescence, les bases de données, les interfaces graphiques, les polices de caractère, etc. Par ailleurs, le développement d’un logiciel va bien au-delà de l’écriture du code source et couvre de nombreux aspects : choix technologiques, déploiement, contraintes de sécurité, etc. Dès l’instant que le logiciel dans son ensemble est considéré comme original, il reste protégé par un droit de propriété intellectuelle, à savoir le droit d’auteur. 

[1]https://www.lemondeinformatique.fr/actualites/lire-premiere-action-judiciaire-contre-github-copilot-88522.html

[2]https://www.wipo.int/export/sites/www/treaties/fr/docs/pdf/berne.pdf

Enfin, le code généré par un outil d’IA pose un problème de sécurité, en raison de l’existence de codes défectueux ou contenant des failles de sécurité. Les développeurs doivent rester attentifs lorsqu’ils utilisent Copilot, par exemple, en raison d’un taux élevé de code défectueux. Sans compter que Copilot est dans l’incapacité de fournir des éléments de contexte du fichier fourni. 

En conclusion, il est essentiel que les développeurs et les entreprises se questionnent sur les droits et les licences des codes générés par de l’intelligence artificielle qu’ils incorporent dans leur propre code et des garanties qu’ils sont en mesure d’apporter, notamment en vérifiant les conditions d’utilisation du code. Reste enfin à s’interroger sur la valeur d’un logiciel qui comporte une part importante de codes issus des suggestions par un outil d’intelligence artificielle. 

Vous avez aimé l’article ? 

N’hésitez pas à le partager et à nous suivre sur nos réseaux sociaux pour en apprendre plus