Microsoft est poursuivi pour piratage de logiciels libres via GitHub Copilot
Le programmeur et avocat Matthew Butterick a intenté un procès à Microsoft, GitHub et OpenAI, alléguant que le Copilot de GitHub viole les termes des licences open-source et enfreint les droits des programmeurs.
GitHub Copilot, sorti en juin 2022, est une aide à la programmation basée sur l’IA qui utilise OpenAI Codex pour générer des recommandations de code source et de fonctions en temps réel dans Visual Studio.
L’outil a été entraîné avec l’apprentissage automatique en utilisant des milliards de lignes de code provenant de dépôts publics et peut transformer le langage naturel en extraits de code à travers des dizaines de langages de programmation.
Éliminer les auteurs
Si Copilot peut accélérer le processus d’écriture du code et faciliter le développement de logiciels, son utilisation du code public open-source a suscité l’inquiétude des experts qui craignent qu’il ne viole les attributions et les limitations des licences.
Les licences de code source ouvert, comme les licences GPL, Apache et MIT, exigent l’attribution du nom de l’auteur et la définition de droits d’auteur particuliers.
Cependant, Copilot supprime ce composant, et même lorsque les extraits font plus de 150 caractères et sont tirés directement de l’ensemble de formation, aucune attribution n’est donnée.
Certains programmeurs sont allés jusqu’à appeler cela du blanchiment de sources ouvertes, et les implications juridiques de cette approche ont été démontrées après le lancement de l’outil d’IA.
“Il semble que Microsoft profite du travail d’autrui en ne tenant pas compte des conditions des licences open-source sous-jacentes et d’autres exigences légales”, commente Joseph Saveri, le cabinet d’avocats qui représente Butterick dans le litige.
Pour aggraver les choses, des personnes ont signalé des cas où Copilot a divulgué par erreur des secrets publiés sur des référentiels publics et donc inclus dans l’ensemble d’entraînement, comme des clés d’API.
Outre les violations de licence, Butterick allègue également que la fonction de développement viole les points suivants :
- Les conditions de service et les politiques de confidentialité de GitHub,
- DMCA 1202, qui interdit la suppression des informations relatives à la gestion des droits d’auteur,
- le California Consumer Privacy Act,
- et d’autres lois donnant lieu à des réclamations juridiques connexes.
La plainte a été déposée auprès du tribunal de district américain du district nord de Californie, demandant l’approbation de dommages-intérêts légaux de 9 000 000 000 $.
“Chaque fois que Copilot fournit une sortie illégale, il viole trois fois la section 1202 (distribution des matériaux sous licence sans : (1) attribution, (2) avis de droit d’auteur, et (3) conditions de licence)”, peut-on lire dans la plainte.
“Ainsi, si chaque utilisateur reçoit une seule sortie qui viole la section 1202 pendant toute la durée d’utilisation de Copilot (jusqu’à quinze mois pour les premiers utilisateurs), alors GitHub et OpenAI ont violé le DMCA 3 600 000 fois. Avec des dommages-intérêts légaux minimums de 2 500 $ par violation, cela se traduit par 9 000 000 000 $.”
Nuire à l’open-source
Butterick a également abordé un autre sujet dans un billet de blog publié plus tôt en octobre, en évoquant les dommages que Copilot pourrait causer aux communautés open-source.
Le programmeur a fait valoir que l’incitation aux contributions et à la collaboration en matière de logiciels libres est essentiellement supprimée en offrant aux gens des extraits de code sans jamais leur dire qui a créé le code qu’ils utilisent.
“Microsoft est en train de créer un nouveau jardin clos qui empêchera les programmeurs de découvrir les communautés open-source traditionnelles”, écrit Butterick.
“Au fil du temps, ce processus va affamer ces communautés. L’attention et l’engagement des utilisateurs seront détournés […] des projets open-source eux-mêmes – de leurs dépôts de sources, de leurs traqueurs de problèmes, de leurs listes de diffusion, de leurs forums de discussion.”
Butterick craint qu’avec le temps, Copilot ne provoque le déclin des communautés open source et, par extension, la diminution de la qualité du code dans les données de formation.
“Nous nous sommes engagés à innover de manière responsable avec Copilot depuis le début, et nous continuerons à faire évoluer le produit pour mieux servir les développeurs du monde entier.” – GitHub.