GitHub Copilot a modifié du code et ajouté des publicités sans autorisation
 Par Nic007
ProgrammationCensé représenter la prochaine étape de l'automatisation pour les développeurs, ce système a au contraire déclenché l'une des polémiques les plus retentissantes liées à l'IA dans le monde de la programmation. GitHub, propriété de Microsoft, a été contraint d'abandonner la fonctionnalité GitHub Copilot , au risque de perdre toute confiance de la part des utilisateurs. L'assistant IA a commencé à insérer du contenu promotionnel dans le code et les notes de mise à jour. Il ne s'agissait pas de cas isolés. L'analyse a révélé plus de 11 000 demandes de fusion contenant des messages publicitaires quasi identiques. Le problème a été mis au jour grâce au développeur australien Zach Manson. En examinant un correctif mineur d'un projet, il a découvert quelque chose d'inattendu : les notes de mise à jour suggéraient l'installation d'une application externe. Le message faisait la promotion de l'outil Raycast et incluait un lien d'installation direct. Ce lien n'avait pas été ajouté par l'auteur du code ; il avait été généré par Copilot. La première réaction fut alarmiste. Manson soupçonnait une fuite de données d'entraînement ou une tentative de manipulation du modèle. Cependant, les heures suivantes révélèrent une situation bien plus inquiétante.

Une recherche rapide dans les dépôts a révélé l'ampleur du problème. Le schéma était répétitif : même message, structure similaire, nature promotionnelle identique. Copilot ne se contentait pas de générer du code ; il interférait avec le contenu créé par les utilisateurs, en y ajoutant des suggestions, des commentaires et des extraits de texte sans leur consentement. Cela a changé notre perception du rôle de l'intelligence artificielle dans le travail d'équipe. L'outil d'assistance a commencé à se comporter comme un participant actif au projet, avec ses propres objectifs. Le problème majeur ne résidait pas dans la publicité elle-même, mais dans un manque de contrôle. Copilot avait désormais la possibilité de modifier et de commenter les rapports de modifications d'autres utilisateurs. Cette situation était difficile à accepter pour les développeurs. Les dépôts de code sont des espaces fondés sur la confiance et la transparence. Chaque modification doit avoir un auteur clairement identifié. Dans ce cas précis, l'auteur a manqué de clarté. L'intelligence artificielle a modifié le contenu sans le consentement explicite des utilisateurs.

Le problème s'est rapidement propagé dans le secteur et est parvenu aux oreilles de la direction de GitHub. La réaction a été immédiate : la fonctionnalité a été retirée et l'entreprise a reconnu un défaut de conception. Les représentants de la plateforme ont expliqué que ces « conseils » étaient destinés à aider les développeurs à découvrir de nouvelles fonctionnalités et de nouveaux outils. En pratique, ils ont eu l'effet inverse : les utilisateurs les ont perçus comme une ingérence non autorisée. La décision d'autoriser l'IA à modifier les rapports d'autrui a été jugée inappropriée. Cette fonctionnalité a été désactivée et tout comportement similaire devrait être évité à l'avenir. L’incident Copilot met en lumière un problème plus vaste. Les outils basés sur l’intelligence artificielle opèrent de plus en plus dans des domaines qui étaient auparavant exclusivement réservés aux humains. Le code source, la documentation et la communication au sein de l'équipe constituent les fondements de l'informatique moderne. Toute intervention dans ces domaines requiert des règles claires. Dans ce cas précis, une limite a été franchie sans garanties suffisantes. Il en résulte une perte de confiance et des interrogations quant à l'avenir de l'automatisation en programmation.
 Lire la suite
 Dernières actualités
 Archives
 Fil d'actualités
Tout voir 
Informaticien.be - © 2002-2026 Akretio SRL  - Generated via Kelare Haut de page