● Numerama 📅 27/03/2026 à 18:35

GitHub va se servir de votre code pour entraîner son IA (et c'est activé par défaut)

Cybersécurité 👤 Amine Baba Aissa
Illustration
Lecture Zen Résumer l'article À partir du 24 avril 2026, GitHub utilisera les données des interactions avec Copilot pour entraîner ses modèles d'IA, à condition que l'utilisateur ne désactive pas cette option. La collecte concerne ce que l'utilisateur saisit, les suggestions acceptées ou modifiées, la documentation, et ses interactions avec les fonctionnalités de Copilot, visant les comptes Free, Pro et Pro+. Par défaut, les utilisateurs sont inclus dans la collecte des données, mais ils peuvent se retirer via les paramètres de Copilot, une approche justifiée par l'intérêt légitime dans le cadre du RGPD selon GitHub. À partir du 24 avril 2026, GitHub utilisera les données des interactions avec Copilot pour entraîner ses modèles d'IA, à condition que l'utilisateur ne désactive pas cette option. La collecte concerne ce que l'utilisateur saisit, les suggestions acceptées ou modifiées, la documentation, et ses interactions avec les fonctionnalités de Copilot, visant les comptes Free, Pro et Pro+. Par défaut, les utilisateurs sont inclus dans la collecte des données, mais ils peuvent se retirer via les paramètres de Copilot, une approche justifiée par l'intérêt légitime dans le cadre du RGPD selon GitHub. Recevez tous les soirs un résumé de l’actu importante avec Le Récap’ GitHub change son fusil d’épaule. Après avoir laissé planer un temps l’idée que les données de ses utilisateurs serviraient avant tout à améliorer Copilot sans forcément être réinjectées dans les modèles d’IA, la plateforme annonce désormais qu’elles seront bel et bien utilisées pour entraîner ses IA, à certaines conditions. La bascule aura lieu à partir du 24 avril 2026. Sur GitHub, pour la plupart des comptes, les interactions avec Copilot, ce que vous tapez, ce que vous acceptez, ce que vous modifiez, deviendront des données d’entraînement potentielles. Un virage tactique qui confirme la logique de Microsoft : nourrir Copilot avec le plus grand corpus possible de code et de comportements réels de développeuses et développeurs. Faux SMS, mails frauduleux… Ne tombez plus dans le piège ! Gardez toujours une longueur d’avance sur les fraudeurs. Bitdefender Scam Protection analyse, détecte et neutralise instantanément les escroqueries qui visent votre argent. Une protection invisible mais redoutable, intégrée à Bitdefender Premium Security. Sponsorisé Je me protège contre les arnaques. Les conditions d’utilisation ont été mises à jour le 25 mars 2026 // Source : Capture d’écran Numerama Ce que GitHub va collecter (et comment) L’article de blog annonçant cette bascule a été publié le 24 mars 2026 et précise que GitHub va désormais utiliser pour entraîner ses modèles : ce que vous saisissez dans Copilot (inputs, snippets, contexte autour du curseur), les suggestions Copilot que vous acceptez ou que vous modifiez, les commentaires de code, la documentation, les noms de fichiers et la structure de vos dépôts, vos interactions avec les fonctionnalités Copilot (chats, feedback, likes / dislikes). La cible principale : les comptes Copilot Free, Pro et Pro+. Les comptes Copilot Business et Enterprise sont exclus par défaut, car leurs contrats définissent déjà des règles spécifiques sur l’utilisation des données. Les utilisateurs étudiants et enseignants connectés via Copilot échappent aussi à ce mécanisme. Vous acceptez par défaut Le média britannique The Register insiste sur le point le plus sensible de ce changement : la façon dont il est possible de se soustraire à cette collecte. GitHub ne propose pas un opt‑in au sens strict, mais un opt‑out. En clair, vous êtes intégrés par défaut dans la collecte de vos interactions destinées à l’entraînement des IA. Pour vous opposer, il faut se rendre dans Paramètres → Copilot → Fonctionnalités, puis désactiver la case « Autoriser GitHub à utiliser mes données pour l’entraînement des modèles d’IA » dans la section Confidentialité. Via une mise à jour de ses conditions de collecte, GitHub précise que, pour les utilisateurs de l’Espace économique européen (EEE) et du Royaume‑Uni, ce traitement repose sur la base juridique de l’intérêt légitime. Une mention qui sert à justifier l’opt‑out dans le cadre du RGPD, même si la pratique reste très proche des standards américains. La plateforme estime que cette collecte vise à améliorer la qualité de Copilot : mieux comprendre les vrais workflows de développement, augmenter la pertinence et la sécurité des suggestions de code, et repérer plus tôt les bugs ainsi que les patterns fragiles avant qu’ils n’atteignent la production. Votre VPN préféré n'est pas celui que vous croyez Quels sont les meilleurs VPN en 2026 ? Notre comparatif Retrouvez notre comparateur pour choisir le meilleur VPN Toute l'actu tech en un clin d'œil Ajoutez Numerama à votre écran d'accueil et restez connectés au futur ! Installer Numerama Pour ne rien manquer de l’actualité, suivez Numerama sur Google ! Crédit photo de la une : montage Numerama Signaler une erreur dans le texte Ne plus voir cette pub Ne plus voir cette pub Github IA générative Microsoft Copilot Tech
← Retour