Notícia Build·Desenvolvimento·Fonte: InfoQ

GitHub Copilot usa código privado pra treinar IA a partir de hoje

GitHub Copilot passa a coletar snippets, inputs e outputs de repositórios privados para treinar modelos a partir de 24 de abril de 2026. Veja como fazer opt-out.

Vitor Morais

Por Vitor Morais

Fundador do MochaLabz ·

O GitHub Copilot passou a coletar dados de repositórios privados para treinar seus modelos de IA a partir de 24 de abril de 2026, afetando todos os planos Free, Pro e Pro+. Os dados coletados incluem "code snippets, inputs, outputs, and navigation patterns from active sessions, including private repos" — e o opt-in é automático, sem aviso explícito dentro da IDE.

O que é coletado e por quem

A mudança se aplica a qualquer sessão ativa com o Copilot habilitado: cada autocompletion aceita ou rejeitada, cada prompt enviado ao chat e os padrões de navegação entre arquivos entram no pipeline de treinamento da Microsoft/GitHub. Repositórios privados — incluindo projetos de clientes, código proprietário de micro-SaaS e protótipos em validação — estão no escopo.

A FAQ publicada junto ao anúncio afirma que "the change will go into effect on April 24, giving users 30 days' advance notice" — mas a janela de 30 dias correu em segundo plano, sem notificação em destaque para a maioria dos usuários.

  • Copilot Free — coletado por padrão, sem assinatura paga.
  • Copilot Pro / Pro+ — incluídos na mesma política; nenhum plano pago está isento automaticamente.
  • Copilot Business / Enterprise — política distinta; administradores de organização têm controle separado e, em geral, coleta desabilitada por default.

Como fazer opt-out agora

O opt-out é feito nas configurações da conta GitHub, não na extensão da IDE. Acesse github.com → Settings → Copilot → Policies e desative a opção "Allow GitHub to use my data to improve and train Copilot models". A mudança tem efeito imediato para novas sessões.

  1. Abra github.com e vá em Settings (foto de perfil → Settings).
  2. No menu lateral, clique em Copilot.
  3. Em Policies, localize "Allow GitHub to use my data to improve Copilot".
  4. Desmarque a opção e salve.
  5. Reinicie a extensão Copilot no VS Code / Cursor para garantir nova sessão limpa.

Atenção: código de clientes pode estar sendo coletado hoje

Se você trabalha com repositórios privados de clientes — mesmo em conta pessoal — e não fez opt-out, os snippets desses projetos já estão sendo enviados para treino a partir de hoje. Dependendo do contrato de NDA ou cláusula de confidencialidade, isso pode gerar responsabilidade. Faça o opt-out antes de abrir a próxima sessão de código.

Impacto prático para freelancer e solopreneur BR

Do ponto de vista da LGPD, código-fonte que contém dados pessoais de usuários finais (e-mails, CPFs, lógica de negócio sensível) pode ser enquadrado como dado pessoal ou dado relacionado a operações que envolvam dados pessoais. Enviar esses trechos para treinamento de terceiro sem base legal adequada e sem ciência do titular é território cinza — e o ônus recai sobre quem controla o repositório, não sobre o GitHub.

Para quem prefere manter copilot de código sem enviar nada para a nuvem, existe alternativa funcional: rodar Gemma 4 ou Mistral localmente no laptop como copilot offline, sem nenhum dado saindo da máquina — setup detalhado disponível em Copilot local com Gemma 4 no laptop: sem pagar por token.

Em abril de 2026, com o mercado de ferramentas de IA para código em aceleração, a coleta de dados de repos privados virou prática comum entre vendors. A diferença está em saber onde está o toggle — e em desligar antes que o próximo commit já tenha ido embora.

#github-copilot-dados-privados#privacidade-dev#lgpd-freelancer#ia-coding#opt-out-github#seguranca-solopreneur#copilot-2026

Para ler em seguida