GitHubは2026年3月25日(現地時間)、Copilotのインタラクションデータ利用ポリシーを更新すると発表しました。変更は4月24日以降、Copilot Free/Pro/Pro+ユーザーのインタラクションデータが、モデル改善のための学習に利用されるようになるというもの。オプトアウトは可能で、Copilot BusinessとEnterpriseのユーザーは対象外です。より高精度で文脈理解に優れたコード提案を実現するための取り組の一貫で、すでにMicrosoft社内データを活用した学習では、複数言語で受け入れ率が向上するなど、効果が確認されているとのことです。どんなデータが学習に使われるのか今回学習のために利用されるデータは、ユーザーがCopilotを利用する際に発生する「インタラクションデータ」です。具体的には以下のような情報が含まれます。受け入れた、または修正したCopilotの提案Copilotに送信した入力(コードスニペットなど)カーソル周辺のコードコンテキストコメントやドキュメントの記述内容ファイル名やリポジトリ構造、ナビゲーションパターンチャットやインライン補完などの機能利用状況提案へのフィードバック一方で、以下は学習に利用されません。Copilot Business/EnterpriseのデータオプトアウトしたユーザーのデータIssues、Discussions、プライベートリポジトリの「静止データ」(※利用中のコードは処理されるが、学習利用はオプトアウト可能)収集されたデータは GitHub および Microsoft などの関連企業内で共有されますが、外部の AI モデル提供企業には共有されません。なぜこの変更が行われるのかGitHubは、AI開発支援の未来は「実際の開発現場のデータ」によって支えられると強調しています。実際のワークフローやコードパターンを学習することで、より正確で安全性の高い提案が可能になり、バグの早期発見にもつながるためです。ユーザーが参加することで、Copilotの品質向上に直接貢献できる仕組みになっていますが、もちろん参加は任意で、オプトアウトしてもCopilotの機能はそのまま利用できます。個人ユーザーは要注意今回の変更の影響を受けるのは、GitHub Copilot Free/Pro/Pro+の個人ユーザーということになります。学習に利用されたくない場合、GitHub CopiotのPrivacy設定で「Allow GitHub to use my data for AI model training」を「Disabled」に変更することをおすすめします。