米AIメジャーのOpenAI、Anthropic、Googleの3社が、中国企業によるAIモデルの無断複製に対抗するため、2023年にMicrosoftらと共同設立した非営利の業界団体「フロンティア・モデル・フォーラム(FMF)」を通じた情報共有を進めている。
3社が対抗しようとしているのは「敵対的蒸留(adversarial distillation)」と呼ばれる行為で、AIモデルに大量のクエリを送って出力結果や推論プロセスを抽出し、自社モデルの学習に利用するもの。Anthropicの公式発表によると、DeepSeek、Moonshot AI、MiniMaxなどの中国AI企業が数万件に及ぶ偽装アカウントを用いて数百万回のクエリを送信し、大規模な蒸留攻撃を行っていたとされる。3社はこうした利用規約違反の抽出行為の検出・阻止に取り組む。
米国企業側は、技術の不正複製が知的財産侵害にとどまらず、国家安全保障上のリスクにもなると警戒している。














