Anthropic、Claudeユーザーに身分証明書+セルフィー認証を導入 — 中国で波紋、プライバシー論争が激化


AIチャットボットを使うのに、パスポートと自撮り写真が必要になる——。そんな時代がやってきました。AIスタートアップのAnthropic(アンソロピック=ChatGPTの対抗馬「Claude」を開発する米国のAI企業)が、一部のユーザーに対して政府発行の身分証明書とリアルタイムのセルフィー(自撮り写真)による本人確認を開始しました。主要AIチャットボットとしては初の試みであり、プライバシーを重視していたはずの企業の方向転換に、世界中のユーザーから驚きと批判が噴出しています。


何が起きたのか — 5分で身分証明

2026年4月14日、AnthropicはClaudeのヘルプセンターページを静かに更新し、「一部のユースケース(利用場面)で本人確認を導入する」と発表しました。

認証に必要なもの

  • 政府発行の写真付きID:パスポート、運転免許証、州・省発行のIDカード、国民IDカードなど
  • リアルタイムのセルフィー:スマートフォンまたはPCのカメラで撮影

受け付けられないものとしては、コピー、スクリーンショット、デジタルID・モバイルID、学生証、社員証、銀行カード、仮発行の紙のIDなどが挙げられています。

認証プロセスは通常5分以内で完了するとされています。

どんな場面で認証が求められるのか

Anthropicは具体的にどの機能で認証が必要になるかを明言していませんが、ユーザーの報告と公式情報を総合すると、以下の4つのケースで認証が発動するようです:

  1. 利用規約違反者:サイバー攻撃や禁止コンテンツに関するルールを繰り返し回避した人
  2. 制限地域からのアクセス:中国本土、ロシア、イラン、北朝鮮、ベラルーシなど、サービスが公式に提供されていない地域
  3. 18歳未満のユーザー:年齢制限の確認
  4. 利用規約の一般的な違反者

なぜAnthropicはこの決断をしたのか — 背景にある「AI冷戦」

この動きの背後には、米中間のAI技術をめぐる激しい攻防があります。

中国企業による「蒸留攻撃」

2026年2月、Anthropicは中国のAI企業であるDeepSeek(ディープシーク)、Moonshot AI(ムーンショットAI)、MiniMax(ミニマックス)の3社が、約24,000件の不正アカウントを使って1,600万回以上のやり取りをClaudeと行い、モデルの知識を盗み出していたと告発しました。

この手法は**「敵対的蒸留(アドバーサリアル・ディスティレーション=大型AIモデルの出力パターンを大量に収集し、小型モデルに学習させることで実質的にコピーする技術)」** と呼ばれています。

問題は、蒸留されたモデルには元のモデルの安全機能(セーフティフィルター=有害な回答を防止する仕組み) が含まれないことです。Anthropicは、安全装置のない高性能AIが監視や偽情報に使われるリスクを「国家安全保障上の脅威」として警告しています。

OpenAI・Googleとの前例のない協力

2026年4月6日、Anthropic、OpenAI、Googleの3社がFrontier Model Forum(フロンティア・モデル・フォーラム=2023年にMicrosoftと共同設立したAI安全に関する業界団体) を通じて、中国企業による蒸留攻撃に関する情報共有を開始しました。

通常は熾烈に競争している3社が協力するのは前例がなく、脅威の深刻さを物語っています。


中国の開発者コミュニティに激震

認証導入の影響は、中国で特に大きな波紋を呼んでいます。

パスポートがなければアクセス不可

中国の国民IDカード(居民身份証=中国本土で最も一般的な身分証明書)は認証の対象外です。つまり、パスポートを持っていない中国のユーザーは事実上Claudeから完全に締め出されることになります。

中国ではパスポートの保有率が比較的低く(特に地方在住者や若年層)、数百万人のユーザーが影響を受ける可能性があります。

Claudeへの強い依存

South China Morning Post(サウスチャイナ・モーニング・ポスト=香港の英字紙)の報道によると、中国の開発者コミュニティではClaude、特にコーディングツールのClaude Codeへの依存度が高く、認証導入の発表は大きな衝撃をもたらしました。

公式にはサービスが提供されていない中国でも、VPN(仮想プライベートネットワーク=インターネット上でアクセス元の場所を偽装するツール)や中継プラットフォームを通じて多くのユーザーがClaudeを利用していました。ある中継プラットフォームは1万人以上の登録ユーザーと200以上の法人顧客を抱えているとされています。

闇市場での回避策が急増

認証導入後、すでに以下のような動きが報告されています:

  • 既存の認証済みアカウントが高値で取引され始めている
  • 闇市場の業者が回避策を急いで開発している
  • 一部のユーザーは代替のAIツールへの移行を検討している

ユーザーからの批判 — 「プライバシー企業が裏切った」

この認証導入は、特にAnthropicを「プライバシーに配慮したAI企業」として選んでいたユーザーの間で強い反発を招いています。

競合他社との比較

ChatGPT(OpenAI)もGemini(Google)も、一般ユーザーに対してこのレベルの本人確認は求めていません。批判者は「Anthropicが自ら競合に有利な状況を作り出している」と指摘しています。

あるユーザーはSNSで「政府発行のIDなしにAIは使えない。すべてのAI利用が個人に紐づけられる。プライベートなAIは存在しなくなった」と投稿しました。

皮肉なタイミング

この措置は、2026年2月にOpenAIが米国防総省との契約を結んだことを受けて、プライバシーを懸念するユーザーがChatGPTからClaudeに大量移行した直後に導入されました。

さらに2026年3月には、Anthropic自身が米国政府によるClaudeの大規模監視利用を拒否し、その報復に対して裁判所の差止命令を勝ち取ったばかりでした。「監視を拒否した企業が、ユーザーにパスポート提出を求める」という矛盾を指摘する声が上がっています。


データはどこに行くのか — Personaの信頼性への疑問

Persona Identities(ペルソナ・アイデンティティーズ)とは

認証プロセスを実際に処理するのは、サンフランシスコに本社を置く本人確認プラットフォーム企業Persona Identities(ペルソナ=金融サービスなどで使われるKYC(本人確認)インフラを提供する企業) です。

Anthropicの公式説明によると:

  • IDとセルフィーの画像はPersonaのサーバーに保存され、Anthropicのシステムには保存されない
  • Anthropicはデータ管理者(コントローラー=データの使い方のルールを決める立場)として、使用方法と保存期間を定めている
  • データはAIモデルの学習には使われない
  • マーケティングや広告目的で第三者に共有されない
  • すべてのデータは転送時・保存時ともに暗号化(エンクリプション=データを第三者が読めない形に変換する技術)される

懸念されている点

ただし、いくつかの重要な疑問が残っています:

  1. データ保存期間が非公開:Anthropicは「保持期限を設定している」と述べていますが、具体的にIDや生体認証データがいつ削除されるかは明らかにしていません
  2. Personaの背景:Personaはピーター・ティール(Peter Thiel=PayPal共同創業者で、政府向け監視技術を提供するPalantir社の共同創業者でもある投資家)のFounders Fundから出資を受けています。2026年2月には、Personaのフロントエンドが米国政府の認可サーバー上で発見されるという事件があり、政府監視との関連が疑われました(Persona側は否定)
  3. 過去のセキュリティ事故:2025年10月、Discordの年齢認証に使われていたPersona経由で約70,000件の政府発行IDが漏洩する事故が発生しています
  4. 国際ユーザーのデータ移転問題:インドのDPDP Act(デジタル個人データ保護法)やEUのGDPR(一般データ保護規則=個人データの保護に関する厳格な法律)との整合性が不明確です

API経由のアクセスは現時点で影響なし

開発者にとって一つの救いは、API(Application Programming Interface=プログラムからAIを呼び出すための技術的なインターフェース)経由のClaude利用には、現時点で個人の本人確認が求められていないことです。

ただし、OpenAIは2025年10月にAPI開発者向けの本人確認を導入しており、Anthropicも将来的にAPIアクセスに認証を拡大する可能性は否定できません。


業界全体のトレンド — 「匿名AI」の終わりの始まり

Anthropicの動きを単独の出来事として見るのは早計です。AI業界全体で本人確認の流れが進んでいます:

  • OpenAI:2025年10月にAPI開発者向けの「Verified Organization」プロセスを導入。ヘルプページでも「コンプライアンスとセキュリティの一環として、時折政府発行のIDの提出を求める」と記載
  • Discord:Personaをパートナーとした年齢確認システムを発表したが、プライバシー懸念の反発を受けて展開を延期
  • オーストラリア:16歳未満のSNS利用を禁止する法律を施行。英国政府も同様の措置を検討中

AI技術の高度化に伴い、「誰がAIを使っているのか」を把握することが、安全保障・法令遵守・未成年保護の観点から避けられなくなりつつあります。


日本のユーザーや企業にとっての意味

個人ユーザーへの影響

日本のパスポートや運転免許証はPersonaの対応書類リストに含まれていると考えられるため、日本のユーザーが即座に締め出されるリスクは低いと見られます。ただし、認証を求められた場合に「米国企業の委託先にパスポート画像と顔写真を提出する」ことへの抵抗感は当然あるでしょう。

企業ユーザーへの示唆

Claude APIを業務に組み込んでいる企業は、今後APIアクセスにも認証が拡大される可能性を考慮し、以下の準備を検討する価値があります:

  • 複数のAIプロバイダーを併用するマルチベンダー戦略
  • 認証ポリシーの変更を監視する体制の構築
  • 社内のAI利用に関するデータ保護方針の整備

まとめ — 安全とプライバシーの綱引き

Anthropicの本人確認導入は、「AI安全」と「ユーザープライバシー」という2つの価値観が正面からぶつかった象徴的な出来事です。

中国企業による大規模な蒸留攻撃を食い止めたい、未成年のアクセスを防ぎたい、利用規約違反を取り締まりたい——こうした動機は理解できます。しかし、パスポートと顔写真をAI企業に提出することへの抵抗感も、決して不合理ではありません。

今後、他のAI企業が同様の措置を導入するかどうかが、この議論の行方を左右することになるでしょう。「匿名でAIを使える時代」は、静かに終わりを迎えつつあるのかもしれません。


参照元

  1. Anthropic公式ヘルプセンター(2026年4月14日)https://support.claude.com/en/articles/14328960-identity-verification-on-claude
  2. Winbuzzer(2026年4月16日)https://winbuzzer.com/2026/04/16/anthropic-claude-id-verification-backlash-xcxwbn/
  3. South China Morning Post(2026年4月16日)https://www.scmp.com/tech/article/3350321/black-market-workarounds-claude-scale-anthropic-tightens-id-checks
  4. The Register(2026年4月16日)https://www.theregister.com/2026/04/16/anthropic_claude_id_verification_persona/
  5. Decrypt(2026年4月16日)https://decrypt.co/364509/claude-anthropic-government-id-kyc-privacy
  6. Help Net Security(2026年4月16日)https://www.helpnetsecurity.com/2026/04/16/anthropic-claude-identity-verification-government-id/
  7. The New Stack(2026年4月16日)https://thenewstack.io/anthropic-claude-identity-verification/
  8. Medianama(2026年4月21日)https://www.medianama.com/2026/04/223-anthropic-persona-identity-verification-claude-privacy-concerns/
  9. TechNode(2026年4月16日)https://technode.com/2026/04/16/claude-puts-up-a-wall-as-id-checks-complicate-access-for-chinese-users/
  10. Android Headlines(2026年4月16日)https://www.androidheadlines.com/2026/04/claude-ai-identity-verification-government-id-persona.html

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です