あなたは自分の後継者を育てている:Coworkがあなたの専門知識を利用する仕組み
Technology

あなたは自分の後継者を育てている:Coworkがあなたの専門知識を利用する仕組み

「製品が無料なら、あなた自身が製品だ」という格言は、すでに常識として定着している。 だからAIツールが月額20ドルの課金を始めたとき、多くの人は安心した。お金を払っている。自分は顧客だ。データはおそらく大丈夫だろう。

しかしその前提は、AnthropicのCoworkのような「エージェント型」ツールの仕組みを詳しく見ると、崩れ始める。

CoworkはClaude Desktopの新しいモードだ。従来のやり取り型チャットではなく、ローカルファイルへのアクセスを許可し、タスクを実行させる。ダウンロードフォルダの整理、スプレッドシートの分析、プレゼンテーションの作成、数十の文書にまたがるリサーチの統合など。マーケティングでは「あなたのコンピューター上で」動作することが強調され、「ローカル」での利用が前面に打ち出されている。

正しく使えば強力なツールだ。しかし、データの取り扱い方法と、そのデータがどう利用されうるかについては、明確な説明が必要だ。


「ローカルで動作する」の本当の意味

Anthropicは、Coworkは「あなたのコンピューター上で動作する」と言っている。会話履歴は「ローカルに保存される」。ローカルVMが「隔離された」環境を維持する。

ほとんどの人は当然、自分のファイルはローカルのマシン上で処理されていると理解するだろう。

しかし、実際はそうではない。

AIモデル自体はあなたのノートパソコン上では動作しない。Anthropicのデータセンターで動作している。Coworkがファイルを読み取るとき、その内容は処理のためにAnthropicのサーバーに送信される。「ローカルに保存される」のはチャットログとセッション状態であり、コアとなるモデルの演算処理ではない。

つまり、デスクトップアプリとローカルVMが表示されているからといって、ドキュメントがデバイスの外に出ないわけではない。出ている。「ローカルで動作する」と「ローカルで処理する」は、プライバシーの観点からはまったく異なる表現だ。


学習への利用:デフォルトでオフではなく、オプトアウト方式

Claude Proでは、明示的にオプトアウトしない限り、あなたの会話はデフォルトでモデル学習の対象となる。Anthropicは2025年後半にオプトイン方式に移行したが、そのプロンプトを閉じたりスキップしたりした場合、アカウントはまだオプトインされたままの可能性がある。

これをCoworkの動作と組み合わせて考えてみよう:

通常のチャットでは、コンテンツを選択的にペーストする。しかしCoworkでは、フォルダ全体へのアクセスを許可できる。クライアントへの提案書、財務モデル、戦略文書、社内メモ、競合分析。これは通常のチャットのやり取りとは比較にならないほど大規模で機密性の高いデータセットだ。

学習を無効にした場合でも、データはリクエストを処理するためにAnthropicのサーバーに送信される。「Claudeの改善に協力する」をオフにすることは、データライフサイクルの一部にしか対応しておらず、保持、アクセス、監査可能性といったより広い問題には対処していない。


エンタープライズプランでもCoworkは完全にはカバーされない

こう考えるのは当然だろう:「個人プランは緩いが、エンタープライズはしっかりロックダウンされているはずだ。そのためのプレミアム料金だ。」

しかし、Coworkに関するAnthropic自身のドキュメントは、その期待を複雑にする。明示的にこう記載されている:

「Coworkのアクティビティは監査ログ、コンプライアンスAPI、データエクスポートに記録されません。規制対象のワークロードにはCoworkを使用しないでください。」

エンタープライズ顧客が依拠する監査ログとコンプライアンスAPIには、Coworkのアクティビティが反映されない。Coworkを通じて処理されたデータは、通常のエクスポートおよび監視メカニズムの外にある。Anthropic自身が、規制対象のワークロードにはCoworkを使わないよう警告している。

つまり、組織がコアのClaude利用についてDPA、監査、保持管理を整備していても、AnthropicがCoworkの統合を変更しない限り、Coworkはそれらの管理の外に位置することになる。

これは、多くのセキュリティおよびコンプライアンスチームの想定とは正反対だ。新機能は既存のガードレールをデフォルトで継承するという想定だ。


本当のリスク:あなたは自分の専門知識を体系化している

最も重要でありながら、最も議論されていないのは、単にドキュメントが処理されたり保持されたりするということではない。あなたの専門知識がどうエンコードされているか、だ。

コンサルタントが繰り返しのクライアント業務をCoworkに通したり、アナリストが独自のリサーチの構造化に使ったり、経営幹部が社内戦略文書を処理させたりするとき、彼らは単にツールを使っているのではない。自分自身のパターンを体系化しているのだ。分析フレームワーク、文章のスタイルとトーン、ドメイン固有のヒューリスティクス、長年にわたって蓄積された業界知識。

そのデータがモデルの学習に使われると、それらのパターンはモデルの振る舞いの一部になる。将来のユーザーがClaudeに「[あなたの業界]の競合分析を書いて」と頼むと、同じドメインの過去のユーザーのパターンに影響を受けた出力が返ってくる。自分のフレームワークが汎用的な製品機能になることを意図していなかったユーザーたちのパターンだ。

これは大規模モデルが学習データからどう学ぶかの必然的な帰結だ。あなたの仕事が専門的であればあるほど、学習シグナルとしての価値は高く、データの行き先に注意を払わなければ、あなたの差別化要因を直接的に侵食する可能性がある。

2010年代、取引は「注意」と引き換えに「無料製品とターゲット広告」だった。 2020年代、取引は急速に「あなたの専門知識」と引き換えに「モデルの改善」になりつつある。


ウェブ検索:もう一つのデータ流出経路

Cowork内でネットワークアクセスをロックダウンしようとしても、重要な例外がある。ウェブ検索だ。

Anthropicのドキュメントにはこう記載されている:

「ネットワーク送信の権限はウェブ検索ツールには適用されません。」

Coworkがあなたに代わって発行するクエリ -- 何をリサーチしているか、どの市場か、どの技術か -- は、依然として外部の検索プロバイダーに送信される。これらのクエリは、基盤となるドキュメントが制約されていても、クライアント、業界、取引構造、競争環境といったビジネスコンテキストを明らかにしうる。

直接的なファイル送信の制限には成功しても、リサーチの関心事やパターンの詳細な足跡を意図せず露出してしまう可能性がある。


コンシューマープランがこうなっている理由

エンタープライズプランは通常、DPA、学習除外、より厳格な保持管理、監査ログとコンプライアンスツールを提供する。これらは交渉により得られる契約上の保護であり、時間、弁護士、予算を要する。

対照的に、Coworkの初期採用者の大半は個人プランや小規模チームのプランを利用している。フリーランスや独立コンサルタント。ブティック型エージェンシー。小規模な社内チームや個人のナレッジワーカー。

このグループのデータは不均衡なまでに価値が高い。高度に専門的で、収益を生む専門知識に直結し、独自のフレームワークや戦術が凝縮されている。にもかかわらず、彼らが利用しているプランは、明示的にオプトアウトしない限りデフォルトで学習が有効、強制力のある契約ではなくUIのトグルに依存、監査可能性とガバナンスが限定的、という状態だ。

これは必ずしも悪意があるわけではない。コンシューマー向けSaaSが長年そうやって機能してきたやり方だ。しかしそのビジネスモデルは、大量の高品質なユーザーデータに依存しており、個人の専門家はそのデータの特に豊富な供給源なのだ。


Wysorを異なる設計思想で開発した理由

Wysorを開発するにあたり、私たちは異なる前提から出発した。あなたの専門知識は資産であり、他者のモデルの燃料ではない。

コードを書く前に、利用するすべてのAIプロバイダーとDPA(データ処理契約)を締結した。設定のトグルとしてではなく、データの取り扱いに関する法的なベースライン保証としてだ。

Claude Pro + CoworkWysor
データの学習利用UIでのオプトアウト(歴史的にデフォルトはオン)無料プランを含むすべてのプランで契約上禁止
監査証跡Coworkアクティビティの監査ログなしアクティビティとアクセスの完全な監査証跡
データ保持コンテキストにより30日~5年技術的に必要な最小限に最小化、契約で定義
執行メカニズム設定のトグルとポリシー文書DPAおよび法的拘束力のある商業契約

コンサルタント、アナリスト、またはドキュメントこそが差別化要因であるオペレーターにとって、これは重要だ。自分独自のパターンを他の全員のための汎用機能に変えてしまうことなく、高度なAIを使えるべきなのだ。


今Coworkを使っている方へ

Coworkは本当に便利なツールだ。要点はCoworkを完全に避けることではない。トレードオフを理解し、情報に基づいた選択をすることだ。

  1. 学習設定を確認する。 Claudeの設定 > プライバシーで、データを学習に使われたくない場合は「Claudeの改善に協力する」がオフになっていることを確認しよう。

  2. 公開するフォルダを慎重に選ぶ。 特にAnthropicがCoworkの完全な監査ログを提供するまでは、最も機密性の高いクライアント業務、社内戦略、規制対象データを含むディレクトリにCoworkを向けることは避けよう。

  3. トグルの限界を認識する。 学習をオプトアウトしても、すべての形式のデータアクセスや保持が防止されるわけではない。ウェブ検索やその他の統合は、作業内容に関する重要なコンテキストを依然として明らかにする可能性がある。

  4. 可能な限り契約上の保護を優先する。 クライアントや競争優位性に実質的に影響する業務については、プライバシー保証が設定ではなく契約で裏付けられたツールを使おう。

あるいは、契約上のプライバシー保証を出発点とし、それを中心に設計されたワークスペースを使おう。後付けで受け入れを求められるのではなく。


関連記事

あなたの専門知識を守る →


すべての製品説明およびポリシーへの言及は、2026年3月時点のAnthropicのCoworkドキュメント、Claudeプライバシーポリシー、利用規約に基づいています。機密性の高いワークロードや規制対象のワークロードに関する判断を行う前に、必ず最新の公式ドキュメントをご確認ください。