検索エンジンと同じレベルですか?それとも、とても親しい人間や、それ以上でしょうか?
ニューヨーク・タイムズがOpenAIを著作権侵害で提訴した件で、裁判所はOpenAIに対し、ChatGPTのすべてのユーザーとの会話履歴を無期限に保存するよう命令しました。
2日前、OpenAIはこの命令に異議を申し立てました。
サム・アルトマンはXでこう述べました:
「AIと話すというのは、弁護士や医師と話すのと同じようなものにすべきだ。(もしかすると、配偶者間の秘匿特権のほうが近いかもしれない)」
私の場合、それは人間との会話というよりも、デジタルの頭脳や良心と対話しているような感覚です。さらに言えば、ChatGPTのログには、メールや文書よりも多くの機密情報が含まれているとしても不思議ではありません。それほどこのプロダクトは効率的で、「何でも話したくなる」ような設計だからです。
この責任をすべてユーザーに押しつけることもできますし、あるいはアルトマンが示唆したように、私たち人間とChatGPTのようなプロダクトとの関係性を再定義するという考え方もあります。
多くの国では、理論上、「通信内容は保護される」ことになっています。
しかし、裁判所の判断によっては開示される可能性があるのです。
あなたの思考から生まれ、紙やサーバー上に保存されたものは、すべてあなたに不利な証拠として使用されるリスクがあります。
ChatGPTとの会話が、人間との会話よりも親密なものである可能性がある以上、異なる形で保護されるべきではないでしょうか?
私の視点では、これはAIに固有の問題ではなく、デジタル技術の構造的な課題です。
裁判所は、AIとの対話を個人的な日記と同じように扱う可能性が高いと思います。
AIが新しい存在であるにもかかわらず、特に一般ユーザー向けのサービスにおいては、この扱いが変わるとは私は思っていません。
だからこそ、大規模な組織や企業が慎重になるのは当然です。
彼らはこうしたテクノロジーを導入するにあたり、法的なリスクからどう守るかを綿密に評価してきました。
そしてその判断は正しかったのです。なぜなら、クライアントは重要なデータの取り扱い責任を企業に委ねているからです。
その信頼を損なうことは、たとえ過去10年で最も革新的な企業と仕事していたとしても、許されないのです。
だからこそ、ガバナンス(統治)、保護、倫理について語られるのです。
一度誤った場所にデータが渡ってしまえば、その被害は永続的です。
では、どうすれば自分自身を守れるのでしょうか?
この問題は、インターネットの登場とともに繰り返されてきました。
あなたのメールやメッセージは、サービス提供者に読まれる可能性があります。
SNSに投稿した内容は、公開範囲を制限していても漏洩することがあります。
私たち一般ユーザーは、こうしたリスクを十分理解しているはずです。
しかし、企業にとっては話が別です。
だからこそ、コスト・遅延・リスクに関する見積もりは、1桁から10桁以上まで幅が出るのです。
データの取り扱いを誤れば、損失は10から100のレベルに膨れ上がります。
ですから、もしあなたが本当に個人として自分のデータを守りたいのなら、それを自分の頭の中から出さないことです。
そして、もしどうしても共有しなければならないのなら、もっと「考えて」から行動するべきかもしれません。
それって、案外悪くない考えかもしれません。