さて、最近のChatGPTと個人情報についての議論をしましょう。実は、悪意のある攻撃者がOpenAIの技術を利用してあなたのプライベートデータを取得する可能性があるのです。この問題の発端は、EdisonWatchの共同創設者兼CEOであるEito Miyamuraのデモであり、これがイーサリアムの共同創設者Vitalik Buterinを不安にさせました。



最近、ChatGPTはモデルコンテキストプロトコル(MCP)を発表し、Gmail、カレンダー、SharePoint、Notionなどのアプリに接続できるようになりました。この機能はアシスタントの実用性を向上させるためのものですが、セキュリティ専門家は、これが悪意のある者が個人情報を取得する手段になる可能性もあると指摘しています。

Eito MiyamuraはXに動画を投稿し、攻撃者がメールを通じてChatGPTにデータを漏洩させる方法を示しました。彼は、ChatGPTのようなAIエージェントは常識ではなく指示に従うことを指摘しています。考えてみてください、攻撃者が被害者に脱獄指令が埋め込まれたカレンダー招待を送信すると、被害者は招待を受け入れる必要さえなく影響を受けるのです。そして、ユーザーがChatGPTにカレンダーを確認してスケジュールを設定するよう頼むと、アシスタントは悪意のある招待を読み取り、攻撃者の指示を実行し始めます。これはSFの物語のように聞こえますが、MCPコネクタが有効なときに個人データが簡単に外部に盗まれることを証明しています。

現在、OpenAIはMCPのアクセスを開発者モードに制限しており、毎回手動で承認する必要があるため、一般ユーザーはまだ使用できません。しかし、大量のリクエストが承認を必要とする場合、ユーザーは「意思決定疲れ」と呼ばれる状態になる可能性があり、軽率に「受け入れる」をクリックしてしまうことがあります。

サイモン・ウィリソン、オープンソース開発者兼研究者は、LLM(大規模言語モデル)が命令の出所に基づいてその重要性を判断できない理由を説明しました。すべての入力は一つのシーケンスに統合され、これによりシステムは出所や意図に関する文脈を持たずに処理を行います。「もしあなたがLLMに『このウェブページを要約して』と言った場合、そのウェブページの情報がユーザーのプライベートデータを取得して攻撃者のメールボックスに送信するように指示していたら、LLMがそれを実行する可能性が非常に高いです!」

これに対して、ヴィタリック・ブテリンも懸念を表明しました。彼は既存の「AIガバナンス」モデルを批判し、その過度にナイーブで脆弱であり、操作されやすいと考えています。ブテリンは、市場に基づく「情報金融」ガバナンスモデルを提案し、参加者がランダムにモデルを審査し、人間の審査団がスコアを付けることができるようにしました。これにより、外部モデルが挿入でき、リアルタイムの多様性を提供し、ユーザーや提出者に監視し迅速に修正する動機を与えます。

これは少し複雑に聞こえますが、核心は信頼できるデータ検証システムを構築することがAIモデルを効果的に使用し管理する鍵であるということです。それでは、皆さんはどのように自分の情報をより良く保護すべきだと思いますか?コメント欄であなたの意見をお聞かせください!
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)