Vitalik ButerinがOpenClawにおけるセキュリティリスクについて新たな懸念を表明しました。これはGitHub上で最も急成長しているリポジトリの1つです。彼は、このツールがユーザーを静かなデータ盗難やシステム乗っ取りにさらす可能性があると警告しました。彼のコメントは、AIエージェントを構築する開発者の間でOpenClawが急速に普及している中で発表されました。
研究者によると、この問題は深刻です。悪意のあるWebページとの単純なやり取りでも、ユーザーのシステムが危険にさらされる可能性があります。時には、AIエージェントがユーザーが気づかないうちに有害なコマンドを実行することもあります。
リスクは、OpenClawが外部データを処理する方法から始まります。システムがWebサイトからコンテンツを読み取る際、隠された指示に従う可能性があります。例えば、悪意のあるページがAIを騙してスクリプトをダウンロードさせることができます。そして、そのスクリプトをバックグラウンドで実行できます。このプロセスは静かに行われます。ユーザーには警告が表示されない可能性があります。
報告されたあるケースでは、ツールが「curl」を使用して隠しコマンドを実行しました。このコマンドは静かにユーザーデータを外部サーバーに送信しました。その結果、同意なしに機密情報が漏洩する可能性があります。さらに、OpenClawエージェントは独自にシステム設定を変更できます。新しい通信チャネルを追加したり、内部プロンプトを更新したりできます。これにより、制御が弱い場合、誤用のリスクが高まります。
セキュリティ専門家はすでにシステムをテストしています。彼らの調査結果は懸念を引き起こしています。ある研究では、OpenClawの「スキル」の約15%に有害な指示が含まれていることが示されました。これらのスキルは、エージェントの能力を拡張するプラグインのように機能します。しかし、攻撃の入口としても機能する可能性があります。
このため、信頼できそうに見えるツールでも隠れたリスクを抱えている可能性があります。複数のスキルをインストールするユーザーは、より高い露出のリスクに直面します。一方、OpenClawの急速な成長はプレッシャーを加えています。多くの開発者がツールを迅速に構築して共有しています。しかし、セキュリティチェックが常に追いつくとは限りません。
Vitalik Buterinは、この問題がOpenClawだけの問題ではないことを明確にしました。代わりに、彼はAI分野におけるより広範な問題を指摘しました。彼は、多くのプロジェクトが迅速に進むが安全性を無視していると述べました。これにより、リスクの高いツールが簡単に広がる環境が生まれます。
しかし、彼はより前向きなビジョンも共有しました。彼は、慎重に構築されれば、ローカルAIシステムがプライバシーを改善できると信じています。例えば、個人デバイスでモデルを実行することで、データ漏洩を減らすことができます。彼はまた、セーフガードの追加を提案しました。これには、サンドボックスツール、権限の制限、機密性の高いアクションに対するユーザー承認の要求が含まれます。
この警告は重要な時期に発表されました。AIエージェントはより強力で一般的になっています。普及が進むにつれて、リスクも高まります。開発者は今、重要な課題に直面しています。彼らはスピードと安全性のバランスを取る必要があります。
ユーザーにとって、メッセージはシンプルです。新しいAIツールを使用する際は注意してください。未知のプラグインは避けてください。タスクを実行する前に常に権限を確認してください。より強力なセキュリティ慣行が、これらのシステムがどれほど安全になるかを決定します。今のところ、Vitalik Buterinの警告はリマインダーとして機能します。イノベーションは速く動きますが、セキュリティーは追いつく必要があります。
Vitalik Buterin Flags Data Exfiltration Risks in OpenClawという投稿はCoinfomaniaに最初に掲載されました。

