AIセキュリティーに関する4つの誤解を検証

筆者:デル・テクノロジーズ株式会社
インフラストラクチャー・ソリューションズ営業統括本部
SRP 営業本部 事業推進担当部長
エグゼクティブ ビジネス ディベロップメント マネージャー
西頼 大樹
2025年10月20日

組織がAIを導入する際、AIのセキュリティー対策は実際以上に複雑であるという誤解に陥りがちです。しかし実際には、AIシステムを保護するために、既存のインフラストラクチャーやセキュリティー フレームワークを細部まで見直す必要はありません。なぜなら、基本的なサイバーセキュリティー原則を適用し、それをAIシステムのリスクと挙動に適応させることから始められるからです。

誤解1: 複雑なAIシステムは保護が困難
サイバー犯罪者は、ランサムウェアからゼロデイ エクスプロイト、さらにはDDoS攻撃(分散型サービス拒否攻撃)に至るまで、さまざまな攻撃手法の強化にAIの悪用を押し進めてきています。保護が不十分なAIシステムは、結果の誤誘導や不当な権限昇格といった行為などに悪用可能であり、その結果、アタックサーフェス(攻撃対象領域)が広がってしまう可能性があります。こうしたリスクによって、AIシステムは複雑になりすぎて、保護できないという誤解を招くことがあります。

事実:
そもそもAIの利用自体にも当然リスクが伴います。しかし、現在のサイバーセキュリティーのガイドラインを強化し、AI特有の脅威に適応することで、リスクを軽減することは可能です。防御力を強化するために、以下のような方法が検討できます。

• AIアーキテクチャー設計の初期段階からセキュリティー チームを関与させ、いわゆるセキュリティーに関する検討事項をシフトレフトして組み込む。
• ゼロトラストの原則(ID管理、役割ベースのアクセス制御、継続的な検証など)を適用する。
• アクセス制御と保護/バックアップに関するデータポリシーを策定する。
• プロンプト インジェクション、ポリシー遵守、ハルシネーションなど、既知の脅威リスクを軽減するための、強力な防御策を構築する。

誤解2: 既存のツールでAIを保護することは不可能
AIは急速に進化する新しいワークロードであるため、組織はAIシステムを保護するために新しいセキュリティー ソリューションやツールを採用しなければならないと感じるかもしれません。その結果、既存のツールではAIを保護できないという誤解が生じています。

事実:
AIシステムを保護するうえで、既存のサイバーセキュリティー対策への投資の見直しは、必ずしも必要ではありません。AIが独自の要素を持つワークロードだとしても、ID管理、ネットワーク セグメンテーション、データ保護などの基本的なセキュリティー対策は、AIワークロードであったとしても有効です。また定期的なシステムパッチ適用、アクセス制御、脆弱(ぜいじゃく)性管理によって、強固なサイバー ハイジーンを維持することは依然として不可欠です。

プロンプト インジェクションやトレーニング データの漏えいなど、AI特有の脅威に対処するために、現在のサイバーセキュリティー戦略を置き換えるのではなく、応用するアプローチも検討が可能です。たとえば、大規模言語モデル(LLM)の入出力を定期的に記録して監査することで、異常なアクティビティーや悪意のある使用の検知に役立ちます。

AIを保護するためにはまず、現在のアーキテクチャーとツールがAIワークロードをどの程度カバーしてくれるかの理解・見直しから始めるほうが効率的です。このセキュリティー ツールの理解・見直しを経ることで、AIリスクに対処するためにどの機能を追加すべきか特定できます。例えば、AIアウトプットを監視し、意思決定を管理し、不正な動作を防止するためのツールが既に含まれているか、などです。

誤解3: AIを保護するにはデータの保護だけで十分
LLMは、データを分析しその結果をベースにアウトプットを生成することで動作します。AIは大量のデータを使用し生成するため、AIを保護することはデータを保護することが全てだと誤解されることがあります。

事実:
AIのセキュリティーは、単にデータを保護するだけではありません。入出力の保護は不可欠ですが、AIの保護には、モデル、アプリケーション プログラミング インターフェイス(API)、システム、デバイスを含むAIエコシステム全体が関与します。例えば、LLMは、誤解を招く、あるいは有害なアウトプットを生成する可能性があり、入力データを操作する攻撃に対して脆弱です。このようなリスクに対処するには、コンプライアンス ポリシーを管理し、AIのインプットとアウトプットを確認するツールと手順を持って、結果の信頼性を担保する仕組みが必要です。AI機能への接続基盤として機能するAPIは、不正アクセスを防御するために強力な認証で保護すると同時に、AIシステムは継続的にアウトプットを生成するため、組織は侵害や誤動作を示す異常やパターンがないかを監視する必要があります。より堅牢で信頼できるAI環境を構築するには、対象をデータにとどめないことが鍵となります。

誤解4: 最終的に、自律型AIにより人間の監視が不要になる
自律型AIを導入すると、独立して意思決定を行う自律型エージェントが様々な役割を担うことになります。これらのエージェントは独立して意思決定を行うことができるため、最終的には自律型AIが、人間が担っていた監視の役割を取って代わると誤解されています。

事実:
一定の自律性をもって動作する自律型AIシステムには、倫理的かつ予測どおりに行動し、人間の価値観に沿った行動をとるためのガバナンスが依然として必要です。人間の監視がなければ、これらのシステムは割り当てられた目標からの逸脱や、意図せず有害な行動をとるリスクがあります。結果、誤用を防ぎ、責任ある導入を確実にするために、AIの境界線を設定し、多層的な制御を行い、重要な意思決定に人間を関与させることが不可欠となります。AI運用全体の透明性と説明責任を高めるには、定期的な監査と徹底的なテストも不可欠です。つまり、人間が監視することで初めて、安全で効果的な自律型AI基盤の構築が可能になります。

AIによって強化されたサイバー脅威は圧倒的に感じられるかもしれませんが、AIを保護するまでの道のりは、想像以上に身近なものです。サイバーセキュリティーの基本原則をセキュリティー戦略に組み込み、AIリスクに適応させることで、不要な複雑さやコストを避けながら自信とレジリエンスを構築できます。既存のツールや実践の多くは、AIシステムの保護にも応用でき、時間の節約、リスクの軽減、既存の投資の最大化につながります。

こうした誤解を払拭するには、誤解を正すだけではなく、責任あるAI導入に向けて、チームが正しい情報をベースとしたプロアクティブな措置を講じられるようにすることが必要です。

AIの未来は目前に迫っています。いまこそ、その保護をする準備を始める時です。