2025.09.08
AIのセキュリティー対策できてる?4つのリスクと対策・事例を紹介
多くの企業で、生成AIをはじめとするAIツールの導入が進んでいますが、実はいくつものセキュリティーリスクが潜んでいます。
そこで、安全にAIツールを使いこなせるように、AIに潜むセキュリティーリスクを把握しておきましょう。
本記事では、具体的にイメージしやすいように、攻撃事例やおすすめの対策方法も解説します。
AIが抱えるセキュリティーリスクとは?
生成AIをはじめ、多くの企業で業務効率化のためAIが活用されていますが、AIの抱えるセキュリティーリスクを把握しているでしょうか。
AIには、従来の情報セキュリティー対策だけでは防ぎきれない、以下のようなリスクが存在しています。
- 外部からの攻撃による情報漏えい
- 内部からの個人情報・機密情報の漏えい
- 間違った情報の拡散
- 著作権の侵害
外部からの攻撃による情報漏えい
AIのシステムが、マルウェアに感染させられたり、バックドアを設けられ外部から不正アクセスされたりすると、大量の個人情報や機密データが流出するリスクがあります。
顧客や従業員の個人情報が流出することも重大なインシデントですが、製品の設計データのような重要な機密情報が盗まれれば大きな損失となるでしょう。
また、これまでのサイバー攻撃と異なり、AIへの攻撃は、ただ情報を盗まれる・壊されるだけでは済みません。以下のような、AIそのものへの被害も想定されます。
- プロンプトインジェクション:AIのプロンプトに悪意ある情報を入力し、生成するデータに影響を与える攻撃。偏りのある情報や不正確な情報、攻撃的な情報などが生成されてしまう
- 敵対的サンプル:人の目では認識できない加工が施された画像データを入力させるなど、AIの精度を劣化させる攻撃。認識精度の劣化で、監視カメラに認識されないようにする・他人になりすますなどが可能になってしまう
- データポイズニング:機械学習用に公開されているデータセットに汚染されたデータを紛れ込ませる攻撃。AIの認識精度を劣化させたり、間違ったテキスト・画像を生成したりするようになる
こうした攻撃に気付かず、AIの間違った回答を鵜呑みにしてしまうと、場合によっては大事故につながることも考えられます。
AI特有の脆弱性を理解して、モデル自体を保護する視点が求められます。
内部からの個人情報・機密情報の漏えい
AIは外部からだけでなく、内部からも個人情報・機密情報が漏えいするリスクがあります。
従業員が、公開されている生成AIツールに業務上の機密情報や個人情報を入力してしまうと、その情報を学習した生成AIが、無関係なユーザーに情報を公開するかもしれません。
たとえば、ChatGPTに「社内マニュアルを要約してもらおうと、全文をコピペして貼り付ける」「顧客との商談記録をそのまま入力する」など、悪気なく行った日常業務の操作が、重大な情報漏えいにつながることも考えられます。
このように外部から攻撃されずとも、従業員のリテラシー不足によって、内部から情報が漏えいすることもあります。
間違った情報の拡散
AIによる誤情報を拡散することで、企業の信頼やブランドを損なうリスクもあります。
AIは、ハルシネーションと呼ばれるもっともらしい嘘の情報を生成するリスクがあるため、生成された情報を鵜呑みにすると、間違った情報を拡散することになります。
たとえば、SNS投稿用の文章を生成AIに作成させて、そこに間違った情報が掲載されていれば、バッシングを受けるのは火を見るよりも明らかです。
そのため「誤りがあるかもしれない」という視点で、情報を精査する姿勢が大切です。
著作権の侵害
AIが生成したコンテンツが、著作権を侵害するリスクもあるため、社会的責任を負う企業として第三者の権利を侵害しないよう注意しましょう。
社内でのAI活用において、わざと既存作品の作風を模倣したコンテンツを制作した場合や、偶然でも既存の著作物に酷似したコンテンツを作成すれば、著作権者の権利を侵害するリスクがあります。
故意でなくとも、結果として似てしまったケースも考えられるため専門家に相談して問題ないか確認することが大切です。
AI時代に企業が取るべきセキュリティー対策
業務効率化に役立つAIですが、企業が使用するにはリスクもつきまといます。AI時代に企業が取り組むべきセキュリティー対策を3つの観点から紹介します。
- AI活用におけるガイドラインの策定
- 従業員へのリテラシー教育実施
- セキュリティー対策が施されたAIツールの導入
AI活用におけるガイドラインの策定
AIを安全に利活用するための第一歩は、全社的に遵守すべき明確な「AI利用ガイドライン」を策定し、周知徹底することです。
データの取り扱い基準やアクセス権限管理などを明確にしておくことで、従業員が間違った使い方・意図せず危険な使い方をしないよう誘導できます。記載するべき項目としては、以下のようなものが挙げられます。
- データの取り扱い基準
- 機密情報や個人情報の入力制限
- 許可された使用範囲の明示
- アクセス権限の管理方法
安全安心なAI活用のためには、経済産業省が公表している「AI事業者ガイドライン」が参考になります。
また、ガイドラインは定期的に見直し・更新を行いましょう。AI技術は変化が早いため、進化に応じて柔軟に対応していくことが大切です。
従業員へのリテラシー教育実施
生成AIを扱う人が情報漏えいなどの原因にならないように、従業員一人ひとりのリテラシーを高めることも大切です。
ディープフェイクを用いた詐欺や、安易な機密情報の入力といったリスクの多くは、人間の心理的な隙や知識不足を突くものです。従業員がAIの利便性と危険性の両方を正しく理解して初めて、ガイドラインが遵守され、組織全体のセキュリティーレベルが向上します。
AIへの正しい認識を深めるため、以下のような施策を組織全体で行っていくことが大切です。
- AIリテラシーの向上のための社内勉強会
- 部門ごとの活用事例の共有
- 外部専門家を招いたセミナーの開催
AIが抱えるリスクについて、実例を交えながら伝えることで、安全かつ効果的な活用が実現できます。
セキュリティー対策が施されたAIツールの導入
AIを安全に企業活動に活用するには、無償の公開ツールではなく、高いセキュリティー機能が保証された企業向けのAIツールを導入する必要があります。
無償ツールは、入力されたデータをAIの再学習に利用することが多いため、情報漏えいのリスクが常にともないます。
一方で、多くの企業向けAIサービスでは、入力データを学習に利用しない設定が可能なので、たとえ機密情報を入力しても第三者に漏れる心配がありません。他にも、厳格なアクセス管理や監査ログの提供など、ビジネス利用に不可欠なセキュリティー機能を標準で備えています。
ツール選定の際には「入力データが学習に使われない(オプトアウト可能)」「データの暗号化やアクセス制御(RBAC)が可能」といった点を必須要件とすべきです。
AIを活用したセキュリティーリスクの深刻化も課題
企業が利用するAIツールへの攻撃だけでなく、AIを活用したサイバー攻撃も脅威となっています。どのような攻撃のおそれがあるのか解説します。
- フィッシングメールの高度化
- DDoS攻撃の進化
- AIファジングによる脆弱性発見
フィッシングメールの高度化
生成AIの登場により、ターゲットに合わせてパーソナライズされた攻撃が仕掛けられるようになってきており、従来よりも引っかかりやすくなっています。
たとえば、開封率の高いメール・クリックされたリンクの傾向を分析して、標的の嗜好に合わせた内容にカスタマイズされるようになっており、つい気になって開封する・リンクを踏むような仕掛けが施されています。
また、今までのフィッシングメールに合った日本語の不自然さを生成AIが補えるようになったことで、本物と見分けのつかない精巧なメールになっているのも悪質な点です。
文章としての正確さはもちろん、より自然な言い回しまで模倣しているため、一見何の問題もない信憑性の高いメッセージのように見えてしまいます。
従来のキーワードでのフィルタリングなどでは対応できなくなってきており、送信元アドレスの厳密な確認・不審な添付ファイルを開かないなど、これまで以上に慎重な対応が必要です。
DDoS攻撃の進化
AIの活用により、検知や対処が非常に困難なDDoS攻撃を仕掛けてくる可能性があり、従来の物量作戦よりも悪質なものとなっています。
DDoS攻撃とは、特定のサーバーなどに、複数端末から大量のアクセスを集中させることでシステムを機能不全に陥らせるサイバー攻撃です。
DDoS攻撃にAIが活用されることで、以下のような変化が起こっています。
- 攻撃対象の挙動・負荷状況をリアルタイムで解析して、より効果的にシステムをダウンさせる
- 異常なトラフィックパターンを模倣し、セキュリティーシステムによる検出を回避する
攻撃性がアップしていることに加え、セキュリティーに検知されにくくなっているなど、厄介な攻撃となっています。企業のインフラやクラウドサービスなどが標的になれば、大きな損害を発生させるでしょう。
今まで以上に、定期的な脆弱性診断と防御体勢の見直しを行って、最新の防御策を備えておく必要があります。
AIファジングによる脆弱性発見
AIが、ソフトウェアの未知の脆弱性を自動かつ短時間で発見する恐れがあります。
従来のファジングはランダムデータを大量に送り込む手法だったのに対し、AIファジングは、AIがプログラムの反応を学習して、どのようなデータを入力すればエラーや予期せぬ動作を引き起こしやすいかを予測します。
より効率的に脆弱性を見つけ出せるため、大規模なサイバー攻撃を仕掛けられるかもしれません。
異常検知AIによるファジング活動の監視や、自動パッチ生成による迅速な脆弱性修正など、AIを駆使した対策が急務です。
AIを活用したセキュリティー強化も行われている
AIを悪用した攻撃に備えるため、セキュリティー強化にもAIが活用されています。セキュリティー対策において、AIがどのように活用されているのか紹介します。
- マルウェア検出の精度向上
- 不正アクセスの早期発見
- ユーザー認証の高度化
- 脆弱性発見の効率化
マルウェア検出の精度向上
AIのディープランニングを用いることで、未知のマルウェアや変異型も特定できる可能性があります。
膨大なプログラムコードや通信パターンを分析して、不審な振る舞いを不審な振る舞いに対しても検知を試みるため、未知のマルウェアを用いた攻撃への検出精度を高めます。
検知したマルウェアの特徴を自動的に学習することで、検出精度の継続的な向上につなげることが可能です。
不正アクセスの早期発見
通常とは異なる不自然な振る舞いを見つけ出せる確立を高めることができるため、不正アクセス、不正利用の未然防止にも役立ちます。
AIは、膨大なシステムログやアクセス記録を24時間365日分析して、人間では見逃してしまうような些細な異常も捉えます。たとえば、以下のようなケースが代表的です。
- 普段と異なる時間帯のログイン
- 急激なデータ転送量の増加
- 通常とは異なるIPアドレスからのアクセス
AIによる行動分析による異常検知を行えば、従来では見逃されていたような巧妙な不正アクセスも早期発見・対策が可能になります。
ユーザー認証の高度化
AIにより、ユーザー固有の「振る舞い」も含めて本人確認を行うことで、ユーザー認証のセキュリティーレベルを向上させています。
近年では、AIを用いて生成された偽の生体情報によって、顔認証システムや音声認証システムを欺いての不正アクセスが可能になってきました。
従来の生体認証だけでは強固なセキュリティーを保てないことから、膨大な量のデータをリアルタイムで分析するAIの能力を活かして、ユーザーの行動の微妙な変化をも認識することで精度・信頼性を向上させています。
たとえば、個人のタイピングのリズムやマウスの動かし方、スマホの傾け方といった動作のパターンを学習して、ユーザー本人が操作しているかを確認します。こうした無意識に日常で行っている動作は、他人が同じような癖・パターンを真似るのは難しく、行動の種類が多くなるほど模倣は不可能です。
脆弱性発見の効率化
従来のセキュリティー診断では見落としがちだった複雑な脆弱性パターンも、AIが24時間365 日リアルタイムで監視すれば早期発見できます。膨大なコードや設定情報も短時間でスキャンできるので、大規模なアプリケーションでも短期間で診断できるのもメリットです。
また、AIが大量のテストパターンや攻撃シナリオを自動生成して検査を行うことで、従来の脆弱性診断より網羅性が向上します。
検出された問題に対して、AIが優先順位を付けて改善提案を行うため、効果的な対策を迅速に実施できます。
まとめ
AIツールの導入が加速する中で、企業は従来のサイバーセキュリティー対策だけでは対応できない新たなリスクに直面しています。AI特有の脅威により、個人情報や機密情報が漏えいするようなことがあれば、企業の社会的な信用は失墜し、不利益を被るでしょう。
セキュリティー対策が施されたAIツールを導入するのはもちろんですが、社内のAI活用ガイドラインの策定で組織的にリスク管理を行ったり、従業員へリテラシー教育を施しAIのリスクを理解させたりと、地道な従業員へのアプローチも大切です。
AIツールの抱えるリスクへの理解と対処こそが、AI時代における企業の安全な成長を支える基盤となります。
また、AIを活用してセキュリティーを高度化する取り組みも行われており、AIによる不正アクセスの検知やマルウェア検出、脆弱性診断の高度化など、セキュリティー向上に貢献しています。
AIが抱えるセキュリティーリスクについて、万全な対策を施したいが「自社だけでは不安」「どこから手をつけていいかわからない」とお悩みなら、富士フイルムイノベーションジャパンにご相談ください。
数多くの企業のセキュリティー強化に携わったノウハウを活かして、貴社の課題・予算に合ったソリューションを提供いたします。