生成AIの情報漏えい事例|
実例から学ぶ原因とセキュリティ対策

生成AIは業務効率化に貢献する一方、情報漏洩のリスクをはらんでいます。 実際に日本国内外で機密情報が外部に流出する事例が発生しており、その原因と対策を理解することが不可欠です。 本記事では、具体的な事例を基に生成AIによる情報漏えいの原因を整理し、企業が取り組むべきセキュリティ対策について解説します。
お役立ち資料
【法人向け】情報セキュリティ対策ガイド
【法人向け】情報セキュリティ対策ガイド
資料ダウンロード

生成AIからの情報漏えいは現実に起こっている

生成AIによる情報漏えいは、単なる理論上の可能性ではなく、現実に企業活動を脅かすリスクとなっています。
実際に海外では、生成AIを通じた情報漏えいが原因で企業の株価が急落した事例も報告されており、便利さの裏に潜む危険性を正しく認識し、具体的な対策を講じなければ、企業の信用や競争力を大きく損なう事態になりかねません。

次章では、国内外で報告された代表的な情報漏えい事例を4つ紹介します。他社の失敗事例から自社で起こりうるリスクを具体的に想定し、より効果的な対策を立てていきましょう。

【国内外】実際に発生した生成AIの情報漏えい事例4選

機密情報であるソースコードが外部に流出した事例

最近、韓国の大手電機メーカーにおいて、従業員が開発中のソースコードを生成AIサービスに入力したことにより、機密情報が外部に流出する事例が発生しました。デバッグやコードの要約を目的として利用されましたが、入力された情報はAIの学習データとして扱われる可能性があり、意図せず社外に漏れるリスクが顕在化しました。

この事案を受け、同社は生成AIの社内利用を一時的に制限し、アップロード容量の制限や使用禁止の措置を講じました。企業の競争力の源泉である知的財産を守るため、便利さに流されて安易に機密情報を生成AIに入力することの危険性を示す教訓となっています。

バグが原因で他の利用者のチャット履歴が見えてしまった事例

ある有名な生成AIチャットサービスにおいて、システム上のバグが原因で、一部のユーザーに他の利用者のチャット履歴のタイトルが表示されるというインシデントが発生しました。
この問題により、個人情報や機密情報を含む可能性のある会話のタイトルが、意図せず第三者に見られてしまう状態になりました。

サービス提供者は問題を認識後、一時的にサービスを停止して修正対応を行いました。 この事例は、ユーザー側がどれだけ注意していても、サービス提供側のシステム脆弱性が情報漏えいの直接的な原因になりうることを示しています。

アカウント情報が不正に盗まれ売買された事例

生成AIサービスのアカウント情報が、マルウェア感染によって不正に窃取され、ダークウェブ上で売買されていた事例が確認されています。
攻撃者は、従業員の業務用または個人用の端末をマルウェアに感染させ、ブラウザに保存されたIDやパスワードなどの認証情報を盗み出しました。

これにより、攻撃者はアカウントに不正アクセスし、過去のチャット履歴などから機密情報を閲覧することが可能になります。 生成AIサービスそのものの脆弱性だけでなく、利用する端末のエンドポイントセキュリティ対策も重要であることを示す事例です。

入力したプロンプトが他のユーザーに漏えいした事例

ある生成AIサービスで、特定の操作を行うと、他のユーザーが入力したプロンプトやその回答が閲覧できてしまう不具合が発生しました。この事例では、一部のユーザーが自身のチャット履歴を確認した際に、見知らぬ他のユーザーとのやり取りが表示されたと報告されています。
プロンプトには個人名や連絡先、社外秘の相談内容などが含まれている可能性があり、意図しない情報漏えいにつながります。

ユーザーは正しい使い方を心がけるだけでなく、サービス側の不具合によっても情報が漏れるリスクがあることを認識する必要があります。

なぜ生成AIから情報が漏えいするのか?考えられる4つの原因

生成AIからの情報漏えいは、単一の原因ではなく複数の要因が絡み合って発生します。
ユーザーによる機密情報の入力、悪意のある第三者によるサイバー攻撃、サービス提供側のシステム不備、そして従業員の知識不足など、その原因は多岐にわたります。

これらの原因を正しく理解することが、効果的なセキュリティ対策を講じるための第一歩となります。

入力した機密情報がAIの学習データとして利用される

多くの生成AIサービスでは、サービスの品質向上のため、ユーザーが入力したプロンプトや会話履歴をAIの学習データとして利用することがあります。
利用規約にその旨が記載されている場合、従業員が社内の機密情報や個人情報を入力すると、そのデータがAIに吸収され、他のユーザーへの回答を生成する際に利用されてしまう恐れがあります。

生成AIがもたらす利便性の裏で、入力した情報が意図せず第三者に開示されるリスクが存在することを認識しなければなりません。 これが、情報漏えいの最も典型的な原因の一つです。

プロンプトインジェクションなどのサイバー攻撃を受ける

悪意のある第三者が、特殊なプロンプト(指示文)を入力することで、生成AIを操り、開発者が意図しない動作をさせるサイバー攻撃があります。 これを「プロンプトインジェクション」と呼びます。
この攻撃によって、AIが本来開示してはならないはずのシステム内部の情報や、他のユーザーが入力したデータなどを不正に引き出される可能性があります。

企業が自社サービスに生成AIを組み込んでいる場合、この種の攻撃は重大なセキュリティインシデントにつながるため、入力値の検証など厳格な対策が求められます。

サービス提供側のシステムに脆弱性やバグが存在する

生成AIサービスを提供する企業のシステム自体に、セキュリティ上の脆弱性やプログラムのバグが存在する場合、それが原因で情報漏えいが発生することがあります。
実際に、システムの不具合により他のユーザーのチャット履歴が閲覧可能になった事例も報告されています。 この場合、利用者側でどれだけ注意を払っていても、漏えいを防ぐことは困難です。

そのため、機密性の高い情報を扱う際は、サービス提供者の信頼性やセキュリティ体制を十分に評価し、実績のあるサービスを選定することが重要になります。

従業員のセキュリティリテラシーが不足している

企業における情報漏えいの多くは、技術的な問題だけでなく、人的要因によって引き起こされます。
生成AIのリスクについて十分な知識がない従業員が、悪意なく顧客情報や開発中の製品情報といった機密データを入力してしまうケースが後を絶ちません。
また、フィッシング詐欺によってアカウント情報を窃取されたり、安易なパスワードを設定したりすることもリスクを高めます。

企業は、ツールを導入するだけでなく、全従業員を対象としたセキュリティ教育を実施し、一人ひとりのリテラシーを向上させる取り組みが不可欠です。

企業・個人でできる生成AIの情報漏えいセキュリティ対策

生成AIからの情報漏えいを防ぐためには、技術的な対策と人的な対策の両面からアプローチすることが重要です。
個人レベルで注意すべき基本的な使い方から、企業として整備すべきルール策定やシステム導入まで、多岐にわたる対策が考えられます。

ここでは、情報漏えいリスクを低減させるために有効な具体的なセキュリティ対策を解説します。

個人情報や社内の機密情報をプロンプトに入力しない

最も基本的かつ重要な対策は、個人情報や社内の機密情報をプロンプトとして入力しないことです。 氏名、住所、電話番号、クレジットカード情報といった個人情報はもちろん、顧客リスト、財務データ、未公開の技術情報、ソースコードなど、外部に漏れると問題になる情報は一切入力してはいけません。

生成AIを「社外の人間と会話する」くらいの意識で利用し、入力する前にその情報が公開されても問題ないものかを確認する習慣を徹底することが、情報漏えいを未然に防ぐ第一歩となります。

入力データをAIの学習に利用させない設定(オプトアウト)を行う

多くの生成AIサービスでは、ユーザーが入力したデータをAIの学習に利用しないようにする「オプトアウト」設定が用意されています。
この設定を有効にすることで、入力したプロンプトや会話履歴がサービス提供者に送信され、AIの再学習に使われることを防げます。
サービス利用開始時に必ず設定を確認し、オプトアウトを適用しましょう。

ただし、設定方法はサービスごとに異なるため、各サービスのプライバシーポリシーやヘルプページを確認し、適切な使い方を理解することが重要です。 この設定は情報漏えいリスクを大幅に低減させます。

AI利用に関する明確なルール設定とセキュリティ教育を行う

生成AIを安全に業務で活用するためには、企業として全社的に統一された利用ルールを策定し、従業員に周知徹底することが不可欠です。
具体的には、利用を許可するAIサービスの種類や、入力が禁止される情報(個人情報、顧客情報、機密情報など)の定義、業務での具体的な活用シーンや禁止事項などを明記したガイドラインを作成しましょう。また、ルールを形骸化させないために、定期的な見直しや周知活動も欠かせません。

さらに、ガイドラインを運用するだけでなく、従業員一人ひとりのセキュリティリテラシーを高める教育も重要です。新しい脅威やサービスが登場することも想定し、継続的な教育機会を提供することで、組織全体の安全な生成AI活用を支える体制を整えることができます。

情報漏えいを防ぐセキュリティサービスを導入する

従業員の注意喚起や教育だけでは、情報漏えいを完全に防ぐことは難しい場合があります。
そのため、技術的な対策としてセキュリティサービスを導入することも有効な選択肢です。
例えば、DLP(DataLossPrevention)ツールは、社内ネットワークの通信を監視し、機密情報や個人情報が外部の生成AIサービスに送信されるのを検知・ブロックします。

また、生成AIへのアクセスを一元管理し、利用状況を可視化するサービスもあります。 これらの導入には一定のコスト、つまり投資が必要ですが、重大なインシデントを防ぐためには検討する価値があります。

セキュリティが強化された法人向け生成AIサービスを選ぶ

無料で利用できる個人向けの生成AIサービスは、手軽である反面、入力データが学習に利用されるなど、セキュリティ上の懸念が残ります。
ビジネスで本格的に活用する場合は、セキュリティが強化された法人向けプランの契約を検討すべきです。 法人向けサービスでは、入力データがAIの学習に利用されないことが保証されていたり、アクセス管理機能や監査ログ機能が提供されていたりします。

また、企業の機密情報を保護するための高度な暗号化や、専用環境でAIモデルを運用できるオプションが用意されていることもあります。 初期コストはかかりますが、情報資産を守る上では不可欠な選択です。

生成AI情報漏えいリスクを抑えて安全に活用するためには

ここまで生成AIは業務効率を飛躍的に向上させる可能性を秘めている一方で、情報漏えいのリスクと常に隣り合わせであることを解説しました。
安全にAIの恩恵を享受するためには、機密情報を入力しないという基本原則の徹底、利用ルールの策定、そしてセキュリティ対策への投資が不可欠です。

AIやマルウェアによる攻撃から組織を守るためには、サイバー攻撃防御ソリューションの導入が有効です。次世代ウイルス対策ソフト「Deep Instinct」であれば、AI技術を活用して未知の脅威やゼロデイ攻撃を検知・防御し、生成AI利用時に生じるリスクも含めた総合的な情報セキュリティの強化を支援します。
サービスの詳細を知りたい方はお問い合わせください。

お問い合わせはこちら

また、情報セキュリティの対策ガイドブックもございますので、セキュリティ対策を行う上での参考としていただければと思います。

お役立ち資料
【法人向け】情報セキュリティ対策ガイド
【法人向け】情報セキュリティ対策ガイド
資料ダウンロード
このコラムを書いたライター
Wave PC Mate 運営事務局
Wave PC Mate 運営事務局
Wave PC Mateは、NTTデータ ウェーブが提供するハードウェアの調達から導入、運用管理、撤去・廃棄までのPCライフサイクルマネジメントのトータルアウトソーシングサービスです。本サイトでは、法人企業のPC運用管理業務の課題解決に役立つ様々な情報をお届けします。