- LLMが存在しないパッケージ名を提案し、攻撃者がそれを悪用する新手法が登場
- GitHub Copilotなどで19%の確率で架空のライブラリが提案される
- 開発者は「幻覚修正者」として、AI提案の検証が必須に
LLMの幻覚が生み出す新たなサプライチェーン脅威
大規模言語モデル(LLM)の普及により、開発現場では新たなセキュリティ脅威が浮上しています。「スロップスクワッティング」と呼ばれるこの攻撃手法は、LLMが「幻覚」によって存在しないパッケージ名を提案することを悪用します[1]。攻撃者は事前にこれらの架空のパッケージ名を登録し、マルウェアを仕込んだライブラリを配布することで、開発者を標的とした攻撃を実行します。
セキュリティ専門家の調査によると、LLMの応答の最大19%に存在しない依存関係が含まれていることが判明しています[1]。GitHub Copilotをはじめとする主要なAIコーディングツールでも、架空のライブラリやモジュールが提案されるケースが確認されており、開発者が無意識のうちに悪意のあるコードをプロジェクトに組み込んでしまうリスクが高まっています。
この問題は、まさに「信頼の裏切り」とも言える状況です。開発者がAIアシスタントを頼りにしているからこそ、その提案を疑わずに採用してしまう心理的な盲点を突いた巧妙な攻撃手法と言えるでしょう。従来のタイポスクワッティング(パッケージ名の誤字を狙った攻撃)とは異なり、スロップスクワッティングは人間のミスではなく、AIの「創造性」を逆手に取った新しいタイプの脅威です。開発者は今後、AIが提案するコードを「参考程度」として扱い、必ず実在性を確認する習慣を身につける必要があります。
AIコーディングツールに潜む脆弱性リスク
LLMの幻覚問題に加えて、AIコーディングツール自体にも深刻な脆弱性が発見されています。セキュリティ研究者は、人気のAI搭載コーディングツール「Cursor」において、「MCPoison」と名付けられた重大な脆弱性(CVE-2025-54136)を発見しました[2]。この脆弱性は、リモートコード実行(RCE)を可能にし、攻撃者が開発者のシステムを完全に制御できる可能性があります。
この発見は、信頼されている開発ツールであってもLLMの統合により新たな攻撃ベクターとなり得ることを示しています[2]。特に、PostgreSQLの依存関係に関連した脆弱性は、広範囲のシステムに影響を与える可能性があり、サプライチェーン攻撃の新たな入り口として悪用される恐れがあります。
この状況は、まるで「便利な道具が両刃の剣になった」ような状況です。AIコーディングツールは開発効率を大幅に向上させる一方で、従来の開発環境では考えられなかった新しいリスクを持ち込んでいます。特に問題なのは、これらのツールが「ブラックボックス」として機能することです。開発者は内部でどのような処理が行われているかを完全に把握できないため、潜在的な脆弱性を事前に発見することが困難になっています。企業は、AIツールの導入時には従来以上に厳格なセキュリティ監査を実施し、サードパーティコンポーネントの検証プロセスを強化する必要があります。
開発者に求められる新たなセキュリティ意識
これらの脅威に対処するため、開発者は従来とは異なるアプローチを採用する必要があります。セキュリティ専門家は、開発者が「幻覚修正者」としての役割を担い、AIが生成したコードを暫定的なものとして扱うことを推奨しています[1]。具体的には、AIが提案するパッケージやライブラリの実在性を必ず確認し、公式リポジトリでの検証を行うことが重要です。
また、組織レベルでは、AIコーディングツールの使用に関するガイドラインの策定と、定期的なセキュリティ監査の実施が不可欠となります。開発チームは、AIの提案を盲目的に信頼するのではなく、批判的思考を持って検証する文化を醸成する必要があります。
この変化は、開発者のスキルセットに根本的な転換を求めています。従来は「コードを書く能力」が重視されていましたが、今後は「AIの提案を適切に評価し、検証する能力」がより重要になってくるでしょう。これは、まるで「翻訳者から編集者への転身」のような変化です。AIが大量のコードを生成する時代において、開発者の価値は「何を作るか」よりも「何を選び、何を捨てるか」という判断力にシフトしています。この新しい現実に適応するため、開発者は継続的な学習と、セキュリティに対する深い理解を身につけることが求められます。
参考文献
- [1] LLM Hallucinations Fuel Slopsquatting Supply Chain Attacks
- [2] RCE Flaw in AI Coding Tool Poses Software Supply Chain Risk
*この記事は生成AIを活用しています。*細心の注意を払っていますが、情報には誤りがある可能性があります。