GoogleのAIモデル「Big Sleep」が、SQLiteにおけるスタックバッファアンダーフローのゼロデイ脆弱性を発見した。これは、実世界の広く利用されるソフトウェアでAIが初めてメモリ安全性に関する未知のバグを発見した画期的な事例であり、攻撃者によるコード実行やシステムクラッシュの危険を伴う可能性があった。

この欠陥は発見された当日に修正され、SQLiteユーザーへの影響はなかったとされる。Googleのゼロデイハンティングチーム「Project Zero」とAI研究機関「DeepMind」が開発したこのツールは、従来のファジング技術を超える可能性が期待されるが、依然としてテスト段階にある。

AIモデルによるゼロデイ脆弱性の検出 Google「Big Sleep」の突破口

GoogleのAIモデル「Big Sleep」は、SQLiteで発見されたスタックバッファアンダーフローのゼロデイ脆弱性を突き止めた。この脆弱性は、攻撃者がシステムをクラッシュさせたり任意のコードを実行する可能性があり、メモリ安全性の観点から深刻な問題をはらんでいる。

これまでのファジング手法を超える精度で未知の欠陥を検出したのは、AIによる脆弱性発見の新しいステージに踏み込んだことを示している。Googleはゼロデイ脆弱性ハンティングチーム「Project Zero」や「DeepMind」との共同研究により「Project Naptime」の進化形であるBig Sleepを開発し、AIのコード理解能力の向上を目指している。

従来の手法で見過ごされがちな脆弱性にも対応可能なAIモデルを構築することで、今後のセキュリティ技術の発展が期待される。

Big Sleepの成果は実証段階でありながらも、ゼロデイ脆弱性の発見において従来の人間による検出や自動化ツールと比べてどこまで効果があるかが問われる局面にある。特に、GoogleによるAIモデルの高精度なバグ発見は、今後のサイバーセキュリティに革新をもたらす可能性を秘めている。

しかし、Big Sleepが完全な防御システムとして機能するにはさらなる検証が必要であり、リスクの削減に向けてのAI技術の進展が注目されている。

既存のファジング手法の限界とBig Sleepの意義

従来のファジング手法は、無効や予期しない入力をソフトウェアに与えて脆弱性をテストする方法である。しかし、この方法には限界があり、過去に発見された脆弱性のバリエーションを確実に網羅することは難しいとされてきた。

実際に、今回のSQLiteの脆弱性においても、既存のファザーはBig Sleepが見つけたメモリ安全性のバグを発見できなかったとされる。これは、AIモデルが持つ大規模言語モデル(LLM)を活用した解析能力が、従来のファジング技術では見過ごされがちな脆弱性の検出を可能にする新たな手段を提供しているといえる。

「Project Naptime」およびBig Sleepの開発背景には、同じ欠陥が新たなバリエーションで再度現れるという問題がある。Big Sleepチームの開発者たちは、攻撃者が脆弱性のバリエーションを容易に手動で分析し、システムを攻撃するリスクが増大していることに懸念を示している。

Googleは、この問題を解決するために、LLMのコード理解能力を駆使した検出手法の向上を図っているが、今後はターゲットに特化したファザーとの併用によってさらなる精度向上が期待される。

セキュリティ業界におけるAI活用の可能性と課題

AIモデルによる脆弱性の発見は、サイバーセキュリティの未来を変える可能性があるが、現段階ではまだ初期段階にあり、実験的な要素が強い。今回のBig Sleepの発見は、セキュリティ研究者や業界にとって有望な兆しではあるが、ゼロデイ脆弱性の検出におけるAIの役割がどの程度確立されるかは未知数である。

特に、AIが自動で脆弱性を発見する技術が成熟すれば、従来の人間中心の脆弱性発見プロセスを補完し、サイバーリスクを低減する新たな手段となることが期待される。

一方で、AIモデルの精度や信頼性に対する課題も残っている。例えば、AIによる検出結果が完全に正確であることを保証するのは難しく、誤検知や見落としのリスクも考慮する必要がある。さらに、AIが持つ学習データや解析手法が脆弱性に対してどの程度の対応力を持つかについては今後の研究と実用化が求められる。