オーストラリア連邦科学産業研究機構(CSIRO)は8月28日、世界的なサイバーセキュリティ企業eSentire社と共同で実施した10カ月間の試験により、ChatGPT-4のような大規模言語モデル(LLM)がサイバーセキュリティアナリストの業務を支援し、作業負荷や疲労を軽減できることを明らかにしたと発表した。
eSentire社のアナリスト
(出典:CSIRO)
試験はアイルランドとカナダのeSentire社のセキュリティオペレーションセンター(SOC)で行われデータが収集された。試験中、45人のアナリストがChatGPT-4に3000件以上の質問を行った。主な利用は技術データの解釈、テキスト編集、マルウェア解析といった日常的で低リスクな作業であり、意思決定そのものは人間が担っていた。分析によれば、アナリストからのリクエストのうち「これは悪意があるか」といった直接的回答を求めるものは4%にとどまり、大多数は意思決定の裏付けとなる証拠や文脈を求めていた。これにより、AIは判断を代替するのではなく、専門家の自律性を強化する支援ツールとしての有効性が示された。CSIROのモハン・バルワル・チェトリ(Mohan Baruwal Chhetri)博士は「AIが分析や報告作成を補助することで、アナリストは高付加価値の業務に集中できる」と述べた。
この研究はCSIROのCollaborative Intelligence(CINTEL)プログラムの一環で、サイバーセキュリティ分野における人間とAIの協働を検証する初の長期実証研究である。データ サイエンティスト兼研究コーディネーターのマーティン・ロクナー(Martin Lochner)博士は「産業現場に根差した今回の成果は、SOCチーム向け次世代AIツールの開発に向けた重要な指針となる」と説明している。
次の段階では2年間のデータを用いた長期調査が予定されており、AI利用の変化やアナリストの経験を定性的に分析する計画である。
サイエンスポータルアジアパシフィック編集部
WACOCA: People, Life, Style.