(c)Reuters/news1

(c)Reuters/news1

【03月08日 KOREA WAVE】米国とイスラエルによるイランへの空爆作戦で、人工知能(AI)が軍事作戦の分析に活用されたとみられる事例が相次いで明らかになっている。膨大な軍事データをAIが高速で分析し、複雑な攻撃作戦を短時間で組み立てる手法が現実の戦場で使われ始めている。

こうした変化に伴い、戦争の様相が大きく変わる可能性が指摘される一方、AI倫理を巡る懸念も高まっている。専門家の間では、人間が戦争で「最終的にボタンを押すだけ」の存在になる可能性もあるとの指摘が出ている。

主要な海外メディアによると、米軍の対イラン空爆作戦では米AI企業アンソロピックが開発したAIモデル「クロード(Claude)」が使用されたとされる。米紙ウォール・ストリート・ジャーナルは、米軍司令部がクロードを用いて情報評価、標的の特定、戦場シミュレーションなどを進めたと報じた。

さらに、米データ分析企業パランティアのプラットフォーム「ゴッサム(Gotham)」も重要な役割を担ったと伝えられている。

AIは衛星やドローン映像、通信傍受記録など多様な軍事データを統合して分析し、標的の特定に活用される。レーダーやドローンのデータを組み合わせて防空網の弱点を見つけ出し、攻撃を集中させることも可能とされる。

またAIは統合されたデータを基に複数の作戦シナリオを比較分析し、攻撃作戦の法的根拠を検証する役割も担う。パランティアの「ゴッサム」が各種軍事データを統合し、アンソロピックの「クロード」がそれを分析して攻撃シナリオを提示する構造とみられている。

こうしたAIの活用により、米軍はわずか12時間でイランの目標に対して約900回の空爆を実施したと伝えられている。

また米国とイスラエルは2024年にもAIを利用して約3万7000の標的を特定し、ガザ地区への攻撃に活用したとされる。

英紙ガーディアンは「AIは複雑な攻撃作戦の計画に必要な時間を大幅に短縮している」と指摘した。一方で「人間の専門家が自動化された攻撃計画を形式的に承認するだけになる可能性もある」と懸念を示している。

今回の事態を受け、AI開発者や利用者の間ではAI倫理を巡る議論も再燃している。

アンソロピックは米国防総省による一方的なAI利用に反対した結果、トランプ政権から「サプライチェーンリスク企業」に指定されたとされる。

一方、オープンAIはアンソロピック排除の直後に国防総省と契約を結び、議論を呼んでいる。

利用者の間ではアンソロピックを支持する声も広がっている。クロードは利用者が急増し、一時的に接続障害が発生したほか、先月28日には米アップルのApp Store無料アプリランキングで1位を記録した。

これに対し、オープンAIの「ChatGPT」は国防総省との契約報道の後、わずか1日でアプリ削除率が295%急増したとされる。

オープンAIやグーグルなど米ビッグテック企業の社員たちは「私たちは分断されない(We Will Not Be Divided)」と題した公開書簡を発表し、アンソロピックへの連帯を表明した。

書簡では「彼ら(国防総省)は他社が先に屈するのではないかという恐れを利用し、企業同士を分断しようとしている」と指摘している。

また「その戦略は互いの立場を知らない時にしか機能しない。この書簡は戦争省(Department of War)の圧力に対抗し、共通の理解と連帯を築くためのものだ」と説明している。【news1 イ・ギボム記者】

(c)news1/KOREA WAVE/AFPBB News

WACOCA: People, Life, Style.