2024年10月14日

民間人を1割のエラーとして「容認」して犠牲にするイスラエルのAI兵器

 高度な技術で知られるイスラエルは、パレスチナ自治区ガザ地区の戦闘で意思決定を迅速化し、攻撃の正確性などを高めるため
   人工知能(AI)
を搭載した武器を使用している。
 ただ、有識者らは、かえって民間人の犠牲を拡大させていると指摘し批判が強まっている。
  
 イスラエルのウェブメディア「+972マガジン」は4月、6人のイスラエル軍関係者の話として、軍が昨年10月の戦闘開始当初、標的の選定と追跡にAIを使い、多数の民間人が巻き添えになっていると報じた。
 使われたのは「ラベンダー」と呼ばれるAIのデータベースで
   監視システム
を通じて、ガザに住む230万人のほとんどの個人データを収集した。
 ハマス戦闘員の特徴をAIに学習させ、人々を1から100までの数字でランク付けし、戦闘員と疑われる
   特徴が多い人は自動的に標的の対象
としたものだ。
 なお、データでは下級の戦闘員も含めて、最大3万7000人がリストアップされた。
 過去の戦争では、標的はハマス幹部に限られていたが、今回は対象範囲を広げており、誤った認識情報で関係のない民間人がへの攻撃が続いている。


ひとこと
 こうした兵士の消耗を回避する思考は硫黄島の攻略で日本軍に手こずり多くの死傷を生じさせた米軍が沖縄戦で無差別攻撃を実行した。
 また、都市部への焼夷弾や爆弾投下や原爆投下など当時でもジュネーブ条約に違反する蛮行を繰り広げた思考と同じだ。

   
posted by manekineco at 06:49| Comment(0) | TrackBack(0) | 株銘柄 | このブログの読者になる | 更新情報をチェックする
この記事へのコメント
コメントを書く
お名前:

メールアドレス:

ホームページアドレス:

コメント:

※ブログオーナーが承認したコメントのみ表示されます。

この記事へのトラックバック