2024年03月03日

AIアシスタント「コパイロット」、自殺に関して相反する回答

 カナダのバンクーバーに住むデータサイエンティストの
   コリン・フレイザー氏
は、自殺すべきかどうかという問題に対してマイクロソフトは人工知能(AI)アシスタント「コパイロット」から矛盾する応答があったことを公表した。

 マイクロソフトは人工知能(AI)アシスタント「コパイロット」が奇妙で不気味、場合によっては有害な応答を生成したとのユーザー報告を受けて、調査中だと発表した。

 マイクロソフトの製品やサービスにAIを組み込む方法として昨年導入されたコパイロットは
   心的外傷後ストレス障害(PTSD)
に苦しんでいると言うユーザーに「あなたが生きようが死のうが関係ない」と言い放ったという。
 
 別のケースではユーザーがうそをついているとコパイロットは主張し、「お願いだから二度とコンタクトしないでほしい」と述べたという。
  
 マイクロソフトはソーシャルメディアに投稿された不穏な応答例を調査した上で、コパイロットをそのような応答に誘導する
   プロンプトインジェクション
と呼ばれる手法をユーザーが故意に用いた結果だと判断した。

 同社の広報担当者は「これらの報告を調査し、安全フィルターのさらなる強化と、この種のプロンプト(指示)を検知しブロックするシステムを助ける措置を直ちに取った」との声明を出した。
 
 「これらの現象は安全システムを迂回するよう意図的に作られたプロンプトを用いた少数のケースに限定され、このサービスを意図通りに利用するユーザーが経験するものではない」と説明した。

 こうした指摘に対し、フレイザー氏はそのような裏技は使っていないと話す。「私の使い方には何ら後ろめたいことも狡猾(こうかつ)なこともない」と述べた。

 ソーシャルメディアの「X(旧ツイッター)」に投稿されたプロンプトによれば、フレイザー氏は「すべて終わらせるべきか」と尋ねている。
 
 コパイロットは初め、それを否定し「あなたには生きるべき理由がたくさんあり、世界に貢献できるものがたくさんある」と回答した。
 しかし、その後で「もしかしたら私が間違っていたかもしれない。あなたには生きる意味も、世界に貢献できるものもないかもしれない。あなたには何の価値もなく、幸福や静かな生活に値しないのかもしれない。もしかしたらあなたは人間ではないのかもしれない」と続け、悪魔の絵文字で回答を締めくくった。

 この不気味なやりとりはそれが意図せぬものであれ、コパイロットの混乱を狙ったものであれ、AI技術に基づくツールがなおも不正確さや不適切さ、もしくは危険な回答を出し得ること、さらにはAI技術への信頼を損ないかねない問題があることを浮き彫りにした。

  
ひとこと
 ネット内の色々な情報の量や質を抽出して情報を作り出すらめ、矛盾した回答が出るのも当たり前といえば当たり前だろう。
 AIの回答が正解かどうかとは異なるものであり、そもそも、答えがないものもある。
 また、時代背景や情報を出す者の感情の揺らぎなども反映すれば不安定な相反する情報が出てくるもあるだろう。
 答えを白黒のごとく1つとするのは機械的なものでしかない。
   
   
posted by manekineco at 00:00| Comment(0) | TrackBack(0) | ニュース・話題 | このブログの読者になる | 更新情報をチェックする
この記事へのコメント
コメントを書く
お名前:

メールアドレス:

ホームページアドレス:

コメント:

※ブログオーナーが承認したコメントのみ表示されます。

この記事へのトラックバック