« 苦しめるのは自らを守ろうとするシステム | トップページ | 養殖の餌を食べ始めた人工知能(AI) »

2023年9月24日 (日)

AIには「後悔」がない

(全体の目次はこちら



AIには「後悔」がない

- 最適な予測はかつての模倣 -

 

雑誌「新潮」に寄せた文章において
下西風澄さんが、
 私たちは
 変容していくがゆえに生き延びている、
 傷つき得るがゆえに生きている。
と書いていたことを
前回紹介した。
その先を読んでみたい。

下西風澄
生まれ消える心
― 傷・データ・過去
雑誌新潮 2023年5月号

(以下水色部、本からの引用)

今日は、人間の心とAI(人工知能)との
違いについて語っている部分から。

将棋の棋士たちは、
AIが登場して人間の強さを
凌駕しはじめたとき
人間は指し手を(線)で考えるが、
 AIは(点)で考える
」ことに
衝撃を受けていた。

人間は線、AIは点とは
どういうことだろう。

人間は
「さっきこう指したのに、
 次にこう指すと、
 前の手が間違いで損だった
 ということになる」
という観点に縛られて、
指し手を限定してしまう。

しかし、
たしかに重要なことは
過去に何を指したかではなく、
現在の局面の評価値と未来の勝利
で、
AIはそれをフラットにして
その瞬間だけの優劣の判断ができる
というのである
AIには「後悔」がない)。

過去がどうであったかには触れず、
あくまでも現在を出発点に、
将来の最適解を目指す。

そこに「手の流れ」は存在しない。
確かにそこに後悔はないわけだ。

 

ChatGPTの登場により、
自然言語を習得したかに見える
コンピュータの出力に、
我々はほんとうに驚かされた。

でも、もっと驚いたのは

機械に言語を繰らせるという
壁を突破したのは、

言語の文法や構文への理解ではなく
大量の言葉のデータから
次の単語を予測するという
確率的なモデル
であったことだ。

言語を「理解」しているのではなく、
言葉の組み合わせの
統計的なデータを吐き出すことで
もっともらしい文章を作り上げている。

すなわち
この新たなる知性を携えた機械は、
なんらかの構文モデルなどによって
ゼロから自分で思考したり
話したりしているのではなく、

人間たちがかつて話した/書いた言葉を
模倣している
ということだ。

ChatGPTの話すそれらしさは、
人間の過去の言葉のそれらしさ
である。

 

そう言えば、
イーロン・マスクが率いるテスラの
完全自動運転向けソフトウェア
「FSD(Full Self Drive)」の
デモを見た
ソフトウェアエンジニアの
Satoshi Nakajima @NounsDAO さんは、
2023年8月26日にX(旧twitter)に
次のようにポストしていた。

アーキテクチャの解説が
とても勉強になる。

「赤信号では止まる」
「左に曲がるときは
 左のレーンに移動する」
「自転車は避ける」などの行動は、
一切人間が書いたプログラムでは
指定しておらず
、大量の映像を
教育データとして与えられた
ニューラルネットが
「学んで実行している」だけ。

ある意味、
「単に次に来るだろう言葉を
 予測するのが上手」なLLMと
似ている。

単に
「次にすべき
 ハンドル・アクセル操作を
 予想して実行」しているだけ。

LLMとは大規模言語モデル
(Large Language Models)、
ChatGPTなどがまさにその応用例だ。

「赤信号では止まる」が
明示的にプログラムされていないなんて。
それでも自動運転の車は走れる。

 

あくまでも現在を出発点に、
将来の最適解を目指し、
驚くような出力を出し始めたAI。

でもそれは、
膨大な過去のデータから導かれる
 目的達成のためには、
 * 次はこの言葉が来るだろう、
 * 次はアクセルを踏むだろう、
という最適な「予測」を
しているにすぎない。

次回も続きを読んでいきたい。

 

 

(全体の目次はこちら

 

 

 

 

« 苦しめるのは自らを守ろうとするシステム | トップページ | 養殖の餌を食べ始めた人工知能(AI) »

書籍・雑誌」カテゴリの記事

言葉」カテゴリの記事

科学」カテゴリの記事

コメント

コメントを書く

(ウェブ上には掲載しません)

« 苦しめるのは自らを守ろうとするシステム | トップページ | 養殖の餌を食べ始めた人工知能(AI) »

最近のトラックバック

2024年4月
  1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30        
無料ブログはココログ