« 2017年7月 | トップページ

2017年8月

2017年8月13日 (日)

鏡の中の不思議な立体

(全体の目次はこちら


鏡の中の不思議な立体

- 円が四角に -

 

ベーグルによるメビウスの輪でも書いた通り、
錯視・錯覚ネタは大好きだ。

錯覚を利用した世界大会
Best Illusion of the Year Contestで
2010年、世界第一位に輝いた
杉原厚吉さんのこの作品。

この作品をはじめとして、
杉原さんは実に様々な
錯覚作品の新作を発表している。

昨年(2016年)9月に
横浜で開催されていた
「エッシャー展」。

Pa105800s

その最後のコーナに展示されていた
杉原さんの作品も
新しい視点の驚くべきものだった。

そのコーナだけ
写真撮影可だったので、
その時の写真を2枚添えたい。

Pa105808s

静物を鏡で映しているだけ。

Pa105813s

でもご覧の通り、そこには
にわかには信じられないものが
映っている。

 

これらの立体オブジェを含む本(!?)が
この夏出版された。

鏡で変身!?
ふしぎ立体セット
驚きの錯覚 不可能立体の世界

監修 杉原厚吉
東京書籍

思わず購入してしまったので、
ちょっと中身をご紹介。

まずは箱の表紙にもなっている
この作品から。

Mirror1

エッシャー展では、
(壊れないように、というよりも)
展示物の位置や角度がずれないよう
ケースに入っての展示だったため、
手に取ることはできなかったが、
もちろん、今回は手に取って
いろいろな角度から
その変化を楽しむことができる。

Mirror2

鏡の前の物体は、左から
四角形、五角形、六角形なのに、
映ったもの(写真上部)はすべて円!

小さい作品だが、
これもインパクトが大きい。

Mirror3_2

矢印の向きが逆転。
しかも鋭角の矢印の先が、
鏡の中では丸いきれいな弧を描いている。

 

簡単なペーパクラフト作品も
入っている。

これは、鏡に映すと
「屋根」も「屋根のニワトリ」も
消えてしまうというもの。

Mirror4

これくらいになると、
もう写真ではとても伝えられない。

手に取って、オブジェを
違う角度から眺めてみて、
その発想に驚いてみてほしい。

仕組みを知って見ても、
何度でも楽しめる。

 

 

(全体の目次はこちら

 

 

 

 

2017年8月 6日 (日)

独自言語で会話を始めた人工知能

(全体の目次はこちら


独自言語で会話を始めた人工知能

- 今、必要なものは? -

 

最初に知ったのは
通勤途中のラジオだったのだが、
先週、衝撃的なニュースがあった。

帰って来て調べてみると、
関連記事がネットにある。
ただ、現在公開されている記事が
いつまで読めるのかわからないので、
個人的な記録のために
その一部をここで取り上げておきたい。

代表で選んだ元の記事は
2017年8月2日付のこちら
人工知能(AI)についてのニュースだ。
記事のタイトルは、
「終わりの始まり…?
 独自言語で話しはじめた人工知能、
 Facebookが強制終了させる」

(以下水色部は記事からの引用)

Facebook(フェイスブック)が行なう
人工知能の研究開発において、
近未来SF映画のような
事態が起きていました。

会話をさせていた
2つの人工知能ボブとアリスが、
独自の言語を生み出し、
話し始めたのです。

人間には理解しがたい言葉を話す
2体のAI。

Facebookの開発チームは、
これを受けて人工知能の
マシンラーニングプログラムを
強制終了させました。

人工知能(AI)が人間の能力を超える
技術的特異点、
シンギュラリティ(Singularity)なる言葉を
耳にすることも多くなっているが、
それにしてもこの記事の恐ろしさは、
表現のしようがない。

人間には理解できない独自の言語で
AI同士が会話を開始した、というのだ。
ついに、ここまで来てしまったのか。

 

私自身は、門外漢の素人ながら
一エンジニアとして
AIの進歩を楽観的かつ好意的に
見つめている。
どんどん進歩すればおもしろい、
と思っている。

それなのに、このニュースには
どこか別な部分が反応してしまった。
それはいったどこなのだろう?

個人的には、身体を持たない
知能だけのシンギュラリティの議論は
ナンセンスだと思っているので、
単純な
「もしそうなったら人類の終焉だ」
「終わりの始まりだ」
みたいな極論には全く与(くみ)しないが、
次々と新しいネタが飛び出してくる
AI関連のニュースからは目が離せない。

 

松尾 豊 (著)
人工知能は人間を超えるか
ディープラーニングの先にあるもの

(角川EPUB選書)
(以下緑色部は本からの引用)

にこんな記述がある。

言語の果たす役割とも関係があるが、
社会が概念獲得の「頑健性」を
担保している可能性がある。

複数の人間に共通して現れる概念は、
本質をとらえている可能性が高い。

つまり「ノイズを加えても」
出てくる概念と同じで、
「生きている場所や環境が
 異なるのに共通に出てくる概念」は
何らかの普遍性を持っている
可能性が高いのだ。

言語は、こうした頑健性を
高めることに
役立っているのかもしれない。

人間の社会がやっていることは、
現実世界のものごとの特徴量や
概念をとらえる作業を、
社会の中で生きる人たち全員が、
お互いにコミュニケーションを
とることによって、
共同して行っている

考えることもできる。

身体だけでなく、
社会やコミュニケーションが
裏にあってこその概念獲得。

ロジックやデータだけに基づく進化に
直感的な危うさ、怖さを感じるのは、
そういった裏の支えがないことが
原因なのかもしれない。


著者の松尾さんはこうも書いている。

いずれにしても、
まず議論すべきは、
「人工知能が将来持つべき倫理」
ではなく、
「人工知能を使う人間の倫理」や
「人工知能を
 つくる人に対する倫理」である。

最初の記事に戻ると、実際、
AI同士が意味のわからない言葉で
会話を続けることに直面したエンジニアも

米メディアの多くが
この件を報じており、
パニックでプラグを引っこ抜いたとか、
システムをシャットダウンした
などと言われています。

なる行動をとってしまったようだ。

エンジニアとしては乱暴なその行為を
反射的にとってしまった
今のFacebookのエンジニアには、
ちょっとホッとするところがある。

今、「作る人」に必要なものは
ナンなのだろう。

恐ろしくなって、
「プラグを引っこ抜いたり」、
「シャットダウンしてしまったり」、
そういう『恐ろしさ』を感じる気持ちは
持っていてもらいたいと思う。
それが倫理や論理に
基づくものかどうかはともかく。

 

 

(全体の目次はこちら

 

 

 

 

« 2017年7月 | トップページ

2017年8月
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31    
無料ブログはココログ