Mae向きなブログ

Mae向きな情報発信を続けていきたいと思います。

よくわかる人工知能 最先端の人だけが知っているディープラーニングのひみつ

最近は、現在、読み進めているものも含めて人工知能関連の本を何冊か読んできましたので、ディープラーニングという技術を使うと、こんなことができるようになるらしいということは、なんとなく想像できるようになってきたと思ってました。

しかし、この本の中で紹介されていることは、素人が想像できるような域をいい意味で、完全に外れていますね。そんな話が多かったと思います。

本書を通して、最先端の研究者の方々が、想像する未来というものに素人が触れられたというのが一番の収穫だと思います。特にPEZY Comutingの齊藤元章氏との対談記事は興味深く読ませていただきました。第2、第3のメトホルミンの登場を期待したいですね。

壺霊

京都を訪れたのは修学旅行(高校時代)の一回きり。「そうだ 京都、行こう。」と思い立って行きたい気分です。

「学力」の経済学

恥ずかしながら本書のことも、「教育経済学」という言葉も知らなかったのですが、読んでみると非常に面白い本でした。そんなに分量のある本ではないので、何度も読み返すこともできると思いますが、自分用にメモしておきたいと思います。

  • 経済学がデータを用いて明らかにしている教育や子育てにかんする発見は、教育評論家や子育て専門家の指南やノウハウよりも、よっぽど価値がある。
  • 日本ではまだ、教育政策に科学的な根拠が必要だという考えはほとんど浸透していない。
  • 2001年ブッシュ政権下で成立した「落ちこぼれ防止法」には、実に111回も「科学的根拠に基づく」というフレーズがある。
  • 自治体や政府の報告書の中にやたらと登場するような、「満足しましたか」と子ども自身に聞いたアンケートの調査の集計を「エビデンス(科学的根拠)」と呼ぶこともありません。
  • 「相関関係」があるということは、必ずしも「因果関係」があることを意味しない。
  • 教育投資への収益率は、株や債権などの金融資産への投資などと比べても高いことが、多くの研究で示されている。
  • ご褒美は、「テストの点数」などのアウトプットではなく、「本を読む」「宿題をする」などのインプットに対して与えるべき
  • 学力が高いという「原因」が、自尊心が高いという「結果」をもたらしている。
  • ほめ方の違いは、子どもたちの取り組み方にも影響を与える。
  • レベルの高すぎるグループに子どもを無理に入れることは、逆効果になる可能性すらある。
  • 習熟度学級は、ピア・エフェクトの効果を高め、特定の学力層の子どもたちだけではなく、全体の学力を押し上げるのに有効な政策
  • もっとも収益率が高いのは、子どもが小学校に入学する前の就学前教育(幼児教育)
  • ヘックマン教授らは、学力テストでは計測することができない非認知能力が、人生の成長において極めて重要であることを強調している。
  • 高校でよい成績を取る過程で獲得した非認知能力(まじめ、先生との関係がよい、計画性がある、やり抜く力がある、など)は、高校を卒業した後も、彼らを成功に導いた。
  • 非認知能力への投資は、子どもの成功にとって非常に重要であることが多くの研究で示されている。
  • 少人数学級は学力を上昇させる因果効果はあるものの、他の政策と比較すると費用対効果は低い政策である。
  • これまで日本で実施されてきた「少人数学級」や「子ども手当て」は、学力を上げるという政策目標について、費用対効果が低いか効果がないということが、海外のデータを用いた政策評価の中で既に明らかになっている政策である。
  • ある世代の子ども全員を対象にして「平等」に行われた政策は、親の学歴や所得による教育格差を拡大させてしまうことがある。
  • 実験の結果、「子ども手当て」のような補助金は学力の向上には因果効果を持たなかった。
  • データを開示すれば、政府がわざわざ雇用しなくても、世界中の優秀なエコノミストがこぞって分析してくれる
  • 能力が高い教員が教えた場合、子どもたちは1年で1.5学年分の内容を習得できたのに対して、能力の低い教員が教えた場合は、0.5学年分しか習得できなかった。
  • 能力の高い教員は、子どもの遺伝や家庭の資源の不利すらも帳消しにしてしまうほどの影響を持つ
  • 少子化が進んでいく中では、少人数学級によって教員の「数」を増加させることよりも、教員の「質」を高める政策のほうが、教育効果や経済効果が高い可能性があるのではないか。
  • 経済学者の間では教員免許の有無による教員の質の差はかなり小さいというのがコンセンサスになっている。

勾配法

ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装』、4章「ニューラルネットワークの学習」まで読み終えました。Pythonに触れるのは初めてですが、順調に読み進めることができています。

自分の理解度を定着させるために、以下の問題をRubyで解いてみました。

問: {\displaystyle f(x_0,x_1) = x_0^{2} + x_1^{2} }の最小値を勾配法で求めよ。

実行

テキストと同じように初期値を(-3.0, 4.0)として、勾配法を使って最小値を探索しましたが、以下のように真の最小値(0,0)に近づきました。

$ ruby gradient_method.rb
-6.111107928998789e-10
8.148143905314271e-10

平家伝説殺人事件

著者の本、中でも浅見光彦シリーズを手当たり次第、読んでいますが、本作品は浅見光彦シリーズの第2弾なんですね。

機械学習と深層学習

今は第3次人工知能ブームということで、その波に乗り遅れないようにと、以下の本を読んできました。

多くの本やネット上の解説記事を読んでいくことで、概念みたいなものはだんだん分かってきたような気がします。

また、まだ試してはいませんが、TensorFlowやChainerなどの人工知能ライブラリを使うことで手書き数字を学習して判別するようなことは、自分のような素人にもできるのかもしれません。

しかし、それだけでは車が運転できるようにはなったものの、どうやって車が動くのか、その仕組みが知りたいという欲求は満たされないのですが、本書は、C言語を用いたプログラム例を用いて説明してあるので、今まで人工知能の中身に触れてみたいけど難しそうだからやめておこうという消極的な姿勢から、もう一歩踏み込んで第3次人工知能ブームに乗っていこうと、気持ちを前向きにさせてくれる本だと思います。

機械学習と深層学習 ―C言語によるシミュレーション―

機械学習と深層学習 ―C言語によるシミュレーション―