2017年07月15日

ディープラーニングの基本的な概念はそれほど難しいものではないようです

storage.mantan-web.jp_images_2017_05_21_20170521dog00m200017000c_001_size8.jpg

ベストセラーになっているディープラーニングの本を拾い読みしただけですが、ディープラーニングの基礎的な概念はそれほど難しいものではないようです。

私の今の理解では、ディープラーニングとは、損失関数という指標を使って適切な重みパラメータをコンピュータに求めさせることです。

その手法として数値微分を使います。ただ、数値微分はコンピュータに計算させても時間がかかるので、時間の短縮に誤差逆伝播法を使うということらしいです。

でもやりたいのは損失関数の微分ですね。そうすると損失関数のグラフの勾配が計算できます。それを使って損失関数の値が最小になるような重みパラメータをコンピュータに見つけさせるのですね。

今の私の理解では上記のようになります。もしも、間違っていたらその都度訂正しますね。

では。

posted by tsurutsuru at 18:30| Comment(0) | 日常茶飯事

タグチメソッドの学習(1)

storage.mantan-web.jp_images_2017_05_21_20170521dog00m200017000c_001_size8.jpg

今回タグチメソッドを学習するにあたり、次の2冊を使います。

(1)入門タグチメソッド(立林和夫著、日科技連)
(2)Excelでできるタグチメソッド解析法入門(広瀬健一・上田太一郎編著、同友館)

(1)を中心にして(2)を補助的に使おうかと思っています。(2)には実例が多く載っているので(1)だけではよく分からないことも具体的にExcel上で理解できるかと思います。

ます、(1)の章立てを紹介します。

第1章 システムと安定性
第2章 パラメータ設計入門(望目特性を例として)
第3章 動特性のパラメータ設計
第4章 技術開発段階でのパラメータ設計
第5章 非線形システムでのパラメータ設計
第6章 入出力が測れない場合のパラメータ設計
第7章 直交表を利用したその他の設計活動
第8章 損失関数とその利用
第9章 MTシステム
第10章 タグチメソッドと開発プロセス改革
第11章 タグチメソッドを理解するために

以上です。

とにかくタグチメソッドは難解と言われているので、少しずつ進んで行きたいと思います。

今回はここまでです。

posted by tsurutsuru at 08:44| Comment(0) | 日常茶飯事

タグチメソッドの学習で使用する参考書について

storage.mantan-web.jp_images_2017_05_21_20170521dog00m200017000c_001_size8.jpg

タグチメソッドとは、実験計画法をベースに、品質のばらつきや劣化などの品質トラブルが最初から発生しないような設計にするための予防設計技術です。

タグチメソッドは難解なため、日本の品質管理の分野では、「わけのわからないもの」「うさい臭いもの」と見なす人も多く、日本国内でより海外での評価の方が高いのです。

今回タグチメソッドを学習するにあたり、次の2冊を使います。

(1)入門タグチメソッド(立林和夫著、日科技連)
(2)Excelでできるタグチメソッド解析法入門(広瀬健一・上田太一郎編著、同友館)

日本人で困るのは次のパターンです。

   難解=>自分に理解できない=>これはうさん臭いと思う

これで多くの優秀な人たちが考えたものがゴミ箱に行ったことでしょう。

では、次回から始めます。

posted by tsurutsuru at 08:26| Comment(0) | 日常茶飯事

ここまでディープラーニングの本を拾い読みして分かったこと

storage.mantan-web.jp_images_2017_05_21_20170521dog00m200017000c_001_size8.jpg

ここまでディープラーニングの本を拾い読みして分かったことは、ディープラーニングというのは、損失関数を指標にして、適切な重みパラメータを求めることだということですね。

あとはそれを達成するためにいろいろな手法が考案されているということですが、ディープラーニングの本質は上に述べたことです。

これって、タグチメソッドと同じです。どうもタグチメソッドがディープラーニングに影響を与えているようですね。

posted by tsurutsuru at 03:30| Comment(0) | 日常茶飯事

タグチメソッドの手法とディープラーニングの手法があまりにもよく似ているのでタグチメソッドの学習も始めます!

storage.mantan-web.jp_images_2017_05_21_20170521dog00m200017000c_001_size8.jpg

ディープラーニングの本を拾い読みしていると、以前一度学習したタグチメソッドとあまりにも似ているので、本ブログでタグチメソッドの学習もやります。

そうして両者に関連があるのかどうか探っていこうと思います。

では。

posted by tsurutsuru at 03:18| Comment(0) | 日常茶飯事

「ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装 」の拾い読み(3)

storage.mantan-web.jp_images_2017_05_21_20170521dog00m200017000c_001_size8.jpg

前回の続きです。

その前に「ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装 」の構成を再確認します。

1章 Python入門
2章 パーセプトロン
3章 ニューラルネットワーク
4章 ニューラルネットワークの学習
5章 誤差逆伝播法
6章 学習に関するテクニック
7章 畳み込みニューラルネットワーク
8章 ディープラーニング
付録A Softmax-with-Loss レイヤの計算グラフ
参考文献

それで各章の一番最後にある「本章で学んだこと」を原文のまま紹介していました。続きは4章からです。

4章 ニューラルネットワークの学習
・機械学習で使用するデータセットは、訓練データとテストデータに分けて使用する。
・訓練データで学習を行い、学習したモデルの汎化能力をテストデータで評価する。
・ニューラルネットワークの学習は、損失関数を指標として、損失関数の値が小さくなるように、重みパラメータを更新する。
・重みパラメータを更新する際には、重みパラメータの勾配を利用して、勾配方向に重みの値を更新する作業を繰り返す。
・微小な値を与えたときの差分によって微分を求めることを数値微分と言う。
・数値微分によって、重みパラメータの勾配を求めることができる。
・数値微分による計算には時間がかかるが、その実装は簡単である。一方、次章で実装するやや複雑な誤差逆伝播法は、高速に勾配を求めることができる。

【ツルツルの寸評】なんと数値微分はつい最近このブログで紹介した統計学のいろいろな分布のグラフを描くときに利用しています。面白いもので知らぬまにディープラーニングの学習もしていたのですね。

5章 誤差逆伝播法
・計算グラフを用いれば、計算過程を視覚的に把握することができる。
・計算グラフのノードは局所的な計算によって構成される。局所的な計算が全体の計算を構成する。
・計算グラフの順伝播は、通常の計算を行う。一方、計算グラフの逆伝播によって、各ノードの微分を求めることができる。
・ニューラルネットワークの構成要素をレイヤとして実装することで、勾配の計算を効率的に求めることができる(誤差逆伝播法)。
・数値微分と誤差逆伝播法の結果を比較することで、誤差逆伝播法の実装に誤りがないことを確認できる(勾配確認)。

(続きは次回へ)




posted by tsurutsuru at 02:25| Comment(0) | 日常茶飯事