2017年08月21日

広陵が優勝しそうな勢いですね・・・10年ぶりのベスト4

storage.mantan-web.jp_images_2017_05_21_20170521dog00m200017000c_001_size8.jpg

私は高校野球は好きではありません。

なぜなら、高校のスポーツはたくさんあるのに硬式野球だけが異常にスポットライトがあてられているからです。

私はこのように特定のものだけが異常に特別扱いされることを好まないからです。

ですから、基本的には高校野球は嫌いです。

しかし、それでも広島県の高校が活躍すること自体は歓迎です。

で、今年の代表校の広陵が10年ぶりに準決勝に進出を決めました。この後試合があるようですが、優勝しそうな勢いですね。

10年前と言えば、佐賀北に大逆転されて準優勝に終わった年です。その時の投手がいまカープのエースになった野村投手です。

優勝するといいですね。

posted by tsurutsuru at 09:22| Comment(0) | 日常茶飯事

2017年08月19日

Jazzはいいなあ!

storage.mantan-web.jp_images_2017_05_21_20170521dog00m200017000c_001_size8.jpg

YouTubeにジャズの曲がたくさんアップされているので、気ままにまかせて聴いています。

いいですねえ、ジャズは。

特に、昔の演奏者がとてもいいですねえ。サッチモなんか最高です。

今日明日は一日BGMとしてジャズを流します。

satchimo1.jpg


posted by tsurutsuru at 08:09| Comment(0) | 日常茶飯事

2017年08月18日

数学をPython3で教えながらPython3のプログラミングも同時に教えるというやり方を採用しようと思っています

storage.mantan-web.jp_images_2017_05_21_20170521dog00m200017000c_001_size8.jpg

尊敬する先輩に意見を聞いてみた。

そうしたらPython3を教えるのは悪くないという返事を貰った。

それで数学をPython3で教えながらPython3のプログラミングも同時に教えるというやり方を採用しようと思います。

これなら私にぴったりだ。

posted by tsurutsuru at 16:13| Comment(0) | 日常茶飯事

プログラミングを小中高の生徒に教えようと思っているのだが

storage.mantan-web.jp_images_2017_05_21_20170521dog00m200017000c_001_size8.jpg

まあ、ほとんどの人は信じないでしょうが、私はプログラミングに関してはプロです。

25歳から36歳まではソフトウェア開発の仕事をしていましたからね。

だから、プログラミングを小中高の生徒に教えようと思っているのですが、最近自分でそういう環境を作るのが億劫になって自分から動こうとしません。

かといって人に雇われてやるのは嫌だしなあ。私は自由にやりたいタイプなのです。

どうするかなあ。




posted by tsurutsuru at 15:23| Comment(0) | 日常茶飯事

2017年08月17日

しばらく重回帰分析をやります!

storage.mantan-web.jp_images_2017_05_21_20170521dog00m200017000c_001_size8.jpg

暑いとやる気が起こらなくてブログもさぼっていましたが、また投稿します。

しばらくは重回帰分析の例を紹介していきます。

なかなか面白いのでご期待ください。

では、次回から始めます。

posted by tsurutsuru at 07:54| Comment(0) | 日常茶飯事

2017年08月12日

時々基本に戻って基本事項を再確認しておきましょう・・・ディープラーニングとニューラルネットワークとの関係

storage.mantan-web.jp_images_2017_05_21_20170521dog00m200017000c_001_size8.jpg

deeplearning1.jpg

いまこの本を学習しています。自分への覚書きとしてこのブログで理解できた(と思っている)箇所を逐次ご紹介しています。

ところが、往々にして自分がいま何を学習しているのか分からなくなることがあります。

そういう時は基本に戻るのが一番です。

再度ディープラーニングとニューラルネットワークとの関係を確認しておきます。

<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<
ディープラーニングとニューラルネットワークとの関係ですが、本には次のように書いてあります。

  ディープラーニングは、層を深くしたディープなニューラルネットワークです。

さて、ここでニューラルネットワークの学習の手順を確認しておきます。

(前提)ニューラルネットワークは、適応可能な重みとバイアスがあり、その重みとバイアスを訓練データに適応するように調整することを学習と呼ぶ。ニューラルネットワークの学習は次の4つの手順で行う。

〔ステップ1(ミニバッチ)〕
訓練データの中からランダムに一部のデータを選び出す。その選ばれたデータをミニバッチと言い、ここでは、そのミニバッチの損失関数の値を減らすことを目的とする。

〔ステップ2(勾配の算出)〕
ミニバッチの損失関数を減らすために、各重みパラメータの勾配を求める。勾配は、損失関数の値を最も減らす方向を示す。

〔ステップ3(パラメータの更新)〕
重みパラメータを勾配方向に最小量だけ更新する。

〔ステップ4(繰り返す)〕
ステップ1、ステップ2、ステップ3を繰り返す。
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>

上記の本で学習しようとしていることはこれだけです。

細かいテクニック的なことがたくさん書いてあるので少し混乱しますが、本質はこれだけです。

ですから、それほど難しいことは書いてないのです。

もしも、上記の本を学習されている方で途中で分からなくなったらこの基本を思い出されるといいと思います。



posted by tsurutsuru at 03:48| Comment(0) | 日常茶飯事