目次
- 1 小林慶一郎氏とは
- 2 小林慶一郎が「経済教室」に寄稿
- 3 ツイッター上の反応
- 3.1 伝説の画像
- 3.2 Excelでディープラーニング
- 3.3 「日経しったか」
- 3.4 両方最小二乗法
- 3.5 松尾先生の説明に引っ張られた
- 3.6 落合陽一の方が信頼できる
- 3.7 勘弁してくれ
- 3.8 昔から困りもの
- 3.9 理工学部の専門の人がチェックすべき
- 3.10 最小二乗法が理解出来ればかなり上澄み
- 3.11 最小二乗法は学習法の一種
- 3.12 深層学習は最小二乗法と言われると違和感がある
- 3.13 最小二乗法を知っている一般人がほとんどいない
- 3.14 機械学習への最初の1歩
- 3.15 大企業経営陣でも最低限理解できるのが最小二乗法
- 3.16 三次関数の例はやめて
- 3.17 “アリ”派
- 3.18 wwwwww
- 3.19 松尾豊先生の説明
- 3.20 「最小二乗法を乗り越えていけ!」
- 3.21 単なるたとえ話
- 3.22 偉い人・普通の人・詳しい人
- 3.23 そもそものクラスが違う
- 3.24 石を投げよ
- 3.25 的外れではない
- 3.26 どこがダメなのか解説
- 3.27 完全に理解した
小林慶一郎氏とは
小林 慶一郎(こばやし けいいちろう)氏は、経済学者・慶應義塾大学教授です。
専門はマクロ経済学、経済動学、金融論です。
小林慶一郎が「経済教室」に寄稿
小林慶一郎氏は2019年2月18日の⽇本経済新聞朝刊「経済教室」に、「自由主義、弱者淘汰は宿命? 求められる『可謬性』の哲学」というタイトルの記事を寄稿しました。
自由主義、弱者淘汰は宿命? 求められる「可謬性」の哲学 小林慶一郎・慶大教授 :経済教室面からhttps://t.co/btNyKW0IuX
— 日経ヨクヨム (@4946nikkei) 2019年2月17日
「AIの進歩により、様々な業種で人間の労働が無用になると言われるが……」「AIの本質は、単純な近似計算の寄せ集めにすぎないという発見」。慶応大・小林慶一郎教授の指摘です。https://t.co/JxOGxp8jAN
— 日本経済新聞 電子版 (@nikkei) 2019年2月18日
#AI などの技術進歩で多くの人々が仕事を失い、やがて淘汰されるといった反理想郷の言説を耳にします。18日付の #経済教室 で慶大の小林慶一郎教授は、様々な経済学の知見をもとにそうした悲観的な物語にくぎを刺しています。https://t.co/kxTYjvHpf1
— 日経電子版 オピニオン (@nikkei_OPINION) 2019年2月18日
記事の中で小林氏は、ディープラーニングについて次のように説明をしました。
近年、驚異的な発展を見せているAIのディープラーニング(深層学習)は、原理的には単純な最小二乗法(誤差を最小にする近似計算の一手法)にすぎない。
(日本経済新聞「自由主義、弱者淘汰は宿命? 求められる『可謬性』の哲学」2019年2月18日付朝刊より引用。太字は筆者による。)
ツイッター上の反応
伝説の画像
伝説の画像になるぞこれhttps://t.co/CpeWKrHseP pic.twitter.com/qfTUVt5j7A
— 猫じゃら美少女 (@tonets) 2019年2月19日
Excelでディープラーニング
Excelで完全にディープラーニングした pic.twitter.com/snTDb37rqI
— 🐼狸科の先生🐻 (@silver_thinfilm) 2019年2月19日
「日経しったか」
日経は「日経しったか」という雑誌を発行すれば良いと思うの。
— pseudo_diver (@pseudo_diver) 2019年2月19日
両方最小二乗法
両方最小二乗法やんけ
— まんで (@mandeao) 2019年2月19日
松尾先生の説明に引っ張られた
これあれだよな・・・松尾先生の講演で言ってた最小二乗法というワードに引っ張られまくった感じだよな
— 1e^^0Re (@watchdog20xx) 2019年2月19日
落合陽一の方が信頼できる
デマだと思いますが
【ディープラーニングは最小二乗法】
AIと超人類の時代 弱者がもつ強み: 日本経済新聞
https://t.co/zkgqsLEqwK pic.twitter.com/jHImnOxSRT— 小包中納言 (@AS_Insects) 2019年2月19日
この一節も相当にアレな認識だと思う。
まだ落合陽一の方が信頼できる。【人やAIが作るあらゆる知は全て現実の近似であり、将来いずれ「間違いであった」と証明される可能性がある、という意味で可謬的なのである。これはAIができる前から科学的知識について広く合意されていた】
— 小包中納言 (@AS_Insects) 2019年2月19日
いやしかしそれにしてもすごい図だなおい、隅から隅まで。
©︎小林慶一郎・日本経済新聞 pic.twitter.com/7J8zdaOXuf
— 小包中納言 (@AS_Insects) 2019年2月19日
勘弁してくれ
これはひどい
日経から《事実の要約がうまい》《細部が正確》を取ったら何も残らないぞ……? https://t.co/qjqBz7I2kx— いちさん (@imasuyo) 2019年2月19日
執筆者は……?
小林慶一郎
1991 東京大学大学院工学系研究科数理工学専攻M修了
1998 シカゴ大学大学院経済学研究科 PhD(経済学)勘弁してくれ
— いちさん (@imasuyo) 2019年2月19日
昔から困りもの
昔から経済についてデタラメを述べていた困りものの小林慶一郎氏がやらかしてしまっていますね。わろた。https://t.co/EHJhTuPm3Y
— 黒木玄 Gen Kuroki (@genkuroki) 2019年2月19日
小林慶一郎氏曰く
【ディープラーニングは「最小二乗法」】https://t.co/NRbYssFXxG— 黒木玄 Gen Kuroki (@genkuroki) 2019年2月19日
理工学部の専門の人がチェックすべき
3次関数=Deep Learningの記事の、小林慶一郎教授何者なのかと思ったら、慶應経済の教授なのね…
慶應職員とか、理工学部の専門の人がチェックすればこういう記事が出るのは防げたのでは…
AIと超人類の時代 弱者がもつ強み: 日本経済新聞 https://t.co/LqVtCGEfkU
— いかすみ (@k_ikasumipowder) 2019年2月19日
小林慶一郎氏は東京大学工学部数理工学科修了なのであながち畑違いとは言わんのですがね。 https://t.co/tdUwyaO6Zz
— 宮島正 (@yasuokajihei) 2019年2月20日
最小二乗法が理解出来ればかなり上澄み
良い悪いは別にして、例の記事で例えとぢて出された、最小二乗法が理解出来ればかなり上澄みでしょう。 https://t.co/CNoEgifMDr
— 田端信太郎 @田端大学塾長である! (@tabbata) 2019年2月20日
最小二乗法は学習法の一種
「ディープラーニング」はだいたいの場合モデルのことを指しており、最小二乗法は学習法の一種
— 須山敦志 Suyama Atsushi (@sammy_suyama) 2019年2月19日
基本的に,モデルと学習法をしっかり分けて理解をした方がいいんじゃないかなぁと思います.たいていの機械学習アルゴリズムはモデルx学習法で決まってきます.ニューラルネットを最小二乗法で学習させてもいいし,確率推論で学習させても良い.
— 須山敦志 Suyama Atsushi (@sammy_suyama) 2019年2月19日
あと,生成モデルを確率推論で学習させてもOKですが,最小二乗法で学習させてはダメ.こういうところで,ある手法の限界点とか矛盾点が見えています.
— 須山敦志 Suyama Atsushi (@sammy_suyama) 2019年2月19日
深層学習は最小二乗法と言われると違和感がある
機械学習の目的、訓練誤差を最小化する事ではなく汎化誤差を最小化できるよう頑張ることなので、深層学習は最小二乗法と言われると違和感がある気がしている。
— Mr. ベイエリア (@csstudyabroad) 2019年2月20日
目的関数を学習データ上で最大化する最適化問題を解きたいんだったら、無限に深い決定木でも使っておけばよくて、深層学習なんぞいらないのである。
— Mr. ベイエリア (@csstudyabroad) 2019年2月20日
最小二乗法を知っている一般人がほとんどいない
“「最小二乗法」は…一般の人がぎりぎり持っている(かもしれない)知識で言い換えたもので”
最小二乗法を知っている一般の人はほとんどいない気がする— Hiroshi Manabe@80.4kg (@takeda25) 2019年2月20日
松尾先生は最小二乗法は一般に知られてると思っておられるようですけどそんなことは決してないですよ
— あかさたな (@noukakutyou) 2019年2月20日
機械学習への最初の1歩
×「ディープラーニングは最小二乗法」
×「複雑な関数で近似(例:3次関数)=ディープラーニング」「3次関数なら一般に近似しかできないけれど、4次関数以上なら5つの△を全て通るのでは?」
「ようこそ! あなたは機械学習への最初の1歩を踏み出しました!」 pic.twitter.com/p7Gidhyzyi— Akso de la Malbono (@Cryolite) 2019年2月19日
大企業経営陣でも最低限理解できるのが最小二乗法
松尾先生は仕事柄、大企業経営陣にAIとは?みたいなザックリしたお題で講演依頼を受ける機会が多く、少しでも業界活性化につながればと引き受け、そして経営陣の予想以上の不勉強に辟易して、まあこいつらでも最低限理解できるだろということで最小二乗法を例えとして出したものと推測しています。
— tomo_8095 (@tomo_8095) 2019年2月20日
三次関数の例はやめて
“ディープラーニング…は、原理的には単純な最小二乗法…にすぎない。つまり…単純な近似計算の寄せ集めにすぎないという発見がAIの衝撃の本質である。近似計算なのだから、AIの知は無謬…の真理ではないし、人間の知も同様である” https://t.co/l530cqszkx また生け贄が….三次関数の例はやめて… pic.twitter.com/WxEARnU20q
— Yuta Kashino (@yutakashino) 2019年2月19日
MIT Introduction to Deep Learning https://t.co/FWdFw9hB1q MITの概論的な深層学習入門講義.広い題材を取り扱っているので,今から深層学習を知りたいという人に丁度良いです.特に「ディープラーニングは原理的には単純な最小二乗法にすぎない」と誤解している他分野の大学教員に最適です!
— Yuta Kashino (@yutakashino) 2019年2月19日
“アリ”派
私は深層学習を最小二乗法の発展形として説明すること自体は”アリ”派ですね.
— Taiji Suzuki (@btreetaiji) 2019年2月20日
ちなみにカーネルを使った最小二乗法のoptimal rateに関する論文も張っておきますね.https://t.co/Zl2lrSDdZy
— Taiji Suzuki (@btreetaiji) 2019年2月20日
wwwwww
DLと最小二乗法はともに最適化問題 ←分かる
DLは最小二乗法を複雑にしたもの (M先生) ←まだ言いたいことは分かる
DLは最小二乗法の3次元版(某炎上コメント) ←分からない
DLは最小二乗法(日経) ←wwwwww— Yusuké Oda (@odashi_t) 2019年2月19日
松尾豊先生の説明
東京大学大学院工学系研究科の松尾豊先生は「ディープラーニングは最小2乗法のお化けのようなもの」と表現しています/日本は既にディープラーニングで後進国となりつつある(2/2) https://t.co/CtxWl9FtcU こちらでは「深い関数を使った最小二乗法」とも https://t.co/Ggrenukv6r
— Toshiya Hatano (@hatano1113) 2019年2月20日
「最小二乗法を乗り越えていけ!」
Spftware Design 3月号の「最小二乗法を乗り越えていけ!」という煽り文句、味わい深い。https://t.co/6B5rxEHU5D
— Mamoru Komachi (@mamoruk) 2019年2月19日
単なるたとえ話
三次関数については単なるたとえ話だし、「ディープラーニングは最小二乗法」という謎のスローガン以外はまあいいのではと思います。でも「ディープラーニングは無謬の真理ではない」ってわざわざ言う必要があることなのか?? あるのかもしれない…… 現実はこわい
— トデス子’\ (@todesking) 2019年2月19日
偉い人・普通の人・詳しい人
偉い人「ディープラーニングは最小二乗法みたい(に損失関数を最小化することでモデルのパラメータをデータから推定するよう)なものなんですよ」
普通の人「ふーん(わかってない)(最小二乗法って何?)」
詳しい人「ディープラーニングが最小二乗法みたいなものって何言ってんだこいつ」— Hiroshi Manabe@80.4kg (@takeda25) 2019年2月20日
そもそものクラスが違う
最小二乗法がトレンド入りしているけど
最小二乗法は誤差の決め方についての話で
ディープラーニングは関数の型の決め方についての話なので
そもそものクラスが違うと感じる— 那智 (@Q_SA_I) 2019年2月19日
石を投げよ
最小二乗法を理解したもののみ石を投げよ
— 某ことり (@ktrmnm) 2019年2月20日
「新約聖書」の「ルカによる福音書」の「罪の女」に関するエピソードになぞらえたツイートです。
イエス・キリストは「あなたたちの中で罪を犯したことのない者が、まず、この女に石を投げなさい。」と言いました。
的外れではない
このあたりですか。決して的外れではないし、私も大学1回生の学生さんには、最適化関数(評価関数)の例として、最小二乗法での最小化すべき式を、出して説明をしたことがあります。https://t.co/scTpq3NOTM
— MIZUNO Yoshiyuki水野義之 (@y_mizuno) 2019年2月19日
どこがダメなのか解説
ディープラーニング=最小二乗法のどこがダメなのか解説する https://t.co/2fCIv3umQD
— 夏野すぐる (@fuyunosuguru) 2019年2月19日
完全に理解した
完全に理解した、ディープラーニングは最小二乗法、じゃん
— くいな橋 (@kuina_bridge) 2019年2月19日
続きはこちらです。