ゲノム編集ベイビー
イーロンマスク氏のBMIデバイス
シェアした記事はwikipediaのニューラリンク社です。
今はやりのgptCHATでBMIについて質問してみました。以下はその質問
閉鎖環境実験施設:バイオスフィア2
朝日新聞社の2021年7月の記事と私が不十分と考える点
次の記事は、朝日新聞社の石倉記者の2021年7月の記事です。
ABC予想「証明に疑問点」指摘も 出版後も割れる評価:朝日新聞デジタル (asahi.com)
宇宙際タイヒミューラー理論
私のFacebookでも取り上げたNHKスペシャルで放映された「数学者は宇宙をつなげるか?abc予想証明をめぐる数奇な物語(前後編)」(以下Nスぺ)に登場する京大数理研の望月新一教授(以下、単に望月教授)は、自身の以下のblogでNスペを名誉棄損とまで批判している。
2022年4月のNHKスペシャルに対する「合格発表」: 前半はぎりぎり合格、後半は不合格 | 新一の「心の一票」 - 楽天ブログ (rakuten.co.jp)
宇宙際タイヒミューラー理論が発表された時からの時間経緯を次のwikipediaに従って追っていくことにしよう。
2012年8月 京大数理研の望月新一教授(以下、単に望月教授)が数理研のHP上で宇宙際タイヒミューラー理論(以下、単にIUT)を発表
公開後にまもなくイヴァン・フェセンコにより論文が取り上げられたが、望月の新たな数学的手法と言語により「査読に時間がかかるだろう」と報じられた。
2018年3月 ペーター・ショルツェとジェイコブ・スティックスが京都大学を訪れ、望月と星裕一郎は彼らと5日間議論したが、Nスぺでも取り上げているように議論は平行線で終わった。
2018年5月と9月 ショルツェとスティックスは、論文IUTT-IIIの系3.12の論理過程で反例があるとレポートで主張した。
2018年7月と2019年1月 望月教授が上の反例は、IUT理論の前提にいくつかの簡略化がおこなわれ、それらが誤りであるとして、ショルツェとスティックスが公開したそれぞれのレポートに、彼の理論の誤解を指摘するレポートを公開した。
2020年2月 論文は査読を通過
2020年4月、PRIMS(京大数理研が発行する論文誌)特別編集委員会の記者会見で、共同編集委員の玉川安騎男教授は「内容に懐疑的な海外の数学者もごく少数いるが、反論は出尽くしており、今後も平行線のままではないか」とコメントした。
特別編集委員会全体として「望月教授自身が反論もしており、(ショルツェ教授からの)再反論もない」とコメントした。
2021年3月 PRIMSに論文掲載
2021年7月 ショルツェは「このシリーズの最初の3つのパートにおいて、読者は残念ながら実質的な数学的内容をほんの少ししか見出さないだろう。第2部と第3部では、肝心の系3.12に、数行以上の証明を見出さないだろう」と否定的にコメントした。
2022年9月 望月教授がIUT理論の論理展開について詳しく解説する論文を公開した。同論文で、理論の論理構造が論理的なAND “∧”であるが、OR “∨”に取り違える簡略化による誤りが生じる、と主張した。
また、望月教授のblogにもAND “∧”であるが、OR “∨”に取り違えについても2022年1月に言及している。
宇宙際タイヒミューラー理論(IUTeich)の論文を巡る現状報告: 「数学界に出現している悲惨なブラックホールの物語」 | 新一の「心の一票」 - 楽天ブログ (rakuten.co.jp)
私は数学などやったことがなくIUTが正しいかどうかの判断はできかねるが、ただNスぺの取り上げ方は、望月教授の批判が当たっているように思った。
「AはAであって、同時に非Aでもある」という、自己矛盾していそうな、不思議な謎めいた考え方が望月の理論の基本となっていて、それが海外の研究者には受け入れ難い考え方であるという解説です。
同じものを同じものと見做すか、それとも違うものと見做すか」という話は、恐らく通常の数学用語で表現すると、「同型なもの(=つまり、同一の'設計図'に基づく内部構造を有するもの)を、同一視するか、それとも区別するか」というような記述の、(Nスぺは)一般人向けの翻訳のつもりでしょうが、同型なものを同一視することも、区別することも、(20世紀初頭に遡る)公理的集合論によって当たり前に記述できる考え方であり、つまり古くから純粋数学全般で広く知れ渡っている当たり前な考え方であり、決して私が最近になって導入した考え方ではありません。」また、「宇宙際タイヒミューラー理論では、球面の「A」と「B」を勝手に区別したり、同一視したりして整合性のない議論を展開していると誤解する人もいますが、そのようなことは一切ありません。むしろ、不思議な形で繋がった状態の「A」と「B」を(同一視せずに)区別したまま、大きな入れ物の中に埋め込んで、その入れ物の幾何を調べることによって「A」と「B」の間の距離は、実はそれほど大きくなく、不等式で上から抑えることができることを、「遠アーベル幾何学」と呼ばれる数論幾何学の一分野による手法を用いて示します。」と言っています。正確なところはわかりませんが、加藤文元教授のビデオの携帯電話通信の喩えを用いることで「遠アーベル幾何学」において数学的対象の対称性からその対象の内部構造を復元する仕組みについて解説することもできたはずです。」このような取り上げ方をNスぺが何故しなかったのでしょうか?
茂木健一郎さん:(101) #ABC予想 についての #NHKスヘシャル に対する #望月新一 さんの批判を読んで考える - YouTube
私も、茂木さんの指摘のようにNスぺには数学の専門家が必要なように思った。
無料でGPUが使えるクラウドサービスでの囲碁AI
Google Colobaでディープラーニング(松尾先生のsection1)
Google Colobaでは無料でGPUが使えるということで、使ってみた。(と言っても、サンプルコードの矢印を押して実行しただけです。)ディープラーニングの言語はTensorsflow。Google Colobaは前回のRをサポートしていない。
以下は手書き数字MNISTのサイト
http://yann.lecun.com/exdb/mnist/
白黒画像28X28ピクセルで、ピクセルの値は0~255、60,000例のトレーニングセットと10,000例のテストセット、機械学習の様々な手法で認識を行った場合のエラー率の比較もある。もっとも良いのが35回の委員会 ネット、1-20-P-40-P-150-10 [弾性歪み]の0.23%。最も悪いのが線形分類器(1層NN)12.0%
上の手書き数字のデータを次のサイトに従って実行した。
【環境構築不要・スマホ/タブレットOK】東大松尾研のDeep Learningエンジニア育成講座『DL4US』を自習する
https://qiita.com/tomo_makes/items/f4d69f2aa3c407891d64
Lesson1のSection1にあるMNISTの手書き数字を認識させる例題をLesson1のsection4にある少し違ったモデルで実行し、損失値と正解率で性能を比較してみた。
結果は次の通り。
Test loss Test accuracy
Original 2.3015334606170654 0.11349999904632568
section4 0.1890578716993332 0.9495000243186951
正解率は11.3%と95.0%と大きく違っている。モデルの違いは次の通り。大きな違いは、各層の出力の個数と活性化関数、最適化アルゴリズムの差異、Dropoutの採用である。
以下は、オリジナルのモデル
model = Sequential()
model.add(Dense(units=256, input_shape=(784,)))
model.add(Activation('relu'))
model.add(Dense(units=100))
model.add(Activation('relu'))
model.add(Dense(units=10))
model.add(Activation('softmax'))
model.compile(loss='categorical_crossentropy',optimizer='sgd', metrics=['accuracy'])
以下は、section4のモデル
model0 = Sequential()
model0.add(Dense(512,input_shape=(784,),activation='relu',kernel_initializer='he_normal'))
model0.add(Dense(256, activation='relu', kernel_initializer='he_normal'))
model0.add(Dense(128, activation='relu', kernel_initializer='he_normal'))
model0.add(Dropout(0.3))
model0.add(Dense(64, activation='relu', kernel_initializer='he_normal'))
model0.add(Dense(32, activation='relu', kernel_initializer='he_normal'))
model0.add(Dense(10, activation='softmax'))
model0.compile(loss='categorical_crossentropy',optimizer='adam',metrics=['accuracy'])
松尾先生のサイトでは、section7までのipbynbファイルがダウンロード可能で、今後、逐次実行してみる予定。