メモ。くら寿司はPepperをやめて、ラズパイにしたのだろうか。
ラズパイ + Google Coralの組み合わせのようだけど、どこらへんにGoogle Coralを使っているのだろう。
QRコードを読み込むだけなら、ラズパイで十分な気がする。他にディープラーニングで画像認識しているのだろうか。
Google Coral使っていないからよく分からないけど、Google Cloudとの便利な連携機能があったりするのだろうか?
メモ。くら寿司はPepperをやめて、ラズパイにしたのだろうか。
ラズパイ + Google Coralの組み合わせのようだけど、どこらへんにGoogle Coralを使っているのだろう。
QRコードを読み込むだけなら、ラズパイで十分な気がする。他にディープラーニングで画像認識しているのだろうか。
Google Coral使っていないからよく分からないけど、Google Cloudとの便利な連携機能があったりするのだろうか?
An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale | OpenReview
Anonymous authors
Paper under double-blind review
目隠しレビュー中のため、著者非公開らしい。でも、きっとFacebookでしょ?
2020/xx/xx
記載を探せなかった
自然言語処理で高い性能を出す「Transformer」を画像認識のタスクに適用し、SoTAの性能達成
モデルの概要は以下の通り。
画像は畳み込みは用いず、小さいパッチに分割する。パッチは、畳み込みでなくFlattenしてベクトル化。
そのあとは、ほぼTransformer(BERT)
事前学習のデータが少ないと性能が出ないらしい。
詳細は以下が分かりやすい。
画像認識の大革命。AI界で話題爆発中の「Vision Transformer」を解説! - Qiita
CNNがTransoformer(Attention)に置き換わっていくのだろうか…直感的にはCNNの方が良さそうなのだけど。
タスクにも依存しそうな気はするので試してみたい。Kaggleで使われだしたら本物だと思う。
事前学習のデータ量が膨大でないと性能がでないというのも気になる。分かりやすい解説を書いている記事では
畳み込みが持つ「局所性」のようなバイアスはデータ数が少ない場合には有効だが、データ数が大きい場合にはむしろ不要となるということです。これはおもしろいですね。
と書いているけど「うーん」という感じ。
An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale · Issue #1906 · arXivTimes/arXivTimes · GitHub
画像認識の大革命。AI界で話題爆発中の「Vision Transformer」を解説! - Qiita
GitHub - lucidrains/vit-pytorch: Implementation of Vision Transformer, a simple way to achieve SOTA in vision classification with only a single transformer encoder, in Pytorch
Array programming with NumPy | Nature
Charles R. Harris(Independent researcher), K. Jarrod Millman(Berkeley)
2020/09/16
Pythonの数値計算ライブラリとしてお馴染みにのNumpyの論文。なんとNatureに掲載。
もともとPythonにあったNumericとNumarrayという2つのライブラリが統合されてできたのがNumpy(知らなかった)。
以下の図から、今やNumpyが数多くのライブラリに使われていることが分かる(知らないものもたくさん)。
その他、Numpyが使われたプロジェクトの輝かしい功績や、Numpyの特徴・メリットが記載されている。
Numpyさんにはお世話になってます。
numbaでざっくりPython高速化 - Qiita
100 numpy exercisesをやるとNumpy力上がるかも
画像処理ライブラリによる画像ファイルのnumpy.ndarray変換の速度比較 - Qiita
Python関係の「○○100本ノック」のまとめ - Qiita
[2005.14140] Modeling the Distribution of Normal Data in Pre-Trained Deep Features for Anomaly Detection
2020/04/22
この論文の凄さは、「DNNは学習していない」ということ。学習済モデルを全面的に信用している。それでAUC95.80%は驚愕。
— shinmura0 @ 9/26鳥コンペ反省会 (@shinmura0) September 14, 2020
凄まじく早い(学習)ので、エッジなんかで威力を発揮しそう。
(続く) https://t.co/1u6BUQsJnt
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
TensorFlow User Group Meetup - ベイズ分科会 - connpassでの発表資料
世界モデルというのは、やっていることはもろSLAMっぽいけど、違いがよく分からない。
Pixyzという深層生成モデルライブラリ、きになる。一度さわってみたい。
An Empirical Study of Spatial Attention Mechanisms in Deep Networks
[1904.05873] An Empirical Study of Spatial Attention Mechanisms in Deep Networks
Xizhou Zhu1,3, Dazhi Cheng2,3 ,Zheng Zhang3 ,Stephen Lin3 ,Jifeng Dai3
2019/04/11
[1912.02292] Deep Double Descent: Where Bigger Models and More Data Hurt
Preetum Nakkiran(Harvard University), Gal Kaplun(Harvard University), Yamini Bansal(Harvard University), Tristan Yang(Harvard University), Boaz Barak(Harvard University), Ilya Sutskever(OpenAI)
全員 Beihang University(北京大学)
2019/12/04
大きいディープラーニングのモデルで、パフォーマンスが低下(過学習)となった後、さらに学習をし続けるとまた性能が上がる現象(double-descent)をeffective model complexityという指数を定義して説明
宝くじ仮説と同じ話かと思ったら、どうも同じではないらしい。
なんとなく同じことを言っているような気がするけど…うーむ、分からん。
論文読み:DEEP DOUBLE DESCENT - Qiita