からログ

からあげが鳥並の頭で学んだことを記録する場所だよ

破天荒フェニックス オンデーズ再生物語

破天荒フェニックス オンデーズ再生物語  (NewsPicks Book)

破天荒フェニックス オンデーズ再生物語 (NewsPicks Book)

 眼鏡屋チェーン「オンデーズ」の再建物語。なかなか面白く読めました。自分には起業家は無理だなと思いました(笑)

 オンデーズでメガネ買いたくなりました。愛知にも何店舗かあるみたいだから行ってみようかしら。

「下町ロケット」ゴースト・ヤタガラス

 こちらの個人的なメモブログ。去年は、読んだ論文とか、メインブログに書くにはマニアックな内容を書いていましたが、今年からは読んだ本のメモもしていこうかなと思います。というわけで、年末年始にかけて読んだ本。

下町ロケット ゴースト

下町ロケット ゴースト

下町ロケット ヤタガラス

下町ロケット ヤタガラス

 仕事でちょっと関係がありそうな内容があるので読んで見ました。ドラマチック度合いなら自分の仕事も負けてないかも(笑)

 仕事の方も、小説のようにスカッとした終わりになると良いけど…初の池井戸作品でしたけど、まあこういうのが売れるのは分かる気がしますね。

google pixel で使われてるポートレートモードのぼかしアルゴリズム解説

[1806.04171] Synthetic Depth-of-Field with a Single-Camera Mobile Phone

 これ。ようやくPodcast聴いたけど、かなり面白かった。個人的に、ヘーと思ったことメモ

  • デプス情報を元に、奥からレイヤー化していって、奥から順に描画していく
  • 奥行きのレイヤーは、そのままだと計算量多いので5段階(数字の記憶はあいまい)くらいにしている
  • 何度もHDR的処理をしている(トーンマッピング?)
  • ボケのところは、解像度落として計算しているけど、ボケのないところでは、元画像のフル解像度を使っている
  • 境界の色にじみを防ぐために、距離に応じてフィルタの係数を変えている
  • 最後に、わざとノイズを加える処理をしている

京都大学集中講義:機械学習と深層学習の数理と応用

2018年度講義情報ページ

http://ibis.t.u-tokyo.ac.jp/suzuki/lecture/2018/kyoto/Kyoto_01.pdf

http://ibis.t.u-tokyo.ac.jp/suzuki/lecture/2018/kyoto/Kyoto_02.pdf

Grasp2Vec

論文へのリンク

[1811.06964] Grasp2Vec: Learning Object Representations from Self-Supervised Grasping

筆者・所属機関

Eric Jang(Google), Coline Devin(Berkeley), Vincent Vanhoucke(Google), and Sergey Levine(Google, Berkeley)

投稿日付

2018/11/16

概要(一言まとめ)

手法の概要

コメント

関連情報

人間の指示なしにロボットが自分で動いて学習できるアルゴリズム「Grasp2Vec」をGoogleが発表 - GIGAZINE

Google AI Blog: Grasp2Vec: Learning Object Representations from Self-Supervised Grasping

grasp2vec

Grasp2Vec: Learning Object Representations from Self-Supervised Grasping · Issue #1031 · arXivTimes/arXivTimes · GitHub

次に読む論文

自分なりのアウトプット

気になった英単語・英語表現