Machine Learning

TransGAN|DeepLearningを用いた生成モデルの研究を俯瞰する #5

当シリーズでは生成モデルの研究や実装の俯瞰を行います。#4ではSemi-Supervised GAN(Semi-Supervised Learning with Generative Adversarial Networks)について取り扱いました。 #5では、GANにTransformerの考え方を導入した研究である、TransGAN(TransGAN:…

Graph Networkを具体的に把握する(MPNN、NLNN)|Graph Neural Networkの理解を試みる #3

Graph Neural Networkの理解を試みるシリーズです。#2では"Relational inductive biases, deep learning, and graph networks"を元にGraph Networkの大枠について確認を行いました。 #2ではGraph Networkの大枠の理解を中心に行ったので、#3ではもう少し具体…

Graph Networkについて|Graph Neural Networkの理解を試みる #2

Graph Neural Networkの理解を試みるシリーズです。#1では"Graph Neural Networks: A Review of Methods and Applications"を元にGraph Neural Networkの構造について確認を行いました。 途中で出てきたGraph NetworkはオーソドックスなGNNであるMPNN(Messag…

Machine Learning論文クイズ #1

論文を読み慣れてくると時折参照している論文が番号を辿らなくてもわかることがあります。このように確認しなくても論文が推測できるようになると、詳しく記述を読み込まなくても引用の出てくる順番だけで論理展開がわかるようになりアドバンテージとして大…

テイラー展開と勾配ブースティング(XGBoost)についての考察

上記の記事で勾配ブースティング(Gradient Boosting)について取り扱ったのですが、関連でXGBoostの論文を確認した際に2次のテイラー展開(the second order method)が用いられており、残差を予測するだけなので不要ではないかと疑問が生じたため諸々を調べて…

勾配ブースティング(Gradient Boosting)を理解する

(↑from scikit-learn User Guide Gradient Boosting Out-of-Bag estimates — scikit-learn 0.24.1 documentation) 当記事では勾配ブースティング(Gradient Boosting)について簡単に確認を行います。 勾配ブースティングについては少々フォーマルな記載が多…

【論文確認】iGPT(Generative Pretraining from Pixels)

以前の記事でTransformerを画像認識に取り入れた研究であるVisual TransformersやVision Transformerの論文を確認しましたが、今回は関連論文であるiGPT(Generative Pretraining from Pixels)について確認します。 https://cdn.openai.com/papers/Generative…

改めてDeepLearningはどのように整理すると良いか

https://www.amazon.co.jp/dp/B08JGM3JNP 上記の『グラフ理論と機械学習』ですが、多くの方に注目いただけてご確認いただけましたようです。内容としては和書の類書がまだない中で基本から応用、発展的な考察まで取り扱えましたので、なかなか充実していたの…

【Surveyの確認】A Survey on Visual Transformer

以前の記事ではVision Transformerについて論文の確認や実装の確認を行いました。 今回は研究トレンドの把握ということでSurveyの"A Survey on Visual Transformer"の確認を行えればと思います。 [2012.12556] A Survey on Visual Transformer なお、名称がV…

Quickstart(ドキュメントより)|Flaxの確認 #1

以前の記事でFlaxが出てきて軽く流したため、当シリーズでは詳しく取り扱いを行います。 FlaxはJAXで用いるニューラルネットワークのライブラリです。当シリーズでは基本的にはドキュメントの内容を元にある程度の概要の把握を目標とします。 Flax documenta…

Vision Transformerの実装の確認

上記の記事ではVision Transformerについて論文の確認を行いました。 [2010.11929] An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale 今回は実装の確認ということで下記を読み解きます。 GitHub - google-research/vision_trans…

【論文確認(Vision Transformer)】An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale

以前の記事でTransformerを画像認識に取り入れた研究であるVisual Transformersの論文を確認しましたが、今回はCNNを用いずにTransformerだけで取り組んだ研究として、Vision Transformerについて取り扱います。 [2010.11929] An Image is Worth 16x16 Words…

【論文確認】Visual Transformers

当記事では主に汎用言語処理の分野で数多く関連研究がなされているTransformerを画像認識に取り入れた研究であるVisual Transformersの論文(Visual Transformers: Token-based Image Representation and Processing for Computer Vision)を確認していきます…

周辺正規分布(Marginal Gaussian distributions)|改めて理解する多次元正規分布 #3

当シリーズは多次元正規分布を改めて理解しようということで進めています。下記などを主に参照しています。 Pattern Recognition and Machine Learning | Christopher Bishop | Springer 上記テキストのSection2-3の"The Gaussian Distribution"を中心に関連…

条件付き正規分布(Conditional Gaussian distributions)|改めて理解する多次元正規分布 #2

当シリーズは多次元正規分布を改めて理解しようということで進めています。下記などを主に参照しています。 Pattern Recognition and Machine Learning | Christopher Bishop | Springer 上記テキストのSection2-3の"The Gaussian Distribution"を中心に関連…

マハラノビス距離(Mahalanobis distance)と多次元正規分布|改めて理解する多次元正規分布 #1

正規分布は様々なモデリングで前提として使用する、基本かつ非常に便利な分布ですが、1次元だと比較的シンプルに取り扱うことができますが、多次元正規分布となると様々なトピックが出てきて少し難しそうな印象を受けます。とはいえ、多次元正規分布関連の導…

変分推論の概要と簡単な実装例|Python実装で理解する変分推論(VariationalInference) #5

当シリーズはPython実装を通して変分推論を理解していこうということで進めています。下記などを主に参照しています。 Pattern Recognition and Machine Learning | Christopher Bishop | Springer#3、#4ではEMアルゴリズムについて確認しました。 基本的な…

対数尤度における指数型分布族を考える|Python実装で理解する変分推論(VariationalInference) #Appendix2

#3、#4ではEMアルゴリズムについて取り扱いましたが、例として出てくる正規分布などを一般化した分布である指数型分布族についてもう少し考えておくと良いと思われたため、Appendix2としてまとめます。以下、目次になります。1. EMアルゴリズムにおける指数…

EMアルゴリズムの論理構成の全体像|Python実装で理解する変分推論(VariationalInference) #4

当シリーズはPython実装を通して変分推論を理解していこうということで進めています。下記などを主に参照しています。 Pattern Recognition and Machine Learning | Christopher Bishop | Springer #3では変分推論の枠組みにおけるEMアルゴリズムを混合正規…

変分推論の枠組みにおけるEMアルゴリズム|Python実装で理解する変分推論(VariationalInference) #3

当シリーズはPython実装を通して変分推論を理解していこうということで進めています。下記などを主に参照しています。 Pattern Recognition and Machine Learning | Christopher Bishop | Springer #1、#2ではKLダイバージェンスやイェンセンの不等式につい…

ベクトル的取り扱いによるイェンセンの不等式の図的理解|Python実装で理解する変分推論(VariationalInference) #Appendix1

#2ではイェンセンの不等式とKLダイバージェンスの非負性について取り扱いましたが、少し考察が定性的になりましたので、もう少しイェンセンの不等式ベースでわかりやすくしようということで、Appendixを設けました。3つ以上のやに対する取り扱いのイメージが…

イェンセンの不等式とKLダイバージェンスの非負性|Python実装で理解する変分推論(VariationalInference) #2

当シリーズはPython実装を通して変分推論を理解していこうということで進めています。下記などを主に参照しています。 Pattern Recognition and Machine Learning | Christopher Bishop | Springer #1では変分推論の議論の中心となってくるKLダイバージェン…

KLダイバージェンスの数式とPython実装|Python実装で理解する変分推論(VariationalInference) #1

確率的変分推論(SVI; Stochastic Variational Inference)の論文について確認していたのですが、ベースの理解についてもう少し固める方が良さそうだったので、Python実装を通して変分推論を理解していくシリーズを新たに作成することにしました。シリーズを通…

Deep Generative Models of Graphs②(Section2以降)|Graph Neural Networkの研究を追う #2

#1では連載の経緯を記載し、下記の論文のAbstractとIntroductionを確認し、概要を把握しました。 [1803.03324] Learning Deep Generative Models of Graphs #2ではSection2のRelated Work以降の主要な内容についてご紹介します。以下目次になります。1. Rela…

Deep Generative Models of Graphs①(Abstract&Introduction)|Graph Neural Networkの研究を追う #1

以前のシリーズでは下記のSurveyを元にGraph Neural Networksの研究の俯瞰について行いました。 [1901.00596] A Comprehensive Survey on Graph Neural Networks 大体の概要はつかめたものの、もう少し詳しく見ていければということで新規で個々の研究を追う…

PointNet③(Experiment 〜 Conclusion)|3D Point CloudsとDeepLearning #8

[1912.12033] Deep Learning for 3D Point Clouds: A Survey 点群に対しての近年DeepLearningの導入について、#1〜#5では上記のSurveyを読み進めました。 Survey論文の確認②(Introduction)|3D Point CloudsとDeepLearning #2 - Liberal Art’s diary Survey…

ScanNetの論文を把握する②(Previous Work以降) #2

3D再現(3D Reconstructions)に関する研究であるScanNetについて、全2回で確認します。 [1702.04405] ScanNet: Richly-annotated 3D Reconstructions of Indoor Scenes #1ではAbstractとIntroductionを確認し、論文の概要を把握しました。 #2ではSection2のPr…

ScanNetを把握する①(Abstract&Introduction) #1

3D再現(3D Reconstructions)に関する研究であるScanNetについて、全2回で確認します。 [1702.04405] ScanNet: Richly-annotated 3D Reconstructions of Indoor Scenes #1ではAbstractとIntroductionを確認し、論文の概要を把握します。以下、目次になります…

CTRL: A Conditional Transformer Language Model for Controllable Generation①(Abstract & Introduction)|言語処理へのDeepLearningの導入の研究トレンドを俯瞰する #42

言語処理へのDeepLearningの導入をご紹介するにあたって、#3〜#8においては、Transformer[2017]やBERT[2018]について、#9~#10ではXLNet[2019]について、#11~#12ではTransformer-XL[2019]について、#13~#17ではRoBERTa[2019]について、#18~#20ではWord2Vec[20…

Reformer: The Efficient Transformer③(Reversible Transformer以降)|言語処理へのDeepLearningの導入の研究トレンドを俯瞰する #41

言語処理へのDeepLearningの導入をご紹介するにあたって、#3〜#8においては、Transformer[2017]やBERT[2018]について、#9~#10ではXLNet[2019]について、#11~#12ではTransformer-XL[2019]について、#13~#17ではRoBERTa[2019]について、#18~#20ではWord2Vec[20…