「人工知能の数理」第1回開催レポート

勉強会の開催理由 札幌の人工知能の勉強会は少なく,そして難易度も入門の域を出ないものがほとんどだと感じていました. なので,自分で作ってしまおうと思いました. 勉強会をどのように開催するかなど手探り状態ですが,実際に来場 … “「人工知能の数理」第1回開催レポート”の続きを読む

イラストで学ぶ機械学習のP22のソースコードをJuliaで書いてみた.

杉山将先生の「イラストで学ぶ機械学習」p22のソースコードをjuliaで書き換えてみました.jupyter labで実行しました.これでは過学習(過適合)しているので,次の章では正則化などが行われるようになります.次はそ … “イラストで学ぶ機械学習のP22のソースコードをJuliaで書いてみた.”の続きを読む

Uniform Manifold Approximation and Projectionの日本語訳.

はじめに この記事はUMAPの論文のキーワードを紹介と解説するのもであり(ごめんなさい現時点ではただの翻訳です.),筆者の数学のレベルが著しく低レベルであるため,おかしな点があるかもしれません.ご容赦ください.またコメン … “Uniform Manifold Approximation and Projectionの日本語訳.”の続きを読む

ユークリッドノルム

まず定義ですが、ユークリッドノルムとは次のように表されます.     は行列を表しています.具体的に書くと,となります. なので行列の積を計算してあげれば求まることがわかると思います. ユークリッド距 … “ユークリッドノルム”の続きを読む

どうしてシグモイド関数は滑らかな関数なのか

はじめに よくシグモイド関数をグラフでみてこの関数は滑らかであるということが多いですが,滑らかとはなにかということを数学的に簡単に説明するのが目的です.微分の計算にはWolframAlphaを使いました. 一部のDeep … “どうしてシグモイド関数は滑らかな関数なのか”の続きを読む

ローレンツアトラクタをルンゲクッタ法とオイラー法でそれぞれ実装してみました.

ルンゲクッタ法でローレンツアトラクタ¶ In [57]: # 関数をそれぞれ次にように定義する. def f1(y1, y2): return -10 * y1+ 10 * y2 def f2(y1, y2, y3): … “ローレンツアトラクタをルンゲクッタ法とオイラー法でそれぞれ実装してみました.”の続きを読む