1分だけ学ぶ。慣性力。

立場の違いで生じる力を慣性力といいます。

電車のつり革は電車が発車する時、後ろ側におっとっととなって斜めになります。

外から見ると、電車に引っ張られてつり革も一緒に進んでいくので、
力の向きは電車と同じ方向です。

次に中から見ると、つり革は進行方向と逆向きに動きますので、
力の向きは電車の方向と逆になります。

この力を慣性系といい、加速度と質量に比例する力になります。

慣性力は見かけの力ともいわれます。
非慣性系で運動方程式を作る時に慣性力を導入するからです。

慣性の法則や運動方程式が成り立つ座標系を慣性系といいます。
成り立たず、慣性力を導入しなくては力のつり合いが成り立たない座標系を
非慣性系といいます。

電車の加速が終わり、安定に走り始めると、つり革は元の位置に戻ってきます。
等速直線運動している間は慣性系となり、
慣性力は消えてつり革は元の位置に戻ります。

ちなみに円運動している時の慣性力が、遠心力です。

【物理】1分間のまたねこ物理。慣性力。\( F=-ma \)。

1分だけ学ぶ。運動方程式。

力が働くとモノが動きます。

動くという事は速さ、速度があるという事です。

止まっていたものを動かすには、モノの速度を変えればよいです。
速度がどのくらい変わるを表した量を、加速度といいます。

力が働くと加速度が発生して、モノが動きます。
これを式で書くと\( F=ma \)となります。
これを運動方程式といいます。

力は英語でforceというので\( F \)と書きます。
加速度は英語でaccelerationというので\( a \)と書きます。
質量は英語でmassというので\( m \)と書きます。

力が働くと加速度が発生する事を表しています。
力がどうして加速度の2倍や3倍、2乗や3乗ではなく、
シンプルな掛け算の形に書けるかというと、
力という量をそのように都合よく人間が決めたからです。

つまりこの式は、力が働くと加速度が生じるという意味と同時に、
“力”とは”質量”と”加速度”をかけたものに”する”という、
人が決めた、”定義”をしている、という意味も持ちます。

質量の単位は\( \rm{kg} \)、加速度の単位は\( \rm{m/s^2} \)と同じように、
力の単位は\( \rm{N} \)と書いて、ニュートンと読みます。

このように決めた力の決まり事を、MKS絶対単位系といいます。

【物理】1分間のまたねこ物理。運動方程式。\( F=ma \)。

1分だけ学ぶ。ニュートン力学。

モノを動かす時に使う力とは。

モノを動かす時は力を使います。

力は手でモノをどーんと押した時だけじゃなくて、
重力や電気の力、磁石の力、摩擦力や圧力など、いろいろな力があります。
モノが動いたり形が変わったりする時、それは力のせいだと考えます。

力は大きさと向きと、どこにかかったかという3つの要素があります。
力自体は目に見えないので、矢印で書くことにしましょう。
すると矢印の向きが力の向き、長さが大きさ、根本が力がかかる場所となって、
目で見えて分かりやすくなります。

2本の力のやじるしを同時にかけると、合成されて1本のやじるしになります。
これを合力といいます。
モノは合力の向きと大きさで力を感じます。

逆に1本のやじるしを2本に分ける事もできます。
これを力の分解といいます。

力を同じ大きさにして、向きを逆向きすると合成されて力がゼロになります。
これを力のつり合いといいます。

こんな感じである量が大きさだけでなく向きまで持っている量をベクトル量と言います。
力の他に速度や加速度、運動量などがベクトル量です。

向きがなく、大きさだけの量もあります。
質量や時間、エネルギーなどですね。これをスカラー量といいます。

ニュートン力学ではこの”力”という概念から世界のしくみを解明していきます。
“力”の概念がニュートン力学の出発点なんですね。

【物理】1分間のまたねこ物理。力。

簡単!
子供の手書きイラストをLineスタンプにしよう!

子供のイラストをスタンプに!!


Rabit

最近、子供がLineのスタンプを自分で作れると知ってぜひやりたいと言い出したんですが、実際iPadをわたしてタッチペンで絵を描くのって難しいんですよね。鉛筆と勝手が違って。

泣きながら怒りながら、顔を赤くしてようやく1セット作りましたが本人はまだまだ不本意な様子。でももう懲りてやらないんだろうな~って思ってました。

手書きならたくさん書いてくれるんですよ。かわいい愛らしい絵をたくさん^^ 。
こんなのとか。


Rabit

こんなのとか。


Tako1

かわいいですよね~(笑)
これをそのままLineスタンプに出来たらな~と思ってました。
で、やっちゃいました!


Tako1

なかなかイイ具合にできるのでは!?
そうはいっても結構コレ難しいんでしょ?と思われますよね?

ハイ、難しい、というか、めんどくさいです。
なのでこのページでは手書きイラストをLineスタンプにする手順を1ステップずつまとめておきました!
これで誰でもイラストをスタンプにできますよ!

折角書いてくれたかわいいイラスト。
そのままでしたら一定期間大事にとっておいた後、捨てるかしまったままにしておくか。。。
そうであればいっそのことスタンプにしちゃいましょう!
これで一生手元においておけるし、お友達に送ったりしても楽しいし!
なによりお子様も大喜びですよ(>▽<)!

このページを見ながら1ステップずつ一緒に進めてください!
きっとステキなスタンプができます!!

このページが参考になった!良かった!と思われた方は、ご寄付のつもりでこちらのたけのこボタンよりスタンプをご購入いただけますと嬉しいです!!


Takenoko1
↑ Lovely illustration stampはこちら

では始めましょう!!

1.イラストを描く!

まずはイラストを描いてもらってください。
もちろん紙に描くんですよ!
すでに描いてあるものを集めてきてももちろんOK!
罫線付きのノートや広告の裏に描いたものでも多分大丈夫ですが、無地の紙に書いてあるもののほうがキレイにできます。

これをまず8個集めます。
イラストをスタンプにして販売するには8個、16個、24個、32個、40個のいずれかを1セットにする必要があります。
まずは8個を目指しましょう。

2.スマホで写真を撮ってパソコンに送る!

次にその写真をパソコンに取り込みます。
スキャナーを持っている人はスキャナーを使ってもOKですが、なかなか持ってませんよね。
絵をスマホで撮って、パソコンに転送したものでも案外うまく行きます(私はこの方法です)。

パソコンへの送信方法はUSBケーブルで直接パソコンにつなげるのが一番簡単かと思いますが、もしうまく行かないのであればメールで自分のメアドに送って、パソコンで開くという方法も簡単でオススメです。

3.編集ソフトをインストールする!

続いてパソコンでイラストを編集するためのソフトをインストールします。
ここではMediBang Paint for Proというソフトを使います。
フリーソフトです!ダウンロードはこちらのページの右上、”無料ダウンロード”ボタンからダウンロードしてください。

MediBang Paint for Pro

Windows (64bit), Windows (32bit), Macのうち、自分のパソコンに合わせてダウンロードします。
ダウンロードしたらダブルクリックしてインストール開始。
Microsoft Visual C++ 再頒布可能パッケージのインストールが必要です。というメッセージが出る事がありますが、もしこれが出たらそのまま再頒布パッケージと共にインストールを行ってください。
(もし再頒布インストールに失敗するようでしたら、一度インストールを中止してから、今度は再頒布パッケージをインストールしないにしてみてください。MediBangが立ち上がればOKです。)

うまくMediBang Paint Proはインストールできましたでしょうか?
有名なソフトですので、情報はたくさんGoogleで見つかります。
もしうまく行かなかったら、”MediBang Paint インストール”などでググってみてください。

4.初期設定して画像を読み込む

ではここからいよいよ本番!頑張りましょう!
まずソフトを立ち上げます。
コマーシャルが出てくるので、OKボタンを押して閉じます。
次にメディバンクラウド サービスという小窓が出てくるので、これも右上の×ボタンをおして閉じます。


Zu1

左上の”ファイル”から”新規作成”。
幅を370px, 縦を320pxにします。
これはLineスタンプのガイドラインからの要求なので、変更できません。
その他は変更せずにOKを押します。


Zu2

キャンパスができました。


Zu3

このキャンパスにスタンプの絵を作っていきます。
ここでいくつかマウス操作の確認。

拡大縮小→マウスのホイール
キャンパスの移動→シフトキーを押しながら左クリックのドラッグ
ブラシサイズの変更→Ctrl+Altを押しながら左ドラッグのまま左右に動かす

あたりを覚えておくと快適に作業ができます。          

さあどんどん行きますよ。
左上の”ファイル”→”開く”
で、手書きのイラストをひとつ開いてください。


Zu4

ここではこのタコさん?を使って説明しますね。
スタンプにしたいイラストの範囲を選択します。
左のツールから”選択ツール”を選択し、左ドラッグで範囲を指定してください。


Zu5

そして”編集”→”コピー”し、キャンパス上のタブから先ほど作った新しいキャンパスを選択します。


Zu6

新しいキャンパスに張り付けます。
そのままではサイズが異なり、はみ出してしまうので縮小して、位置を合わせます。

“選択範囲”→”変形”で拡大・縮小・移動に加えて回転もできるようになります。
後で文字も入れるので、そのことも考慮しつつ、イイ感じの場所に配置してください。
これでOKと思ったらEnterを押して確定です。


Zu6

チェッカー模様になっているところは透明を表しています。
これで画像の取り込みは完了!

5.輪郭を抽出する

この元画像を加工していきます。念のためレイヤーを複製して、いつでもやり直しできるようにしておきましょう。
画像が表示されているレイヤーが選択されている状態(色が反転)で、”レイヤーの複製”で複製できます。


Zu6

ここでちょっとレイヤーの解説。
レイヤーとはアニメのセルのようなもので、いくつかのレイヤーを重ねて1枚の画像を作る方法です。
上側のレイヤーと重なる下側のレイヤーは、上側のレイヤーの透明色に指定されている領域のみが最終的に表示されるようになります。

この機能を使うと、例えば背景、キャラ、文字など、いくつかの要素を別々のレイヤーで作っておいて、後で組み合わせるなどができるようになります。

レイヤーの左側の小さな丸ボタンは表示のオン・オフ機能で、この丸ボタンが表示されているレイヤーのみ、画面に表示されます。試しに付けたり外したりしてみてください。

手書きのイラストはどうしても輪郭がぼやけてしまうので、まずは輪郭の抽出から行います。

先ほどコピーした一番上のレイヤーを選択し、”レイヤー”→”変換”→”8ビットレイヤーに変換”します。


Zu10

8bitレイヤーの下に白いレイヤーを作って見やすくします。
“レイヤーの追加”で無色のレイヤーを追加。
無色のレイヤー以外を非表示。
“バケツツール”を選択、左の色を白にし、無色のレイヤーを白く塗ります。
無色のレイヤーを8bitのレイヤーの下に移動します。
8bitのレイヤーを表示します。


Zu11

6.輪郭を抽出する2

“フィルタ”→”レベル補正”で入力の欄の矢印を調整します。
ここで背景、イラストの色を白飛びさせ、輪郭だけが残るように調整してください。
輪郭が消えかかっても大丈夫。
背景と色をしっかりと飛ばすのがポイントです。


Zu12

ちょっと難しいですけど、何度もやってみるとそのうちコツがつかめると思います。
この後、”選択範囲”→”レイヤーを基に作成/輝度”を実行して、輪郭が選択されればOKです!


Zu13

この時、わずかに余計な部分が選択される場合もありますが、多少であれば問題ありません。
元絵の色が濃い時などでうまく輪郭が抽出されない場合は、この方法ではなく、”投げ縄ツール”や”自動選択ツール”などを使って輪郭を抽出してみてください。

7.輪郭を抽出する3

輪郭を黒で塗ります。
輪郭が選択されたまま、ブラシで黒く塗ります。
背景が透明なレイヤーに塗ってください。
輪郭が選択されているので、選択範囲外は塗ることができません。
なので、ブラシで雑に塗っても輪郭だけがキレイに塗れる事になります。


Zu14

できましたでしょうか?
ちょっとしたはみだしなどは選択範囲を解除してから、ここで修正していきます。
輪郭だけが黒く塗られ、他は透明色になっている状態にしてください。


Zu15

8.元絵の背景を消す

元絵の背景を消します。
輪郭を抽出したレイヤーを選択し、自動選択ツールを選択、背景を選択します。
元絵のレイヤーを選択し、バケツツールで背景を透明色にしていきます。
この時、許容値の値を10程度にしておくと、背景に色むらがあっても上手に透明色にしてくれます。
ちょっと残った場合もブラシで透明色を塗ればOKです!


Zu16

9.色を付ける

色を付けていきます。
もし元絵に色がついていない場合は、ここでブラシツールなどで直接色をつけちゃいましょう!
元絵に色がついている場合はせっかくなのでそれを活かしたいと思います。
“フィルタ”から”レベル補正”、”色相”、”トーンカーブ”あたりを調整し、元絵の色を出していきます。
子供の絵ですから、鮮やかな色の方がいいですね。
色々試して、キレイな色を探してみてください!


Zu17

10.文字を入れる

ついてきてますか~!
かわいい絵をスタンプにするためです!
頑張ってください~!

文字を入れます。
“テキスト編集”を押し、文字を入れたい場所をクリックします。これは後で移動できます。
初めての場合は”クラウドテキストを使用する”にチェックが入っていますので、これを外します。
フォント名はHG創英角ポップ体、文字サイズは12pt、文字色は黒、ふち幅は3、ふち色は白を選択します。
その下に文字を入力すると文字が入ります。


Zu18

もちろんフォントやサイズ、色は変更して大丈夫なワケですが、ふち幅は必ず設定してください。
スマホの背景は人の設定によって変わりまして、黒い背景にしている人に使ってもらった場合、ふち幅が設定していなかったら文字が消えてしまいます。

11.イラストにしろいふちを付ける

文字には白いふちを付けましたが、イラストにもつけておかないと、人によっては背景でイラストが隠れてしまいます。白いふちを付けましょう。

色をつけたレイヤーを選択、自動選択ツールで背景を選択、
選択範囲→反転
選択範囲→拡張→3pixel
レイヤーを複製して、複製したレイヤーを選択
下側にあるレイヤーを選択して、選択範囲を白く塗りつぶします。


Zu19

12.確認!

非表示にしていたレイヤーを表示して、全体を確認してください。
うまくできましたでしょうか?


Zu20

13.pngで保存

最後にpng形式で保存します。
“ファイル”→”名前を付けて保存”
ファイルの種類をpngにし、適当な名前をつけます。
“この形式はレイヤーが保存されませんが、よろしいですか?”は”はい”。


Zu21

“保存設定”は”透過PNG”


Zu22

これで1つできました!お疲れ様でした!!

14.素材を揃える

これを繰り返し、全部で8つ作る必要があります。
初めは少し大変なのですが、慣れればどんどん早くできるようになります。

最後に、実はこれ以外にもメイン画像とタブ画像を作る必要があります。
メイン画像は横240px、縦240pxの画像。
タブ画像は横96px、縦74pxとなります。

ここまでのやり方と同じで、キャンパスサイズを変えて作ってください。
もちろん、今までの素材を使って、少し編集するだけでも良いと思います。
全部できたら用意する素材は揃いました!!!

15.Lineに登録する

スタンプにしたい画像を8個以上、メイン画像1個、タブ画像1個ができたら、あとは登録するだけです。
登録はLine Creators Marketで行います。

Line Creators Market

登録の仕方ですが、これは先人がたくさん分かりやすいページを作っていますので、ここでは省略したいと思います。Googleで”Line スタンプ 登録”で出てくるサイトを参考にしてください。

16.さいごに

簡単!子供の手書きイラストをLineスタンプにしよう!は以上になります。

いかがだったでしょうか?
一見難しく見えるかもしれませんが、やってみるとそうでもありませんし、すぐに慣れると思います。
このひと手間でかわいいイラストがラインスタンプとして使えるようになると思えば!
きっと楽しい宝物になりますよ!!

このページが良かった!参考になった!と思われた方は、ご寄付のつもりでこちらのたけのこボタンよりスタンプをご購入いただけますと嬉しいです!!


Takenoko1
↑ Lovely illustration stampはこちら

それではステキなラインライフを!

放射線治療

皆様、放射線治療はご存じでしょうか。
これまでこのブログでは機械学習、Deep Learningについて、記事を作成してきたのですが、訳あって放射線治療について学ぶ機会があり、それを動画にする活動を始めてみました。
これからはDeep Learningと放射線治療の二足の草鞋で行こうと思っています。

まだまだコンテンツは少ないですが、リンクを張らせていただきますので、もしよろしければ応援よろしくお願いいたします。

第一回、まったりねこさんの、”放射線治療とは”

まったりねこさんというキャラクターを作成しました。
分かりやすくというよりは、事実を淡々と述べる動画にしようと思っています。
まずは放射線治療とは何なのか、放射線を使うと何故がんが治るのか、などからスタートしています。

放射線治療分野でもDeep Learningは非常に注目されていますので、ゆくゆくはこの分野での有名なDeep Learningの活用法なども紹介できたらと思っています。

どうぞよろしくお願いいたします。

Memo

ここは完全にメモですね。
機械学習の勉強をしていて、いくつかの知らない単語に対してメモしておきます。

バギング

KKT条件 (カルーシュ・クーン・タッカー条件)
非線形計画において一階導関数が満たすべき最適条件

MMアルゴリズム (上界最小化アルゴリズム, Majorization minimization algorithm)
直接解くことが難しい最小化問題に対し、その金時間数の最小化問題を逐次的に解くことで、解の候補を生成する方法

EMアルゴリズム (期待値最大化アルゴリズム, Expectation maximization algorithm)
確率モデルのパラメータを最尤推定する方法。期待値ステップと最大化ステップを交互に繰り返す

スパース
ノイズを取り除き、低次元部分空間の本質的な情報を引き出す方法

ニュートン法
方程式を反復法によって数値解を求める方法。ヤコビ行列の逆行列を勾配にかける事により、二次の近似を考慮した勾配を算出する。

データ数について

Deep Learningの精度を決めるのは、結局のところデータ数のようです。

近年、AIが注目を浴びた大きな要因は、インターネットを用いて大量のデータを集められるようになったからだ、と言われます。
もちろん、Deep Learningの様々なモデルや技術が研究・開発された結果、より高い汎化性能を獲得できるようになった要因はあると思われますが、むしろ近年のPCの発展、特にGPUの活躍により、計算速度が極めて早くなり、少々力業なニューラルネットワークが実装できるようになった結果、ネットワークの階層を深く出来るようになった事の方が、モデルの工夫や新しい活性化関数、アップデート関数の採用よりも大きく寄与しているのだと思います。

と言いますのも。幾つかディープラーニングのモデル、特にCNNを試してみましたが、データ数が少なければ、やはりいくらモデルを工夫したとしても、さほど変化は得られないなという実感を、最近抱いているわけです。そんなことは百も承知で、それでもAIを用いたい課題は存在して、それに対して用意できるデータ数が限られている場面も多く存在し、今ある材料で何とかよい精度を得るために、モデルや学習方法を工夫する訳ではあります。しかしながらその労力に見合うだけの結果を得る事は、なかなかに難しいようです。ディープラーニングを試してみたけど、まだまだだなという感想を持つ人の多くは、このような状況で諦めているのではと思います。世の中にはインターネットで集められないデータを用いたい状況も数多く存在し、そのような課題に対してはまだまだディープラーニングが上手く機能しない状況があるにも関わらず、上司からAIの活用を義務付けられ、板挟みに合っているエンジニアもさぞ多いだろうなと想像します。

AIが従来のプログラムと異なる優れた点(または、AIに期待する点)は、汎化性能であると思われます。コンピュータにおけるデータ処理は多くの事はプログラムでき、その大半はエクセルマクロのような、小規模のプログラムでも対応できます。VBAは使ってみると大変使い勝手がよく、マクロの記録機能も大変便利で、私のような素人さんでも結構なレベルで使いこなす事ができます。しかしながら課題に対して、その都度プログラムを作成する必要があるので、言ってみれば解決できる課題は一つだけです。人間は様々な課題に対して柔軟に、個別に対応する事ができるため、人工”知能”に求められるものはそのような対応力、汎化的な能力とも言えます。果たして現在のディープラーニングの技術はそういったものになっているでしょうか。出来る事は極めて大量のデータを用意して学習し、新しいデータの結果を予測する、というただ一つの事です。これは従来の解析手法の一つであった”外挿”と、大して変わらないかもしれません。実際使っていると、これはディープラーニングが解くべき課題ではないのに、”とりあえずディープラーニングでやってみました!”的な報告に出くわす事が良くあります。ディープラーニングが活躍できる問題と、従来の手法で解くべき問題は良く考えた方が良さそうです。

今現在、私はディープラーニングが解くべき問題と従来の手法で解くべき問題の境目は、結果に厳密性を求めるか否かのところにあって、判断を求める場合は前者、厳密さを求める場合は後者にあるのではと思っています。ディープラーニングが割り出す答えはあくまで判断材料であり(悪く言えば偽物であり)、結論を一旦保留して、最終的には人間が判断をするための材料として用いるのであれば大いに活用できるけれども、その結果を丸々信じなくてはならないような課題にはやはり使えないのではと思います。出てきた答えは偽物ですから。いくら本物のように見えても。

そのあたりを混同しないように、今後もディープラーニングを楽しんでいこうと思います。データが少なくても高い汎化性能が得られるモデルを開発したいですね。今のところアーギュメンテーション工夫するくらいしかアイデアはありませんが。

E資格に合格しました!

2018年10月12日、無事にE資格試験に合格しました!
(これを書いているのはもう年末ですが。。。)

試験の出来はそこそこだったので、正直ダメでも仕方ないかなとか思っていましたが、無事合格できましたので、このブログのコンテンツを引き続き充実させていくと共に、E資格受験の大体について書いていきたいと思います

E資格は一般社団法人 日本ディープラーニング協会が認定する、民間認定の資格です
日本におけるディープラーニングを中心とする技術による日本の産業競争力の向上を目的とされています

ホームページはこちら
一般社団法人 日本ディープラーニング協会

本協会が認定する資格は2つ
G(ジェネラリスト)検定と
E(エンジニア)資格です

私はエンジニアですので、E資格を受験しました

試験は2018年9月29日に行われました
受験料は32,400円となっています
次回は2019年2月23日、その次は2019年8月31日に予定されています

E資格試験に先立ち、前もってJDLA認定プログラムを修了する事が受験要綱として規定されています
しかしながらこれがハードルが高い!

まずはお値段的なハードル
20万円から30万円程度します
これは受講するプログラムによって違います
現在認定されているプログラムは、7つでした

次に時間的なハードル
プログラムを修了するために半年程度の講座を受講する必要があります
仕事をしながらだとなかなか大変です
ただこの方式、一発勝負のテストだけで能力を測る訳ではなく、実質的な実装能力に関してはJDLA認定プログラムの方で習得させて合否を判定させるという考え方だそうで、そう聞くと納得してしまいます

これらをクリアして、尚かつ受験料も払って、試験に合格するとE資格に認定されます
この価値、分かる人には、、、分かってもらえるのでしょうか

ちなみに私はSkill Up AIの現場で使えるディープラーニング基礎講座を受講しました
ネットを介して受講できるので、自分の好きな時間に視聴できますし、講師への質問もSlackを通してできますので、とても良かったのでお勧めです

ホームページはこちら
現場で使えるディープラーニング基礎講座

認定プログラムの修了試験に合格したら、JDLAの方へ名簿が送られて、受験資格を得る、と言う流れでした

試験は多肢選択式で、時間は120分です
新しいモデルのPythonコードなどもたくさん出てきて、私には結構難しかったです
終わった際の感触としては、大体6割くらいはできたかなーといった感じでした

結果発表は約2週間後です
コンピュータでの選択式ですから、点数自体はすぐに出るのでしょうが、合否基準については受験者の出来を見てから決める方式だったんでしょうね

後程公開されたJDLAからの報告を見ますと、
合格率は69.44%
平均点は
応用数学 : 69.18
機械学習 : 64.11
深層学習 : 58.11
との事でしたが、合格基準に関しては現在も公表されておりません

尚、私の得点率ですが、
応用数学 : 66.66
機械学習 : 64.7
深層学習 : 59.74
でした

あれ?むむむ、、、深層学習以外は平均点を割っていますね。
合格率は7割なので、平均点以下でも合格出来てしまうようです。
ギリギリ合格だったんですね。

・・・あぶねぇ・・・
・・・よかった・・・

まぁ、ギリギリでも受かっちまえばこっちのもんですので

(2019.04.02追記)

第二回の結果もでていますね。
受験者数387名、合格率は63.31%との事。
平均点は
応用数学 : 66.77
機械学習 : 64.91
深層学習 : 55.51
とのこと。

平均点は同等なのに、合格率は第一回よりも下がっていますね。合格基準が厳しくなってるのかな。

その他の情報はこちらから。

(2020.03.11追記)

通算4回目のE資格試験、結果が公表されたようです。
受験者数は1042人、合格率は68.04%との事。
平均点は
応用数学 : 72.04%
機械学習 : 58.89%
深層学習 : 59.69%
とのこと。

合格率は68%なので、60点くらいを取れていれば十分合格できるラインという事ですね。

今回はシラバスが改訂されて一発目という事なので、対策も大変だったのかなと思います。一方でこのテストはそもそも、変化の早いDLの技術に追従するためにシラバスは頻繁に改訂する事が挙げられており、そのコンセプトには大いに賛同できます。シラバスを追うだけで、最新のDL技術にある程度追従できるのも、個人で勉強している身としては魅力的ですね。

E試験、シラバスが改訂されました

2019年2期目のE試験 (8/31試行) が終了しました。
今回の受験者数は前回の倍近く、670名との事。
着実に注目度が上がっております。
日本はAIの領域で世界に対して後手に回っているとの事ですが、この盛り上がりが続いていくといいですね。

次回、2020年2月22日に予定されているE資格試験から、シラバスが変更となるようです。
もともと、発展速度の速いAIの領域にマッチするために、E資格試験合格といえども、何年の試験に合格したかで区別をするそうです。
という事は、出題内容も年々変わっていくのが当然であり、シラバスが改訂されるのも初めから予定されていた事、という事になります。
勉強する方としては微妙なところですが。

新しいシラバスはこちら
これまでのシラバスはこちら

さて、どこが変わったのでしょうか。

応用数学には変更ありません。
2019年2期目のE資格試験の平均点はそれぞれ、応用数学72.04%、機械学習58.89%、深層学習59.69%とのことです。
応用数学は比較的難易度が低い事が分かります。
おそらくはひねった問題は出題されず、基本的な事項をしっかりとおさえておこうよ、という趣旨なのではと思います。
大変共感できます。

機械学習は下記の項目が削除されています。
最尤法推定 – 最尤法の特性
深層学習の発展を促す課題 – 局所一様と平滑化

シラバスから削除項目があるのは親切ですよね。
項目としては残しておいて、試験には出題しなければいいだけなのに。
これまで意地悪な試験ばかり受けて来た私としては、何か裏があるのではと勘ぐってしまいます。

深層学習は削除の項目と追加の項目があります。
[削除された項目]
コスト関数 – 条件付き統計量の学習
隠れユニット – その他の隠れユニット (RBF, ソフトプラス, Hard)
条件付き最適化としてのノルムペナルティ
正則化と制約不足問題
パラメータ拘束とパラメータ共有
学習と純粋な最適化の差異 – 経験損失最小化
学習と純粋な最適化の差異 – 代理損失関数と早期終了
ニューラルネットワーク最適化課題
二次手法の近似
ランダムあるいは教師なし特徴量
画像認識の有名なモデル (“深層学習の適応方法”の項へ)
画像の局在化、検知、セグメンテーション (“深層学習の適応方法”の項へ)
エコーステートネットワーク
自然言語処理とRNN

[追加された項目]
最適化戦略とメタアルゴリズム – Layer正規化
– Instance正規化
GAN – Conditionnal GAN
深層学習の適応方法 – 画像認識 – MobileNet
– 画像認識 – DenseNet
– 画像の局在化・検知・セグメンテーション – FasterR-CNN, YOLO, SSD
– 自然言語処理 – WordEmbedding, Transformer
– Text to Speech – WaveNet
– スタイル変換 – pix2pix
– その他 – AlphaGo
開発・運用環境, ミドルウェア, 軽量化, 高速化技術
– 深層学習ライブラリ
– 軽量化技術 – 量子化, 蒸留, プルーニング
– 分散処理 – モデル並列, データ並列
– アクセラレータ – GPU

あまり使われなくなった技術的要素は削除。
新しい技術は追加。
特に軽量化技術・分散処理あたりが目新しい項目という事になりますね。

これは良い。シラバスを見えれば、新しい技術として、我々が押さえておかなくてはならない技術が明瞭になります。
AIはどんどんと実用化されてきています。
モデルを個人PCやスマホにデプロイ・実装するにあたっては軽量化は必須です。
一方で私が取り組んでいるような、AIの可能性に関する研究分野においては、軽量化技術はまだまだ必要なさそうですが。。。
とは言え、最先端の技術を勉強する事で、何かヒントが見つかるかもしれません。

機械学習 – 機械学習の基礎 – 教師あり学習アルゴリズム

【ロジスティック回帰分析 (Logistic regression)】
多変量解析の一種。
ある現象\(X\)の発生確率\(p(X)\)を、ロジスティック関数で回帰した分析法です。
ロジスティック関数は
\( y= \frac{1}{1+\displaystyle \exp(-r)} = \frac{1}{1+\displaystyle \exp[-(b_1x_1+b_2x_2+…+b_ix_i+b_0)]} \)
のような形をしています。シグモイド関数とも呼ばれます。0-1の値を取る、単調増加関数です。
目的関数\(y\)は今回は確率なので発生確率\(p(X)\)で表します。
これを変形して、
\( p(X) = \frac{1}{1+\displaystyle \exp[-(b_1x_1+b_2x_2+…+b_ix_i+b_0)]} \)

\( 1-p(X) = \frac{\displaystyle \exp[-(b_1x_1+b_2x_2+…+b_ix_i+b_0)]}{1+\displaystyle \exp[-(b_1x_1+b_2x_2+…+b_ix_i+b_0)]} \)

\( \frac{p}{1-p(X)} = \displaystyle \exp(b_1x_1+b_2x_2+…+b_ix_i+b_0) \)

\( \displaystyle \ln \frac{p}{1-p(X)} = b_1x_1+b_2x_2+…+b_ix_i+b_0 \)

となります。bは偏回帰係数、xは説明変数と呼ばれます。

説明変数を用いて最小二乗法でbを決めると、発生確率をモデル化する事ができるようになります。

ロジスティック関数は目的変数が2値である、二値判別問題に用いられます。