kaggleをはじめてみた1

kaggleはじめてみたメモ。

きっかけ

Deep learningの勉強やりたいな〜と思って「ゼロから作るDeep Learning」とか読んでいるのですが、ぼんやりしか理解できている気がしない。

そんな時に「kaggleって学習にいいらしい」と聞いたので、はじめて見ようと思いました。

登録方法

Kaggle: Your Home for Data Science

こちらにアクセスし、右上の「Sign in」からメールアドレスを入力してユーザー登録する。

 

ログインしてみる

f:id:blux:20180815225040p:plain

 

はい。ログイン画面です。

って、デフォルトのプロフィール画像可愛すぎじゃない!?!?あひる???

f:id:blux:20180815225139p:plain

これだよ!!この「人間たちを見守ってきました」

みたいな顔!!!可愛すぎ!!!

でも画像はあとで変えたいと思います。

 

さて、このあとどうすればいいんでしょう。

右側に謎のマークとNoviceって書いてあるところをクリックしてみます。

f:id:blux:20180815225428p:plain

どうやら自分が活動した内容によってバッジみたいなのがレベルアップしていくみたいですね。

この丸四つのバッチがSFっぽくていいですね。

ひとまずContributorを目指したいと思います。

 

日本語に訳すと

・プロフィール

・あなたの所在地

・あなたの職業

・あなたの組織

・SMS認証

・1script1実行

・コンペに1つ出す

・コメントを一つつける

・賛成票を1票投じる(stackoverflowみたいなQAやフィードバック用の掲示板みたいなのがあるので、そこの何かに賛成票を入れるってことかなと…)

 

電話番号登録しないといけないというところで少し尻込みしてしまいますね。

 

まずはscriptを一つ実行するところからはじめたいと思います。

ドキュメントなどを読み、また次回ということで続きます。

technology radar 2018 のnewをかじってみた

technology radar 2018が出ましたね。

www.thoughtworks.com

 

毎年眺めてはいるものの、ちゃんと知らない技術を調べたことがなかったので、「new」となっているもののうち、興味のあるやつ(理解できるやつ)をいくつか調べてみました。

newではないですがkubernetesがadoptになり、おお〜と思いました。あと.net core。すごいね。

 

TECHNIQUES

hosted identity management as a service

  • 認証のSAAS
  • 自前で認証抱えるの辛くない?マイクロサービスなんかはサービス同士が認証し合わないといけないでしょ?という背景
  • Auth0やOktaというサービスがある
  • レガシーシステムの雇用者ID(認証)と関係がある、と書かれている。

Jupyter for automated testing

  • その名の通りjupyterを使ったテスト自動化
  • jupyterとはwebブラウザ上で動く高機能エディタ
  • データが重い場合や、性能試験などの静的コンテンツに依存する場合に使われる
  • pythonは確かに高機能だが、テストが複雑になる場合jupyterが有用とのこと

 

TOOLS

HELM

  • Kubernetes用のパッケージマネージャ https://helm.sh/
  • まずkubernetesを知らないと読んだだけではワードが全然わからない
  • kubernetesをchartという単位でパッケージ化されている。公式なchartリポジトリが存在し、プライベートリポジトリを作成することも可能。これをhelmコマンドで操作する

wiremock

  • マイクロサービスでサービス間のテストが必要な時に利用できるモック用フレームワーク
  • 簡単で強力らしい

Headless firefox

  • headless chromeならぬheadless firefox
  • headless chromeと同様UIがなくても使用できる

 

PLATFORMS

Aws fargate

  • docker-as-a-service
  • US-East-1 regionのみ
  • サーバーやクラスターの管理が不要でコンテナ実行可能

Web bluetooth

  • ブラウザからbluetoothが操作可能
  • bluetooth経由でwebサイトとデバイス間でやりとり可能
  • これまでbluetoothはネイティブアプリを開発する必要があったが、API経由で操作が可能になった

 

LANGUAGE & FRAMEWORK

troposphere

  • AWS cloudformationのJSONを書くためのpythonライブラリ
  • 容易にJSONのエラーをキャッチし、型チェックを行い、テストを実施し、AWSのリソースをDRYにすることが特徴

RASA

 

以上です。

 

マイクロサービス、コンテナが流行りにのっている!って感じですね。

ブロックチェーン技術をまだわかっていないので取り上げませんでしたが、いくつかnewに入っていましたね。

せっかく買ったブロックチェーンの本を読まなきゃな〜!

おとうふくんslackスタンプ順次公開中です

こんにちは!現在おとうふくんのlineスタンプ作成中です。

初めてスタンプ作ってから早4年...ようやく新作できました!

作る作る詐欺汚名返上です。

 

が、

 

審査が終わらない。1週間くらいって聞いたんだけどな。

せっかくスタンプ作ったのに誰にも見せられない!!!!ねえ!!!可愛く作ったよ!!!!

 

ということで、slack用にサイズを変えて順次公開していきたいと思います。

github.com

 

(まだ数少ないけど・・・)

 

皆さんに素敵なslackライフを!!!

 

余談ですが先日コミティアで無事新刊出せました。

そのあと顔がパンパンになりました。

今は元気です。

lineのアニメーションスタンプを作ってみよう

この記事はmohikanzのアドベントカレンダー登録用に書きました。

mohikanzについての説明はアドベントカレンダー1日目の記事を読んでいただけるとわかると思います。

mohikanzでおとうふくんのlineスタンプを買っていただいた方に「アニメーションスタンプあるといいなあ」とリクエスト頂いたので、アニメーションスタンプの作り方を学びながらブログを書きたいと思います。

(※おとうふくんとは私が描いている猫型妖精の名前です)

 

どのソフトを使ってアニメーションを作ればいいのでしょうか

調べてみると色々出てきますが、lineスタンプ用チェックも入っているということで以下を使ってみます

ics.media

 

イラストを用意する

アニメーション画像はW320 x H270(最大)らしいので、これに合わせたイラストを用意します。

今回はお試しで作ってみるのでfirealpacaで描いた絵を使います。

フリー ペイントツール(Mac/Windows 両対応)FireAlpaca[ファイア アルパカ]

 

とりあえず絵が3枚くらいあればいいかなあ〜

って、アニメーションの絵描くのむずくない????

f:id:blux:20171203143440p:plain

↑一枚目の絵を元に二枚目を描こうとしてる様子

 よく考えたらアニメーション作ったことない。

高校の時分厚い教科書にパラパラ漫画を描いて以来だ...

f:id:blux:20171203145509p:plain

f:id:blux:20171203145505p:plain

f:id:blux:20171203145501p:plain

はい。なんか最初と最後顔違くない?とか腕の構造どうなってるの?とかあると思いますが許してください。

手を振るとかもっと簡単なアニメーションにすればよかったじゃんと思ってます。

 

イラストをソフトに読み込む

f:id:blux:20171203145805p:plain

こんな感じ。これでもうアニメーションは出来上がってる。

 

とりあえず保存してみる

f:id:blux:20171203145950p:plain

エラーが出てくる。素晴らしい。イラストは最低5枚ね。なるほど。あと2枚か...

 

イラストを追加する

あと2枚追加する。

f:id:blux:20171203152749p:plain

 

うまく保存出来ました。

 

完成!!!

lineスタンプ用に保存されるのはpng形式なのでブログ上ではアニメーションで見ることができません。

apngをgifに変換して貼り付けてみます。

Animizer.net - Complete solution for GIF and APNG creation

f:id:blux:20171203153500g:plain

う、動いてるぅー!!!!

一枚一枚見ると微妙な絵でもアニメーションにするとそこまで気になりませんね。

mohikanzでは適宜おとうふくんのスタンプやアニメーションを追加していこうと思います。

何枚か溜まったら配布しようかな。

 

当面はコミティアに向けて原稿頑張ります...!!!!!

 

会社のもっさりPCを早くした話

大した話ではないのですが、なんだかすごい「やってやったぞ!」感があるので、記録的投稿。

 

弊社は大企業なので

  • windows32bitPCが基本的なPCスペック
  • 64bitにしたかったら申請が必要といろいろめんどくさい
  • 勤怠管理などの都合上windows必須

もうこれだけで発狂しそうになりますよね。

 

なんとかメモリを増設したい!!!!しかしwindows32bitOS!!!!

ということで、

まず空きPCを探してまずlinuxを入れます。

windowsPCと二台併用です。

 

会社都合上家でDVDを焼いてきます。お家で仕事したい。

 

次に買うメモリを決めます

ですが、メモリの増設が初めてということでいろいろ調べました。

PCの公式ページにメモリの増設方法が載っています。親切。

support.hp.com

 

上記の説明に従って買うべきメモリを探していきます。

 

1.PCの蓋を開けてスロットがあいていることを確認する

4つのスロットのうち2つが使用されていて、メモリが4GBなのでおそらく2GB+2GBなのでしょう。

 
2.必要なメモリ容量を考える

まー全部で16GBくらいほしいなあ。けど2GB+2GB刺さってるなら8GB一枚買って12GBでもいいかな?と思ったのですが

> 最高のパフォーマンスを得るには、「デュアル チャネル モード」 を参考にメモリモジュールを増設してください。

 だそうです。

チャネルAとチャネルBの容量がが均等になるようにメモリを挿したらいいよってことですね。

そんなわけで4GB*2もしくは8GB*2を検討します。

 

3.メモリの規格を調べる

正規品買おうと思ったら販売終わってる。

何買えばいいのかわからないので、メモリの規格とやらを調べてみる。

正規品のところにDDR3-SDRAMと書いてある。

buffalo.jp

なるほど〜?

 

4.メモリを選ぶ

本当は全部差し替えたほうが一番はやいんだろうけれど、お金との都合上とりあえず4GB*2を購入。

 

 今回は不安だったので永久保証がついているこちらを選びました。

 

5.メモリ取り付け

取付方法をみながら取り付けたんですが爪を元に戻すところ、大分ググッと押さないと取り付けられないんですね。無理かと重った。

 

かんせーい!!!!

 

ログインしたらターミナルでcat /proc/meminfoで確認!

無事12GBのメモリが認識できています!!

 

PCサクサク!!!

しかしネットが遅くて結局詰む

extemporeを勉強して挫折しかけている話

先日ハッカーズバーに行って「extemporeでライブコーディングかっけええええ」ってなりました。

そこでextemporeを勉強し始めたのですが、音を出せるようになったはいいけれどその先進まなくて挫折しかけています。

まずはインストールから。

OSXでhomebrewが入っていれば

brew tap benswift/extempore && brew tap homebrew/versions
brew install extempore --with-extended

これで終わりです。

 

ターミナルでextemporeと打つと起動します。

コンソールには次のようにうまく起動したことが書かれます。

 

------------- Extempore --------------
Andrew Sorensen (c) 2010-2015
andrew@moso.com.au, @digego

ARCH : x86_64-apple-darwin15.4.0
LLVM : 3.7.0 MCJIT
Output Device : Built-in Output
Input Device :
SampleRate : 44100
Channels Out : 2
Channels In : 0
Frames : 128
Latency : 0.0129932 sec
---------------------------------------
Allocated: 1 Cell Segements For A Total Of 0, Free Cells = 0

Starting utility process
Trying to connect to 'localhost' on port 7098
New Client Connection
Successfully connected to remote process
Allocated: 1 Cell Segements For A Total Of 0, Free Cells = 0

Starting primary process
Trying to connect to 'localhost' on port 7099
New Client Connection
Successfully connected to remote process
Loading xtmstd library... done in 2.380045 seconds

 

ここまではいいです。簡単です。

ではextemporeが起動できたところで、言語の勉強に移ります。

言語仕様は次のブログに書かれています。

http://benswift.me/extempore-docs/index.html

 まずこの言語、C言語lispを組み合わせたxtlangという言語仕様に沿って書かれています。

ここで第一関門。lispの勉強。

xtlangを理解する前に、ある程度lispを知っている必要があります。

lispを勉強して、xtlangを勉強して、ようやく一音出るようになりました。

あとはちょっとコピペしたりで何音か出るようにはなります。

例えば以下のコードです。(オリジナルではなくbenswift.meから抜粋です。)

;; load the instruments file 
(sys:load "libs/core/instruments.xtm")

;; define a synth using the provided components
;; synth_note_c and synth_fx
(bind-instrument synth synth_note_c synth_fx)

;; add the instrument to the DSP output sink closure
(bind-func dsp:DSP
(lambda (in time chan dat)
(synth in time chan dat)))
(dsp:set! dsp)

;; play a note on our synth
(play-note (now) synth (random 60 80) 80 (* 1.0 *second*))

;; plays a sequence of pitches
(define play-seq
(lambda (time plst)
(play-note time synth (car plst) 80 11025)
(if (not (null? (cdr plst)))
(callback (+ time 10000) 'play-seq (+ time 11025) (cdr plst)))))

(play-seq (now) '(60 62 63 65 67 68 71 72))

ちなみにsublime textを使ってできます。

環境構築方法は、githubに書いてある通りです。

https://github.com/benswift/extempore-sublime

  1. 上記ページから extemporeのプラグインをダウンロードする
  2. プラグインをインストールする
  3. すると、sublime textのtoolにextemporeというのが追加される。

connectをすると起動しているextemporeに接続しに行きます。

あとはコードを実行することで音を出したりできます。

(ショートカットキーCtrl+Eを設定すると便利)

 

で、このあとは他のライブラリを使ってリズムを刻みながら音を乗せたりできるはずですが・・・リズムの音が入っているライブラリが読み込めずつまずいて今に至ります。

もっと勉強すれば自分で音を作れたりするのですが、リズムを出せず簡単な音しか出せないところで挫折気味です、、、

一旦このネタは寝かせようかなということで今日のブログは終わりです。

 

D'Angeloのライブに行ってきました

先日パシフィコ横浜で行われたD'Angeloのライブを見に行ってきました。

D'Angeloは去年サマソニで観たので二回目。

去年は「私が生きている間に日本に来てくれることがあるだなんてええええええ」という衝撃と、後その場にいるお客さんがみんな「待ってましたああああああああ」という雰囲気があり、もう最高に最高だったのですが、その時以上に気合が入っている感じでしたね。(賛否両論あるようですが)

なんというか、エネルギッシュで、クールで、セクシーで、イケてる!!でした。(なんも伝えられていない)

D'Angelo一人がどうとかじゃなくて、イケイケなギターと、ベタッとうねるようなベースと、タイトなドラム、ノリノリなコーラス、ピアノ、全員がグルーヴしてた。プロが集まった究極体ってこうなるんだなあ、と実感。

(というかああああもうクリスデイブがあああかっこよくてえええええ、ベースがピノパラディーノちゃうんかいと思ったらその息子で!シルエット似すぎだし!動きも似すぎだし!ピノじゃなくても!お前も最高だヨーーー!!!)

あ、クリスデイブのウンチシンバルが健在でよかったです。あれを見ると「クリスデイブだな」という安心感があります。

ずっとニヤニヤしていて、ずっと終わらないでって思いましたが、1時間半とかなり短かったです(開始は1時間くらい押したのに・・・)が、本当、生きている間に二回も見ることができるというそれだけで幸せなことなんだなあと思いました。

あまりに圧倒されて、余韻抜けれなくて、今週末のpopspringにデルーロパイセンでないし物足りなく感じます。

そして3月も終わりましたね。

 

youtu.be

復習がてらライブ映像を見ているのですが、「もっと、もっとすごかった!!!」て思うのは、ライブが「体験」だからなのだなあと思いました。

そして初めてライブレポートを書いてみたはいいけれども全く何も伝わらない文章力。ライブレポート書ける人凄い。尊敬。