Quantcast
Channel: karaage. [からあげ]
Viewing all 1426 articles
Browse latest View live

伝説の珍スポット「竹島ファンタジー館」に家族で行ってきた

$
0
0

f:id:karaage:20170820235342g:plain:w640

伝説の珍スポット「竹島ファンタジー館」

 子供が生まれてから中々行けてないのですが、私は珍スポット(いわゆるB級スポット)が好きだったりします。その中でも、行きたいと思っていたのが、2010年に閉館した後、2014年に奇跡の復活を遂げた伝説の珍スポット「竹島ファンタジー館」。実は特に行く予定は無かったのですが、近くの「竹島水族館」があまりに混んでいたので、急遽念願のファンタジー館に行くことに!

 ちなみに新旧の「竹島ファンタジー館」の比較や、詳細なレポートはあんまりしないので、以下記事で予習しておいて下さい。これらの記事が、私の「竹島ファンタジー館」行きたい熱を燃やした罪づくりな記事です。

「竹島ファンタジー館」写真等

 予習は完璧ですか?ここからは、いつもの通りペタペタ写真とコメントを貼って行きます。ついてこいよー!

ファンタジー館外観

f:id:karaage:20170818110020j:plain:w640 入り口。家族で行くのに若干不安があったのですが、若い女性も入って行き安心感が漂います

f:id:karaage:20170818110159j:plain:w640
 ファンシーな入り口

ファンタジー館内部

f:id:karaage:20170818110338j:plain:w640
 いきなりお金がかかっている感じの透過スクリーンに動画が映し出される

f:id:karaage:20170818110432j:plain:w640
 中の木のようなオブジェがありますが…

f:id:karaage:20170818110609j:plain:w640
 全部貝です!縦に長いやつも妻曰くマテ貝という縦長の貝らしいです。マジかよ!

f:id:karaage:20170818110623j:plain:w640 何気ない(?)オブジェも近づくと…

f:id:karaage:20170818110628j:plain:w640
 全部貝!花びらっぽいのも全部貝!

f:id:karaage:20170818110735j:plain:w640
 撮影スポットもあります

 近くに、撮影に使用するための、これみよがしに手頃なサイズの貝が置いてあります

f:id:karaage:20170818110906j:plain:w640
 まあやるっきゃないですよね(妻撮影)

f:id:karaage:20170818110935j:plain:w640
 たまに謎の暗号もあります

f:id:karaage:20170818111016j:plain:w640
 エロティックな貝の女性

f:id:karaage:20170818111025j:plain:w640
 股間にはきちんと(?)貝があります

f:id:karaage:20170818111036j:plain:w640
 こちらの女性は貝で乳首をガード(昔はむき出しだったみたいです)

f:id:karaage:20170818111134j:plain:w480
 貝の女性。気は強いけど優しいカリブの女海賊らしい(説明のプレートがある)です。

f:id:karaage:20170818111244j:plain:w640
 28万個の貝でつくられた壁画。ちなみに竹島ファンタジー館は合計で5500万個の貝を使っているらしいです

f:id:karaage:20170820235342g:plain:w640
 ファンタジー館最大の見せ場。貝の光のトンネル。異世界へ行ってしまう感半端ないです、異世界でなく、異世貝かも

f:id:karaage:20170818112411j:plain:w640
 貝のドラゴンもいますが、ここらへんから感覚が麻痺して、凄さが分からなくなってきます

竜宮城

f:id:karaage:20170818112517j:plain:w640
 奥の方に竜宮城を発見

f:id:karaage:20170818112825j:plain:w640
 竜宮城だー!

f:id:karaage:20170818112936j:plain:w640
 浦島太郎だー!

貝と石の展示室・お土産スポット

 ファンタジー館を出ても、まだ終わりません。この後の貝と石の展示室やお土産スポットも見逃せません。

f:id:karaage:20170818113959j:plain:w640
 アンモナイト

f:id:karaage:20170818114020j:plain:w640
 三葉虫(ドラえもん好きにはたまらない)

f:id:karaage:20170818114425j:plain:w640
 さりげなく亀の剥製が12万円で売っています

f:id:karaage:20170818114743j:plain:w640
 五重塔はなんと480万円、金銭感覚も麻痺してきます

f:id:karaage:20170818114515j:plain:w640
 この価格差。思わず「安い!」と買ってしまいそうです

f:id:karaage:20170818114525j:plain:w640
 期間限定って、絶対嘘でしょ!と思ってしまうくらいには紙が色褪せてました

f:id:karaage:20170818114542j:plain:w640
 これはかなり欲しかった!もし家にVHS再生機器あれば買ってたと思います

f:id:karaage:20170818114617j:plain:w640
 絶対面白いやつ(色んな意味で)

f:id:karaage:20170818114626j:plain:w640
 残りわずかだ!急げー(棒)

深海魚の海鮮丼が食べられる「とまりん」

 ファンタジー館の隣には「とまりん」という食事処が併設されています。目玉は「深海丼」という深海魚の海鮮丼なんですが、11時半ごろには既に完売していました。テレビでも取り上げられたらしく大人気みたいです。

f:id:karaage:20170818115212j:plain:w640
 とまりんは普通(?)の外観

f:id:karaage:20170818121039j:plain:w640 深海丼売り切れなので、普通の海鮮丼を食べました。普通に美味しかったです。深海丼も食べて見たい!

まとめ

 憧れの「竹島ファンタジー館」に行ってきました。個人的には大満足でした!結構自分の中でハードル上がっていたのですが、想像以上の迫力でした。特にトンネルと竜宮城はやばいです。入館料の1000円は、正直ちょっとお高めですが、ムービーやスタンプラリーなど子供も楽しめる工夫があり、家族でもちゃんと楽しめる施設になっていたなと思います。ただ、基本的には入館料も安くて、展示も工夫がこらしてある竹島水族館の方がオススメです(笑)。この後、竹島水族館も行ったのですが、子供は竹島水族館の方が3倍は楽しそうでした(水槽から離れなかった)。

 なので、家族で行く時は、竹島水族館が混みすぎている時や、竹島水族館が休館のとき「竹島ファンタジー館」に行くというのが正しい楽しみ方かもしれません。基本的にいつでも空いているので。ちなみに、竹島水族館は2017年の9月から耐震工事で年末まで休館らしいので気を付けましょう。

参考サイト

 このレポートは、後で知ったのですが面白かったです。まさか「竹島ファンタジー館」に2階があったとは…

関連記事


個人で作るフリスクサイズのIoTデバイス「Nefry」(MFT2017展示紹介その3)

$
0
0

f:id:karaage:20170805161509j:plain:w640

「Nefry」とは

 Maker Faire Tokyo2017(以降 MFT2017)で気になった展示第3弾です。MFT2017に関しては、以下参照して下さい。

 前回、前々回紹介した「R-Mono Lab」「白金鉱業」さんとうって変わり、今回紹介するのは、個人でモノづくりしている「わみ」(@wamisnet)さんです。もともとtwitterでのお知り合いで、Ogaki Mini Maker Faire 2016に出展したとき、隣同士になった縁です。

 わみさんは、個人でフリスクサイズのIoTデバイス「Nefry」他、様々なモノづくりをされています。初めてお会いしたときは、まだ学生さんでしたが、今は東京で働いていらっしゃいます。若いのに凄い!

 「Nefry」とは、フリスクサイズのIoTデバイスです。小型で、消費電力も小さく、電源さえ繋げば簡単にネットに繋がり多種多様なネットサービスと連携できるので、色々手軽に面白いことができそうです。わかる人には、ArduinoとRaspberry Piのいいとこ取りをした、手軽に使える小型デバイスといった方がピンとくるかもしれませんね。

 実はこの「Nefry」の最新版の「Nefry BT」クラウドファンディングしていて、今年の5月にめでたく目標金額達成しております。実は、私もファンとして陰ながら支援させていただいていたので、嬉しかったです(実は初クラウドファンディング支援でした)。

f:id:karaage:20170601232125p:plain:w640

MFT2017での「Nefry」の展示の様子

 以下が展示の様子です。目玉の「Nefry BT」以外にも、わみさんの作ったものの他、Nefryと連携できる様々な市販デバイスが紹介されていました。

f:id:karaage:20170805161509j:plain:w640
 目玉のNefry BT

f:id:karaage:20170805161332j:plain:w640
 雑誌「I/O」でカラーで特集されています。しゅごい

f:id:karaage:20170805161744j:plain:w640
 Nefryシリーズ。作りすぎててしゅごい

f:id:karaage:20170805161835j:plain:w640
 Nefryの応用例。こんなものが簡単に作れてしまいます

f:id:karaage:20170805161839j:plain:w640
 物販。NefryはMFTに間に合うよう製造していたらしいのですが、完成のタイミングは本当ギリギリだったらしいです。

f:id:karaage:20170805161639j:plain:w640
 お話を聞いた「わみ」さん。顔出しは過去しているけど、ちょっと恥ずかしいとのことで横顔をいただきました!

まとめ

 「Nefry」シリーズ作者の「わみ」さんにお話伺いました。自分より若い人がモノづくりしていると、応援したくなりますし、自分も負けてられないなという気になってきます。「わみ」さんのこれからの活躍に期待です!

 クラウドファンディング支援していた「Nefry BT」は、MFT2017から帰ったら家に届いていたので、早速色々遊んでみたいなと思っています。

f:id:karaage:20170816153523p:plain:w640 届いたNefry BT!

 応用例で紹介されている以下記事を見たところ、私が以前実施したAmazon Dash Buttonのハック的なことを手軽に実現できそうです(Raspberry Piのセットアップは結構大変でした)。

 「Nefry」で使われている「ESP-WROOM-32(ESP32)」というデバイスも、以前遊んだIoTミニ四駆キットと同じもので、Arduino IDEベースの開発なので、USBで繋げるだけで簡単に開発できそうで良さそうです。

はてなブログフォトコンテスト2017年夏(自主開催)に勝手に参戦!

$
0
0

奇跡のフォトコン開催!

 id:RyoAnnaさんが、なんと「はてなブログフォトコンテスト」を自主開催するとう暴挙(?)に出ていましたので、参戦いたします。

 ちなみに上記記事で言及されている人の中で、私だけフォトコンでTシャツ貰ったわけじゃないというね…

はてなブログフォトコンテスト2017年夏(自主開催)

f:id:karaage:20170829010251j:plain:w640

 とりあえず子供が写っていれば、はてなフォトコン入賞できる!そう考えていた時期が私にもありました…

 id:matty0102さんが、子供の写真でTシャツをゲットしてたのを見て、子供が生まれてからずっと子供の写真でチャレンジしてました。2匹目のどじょうをひたすら狙いつづけて失敗するタイプです。

 ましかく写真は、自作ソフト「SquareHolic」でつくりました。真四角写真にする意味は全くもってありません!

マイお題にしてやったぜ!

 はてなブログ フォトコンテスト 2017夏(自主開催)を勝手にマイお題にしてしまいました!はてな運営に頼る時代は終わりだぜ!はてなクーデターだヒャッハー!

お題「はてなブログ フォトコンテスト 2017夏(自主開催)」

 反響があったら、調子に乗って勝手に偽はてなTシャツつくってプレゼントしちゃおうかな(笑)期間はとりあえず1週間にしました!

愛知県蒲郡の「変なホテル ラグーナテンボス」は本当に変なホテルだった

$
0
0

f:id:karaage:20170818151655j:plain:w640

変なホテル ラグーナテンボス

 お盆休み、蒲郡に旅行行ってきました(詳しくは以下のしおりを見て下さい、見なくても大丈夫です)。

 今回の旅行のメインは、ラグーナ蒲郡にある「変なホテル」でした。「変なホテル」は従業員がロボットという、その名の通り変なホテルです。長崎のハウステンボスにあったものが、ディズニーランドの近く(舞浜)に最近できて「いつか行きたいな」と思っていたのですが、なんとふとテレビを見たら近場の蒲郡に今年オープンと出ているじゃないですか!

 これはロボット好きには見逃せません。もう速攻で予約しましたよ!そして、行く直前、しおり作るときに事前チェックのためgoogle検索してビックリですよ。

f:id:karaage:20170823001722p:plain:w480

 評価2.1って!うわっ…googleの評価、低すぎ…?コメントの中身もボロボロ…キャンセルしようか少し迷ったのですが、意を決して(何も考えずに)行くことにしました。「待ってろよ変なホテル!」

変なホテルに泊まってみました

 というわけで、後は写真をペタペタ貼っていきます。

変なホテル フロント

f:id:karaage:20170818160731j:plain:w640
 ホテルに入ると、恐竜ロボットがお出迎え

f:id:karaage:20170818151932j:plain:w640
 受付も恐竜ロボット

f:id:karaage:20170818151825j:plain:w640
 音声認識と手入力が選べます

 もちろん、ここは音声認識。名前を言ったら一発で自分の情報が出てきました、中々の認識率。住所も入力されていたので、付属のタッチペンで自分のサインをするだけ。楽々チェックインです。

f:id:karaage:20170818152137j:plain:w640
 受付の恐竜ロボットはもう1体います

f:id:karaage:20170818183251j:plain:w640
 たまに寝ているときもあります(充電中?)

f:id:karaage:20170818152602j:plain:w640
 水槽には魚ロボットも

f:id:karaage:20170818152623j:plain:w640
 かわいい恐竜(これは動きません)

f:id:karaage:20170823225339j:plain:w640
 お掃除ロボットもいます

 お掃除ロボットは下記のロボットぽいですね。スマホ連動もできるみたいです

 ちなみに、私はスマホ連動できないルンバをRaspberry Piで改造してスマホ連動をさせようとしてたりします

f:id:karaage:20170818152203j:plain:w640
 フロントにいる謎のロボット。これの正体は後ほど判明します

 ちなみに、人間(多分)の受付もあって、ホテルの特典のラグナシアの入場券は、そちらの受付で貰えました

変なホテルの部屋

f:id:karaage:20170818152822j:plain:w640
 部屋の外はこんな感じ

f:id:karaage:20170818152839j:plain:w640
 隣にはレストラン

f:id:karaage:20170818152922j:plain:w640
 部屋はこんな感じ

 思わず「広い!」って言ってしまいましたが、最近ずっとビジネスホテルに泊まっていたからで、多分リゾートホテルとしては普通だと思います。

f:id:karaage:20170818153015j:plain:w640
 部屋にもロボットが(カバと思ったら恐竜らしいです)

f:id:karaage:20170818153037j:plain:w640
 iRemoconもある

f:id:karaage:20170818153446j:plain:w640 何故かスマホもあります。

 スマホに関しては、何の説明もありません(笑)最初前に泊まった人が忘れて行ったのかと思いました。全体的に説明不足ですが、謎のガジェットをみるとワクワクしてくる私のような変態にとってはご褒美ですw

f:id:karaage:20170818153213j:plain:w640
f:id:karaage:20170818153220j:plain:w640
 なんとロボットのルームサービス!フロントにあったあれか!これは頼むっきゃ無いでしょ!というわけで後で頼んだ様子をレポします。

f:id:karaage:20170823092443p:plain:w640
 WiFiのSSIDとパスワードは、テレビをつけると出てきます。ここらへんは事前に情報収集済みです(情強なので)

 そして、早速恐竜のロボットの電源を…

 電源どこだ!起動しない!説明書にも、起動した後のことしか書いてないぞ!!

 とりあえずカバーをめくってみて、抜けている電源を刺したりしてみるもダメ。諦めてフロントに電話する。人間の敗北(?)です。

 電話したら「すみませんが、中のタブレットの左上の方に電源スイッチがありますので、入れていただけますでしょうか?」とのこと

 「マジ??」

 ロボットと格闘して、なんとか電源押すと…

f:id:karaage:20170818154502j:plain:w640
 起動した−!Windows 10だー!

f:id:karaage:20170818154541j:plain:w640
 ようやくWelcome画面がでました

f:id:karaage:20170818185246j:plain:w640
 普段は、こんな感じの口の画面が表示されます

 個人的にはこういうの嫌いじゃ無いですが、諦める人や、対応に怒り出す人もいるかもしれませんね(笑)

 ちなみに、この恐竜ロボット、音声認識で部屋の家電(照明やテレビ)を制御できます。やっていることの大枠は、デバイスが異なるだけで、私が以前作ったRaspberry Piの自宅IoTと同じようなものだと思います。

 ただ、音声認識の精度は悪いです。何度「電気消して」といっても「都市は?」というわけのわからない質問をしてきます。どうも「電気」と「天気」を聞き間違えているようでした。認識ソフトの性能は仕方ないとして、認識する単語の辞書の「電気」を「照明」にするとか、ちょっと工夫するだけで大分変わるのになと思ったりしました。ちゃんと使って、テストすれば分かるはずなんですけどね。

 そして、ロボットはたまにバグったりします。

f:id:karaage:20170818184339j:plain:w640
 Bugってハニー 

f:id:karaage:20170818184452j:plain:w640
 しかたなく、自分で再起動

日本初のロボットルームサービスを徹底レポ

 今回の(個人的)目玉。ロボットルームサービスを頼んでみました。妻から

「私が頼むから、動き見てこれば?」

 という素晴らしい提案。それは熱い!というわけで、早速フロントのロボットの側で妻の注文を待つことに

f:id:karaage:20170818152154j:plain:w640
 これが噂のルームサービスロボット

 準備ができたので、妻にルームサービスしてもらいます。ちなみにルームサービスは何故か電話です。突然のアナログ。タッチパネルで選択とかにすれば良いのに…

f:id:karaage:20170818183447j:plain:w640
 従業員さんが、さっそくお土産(変なホテルオリジナルの折りたたみの傘)を持ってきます。このとき直接貰えばいいじゃんという野暮なことは言ってはなりませぬ。ロボットに運んできてもらうことに価値があるのです

f:id:karaage:20170818183543j:plain:w640
 ロボット発進!

f:id:karaage:20170818183602j:plain:w640
 がんばれよー

f:id:karaage:20170818183635j:plain:w640
 がんばれがんばれ…

f:id:karaage:20170818183635j:plain:w640
 がんばれ…ん…と、止まったーーー!!

 このロボット、センサ(多分LiDARかな)で人を検知して、自動で止まる機能があるのですが、お祝いの花を誤検知してしまったようで、完全にスタックしています。どうなるんだろと、ドキドキ見守っていたら

f:id:karaage:20170818183809j:plain:w640
 従業員さん助けにきたー!花を動かしています

f:id:karaage:20170818183827j:plain:w640
 動き出したロボット!

f:id:karaage:20170818183913j:plain:w640
 ドアも

f:id:karaage:20170818183928j:plain:w640
 なんなくクリア!(自動ドアですからね)

f:id:karaage:20170818184321j:plain:w640 部屋の前まで来ると、部屋の中のポンコツ恐竜ロボットを通じて呼び出してくれます。

f:id:karaage:20170818184125j:plain:w640
 妻がロボットをお出迎え

f:id:karaage:20170818184137j:plain:w640
 ポンコツ恐竜ロボットに表示された暗証番号を入力すると

f:id:karaage:20170818184156j:plain:w640 傘ゲットー!

f:id:karaage:20170818184240j:plain:w640
 ありがとよー

 というわけでロボットルームサービス大成功(?)でした。

 このロボットの中身はは、以下のもののようです。

 人に助けて貰うっていうのが、個人的には結構面白かったです。でも、現状のビジネスで使えるコストで作れるサービスロボットの実力って、実はこんなもんなんですよね。ルンバだって、人がある程度片付けないとちゃんと掃除できないですもんね。

 ただ、今後少子化で、ますます人が減っていきこうやってロボットのサービスが増えていくと、人とロボットが助け合うというのは、到るところで見られる当たり前の光景になるのかもしれないですね。

ラグーナの花火イベント

 夜は、ラグーナの花火イベントを見に行きました。

 変なホテルからラグーナ蒲郡へは直通の出入り口があります。

 夜の「変なホテル」付近の景色は結構幻想的です

f:id:karaage:20170818194152j:plain:w640
 おしゃれなライトアップ

f:id:karaage:20170818194231j:plain:w640
 光のゲートを潜ります

 ちなみに、この通路は花火の時間になると閉鎖される(花火のカスが降ってきて危険なため)ので、イベントの前に移動しておくようにしましょう

 イベントは、子供もいたので有料席で見ました。一人800円程度です。お金が勿体なかったら立ち見席でもよいかなと思います。

f:id:karaage:20170818202901j:plain:w640
 花火

f:id:karaage:20170818202920j:plain:w640
 花火2

f:id:karaage:20170818203542j:plain:w640
 プロジェクションマッピング

 花火ショーですが、「折角やってるから見て行こうかな」くらいの軽い気持ちでみたのですが、めちゃめちゃ良かったです。花火も近く大迫力ですし、ショーの演出、音楽、プロジェクションマッピング、全てのレベルが高く、感動的でした。ディズニーのように、キャラクタのIPを持たない中、よく頑張ったなという印象です。お世辞抜きで何度も見たいなと思いました。妻も感動していました。

 2歳の娘は、最初の音の大きさに少し怖がっていましたが、花火や演出には満足して楽しんでくれたようでした。

娘へのお土産

 娘には、お土産としてドラえもんの縫いぐるみを買ってあげました。家にどんどん増えて行くドラえもん

f:id:karaage:20170820103555j:plain:w640

f:id:karaage:20170820103603j:plain:w640

 以前ラグーナにドラえもんイベント行った時は、何も買わなかったので、今回は喜んでくれたようでした。

まとめ

 ラグーナ蒲郡の「変なホテル」に宿泊したレポートでした。ラグーナに行ったのは3回目くらいですが、宿泊は初めてでした。1日目は天気が悪かったので「竹島ファンタジー館」や「竹島水族館」などで遊んだのですが、2日目は天気も良くラグーナのプールで1日中泳いでいました(主に娘の要望でw)。正直、変なホテルのロボットが見たいだけなら、ホテルのご飯食べるついでにも見れますし、ラグーナの花火もプールも、変なホテルに泊まらなくても見ることはできます。

 ただ、変なホテルの宿泊料(2017年8月時点です)は、ラグーナの2日分の入園券(4300円分)、駐車場分(1600円分)、ラグーナの湯の入園券(1000円分)と、結構豪華な朝食(プライスレス)がついて、17400円/人でした。この価格をどう思うかは当然人次第なのですが、個人的にはラグーナ2日分しっかり堪能しましたし、トラブルも含めて変なホテルのロボットをめいいっぱい楽しめたので結構満足でした。また来年か再来年にでも、家族で泊まりに来るのも悪くないなと心から思いました。

 ちなみに、妻的には「ヒルトンの方が良い」とのこと。そりゃそうですねw でも「また家族でラグーナとセットで遊びに来たいね」と言ってもらえたので、良かったかなと思っています。

関連記事

8月のPVと収穫報告・収益は1000円相当でした

$
0
0

f:id:karaage:20170823004229j:plain:w640

8月のPV報告・ついに収穫が発生しました!

 7月以来の家庭菜園のPV(Plants View)報告です。 karaage.hatenadiary.jp

 今月はなんと、ついに収穫が発生しました!やりましたね!

家庭菜園PV(Plants View)報告

 早速おなじみPV(Plants View)です。

 実は一時期水をやり忘れてしまい、かなり萎れてしまいました

f:id:karaage:20170823004348j:plain:w640
 しおしおー

 一時はどうなることかと思ったのですが、水をやると立派に盛り返しました

f:id:karaage:20170823004510j:plain:w640
 もりもりー

 その後も順調に成長していきました。

f:id:karaage:20170823004625j:plain:w640

f:id:karaage:20170823004700j:plain:w640

 Amazon DashボタンとRaspberry Piを活用して、定期的に家庭菜園の写真を夫婦ブログにアップしています。Dashボタンに関しての詳細は以下参照ください。

 最初はこんな感じだったのが

 こんな感じにまでなりました!

家庭菜園の収穫

 そんな中、ついに今月は収穫が発生しました!お待ちかねの収穫報告はこちら!

f:id:karaage:20170823004229j:plain:w640
 ミニトマト1

f:id:karaage:20170823004243j:plain:w640
 ミニトマト2

f:id:karaage:20170823004257j:plain:w640
 収穫する娘1

f:id:karaage:20170823004316j:plain:w640 収穫する娘2

f:id:karaage:20170824002913j:plain:w640 収穫したトマト1

f:id:karaage:20170824003027j:plain:w640 収穫したトマト2

f:id:karaage:20170823004427j:plain:w640 収穫したトマトと大葉

f:id:karaage:20170824005218j:plain:w640
 収穫したピーマン

f:id:karaage:20170824004518j:plain:w640 調理したピーマン

f:id:karaage:20170824003358j:plain:w640 家庭菜園の野菜を存分に活用した料理

収益報告

 具体的な収益ですが、直接金額を書くとまずいという噂があるので、野菜で表現しようと思います。実際野菜だし。大体以下です。

  • トマト 2パック分
  • 大葉 1パック分
  • ピーマン 1パック分

 合計は、1000円くらいかな?

 あれ?以下の資料によると初期投資2000円…

 まさかのAKAJI??

まとめ

 家庭菜園は、枯れ果てるまでは続けますが、夏も終わりましたので、今年のブログでのPVと収穫報告はこれで終わりにしたいと思います。収穫量はまだまだ少ないですね。ベランダが思ったより日当たりが悪かったのが原因かなと想像しています(データ無し)。来年はLED照射でもしてみようかなと考えています。

 それでは、来年のからあげ家の家庭菜園とPV報告にご期待ください。

関連記事

9/10放送のテレビ番組「所さん お届けモノです!」で当ブログの写真が使われるそうです

$
0
0

テレビ番組で当ブログの写真が使われます

 TBS系のテレビ番組「所さん お届けモノです!」で、このブログの写真が使われるとのことです。「所さん お届けモノです!」の番組の詳細は以下参照下さい。

 ある日、番組スタッフの方から写真の使用許可が欲しい旨のメールがきて、特に断る理由もなかったので快諾しました。番組の一部でRaspberry Piが使われるらしく、そこでブログの写真が使われるとのことでした。ある程度、放送内容の概要も教えていただけたのですが、中々面白そうな内容だったので私も録画して見てみようかなと思っています。Raspberry Piに興味がある人だったら、楽しめるのじゃないかな?と思います。

 多分写真が使われるのは一瞬だと思います(数秒とかでしょう)。どの写真が使われるかは、内緒にしておきます(特に深い意味はありません)。

 今回は、まずわざわざ事前連絡があったことにビックリしました。一瞬表示されるだけであろう写真なのに、これだけ手間暇かけるとは大変ですね。最近は勝手に使うとネットで騒ぎになるので、どこも気を使っているのかもしれませんね。

 メールは、土日の夜遅くに来たものが多く、他人事ながらスタッフさんの労働環境が少し心配になりました。自分だったら、雑なイラストでも書いて楽をしそうです(そして多分すぐクビになるでしょう)。大変なお仕事だなと思いました。

テレビに関して思うこと

 個人的には、テレビの内容は半分くらいは嘘だと思っているので(ニュースでも3〜4割くらいはデタラメだと思っています)、テレビは見ても見なくても良いかなと思っています。社会人になるとテレビの話をするようなこともほとんど無くなるので、見なくても困ることはないです(多分、人によるかもしれません)。実際、私は就職してから結婚するまで家にテレビがありませんでしたが、そんなに困りませんでした。

 ただ、結婚してからは、妻におねだりされて仕方なくテレビを買いました(「けいおん!」の映画のテレビ放送のためだったかもしれません、愛知では放送してなかったことをテレビ買ってから知ったのですが…)。なので私もかなりテレビっ子になったと思っています。最近の芸能人にもかなり詳しくなりましたよ。マツコ・デラックスさんも知っています。

 あと、最近少しテレビ関係の人たちとお話やメールすることがあったのですが(今回の件も含めて)、どの方も物腰低く高い志を持った方が多かったです。なので、私はテレビ関係で働く人たちには、結構良い印象を持っていたりします。ただ、きっと怖い世界なんだろうなとは思います。まぁ、最近のネットも大概かもしれませんけどね。インフラ化していくとはそういうことなのでしょう。

 ちなみに、私自身はテレビ向きではないと思うので(生放送で放送禁止用語を連呼し続けるタイプ)。テレビに映ることなく一生を無事終えたいと思っています。

エンジニア向け「GitHub Pages」を使った技術メモ公開のススメ

$
0
0

f:id:karaage:20170815164455p:plain:w640

技術メモにGitHubのGitHub Pagesが最適かも

 ちょっとした、公開してもよい技術メモ。今まで、はてなブログに書いてきました。Markdown記法も使えるし、書きやすいし、デザインも手軽にそこそこ良いのができるしと、個人的には中々良いと思っているのですが、以下のようなときに不都合があります。

  • 画像以外のファイル(csvとか)をアップロードしたい
  • 修正の差分履歴を残したい
  • テーマごとに大量のサイトを作りたい
  • ブログというほどでもないちょっとしたログとして使いたい

 無料で何かよいのないかなーと思っていたのですが、GitHubの提供するホスティングサービスであるところのGitHub Pagesが中々良かったので紹介します。最近アップデートして更に便利になっているので、少し昔に使って不満を感じていた方も、再度試すと思わぬ発見があるかもしれません。。

 あと、GitHubって何?という人は学習コストが高くなってしまうので、あんまりオススメはできないです(GitHubやgitを知らなくても使えないことはないです)。GitHubが何ぞやというところから知りたい人は、以下記事参照下さい。

 以降は、GitHubやGitはある程度知っている前提の説明となります。

GitHub Pagesの使い方

 GitHub Pagesは、いくつか種類があるのですが、今回はリポジトリのmasterを丸ごとWebページにしてしまう方法を紹介します。

 まずは、新規のリポジトリを作成して、Settingを選択します。

 次に、GitHub Pagesの項目(ページ中ほど)をみます。

f:id:karaage:20170815170604p:plain:w640
 こんなところ

 続いて、Noneというところをクリックして、master branchを選択します。

f:id:karaage:20170815164404p:plain:w640
 こんな感じね

 続いて、その下のTheme Chooserで好きなテーマを選択すると、好きなデザインを簡単に選択できます。

 OKを押すと、下記のように何やらアドレス(https://karaage0703.github.io/リポジトリ名)が表示されます。

f:id:karaage:20170815164411p:plain:w640

 実は、もうこれでWebサイトが完成しています。表示されたアドレスにアクセスすると、以下のようにサイトが見れます。

f:id:karaage:20170815164455p:plain:w640
 できあがり

 README.mdが自動的にindex.htmlの役割を果たしてくれます。

 後は、Gitでリポジトリを管理する要領で、好きなエディタでファイルを作成・修正してGitでpushすれば、簡単にWebサイトを更新することができます。GitHubのWebブラウザ上で直接編集してもOKです。ディレクトリを使った階層構造を持つことも、もちろん可能です。

 Markdown記法も使えるので、以下のようにソースコードの貼り付けや、写真、表の表示なども簡単にできます(Markdown記法を知っていれば)。

f:id:karaage:20170815164500p:plain:w640

試しに作って見たサイト

 今回、Deeplearningの実験した結果を残すために、以下のようなサイトを作って見ました。

 GitHubなら、無料で手軽にいくつもこんな実験結果を記録したサイトが作れるので便利ですね。

GitHub Pagesの利点・欠点

 簡単に利点・欠点をまとめてみます。普段、GitHub/Gitを使っているエンジニアなら、試して損は無いのじゃないかなと思います。

利点

  • Markdown記法が使える
  • 写真、表が表示できる
  • ソースコード、実験結果のファイルが保存できる
  • Gitでバージョン管理できる
  • 無料で使える
  • サイトをテーマごとに大量に作れる(リポジトリの数だけサイトが増やせる)

欠点

  • GitHub/Gitを知らないとハードル高い
  • 大きな容量のバイナリファイルを何度もcommitすると急激に重くなる(Gitの仕組み上の話)
  • Web上で記事は書きにくい(プレビュー機能は貧弱、他サービスとの連携などは無い)
  • GitHubのファイル更新してから、サイトに実際に反映されるまでタイムラグがある(1分程度)
  • SNSとの連携などは無い(デフォルトでは)
  • 非公開にしたい場合は有料

まとめ

 GitHub Pagesを使った技術メモの公開に関して紹介しました。こうやって、個人的な実験の結果を残しておくと、後で簡単に見返せるので便利ですね。データのバックアップにもなりますし、公開することでひょっとしたらサイトをみた誰かしらからフィードバックを貰える可能性もゼロではありません。実験ノートを公開しろと言われることもないのですし、いいことだらけですね。

 GitHub Pagesの欠点に関しては、はてなブログと組み合わせて(リンクを貼って)よいとこどりをするのも賢い使い方かもしれませんね。GitHub Pagesは自由度高そうなので、独自ドメイン取得して、本格的なサイト運営に使うというのも、ひょっとしたらありかもしれませんね。

 気になった方は、GitHub Pagesに関して調べて、色々活用して見て下さい。

関連記事

からあげ・THE BEGINNING 〜自宅サーバに2ch風掲示板構築して自分の日記のスレッド立ててたころの話〜

$
0
0

f:id:karaage:20170726015008p:plain:w640

昔話をしようと思う

 たまには、珍しく昔話でもしてみようかと思います。このブログ(karaage.)が、はてなブログ(旧はてなダイアリー)で更新を始める前日譚です。自分にとっては大昔ですが、みなさんにとっては、最近だったり、はるか昔の話だったりするかもしれません。大体2000年代前半の話と思って貰えればよいです。

 昔のことということで、ちょっと昔の自分の文章っぽく、1人称を変えて、ポエミーに書いてみようかと思います。もうだいぶ記憶があやふやなので、半分以上フィクションとして読んでください(これは今回に限ったことではないですが)。深く考えず、頭空っぽにしましょう。その方が夢詰め込めます。

からあげ・THE BEGINNING

 大学生になったばかり僕の青春は、セックス・ドラッグ・ロックンロールに彩られていた。と言いたいところだが、残念ながら女の子にとんと縁がなかったので、PC・ドラッグ・ロックンロール漬けの毎日だった。

 僕が、大学時代ハマっていたヤバい遊びが、Linuxのインストールだ。Linuxはリナックスと読む、新種のドラッグではなくて、フィンランドのイカしたハッカー、リーナス・トーバルズが作ったオープンソースのOS(オペレーティングシステム)だ。悪友のM野君(詳しくはM野伝説を参照してくれ)の家に行き、ドラッグ(念のために書くが、ここでのドラッグは、いわゆるドラッグ・ストアで手に入る一般的な栄養ドリンクの可能性であることを示唆しておく)をキメると、2人でそれぞれPCにLinuxのセットアップを続けて、夜が明けると倒れるように寝るということを飽きもせず繰り返していた。

 少し補足すると、当時のLinuxは今のようにインストールしたらそのまま普通に動く、ということは滅多になく、画面が映れば奇跡という代物だった。認識しないデバイスのために、デバイスドライバを探したり、カーネルにパッチ当てたり、configファイルを弄ったり…要は色々な努力が必要だった。

「どんな女よりもタチが悪い」

 それが僕らの間でのLinuxに対する共通認識だった。

 僕は、Turbo LinuxやRed Hat Linux、M野君はVine Linux、Debianというディストリビューションを好んでインストールしていた。まだUbuntuは存在していなかった(と思う)。

 そして沸き起こる空前のホームページブーム。ホームページというのは、今でいうブログみたいなものと思ってもらえれば良い。もちろん、はてなブログのような便利なサービスはないので、HTMLを手打ちして自分でサーバにFTPを使って転送するという恐ろしい代物だった。

 周囲の友人が、次々とホームページを作成していく。ただ、僕にとってそれは既に中学生のときに通った道。同じことをやってはプライドが許さない!僕は、他の愚民どものとの違いを見せつけるべく、今は亡きSOTECというブランドのPC(PentiumのCPUにメモリは2GB程度だっただろうか?)に、愛用のTurbo LinuxとapacheのWebサーバを猛然とインストールし、当時人気だった2ch風の掲示板を運営すると、ddo.jpというサービス(今も存在していた)で、取得した独自ドメインを、周りの友人全員にアドレスを送りつけた。

 多分、2,3人の頭のおかしい人以外、誰も見てなかったと思うけど僕は満足だった。掲示板には、自分でスレッドを立てて、自分の日記をつけ始めた。ほぼ全てが下ネタだったと思う。ハンドルネーム(自分のID)には、検索しにくくなるように(今で言うところのエゴサーチできないように)、ありふれた好きな食べ物の名前をつけた。これが、からあげの始まりである。

 その後、何度か閉鎖と再開(破壊と再生と呼んでいた)を繰り返した後、自宅サーバに限界を感じた僕は、当時無料で広告が無いという理由ではてなダイアリーという、はてなブログの前進に当たるサービス(今は広告があります)で日記を書き始めたのだ。

Raspberry Piで当時を再現してみる

 だらだらしょうもないことを書いてしまいました。当時を再現できないかなーと、手元のRaspberry Piで試してみることにしました。Raspberry Piの標準のOSであるところのRaspbianはその名が示すようにDebianがベース、つまりLinuxなのです。ちょいちょいと調べて、以下の5行くらいのコマンド実行します。

$ sudo apt-get update
$ sudo apt-get install apache2
$ sudo apt-get install php5
$ git clone https://github.com/logue/php2chbbs
$ sudo mv php2chbbs /var/www/html/

 あとは 192.168.x.x/admin/admin.phpにアクセスすれば良いのかと思ったのですが、パスワードが何故かうまく設定できない。「何故?」と思っていたら、まさかのパーミッション設定されていないというオチ。パーミッションくらい設定しておいてくれればよいのに…昔を思い出しながら、以下サイトのREADME見ながら、1つ1つ心を込めてパーミッション設定。

f:id:karaage:20170726015008p:plain:w640
 できた

f:id:karaage:20170726015058p:plain:w640
 自分の日記を再現

 昔は、タワー型のPCで夜を徹してセットアップしていたのが、手のひらに乗るような小型PCで、15分くらいでセットアップできてしまいました。技術は進みましたね。あとは、私も多少は成長したのかもしれません。

エピローグ 〜からあげにレモンかけたら死刑〜

 私とM野君の後日譚です。大学を卒業すると、M野君は仕事の関係で東京へ行き、私は地元企業に就職しました。就職する前は、ロックミュージシャンになりドラッグきめて27歳で死ぬとばかり思っていたのですが、気づいたらカート・コバーンより年上になり、結婚して子供ができ、ただのサラリーマンになり、ドラッグとロックからもすっかり足を洗いました。結局、PC・ドラッグ・ロックンロールのうち、私に残ったのはPCだけでした。

 今でも、ときどき夜中にPCをいじっていると、大学時代、朝までPCのセットアップしていたことを思い出します。結局あれが、私の青春そのものだったのかもしれません。

 そうそう、この前久しぶりにM野君の家族と会いました。M野君は元気でしたが、相変わらず物凄い痩せていたので、まだやばい薬をやってるのかもしれません。

f:id:karaage:20170813152054j:plain:w640 M野君の子供と私の子供

 子供たちに素敵な青春が訪れることを祈っています。間違っても、ドラッグきめて朝までPCのセットアップをするような大人にはなりませんように。


PCL(Point Cloud Library)+ROSで3次元画像処理入門

$
0
0

f:id:karaage:20170817152149j:plain:w640

PCLで3次元画像処理

 最近、個人的に画像処理に興味を持っています。2次元の画像処理は、フィルタの基礎から勉強しています(以下記事参照)。

 2次元の画像処理を色々試すと、ちょっと上の次元も試してみたくなりますね。というわけで今回は3次元の画像処理に挑戦してみようと思います。2次元だと、フリーで使えるライブラリとしてOpenCVが有名ですが、3次元だとPCL(Point Cloud Library)というものが有名です。

 PCLに関しての概要は、Atsushi (id:meison_amsl)さんの以下記事を参照下さい(突然の手抜き)。 

3次元画像処理の開発にはPCL + ROSの組み合わせが最適

 じゃあ早速PCLを使ってみようとなるわけですが、簡単に表示できる2次元画像(写真)と違い、3次元データはちょっと表示(可視化)するにも一苦労ですし、3次元データを扱えるセンサからどうやって3次元データを取得すれば良いのか、そもそもPCLをどうやってセットアップすれば良いのかもよく分かりませんね。

 そんなときに役立つのがROS(Robot Operating System)です。ROSはロボットのソフトウェア開発に使われるフレームワーク(ミドルウェア群)で、何度かこのブログでも使っています。ROSの概要や、使用するメリットなどは、またまたAtsushi さんの以下記事を参照下さい。

 上記記事でも触れられているように、元々ROSというのは、米国のロボットベンチャー企業であるWillow Garage社(現OSRF)が開発したソフトなのですが、PCLもWillow Garage社で開発されているため、PCLとROSは非常に相性が良いのです。具体的には以下です。

  • ROSをインストールすればPCLも自動的にインストールされる
  • PCLの3次元情報(3次元点群)をROSのRvizというソフトで簡単に可視化できる
  • 多数の市販3次元センサ用がROSに対応している

 PCLを使うなら、ROSを使わない手はないですね。というわけで、今回はROSとPCLの組み合わせにトライしてみます。ちなみに、2次元の画像処理ライブラリとして有名なOpenCV、開発したのはIntelですが、実はWillow Garageが開発で行われていたこともあり、実はROS、PCL、OpenCVは深い関わりがあったりするのです。いかにWillow Garageという会社がロボットの要素としてビジョンを重視していたかがよく分かりますね。

PCL + ROSで3次元画像処理

ROS(Linux) + PCLセットアップ

 ROSはLinux(Ubuntu)上で動かすのが基本(他は茨の道)なので、Linuxをインストールしたマシンをインストールしましょう。ここが一番ハードル高いかもしれませんね。ROSのインストールに関しては、以前自動でインストールするスクリプトを作ったりしたので、もしよければ参照してみて下さい。

 3次元センサを接続するので、基本的にはネイティブなLinux環境があるのがよいのですが、WindowsやMac上のバーチャルマシン上にLinuxとROSの仮想環境を構築する方法もあります。3次元センサの入力に関しては、とりあえず無しでもお試しできる方法もあります(後ほど紹介します)。仮想環境構築に関しては、以下記事参照下さい。

 ROSをフルインストールすると、PCLも自動的にインストールされます。ここは楽ですね。

 Raspberry PiにROSをインストールする方法もありますが、3次元画像処理は基本マシンスペックが必要なのでオススメしません。

 今回はROSのバージョンはIndigoを前提にしています(最新バージョンのkineticでも、ところどころindigoをkineticに置き換えるだけで、ほぼ同じ要領で良いと思います)。また、ビルドシステムはcatkin tools(catkin build)を前提としています。catkin toolsに関しては、Raspberry Pi 3にROSをセットアップしてRaspberry Pi純正カメラ(Raspicam)で遊んでみたの記事の「ROSのビルドシステム catkin_makeとcatkin tools(catkin build)に関して」を参照下さい(Raspberry Pi以外でROSを使う場合も同様です)。

3次元センサのセットアップ

 続いて3次元センサのセットアップです。一昔前は、3次元センサはものすごい高価(数百万)くらいしたのですが、最近市販の安い3次元センサも出てきました。ただ、性能はまだまだ発展途上です。価格的にも性能的にも使いやすいのは、実は未だに初代Kinect(Kinect V1)だったりします(個人的な意見)。というわけで、今回はKinect V1を使います。

Xbox 360 Kinect センサー

Xbox 360 Kinect センサー

 ROSでのKinectのセットアップ、動作確認方法、Rvizでの可視化に関しては、以下記事参照下さい。

f:id:karaage:20170817152149j:plain:w640
 はてなさんに読者プレゼントでもらったLIVAちゃんと活用しています!(謎アピール)

f:id:karaage:20170817152136j:plain:w640
 Rvizで部屋の3次元点群情報を可視化中

f:id:karaage:20170817231703p:plain:w640 Rviz表示

3次元画像処理実験

 準備が整ったら、いよいよ3次元画像処理です。ただ、実はPCLに関しては、あまり情報がなかったりします。特に日本語に関しては壊滅的です。あまり良い本も見つかりませんでした(もし良い情報を知っている人がいたら、教えて下さい。

 以下のROS WikiのPCLの項目や、PCL本家のドキュメント、チュートリアルを見ていくのが一番の近道のようです。

perception_pcl/Tutorials - ROS Wiki

PCL - Point Cloud Library (PCL)

 その他、参考になりそうなネット情報をこの記事の最後に参考リンクとしてまとめましたので、興味ある方は参照下さい。

 といっても、ROSとPCLを組み合わせて、どうやって3次元センサ(Kinect)の入力情報を処理して、Rvizで可視化できるように出力するか書いてなかったりします。そこで、Kinectの3次元点群をPCLのチュートリアルにある3次元画像処理して、Rvizで表示する簡単なサンプルを作成してGitHubにアップしましたので、こちらを使って3次元画像処理の実験をしていこうと思います。

 GitHubのリポジトリは以下になります。

 ROSをインストールしたマシンで、以下コマンド実行してビルドします。

$ git clone https://github.com/karaage0703/pcl_ros_processing
$ cd pcl_ros_processing
$ catkin bt

 あとは、1つ目のターミナルで以下実行し、roscoreを立ち上げましょう。

$ roscore

 2つ目のターミナルで、kinect もしくは他の3次元センサのノードを立ち上げましょう。

 もし、3次元センサがない方は、以下のコマンドを実行して、予め取得して置いた私の部屋の3次元データを再生して下さい。このように、簡単にログを取得、再生できる仕組みがあるのが、ROSの良いところですね。

$ rosbag play -l rosbag_data/pcl_test.bag

 3つ目のターミナルで以下実行します。

$ rosrun pcl_ros_processing planar_segmentation input:=/camera/depth_registered/points

 この状態で、Rvizを立ち上げ、/planar_segmentationというPoint Cloud2のTopicをみると平面を検出が出て来ているのが見て取れます(検出したところの色が変わる)

 次に、Ctrl + Cで上記のplanar_segmentationを終了し、以下コマンド実行すると、カラーフィルタを起動できます。

$ rosrun pcl_ros_processing color_filter_rgb input:=/camera/depth_registered/points

 例えば、以下のように色相のパラメータhのminとmaxを調整すると、特定の色だけ抜き出すことができます。

$ rosparam set /min_h 200
$ rosparam set /max_h 260

 色相(Hue)と色の関係は、以下サイトなど参照下さい。上記のパラメータだと青が抜き出されることになります。

 実際に、平面検出や色のフィルタをかけてみた様子が以下になります。 f:id:karaage:20170817231601g:plain:w640

 平面部分が赤くなったり、青い色だけ抜き出されているのがわかると思います。

Kinect以外の3次元センサに関して

 今回は、Depth(奥行き情報)が取れる3次元センサとしてKinectを使用しました。ただKinectはもう販売中止なんですよね。現在、手頃なお値段で一般人が入手できる以下の3次元センサを簡単に紹介しておきます。一応全てROSでも動かすことができます。

  • Intel Realsense SR300
  • PS4 Stereo Camera
  • ZED Stereo Camera
  • ASUS Xtion2

 3次元センサは、今のところ、欲しい距離で使えない、高い、重い、使いづらい、屋外で使えないなどの欠点があり、まだまだ発展途上の分野だなと感じています。「これだ!」というセンサの決定版があればよいのですが、そういうものはまだまだ先になりそうですね。

 だれか、良い3次元センサを知っていたら私にこっそり教えて下さい(笑)

Intel Realsense SR300

 Intelの3次元センサです。Kinectと同じライトコーディングと呼ばれる方式で3次元情報を取得します。かなり近距離まで精度良く3次元情報が取得できるため、Amazon Picking Challenge(以下APC 現Amazon Robotics Challenge)などの、ロボットコンペティションでもよく使われている、今人気のセンサです。

 去年だと、日本のベンチャーPreferred Networks(PFN)のチームが、このセンサを使ってAPCに出場し健闘(2位取得)していました。詳しい資料はPFNさんの以下スライド参照下さい。

Amazon Picking Challenge 結果報告

 Intel Realsense SR300のセットアップ方法(ドライバのlibrealsenseインストール)は、しょっちゅう変わって結構大変です。公式の以下のREADMEを都度確認してインストールするのがよいでしょう。結構上級者向けと思います。

 Ubuntu 16.04.1でしたら、ROS Kineticをインストールして、とりあえず以下のコマンドを実行してけば、セットアップできると思います。うまくいかなかったら、公式を参照しましょう。

$ sudo apt-get -y install libusb-1.0-0-dev pkg-config
$ sudo apt-get -y install libglfw3-dev
$ git clone https://github.com/IntelRealSense/librealsense
$ cd librealsense
$ mkdir build && cd build
$ cmake ../ -DBUILD_EXAMPLES=true
$ make && sudo make install
$ cd ..
$ sudo cp config/99-realsense-libusb.rules /etc/udev/rules.d/
$ sudo udevadm control --reload-rules&& udevadm trigger
$ sudo apt-get -y install libssl-dev
$ ./scripts/patch-realsense-ubuntu-xenial.sh
$ export LD_LIBRARY_PATH=/usr/local/lib:${LD_LIBRARY_PATH}

 ROSのパッケージは、Intel公式のものがあるのですが、何故かものすごく点群がいまいちです。探したら、東大の学生さんが作っている良さそうなROSのパッケージを発見したので、forkして使わせていただいています(少し彩度のパラメータが気になったのでいじっています)。以下のリポジトリのsr300というブランチのものになります。

Intel RealSense Development Kit SR300

Intel RealSense Development Kit SR300

 ちなみにRealsenseはかなり電流を引っ張る(おそらくUSB3.0規格を逸脱している)ので、うまく動かないときは、セルフパワーのUSBハブとか、パワーケーブルなどで電流を供給してやった方がよいです。下記みたいなリピーターケーブルも良いかと思います。

PS4 Stereo Camera

 PlayStation 4のステレオカメラをHackして使う方法もあります。これは、ケーブルの改造(USB3.0)が必要なので、更に上級者向きです。詳細は、以下のサイトなど参照すると良いと思います。ステレオ方式なので、平面などは苦手ですが、結構性能出ます。

Oriental Robotics: PlayStattion4のステレオカメラからの距離画像をROSで使おう!

PlayStation Camera【メーカー生産終了】

PlayStation Camera【メーカー生産終了】

ZED Stereo Camera

 ZED Stereo Cameraも結構高性能です。付属のAPIで3次元情報取得からSLAMまで色々できるようです。こちらは約500ドルと結構お高いです。購入も含めてこちらも上級者向けですね。

ZED Stereo Camera

ASUS Xtion2

 Asus Xtion2は発売されたばかりのセンサです。Kinect V2と同じToF方式と呼ばれる光のパルスの位相差で3次元情報を取得するタイプです。こちらはまだ試したことがありません。一度試してみたいセンサですね(そんなに点群精度は良く無いという噂ですが)。

Xtion 2 | 3D Sensor | ASUS Global

まとめ

 2次元に続いて3次元の画像処理に入門してみました。基本は次元を拡大するだけで2次元の画像処理と同じ部分が多いです(もちろん、計算量は増えますが)。ただ、3次元の画像処理(PCL)で一番つらいのが、情報の少なさでしょうか。日本語はもとより壊滅的ですし、英語でもそれほど情報多くない印象です。PCLの公式サイトをみていくのが一番良さそうですが中々自己学習するにはつらいです。

 もしわかりやすい本や情報をご存知の方がいましたら、是非是非教えて下さい。

参考リンク

PCCブログ | PointCloudConsortium

PCLで点群処理

perception_pcl/Tutorials - ROS Wiki

ROSでのPCLの扱い - Qiita

pcl - ROS Wiki

cmake チュートリアルを読む前に - Qiita

Documentation - Point Cloud Library (PCL)

How to use PCL - ros recognition tutorial

市販 Stereo Cameraについて調査中 - Qiita

Intel RealSenseをMax OSやLinuxでも使える librealsense を使ってみた - Natural Software

Xtion 2 新製品発表会に参加、登壇しました - Natural Software

関連記事

京都伏見稲荷大社の千本鳥居に圧倒されました

$
0
0

f:id:karaage:20170901152610j:plain:w640

京都伏見稲荷大社で千本鳥居の写真を撮る

 京都に出張に行ったとき、早めに仕事が終わったので帰りに前から行きたかった京都伏見稲荷大社に寄ってきました。一度千本鳥居の写真を撮ってみたかったのですよね。

f:id:karaage:20170901152828j:plain:w640
 鳥居が綺麗

f:id:karaage:20170901152916j:plain:w640

f:id:karaage:20170901152926j:plain:w640
 狛犬の代わりに狐

千本鳥居

 お目当の千本鳥居です。

f:id:karaage:20170901153337j:plain:w640
 凄い迫力

f:id:karaage:20170901153630j:plain:w640
 鳥居鳥居鳥居

f:id:karaage:20170901153522j:plain:w640
 広角レンズで撮ってもこの密集度

f:id:karaage:20170901154041j:plain:w640
 途中二つに分かれます

f:id:karaage:20170901154155j:plain:w640
 ちょっと狭くなりました

f:id:karaage:20170901154529j:plain:w640
 外から見てもこの密集度

f:id:karaage:20170901154840j:plain:w640

f:id:karaage:20170901155349j:plain:w640
 ところどころに小さな鳥居

f:id:karaage:20170901155404j:plain:w640

f:id:karaage:20170901155622j:plain:w640
 狐

f:id:karaage:20170901155656j:plain:w640
 狐

四ツ辻

f:id:karaage:20170901162326j:plain:w640
 四ツ辻というところで一休憩

f:id:karaage:20170901161432j:plain:w640
 ラムネソフトクリーム食べる。美味しかった

f:id:karaage:20170901162358j:plain:w640

f:id:karaage:20170901162732j:plain:w640
 京都が一望できる絶景ポイントがあります。

f:id:karaage:20170901162819j:plain:w640
 良い景色

帰り道

 もっと上の方にも行けるのですが、時間も体力も尽きてしまったので引き返しました。

f:id:karaage:20170901163436j:plain:w640

f:id:karaage:20170901163536j:plain:w640

f:id:karaage:20170901163545j:plain:w640

f:id:karaage:20170901163836j:plain:w640
 猫ちゃんポイント

まとめ

 京都は何度か行ったことあるのですが、伏見稲荷大社には初めて行きました。なかなか見ごたえありますね。平日だったにもかかわらず外国人の観光客で一杯でした。もっと上まで登ってみたいですし、人が減りそうな夕方や夜だと幻想的な写真が撮れそうだなと感じました。

 思ったより坂が大変で疲れてしまい、おもかる石とか、スズメの焼き鳥とかの見どころは、全てすっ飛ばしてしまいました(笑)またゆっくり訪れたいスポットです。

関連記事

SVM(サポート・ベクタ・マシン)とpythonで空の写真から天気を判定させてみる

$
0
0

f:id:karaage:20170831173544p:plain:w640

SVM(サポート・ベクタ・マシン)

 SVMとは、機械学習の分野で、多数のデータを複数のクラスに分類する問題によく使われるアルゴリズムです。他にも2つのクラスの分類問題に有効なロジスティック回帰というものもあるらしいですが、3つ以上のクラスに分類するときにはSVMが効率がよいのでよく使われる(らしいです)。

 SVMに関しての概要は、以下の記事がわかりやすそうです。

 あと、ちょっとクセは強いですが、以下の記事も面白く、分かりやすいかもしれません

 SVMを含む機械学習手法と、ディープラーニングとの関係を知りたい方は、以前書いた以下記事を参考にしてみて下さい。

 今は、認識や判別というと、とにかくディープラーニングという印象がありますが、一昔前は認識・判別といえばSVMでした(らしいです)。ディープラーニングより多くの場合、結果がわかりやすい、少ないデータでうまくいく、計算量が少ないといった特徴ががあるため、今でも好んでSVMを使う人は多いようです。というわけで一度やってみることにしました。参考にした書籍などは、本記事の最後に紹介しますので、よろしければ参考にしてみて下さい。

 本記事では、参考書籍をもとにscikit-learnというpythonのパッケージを用いて、MacとRaspberry Piで動かしました。

SVMを使ったお天気の判定

 今回は例題として、空の写真から天気の判定をしてみようと思います。空の画像をもとに、青空、曇り空、夜空を判定させるだけです。ちなみに、今回そんなにうまくいってないので、結果には期待しないでくださいw あくまでSVMの使い方がメインです。

データ準備

 空の写真のデータ取得。最初は、涼風真世さんのブログからダウンロードしていこうと思ったのですが、途中で精神を病みそうになったので、技術の力に頼ることにしました。

 そうして、生まれたのが以下の闇のスクリプトです。

 以下のようなコマンドを実行すると、青空写真がどんどんネットから集まってきます。我に力を…

$ python get_images_yahoo.py "青空"

pythonでSVMを実行するためのセットアップ方法

 SVMはpython上で行います。SVMを使えるライブラリは複数あります。SVM専用のライブラリであるLIBSVMと機械学習の総合ライブラリであるscikit-learnの両方試したのですが、ネット上での説明例が豊富で、データセットのダウンロードができる、他の機械学習にも応用ききそうという理由で、自分はscikit-learnが良さそうだなと感じました。

 よって、ここからはMac(iMac Retina 4K, 21.5-inch,2017)とRaspberry Piでのセットアップ方法を説明していきます。

Macでのセットアップ方法

 Macで使用するパッケージとバージョンは以下です。

  • python 3.6.2
  • sklearn 0.19.0
  • numpy 1.13.1
  • scipy 0.19.1
  • matplotlib 2.0.2
  • OpenCV2 3.3.0

 Macでは、pyenvを使ってpython環境を構築しました。pyenvに関しては下記記事参照下さい。

 上記記事のpyenvのインストールまで完了したら、具体的には以下コマンドで必要なパッケージをインストールしたpython環境を構築します。

$ pyenv install anaconda3-4.4.0 
$ pyenv global anaconda3-4.4.0
$ conda create -n svm python
$ pyenv global anaconda3-4.4.0/envs/svm
$ pip install numpy
$ pip install sklearn
$ pip install scipy
$ pip install matplotlib
$ pip install opencv-python

 condaでパッケージインストールすると、バージョン関係でうまくいかなかったので全てpipでインストールしています(pythonの闇を見てしまった気がします…今回は見ないふりしました)。

 matplotlib関係でエラーが出た場合は、以下記事参照して設定ください。

 これで環境は構築できました。

Raspberry Piでのセットアップ

 Raspberry Piでは、色々な事情によりPython2を使っています。使用するパッケージとバージョンは以下です。

  • python 2.7.13
  • sklearn 0.18
  • numpy 1.12.1
  • scipy 0.18.1
  • matplotlib 2.0.0
  • OpenCV2 2.4.9.1

 Raspberry Piの基本的なセットアップに関しては、以下記事参照ください。 karaage.hatenadiary.jp

 上記記事を参考に、基本的なセットアップを完了させましょう。

 あとは、ターミナルで以下コマンドを実行して必要なパッケージをインストールします。

$ sudo apt-get update
$ sudo apt-get install python-pip
$ sudo apt-get install python-numpy
$ sudo apt-get install python-sklearn
$ sudo apt-get install python-scipy
$ sudo apt-get install python-matplotlib
$ sudo apt-get install python-opencv

 pipを使っていないのは、インストールの時間短縮のためです。

SVMテスト

 ここからは、Mac, Raspberry Pi共通の手順となります。例によって、pythonでSVMをテストするための簡単なプログラムを作ってみました。

 以下コマンドを実行すると、irisという機械学習で分類問題に使われるデータセット(scikit-learnに含まれています)を使って、SVMで分類をします。ちなみにirisは花(アヤメ)の種類と特徴の変数がセットになったデータらしいです。

$ git clone https://github.com/karaage0703/svm-pi
$ cd svm-pi
$ python svm.py

 以下がscikit-learnでチューニングした分類の様子です。

f:id:karaage:20170831173544p:plain:w640

 赤、白、青の丸が、iris(花)の種類を表しています。なんかうまいこと分類してくれるのがわかると思います。分かりやすく可視化するために、2次元の変数としていますが、多次元変数も、もちろん扱えます。

空の写真から天気の判定

 いよいよ、天気の判定です。ディープラーニングだと、とりあえず画像を入れれば良い感じに判別してくれるのですが、SVMの場合は判別するための特徴量を画像から抽出する必要があります。このとき、どういう特徴量を使うかで判別できるかできないかが決まってきます。

 今回は、簡単に色を使ってみることにしましょう。事前に軽くフィルタリングをかけてから(空以外の建物などを除くため)、画像の色の平均値(RGB値)を計算します。

 以下のような構成でフォルダを構成します。

svm-pi
 |- data/
       |--- 01/sky_01.jpg, sky_02.jpg, ...
       |--- 02/sky_01.jpg, sky_02.jpg, ...
       |--- 03/sky_01.jpg, sky_02.jpg, ...
$ python make_svm_data.py data

 すると、 /tmp/svm/svm.tsvという特徴量を抽出したテキストファイルが生成されます。念のため、ファイルの中身を見て変なデータ(nanなど)がある行は取り除いておきましょう。

 あとは、以下コマンド実行すると、SVMで分類できます。

$ python test_svm.py /tmp/svm/svm.tsv

 以下のようなグラフbest_tuned.pngが生成されます。

f:id:karaage:20170901231501p:plain:w640

 割とそれっぽく分類できたように見えますが、うまく分離できず、混じってしまっているところも多いですね。この結果から、特徴量の抽出をもう少し工夫した方が良さそうだなとわかります。前処理のフィルタのパラメータや、単純に平均をとる以外も考えた方が良さそうですね。

 この学習結果を使って、空の写真を撮って、天気を判別させる。といったことももちろん可能です。が、今回は省略します。興味ある人はやってみてください。

まとめ

 SVMを使って簡単な分類問題に挑戦してみました。教師ありデータを簡単にクラス分けするなら、SVMが最適かなと思います。ディープラーニングは、流行りではありますが、SVMで解けるような問題にディープラーニングを使って、貴重な計算資源や時間を無駄に使わないようにしたいですね。

 また、画像認識ではディープラーニングとSVMを組み合わせることで、計算コストを削減するということにも使われるらしいです。具体的には、学習済みのディープなニューラルネットワークを特徴量抽出器として使ってSVMで判定するようです(いわゆる転移学習の一種になるのかなと思います)。機会があればそういった組み合わせにもチャレンジしてみたいですね。

参考書籍

Interface(インターフェース) 2016年07月号

Interface(インターフェース) 2016年07月号

 Interface誌。Raspberry Piでの例が書かれていますが、SVMの説明が非常に分かりやすかったです。この号は全体的に結構面白くためになりました。

データサイエンティスト養成読本 機械学習入門編 (Software Design plus)

データサイエンティスト養成読本 機械学習入門編 (Software Design plus)

  • 作者:比戸将平,馬場雪乃,里洋平,戸嶋龍哉,得居誠也,福島真太朗,加藤公一,関喜史,阿部厳,熊崎宏樹
  • 出版社/メーカー:技術評論社
  • 発売日: 2015/09/10
  • メディア:大型本
  • この商品を含むブログ (7件) を見る
 この本は、全体的にさらっとしか書いていないです。ちょっと興味があって概要が知りたいなという人向けでしょうか

Pythonではじめる機械学習 ―scikit-learnで学ぶ特徴量エンジニアリングと機械学習の基礎

Pythonではじめる機械学習 ―scikit-learnで学ぶ特徴量エンジニアリングと機械学習の基礎

  • 作者: Andreas C. Muller,Sarah Guido,中田秀基
  • 出版社/メーカー:オライリージャパン
  • 発売日: 2017/05/25
  • メディア:単行本(ソフトカバー)
  • この商品を含むブログを見る
 最近買った本です。がっつり機械学習の基礎とscikit-learnの使い方が書かれています。実はこの記事を書き終えてから買ったのですが、もっと早く買っても良かったかもしれません。良書の予感がビンビンしてますのでこれから読み進めていきます。

 ちなみにこの本は、下記記事を読んだその日に本屋で立ち読みして購入しました(笑)

📚最近弊社で買ったデータ分析入門書📚 - Misoca開発ブログ

関連記事

参考リンク

sklearn.metrics.accuracy_score — scikit-learn 0.19.0 documentation

Scikit learnより グリッドサーチによるパラメータ最適化 - Qiita

旅行する前に「旅のしおり」製作のススメ

$
0
0

f:id:karaage:20170917214336p:plain:w480

旅行の前にしおりを作ろう

 最近、旅行行く前はしおりをつくるようにしていますが、そのことに関して書いたことなかったことに気づいたので書いて見ます。

 学生のころは、全く予定も決めずにふらっと旅をすることが多かったのですが、社会人になって、旅行の前にしおりを作ることが多くなりました。最初は、iBooks AuthorというMacのアプリを使いたかったという不純(?)な動機だったのですが、しおりを作ると以下のようなメリットがあることが分かって来ました。

  • 思わぬお得情報・イベント情報を入手できる
  • 当日不慮の事態に陥っても、慌てることがない
  • 作るのが結構楽しい

 この前のラグーナにいったときを例に紹介したいと思います。

思わぬお得情報・イベント情報を入手できる

 行き先をネットで調べるだけで、思わぬお得情報やイベント情報を入手できることがあります。

 情報強者ってやつですね。ラグーナに行った時も、事前に調べたおかげでホテルの朝食の混み具合とか夜の花火のイベント情報が分かり、十二分に楽しめました。

当日不慮の事態に陥っても、慌てることがない

 不足の事態に陥ったときも、事前に予定組んでおいた方が意外とアドリブが聞きます。ラグーナのときも、実は1日目に雨が降ったため大幅に予定を変更したのですが、しおりがあると、行く場所やイベントがまとまっているので、入れ替えるだけで対応ができたりします。

 このときも、1日目と2日目のイベントを2つほど入れ替えるだけで対応できました。

作るのが結構楽しい

 これが一番大きいかもですね。しおりって結構作るの楽しいです。イラストとか入れるとなおのことです。めんどう臭いと感じるかもしれませんが、一度作ってフォーマットが決まってしまえば2,3日の旅行のしおりなら、1日もあれば作れると思います。

しおりの作り方

 私が使うアプリは主に以下の3つです。

  • Mac iBooks Author
  • iPad Procreate
  • Google My Map

iBooks Author

 iBooks Authorで全体を構成します。iBooks Authorの使い方に関しては、以下参照ください。

 「私のしおりのフォーマットが欲しい!」という奇特な方は、私の過去のしおりの例を本記事の最後にリンクしておきますので、好きにつかってみて下さい。

Procreate

 絵を描くのには、iPadのProcreateを使っています。使い方は以下参照ください。

 私は慣れているのでこれを使っていますが、適当な紙に手書きで書いて、スマホのカメラで撮影しても良いかなと思います。

Google My Map

 GoogleのMy Map使ってカスタムの地図を作っておくと、目的地の位置関係の把握もできますし、そのままスマホでナビもできるので便利です。詳しくは、あかめさんの以下記事がわかりやすいです。

 特に、遠出するときはなるべく作るようにしています。この前山梨に行ったときもマイマップ作りました。

しおりの保管場所

 以前はiPad Zineという素晴らしいサービスがあったのですが、今は中々良いサービスないですね。現状は、GitHubを使って保存、公開をしています。公開したく無い場合は、BitBucketを使うのがよいでしょう。

 GitHubのアドレスは以下になります。

 GitHubって何?って人は以下参照ください。

 ただ、GitHubだとバイナリファイルを管理すると、commitするたびにガンガン容量が増えていくのが難点です。自分の対策としては、しおりは一旦完成すると、過去の履歴はそんなに需要じゃないので、定期的にcommitを削除しちゃうのが良いかなと思っています。

 具体的には、以下コマンドで .gitを作り直しちゃって強制的にpushします。<your repository adress>のところには、自分のリポジトリのアドレスを入れて下さい。作業する前はバックアップとっておくのと、普通にプログラム開発するときには絶対使わないような禁断の技ですので、理解した上で使用ください。もっと良いやり方や、サービスをご存知の方いらっしゃったら、是非こっそり教えて下さいね。

$ rm-rf .git
$ git init
$ git remote add origin <your repository address>
$ git push --force origin master

まとめ

 旅のしおり作りのススメでした。いろんな人が旅のしおりや旅行の感想をネットで公開すると、旅行行くときの参考になって良いなと思うので、色んな人がしおりを作って公開してくれると良いなと願っております!

 ちなみに、冒頭のアイキャッチの画像は、つい先日行ってきた、ぶどう狩りのしおりの表紙です。友人の間での評判は…まぁまぁでした!

関連記事(過去のしおりの例)

天気予報情報・Googleカレンダーの予定をpythonで取得する方法@Raspberry Pi/Mac

$
0
0

f:id:karaage:20170913235655j:plain:w640

Raspberry Pi/Macを秘書代わりにしたい

 毎日天気予報や今日の予定を教えてくれると、Raspberry Piを秘書代わりにできそうですね。というわけで、天気予報情報やGoogleカレンダーの予定をpythonで取得する方法を調べてみました。この後は興味のない人は退屈な宇宙語が続くので、興味ある方のみご覧下さい。

Googleカレンダーの予定通知

Macでの設定方法

 私はPyenvを使ってセットアップしました。

 python2系を想定していますが、多分python3でも動くでしょう。インストールしたライブラリはgoogle-api-python-clientだけです。以下コマンドでインストールできます。

$ pip install google-api-python-client

Raspberry Piでの設定方法

 以下記事を参考に基本的なセットアップを完了させます。

 後は、ターミナルで、以下コマンド実行して必要なライブラリをインストールします。

$ sudo apt-get install python-pip
$ sudo pip install google-api-python-client

Google API登録

 以降は、Mac, Raspberry Pi共通です。pythonでGoogleカレンダーの予定を取得するには、Google API ConsoleでGoogle APIのカレンダーが使えるように登録が必要となります(回数の制限はあるようですが、無料でも使えます)。

 Google Calendar APIの登録方法は、以下サイトが非常に参考になりました。

 お好きなPC(Raspberry PiでなくてOK)で上記サイトの設定をStep1まで実施下さい。

 Step2以降は、本記事参照下さい。

Googleカレンダー予定取得

 続けて、以下コマンド実行下さい。

$ wget https://raw.githubusercontent.com/karaage0703/home-made-bot/master/get_gcal_schedule.py
$ python get_gcal_schedule.py

 実行すると、自動的にブラウザが立ち上がり、以下のような認証画面に遷移しますので、ログインしてOKをクリックしGoogle Calendarへのアクセスの許可を与えます。下記画面はRaspberry Piのものですが、Macでも基本的には同じ要領でOKです。

f:id:karaage:20170908095943p:plain:w640

 認証が完了すると、実行した当日のGoogleカレンダーの予定を取得することができます。デフォルトでは、メインのカレンダーの情報のみ取得されますが、マイカレンダーの情報を取得したい場合は、google calendarにアクセスし、カレンダーの情報から、カレンダーIDを確認します(以下表示のIDです)。

f:id:karaage:20170908100712p:plain:w640

 あとは、get_gcal_schedule.pyの70行目のcalendarIdの値をIDのアドレスに書き換えてやることで、好きなカレンダーの情報を取得できます。私の場合は、家族で共有しているGoogleカレンダーを設定しています。

 家族でGoogleカレンダー共有する方法に関しては、下記記事参照下さい。

 あとは、もう一度プログラムを実行すると、予定が取得できます。

$ python get_gcal_schedule.py 
0730分に
ゴミ出し

 Googleへの認証を解除したくなった場合(他のアカウントで連携したくなったときなど)は、以下にログインして解除しましょう。

Sign in - Google Accounts

天気予報通知

 pythonの環境は、Googleカレンダーの予定通知と同じままでOKです。ターミナルで、以下コマンドでファイルダウンロードしてください。

$ wget https://raw.githubusercontent.com/karaage0703/home-made-bot/master/get_weather.py

 以下コマンド実行すれば、天気予報が表示されます。Livedoor提供の天気予報WebAPIを使っています。

$ python get_weather.py
今日の天気は晴れだよ。 明日の天気は晴れだよ。 今日の予想最高気温、不明。予想最低気温、不明だよ

 基本的には参考サイトの情報のままなのですが、都市を自分の住んでいる都市(名古屋)に変えました。都市のidは以下を参照しました。

livedoor Weather Hacks APIで、お天気データのJSONを取得するための1次細分区(cityタグ)の地域id一覧まとめ | 現役Web屋のアフィリエイト

 プログラム的には、LivedoorのAPIの情報、たまにnullが混じっていて、プログラムが落ちてしまう時があるので少しケアしています。pythonでの2次元配列のチェックの仕方、もっとうまい方法あれば誰かこっそり教えて下さるか、GitHubにPRいただけるとありがたいです。

まとめ

 pythonを使って、天気予報情報・Googleカレンダーの予定を取得できました。音声認識や音声合成を組み合わせると、自分だけの秘書ロボットができそうですね。というわけでそのうち作っていこうかなと思います。

関連記事

参考サイト

Raspberry Piに現在時刻と、天気をしゃべらせてみた(Python): Raspberry Piでやってみた

お天気Webサービス仕様 - Weather Hacks - livedoor 天気情報

10年以上ぶりのプラモデル「Figure-riseBust 初音ミク」でプラモ界の進化にびっくりした

$
0
0

f:id:karaage:20170906013637j:plain

10年以上ぶりにプラモデルを買った経緯

 こういうわけです。

プラモデルを作る

 プラモデルの詳細は、タケル (id:sfTKL)さんの記事参照ください。

 私はiPhoneで撮った写真を載っけるだけです。そう、これが手抜き記事です(笑)

f:id:karaage:20170906013705j:plain:w640
 久しぶりのプラモデル。ちょっとワクワク  

f:id:karaage:20170906013722j:plain:w640
 ジャーン

f:id:karaage:20170906013651j:plain:w640
 1時間くらいでサクッと完成

f:id:karaage:20170906013637j:plain:w640
 ポーズ決めてみる

まとめ

 久しぶりにプラモ作ってみました。プラモ作ると心落ち着きますね。精神統一によいかもしれません。子供の頃ガンダムのプラモ作ったの思い出しました。ただ、今時のプラモデルの方が、出来が良いので作ってて気持ち良いですね。ニッパーで気持ちよく切れるし、パーツ同士も気持ちよくハマります。そして何よりミクさんが可愛い!最高です。

フィギュアライズバスト 初音ミク 色分け済みプラモデル

フィギュアライズバスト 初音ミク 色分け済みプラモデル

中判フィルムカメラのゼンザブロニカS2をお借りしました

$
0
0

f:id:karaage:20170910234252j:plain:w640

中判フィルムカメラのゼンザブロニカを手にいれた経緯

 ちょっと電波な実験がしたくて、元々ハッセルブラッドが欲しいなと思っていたのです。変デジ研究所のロンスタさんが持っています(変でもデジでもないのに)。

 ただ、ハッセルブラッドは高い…そんな落ち込む私に複数の人が教えてくれたのが、「ゼンザブロニカがあるよ」という声。なんでも、吉野善三郎という日本の方が作ったからゼンザブロニカらしいです。まさかの国産!

 ずっと迷っていたのですが、意を決して買いに行こうとtwitterで決意表明したところ…

 ネットってしゅごい。なんとtako3(id:tako3ch)さんにお借りできることになりました。お借りしたゼンザブロニカの詳細は以下参照ください。

 やったー!

ゼンザブロニカS2

ゼンザブロニカS2ファーストインプレッション

f:id:karaage:20170910234252j:plain:w640
 見た目はめちゃめちゃ良い感じ!ぱっと見は本当ハッセルですね。

f:id:karaage:20170910234231j:plain
 ファインダの写りもかなり良いです!くらくらしますね

フィルム交換の仕方

 お借りするときにtako3(id:tako3ch)さんにレクチャいただいた、フィルム交換の方法を写真付きで大公開します。自分のために!

f:id:karaage:20170910234232j:plain:w640
 遮光板をグッとおしこむ

f:id:karaage:20170910234233j:plain:w640
 するとフィルムマガジンがパカッととれる

f:id:karaage:20170910234234j:plain:w640
 パカッととれたフィルムマガジン

f:id:karaage:20170910234235j:plain:w640
 スイッチをスライド

f:id:karaage:20170910234236j:plain:w640
 パカッと開く

f:id:karaage:20170910234237j:plain:w640
 レバーを押して

f:id:karaage:20170910234238j:plain:w640
 さらにパカッと開く

f:id:karaage:20170910234239j:plain:w640
 撮り終わると左側にあるフィルム巻き取るやつを

f:id:karaage:20170910234240j:plain:w640
 取り外して右側に移動

f:id:karaage:20170910234241j:plain:w640
 移動完了

f:id:karaage:20170910234242j:plain:w640
 次に取りいだしたるはブローニーフィルム(中判フィルム)

f:id:karaage:20170910234243j:plain:w640
 ビローっと伸ばして

f:id:karaage:20170910234244j:plain:w640
 とりつけて

f:id:karaage:20170910234245j:plain:w640
 先を押し込む

f:id:karaage:20170910234246j:plain:w640
 ぐるぐる手で巻く

f:id:karaage:20170910234247j:plain:w640
 STARTってところが見えるまで巻いたらOK

f:id:karaage:20170910234248j:plain:w640
 フィルムバックに取り付ける

f:id:karaage:20170910234249j:plain:w640
 カメラ本体に取り付け、フィルム枚数を12枚に設定

f:id:karaage:20170910234250j:plain:w640
 キュルキュルフィルムを巻きあげましょう

f:id:karaage:20170910234251j:plain:w640
 最後に遮光板を引き抜きましょう

 あとは、右手前下にあるシャッタボタンを押すと、派手な音がしてシャッタが切れます。

 フィルム巻き上げていなかったり、遮光板を抜いていないとシャッタが切れないので注意です。

まとめ

 ゼンザブロニカS2お借りしました。これで色々実験していこうと思います!うまくいったら、お買い上げ…かもです!使ってみた感想ですが、とにかく重いですね。写真撮る時も、レンズキャップもねじ込み式で外すのに時間かかりますし、遮光板抜かないといけないし、ファインダーは左右が反転するので、うまく水平すらとれないと難し過ぎるカメラです(笑)

 でも作られてから半世紀近く経っているカメラが、これだけまだ普通に使えるというのはちょっと感動ものですね。フィルムで撮った写真や、実験の結果はまたうまくいったら紹介しようと思います。それでは!

関連記事


「新しい地図」のネット活動をフォローする方法・必要なデバイスまとめ

$
0
0

何故私がこの記事を書くのか

 一応最初に説明しておきますと、私がこの記事を書くことが決まったのは昨日のことです。妻から

「新しい地図」のネット活動をチェックする方法をわかりやすくまとめてブログにアップして下さい」

 という使命を帯びたのです。我が家では、妻の命令は絶対なのです(妻ファースト)。10月2週くらいまで予約投稿してあった記事の日付を全て修正してこの記事を押し込みました。

 ここまで読んで予想がつくかとは思いますが、妻と義母は激しいSMAPファンなのです。「別にネットサービスなんて、調べて必要があれば登録するだけじゃん」と思ったのですが、義母のように還暦近い年の人にとっては、中々そうもいかないみたいです。妻の予想によると、ネット活動の開始まで1ヶ月近い時間を取っているのは、そういう高年齢のファンが自力でネットサービスを観れるようにするための猶予期間という位置付けではないかとのことです。

 それは、自分にはない発想だったので、ちょっと衝撃でした。敢えて待つというのも一つのファンサービスの形なのかもしれませんね。実際、SMAP解散に意気消沈していた義母も、元気を取り戻しネットサービスを使う気満々らしいです。これを機に、世代間のデジタルデバイドが少しでも解消したら、それはそれで良いことかなとか思ったりします。この記事も、デジタルデバイド解消に少しでも役に立てれば幸いです。

 ちなみに、私はSMAP・新しい地図に関しては、世間の平均以下の知識くらいしか持ち合わせていません(一応メンバ全員の名前は分かるくらい)ので、そこのところはご了承下さい。

新しい地図のネット活動をウォッチする方法・必要なデバイスまとめ

 ここからが本題です。ちなみに、これから準備するものでまだ全部試せてはいない点はご了承下さい。もし、不足情報や、もっと良い方法があれば、そっと教えてもらえると泣いて喜びます(主に妻と義母が)。

ポータルサイト

 新しい地図の公式サイトは、以下になります。基本的に、情報はここに集まっているようです。最新情報などもここをチェックすると良さそうですね。

 Joinというところから、ファンクラブになることができるようです。妻と義母はもちろん入会済みです。私も誘われましたが、今回は固辞いたしました。ファンクラブになると、メルマガなどで最新情報もゲットできるようなので、入会はファンにとっては基本戦略となりそうです。

 ネット活動は、Webサイトから把握できる限りだと以下のようです。順にキャッチアップする方法を説明しようと思います。

  • Twitter
  • Youtube
  • Abema TV
  • Amebaブログ
  • Instagram
  • Line/Facebook/weibo

Twitter

 公式とメンバ3人がそれぞれアカウントを持っているようです。現状、発信しているのは公式アカウントのみです。本格始動は10/16からのようなので、メンバの投稿はそれからになるのかもしれません。公式とメンバー全員がそれぞれアカウント重視しているので、twitterはかなり力を入れて行くのかもしれませんので、ここはフォローした方がよいでしょう。

 Twitterは以下サイトから無料で登録ができます。

 iPhoneやAndroidのスマホで使いたい場合は、たくさんアプリがあるので、好きなものを使うと良いでしょう。私は、有料になりますが「feather」というアプリを入れています。

feather for Twitter - 軽快なツイッターアプリ

feather for Twitter - 軽快なツイッターアプリ

  • covelline, LLC.
  • ソーシャルネットワーキング
  • ¥360

 「feather」に関しては、以下サイトの記事が参考になるでしょう

Youtube

 活動の告知には、積極的にYoutubeを活用しているようです。まず登録すべきチャンネルは、以下の「新しい地図の公式チャンネル」でしょう。

 また、YouTuber草彅として活躍予定の草彅さんは、「AbemaTV公式 YouTube」で公開されるようなので、こちらも登録するのが良さそうです(関係ない動画も色々流れるので、専用チャンネルがあった方がよいのになとは感じました)。

 Youtubeのチャンネル登録や、コメントをするには、Googleアカウントが必要になります。以下から無料で登録できます。

Google アカウントの作成

Abema TV

 Abema TVの目玉は、11月2日(木)21:00 〜 11月3日(金)21:00 の3日間に渡って放送する「稲垣・草彅・香取 3人でインターネットはじめます『72時間ホンネテレビ』」でしょう。

 ネットにつながれば基本的には無料でみることができます。プレミアムプランというものもありますが、基本見逃したものを後でみることができるようになるサービスなのと、上記の番組は対象外のようなので慌てて入る必要はないでしょう。

 パソコンやiPadで見るのもよいですが、3日間の長丁場になりますし、TVで見たい方も多いと思います。そういうときはFire TV Stickが良さそうです。

Fire TV Stick (New モデル)

Fire TV Stick (New モデル)

 Abema TV専用のアプリがあり、TVの画面でネット番組が楽しめます。条件としては、TVにHDMI入力があることと、家で無線LAN(WiFi)が使えることです。

 Apple TV(第四世代)もAbema TVに対応していますが、こちらは高いですね(Fire TV Stickの3倍以上)。Air PlayでMacやiPadのミラーリングができたりと、色々便利なのですが、このためだけに買うのは得策ではないかなと思います。

Amebaブログ

 ブロガー稲垣吾郎として、稲垣さんがAmebaブログを開始するようです。

稲垣吾郎オフィシャルブログ Powered by Ameba

 コメントができる形式になるかは不明です。アメーバIDを登録すると、読者になることができますが、ブログという形式上、慌てて登録しなくても大丈夫かなとは思います。  

Instagram

 公式のアカウントに加えて、インスタグラマー香取として、香取さんがInstagramをやるそうです。

 Instagramを登録すると、「いいね」や、コメントなどができるようになります。Instagramの使用は、基本iPhone/Androidなどのスマホのアプリが前提となります。以下記事などを参照するのがよいでしょう。

Line/Facebook/weibo

 ここらへんは、私があまり使ってないサービスなので正直よくわかりません。登録無しの範囲で少し見た感じだと、基本的には、それぞれのサービスを使っている人向けに、Twitterと同じような内容が投稿されるようなので、全部無理して登録する必要はないと思います。もし既に使っているサービスがあるなら、登録しておく位が良さそうです。

まとめ

 一通りまとめられたと思います。ファンクラブに加入を前提に、Twitter、Youtube(Googleアカウント)、Instagramあたりを登録して、Abema TVに関しては、Fire TV Stickを購入して備えておけば、ファンとしては大体楽しめるのではないかと思います。しかし、これほど広範囲にネットを活用するとは中々凄いですね。

 新しい地図の活動やSMAPの解散に関しては、私はそんなに事情に詳しくないので語れることも少ないのですが、ブラックな大企業をやめてベンチャーに行くか行かないかみたいな話だと理解しています(全然違ったらすみません)。メンバの誰かに共感するとすれば、子供を持つ親として、木村さんの気持ちは分かるような気が勝手にしています。誰にどう思われようと、守るべきものを守る姿は尊いと個人的には思います。

 一連の動きが、全てがメンバの再合流のための計画だった、みたいなウルトラC的な展開があると良いですね、と書いておきます(妻サービスのつもり)。

関連記事

高品質な木の知育玩具「ネフスピール(Neaf-Spiel)」を子供の誕生日プレゼントに購入しました

$
0
0

f:id:karaage:20170604185359j:plain:w640

ネフスピール

 スイスのネフ社の積み木の子供用知育玩具です。少しお高めではありますが、木の手触りが良く、色々な積み方ができるので子供の発想力を引き出すことができます。娘の2歳の誕生日プレゼントに買ったのですが、結構お気に入りのおもちゃらしく、良く一緒に遊んでいるので紹介してみたいと思います。

ネフスピール写真

f:id:karaage:20170604183944j:plain:w640
 外観

f:id:karaage:20170604183850j:plain:w640
 広げた様子

f:id:karaage:20170604184037j:plain:w640
 色々な積み方ができます(注:この冊子は本体には付属しません)

f:id:karaage:20170604184247j:plain:w640
 こんな積み方もできます

f:id:karaage:20170604184428j:plain:w640
 簡単な積み方もできるので、子供が小さくても遊べます

f:id:karaage:20170604185359j:plain:w640
 こんな積み方もいずれできるようになるかも(大人が積みました)

ダイナミックな動き

 ネフスピールは、うまく積むとダイナミックな動きをつけることもできます。

f:id:karaage:20170912004632g:plain:w640
 縦方向

f:id:karaage:20170912004648g:plain:w640
 横方向

 子供も大喜びです

ネフスピールの購入

 愛知県刈谷市にあるカルテットさんで購入しました。色々付属品や使い方の動画へのリンクなどをつけてもらえるのでお得だと思います。カルテットさんは、他にも色々なおもちゃを試して購入することができるので、子供のおもちゃを考えている方でお近くにお住いの方にはオススメです。一応言っておきますが、お店の関係者ではありません(笑)

 もちろんAmazonでも普通に買えます。お好みでどうぞ

Naef/ネフ社 ネフスピール

Naef/ネフ社 ネフスピール

まとめ

 娘の2歳の誕生日に購入した「ネフスピール(Neaf-Spiel)」を紹介しました。ちょっとお高めの玩具なので実は親に援助してもらいました(笑)最初に書いた通り、結構気に入ってくれているようで、割と使用頻度が高いおもちゃになっています。娘自身は、最初は簡単な組み方しかできないのが、段々色々な組み方ができるようになっていくのが楽しいようです。大人も子供の成長を感じることができますし、木の手触りもデザインも良いので、大人が遊んでも楽しく、飽きのこない良いおもちゃと思います。

関連記事

フリスクサイズのIoTデバイス「Nefry BT」をセットアップしてみた

$
0
0

f:id:karaage:20170919010952j:plain:w640

Nefry BT

 Nefryに関しては、以下記事参照下さい。

 クラウドファンディングで購入していて、例によってしばらく積み基板していたのですが、ようやく少し触れたのでセットアップ方法をメモしておきます。

Nefry BTセットアッップ

 基本的には、以下を参照します。

Nefry BTとは | dotstudio

 以下ドキュメントを補足に使うとよいでしょう。Macでの動作保証はできないとか怖いこと書いてありますが、ちゃんMacで動きました。

Nefry(ESP32)ドキュメント.pdf - Google ドライブ

Nefry起動確認

 ディスプレイを接続して、適当なUSBポートに突っ込みましょう。以下みたいなIPアドレスが表示されたらとりあえずOKです。

f:id:karaage:20170919011125j:plain:w640

Arduino IDE設定・書き込み

 まずは、普通にマイコンボードとして書き込みテストをしたい派なので、そのように設定していきます。以下のページを見ていけば大丈夫なのですが、マニュアルに書いてないことを中心に少し補足していきます。

Nefry BT向けのArduino IDEセットアップ方法 | dotstudio

 まずArduinoのIDEのインストールですが、MacならHomebrew Caskで、以下のコマンド一発でインストールできます。

$ brew cask install arduino

 Homebrewって何?という人は以下記事参照ください。

 Homebrewとか使いたくないという人や、Windowsの人は、以下の公式サイトから普通にダウンロードしてもOKです。

Arduino - Home

 あとは、設定画面の追加のボードマネージャのURLに以下アドレスを入力します。

https://nefry.studio/package_nefrybt_index.json

f:id:karaage:20170919000936p:plain:w640
 こんな感じね

 あとはボードマネージャーからNefryをインストールしましょう

f:id:karaage:20170919000944p:plain:w640

 その後、Arduino IDEの設定は以下としました(他はデフォルト)。書き込み速度は115200が良さそうです。デフォルトの設定だと私の環境では、最初書き込み失敗しました。

ボード -> Nefry BT
Upload Speed -> 115200
シリアルポート -> /dev/cu.usbserial.xxx

 最初に、FullColorLEDというスケッチ例を書き込みます。(ファイル->スケッチ例->Nefry->FullColorLEDで選択できます)。

f:id:karaage:20170919005529p:plain:w480

 ファイルを上記のように開いた後は、左上のチェックボタンと矢印ボタンを順にクリックするとNefryにスケッチを書き込めます。書き込み完了した後、NefryをUSBポートから抜き差ししたら、以下のようにLEDの色が変わる様子が見られます。

f:id:karaage:20170919011050g:plain:w640

Nefry WiFiネットワーク設定

 Nefryと直接WiFiで接続することができます。NefryがアクセスポイントとなってSSIDが見えます。

f:id:karaage:20170919005629p:plain:w640
 こんな感じ

 自分の場合、最初なかなかSSIDが見えなくて焦ったのですが、しばらくすると何故か見えるようになりました(原因不明)。根気が必要なのかもしれません。Nefryにアクセスしてやりましょう。Nefryにアクセスすると、ネットには接続できなくなるので注意しましょう。

f:id:karaage:20170919005642p:plain:w640
 あとは、ディスプレイに表示されたIPアドレスにブラウザからアクセスしましょう(デフォルトだと192.168.4.1

 メニューから、Setup WiFiをクリックしましょう。

f:id:karaage:20170919005747p:plain:w640
 このようなメニューが現れ、アクセスできるWiFiのアクセスポイントが見えます(上の写真だとモザイクのところ)。

 WiFi設定すると、Nefryが家庭(オフィス)のアクセスポイントに接続するようになります。これで、WiFiをNefryから家庭(ホーム)のネットワークにつなぎ変えれば、Nefryにもネットにもアクセスできるようになります。

f:id:karaage:20170919005802p:plain:w640
 Nefryが家庭のネットワークに接続している様子(といってもIPアドレスが変わっただけ)

まとめ

 Nefryのセットアップまで実施してみました。この後何をしようかなーというと、現状何も思いついていません(笑)またきっとそのうち面白い使い道を思いつくでしょう。新しいデバイスというのはそういうものです(笑)

 製作者のわみさん(@wamisnet)によると、ソフトウェアやドキュメントもバリバリアップデート予定とのことですので、そちらにも期待しましょう。それを見たら、何か思いつくかも!

 Nefry/Nefry BTを使うときは、手頃なモバイルバッテリがあると良いかなと思います。自分が手持ちの中で、サイズや使い勝手の点でオススメは以下あたりかなと思います。よろしければ参考にして見て下さい。

関連記事

1年かけて家計を見直して固定費の4万円削減に成功しました

$
0
0

f:id:karaage:20170905013528p:plain:w640

家を買うことになって生まれて初めてライフプランのシミュレーションをしてみた

 実は家庭の事情で家(マンション)を買いました。そのことに関しては、あんまり詳しく書くつもりはないのですが、今までの人生でしたことのない大きな買い物だったので、いくらくらいまでならお金を使えるのか一応自分なりに以下くらいを考慮して計算してみました。

  • 毎月の収入、支出
  • 子育てにかかるお金
  • 老後に必要なお金
  • 貯金の総額
  • もらえそうな退職金
  • 子育て費用
  • 車に必要なお金
  • 旅行に必要なお金
  • 大きな趣味の買い物のお金
  • 両親介護に必要そうなお金
  • マージン

 計算といっても、エクセルにポチポチ入力していって、四則演算をするだけです。具体的な例だと、以下みたいな感じでしょうか。私はもっと全然適当な感じにやりましたが。

 で、やってみた結果ですが、このままいくと我が家は破滅するという衝撃の結論でした(笑)

 このままじゃまずいなと、色々前提を見直して再計算した結果。あと月の支出を5万円ほど減らせばなんとかなりそうというところまで行くことができました。というわけで、我が家の家計ダイエット大作戦が始まったのです。

家計の現状分析

 まずは何はなくとも現状分析。というわけで、家計簿から我が家の支出の内訳を分析してみることにしました。使用するのは、妻が毎月せっせと記録していてくれた家計簿です(妻に感謝)。

 まず我が家の支出の内訳は、以下のような感じでした。

f:id:karaage:20170905013528p:plain:w640

 ここから、割合の大きいものから順に見直せるものに対して、家族で目標と削減案を検討して、家計を見直しました。

f:id:karaage:20170905013537p:plain:w640
 こんな感じ(数字は生々しすぎるのでボカしてあります)

 とりあえず1年間で5万円の削減を目標で色々試行錯誤してみました。

削減できた固定費

 一年後の3ヶ月の支出の平均を元に、前年と比較したら約4万円の固定削減に成功していました。その内訳を紹介したいと思います。

家賃+ガス代 約2万円

 家を買って住み替えた結果、家賃とガス代合計で2万円くらい減っていました。ガスはプロパンから都市ガスに変わったのが大きかったですね。家を買うのは、なかなか重い決断ですが、家の固定費は大きいので、賃貸だったら引越しを考えてみるというのも良いかと思います。その際、ガスもプロパンか都市ガスかも考慮して決めるのが良いかなと思います。

携帯代金 約1.5万円

 これは夫婦で格安SIMに乗り換えたのが功を奏しました。既に半年くらいに使っていますが、夫婦共に不便は特に感じていないです。

各種定額サービス見直し 約0.5万円

 色々なサービスを解約しました。具体的には以下です。

  • 新聞
  • Dマガジン
  • ニコニコ動画プレミアム会員
  • ジャンプ+

 新聞は妻がとっていたのですが、あんまり読んでなかったし捨てるのが邪魔なので解約。月定額で色々な雑誌が読めるDマガジンも結局あんまり活用できていなかったので解約。ニコニコ動画も最近それほど見てなかったし、別にプレミアムじゃなくても良いので解約。ジャンプ+は一番迷ったのですが思い切って解約しました。20年近く読み続けてきたジャンプの購読辞めるのは断腸の思いでしたが、やってみると意外に慣れるもんですね。今は読みたいものだけ、たまに漫画喫茶でまとめて読めば良いかなという感じです。

削減できなかった固定費

 食費とか、お小遣いとか、交際費とかは、結局平均すると削減できませんでした。特に食費は子供がたくさん食べるようになるので、逆に増えていますね。やっぱり人の状態で変動するようなものは、なかなか安定した削減は難しいです。

まとめ

 珍しくお金の話とかしてしまいました(実はお金が好きなんです)。今までは、「どうせ27歳で死ぬ」と思っていたので、ライフプランのシミュレーションとか一度もしたことなかったのですが、結婚して子供が産まれると、流石にそれもまずいかなと思ったのです(今更過ぎですが)。家とかも買わずに済むのなら買わないほうが良いとは個人的に思うのですが(どうせ人口は減り続けるのだし)、そういうわけにもいかないのが人生というものですね。というか、27歳で死ぬとか思わない人たちは多分もっと早くから真面目に考えてるのでしょう。

 ただ、ライフプランとか真面目に考えたら、成り立たたなさ具合にビックリします。全然余裕なのって石油王くらいじゃないのでしょうか?ちなみに、プラネタリウム業界の狂犬こと大平貴之さんの計算によると以下らしいです。

 前提(住む場所、親の状況、子供に受けさせたい教育レベル)によっては、確かにそういう数字も出てくるかもしれないですね。成り立たない場合は、思い切って色々前提を変えてみるしかないですね。例えば、科学技術が発展して人間は働かなくても良くなっているに違いないから老後にお金は残さない、ダメだった野たれ死ぬとか、子供に教育は諦めて早々に働きに出てもらうとか、親の介護のお金がないから…、子供の数を…真面目に考えるほど結構ダークな方向に陥ってしまいます。あと、正直こんなプランいくら真面目に立てても、明日トラックやミサイルが飛んできて死ぬかもしれないしという身も蓋もない事実もあったりします。

 ただ、こういう家計のことや自分たちの将来のことを、たまには家族で真剣に話し合うというのは良いことなのじゃないかなと思いました。我が家は今後も、1年に1回はそういった機会を持って、ほどほどに考えていこうと思っています(なにせ後1万円削減しないと破綻するので)。

pythonで機械学習をするための環境を雑にセットアップする方法(jupyter環境、ディープラーニング環境含む)@Mac/Linux

$
0
0

f:id:karaage:20170925134020p:plain:w480

pythonで機械学習を始める

 最近、pythonで機械学習を勉強したり、色々試したりしています。そんな中、何度もやり直しているのが環境のセットアップ。必要なものを必要なときにインストールしてければ良いのですが、最近は「とりあえずこれだけ入れておけばOKかな」という感じに、環境を雑にセットアップすることが多くなってきました。需要があるかわかりませんが、自分としては大体のことができるので、良い感じかなと思っているので、自分のメモを兼ねて公開してみたいと思います。

 MacはOS X(試した環境はiMac Retina4K 21.5-inch 2017 + macOS Sierra 10.12.6)、LinuxはUbuntu 16.04を想定しています。

pythonの機械学習環境セットアップ

 とりあえず、ターミナルを開いて、下記のコマンドをひたすらコピペしていけばセットアップできるようにしてみました。コマンドの羅列の後に、詳細を説明した記事へのリンクを用意しているので、コマンドの意味とか詳しく知りたい方はそちらを参照してみて下さい。

pyenv/pyenv-virtualenv/Anaconda インストール

 Macの場合は、以下コマンドでHomebrewのインストール.bashrcの設定及びpyenv/pyenv-virtualenvをインストールしましょう

$ /usr/bin/ruby -e"$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"
$ cd
$ curl -L-O https://raw.githubusercontent.com/karaage0703/mac-dotfiles/master/.bash_profile
$ brew install pyenv
$ echo'eval "$(pyenv init -)"'>> ~/.bashrc
$ brew install pyenv-virtualenv
$ echo'eval "$(pyenv virtualenv-init -)"'>> ~/.bashrc
$ echo export PYENV_VIRTUALENV_DISABLE_PROMPT=1 >> ~/.bashrc
$ source ~/.bashrc

 Linuxの場合は、以下コマンドでpyenv/pyenv-virtualenvインストールします

$ git clone https://github.com/pyenv/pyenv.git ~/.pyenv
$ echo'eval "$(pyenv init -)"'>> ~/.bashrc
$ git clone https://github.com/pyenv/pyenv-virtualenv.git $(pyenv root)/plugins/pyenv-virtualenv
$ echo'eval "$(pyenv virtualenv-init -)"'>> ~/.bashrc
$ echo export PYENV_VIRTUALENV_DISABLE_PROMPT=1 >> ~/.bashrc
$ source ~/.bashrc

 あとは、以下コマンドでanacondaの仮想環境を作りましょう。mlはmachine learningの略のつもりですが、好きな名前でOKです。

$ pyenv install anaconda3-4.4.0 
$ pyenv global anaconda3-4.4.0
$ conda create -n ml anaconda
$ pyenv global anaconda3-4.4.0/envs/ml

 上記はpython3系となりますが、色々な事情でpython2系が良いという人は、上記の代わりに以下を実行下さい。

$ pyenv install anaconda2-4.4.0 
$ pyenv global anaconda2-4.4.0
$ conda create -n ml anaconda
$ pyenv global anaconda2-4.4.0/envs/ml

 上記で何をしているか詳しく知りたい方は、以下記事を参照ください。

基本的なパッケージのインストール

 機械学習に(自分が)必要と考える以下のパッケージをインストールします。

  • jupyter
  • numpy
  • scipy
  • matplotlib
  • scikit-learn
  • pandas
  • pillow(PIL)
  • Open CV3
  • mglearn

 Open CV3とmglearn以外のパッケージに関しては、anacondaに含まれているので、何もする必要はないです。

 Open CV3とmglearnは以下コマンドでインストールできます。

$ pip install opencv-python
$ pip install mglearn

 これで一通りの環境が揃いました。

ディープラーニング系

 ディープラーニング系は別枠にしました。自分が入れるのは以下くらいです。

  • TensorFlow
  • Chainer

 インストールは、以下でTensorFlowとkerasをインストールします。

$ pip install tensorflow
$ pip install keras

 以下でChainerをインストールできます。

$ pip install chainer

 あと、たまにdot言語を使ってグラフ図を描くチュートリアルがあったりするので、Graphvizとpydotをインストールしておくと良いです。

 GraphvizはMacだと以下でインストールできます。

$ brew install graphviz

 Linuxだと基本は以下でインストールできると思います。

$ sudo apt-get install graphviz

 pydotはpipを使って以下コマンドでインストールできます(Mac/Linux共通)。

$ pip install pydot

 ディープラーニングのパッケージの注意点は、バージョンアップが激しく、バージョンが異なるため動かないコードが多いことです。必要に応じてバージョンを固定してインストールするようにしましょう。

 例えば、以下でChainerをVer1.8.1に固定してインストールできます。

$ pip install chainer==1.8.1

 詳細は以下記事参照下さい。

Jupyterの環境設定

 Jupyterは、pythonの対話式のインタープリタ(pythonとコマンド打つと出てくるモード)を更に便利にしたようなもので、実験手順の記録性にも優れています。markdownやtex記法も使えて最高ですね。そんなJupyterを見やすくするために、テーマを変更してみたいと思います。

 jupyterthemesをインストール

$ pip install jupyterthemes

 以下でテーマの一覧を確認

$ jt -l

 solarized lightが好きなのでセッティング

$ jt -t solarizedl

 以下コマンドでjupyterを起動すると、見た目がテーマに応じて変わります。

$ jupyter notebook

 Jupyterは以下のような感じに手軽に実験のログをとれるので便利です。再現試験にも便利そうですね。リッチなコメントのソースコード。もしくは、ソースコードが書きやすいブログと捉えてもよいかもしれません。

f:id:karaage:20170925134020p:plain:w480

 ちなみにJupyterでグラフを描くときは、以下の行が必要です。最初に宣言しておくのが良さそうです。

%matplotlib inline

 Jupyterに関しては、他に詳しく解説しているサイトがあるので、詳細の解説はそちらに譲ります。以下など参照下さい。

Jupyter (iPython) Notebookを使って技術ノート環境を構築する方法 - MyEnigma

研究・プログラミングメモはもうこれで完璧。markdownもtexもpythonを一緒に使える jupyterが超便利!! - プロクラシスト

Jupyter Notebookをより便利に使うために、色々まとめ - Qiita

 テーマ変更は、以下の記事を参考にさせていただきました。 jupyterのテーマカラーが超簡単にかっこよくなる『jupyterthemes』 - プロクラシスト

実際に機械学習のあれこれを試して見る

 ここからは、セットアップした環境であれこれ試して見ましょう。今回セットアップした環境で、下記の例は全て動作します(きっと)。

SVM(Support Vector Machine)

 以下3行実行すれば、irisの分類問題が試せます。

$ git clone https://github.com/karaage0703/svm-pi
$ cd svm-pi
$ python svm.py

 実行すると、svm-piディレクトリに画像が入っています。

 詳しくは、以下参照下さい。

画像処理

 機械学習の花形といえば画像認識(?)なので、画像処理も必須になってきますね。下記記事参照下さい。

matplotlibでグラフ書く

 機械学習したら、結果の可視化は必須ですね。グラフを描きたい場合は以下記事など参照下さい。

ディープラーニング(Chainer)

 Chainerを使ったディープラーニングです。バージョンは1.8.1を使っていますので、そこだけ注意ください。

ディープラーニング(TensorFlow)

 Raspberry Piと書いてありますが、Macでも普通に動きますので興味あれば試してみて下さい。

まとめ

 一通り現在のpythonの機械学習の環境セットアップと、今までやってきたことの一部をまとめてみました。環境セットアップも、バージョンの変化に応じて、やり方が刻々と変わっていて、pyenvを使うのは邪道とか、anacondaはダメだという意見もいるようですが、便利なものは便利なんですよね…悪貨は良貨を駆逐するというやつなのかもしれませんが、私は今のところ、この方法で困っていないので良しとしています。何が正しいかも、その人の目的やレベルによっても変わってきますからね。

 また、私が機械学習の勉強のために購入して良かったと思う本も上げておきます。これらの本の学習に関しても、私は基本的に本記事で紹介した環境で実施して、問題なく動いています。よければセットで参考にしてみて下さい。

Pythonではじめる機械学習 ―scikit-learnで学ぶ特徴量エンジニアリングと機械学習の基礎

Pythonではじめる機械学習 ―scikit-learnで学ぶ特徴量エンジニアリングと機械学習の基礎

  • 作者: Andreas C. Muller,Sarah Guido,中田秀基
  • 出版社/メーカー:オライリージャパン
  • 発売日: 2017/05/25
  • メディア:単行本(ソフトカバー)
  • この商品を含むブログを見る

ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装

ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装

参考記事

Pythonを書き始める前に見るべきTips - Qiita
上記の記事は、この記事の数倍丁寧です。セットアップも私のを邪道とするとこちらの記事は王道です(多分)。ただ、必ずしも正しいのが最適と限らないのが環境設定の難しいところですね。目的に合わせて選択下さい。

Viewing all 1426 articles
Browse latest View live