Quantcast
Channel: karaage. [からあげ]
Viewing all 1439 articles
Browse latest View live

GWの和歌山旅行のしおりを作ったのでGitHubで公開します

$
0
0

f:id:karaage:20180429224008p:plain:w480

和歌山旅行のしおり

 今日から3日ほど和歌山県に旅行に行ってくるので、旅行のしおりをGitHubで公開しておきますね。

f:id:karaage:20180429224020p:plain:w480

 まだ間に合うので、オススメスポットとかの情報あったら気軽にPull Requestくださいね。

 それでは行ってきまーす(多分)

関連記事


私の会社の機械学習経験ゼロの「ディープラーニングおじさん」が会社のAI戦略を動かすまで

$
0
0

f:id:karaage:20180426235611j:plain:w640

ディープラーニングおじさん

 私の会社には「ディープラーニングおじさん」がいます。「います」といっても私が勝手に一人で心の中でそう呼んでいるだけですが…ともかく、今日はその「ディープラーニングおじさん」が、機械学習経験ゼロから、最終的に会社を動かすまでの華麗なる軌跡を紹介したいと思います。

 なお、会社に関する情報は、私の都合である程度、虚実入り混じった情報になることご了承ください。今回の話で伝えたいことに関しては、影響は無い範囲とは思っています。

ディープラーニングおじさんの華麗なる軌跡

 自分のツイートを「ディープラーニングおじさん」で検索したら、最初に引っかかったのが2016年10月ころでした。もう1年半くらい前ですね。

 ちなみに、このころの「ディープラーニングおじさん」は、組み込み系のソフトは多少経験がありCが多少は書けるものの、Pythonは当然触ったことなく、そもそもLinuxとUbuntuとC言語とPythonの違いもよく分かっていないという状況でした。

 そんな「ディープラーニングおじさん」が、何故か「ディープラーニング」に興味があるということだったので、ちょうど家で「Chainer」使って画像認識のサンプルを動かしていたりしたことなので、簡単なデモを見せました。デモの内容自体は以下記事の延長線上で、リアルタイムにカメラで物体を検出して、それが何かを音声で教えてくれる、的な内容だったと記憶しています。

 イメージ的には以下に音声付きという感じでしょうか f:id:karaage:20170927010926g:plain:w640
 こんな感じのデモをした記憶

 その後の「ディープラーニングおじさん」の成長は凄まじかったです。正直、最初は環境構築あたりですぐに挫折するだろうと思ってました。

 でも、「ディープラーニングおじさん」は諦めませんでした。わずか3ヶ月後。

 もうここら辺で、完全に見る目を改めました。この人只者ではないなと。さらに、半年の時間が流れます。

 ここら辺の時点で、完全に完敗です。清々しいまでに完敗しました。いや、ひょっとしたらPythonは自分の方が少しは書けるかもしれないけど、その情熱や姿勢と、ディープラーニングに対する知識量。全てにおいて負けたと思いました。

 さらに半年の月日が流れます。会社が「人工知能」というバズワードに踊らされて、怪しげなベンチャーに数千万の投資をしようとしようとしていたとき「ディープラーニングおじさん」が立ち上がります。関係者に地道にデモをふまえて、わかりやすい技術説明からはじめ、仲間を増やしていき。関係者含めた会議をなんどか開き、複数会社のコンペにまで持ち込み「ディープラーニングおじさん」がここぞと思うベンチャー(多分、この分野に詳しい人なら誰もが知っている会社)をコンペにねじ込みます。当初予定していた怪しげなベンチャーは逃げ出し、ついに会社の方針が変わりました。

「ディープラーニングおじさん」から教えられたこと

 ここで、「ディープラーニングおじさんはワシが育てた」と言うつもりは、ほんと毛頭、毛先の一本分もありません。私はただきっかけを作っただけですし、もし私がいなかったとしても、多分「ディープラーニングおじさん」は、いつか自分でディープラーニングを知って、同じような道を辿っていたと思います。

 どんな丁寧な教育のシステムやチュートリアルがあっても、やらない人はやらないし、やる人はやるのですよね。教育って、本人以外ができることって、きっかけを与えることと、やる気のある人を加速させること、失速させないことくらいなのじゃないかな、って思ったりします。

 ここで告白すると、実は私が最初にディープラーニング含む機械学習を勉強し始めた理由って、いきなり会社で「人工知能使って何かしろ!」と言われたときに、反論できるハッタリをかませるくらいの知識が欲しいという、しょうもないネガティブな動機からだったのですよね。でも「ディープラーニングおじさん」が、ひたすらディープラーニングに魅せられ、取り組み、技術に対して目を輝かせ、自分で手を動かし、周囲の考え方も変えていく様子を見て、自分も少しずつ考え方が変わっていきました。今では「もし機会があるなら、ディープラーニング仕事に使うのも良いかもな」と思ったりもします。まぁ使わずに済むならそれに越したことはないのですけどね(笑)

 結局、教えられていたのは私の方だったのかな、と今では思います。今度は私の方がきっかけを貰いました。あとはやるだけですね。  

まとめ

 私の会社の「ディープラーニングおじさん」の話でした。え、「ディープラーニングおじさん」の今ですか?もちろんGPUガンガン積んだモンスターマシンで、元気にディープラーニングしてますよ(笑)

 正直自分の会社で、凄いと思う人はいても、こういう人になりたいって思うことはなくて、常に理想の上司はドラゴンボールのフリーザ様だったのですが、今の理想の上司は「ディープラーニングおじさん」ですね。少しでも深く近づけるように、私もGPUをガンガンぶん回したいと思います(笑)

関連記事

マイクロフォーサーズの究極の便利ズームレンズ「OLYMPUS M.ZUIKO DIGITAL ED 12-100mm F4.0 IS PRO」が便利過ぎでした

$
0
0

f:id:karaage:20180422181822j:plain:w640

「OLYMPUS M.ZUIKO DIGITAL ED 12-100mm F4.0 IS PRO」買いました

 久しぶりに新しいカメラ機材(レンズ)買いました。

f:id:karaage:20180422181808j:plain:w640
 ジャーン

f:id:karaage:20180422181822j:plain:w640
 デデーン

 感想は「とにかく便利!」の一言ですが、それだけだとあんまりなので、もう少し噛み砕くと以下2点かなと思います。

  • チャンスを逃さない
  • 可能性を広げる

 なんだか、意識高い会社の社訓みたいですね。それぞれ実例をまじえて紹介していこうと思います。

チャンスを逃さない

 まず「チャンスを逃さない」に関してですが、これの利点は以下2つですね。

  • AF(オートフォーカス)が早い
  • レンズ交換必要無し

AFが早い

 私は、Lumix G 20mm/F1.7というレンズを愛用しています。

 このレンズ、小さいし安いのに、写りがメチャクチャ良いのですが、AFが遅い点だけが不満でした。特に子供ができてからは、子供の激しい動きを捉えられず、チャンスを逃したなと思うことも数知れずでした。勿体ないことをしました。

レンズ交換必要なし

 子供がいるとレンズ交換なんて、なかなかできる暇がありません。はっきりいって無理ゲーです。しかたなく遠くのものや近すぎるものをレンズ交換せずに撮ったりするのですが、豆粒みたいになったり、見切れてしまったり…残念な写真ばかりになっていました。

 ところがこれのレンズがあれば、もうそんなストレスは一切ありません!AFは爆速ですし、35mm換算で24-200mmという信じられない広い範囲をカバーできるので、レンズ交換の必要がありません。あれ、これ他のレンズいらないんじゃない?って気になってきます。

可能性を広げる

 可能性を広げるというのは、ずばり以下2点ですね。

  • 広い範囲がカバーできる
  • マクロとしても使える

広い範囲がカバーできる

 先ほどの繰り返しになりますが、35mm換算で24-200mmという焦点距離の範囲は驚異的です。

 広角を望遠でどれだけ違うか見てみましょう。

f:id:karaage:20180421102417j:plain:w640
 一番広角(24mm)の写真

 この写真が望遠側(200mm)になると…

f:id:karaage:20180421102426j:plain:w640
 こうじゃ!

f:id:karaage:20180421102457j:plain:w640
 この広角写真も

f:id:karaage:20180421102503j:plain:w640
 こうじゃ!

 よくカメラは単焦点レンズで足で稼ぐのが上手くなる秘訣!とか本で読んで

「ふむふむ、望遠ズームとか使う奴は軟弱者だな」

 って思ってましたけど、望遠ズームめっちゃ便利です。歩くのとか面倒くさいですね。冷静に考えれば、動かずに色々な画角で撮影できた方がチャンス広がるに決まってますもんね。そりゃオリンピックもドローンで撮影するわけですよ。今まで完全に騙されてました。

マクロとしても使える

 実は、このレンズめちゃくちゃ寄れます。

f:id:karaage:20180421164324j:plain:w640
 ミクさんの写真、これどれだけ寄っているかというと…

f:id:karaage:20180422181838j:plain:w640
 こんだけ寄ってます

f:id:karaage:20180422181851j:plain:w640
 別角度。ほぼくっついてます。完全に変態ですね。

 何かの間違いじゃ無いのかというくらい寄れるのでビックリです。まさかのマクロレンズまで手に入れた感あります。どんだけ万能なんだ…

 あ、ミクさんは以下のやつです

「OLYMPUS M.ZUIKO DIGITAL ED 12-100mm F4.0 IS PRO」のデメリット

 ここまで、良いところばかり書いてしまったので、デメリットも書いておきます。ずばり以下3点です。

  • 高い
  • デカイ
  • 暗い

 高いのとデカイのは仕方ないですね。私は、使ってみてこの性能なら価格もサイズも仕方ないなと納得しました。そもそもこんなスペックのレンズ、他には中々ないですからね。

 あと、レンズのF4.0という暗さは、買う前一番気になった点でした。ボケなかったり、暗いところで手ぶれで撮れなかったりしないかが気になっていました。これに関しては、少し補足すると、ボケに関しては、当然ボケにくいのですが、通しでF4.0なので200mmとかうまく使えば、かなりボケを生かした写真が撮れるように思えました。以下の写真とかもそこそこボケ感じられるのではないでしょうか?

f:id:karaage:20180421102503j:plain:w640

 あと暗所での手ぶれですが、実はこのレンズはレンズ側にも手ぶれ補正がついているのですよね(ボンクラなので、買ってから気づきました)。ボディーに手ぶれのあるカメラと組み合わせると、非常に強力な手ぶれ補正効果が期待できます。そのため、手持ちでもある程度シャッタースピードを遅くすることで、暗所でもかなり使えそうです。

 ただし、カメラとレンズのファームウェアのアップデートは忘れないようにしましょう。ファームウェアをアップデートしないと、カメラとレンズの両方を手ぶれONにすると、より手ぶれ補正ができなくなります(ボンクラなので、最初ファームアップ忘れてました)。

「Peak Design」のストラップも買っちゃった

 写真をみて、察しの良い方は気づいたかもしれませんが「Peak Design」のストラップも買っちゃいました。

 「Peak Design」を買ったのは、以下御三方(カメラ御三家)が、皆オススメしていたからです。正直細かいところはあんまり分かってなかったのですが、絶大な安心感がありました。

 実際使ってみたら

「あー、自分がずっと欲しかったのこれだわ」

「あの記事で言ってたの、こういうことね。便利だわ」

 ってなったので、間違いなかったです。ただ、このレンズのサイズだと、ストラップはもうちょい太いタイプ(スライド)でも良かったかなとも思いました(これは私の判断ミスです)。

 しかし、ストラップ買ったら次は、キャプチャープロとか欲しくなるので、完全に危険な「Peak Design」沼ですね。

まとめ

 新しいレンズ「OLYMPUS M.ZUIKO DIGITAL ED 12-100mm F4.0 IS PRO」の紹介でした。やっぱり新しい機材を買うと、撮影欲が高まってきますね。早く写真を撮りに出かけたくてたまらなくなります。

 レンズが傷つかないように、合わせてレンズフィルタ(プロテクタ)も買いましょうね(ボンクラなので、最初買い忘れてた)。

 このレンズでGW(ゴールデンウィーク)お出かけしてきたのですが、本当最高でほとんどこれ一本しかレンズ使わなかったです。そのときの写真は、また今度紹介したいと思います!

関連記事

パンダのインフレが発生する和歌山のアドベンチャーワールドで望遠レンズが大活躍でした

$
0
0

f:id:karaage:20180501182116j:plain:w640

GWはアドベンチャーワールド

 ゴールデンウィークは、和歌山に行っていました。お目当はアドベンチャーワールドです。4年ぶりに行きました。

 前回は妻と2人で来たのですが、今年はもうすぐ3歳になる娘も入れて3人での訪問です。

f:id:karaage:20180501094123j:plain:w640

 というわけで、いつもの通り写真をペタペタ貼っていきたいと思います。今回は使った機材は、買ったばかりの「OLYMPUS M.ZUIKO DIGITAL ED 12-100mm F4.0 IS PRO」です。今回の旅行はほとんどこれ1本しか使いませんでした。

アドベンチャーワールドの写真

色々な動物たち

f:id:karaage:20180501094502j:plain:w640
 ペンギン

f:id:karaage:20180501102145j:plain:w640
 ケニア号というバスでサファリパークを回る

f:id:karaage:20180501102611j:plain:w640
 寝ているライオン

f:id:karaage:20180501104441j:plain:w640
 あれ何だろうな?と思ったらズーム

f:id:karaage:20180501104447j:plain:w640
 お猿さんでしたー

f:id:karaage:20180501105455j:plain:w640
 シマウマ

f:id:karaage:20180501110645j:plain:w640
 キリン

f:id:karaage:20180501174511j:plain:w640
 ペンギンズ

f:id:karaage:20180501174244j:plain:w640
 勝手にシロクマ

f:id:karaage:20180501174643j:plain:w640
 呼んだ?

イルカショー

 イルカショーです。ストーリー性があって、良かったです。

f:id:karaage:20180501150523j:plain:w640
 ダイナミックなジャンプ

f:id:karaage:20180501150545j:plain:w640

f:id:karaage:20180501150644j:plain:w640
 ジャンプ

f:id:karaage:20180501151211j:plain:w640
 イルカに乗った少女

f:id:karaage:20180501151539j:plain:w640
 輪っかくぐり

f:id:karaage:20180501151600j:plain:w640
 ジャンプ

f:id:karaage:20180501151940j:plain:w640
 ジャンプ

f:id:karaage:20180501152514j:plain:w640
 ショーの後イルカを見つめる娘

パンダ

 アドベンチャーワールドといえば、パンダです。パンダたくさんいるので、だんだんパンダがインフレしてきてプレミア感が薄れてくるので不思議です。

f:id:karaage:20180501114230j:plain:w640
 基本寝てる。この子は数時間ずっとこんな感じだった

f:id:karaage:20180501114438j:plain:w640
 アクロバッティックな姿勢で寝ているパンダ

 続いて、双子のパンダが外で笹を食べるだけのイベント。ご飯食べるだけでこれだけ注目集める存在はパンダくらいだと思います。

f:id:karaage:20180501181933j:plain:w640
 パンダが…

f:id:karaage:20180501181942j:plain:w640
 笹食べてる!

 可愛いです

f:id:karaage:20180501182055j:plain:w640
 笹食べてるだけなのに可愛い

f:id:karaage:20180501182116j:plain:w640
 たまに目がくりっとする

 なんかジッとみていると、中におっさんが入っているように見えてくるので不思議です。

GIFアニメ

 動物はGIFアニメにしてもめちゃかわいいですね

f:id:karaage:20180503130304g:plain:w640
 シロクマ

f:id:karaage:20180503130253g:plain:w640 パンダ

宿泊場所に関して

 今回泊まったのは、前回同様「とれとれヴィレッジ」というドラゴンボールの家みたいな場所です。 f:id:karaage:20180502081438j:plain:w640

 ドームハウスに関しては、以前書いたので以下記事参照下さい。

 新しくパンダヴィレッジという、めちゃ可愛いドームハウスもありました。こちらは早い時期からの予約必須ですね。中は普通らしいので、外から眺めるだけでもよいかもしれません。

f:id:karaage:20180502081958j:plain:w640

 安いけど、ちゃんと冷暖房も完備で部屋の中にお風呂もあります。アドベンチャーワールドまで車で10分。近くには温泉、海鮮の美味しいお店(とれとれ市場)と周辺で観光・食事・お土産が揃う最高の立地です。子供は喜ぶと思いますし、若いカップルや家族連れには良いかなと思います。高級感求めている人には不向きかな。

 アドベンチャーワールド行く方は宿泊地の候補にしてみると良いかもしれません。

まとめ

 アドベンチャーワールドに行って来ました。望遠ズームやっぱり便利で、小さい子供を見ながらでも、色々な写真を撮れて良かったです。前回、単焦点レンズと広角レンズだけで撮った写真と見比べると、全然違う写真が撮れたなと改めて思います。

 ただ、単焦点や広角レンズという制約の中で足を使って使って撮った前回の写真は、ユニークさがあったなとも思います。まぁでも、こればっかりは仕方ないですね。今回、単焦点と広角レンズだけだったら、小さい子供と一緒ではまともな写真はほとんど撮れなかっただろうなと思います。

 あとは、マムートのザックが子供の荷物とカメラを全部入って持ち運びやすくて大活躍でした。 f:id:karaage:20180501074643j:plain:w640

 カメラのインナーボックスも忘れずに

ETSUMI インナーボックス モジュールクッションボックスD ブラック E-6288

ETSUMI インナーボックス モジュールクッションボックスD ブラック E-6288

今週のお題「ゴールデンウィーク2018」

ディープラーニングで自分の身体を楽器にする「ヒューマンシーケンサー2.0」の紹介

$
0
0

f:id:karaage:20180507235110p:plain:w640

「ヒューマンシーケンサー」とは

 身体を楽器にしてしまおうというコンセプトの自作ソフトです。元々の発想は、 YAMAHAさんのTENORI-ON(テノリオン)という楽器を身体を使ってできたら面白いのじゃないかというところから来ています。

 昔作ったPV的な動画は以下参照下さい。

 昔は、以下の記事で解説したようにKinectを使っていました。

 今回は、Kinectを使わず、画像処理にディープラーニングを用いることで単眼カメラだけで実現しています。

 自分が遊んでいる例

karaageさん(@karaage)がシェアした投稿 -

 娘が遊んでいる例。Mac Bookの画面をテレビに映しています

karaageさん(@karaage)がシェアした投稿 -

 単眼カメラでの骨格検出に関しては、以前以下の記事で紹介しました。

 上記記事のソフトでは、GPUのない普通のMacでは処理が遅く、ちょっと楽器として使うには苦しかったのですが、その後リアルタイムに骨格検出できるソフト「tf-pose-estimation」が出てきて「使える!」と思ったので、ゴールデンウィークの休み1日を使って「ヒューマンシーケンサー2.0」として作りました。ProcessingのコードをPythonに移植しています。半日もあればできると思っていたのですが、昔自分で作ったProcessingのコードが我ながら意味不明で移植に思ったより時間がかかってしまいました…

「ヒューマンシーケンサー2.0」の使い方

 「tf-pose-estimation」をforkして以下のリポジトリを作りました。

 詳しいセットアップ方法や、ソフトを作った時の流れ、改造のポイントなどを有料noteに書いてみました。もし「自分も試してみたいけど、セットアップちょっと自信がない」という方や「ディープラーニングのOSSを活用してアプリを作るのって、具体的にどういう風に作れば良いのだろう?」と思った方は購入していただけましたら幸いです。

 ソースコードも有料noteだけに書こうかなと思ったのですが、OSSを活用しているのでやはりOSSにもコミットせねばということでソースコードは上記のリポジトリで公開しています。なので、ある程度詳しい人は有料note買わなくても動かせると思いますのでご自由にお使いください。その中で、もし面白いと思ったり、気に入っていただけた方いたら、投げ銭的に購入いただけるととても嬉しく思います。

まとめ(ヒューマンシーケンサー以外の応用例)

 今回は身体を楽器にするということをやってみましたが、この技術色々応用できそうですね。パッと思いつくところでは、PCと単眼カメラだけでVTuberになるための簡易セットみたいなのを作れそうです。というか4年くらい前(まだVTuberという言葉も無かった頃)に、Kinectでそんなことをやっているので、このソフトを移植すればできそうです(頭の中では出来てる)。

 多分1日頑張れば作れるので、需要があれば作ってみようかなと思っていたのですが、Twitterであんまり反応無かったので多分作らないかな…もし20人くらいから反応あったら作りますのでtwitterやコメントで教えて下さい。

 昔Kinectで作った以下のようなアプリも、ディープラーニング使うとPCと単眼カメラだけでできそうです。

関連記事

紙の書籍から電子書籍に移行したら本の読み方が変わった

$
0
0

f:id:karaage:20180228011942j:plain:w640

紙の本をほとんど買わなくなりました

 最近、紙の本はほとんど買わなくなり、電子書籍を買うようになりました。最近といっても、もう5年以上は経っていますが。理由は特に書くまでもない気がしますが、私の場合は以下のメリットが大きいです。

  • 本を置く場所を気にしなくて良い
  • たくさんの本を持ち歩ける
  • 本を好きなときにいつでも簡単に買える
  • 文章を検索できる

 デメリットも無くは無いですが、メリットの方が十分大きいので、基本的に電子書籍を購入しますし、購入したい書籍に電子書籍が無い場合は、電子版が出るまで待つか、買うのを諦める場合が多いです。

 ちなみにまだ10年くらい前、電子書籍まだ普及してなかったころ未来の電子書籍事情を予想した記事が以下です。

 今となってはどれも当たり前のことばかりですね。でも、10年くらい前はそれが想像できない人が多かった記憶があります。よくわからない理由で、電子書籍を固くなに否定していた人は、まだ紙の本を読んでいるのでしょうか?

 そして電子書籍の普及自体は、予想通りだったのですが、予想外だったのは電子化することで、自分の本の読み方が変わったということです。

電子書籍を読むようになって本の読み方が変わった

 変わったなと感じる点は、具体的には以下です。

  • 同時に複数の本を読む
  • 本を読む順番を気にしない
  • 隙間時間に読む

 昔は、基本的に1冊(前後編とかは別)買ってその本を読み終わるまでは、違う本を読むことは無かったのですが、電子書籍だと以下の記事でも書いたように2冊とか3冊の本を平行に読んだりすることが凄い増えました。 karaage.hatenadiary.jp

 当然、本を同時に買うことも当たり前になりました。

f:id:karaage:20180228022037p:plain:w640
 1日に違う分野の本を3冊くらい買うときも

 結局、今まで紙の本という物理的制約に無意識に読み方を縛られていたのに気づいていなかったのですね。電子化という技術によって、初めてその不自由に気づかされたのです。複数の本をザッピングしたり、隙間時間に本を読むって、なかなか紙の本ではできないですからね(物理的に)。

 あと、電子書籍が「あの文章が書かれてたのどこだっけ?」と思ったとき検索できるというのは非常に大きいですね。

まとめ

 電子書籍を読むようになって、本の読み方が変わったことに今更ながら気づいたという話でした。こういった、物理的制約に無意識に縛られていることって、他にもきっとたくさんあるのだと思います。そういった制約を技術でどんどん解放していきたいですね。

 例えば、人の手が2本だったり、指が5本だったりって大きな物理的制約ですよね。指を3Dプリンタで増やす試みとかありますが、人間の肉体もどんどん拡張しちゃった方が良いのじゃないかなと思います。例えば、人間が十進法を使うのは、指が10本だからのようですが、指が16本だったら片手で1Byteになるのでコンピュータとはかなり相性が良さそうです。

 また、肉体を拡張すると、脳も一緒に拡張していくことになるはずで、実は潜在能力的なものを発揮できたりする可能性もあるのじゃないかな、とか思ったりします。私は、指も腕もあと2本くらい生やしたいし、透視能力のある目も欲しいし、定期的にヤバイ脳内麻薬ドバドバ出るような脳みそ欲しいですね。

 と、この記事実は1ヶ月くらい前に書いたものなのですが、ここ最近、書籍関係でなかなか面白い流れが起こっているので、珍しく続きとして、来週月曜はそのことに関して取り上げてみようかなと思います。

出版業界のソフトウェア化と出版社の未来

$
0
0

f:id:karaage:20180511232220j:plain:w640

はじめに

 前回、以下のように書籍のデジタル化に関しての話をしましたが、今回は出版業界のソフトウェア化の話をしたいなと思います。

 最初に断っておきますが、私は特に出版業界に詳しくないですし、出版社に対して特に恩義も恨みもないフラットな立場です。

 最近、同時多発的に色々な方面から出版社への不満や危機を指摘する話をよく聞くので、それらを整理して自分なりの業界予想的なものをまとめてみたという形です。特に「出版社はこうすべき!」という熱い思いがあるわけでは無くて「まぁ、このままいけばこういう方向かな?」と私が感じた傾向を書いているだけの内容となります。

出版社の不満や危機を指摘する話

GOROmanさんのマッハ新書のムーブメント

 今回の記事書くきっかけになったのは、GOROmanさんのマッハ新書です。詳細はねとらぼさんの以下記事参照下さい。

 私も第一弾の「全ての出版社は多分潰れる」というロックなタイトルの書籍を買いました。「12時間で書く」とか「誤字が多い」とか「校正がちゃんとされてないのに価格とって酷い」といったところが変にフォーカスされているようですが、マッハ新書の重要な点は、GOROmanさん自身がおっしゃっているように、ソフトウェアの開発プロセスを書籍の執筆に取り入れたというところと、それによって1つのムーブメントが起きたということなのじゃないのかなと個人的には思っています。

 マッハ新書に関するTwitter上での議論は以下にありますが、重要な指摘と本質を捉えてない(と私が思う)指摘がごちゃまぜの印象です。

 まあ、当の本人はマッハで飽きていますw

 マッハ新書は、マッハストレスフリーZXに改名したらしいですが、マッハ新書ってネーミングは個人的には絶妙だったと思っています。

森博嗣先生の出版社への指摘

 自分が知る限り、作家でありながら最も早く出版社に対して危機を指摘したり苦言を呈していたのは森博嗣先生だったと思います。2010年に出版された「小説家という職業」で、出版社に対してかなり辛辣な指摘をしています。これを8年も前に紙で出版するという森博嗣先生も凄いですが、逆に言えばもう2010年頃から出版社の力が弱まっているということかもしれません。もっと出版社が強い時代だったら、この内容は絶対紙の書籍にはならなかったでしょう。

小説家という職業 (集英社新書)

小説家という職業 (集英社新書)

 森先生は、出版社に関しては、他にも「作家の収支」や「読書の価値」といった本でも触れています。

作家の収支 (幻冬舎新書)

作家の収支 (幻冬舎新書)

読書の価値 (NHK出版新書)

読書の価値 (NHK出版新書)

 なおTwitterで教えてもらったのですが森先生は7年前に「科学的とはどういう意味か」という本を3日間に分けてではあるものの、マッハ新書と同じ12時間で書き上げたらしいです。全然違うタイプなのに、GOROmanさんと出版社への指摘含め重なるところが結構あるのが非常に面白いと思いました。

 なお、2人とも共通している出版社への意見は、出版社は変わる必要があるし、変わることができることができればチャンスがあると言っている点です。この点に関しては、森先生は最近の書籍で「もう手遅れ」と断じているので、どちらかというと森先生の方が厳しい指摘ですね。まあ、GOROmanさんも同じことを思っていそうですが。

怪盗ルパン伝アバンチュリエの森田先生

 モーリス・ルブラン原作の「アルセーヌ・ルパン」を『怪盗ルパン伝アバンチュリエ』として漫画化している森田崇先生は、Twitterでこんなことをつぶやいていてビックリしました。

 印税って基本10%と思っていたのですが、印税5%で交渉もできない…もちろん全部の出版社がそうではないでしょうが、あまりに酷いですね…ちなみにBOOTHとうサービスを使うと手数料が3.6%なので、印税96.4%です。印税と手数料の逆転現象…

 ちなみに森先生は、印税は出版社と交渉していると何度か公言なさっていますし、具体的な数字も出していますね。

参考:

機械学習業界

 機械学習の世界では、最近は正式な論文誌に載せる前に arXiv というフリーの論文投稿サイトで論文を公開するという流れが発生しています。最新の研究では、研究の進歩のスピードが速すぎるため、論文誌の掲載より即時性のあるarXivの方が注目を浴びるという、ある意味権威の逆転現象が起こっています。Nature紙も、有料の機械学習専門論文誌をやるといって、「ハゲタカビジネス」と叩かれているようです。

 また、機械学習の本では、執筆中の本をドラフト版として無料公開して、読者からフィードバックをもらうという試みが増えつつあります。 「Machine Learning Yearning」とか「ゼロから作るディープラーニング2」もそうですね。

 読者は、早く本を無料で読めるし、作者はフィードバックを貰えるという関係ですね。無料でレビューした読者も、内容が良ければファンになって、本も結局買ったりするという好循環が起こるのじゃ無いかなと思います(もちろんうまくいかないケースもあるでしょうけど)。

 こういった、権威の逆転現象とか、β版公開してのフィードバックとかはまさにソフトウェアの世界での話で、マッハ新書と通ずるところがあると思っています。

 特に公開して、多くのプロ以外を含む一般人からフィードバックをもらって製品を修正していくという流れは、正にOSS(Open Source Software)開発と同じプロセスですね。出版社のプロの編集者による校正無しで、本当に書籍としてのクオリティが保てるのか?という議論は、まさにプロプライエタリなソフトウェアとOSSの開発手法を分析した「伽藍とバザール」の内容をなぞっているようで中々興味深かったです。「伽藍とバザール」は以下で日本語訳が読めますので、興味ある方はご一読下さい。短めですので、サクッと読めます。

The Cathedral and the Bazaar: Japanese

 また、開発手法という点では、一部のウェブ出版では、以下のようにGitHubを活用した編集が行われているらしいです。これはある意味企業のOSS活用と捉えることもできそうですね。出版業界でこのようなことをできる人がどれだけいるのかは分からないですが。

note・BOOTHといった新たなプラットフォームの台頭

 書籍のデジタル化によって、出版社の競合として出版社以外の流通の方法が増えたというのも重要な点ですね。Kindleは印税70%という話がありましたが、noteなら85%程度(条件により変動)、BOOTHなら96.4%です。音楽と一緒で、もう本が大量に売れるという時代でもないので、こういったサービスでニッチを狙っていった方がある意味健全なのかなという気もします。

 例えば出版社の印税が森田先生が提案受けた5%として、1000円の本を売ったとすると1冊あたり50円。今や2,3万冊でベストセラーというくらいらしいので、50円x2万で100万円。たとえベストセラーになったとしても100万円です。

 一方、GOROmanさんは、BOOTHで1330冊売ったらしいので、1000x0.964x1330=128万円

 なお、GOROmanさんはマッハ新書で得たお金、全てを自分以外のチャレンジしている方への応援に使っています。凄い!

 もちろん、紙の書籍でベストセラーになるということに、お金以上の価値を見出す人も多いとは思いますが、そういう人の割合も今後どんどん減っていくのかなとは思います。

 また、noteやBOOTHだと、自分で企画から営業まで全部やらないといけない(コンテンツ制作だけやればよいわけではない)辛さはありますね。逆に言えばこれらができる人は今後は出版社を必要としないのだろうなと思います。

まとめ(書籍がソフトウェア化するということ)

 これらの流れって、GOROmanさんが言っていたように「出版業界がソフトウェア化している」ってことなのかなと思います。マッハ書籍のムーブメントも、その流れがたまたま大きく顕在化しただけで、マッハ書籍は収束したとしても、このような流れは今後何度も起こるのだろうなと思います。マーク・アンドリーセンが「Why Software Is Eating the World」というエッセイで言ったように、あらゆる業界はデジタル化、ソフトウェア化していくのじゃないかなと思います。

 マスに向けた本の需要とまだありますし、当分は住み分けは可能と思いますので、出版社もいきなり潰れることはないとはないと思いますが、このままいけば徐々に衰退していくのかなという印象です。テレビとネットの関係にも似ているかもしれませんね。

 自分自身はというと、人工知能で今まで1度も書いたことない小説書いて有料noteで販売していたりするので、ある意味マッハ新書と別のベクトルでヤバいかもしれませんね。

関連記事

参考リンク

WEEKLY人工無脳【第5号】(2018.4.30~5.6) - WEEKLY人工無脳

中判フィルムカメラをRaspberry Piを使ってデジタルカメラ化する「ZANGI BRONICA(ザンギブロニカ)」を開発中です

$
0
0

f:id:karaage:20180424232010j:plain:w640

「ZANGI BRONICA(ザンギブロニカ)」開発中

 以前、フィルムカメラのデジタルバックをRaspberry Piを使って作っていました。

 このデジタルバック、Ogaki Mini Maker Faireでも出展をしたのですが、そのとき2,3人の方からいただいたコメントが「ゼンザブロニカを使うとよいのじゃない?」というアドバイスでした。

 ずっと迷っていたのですが、もう買うしか無いと意を決して覚悟を決めるためにTwitterで呟いたら

 ネット凄い…

 というわけで、お借りして良い感じだったので、市場価格で買取りさせていただきました! 

f:id:karaage:20170910234252j:plain:w640

 というわけで、こいつをデジカメ化していきます!名付けて「ZANGI BRONICA(ザンギブロニカ)」

「ZANGI BRONICA(ザンギブロニカ)」の作り方

必要なもの

  • ZENZA BRONICA(ゼンザブロニカ)
     ヤフオクとかフィルムカメラショップで買いましょう

  • 3Dプリンタ
     いまや、どこのお家庭にも1台はある3Dプリンタです。「UP Plus2」がオススメ。詳しくは以下です。

  • フォーカシングスクリーン Eg-S  フォーカシングスクリーンです。どれでもいいというわけでは無くて、Eg-Sが重要です。後で説明します。

Canon フォーカシングスクリーン Eg-S  SCREEN-EGS

Canon フォーカシングスクリーン Eg-S SCREEN-EGS

  • Raspberry Pi
     以下参考にRaspberry Piを買ってセットアップしましょう

  • Quimat 3.5インチタッチスクリーンディスプレイ
     こちらも以下参照下さい

 これまじ最高です

「ZANGI BRONICA(ザンギブロニカ)」設計

 とりあえず適当にコンセプトを図面っぽいものにします。

f:id:karaage:20180425011303j:plain:w640
 あくまで図面っぽいものです。じっくり見ないで!

 適当に作りすぎて、何度も作り直すハメに…メカは苦手なんです…

 図面ができたら、3D CADでCAD設計します。「Fusion 360」を使います。詳細は以下参照下さい。

 適当に押し出してたら完成しました。

f:id:karaage:20180425011525p:plain:w640
 出来上がり(2パーツのうちの1つです)

 CADデータができたら、3Dプリントします。Normalクオリティでも6時間かかる大作です

f:id:karaage:20180422203502j:plain:w640
 でかい…

 こいつを…

f:id:karaage:20180424231241j:plain:w640
 こうじゃっ!!

 そしてフォーカシングスクリーンを

f:id:karaage:20180424231320j:plain:w640
 傷つきやすいのでソーッと

 こうじゃ!

f:id:karaage:20180424231512j:plain:w640
 実は、ちょっと傷ついてしまって泣きそう

 次は、ふたの部分です。以下のようなものを3Dプリントします f:id:karaage:20180428215319j:plain:w640
 ちょっと削ったのは内緒

 以下のようにRaspberry Piカメラを取り付けます

f:id:karaage:20180425005512j:plain:w640

 裏側には、Raspberry Piとディスプレイを取り付けていきます

f:id:karaage:20180425005524j:plain:w640

 あれよあれよという間に、Raspberry Piとディスプレイがくっつきました。

f:id:karaage:20180425005459j:plain:w640

 プロトタイプの出来上がりです f:id:karaage:20180424231937j:plain:w640
 正面図

f:id:karaage:20180424232010j:plain:w640 起動

 ソフトは、以前作った「変デジカメラ」のソフトをほぼそのまま使いました。

撮影テスト

 カメラでカメラを撮るテスト f:id:karaage:20180425005116j:plain:w640

 トリミングしてあります。なかなか雰囲気ある写真が撮れている気がします。

 ちなみにフォーカシングスクリーンが重要で、Eg-Sでなく、Ee-Aというものを使ったときは、下記の写真のようにうまく全体に光が拡散しませんでした。 f:id:karaage:20180425005143j:plain:w640

 ここらへんは、理屈がイマイチわからず、あんまり納得いってないのですが、現状はお金で解決バイヤイヤイ状態です。

まとめ

 中判フィルムカメラをRaspberry Piを使ってデジタルカメラ化する「ZANGI BRONICA(ザンギブロニカ)」のプロトタイプを作りました。今後、もうちょっとスタイリッシュにしたいなとか(できれば、もとのフィルムバックくらいのサイズに収めたい)、色々写真を撮りたいなとか、撮影した写真を使ってxxxして(エロい内容ではないです)とか、色々あるのでじっくり取り組んでいきたいなと思います。

 何か新たに面白いことできたら、今後ブログでもその1部を紹介しようと思います!

参考リンク

http://labo.turtleback.hk/friends-diy-dof-adapter-and-transparency-paper-for-focusing-screen/

関連記事


妻の家庭に伝わる貝(あさり)の裏を箸でコチョコチョすると貝柱がめっちゃ綺麗にとれる秘技

$
0
0

f:id:karaage:20180507235452j:plain:w640

 全然このブログで書くようなことでは無いのですが、妻からどうしても拡散してほしいというリクエストがあったので書きます。

 「karaage.」の半分は、妻への優しさで出来ています。

 それではご覧ください。「貝(あさり)の裏を箸でコチョコチョすると貝柱がめっちゃ綺麗にとれる動画」です

 私も昔テレビで見たような記憶があるので、知っている人も多いと思いますが、知らない人は知らないでしょうね(当たり前)。こういう「そもそも調べることすら思いつかない知識」ってどうやってアップデートするのが良いのでしょうね?あんまり思いつかないので、こうやって不定期に誰かが色々な場所で発信することは少しは世の中の役に立っているのかもしれませんね。

 ちなみに、なんで貝柱が綺麗にとれるのか調べてみたけど良く分かりませんでした。摩擦熱って書いてあるところありましたが、そもそも貝って十分熱せられているような気が…

 というわけで、短いですが今日の記事はこれでお終いです。たまには「箸休め」ということでご容赦ください、おあとがよろしいようで(笑)

「karaage.」がまだ「KARAAGE」だったころの黒歴史を大公開

$
0
0

f:id:karaage:20180429182120p:plain:w480

ある日、何気なくTwitterをしていたら…

 いつものように、何気なくTwitterをしていたら悪魔のようなリプライが飛び込んできました

 ほ、ホゲ〜〜〜!これはネットの海の藻屑と化したはずの自分の黒歴史…いったいどこでこんなものを…

 ろんすた…恐ろしい子…

 なんでも、消え去ったはずのWebサイトを見れるようにするという悪魔のようなサービスがあるらしいですね。情弱なので知らなかったです。嘘です。気づかないふりしてました。

 もうやめてーーー!!

「KARAAGE」黒歴史大公開して後悔

 というわけで、今日は特別に「karaage.」がまだ「KARAAGE」だったころ(昔は大文字で末尾のピリオドも無かったのです)の記録を特別公開して特別後悔したいと思います。18年とか前だぜ…

 当時のデザインも含めて紹介するため、スクリーンショットでの公開です。文字が読みにくいですがご容赦下さい。というかしっかり読まないで下さい。危険です。

2000年頃のトップページ

 2000年とかに公開してたサイトですね。当時はHP(ホームページ)という言い方の方が一般的だった記憶があります。

f:id:karaage:20180425012154p:plain:w640

 これ、さりげなく酷いですね。色々な意味で。

 このころは、家のPCで自宅サーバを立てて、2ch風掲示板を運営していました。日記は、自分で2ch風掲示板に日記のスレッドを立てて書き込みしていくというブッ飛び仕様でした。当然誰でも書き込めてしまうので、知らない人が勝手に日記を書き始めたりとカオスな様相を示していました。掲示板の方のログ残ってなくて本当に良かったです。詳細は以下参照下さい。

20003年頃の日記

 この頃は、自宅サーバにtdiaryというフリーのWeb日記のソフトを入れていたと思います。う、うう。記憶が… ちなみに「はてなダイアリー」のベースはtdiaryですね。なんだかとんでもないこと書いてます。

f:id:karaage:20180425012200p:plain:w640

 そして…でたーーー!「BLEACH」(ブリーチ)の久保帯人先生も全裸で逃げ出す思春期ポエム!

f:id:karaage:20180425012250p:plain:w640
 YABA過ぎる!!

2004年頃のブログ

 このころは、自宅サーバにMovable Typeというブログソフトを入れていました。このころブログという呼び名が流行りだした記憶です(もっと前かな?)。今だとWord Press等の優れたソフトがありますが、この頃はMovable Typeほぼ一択でした。

 唐突な放送禁止用語

f:id:karaage:20180425012259p:plain:w640

 確かこのころバンドやっていたのですが、多分、セックス・ドラッグ・ロックンロールしか考えてなかったです。

様々なギリギリな画像

 ど、ドラゴンボール…?

f:id:karaage:20180429181300j:plain:w360

 クリスマスに置いてあった謎画像…(元画像はモザイク無しです) f:id:karaage:20180429181252j:plain:w640

ネットは変わったし自分も変わった

 こうやってみると、ネットは変わったし、自分も変わったなと改めて気づかされます。

 今から10年以上前のネットって、今と違ってごく一部の人しか使ってなかったですし、わりと無法地帯な感じだったのですよね。例えるなら、世紀末の荒野を肩パッド入れたモヒカン雑魚がバイクで爆走しているイメージです。

f:id:karaage:20180519165306j:plain:w640
 こんな感じね

 でも、10年以上の時間がたって、荒野だった場所は舗装されたアスファルトになり、スーツを着た人があふれかえり、信号といった交通ルールが整備されて、警察や手斧を持った自警団が増えて…そんな中に、肩パッド入れたモヒカン雑魚がバイクで爆走してたら当然奇異の目で見られますし、ルールを無視したら取り締まられてしまうわけです。モヒカン雑魚にとっては、ルールがなかった時代と全く同じことやっているだけなんですけどね。でも、それがネットがインフラになったということなのだと思います。

f:id:karaage:20180519165327j:plain:w640
 こんな感じね

 私も変わりました。昔は「明日死んでもいい」と思いながらブログをやっていましたし、PV数や金を稼いでるようなブログはクソだと思って、当時のセオリーを全て無視してブログを作っていました(「からあげ」というエゴサーチ不可能な名称はその名残です)。

 でも、私も結婚して家族ができ、精神的にも体型的にも丸くなり、気づいたらレンズ欲しさに有料noteに手を出すまでに堕落してしまいました(世の中金だ)!

 昔の文章見ると、あまりの酷さに笑ってしまったり、恥ずかしい部分もあるのですが、「こんな勢いのあるパンキッシュな文章、自分にはもう書けないな」という寂しさもあります。黒歴史って書きましたけど、昔の自分の文章って、私にとっては大切な思い出です。ネットに文章を書くというのは、全てログが残ってしまう怖さもありますが、思いがけず昔の自分と向き合える貴重な機会でもあります。今回も、ブログを書き始めた頃の熱い初期衝動を思い出させられました。

まとめ(黒歴史から白歴史へ)

 ネットがインフラとなった今では、ブログで多くの人が不快な思いをするようなこと(下ネタとか)を好き勝手に書くことは出来なくなってしまいましたが、たまにはあのときの初期衝動を思い出してブログを書きたいなと切に願います。

 こんなブログですが、読者の皆様が不快にならないように最新の注意を払い、良質なコンテンツを届けていきたいと思いますので、みなさまもどうか今後ともよろしくお願いいたします。

 餃子1日100マンコ!

Intel Movidius + TensorFlowでRaspberry Piでもサクサク画像認識

$
0
0

f:id:karaage:20180516223453j:plain:w640

Intel Movidius(Movidius Neural Compute Stick NCS)とは

 Intelが出したAIに特化したプロセッサです。これをつければ、Raspberry Piでもサクサクとディープラーニングでの画像認識が動くという優れものです。「欲しいなぁ」と思い悩んでいたら、ディープラーニングおじさんがポイっとくれたので、早速夜中に家でゴソゴソ試してみました。

f:id:karaage:20180516013818j:plain:w640

f:id:karaage:20180516013830j:plain:w640

 また、カメラは、Open CVから呼び出しやすいUSBのWebカメラを使います。私が使ったのは、以下ですが多分どの機種でも大丈夫だと思います。

 ネットに情報も出回っていたので楽勝だと思っていたのですが、案の定色々詰まったので自分へのメモとしてセットアップ方法残しておきます。誰かの役に立つことを願います。

Raspberry PiのIntel Movidius用セットアップ

 ディープラーニングではいつものことですが、バージョンが重要です。特にncsdk(MovidiusのSDK)とTensorFlowとKerasのバージョンは超重要です。うまく動かない場合は、バージョンダウンする勇気(?)を持つことも大切かもしれません。

 今回は以下のバージョンでセットアップしました。

python==3.5.3
ncsdk==1.12
tensorflow==1.4.1
keras==2.1.2
opencv==3.4.0

 主な流れは以下です。

  • Raspberry Piの基本セットアップ
  • TensorFlow + Kerasインストール
  • Intel Movidius Neural Compute SDKセットアップ
  • Open CV3 インストール

Raspberry Piの基本セットアップ

 使用するOSはRaspbian StretchでOKです。てっきりUbuntu入れないとダメだと思っていたのですが、Raspbian Stretch Desktopに正式対応したみたいです。Raspbianのセットアップに関しては下記記事参照下さい。

 注意点としては、以下2点です。

  • SDカードの容量は32GB以上にする
  • 上記事の「スワップファイル増大」の項目を必ず実施する

 偉大なる先人の知恵に感謝です。スワップファイルは、上記の記事では1GBに設定していますが、成功している人は大体2GBの設定にしているようだったので、以下のとおりに設定しました。

CONF_SWAPSIZE=2048

TensorFlow + Kerasインストール

 以下のとおりコマンド実行してインストールします。TensorFlowはバイナリパッケージを使うので、10分もあればインストールできます。Kerasは、Intel Movidiusには対応していないので、入れなくても良いです(今回は、Intel Movidius無しの場合との比較に使うために入れています)。

$ pip3 install numpy==1.13
$ sudo apt-get install libblas-dev liblapack-dev python3-dev libatlas-base-dev gfortran python3-setuptools
$ sudo pip3 install https://github.com/lhelontra/tensorflow-on-arm/releases/download/v1.4.1/tensorflow-1.4.1-cp35-none-linux_armv7l.whl
$ sudo apt-get install python3-h5py
$ sudo pip3 install keras==2.1.2
$ pip3 install -U numpy

 インストールできたかの確認は以下のようにライブラリをインポートして確認しましょう。

$ python3
Python 3.5.3 (default, Jan 19 2017, 14:11:04) 
[GCC 6.3.0 20170124] on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import tensorflow
/usr/lib/python3/dist-packages/h5py/__init__.py:34: FutureWarning: Conversion of the second argument of issubdtype from `float` to `np.floating` is deprecated. In future, it will be treated as `np.float64 == np.dtype(float).type`.
  from ._conv import register_converters as _register_converters
>>> import keras
Using TensorFlow backend.
>>> 

 上記のようにエラーでなければOKです(warningは出ますが、無視して良いそうです)。

Intel Movidius Neural Compute SDKセットアップ

 以下コマンドでSDKをインストールできます。3行目は実行するとビルドが始まり、終わるまでに4時間くらいかかります。リモートだと切断してしまう可能性があるので、Raspberry Pi本体のターミナルで実行するのが良いでしょう。byobuなどの仮想端末使っても良いかもしれませんね。

$ git clone http://github.com/Movidius/ncsdk
$ cd ncsdk
$ make install && make examples

OpenCV3インストール

 参考サイトによると、Intel MovidiusのSDKをインストールすると、一緒にOpenCV3のインストールされると書いてありましたが、そんなことは無かったです。SDKのリポジトリに./install-opencv.shというファイルがあるので、このスクリプトを実行してインストールするように仕様が変わったのかもしれません。

 ただ、OpenCVビルドをRaspberry Piでやるとまた数時間かかってしまうので、今回は以下コマンドでバイナリパッケージでインストールしました、。ものの2,3分でインストールできます。

$ wget https://github.com/mt08xx/files/raw/master/opencv-rpi/libopencv3_3.4.0-20180115.1_armhf.deb
$ sudo apt install -y ./libopencv3_3.4.0-20180115.1_armhf.deb
$ sudo ldconfig

Intel Movidiusのテスト

 Intel Movidiusがちゃんと動くか確認します。以下実行します。

$ cd ~/ncsdk/examples/tensorflow/inception_v3
$ python3 run.py

 以下のように electric guitar が認識されればOKです。

Number of categories: 1001
Start download to NCS...
*******************************************************************************
inception-v3 on NCS
*******************************************************************************
547 electric guitar 0.9883
403 acoustic guitar 0.00772
715 pick, plectrum, plectron 0.001509
421 banjo 0.000926
820 stage 0.0006595
*******************************************************************************
Finished

Intel Movidius有り無しでRaspberry Piでの画像認識性能の比較

Intel Movidius無し

 まずは、Intel Movidius無しの状態で試してみましょう。

f:id:karaage:20180516223519j:plain:w640
 Intel Movidius無し

 試すのは、以下と同じ内容ですね。

 以下コマンド実行すると、画像認識が動きます。

$ git clone https://github.com/karaage0703/tensorflow-pi
$ cd tensorflow-pi
$ python3 inspect_camera.py

f:id:karaage:20180516231209g:plain:w640
 あくびが出るくらい遅い(2倍速程度の速さです)

Intel Movidius有り

 次にIntel Movidius有りの状態で試してみましょう。

f:id:karaage:20180516223453j:plain:w640 Intel Movidius有り

 以下コマンドで、@pon_datさん作成のスクリプトをダウンロードします。

$ cdcd ~/ncsdk/examples/tensorflow/inception_v3
$ wget https://gist.githubusercontent.com/PonDad/bc185bdf81735dfd018bda6ce0b37fea/raw/85652b5b2b03dd6c37fc5b5de220546d431be444/app.py

 以下実行すると画像認識が動きます。

$ python3 app.py

f:id:karaage:20180516231735g:plain:w640
 めっちゃ早い。というか認識速度にカメラ表示がついてこれない感じ(2倍速程度の速さです)

まとめ

 Intel Movidiusを使ってRaspberry Piで画像認識を試してみました。Intel Movidiusで画像認識自体はかなり高速化されましたが、カメラの表示など他の部分がついてこれないので、使いどころは限られてきそうだなという印象です。また、高速化のためにはモデルの変換や、プログラムの修正が必要で、USBを刺したら自動的に高速化というわけではないので注意が必要です。ここらへんはハードウェアのアクセラレータなので、当たり前といえば当たり前なのですが、普通のPCでのGPU使用の有無のようにもっと簡単に切り替えられると楽なのになと思いました。

 Intel Movidiusを使えば、ラズパイで高速に「ヒューマンシーケンサー2.0」を動かせるかなと目論んでいたのですが、ソフトを変更するのが中々大変そうなのと、映像表示などの部分がボトルネックになりそうなので、一旦ペンディングしたいと思います。

参考リンク

Movidius で画像認識高速化 for ラズパイ | AI coordinator

MovidiusをRaspberryPi3で動かしてみた(執筆途中) - Qiita

Raspbian Jessie+ROS Kinetic+samba4.2.14+Python3.4.7+Tensorflow1.3.0+Keras2.1.2+OpenCV3.3.1+Jupyter Notebook+Single Shot Multibox Detector(SSD)環境の構築 - Qiita

Accessing the Raspberry Pi Camera with OpenCV and Python - PyImageSearch

関連記事

トルコと日本の友好の話「エルトゥールル号のことを忘れない」

$
0
0

f:id:karaage:20130428123235j:plain:w640

和歌山の串本でみかけた「トルコ姉妹都市」の看板

 GWに和歌山旅行に行ったのですが、その帰り串本という町に寄ったときに「トルコ姉妹都市」という文字の看板を見かけて気になっていました。実は私の新婚旅行先がトルコだったりするのですよね。

 後で調べたら、串本町がエルトゥールル号遭難事件のあった場所だということを知りました。エルトゥールル号遭難事件というのは、簡単に話すと、難破したエルトゥールル号という船に乗っていたトルコ人を日本人が助けたという話なのですが、事件から95年後、イラン・イラク戦争のときの日本人救出劇にトルコ国家が協力したという後日談含めて、トルコと日本の友好を示す感動的なエピソードなので、知らない方は是非Wikipediaなど是非一読下さい。

エルトゥールル号遭難事件 - Wikipedia

 新婚旅行のツアーで、トルコ人のガイドさんが、旅行の最後に話してくれたのがこのエルトゥールル号の話でした。陽気な方でしたが、このときは静かに、熱く語っていた覚えがあります。「トルコの教科書にも載っていて、トルコ人の誰もが知っている話」と語っていました。

 もちろん、トルコ旅行のツアーのガイドさんなので、リップサービスもあると思いますし、流石に今はトルコ人の全員が知っているわけではないと思いますが、それらを差し引いても「エルトゥールル号」の話は、トルコでの認知度に対して日本の認知度が低いと感じているので、少しでも周知に繋がればと思い紹介させていただきました。

トルコの思い出

 トルコというとどのような印象でしょうか?豪華なモスクでしょうか?ケバブでしょうか?

 では、そこに住むトルコの人はどんな人たちでしょうか?トルコアイスでお客さんをおどかす陽気なトルコ人でしょうか?ターバンを巻いたよく分からない人でしょうか?

 田舎の方のトルコ人は本当に素朴な方ばかりで、外国人が珍しいらしく、子供たちがキラキラした目で「一緒に写真を撮って欲しい」と身振り手振りでツーショット写真を頼む姿が印象的でした(妻がツーショット写真撮られていました)。 f:id:karaage:20130427203534j:plain:w640

 もちろん、トルコアイスで遊ぶ陽気なトルコ人もいました(笑) f:id:karaage:20180512011431j:plain:w640

 グランドバザールのトルコ人の商売人は「ゼンブタダ(全部無料)!」と叫んで日本人を呼び込んでいました(笑) f:id:karaage:20130429224856j:plain:w640

 カッパドキアの気球ツアーでみた光景は、一生忘れられないでしょう。 f:id:karaage:20130428123235j:plain:w640

 トルコの平均寿命って日本よりかなり短いらしいです(旅行の時は60歳と聞きました)。お金の計算も適当で、お店で買っても細かいお釣りは出てきません。みんなお釣りを払わなければトータルでOKっていう考え方みたいです。そんな適当だと、なかなかビジネスうまくいきそうにないですね(笑)

 でも、どのトルコ人も陽気で楽しそうでした。トルコ人のガイドさん曰く、多くのトルコ人にとって、日本は小さい島国にも関わらず、SONY、TOYOTAなど世界に名だたる企業があり、飛躍的な経済成長を遂げている憧れの国らしいです。

 確かに日本はトルコより経済の規模が大きく、平均寿命も長いですが、トルコ人と日本人どっちが幸せな人多いのかなと、陽気に笑うトルコ人の姿をみながら少し考えてしまいました。

串本町の橋杭岩を見ながらトルコに思いを馳せる

 串本町には、橋杭岩(はしぐいいわ)という奇妙な岩が立ち並んだ場所があります。

f:id:karaage:20180502151854j:plain:w640

 トルコのカッパドキア周辺にも、奇妙な岩がたくさん並んでいたので、既視感を覚えました。

f:id:karaage:20130428180921j:plain:w640

 エルトゥールル号に乗っていたトルコの方も、日本でこの岩を眺めて祖国を想ったりしたのでしょうか?奇妙な岩を見ながら遠いトルコのことを思い出しました。

 トルコと日本の友好って、遠くの国で接点がなくて、お互いのことを良く知らないからうまくいったという側面もあるのだと思います。例えばもっと近くの国だと、同じような事件があったとしても、様々な利害関係が生じて長く友好関係を築くことは難しいのだろうなと思います。でも、だからこそお互いを助け合い、尊敬し合うことのできる貴重な関係は、できる限り続いて欲しいなと1人の日本人として願っています。

関連記事

VRゴーグル「Oculus Go」購入・セットアップからおすすめコンテンツ・便利に使うTIPS情報まとめ

$
0
0

f:id:karaage:20180522070018j:plain:w640

Oculus Go買いました

 2万円台で購入できるVRゴーグルです。気付いたら買ってしまっていました。

 Oculus GoやVRの世界で起きていることの概要などは、以下の記事を参照下さい。

 私個人としては、日本にOculusを広める立役者となった、VRエバンジェリスト@GOROmanさんの影響が大きいですね。以下の本もオススメ…と言いたいのですが、Amazonでめちゃめちゃプレミア価格になっていますね…

ミライのつくり方2020―2045 僕がVRに賭けるわけ (星海社新書)

ミライのつくり方2020―2045 僕がVRに賭けるわけ (星海社新書)

 まだOculus Go購入して1週間ほどですが、色々便利な使い方とかコンテンツが分かってきたので、簡単に紹介します。この記事はしばらく随時更新していく予定です。

Oculus Go購入方法

 公式サイトでクリックするだけ!なのですが、たまに聞かれるので一応書いておきます。

 以下の公式サイトに行きます。

 ちゃんと日本語で表示されます。右上に「購入」ってボタンがあるのでクリックします。32GBか64GBか聞かれるので、漢なら64GBをクリックしましょう(笑)

 あとは、クレジットカードかPayPalで購入できます。以下の画面が出たら購入完了です。

f:id:karaage:20180517234322p:plain:w640

 海外からの輸送になりますが、特に支払った以上のお金が追加で必要ということは無いようです(多分。無いと信じてます…)。

 注文すると、4日ほどで到着します。Twitterみてると、ほとんどの人が注文から1週間以内に受け取っているようです。

 Amazonでも販売していますが、今のところぼったくり価格なので公式から買うのがよいでしょう。リンクもここからは貼りません。

Oculus Go開封からセットアップ

 説明の必要ないほど簡単ですが、一応ブロガーの端くれなので書いておきます。

 こんな感じの箱がくるので開けます f:id:karaage:20180522065257j:plain:w640

 コントローラ(リモコン)に付属の電池を入れます f:id:karaage:20180522070313j:plain:w640

 コントローラにストラップを通します f:id:karaage:20180522065850j:plain:w640

 完了! f:id:karaage:20180522070018j:plain:w640

 ソフトウェア的なセットアップは、スマホに専用のアプリを入れて行います。アプリが親切にガイダンスしてくれるので、恐らくOculus Goを買う人なら詰まることは無いかと思いますが、自信ない人は以下の記事参照下さい

Oculus Go、開封からセットアップまで完全ガイド | Mogura VR - 国内外のVR/AR/MR最新情報

 眼鏡着用の場合は、スペーサーを取り付けると良いらしいのですが、私の場合はそのまま使えたので取り付けませんでした。スペーサーの取り付け方は、マニュアルは分かりづらいので、以下の記事を参考にするのが良さそうです。

眼鏡っ子のためのOculus Go:眼鏡スペーサーの取り付け方法 - デイビッドのキャンプ

試したOculus Goおすすめコンテンツ(アプリ)

 自分で試してみて良いなと思ったコンテンツ情報です。順番は特に優劣ないですが、上から順に試していくのが良いかな、というくらいの気持ちで並べています。有料のものはタイトルに有料と記載しています。

 まだまだ全然試せていないので、色々教えて欲しいです。

ブラウザ(Youtube・Amazon Prime ビデオ)

 ありきりですが、ブラウザでYoutubeとかAmazon Primeビデオ見るだけでもう凄いです。Amazon Primeビデオとか全画面で見たら、ほんと映画館ですね。

 Youtubeだと、とりあえずPerfumeの「Everyday」あたりが良いでしょう。

 ボカロ好きなら以下あたりのリンクから見てみると良さそうです。私も気になるものを順に見ています。

Oculus Goで見たいお薦めボカロVR動画10選+α|NAT(ナット)|note

VRで見れるボカロリスト

 Amazon Primeビデオに関しては「見れない!」「操作性悪くて使えない!」という声が聞こえるので、不安に思っている方も多いと思いますが、この後の「便利に使うTIPS」のところで紹介するテクニックを使うと、劇的に操作性良くなるので是非試して見て下さい。

 VRで全画面表示すると完全に一人映画館です。

Oculus Rooms

 VR空間でチャットができます。一回だけ試しましたが、実在感(すぐそばにいる感)が半端ないですね。おしゃべりだけでなく、一緒にゲームしたり、動画みたり、音楽聞いたりもできます。GOROmanさん曰く、RoomsでオセロしてないとOculus Goの9割の力を発揮できていないらしいです(笑)

f:id:karaage:20180526194435j:plain:w640
 VR空間でのオセロ

f:id:karaage:20180526194417j:plain:w640
 「めちゃめちゃファンキー」と言われる私のアバター。ボボボーボ・ボーボボっぽい

 これは普通にビジネスでも使えそうだなと思いました。スカイプとはまた一つレベルの違う感覚です。

 Roomsに関しては、以下の記事も参考ください(ちょっと熱量多めです)

Oculus Goのことを人類はもっと真剣に考えるべきかもしれない :情熱のミーム 清水亮 - Engadget 日本版

ASCII.jp:Oculus GoのRoomsはなぜ凄いのか?|遠藤諭のプログラミング+日記

CoCo VR

 ディズニー提供の無料VRコンテンツです。短めですが、凄いクオリティ高いので一度試すのがおすすめです。

 途中、着替えをするところで止まっている人もいるようですが、ドアを開けると先に進めるので是非その先を体験して欲しいです。まさにディズニーの世界が広がっています。

The Body VR

 身体の中を探検できるゲームです。自分が小さくなった感覚を味わえます。無料で体験できるのに凄いクオリティです。

ニコニコ VR

 ニコニコ動画がVRで楽しめます。ユーザーインターフェースが未来感あるので、ニコニコ動画みたことある方なら一度試してみてもよいと思います。

Virtual Virtual Reality(有料)

 ハイクオリティの有料ゲームです。VR世界の中でVRゴーグルかけるという不思議な感覚の体験ができます(笑)

 以下記事参照下さい。買っても損は無いかな?と個人的には思いました。

他の方が進めているコンテンツのレビュー情報

 私以外の方のおすすめコンテンツ情報です。ここらへんの情報をもとにコンテンツを試しています。

Oculus Goの布教向きな酔わないタイトル|nerd0geek1|note

三半規管の限界に挑戦する、Oculus Goの酔いやすいタイトル|nerd0geek1|note

Oculus Goきた!!!!アプリをいっぱいやる♡♡♡♡♡♡♡ - トマシープが学ぶ

Oculus Go対応ソフト 3行レビュー

Oculus Goの便利な使い方(TIPS)

 Oculusを便利に使う方法や、楽しみ方を紹介します。随時模索中です。

Oculus GoでAmazon Prime ビデオを最大限に楽しむ方法

 Oculus Goと動画アプリだと一番相性が良いのが、専用アプリが用意されているNetflixです。ただ、Netflixも最低月額650円で、1年だと7800円とそこそこお高いです。Amazon Prime ビデオ契約している人ならそちらを楽しみたいですよね。Oculus GoだとAmazon Prime Videoは見れない・使い物にならないと思っている人も多いようですが、実はOculus GoでもAmazon Primeビデオを十分快適に楽しむことができます。ただ、少し注意点とある程度事前準備が必要なので紹介いたします。

 視聴方法に関しては、Oculus Goのブラウザ機能を使って、Webサイトを見る要領でAmazon Prime Videoのサイトに行くだけです。Amazon Prime Videoのサイトをブックマークしておくとよいでしょう。

 注意点としては、視聴ボタンをクリックする前に、以下のように、ブラウザの右上の「デスクトップをリクエスト」というアイコンをクリックして下さい。この操作をしないと動画は見れません。 f:id:karaage:20180526145129j:plain:w640

 ただ、このままの状態では、フルスクリーンにできる瞬間が起動時の一瞬だけだったり、早送りも巻き戻しもできないので非常に不便です。そんな不便を解消するために、専用のブックマークレットを作ってくださった神のようなお方がいます。Oculus Goのブラウザで以下のサイトにアクセス下さい。セットアップ方法に関しても、以下のサイトに書いてあります。

http://commitorbit.com/oculusgo/

 Oculus Goではコピペも日本語入力もできないので、上記アドレスを暗記して頑張って入力しましょう(この操作が一番大変です)。

 上記ブックマークレットを入れると、Oculus GoでAmazon PrimeのビデオのコントロールのUIが使えるようになります。

 ここで紹介した内容は、以下サイトのものを参考にさせていただいています(本当に素晴らしい記事です)。この説明だけでよくわからない方は、以下サイトも参照してみて下さい。

Oculus GoでAmazonプライムビデオを寝ながら見る方法 | 生まれ変わったら道になりたい

Oculus Go AmazonプライムビデオでコントロールUIを表示する方法 | 生まれ変わったら道になりたい

Oculus Goで好きなURLに簡単に行く方法

 Oculus Goで一番もどかしいのは、キーボードが使えない点です。検索するにもURL手打ちするにも大変です(しかも現状日本語も使えません)。好きなURLに簡単に行くには、自分でOculus Go専用のリンク集のページを作って、そのアドレスをブックマークに入れてしまうのが一番簡単かもしれません。最初そのページをブックマークするまでが大変ですが、その後はそのページを更新さえすれば、簡単にリンクで好きなページに飛べます。

 自分も実験的に、以下のような専用リンク集作ってみました。上記のAmazon Primeのコントローラのページへのリンクや、この記事で紹介した動画などへのリンクが入っています。もし良ければご自由にお使いください(随時更新予定です)。

http://karalog.hatenablog.com/entry/oculusgo

スクリーンショットを撮る方法

 以下サイトが参考になりました

ファイルの転送

 Oculus GoにUSBケーブルを接続した後、Oculus Goを被ると、デバイスのアクセスの許可の画面が出るので、許可をクリックしましょう。

 WindowsだとそのままPC上にマウントされるらしいのですが、Macだとそのままでは見れません。そこで「Android File Transfer」というソフトをインストールします。

 コマンドに慣れていてHomebrew使っている人でしたら以下コマンドで一発です。

$ brew cask install android-file-transfer

 以下のような画面でファイルがやりとりできます。 f:id:karaage:20180526193743p:plain:w640

 スクリーンショットは、Oculus/Screenshots以下にありました。

 以下サイトを参考にしました

VRヘッドセット「Oculus Go」に動画を転送する(USBケーブル編) | iPod LOVE

便利そうなケース

 ケース情報です。これは買う予定(買ったら追記します)

プライバシー設定(アクティビティの設定)

 ムフフな動画を見る方は、以下も気をつけましょう。初期設定でも設定するタイミングがあるので、そこで設定した上で確認しておくのがよいでしょう。

プロフィールアイコン設定できない

 現状はOculus Goのアプリではできないみたいです。Facebookと連携すると、Facebookアイコンが自動的に設定されているようですので、不都合な人は注意しましょう。

Facebook登録していなくても使えるのか?

 TIPSではないですが、Facebook登録していない人や、登録したくない人には気になる点ですよね。実は、私もFacebook登録したくない人で、心配していたのですが。特に問題なく使えました。Oculus Roomsも、Oculus IDという専用のIDで検索することができます。

 Facebookに登録しないと使えないアプリや機能も多少はありますが、致命的なものはないかなという印象です(少なくとも私が試したかったアプリは全てFacebook登録は不要でした)。

VRアプリ開発情報

 VRアプリ開発もしていきたいなと考えています。ただ、コンテンツ作りこむのは凄い大変そうな予感。とりあえず分かりやすそうな記事をメモしておきます。こちらの方はサンプル作れるようになったら、また別で記事書きます。

Oculus Go とUnityとMacで始めるVR開発

Oculus GoでUnity VRサンプルを動かしてみた - 趣味TECHオンライン | 趣味のモノづくりを応援するオンラインメディア

まとめ

 「Oculus Go」に関して簡単にまとめました。この記事では、あえて「Oculus Go」の良さに関しては触れませんでした。こればかりはVRというものの性質上、あんまり説明しても意味がないかなと思っています(むしろ間違って伝わる可能性の方が大きいと感じています)。買って被る、それしかないかな。これが個人で体験できるというのは、かなり衝撃でした。

 少しだけ書くなら、自分自身は実はVRに対して今までそこまで良い印象は持っていませんでした(有料の施設でVR体験したとき、ジェットコースター的なものばかりで酷いVR酔いをしたのも大きかったです)。ただ、Oculus Goでその印象は大きく変わりました。VRコンテンツもジェットコースター的なもの以外にも優良なコンテンツありますし、VR会議などの広く使えそうな用途も多くあります。

 VRがどこまで普及するか自分自身はちょっと測りかねていたのですが、VRが広く普及する可能性はありえるかもしれないなと思い始めています(そのときは、恐らく今のようなゴーグルの形ではないと思いますが)。そして今のところのキラーコンテンツは、やはり動画でしょうか。Oculus Go + Amazon Primeビデオの組み合わせは、ほんと個人映画館というレベルです。あと、VRのコンテンツの購入は、まさに体験を買うという表現がピッタリくるなと感じます。VRはリアルな体験をデジタル化するデバイスなのだなということをOculus Goで実感しました。

 2万円台でこれほど未来感を味わえるデバイスは、なかなか無いと思いますので興味ある方はチェックしてみて下さい。

関連記事

有松の古い町並みでお散歩写真

$
0
0

f:id:karaage:20180519151333j:plain:w640

有松の古い町並みの写真が撮りたくなった

 愛知県の有松に古い町並みがあります。私の周囲の人も、みなこの場所で良い雰囲気の写真を撮るので気になっていました。そんな中、以下のような記事をみてついに我慢ができなくなってその日のうちに写真を撮りに行ってしまいました。

 実は私の家から自転車で行ける距離にあるのですよね。もっと早く行けよという話です(笑)

有松の古い町並み写真

 古い町並み撮影してみたのですが…難しいです。全然雰囲気でない!古い町並みじゃないものも結構混じっていると、油断するとすぐ古くもない普通の町並みになってしまう(笑)

古い町並みの写真

f:id:karaage:20180519145228j:plain:w640

f:id:karaage:20180519145443j:plain:w640

f:id:karaage:20180519145509j:plain:w640

f:id:karaage:20180519150257j:plain:w640

f:id:karaage:20180519150455j:plain:w640

f:id:karaage:20180519151333j:plain:w640

f:id:karaage:20180519151358j:plain:w640

f:id:karaage:20180519155508j:plain:w640

f:id:karaage:20180519155803j:plain:w640

f:id:karaage:20180519155919j:plain:w640

f:id:karaage:20180519155937j:plain:w640

ダーシェンカ・蔵

 ブログ記事みると、必ず紹介されているので、吸い込まれるように入って行きました(笑)

f:id:karaage:20180519151525j:plain:w640かわいい看板

f:id:karaage:20180519151520j:plain:w640
 少し分かりにくいのですが、この奥の「やまと屋」さんの扉の先の突き当たりにあります

f:id:karaage:20180519155118j:plain:w640
 2階がイートインスペースになっています。蔵っぽい雰囲気です

f:id:karaage:20180519152659j:plain:w640
 コーヒーとチョコパンいただきました。美味しい!

 お店の中の撮影は、一言かけて了承いただいてあります(撮影に関しては、了承欲しい旨の張り紙がお店にありました)。

アクセス情報

 自転車で行ったので、駅の近くの駐輪場に停めました。料金分かりにくかったのですが、100円/24時間 です。交通系電子マネー(Suica)も使えて、99円になってお得だそうです(笑)

f:id:karaage:20180519144947j:plain:w640

まとめ(撮影機材情報)

 便利ズームの「OLYMPUS M.ZUIKO DIGITAL ED 12-100mm F4.0 IS PRO」で撮影しました。

 最近こればっかりです(笑)広角気味で撮りたいのですが、あまり広角にすると古い町並みに関係ないものがすぐ入り込んでしまうので、ズームできるこのレンズが大活躍でした。

 RAW現像は、mae (id:hibi-mae) さんの以下記事の「mae0301_3」プリセットを使用しました(現在はプリセット配布停止しております)。

 今回、古い町並みにこのフィルムライクなプリセットがバッチリハマりました(と自分は思っています)。多分、このプリセット無かったら今回の記事は公開しなかったと思います。

 というわけで今回(いつも?)は、機材とプリセットに助けられた記事でした。有松は近場なので是非また撮影にいきたいなと思っています。

参考リンク

 私が影響を受けた、有松の古い町並みの記事の数々です。多分無意識に構図パクってます(笑)

バルミューダのDCモーター高級扇風機「GreenFan Japan」の風が静かで心地よい

$
0
0

f:id:karaage:20180520103557j:plain:w480

バルミューダの高級扇風機を(妻が)購入しました

 ある日突然妻からおねだりされました

「ねえ、扇風機買っていい?」

「扇風機?うん、これから暑くなるし良いのじゃない?」

 高価なクーラーじゃなくて、扇風機をおねだりするなんてなんて経済的なのだろう、さすが私の妻!と思ってすっかり忘れていたある日。その扇風機が届きました。

f:id:karaage:20180520103557j:plain:w480

 お値段「39,800円成(購入当時)」

 「しゃ、しゃんまんきゅうせんはっぴゃくえんーーーー!」

 と叫びながら私が泡吹いてひっくり返ったのは想像にかたくないと思います。

バルミューダの扇風機が中々良かった

 買ってしまったものは仕方がないと、使ってみたのですが、扇風機なかなか良かったです。

スタイリッシュ

f:id:karaage:20180506170710j:plain:w480
 3歳になる娘との比較(安全のため電源抜いてあります)

 サイズ的には、3歳になる娘とちょうど同じ大きさで手頃(?)ですね。見た目もすごくスタイリッシュです。

 羽は特殊な2重構造になっているようです。機能的にもすぐれているようですが、見た目もおしゃれですね。

f:id:karaage:20180520103530j:plain:w640
 アップの図

省エネ&静音

 このバルミューダの扇風機、DCモーターを使っているのが特徴となります。DCというのは直流ですね。昔ながらの扇風機は全部AC(交流)モーターを使用しています。DCモーターの特徴は以下となります。

  1. 風量調整が細かくできる(風が心地よい)
  2. 静音性に優れる(音が静か)
  3. 消費電力が小さい(電気料金の節約)

 良いところばかりですが、その分扇風機自体のお値段はお高いというわけです。

 特に、風量調整が細かくできるためなのか風が非常に心地よいです。これは実際に家電量販店などで並んでいたら是非試してもらいたいなと思います。

 また、音もとても静かで一番弱い風にしていると、ほとんどといって良いほど音が聞こえません。その上、心地よい風が得られるので、気分はまるで心地よい風のふく草原にいるかのようです(大げさ)

 静音性に関しては、参考までに動画撮って見ました。

 前半は、風力を最大にしています。娘の歌に比べて音が非常に静かなのが分かると思います。ちなみに娘はハッピバースデーの歌を歌っていますが、私は誕生日でもなんでもありません。また途中、パワーを最弱にすると娘の歌が終わっても、ほとんど音が聞こえないかと思います。

 ただ、このあたりはiPhoneのマイクとの関係もあるので、実際の音もどこかで実際聞いてみるのが良いかなと思います。

サポート

 実は、最初届いたときリモコンが効かないという初期不良がありました。ちょっと残念でしたが、送り返したら1週間ほどで無料で全品交換になって帰ってきたので、サポートは特に問題ないかなという印象でした。

f:id:karaage:20180520114226p:plain:w480
 一部個人情報を消してあります

 欠品なども特になかったのですが、よっぽど慌てたのか何故かACアダプタが1個増えていたのが、ちょっとだけ不安でした(笑)

f:id:karaage:20180520102624j:plain:w640 何故か増えたACアダプタ。12Vで使いやすそうだから電子工作にでも使おうかな?

まとめ

 バルミューダのDCモーター高級扇風機を簡単に紹介してみました。お値段はお高めですが、静かで心地よいので、クーラーは苦手でお金出せる人には良いと思います。あとは、大事な人への贈り物とかも喜ばれるかもしれませんね。


ディープラーニングで動画に自動でモザイクをかける「ディープモザイク」作ってみました

$
0
0

f:id:karaage:20180527185431p:plain:w480

ディープラーニングでの物体検出

 以前ディープラーニングを使った物体検出を試してみました。

 前回の成果物は以下です。 f:id:karaage:20180321151526g:plain:w640

 ただ、このままではちょっと面白いだけで何の役にも立ちません。折角なので何か自前のデータの学習をさせて、世のため人のためになるものを作ってみたいですね(無表情)。

 ふと思い出したのは、アダルドビデオのモザイク入れです。あの処理って、実は自動化されていなくて、職人さんが1フレーム毎にモザイクを入れているらしいのです。この作業を自動化すれば、きっともっと世の中に素敵な動画が溢れてみんなが幸せになるはず!

 というわけで、モザイクを自動で入れるソフトを作れないか試してみることにしました。名付けて「ディープモザイク」です。途中宇宙語が続くので、結果が気になる方は最後だけ見て下さい。

ディープラーニング(SSD)を使ってモザイクをかける方法

使用するソフト

 今回使用するのは、KerasとTensorFlowでSSDを実装している「rykov8/ssd_keras」のリポジトリをフォークして、自分が改造した以下のリポジトリとなります。

Python環境構築

 最初に、以下の記事を参考にセットアップします。使用するPCはMacかLinuxを想定しています。動作確認した環境は iMac (Retina 4K, 21.5-inch, 2017) + macOS Sierra 10.12.6 です。LinuxはUbuntu 16.04で確認をしています。

 主要なライブラリのバージョンは以下です。

anaconda3==4.4.0
tensorflow==1.0.0
keras==1.2.2
opencv-python==3.3.0

 具体的な手順としては、上記記事を参考にpyenvをインストールしたあと、以下コマンドでAnaconda3と主要なライブラリをバージョン指定してインストールして下さい(最新バージョンだと動きません)。

$ pyenv install anaconda3-4.4.0
$ pyenv global anaconda3-4.4.0
$ conda create -n ssd anaconda
$ pyenv global anaconda3-4.4.0/envs/ssd 
$ pip install numpy==1.13
$ pip install tensorflow==1.0.0
$ pip install keras==1.2.2
$ pip install opencv-python==3.3.0.10

教師データ収集

 教師データを収集します。今回は卑猥なロンスタさんの動画を使用しました。フリー素材のロンスタ(id:lonestartx) さん、いつもありがとうございます!下記リポジトリのfree_dataというディレクトリにも実際に使用したデータが、アノテーションデータ付きでアップロードされています。

 もし画像を使って同じことをやりたいという人は、ネットからスクレイピングするのが良いと思います。以下にスクレイピングする方法の記事紹介しますが、この方法で集められる画像は量が少ないのでさらに一工夫必要かもしれません。

 また、画像の場合はここで後の処理のために全ての画像ファイルの拡張子をJPEG形式(.jpg)にしておいて下さい。これは、アノテーションに使用する「VoTT」というソフトがエクスポートするxmlファイルのfilenameに何故かファイルの拡張子が入れてくれないため必要な処理です。

アノテーション

 アノテーションツールとしてVoTTというマイクロソフト謹製のソフトを使います(Twitterで教えてもらいました)。他にも、labelImgImageNet_Utilslabeling_for_object_detection等のツールを比較したのですが、以下の4点でVoTTを選びました。

  • ツールの使い勝手が良い
  • Windows/Mac/Linuxのバイナリパッケージがある(ビルド不要)
  • SSD(PASCAL VOC形式)とYOLOの両方の形式のエクスポートが可能
  • 画像に加えて動画にも対応している

 実は前述したように「エクスポートするxmlファイルのタグにファイルの拡張子を入れてくれない」とか「ファイルパスの指定が絶対パス」などの細かい不満点に後で気付いたのですが、運用でカバーできるのでそこは割り切りました。

 VoTTは以下からダウンロードできます。

 私はMac用のバイナリファイル「VoTT-OSX.zip」をダウンロードしました。

 起動すると、以下のような画面が表示されます。今回は動画を使うので、右の「Video」をクリックします。 f:id:karaage:20180514111206p:plain:w640

 動画を選ぶダイアログが表示されるので、動画を選択します。なお「VoTT」で読み込める動画の形式は限られているようなので、もし動画が読み込めない場合はあらかじめ動画を変換しておきましょう。私の場合mov形式のファイルが読み込めなかったので、あらかじめiMovieでmp4形式に変換しておきました。

 動画を読み込むと以下のような画面が表示されるので、Region TypeにRectangleを選び、検出したいカテゴリのラベルを「Labels」に加えます。今回は、卑猥なロンスタさんの顔「face」と手「hand」とします。 f:id:karaage:20180527180411p:plain:w640

 ここからが地獄のアノテーション作業です。以下のように検出したい物体を四角(Bounding Box)で囲って、タグを付けていきましょう。 f:id:karaage:20180527180633p:plain:w640

 ブレた画像等、なるべく多くのパターンでアノテーションしておきます。ここでの作業が精度の肝となります。そこの人「全然自動じゃ無い!」とか言わないように! f:id:karaage:20180527180740p:plain:w640

 ちなみに「VoTT」は、動画を読み込んだ場合、タグをつけてから次のフレームに移動すると、自動で判定してタグをつけてくれます。めちゃめちゃ凄いです。もちろん失敗する場合もあるので、そのときは手動でタグ付けして下さい。

 疲れたので、100フレーム分くらいタグをつけたら良しとします。理想的には、数千から数万くらいのデータはあった方が良いようですが、今回はこの程度で勘弁してあげましょう。

 画像の場合も、基本的には同じ要領でアノテーションが可能です。

 タグ付け終わったら、一旦ここで File -> Saveで保存しておきましょう。教師データのフォルダと同じ場所にjsonファイルが生成されます。このjsonファイルがタグ付け情報なので、教師データと一緒に大切に保存しておきましょう。jsonファイルは、テキストファイルなので一度どんなものか中身を見ておくのも良いと思います。以下のようなjsonファイル用ビュワーを使うのもオススメです。

Python製のマルチプラットフォームJSONファイルビューワーPyJSONViewerを作った - MyEnigma

物体検出のソフトウェア準備

 以下コマンドでリポジトリをクローンします。

$ git clone https://github.com/karaage0703/ssd_keras

 VoTTを起動して、SSDの形式でExportします。具体的には、メニューのObject Detection->Export Tagを選択します。

 すると以下の画面が表示されるので、以下のようにExport Format:はTensorflow Pascal VOCとして、Output Pathにssd_keras/PASCAL_VOC/dataを指定します。 f:id:karaage:20180603233606p:plain:w640

 ssd_keras/PASCAL_VOC/dataに以下のようなファイルが生成されたらOKです。 f:id:karaage:20180514111257p:plain:w640

 次に、以下コマンドを実行してXMLファイルからpickle(.pkl)ファイルを生成します。

$ cd ssd_keras/PASCAL__VOC
$ python get_data_from_XML.py

 今回は、「face」「hand」の2つのタグという前提ですが、もし異なる数のタグを学習させたい場合は、ssd_keras/PASCAL_VOC/get_data_from_XML.pyをあらかじめ修正しておいて下さい。具体的には、 self.num_classesにラベルの数を入れて、def _to_one_hot関数の中身を、ラベルの名前に合わせて修正して下さい。

def__init__(self, data_path):
        self.path_prefix = data_path
        self.num_classes = 2
        self.data = dict()
        self._preprocess_XML()

...

    def_to_one_hot(self,name):
        one_hot_vector = [0] * self.num_classes
        if name == 'face':
            one_hot_vector[0] = 1elif name == 'hand':
            one_hot_vector[1] = 1

...

import pickle
data = XML_preprocessor('data/Annotations/').data
pickle.dump(data,open('supervised_data.pkl','wb'))

 pickleファイルが生成できたら、以下実行してpickleファイルをきちんと読み込めるか確認して下さい。以下のように検出したいラベルの座標が表示されればOKです。

$ python
>>> import pickle
>>> f = open('supervised_data.pkl', 'rb')
>>> data = pickle.load(f)
>>> print(data.keys())
dict_keys(['lonestartx_free_frame_1', 'lonestartx_free_frame_10', 'lonestartx_free_frame_11', 'lonestartx_free_frame_12', ....
>>> print(data['lonestartx_free_frame_1'])
[[ 0.433333330.068518520.5156250.277777781.0.        ]
 [ 0.358333330.722222220.4093750.840740740.1.        ]
 [ 0.5656250.70.622916670.79629630.1.        ]]

 続いて、以下サイトから重みパラメータ weights_SSD300.hdf5を入手します。。ブラウザはGoogle Chrome推奨です。

MEGA

 ダウンロードしたweights_SSD300.hdf5は、ssd_kerasディレクトリ直下に置きます。

ディープラーニング(SSD)の学習

 いよいよ学習ですが、その前にssd_kerasディレクトリ直下のSSD_train_custom.pyを修正して下さい。

 修正する必要があるのは25行目のクラス数のNUM_CLASSESです。分類したいクラスの数(ラベルの数)+ 1を設定します。1を加えているのは、どれにも当てはまらないクラスがあるためです。今回は、2つのラベルなので3を入れています。

 修正したらssd_kerasで以下のコマンドを実行して下さい。

$ python SSD_train_custom.py

 学習が終わると、以下のようにテスト結果が表示されます。これらの結果は、元々のソフトでは表示されなかったので私が追加したものです。

 以下はacc(精度)の結果です。詳細の説明は省きますが、val_accというのが本当(?)の精度です。0.6〜0.7あたりで収束していますね。教師データの数が少ないのでこんなものなのかもしれません。

f:id:karaage:20180527181720p:plain:w640

 最後にランダムに選択したテストデータで結果が表示されます。

f:id:karaage:20180527181649p:plain:w640

 良さそうな感じですね。

モザイク動画生成作業

 いよいよ学習したモデルを用いてモザイク動画を生成します。

 SSD_pred_video.pyというファイルの以下部分を、自分の使用したラベル、学習したデータ、使用する動画ファイルのパスに修正します。学習データは、checkpointsというディレクトリにweights.xx-x.xx.hdf5というファイルがたくさんあるので、そのファイル名を指定して下さい。基本には世代が進んだ学習モデルを用いた方がよいので 100世代目のweights.99-x.xx.hdf5というファイルを用いるのが よいでしょう(後ろの x.xx の部分は学習を実行するたびに変わります)。

voc_classes = ['face', 'hand']
model.load_weights('./checkpoints/weights.99-2.78.hdf5', by_name=True)
vid = cv2.VideoCapture('./free_data/lonestartx_free.mp4')

 修正したら、以下実行しましょう。

$ python ./SSD_pred_video.py

 ./free_data/output.aviというモザイク処理された動画が生成されます。

モザイク動画生成結果

 ディープラーニングでのモザイク処理は以下のようになりました。

f:id:karaage:20180527174136g:plain:w640

 結構ちゃんとモザイクかけれていますね!たまにモザイク外れているけど、気にしないことにしましょう(笑)

まとめ(ディープラーニングでの自動モザイクかけ)

 ディープラーニング使って、卑猥な動画(?)に自動でモザイクをかけるソフト「ディープモザイク」を作ってみました。今回は動画を大量にアノテーションしているので、全然自動化という感じがしないかもしれませんが、大量の教師データさえ蓄えれば、実際の商業用のムフフな動画でも、かなり高精度にモザイクをかけられるのじゃないかなと思っています。

 本当に使おうとすると、今回の様な四角(Bounding Box)ではなく、ピクセル単位で範囲を指定できる、セマンティックセグメンテーションを用いた高精度な物体検出が必要になってくるので、もっと難易度は上がるのかなと思います。

 ただ、自前の動画データとディープラーニングという組み合わせに関しては可能性を感じていただけたのでは無いかと思います。この記事で興味持った方は、是非色々な応用例を試していただけたらと思います。私も世のため人のためエロのため(?)ディープラーニングの活用例を色々考えてみたいと思います!

Aidemyさんのブログコンテスト(#Aidemynote)参加

 本記事で使用したプログラム、Kerasというディープラーニングのフレームワークを使用したのですが、プログラムの動作の理解、改造にあたっては、Aidemyさんの「ディープラーニング基礎」が非常に参考になりました。

 ディープラーニングを簡単に利用できるソフトは色々出て来ていますが、やはり自前データを使って新しいことをやろうとすると、ディープラーニング自体の基礎や、Pythonの知識、TensorFlow + Kerasというディープラーニングのフレームワークの使いこなし等様々な知識が必要になることを改めて実感しました。今回も「Aidemy」さんのコースにない物体検出にチャレンジしてみたのですが、基礎の重要性を感じるとともに、学んだことは応用きくことが分かりました。もしディープラーニングで何か新しいことをやりたい人はAidemyさんがオススメです!そして、Aidemyさんには是非、物体検出のコースも作って欲しいなと思います(笑)

 本記事は、以下のAidemyさんのコンテストに参加しています。

環境設定不要で画像認識を学べるチュートリアル

 今回の物体検出の例は、環境設定が必要ですし、教師データのアノテーションも大変で、実践するにはハードル高い内容となります。そこで、もっと手軽に機械学習・ディープラーニングを学習したいという人のために「Google Colaboratory」を使って環境設定不要でブラウザだけで画像認識を学べるチュートリアルを有料noteで公開しました。

 非常に実践的な内容となっていますので、Aidemyさんのプログラムと合わせて手を動かしながら実践いただくと理解が深まるのではないのかなと思っています。興味のある方は、こちらも合わせてご参照下さい。

関連記事

音声ブログ「Voicy」が通勤時間のインプットに良いかも

$
0
0

「Voicy」を聞いています

 最近会社の行き帰りに「Voicy」を聞いています。「Voicy」は、ブログの音声バージョン的なサービスです。個人ラジオ局と言い換えても良いかもしれません。Podcast知っているなら、Podcastと基本は同じと思ってもらえば良いと思います。

 PCでも聞けますし、スマホならアプリがあるのでアプリで聴くのが良いでしょう。

 「Voicy」の特徴としては、どのチャンネルも10分〜20分程度と短めで、通学・通勤に聞くのに丁度良いボリューム感ということと、参加に審査があるため、コンテンツのクオリティがある程度担保されている(極端にダメなものは無い)ところでしょうか。ランキング上位の人は、ネットの有名人の方が多いようです。ただ、私が良く見る層とは異なるようで「名前は聞いたことあるかも」くらいの方が多かったです。自分とは全然違う考え方の人が多くて、なかなか面白かったです。そんな中でも、面白いなと思ったVoicyのチャンネルを紹介したいなと思います。

サウザーラジオ 〜青雲の誓い〜

f:id:karaage:20180531000934p:plain:w480

 ランキング1位だったので聞いてみました。内容としては、「いかにこの資本主義で働かずに生きて行くか」ということを考え、実践しているサウザーさんの自分語り的なコンテンツです。

 確かにこういう話に興味を持つ人って今の時代には多いのかもしれませんね。私自身は、あんまり真似したいなというという気持ちは起こらなかったのですが(働きたくないというのは凄い分かりますが)、自分とは違うバックグラウンドとか考え方の人の話を聞くというのも「こういう人もいるんだ」という点で視野が広がって良いかなと思いました。

 あと、特筆すべきはその話術ですね。例えば、自分の話に説得力を持たせるために、日本の武将の逸話、三国志のエピソードなどをさりげなく引用したり。ここぞというところで、具体的な自分の体験談を交えてくるのですよね。かなり多くの書籍を、自分の仮説を持って読み込んでいることが伺えるので、その考え方も含めて相当頭がキレる人だなと思いました。やはりランキング1位になる方は只者ではないですね。

 ちょっとこの考え方は取り入れてみたいなと思いました。というわけで、よく引用されている「孫子の兵法」を読んでみたりしています。ちなみに、ずっと「兵法」って孫子さんという人が書いた本だとばかり思っていたのですが「孫子」というのが兵法書のことで、書いた人は「孫武」さんらしいです。自分全然教養ないですね…

孫子の兵法 (知的生きかた文庫)

孫子の兵法 (知的生きかた文庫)

澤円の深夜の福音ラジオ

f:id:karaage:20180531003154p:plain:w480

 Microsoftのエバンジェリスト澤円さんのチャンネルです。以下の記事を読んでから気になって聴き始めました。

 しゃべりは朴訥な感じで、めちゃめちゃうまいというわけでは無いのですが。上記の記事もそうですが、内容が素晴らしいものが多いなと思いました。具体的な題名はあげませんが、仕事で悩んでいる帰り道に、とあるエピソードを聴いてもの凄い勇気付けられて元気が出ました。言葉の力というものを、久しぶりに信じたくなった瞬間でした。

 全体的に前向きで元気がもらえる内容が多く、仕事で悩んでいるビジネスマンにおすすめです。

Voicy以外の音声ブログ

 最後に「Voicy」以外の音声ブログも紹介したいと思います。

匿名ラジオ

 AruFaさんと、ダ・ヴィンチ・恐山さんという最狂コンビのラジオです。頭空っぽにして聞くととにかく楽しめます。Youtubeにもあるのですが、ラジオがわりに聞く場合は上記サイトから音声ダウンロードのページに飛んで再生するのが良いです。以下のオススメを順に聴いています。1本1本が短めなのも良いです。

アキバ系!電脳カウボーイズZ

 うちだま (id:uchidamax)さんと清水亮さんのPodcast。人工知能(ディープラーニング)関係の内容の濃いPodcastです。

 ディープラーニングに興味のある方は必聴です。この番組は1本1時間近くあるので、長距離移動のときに一気に聴くのがオススメです。更新はまちまちです。

 あと、Podcastだと昔放送していた高橋名人の「16SHOT RADIO」という番組が好きでした。放送聴けなくなっちゃったのが残念だったのですが、検索したらニコニコ動画にありました。権利怪しそうなので、リンクは控えます(笑)。ファミコン世代の人にはオススメです。

まとめ

 音声ブログの「Voicy」のおすすめチャンネル+αを紹介しました。たまに、違ったプラットフォーム上のコンテンツをのぞくと、全然違ったカルチャーとか、考え方の人がいたりするから面白いなと思います。「Voicy」も自分の考え方とは相入れない人が多いのですが、定期的に自分にとって異質なものを取り入れるってのは大事かもなとか思っています。

 「Voicy」や「Podcast」などの音声ブログ、音声だけで手軽に楽しめるので通学・通勤のお供にいかがでしょうか?という話でした。

VR初心者が「Oculus Go」でVRアプリ開発環境構築する手順

$
0
0

f:id:karaage:20180603010605j:plain:w640

Oculus GoでVRアプリ開発したい

 Oculus Go買って色々遊んでいます。

 一通りコンテンツを遊んだら、やっぱりチャレンジしたいのがオリジナルのVRコンテンツ作成ですね。以下あたりを参考にすればサンプルくらい簡単に動かせるだろと思っていたのですが、私がUnityもAndroidもVRも全てが初心者だったので、かなりハマってしまいました。

Oculus Go とUnityとMacで始めるVR開発

Oculus GoでUnity VRサンプルを動かしてみた - 趣味TECHオンライン | 趣味のモノづくりを応援するオンラインメディア

 自分のメモとして参考までに手順を残しておこうと思います。私のようなVR初心者には参考になるのじゃないかなと思います。

Oculus GoでVRアプリ開発環境構築する手順

 具体的には、以下の5つの手順を踏みました。10GBくらいの空き容量とそこそこ時間が必要です。

  • Android SDKインストール
  • Java SDKインストール
  • Unityのインストール
  • Unityの設定と動作確認
  • VRサンプルアプリダウンロードと動作確認

 順に実施していきましょう。

Android SDKインストール

 実は「Oculus Go」はAndroidで動いているので、AndroidのSDKが必要です。以下からAndroid Studioなるものをダウンロードして、インストールします。

 ただ、注意点として最新のSDKだとうまくいかないらしいので、一部ファイルを差し替える必要があります。

 具体的には、以下サイトからtools_r25.2.5-macosx.zipというファイルをダウンロードして解凍します。

 するとtoolsというフォルダが出来るので、/Users/username/Library/Android/sdk/toolsというフォルダに上書きコピーしましょう(usernameのところは、ご自身のユーザー名になります)

Java SDKインストール

 JavaのSDKも必要になるようなので、以下サイトで「jdk-8u171-macosx-x64.dmg」というファイルをダウンロードしてインストールします。

Java SE Development Kit 8 - Downloads

Unityのインストール

 VRアプリを開発するメインソフトとなるUnityをインストールします。以下公式サイトからダウンロードできます。

unity3d.com

 Homebrew Caskを使用する人なら、以下コマンドでもOKです。

$ brew cask install unity

 Homebrew Caskに関して詳細は以下記事参照ください。

 また、Unityが初めての方は、以下でUnity IDを登録しておきましょう。

Unityの設定と動作確認

 Unityを起動して、新しいプロジェクトを作成しましょう

 メニューから「File -> Build Setting」を選択すると下のような画面になるので、以下のようにAndroidを選択して、右側真ん中あたりの「Open Download Page」 をクリックします。

f:id:karaage:20180602235136p:plain:w480

 すると、「UnitySetup-Android-Support-for-Editor-2018.1.0f2.pkg」というファイルがダウンロードされます。ファイルはインストーラーなので、起動してインストールしましょう。

 インストール完了したらUnityを再起動します。同じようにメニューからBuild Settingを開いて、Android左下のSwitch Platformをクリックしましょう。

 続いて、メニューの「Unity -> Preference」からSDKとJDKのフォルダを入力します。

f:id:karaage:20180603005206p:plain

SDKの場所は以下です(usernameにはご自身のユーザー名となります)。

/Users/username/Library/Android/sdk

JDKの場所は以下です

/Library/Java/JavaVirtualMachines/jdk1.8.0_161.jdk/Contents/Home

 続いて、Player Settingを行います。ここは分かりづらいのですが、Build Settingの画面の左下の「Player Setting」をクリックすると、以下の画面のようにUnityのメイン画面の右側に「Player Setting」というウィンドウが現れるので、ここを設定します。

f:id:karaage:20180603005505p:plain:w640

 その後、「Company Name」と「Product Name」を設定します。ここは適当で良いのですが、注意点として、下の方にある「Identification」の「Package Name」というところで、 com.Company Name.Product Nameという設定をしないとビルドするときエラーになってしまいます。

 例えば、「Company Name」をkaraage、「Product Name」をtestとした場合は、以下のようにPackage Nameをcom.karaage.testとしなければなりません。

f:id:karaage:20180603005431p:plain:w480

 また、その下のMinumum API LevelはAPI level 16を選ばないとエラーが発生しました。

 その後、さらに下の「XR Setting」を設定します。

 以下の図のように「Virtual Reality Supported」にチェックを入れて、Virtual Reality SDKsにOculusを選択します。 f:id:karaage:20180603010018p:plain:w480

 これでようやくUnityの設定は完了です。いよいよOculus GoとPCをUSBケーブルで接続します。

f:id:karaage:20180603010605j:plain:w640

 Oculusが起動すると、USBでマウントしてよいか的な画面がOculus Go上に表示されるので、あらかじめ許可しておきましょう。

 そのあとUnityの「Build Setting」の画面から「Build & Run」をクリックしましょう。

 以下のように、Oculus Go上でデフォルトの3D画面が表示されればOKです。

f:id:karaage:20180603010220j:plain:w640

VRサンプルアプリダウンロードと動作確認

 ここまで環境設定できたら、VRサンプルに関しては以下のサイトを参考にほぼ詰まらずできました(感謝)。

 Asset StoreでVR Samplesを検索して、ダウンロード(なんと無料です)します。 f:id:karaage:20180603010323p:plain:w640

 インポートしたら、Assets/VRSampleScenes/Scenes/MainMenuHierarchy(Unityの左側のメニュー)にドラッグしましょう。

 以下のような画面が表示されたらOKです。

f:id:karaage:20180603010337p:plain:w640

 Unityの「Build Setting」の画面から「Build & Run」をクリックしましょう。

 Oculus Go上で以下のようにVRサンプルアプリが起動します。 f:id:karaage:20180603010256j:plain:w640

 以下のようなサンプルゲームが遊べます。普通に楽しく遊べるクオリティです! f:id:karaage:20180603010306j:plain:w640

f:id:karaage:20180603010312j:plain:w640

まとめ

 「Oculus Go」でVRアプリ開発環境構築してみました。初心者すぎて大変でしたが、なんとかこれでVRアプリを作れそうです。ただ、Unityが全然分かっていないので、色々勉強しないと…です。何かUnityの本でも買ってみようかなと思っています。

 Oculus Go特有の情報に関しては、Web情報を漁った方が良さそうですね。以下あたりが参考になるのかなと思っています。

ブログで公開転職活動を開始します

$
0
0

f:id:karaage:20180610004829j:plain:w640

はじめに

 本記事は公開から3ヶ月(9月中頃)までトップに表示予定です。

仕事で悩む日々です

 最近、詳細はここには書けませんが諸々の事情で仕事で悩んでいます。

 最初に誤解されないように書いておくと、会社だけが悪いとか自分だけに問題があるとは思っていません。私の会社もそこそこ大きな会社なので(念のためですが、自慢しているわけではないです。私個人とは何の関係もないので)、方針や組織が変わるのも仕方ないと思っていますし、そこでミスマッチが出てくるのは仕方がないのかなと思っています。

 ただ、ここ2,3年の仕事の環境が良かった分、情けない話ですが自分の力が全然発揮できなかったり、必要とされてないと感じたり、何の価値があるのか(自分には)全く理解できない資料を長時間作り続けるのが、想像以上につらく将来を考えても不安になってしまいました。

 そんな中以下のこと呟いたら

 noteの代表とCXOからのまさかのコメント!

 誰かに必要にされるのって、もの凄い嬉しいし、自分を必要としてくれる人のために何かしたいし、そう人たちと繋がりたいなと改めて思いました。はてなブログに書くのも何ですが、noteは素晴らしいサービスなので、何らかの形で貢献していきたいと改めて思いました!リクエストに関しては、まずは今できる範囲で何か考えてみたいなと思います!

 このときは、その日のうちに辞表叩きつけてnoteにジョインしに行こうとも思ったのですが、一旦冷静になりました(笑)

 そして、家族にも正直に悩みを打ち明けて色々話して、改めて家族の大切さを実感しました。今のところのまとめとしては以下です。

公開転職活動しようと思います

 結論としては、色々行動を起こすことにしました。そのうちの1つとして、環境を変えることを前向きに考えようと思っています。

 具体的には、以下の本に書いてあった「毎年転職活動」というものをしようかと思います。この本の作者の尾原さんは、12回の転職を重ねている方です。ここでは詳細紹介しませんが非常に興味深く、今の自分に刺さる内容でした。今回の行動のきっかけの1つにもなっています。

どこでも誰とでも働ける――12の会社で学んだ“これから

どこでも誰とでも働ける――12の会社で学んだ“これから"の仕事と転職のルール

 転職活動に関しては、転職サイトに登録するはもうしているので、今回は加えてブログで公開転職活動をしてみようと考えました。

 最近は、ひよこ大佐さんという方が見事にTwitterで転職活動を決めたと話題になっていたので、はてなブログで転職活動するのも、悪くはないのじゃないかなと勝手に思っています。

 昔、ブログ経由でエンジニアとしての仕事の依頼を受けたことも何度かあるので(本業があるので受けれませんでしたが)、ジョブオファーに関しても可能性はあるのかなと淡い期待を抱いています。

からあげの職務経歴書

 転職活動として、まずは職務経歴書を公開することにします。書いたことないので、以下サイトを参考にしました。

 特に決まったフォーマットは無いらしいので、自分なりに重要と思うポイントを書いていきます。

経歴要約

 愛知県の組み込み系のエンジニアとして、清く正しく元気よく働いてきました!

 実績は、詳しくはここでは書けないのでスキルをみて察してください。自分が関わって世に出た製品は3製品程度です。テレビCMで、1度自分の作った基板が入っている製品を見たことがあるとか、そういうレベルです。

やりたいこと・働きたい組織

 以下3点を重視しています。

  • 自分の力を最大限に発揮して、価値を提供できること
  • 将来食いっぱぐれないように成長できること
  • 良好な人間関係・良い風土

 自分が得意なのは、自分で手を動かしてモノづくりをすることです(というかそれしかまともにできません)。作る対象は、大きな拘りはありません(ハードでもソフトでもそれ以外のコンテンツでもよいです)。自分のスキルに関しては、以下項目を参照下さい。飛び抜けて何かが得意というわけではないので、複数の領域のスキルを組み合わせて自分の価値を生かせればと思っています。

 働きたい組織として、今一番共感しているのは、IAMASの小林先生の「イノベーションマネジメント」です。

 このような新しいことを生み出していける風土の組織で働きたいです。理想は高く。

スキル

 プロとしての経験は、ハードウェア設計(回路・基板)です。他は、ほとんど仕事でなく自主学習で身につけた内容です。そちらに関してはブログにアウトプットしていますので、その内容でレベル感を判断いただければと思います。

回路設計

 電源回路・Intel系CPU周辺回路等経験有りです。回路CADも使えます。EMC設計や対策もできます。

基板設計

 10層ビルドアップ基板までは経験ありです。部品数は数百から1000点くらいあった記憶があります。なんだかんだで20は超える数の基板つくってきました(そして沢山失敗しました)。

 基板設計に関しては、構想と指示のみでアートワーク自体はアウトソーシングです。

英語

 海外出張に1人で2週間いって、現地のエンジニアとうまくコミュニケーションとって製品の立ち上げをした経験あります。一時期は、毎週海外メーカと電話会議していました。TOEICは700点で打ち止めです。

 英語の仕様書や論文なども、必要に応じて読んでいます。積極的に海外で仕事がしたいという希望は特にありませんが、必要ならなんとか…というレベルです。

マネジメント

 製品開発のリーダーをしていたこともあります。詳細はここでは割愛します。

Raspberry Pi・IoT 

 Raspberry Piちょっとできます。今までやってきたことは以下記事参照下さい。

 IoTの真似事的なことはしたことあります。

カメラ

 趣味レベルですが、イベントで数回撮影のお仕事を手伝っています。

 撮影した写真などは以下参照下さい。

プログラミング

 まともに書けるのはPythonくらいです。C++は多少ならというレベルです。Git、Linuxのコマンドは一通り使えます。

 ソフトはプロとしての経験もありませんし、正直プログラミング単体ではトップレベルには遠く及ばないと自覚しています。他のスキルとも掛け合わせてのメリットをとらえていただければと思っています。

 GitHubで個人で作ったソフトなど公開していますので、レベル感は以下で確認下さい。

ロボット

 ROSがちょっとできます。以下記事でルンバ改造したりしています。こちらは、もっと凄いこともできます。

機械学習・ディープラーニング・画像処理

 自己学習のレベルですが、流行りの人工知能ちょっとできます。研究者でないので、最先端の研究はできませんが、OSSを活用したエンジニアリングは可能と思っています。

 1冊、協力者として「自分で動かす人工知能」という書籍に名前もクレジットされています(以下参照下さい)

 今までネットで公開してきた内容は、以下記事の一番最後の項を参照下さい。

 画像処理に関しても、2次元・3次元ともに基礎的なこと(フィルタリング等)はできます。

ライティング能力

 20年近く、ネットに文章をつづっています。

 はてなブログランキングでは、2回トップに輝いたことがあります。

 また、「はてなニュース」様、「変デジ研究所」様などの著名なサイトに複数回の寄稿を実施しています。

 仕事の内容によっては、ある程度広報的な活動もできるかもしれません。

活動

 Maker Faireに趣味の電子工作で出展しています。

興味のある分野

 機械学習(ディープラーニング)・ロボット・VRです。

 VRはまだスキルはないですが、Oculus Go購入して開発環境セットアップまでは実施しました。UnityやC#の勉強を開始し始めたところです。

制約条件・希望

働き始める時期

 会社の規定が2ヶ月前に退職の意思を伝えることですので、決まってから最短で2ヶ月後となります。2.5ヶ月から3ヶ月程度を見ておく必要があるかと思っています。

 転職活動期間としては、3ヶ月から最大で半年をイメージしています。

勤務地

 愛知県でマンション買ってしまったのと家族もいるので、できれば愛知で働きたいです。

 ただ、遠隔地でも2週間がっつり働いて、2週間リモートワークというような働き方もできないかなと考えています。

残業・休日

 残業は無しが希望です。土日休み希望です。

年齢

 30代半ばです。そんな若くないです

契約

 正社員希望です。可能なら長く働きたいです

環境

 PC環境などは、自分の能力が発揮できる環境をそろえたいです。大きい机、ディスプレイ、PCはMacが選択できると理想です。

希望年収

 上記内容によると

  • AI/人工知能/機械学習 2200万円
  • IoT/M2M 4600万円
  • ロボット工学/ロボティクス 2500万円
  • 画像技術/画像処理/コンピュータビジョン 2000万円

 なので、全部ができると1億くらいの価値があると言っても良さそうです。今なら、期間限定93%割引で700万円以上でいかがでしょうか?

まとめ(公開転職活動)

 公開転職活動を開始しました。条件は当たり前ですが、自分の都合の良いことばかり書いています。完全に満足できると考えているわけではありませんので、お気軽にお声かけて下さい。

 もちろん私自身も、ただ待っているだけのつもりはないです。ここで職務経歴書を書いたのは、改めて自分のスキルの棚卸しや、やりたいこと、働くための制約・条件を自分自身整理したかったためで、自分からも気になった会社・組織にはなんらかの形でアクションを取っていきたいと考えています。その中で魅力的な会社・組織を色々知れたら良いなと思いますし、そういうところに関してはたとえ転職することが無くても、何らかの形で関わったり、お手伝いできる関係が生まれたら良いなとも考えています。

 また、今回Twitterで仕事のことつぶやいて非常に大きな反応をいただき、多くの人が仕事やキャリアで悩んでいるのだなと改めて感じました。正直、自分も悩んでいますし不安もあります。でも、これからどんどん若い人の人口が減って行く中、多くの人が自身の力を最大限発揮して、会社のためだけでなく、本当に必要としてくれている人に対して価値を提供して行けるようになることが大事なのじゃないかなと考えています。

 このような活動に対して「ちょっと仕事が辛いくらいで甘い」とか「軽々しく転職なんて考えるべきじゃない」とお思いになる方もいらっしゃるかもしれませんが、自分なりに真剣に考えた決断とアクションです。人の苦しさって、その人固有の絶対的なものなので、残業時間がxx時間とかそういう指標で測るものでもないなと思っています。実際、昔に残業を月に100時間以上やっていたことありますが、気持ち的には今の方が辛いです(まぁ、100時間も辛かったですしもうやりたくないですが…)。

 もちろん、1つの会社で長く働くことも素晴らしいことだと思いますし、その方向でもアクションを起こしています。ただ、自身の力でどうにもならなかったとき、そのまま身体や心を壊してしまうわけにはいかない(そういう人たちを会社でたくさん見てきました)ので、自分と家族のためにも今回の行動をとっています。ネットには、絶望するときも希望をもらうときもありますが、今回は自分が信じるネットの可能性に賭けてみたいと思います。

 正直どうなるかわかりませんが、何かしら良い方向に向かえば良いなと思っています。応援いただけると非常にうれしく思いますし、色々な人の仕事の話が聞きたいなと考えていますので、是非悩んでいる方は色々お話させて下さい。直接でもOculus RoomsでもOKです。つい先日もスケベサイエンティストのDAIさんとキャリアに関して熱く語り合いました(笑)

連絡先

 最後になりましたが、本件の私への問い合わせはTwitterのDMか、メールフォームからお願いいたします(Twitterの方を推奨いたします)。

関連記事

Nintendo Switchとマリオオデッセイ買いました

$
0
0

f:id:karaage:20180525000640j:plain:w640

Nintendo Switch買っちゃいました

 前行ったゲーム合宿でのNintendo Switchゲーム体験が忘れられず、ついにNintendo Switch買ってしまいました!(といってもこの記事が公開される2週間以上前の話ですが)

f:id:karaage:20180524224316j:plain:w640
 ジャーン

f:id:karaage:20180524225024j:plain:w640
 ジャーン

 ゲームはマリオ オデッセイを買いました。ゼルダ欲しかったけど、無限に時間が溶けそうなので…

スーパーマリオ オデッセイ - Switch

スーパーマリオ オデッセイ - Switch

 とりあえず本体だけ買っていたのですが、今は新しいゲームも簡単にゲーム本体からクレジットカードで課金してソフトがダウンロードできるのですね。こりゃヤバい…

 2人プレイができるので、最近は夜な夜な夫婦で少しずつプレイして進めています。ライトな協力プレイが良い感じですね。 f:id:karaage:20180525000640j:plain:w640

まとめ

 Nintendo Switch買ったというそれだけの記事でした(笑)据え置きでゲーム機買うのも、自分で買ったゲーム機でゲームプレイするのもほんと久しぶりです。もともと私がプログラムに興味を持ったのが、自分でゲームを作りたいというところだったので、なんかその原点を思い出しているような気持ちになります。

 Oculus Goも買ったし、Nitendo Switchで最新の研究して何かVRのゲームにチャレンジしてみたいなーとか夢想しています。Unityとか出来るかな。

 あとは、Nintendo Laboも子供と一緒に遊んで、魔改造してやりたいなと思っています!まずはマリオクリアしなきゃ!

関連記事

Viewing all 1439 articles
Browse latest View live