22B9RCJ3
ひとまずスイッチを押したら画像は取れるようになったので、ここからが本番
sudo apt-get install mercurial
hg clone https://bitbucket.org/eigen/eigen
cd DeepBelifeSDK
ln -s ../eigen
make GEMM=eigen TAEGET=pi3 CC=gcc-4.8 CXX=g++-4.8
sudo cp libjpcnn.so /usr/lib/
sudo ldconfig
これで準備完了
あとは先日作成したボタンを押したら撮影するプログラムから呼ぶだけ
これで撮影したものが何であるかを認識するカメラの完成
認識結果は英語で表示されるのでこれを翻訳するかな?
本当はNeuralTalkをつかってなんの写真であるかを文章で取得したいんだけど、PiのCPUパワーでは絶望的
JetsonTX1とかを買えばいけるみたいだけどちょっとお試しに10万はなー
現在のハードウェアはこんな感じ
右下の小さなディスプレーはUSB接続していて、ここにXの画面を表示中
上の大きい方のディスプレーはPiのモニタ出力のフレキで接続されている。
カメラからの映像はフレームバッファ直書きなので上側のディスプレーにしか表示できない
ひとまず撮影後の画像だけは右下の小さなディスプレーに出力しようと画策中
export DISPLAY=:0.0でオケ(Xの設定でUSB側のモニタを一番にしてる場合)
ちなみにPi3のパワーで画像認識させると4秒ぐらいかかる
学習結果のファイルはサンプルについていたものを使ったのでイマイチの精度・・・
かといって、自分で教え込むのも大変だな・・・
認識させるターゲットを絞ってその画像を大量にgoogleあたりから学習させてみるか
佐川とクロネコと郵便局員の制服を学習させて、「佐川が荷物持ってきました」とかやるか?
ついでにamazonの箱も学習させて、「クロネコがamazonの箱放置していきました!」とか呟くかな
https://github.com/kylemcdonald/ml-examples
あたりに楽しそうなプロジェクトがあるな
コメント