フィールドサーバ収集画像をリアルタイムに解析処理し有用な情報を提示できる

※アーカイブの成果情報は、発表されてから年数が経っており、情報が古くなっております。
同一分野の研究については、なるべく新しい情報を検索ください。

要約

利用者の要望に応じたフィールドサーバの制御・データ収集が可能な自律プログラム(エージェント)は、インターネット上にある画像処理Webアプリケーションを利用して収集画像データの解析を自動的に行い、その結果を利用者にリアルタイムに提示できる。

  • キーワード:フィールドサーバ、エージェント、ネットワークカメラ、画像による意思決定支援
  • 担当:中央農研・フィールドモニタリング研究チーム
  • 代表連絡先:電話029-838-7177
  • 区分:共通基盤・情報研究
  • 分類:研究・普及

背景・ねらい

近年、フィールドサーバやネットワークカメラなどインターネット上から画像情報を取得できる機器が増え、これらを用いた野外計測が一般的になった。画像モニタリングを行う場合、得られた画像をそのまま閲覧するだけでなく、画像を解析して作物の成長状態や害虫の発生状況などを数値化し、意思決定の判断材料などに利用できるシステムが望まれている。フィールドサーバなどの遠隔操作やデータ収集を行う管理プログラム(エージェント、H15研究成果情報)は、機能を拡張することで画像を取得するだけでなくWebアプリケーション(Webアプリ)の操作も可能となる。画像モニタリングを行うのに必要な基本画像処理をWebアプリで用意することで、エージェントはこれを利用して収集した画像データをリアルタイムに解析処理できる。本成果情報はこれらを実現することで、画像モニタリングを行う利用者が様々な解析処理を簡便かつ効率的に行えるシステムを提供する。

成果の内容・特徴

  • 本エージェントは設定ファイルを記述するだけで、様々なデータ収集・解析動作やWebアプリの利用が行える。そのための機能として、POSTによるデータ送信、cookieやBasic認証の対応、変数の取り扱い、ルールベースなどが実装されている。
  • 画像処理サービスとして、i) 画像から指定領域(矩形で範囲を指定, マスク画像を利用)を抽出する、ii) 画像の回転や色変換を行う、iii) 閾値(Grayscale, RGB, HSL)を指定して2値化画像を求める、iv) 2枚の画像から差分画像を算出する、などのWebアプリが用意され、インターネット上から利用できる(図1)。
  • エージェントは上記以外にもインターネット上に存在する画像処理Webアプリを利用できる。http://yummy.narc.affrc.go.jp/agent/image_tools.html に利用可能な画像処理サービスの一覧がまとめられ、画像処理サービス単体としても利用可能である(表1)。
  • エージェントを用いてフィールドサーバやネットワークカメラを運用する場合、Webアプリを利用して自動的に収集画像を解析した結果を利用者に提示できる。画像処理サービスを組み合わせて使用すれば、農作業イベントの検出や植被率などの算出、風や雨などの影響を受けた画像の除去、といった処理を実現できるほか、解析結果に応じてエージェントの動作を切り替えることもできる(図2)。

成果の活用面・留意点

  • 作成された画像処理サービスは現在試験運用中であり、自由に使うことができる。扱える画像はJPEG,GIF,BMP(最大4Mbyte)であり、システムの負荷に応じて利用制限を行うことがある。また処理画像は一定時間、当サーバに記録されている。
  • 本成果は既に農業試験場の研究者に活用され、水稲の簡易栄養診断システムなどに用いられている。一覧ページに用意された画像処理サービスは随時拡張する予定である。
  • エージェントによる画像データの収集・解析を行うには、これまでのエージェントの取り扱い(対応機器、利用契約、設定ファイルの作成など)に準ずる。

具体的データ

表1 利用可能な画像処理サービスの一覧

図1 2値化処理Webアプリの使用例.

図2 エージェントによるWebアプリケーションを利用した画像解析(イベント検出)の様子

その他

  • 研究課題名:フィールドサーバの高機能化と農作物栽培管理支援技術の開発
  • 課題ID:222-a
  • 予算区分:基盤
  • 研究期間:2006~2008年度
  • 研究担当者:深津時広、木浦卓治、平藤雅之
  • 発表論文等:FUKATSU et al. (2006) An Agent System for Operating Web-based Sensor Nodes via the Internet,
                       Journal of Robotics and Mechatronics, 18(2):186-194