撮影装置、制御方法および仮想情報表示プログラム
【課題】画像に付加された複数の情報を容易に選択すること。
【解決手段】携帯電話端末(撮影装置)1は、撮影部40と、撮影部によって取得された画像を表示する表示部2と、撮影部40によって取得された画像に関連するオブジェクトを画像に重ねて表示部2に表示させる制御部22とを備える。制御部22は、オブジェクトのうち、画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理する。
【解決手段】携帯電話端末(撮影装置)1は、撮影部40と、撮影部によって取得された画像を表示する表示部2と、撮影部40によって取得された画像に関連するオブジェクトを画像に重ねて表示部2に表示させる制御部22とを備える。制御部22は、オブジェクトのうち、画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理する。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、撮影装置、制御方法および仮想情報表示プログラムに関する。
【背景技術】
【0002】
近年、現実空間の画像をコンピュータで処理して更なる情報を付加する拡張現実(AR:Augmented reality)技術が注目されている(例えば、特許文献1参照)。また、現実空間の画像に付加された情報を選択してより詳細な情報を表示させる技術も知られている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2002−027349号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来は、現実空間の画像に付加された複数の情報をまとめて選択可能な操作方式が提供されていなかった。このため、利用者は、現実空間の画像に付加されている複数の情報のうちどれが所望の情報であるか分からない場合には、情報を1つずつ選択して関連づけられた詳細情報を確認していかなければならなかった。
【0005】
本発明は、画像に付加された複数の情報を容易に選択することができる撮影装置、制御方法および仮想情報表示プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明に係る撮影装置は、撮影部と、前記撮影部によって取得された画像を表示する表示部と、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させる制御部とを備え、前記制御部は、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理する。
【0007】
ここで、前記制御部は、前記所定の物体の表示態様が変化したことを契機として前記選択処理を行うことが好ましい。なお、前記所定の物体の表示態様の変化は、前記所定の物体に含まれる突部が消滅したことを含むこととしてもよい。
【0008】
また、前記制御部は、前記選択処理によって選択した前記オブジェクトを前記表示部に一覧表示することが好ましい。なお、前記制御部は、前記選択されたオブジェクトの一覧表示を自装置からの距離に応じて前記選択されたオブジェクトを並べ替えて表示してもよい。また、前記制御部は、前記選択処理によって選択した前記オブジェクトをカテゴリごとに分類して表示してもよい。
【0009】
また、前記所定の物体の前記表示領域は、前記所定の物体を構成する複数の突部における端が互いに結ばれた領域の内側を含むことが好ましい。
【0010】
また、前記制御部は、前記所定の物体の表示態様が変化するまでに前記所定の物体の表示領域が移動した場合、当該移動の軌跡上に表示されているオブジェクトをさらに選択処理することが好ましい。
【0011】
また、上述した課題を解決し、目的を達成するために、本発明に係る制御方法は、撮影部によって取得された画像を表示するステップと、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップとを含む。
【0012】
また、上述した課題を解決し、目的を達成するために、本発明に係る仮想情報表示プログラムは、情報処理装置に、撮影部によって取得された画像を表示するステップと、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップとを実行させる。
【発明の効果】
【0013】
本発明は、画像に付加された複数の情報を容易に選択することができるという効果を奏する。
【図面の簡単な説明】
【0014】
【図1】図1は、本実施例に係る携帯電話端末の外観を示す正面図である。
【図2】図2は、本実施例に係る携帯電話端末の機能的な構成を示すブロック図である。
【図3】図3は、仮想情報の一例を示す図である。
【図4】図4は、ARタグの選択の一例を示す図である。
【図5】図5は、選択領域について説明するための図である。
【図6】図6は、ARタグの選択の他の例を示す図である。
【図7】図7は、携帯電話端末によるARタグ選択処理の処理手順を示す図である。
【図8】図8は、ARタグをカテゴリ別に表示する例を示す図である。
【図9】図9は、手がARタグと初めて重なった場面の一例を示す図である。
【図10】図10は、基準距離と換算係数について説明するための図である。
【図11】図11は、ARタグを選択するための閾値の一例を示す図である。
【発明を実施するための形態】
【0015】
以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、撮影装置の一例として携帯電話端末について説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、例えば、PHS(Personal Handyphone System)、PDA、ポータブルナビゲーション装置、ノートパソコン、ゲーム機等の各種情報処理装置に対しても本発明は適用できる。
【実施例】
【0016】
まず、図1を参照しながら、本実施例に係る携帯電話端末1の外観について説明する。図1は、携帯電話端末1の外観を示す正面図である。図1に示すように、携帯電話端末1の筐体1Cは、ヒンジ機構8によって開閉可能に連結された第1筐体1CAと第2筐体1CBとを備える。すなわち、携帯電話端末1は、折り畳み式の筐体を有する。
【0017】
なお、携帯電話端末1の筐体は、このような構造に限定されるものではない。例えば、携帯電話端末1の筐体は、両方の筐体を重ね合わせた状態から一方の筐体と他方の筐体とを互いにスライドできるようにしたスライド式の筐体であってもよいし、重ね合わせ方向に沿う軸線を中心に、一方の筐体を回転させるようにした回転式や、2軸ヒンジを介して2つの筐体を連結したものでもよい。また、携帯電話端末1の筐体は、1つの筐体からなるいわゆるストレート式(スレート式)の筐体でもよい。
【0018】
第1筐体1CAは、表示部2と、レシーバ16と、撮影部40とを有する。表示部2は、液晶ディスプレイ(Liquid Crystal Display)や有機EL(Organic Electro−Luminescence)パネル等の表示装置を備え、文字、図形、画像等の各種情報を表示する。表示部2は、撮影部40によって取得された画像を表示することもできる。レシーバ16は、通話時に通話相手の音声を出力する。
【0019】
撮影部40は、撮像センサ等の撮影手段によって画像を撮影する。撮影部40の撮影手段に外部の光を導く撮影窓は、第1筐体1CAの表示部2が設けられている面と反対側の面に設けられている。すなわち、第1筐体1CAは、利用者が表示部2を正面から見ると、撮影部40によって取得された第1筐体1CAとは反対側の画像が表示部2に表示されるように構成されている。
【0020】
第2筐体1CBは、テンキーや機能キー等からなる操作キー13Aと、メニューの選択および決定や画面のスクロール等を実行するための方向および決定キー13Bと、通話時に音声を取得する音声取得手段であるマイク15とを有する。操作キー13Aと、方向および決定キー13Bとは、携帯電話端末1の操作部13を構成する。なお、操作部13は、操作キー13A等に代えて、または、操作キー13A等に加えて、表示部2に重畳されたタッチセンサを備えていてもよい。
【0021】
次に、図2を参照しながら、携帯電話端末1の機能的な構成について説明する。図2は、携帯電話端末1の機能的な構成を示すブロック図である。図2に示すように、携帯電話端末1は、通信部26と、操作部13と、音声処理部30と、表示部2と、撮影部40と、位置・姿勢検出部36と、制御部22と、記憶部24とを備える。
【0022】
通信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA(Code Division Multiple Access)方式などによる無線信号回線を確立し、基地局を通じて他の装置との間で電話通信および情報通信を行う。操作部13は、操作キー13A、または、方向および決定キー13Bがユーザによって操作されると、その操作内容に対応する信号を制御部22へ出力する。
【0023】
音声処理部30は、マイク15から入力される音声をデジタル信号化して制御部22へ出力する。また、音声処理部30は、制御部22から出力されるデジタル信号を復号してレシーバ16へ出力する。表示部2は、制御部22から入力される制御信号に従って各種情報を表示する。撮影部40は、取得した画像をデジタル信号に変換して制御部22へ出力する。
【0024】
位置・姿勢検出部36は、携帯電話端末1の位置と姿勢を検出し、検出結果を制御部22へ出力する。位置・姿勢検出部36は、携帯電話端末1の位置を、例えば、GPS(Global Positioning System)受信機や通信部26が無線信号回線を確立している基地局に基づいて検出する。また、位置・姿勢検出部36は、携帯電話端末1の姿勢を、例えば、3軸加速度センサ、方位センサ、ジャイロセンサに基づいて検出する。
【0025】
制御部22は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備え、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部22は、記憶部24に記憶されているプログラムやデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部22は、CPUによる命令の実行結果に応じて、メモリおよび記憶部24に対してデータの読み書きを行ったり、通信部26や表示部2等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータや位置・姿勢検出部36等から入力される信号がパラメータとして利用される。
【0026】
記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置からなり、各種のプログラムやデータを記憶する。記憶部24に記憶されるプログラムおよびデータには、仮想情報表示プログラム24aと、1ないし複数の仮想情報24bと、形状情報24cとが含まれる。なお、記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、記憶部24に記憶されていることとしたプログラムおよびデータは、可搬の記憶媒体に記憶される。また、記憶部24に記憶されていることとしたプログラムおよびデータは、通信部26による無線通信によってサーバ装置等の他の装置から取得されることとしてもよい。
【0027】
仮想情報表示プログラム24aは、拡張現実(AR:Augmented reality)技術に基づいて、撮影部40によって取得された画像に現実の施設や物品に対応した仮想的な情報を重ねて表示部2に表示する機能を提供する。具体的には、仮想情報表示プログラム24aは、位置・姿勢検出部36によって検出される位置と姿勢等に基づいて撮影部40の撮影範囲にある施設や物品に対応する仮想情報24bを制御部22に取得させる。そして、仮想情報表示プログラム24aは、取得した仮想情報24bに対応するARタグと呼ばれるオブジェクトを画像に重ねて表示させる。
【0028】
また、仮想情報表示プログラム24aは、利用者に任意のARタグを選択させる機能と、選択されたARタグに関連づけられた動作を実行する機能を提供する。仮想情報表示プログラム24aは、複数のARタグが重なっている場合でも、任意のARタグを利用者が選択することを可能にする。
【0029】
仮想情報24bは、撮影部40によって取得された画像に重ねて表示されるARタグに関する情報を保持する。図3は、仮想情報24bの一例を示す図である。図3に示すように、仮想情報24bは、緯度、経度、高さ、画像、コメント、URL(Uniform Resource Locator)等の分類項目の情報を有する。緯度、経度、高さは、仮想情報24bに対応する現実の施設や物品の位置を示す。画像は、ARタグとして表示されるオブジェクトの実体を示す。コメントは、仮想情報24bに対応する現実の施設や物品に関する説明文である。URLは、ARタグに関連づけられた情報を示す。なお、仮想情報24bが有する分類項目は、上記分類項目に限らず、高さやコメントはなくてもよい。
【0030】
なお、表示対象の仮想情報24bの全てを予め記憶部24に記憶させるのではなく、携帯電話端末1の位置と姿勢とに基づいて、撮影部40の撮影範囲およびその周辺に存在する施設や物品に対応する仮想情報24bをサーバ装置から随時取得してもよい。この場合、所定量または所定件数の仮想情報24bを記憶部24にキャッシュするようにしてもよい。なお、ここでいうサーバ装置とは、例えば、ARサービスを提供する業者によって運営される装置である。
【0031】
形状情報24cは、撮影部40によって取得された画像の中から、ARタグを選択するために用いられる所定の物体を検出するための情報を保持する。本実施例においては、ARタグを選択するために用いられる所定の物体は、人間の手であるものとする。そして、形状情報24cには人間の手の形状が登録されているものとする。なお、ここでいう人間の手の形状とは、例えば、所定数以上の突部を有する形状とする。また、形状情報24cに登録された手の形状として、撮影された若しくは予め登録されている手の画像、又は手の形状の特徴情報等、いずれにも限られない。
【0032】
次に、図4から図6を参照しながら、仮想情報表示プログラム24aが提供する機能に基づいて制御部22によって実行されるARタグの選択処理について説明する。図4は、ARタグの選択の一例を示す図である。図5は、選択領域について説明するための図である。図6は、ARタグの選択の他の例を示す図である。
【0033】
図4に示すように、撮影部40が画像Pを取得すると、制御部22は、画像Pを表示部2に表示させるとともに、画像Pを形状情報24cと照合して手の形状の検出を試みる。手の形状が検出されると、制御部22は、二値化等によって手の輪郭を抽出する。なお、手の形状の検出は、例えば、特開2003−346162号公報にて開示されている技術等を用いて実現してもよい。また、手の認識方法としては、上記の方法に限らず、例えば、予め記憶された手の画像と画像Pとをマッチング処理して同一の手の形状を検出してもよい。また、同様の方法で、予め手の開かれた状態(開状態)および閉じられた状態(閉状態)の2パターンの画像を記憶しておき、当該2パターンの画像と画像Pに含まれる手の形状を対比することによって、画像Pに含まれる手の形状の検出を行ってもよい。
【0034】
また、制御部22は、位置・姿勢検出部36によって検出された携帯電話端末1の位置と姿勢とに基づいて、撮影部40の撮影範囲にある施設や物品に対応する仮想情報24bを取得し、取得した仮想情報24bに対応するARタグを画像Pに重ねて表示部2に表示させる。
【0035】
具体的には、制御部22は、取得した仮想情報24bの示す位置が、撮影部40によって取得される画像Pのどの位置に対応するかを算出し、算出した位置に仮想情報24bに対応するARタグを表示させる。仮想情報24bの示す位置が画像Pのどこに対応するかは、位置・姿勢検出部36によって検出された携帯電話端末1の位置と姿勢、仮想情報24bに含まれる位置情報、撮影部40の撮像面のサイズおよび画角等に基づいて算出される。
【0036】
また、画像Pにおいて、一部でも他のARタグが重なる領域があるARタグは、対応する仮想情報24bの示す位置が携帯電話端末1に近いほど前面に位置するように重ねて表示される。
【0037】
図4に示すステップS11では、画像Pには手Hが写っているので、画像Pを形状情報24cと照合することによって、画像Pに含まれる手Hの形状が検出される。また、ステップS11では、撮影部40の撮影範囲にある施設や物品に対応するARタグA1〜ARタグA4の4つのARタグが画像Pに重ねて表示されている。ARタグA2〜A4は、それぞれ、対応する仮想情報24bの示す位置が撮影部40の焦点からみて互いに近いために重なり合って表示される。
【0038】
この場面では、手Hは、閉状態であり、手Hの表示領域は、いずれのARタグの表示位置とも重なっていない。このように検出された手Hが閉状態であり、いずれのARタグの表示位置とも表示領域が重なっていない場合、どのARタグも選択されず、未選択状態を維持する。
【0039】
続いて、ステップS12では、手Hが、ARタグA2〜A4の表示位置を含む表示領域に対応する位置へ実際に移動した後に、開状態へ移行している。そして、ステップS13では、手Hが、表示領域を維持した状態で閉状態へ移行している。このように、手Hが開状態から閉状態へ移行すると、制御部22は、開いていたときの手Hの表示領域を選択領域に設定し、表示位置が選択領域に含まれるARタグを選択状態にする。この例では、ステップS13において、ARタグA2〜A4の3つのARタグが選択状態となる。
【0040】
このように、手Hを開いて閉じる動作が検出された場合に開いていたときの手Hの表示領域に表示位置が含まれるARタグを選択状態とすることにより、利用者は、複数のARタグを容易に選択することができる。また、手Hを開いて閉じる動作は、欲しいものを掴む動作と同一であるため、このような動作によってARタグを選択する方式は、利用者にとって非常に直感的で分かりやすい。
【0041】
なお、選択領域は、実際の手Hの形状に沿った領域であってもよいし、図5に示す領域R1のように指の先端(突端)を結んだ内側の領域であってもよいし、図5に示す領域R2のように手Hの形状を含む最小矩形であってもよい。領域R1を選択領域とすることにより、指の間に表示されていたARタグも選択されることとなり、利用者の意図に合った選択範囲を設定することができる。領域R2を選択領域とすることにより、領域を算出するための演算量を少なくすることができる。
【0042】
また、手Hの表示領域にARタグの表示位置が含まれる場合、ステップS12およびステップS13に示すように、手Hの形状をARタグよりも前面に表示することが好ましい。このように制御することにより、手Hの位置が明確になり、どのARタグが選択されるかを利用者が把握しやすくなる。また、表意位置の一部分のみが選択領域に含まれるARタグについては、選択状態にしてもよいし、選択状態にしなくてもよい。
【0043】
こうしてARタグが選択されると、制御部22は、選択されたARタグをメニューM1として表示部2に一覧表示する。図4に示すステップS14では、選択状態となったARタグが、対応する仮想情報24bに含まれるコメントと対応付けて一覧表示されている。このように、ARタグを一覧表示することにより、重なり合っていたARタグを所定の間隔で配列して表示させることができる。ARタグを所定の間隔で配列して表示させることにより、利用者は、個々のARタグをはっきりと識別することができるとともに、それらのARタグの1つを容易に選択することができるようになる。
【0044】
なお、選択状態となったARタグを配列する順序は、例えば、対応する仮想情報が示す位置が携帯電話端末1に近い順であってもよいし、対応する仮想情報の更新日時が新しい順であってもよい。対応する仮想情報が示す位置が携帯電話端末1に近い順にARタグを配列することにより、ARタグの配列順序が、対応する施設や物品が見える順序と一致するため、利用者が、ARタグと施設や物品との対応を把握し易くなる。
【0045】
続いて、ステップS15に示すように、利用者がメニューM1上のARタグの1つを選択すると、制御部22は、ステップS16に示すように、選択されたARタグに対応する動作を実行する。図4に示す例では、制御部22は、選択されたARタグA2に対応する動作として、ARタグA2に対応する仮想情報24bに含まれるURLにアクセスしてWEBページW1を表示部2に表示させる動作を実行している。
【0046】
なお、利用者は、操作部13を操作することによってメニューM1上のARタグの選択を実行してもよいし、撮影部40によって取得される画像中で所定の動作を行うことによってメニューM1上のARタグの選択を実行してもよい。ここでいう所定の動作とは、例えば、タップするようにARタグの表示領域内で指を上下させる動作や、ARタグをはじくように指を動かす動作や、ARタグの表示領域内で指を一定時間以上静止させる動作である。なお、指の認識方法については、手の形状の検出方法と同様の検出方法によって実現されてもよい。
【0047】
また、メニューM1を表示するに際しては、ARタグを選択する手の位置を利用者が確認しやすいように、メニューM1を手の形状の背面に表示することが好ましい。あるいは、メニューM1を半透明に表示して、背後の手の位置を利用者が確認できるようにしてもよい。
【0048】
図4では、開状態の手を表示領域を維持したままで閉状態へ移行してARタグを選択する例を示したが、利用者は、開状態の手を移動させることによって、より広範囲のARタグを選択することができる。例えば、図6に示すように、ステップS13において開状態へ移行した手Hが、ステップS17において、表示領域にARタグA1の表示位置が含まれる位置まで左下方向へ移動し、その後に閉状態へ移行したものとする。この場合、制御部22は、ARタグA2〜A4に加えて、ARタグA1も選択状態にする。そして、制御部22は、ステップS18に示すように、選択されたARタグA1〜A4をメニューM2として表示部2に一覧表示する。
【0049】
このように、制御部22は、開状態の手Hが移動した場合、移動の軌跡を監視し、移動前の選択開始領域R3から移動後の選択完了領域R4への軌跡上に表示位置が含まれる全てのARタグを選択状態にする。このように制御することにより、利用者は、離れた位置に表示されている複数のARタグを一度に選択することができる。なお、ここでいう開状態の手Hが移動した場合には、手Hが開状態から閉状態へ移行しながら移動した場合も含まれる。
【0050】
次に、図7を参照しながら、携帯電話端末1の動作について説明する。図7は、携帯電話端末1によるARタグ選択処理の処理手順を示す図である。図7に示す処理手順は、仮想情報表示プログラム24aが起動された後、利用者が所定の終了操作を行うまで繰り返して実行される。なお、ARタグ選択処理は、制御部22が仮想情報表示プログラム24aを実行することによって実現される。
【0051】
図7に示すように、制御部22は、まず、ステップS101として、メモリに設けられた監視フラグをオフに設定する。監視フラグは、開状態に変化した手の移動を監視すべき場合にオンに設定されるフラグである。続いて、制御部22は、ステップS102として、撮影部40で取得された画像Pを表示部2に表示させる。そして、制御部22は、ステップS103として、位置・姿勢検出部36に自装置の位置と姿勢を取得させる。
【0052】
続いて、制御部22は、ステップS104として、自装置の位置と姿勢等に基づいて、撮影部40の撮影範囲に対応する仮想情報24bを取得する。そして、制御部22は、ステップS105として、取得した仮想情報24bに対応するARタグを画像Pに重ねて表示部2に表示させる。
【0053】
続いて、制御部22は、ステップS106として、画像Pに含まれる手を検出する。手が検出されない場合(ステップS107,No)、制御部22は、ステップS108として、監視フラグをオフに設定し、ステップS102以降を再実行する。一方、画像Pに含まれる手が検出された場合(ステップS107,Yes)、制御部22は、ステップS109として、監視フラグがオンであるかを判定する。監視フラグがオンでない場合(ステップS109,No)、制御部22は、ステップS110として、手が開状態であるかを判定する。手が開状態であることは、例えば、指に相当する形状が含まれることに基づいて判定される。
【0054】
手が開状態である場合(ステップS110,Yes)、制御部22は、ステップS111として、監視フラグをオンに設定する。そして制御部22は、ステップS112として、その時点での手の領域に基づいて選択開始領域を設定し、ステップS102以降を再実行する。一方、手が開いた形状になっていない場合(ステップS110,No)、制御部22は、監視フラグを変更することなく、ステップS102以降を再実行する。
【0055】
ステップS109で監視フラグがオンであった場合、すなわち、手が開いた形状に変化していた場合(ステップS109,Yes)、制御部22は、ステップS113として、手が閉じた形状になっているかを判定する。手が閉じた形状になっていることは、例えば、指に相当する突部が形状に含まれなくなったことに基づいて判定される。手が閉じた形状に変化していない場合(ステップS113,No)、制御部22は、ステップS102以降を再実行する。
【0056】
手が閉じた形状に変化していた場合(ステップS113,Yes)、制御部22は、ステップS114として、その時点での手の領域に基づいて選択完了領域を設定する。なお、選択完了領域は、閉じた形状の手の領域に基づいて設定してもよいし、閉じた手が開いているときの形状を仮定し、仮定した手の領域に基づいて設定してもよい。
【0057】
続いて、制御部22は、ステップS115として、選択開始領域から選択完了領域への軌跡上に位置する全てのARタグを選択する。なお、ここでいう軌跡とは、選択開始領域から選択完了領域へ直線的に移動した場合の軌跡であってもよいし、実際に手が通った経路に沿って設定された軌跡であってもよい。そして、制御部22は、ステップS116として、選択したARタグに対応する仮想情報24bを一覧表示する。
【0058】
続いて、制御部22は、ステップS117として、一覧表示した仮想情報24bに対する利用者の選択動作が検出されたかを判定する。選択動作が検出されない場合(ステップS117,No)、制御部22は、ステップS117の判定を再実行する。選択動作が検出された場合(ステップS117,Yes)、制御部22は、ステップS118として、選択動作が行われた仮想情報24bに対応する動作を実行する。仮想情報24bに対応する動作とは、例えば、仮想情報24bに含まれるURLにアクセスしてWEBページを表示する動作である。
【0059】
上述してきたように、本実施例では、手で掴むような動作が検出された位置に表示されているARタグをまとめて選択可能にしたので、画像に付加された複数のARタグを容易に選択することができる。
【0060】
なお、上記の実施例で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。例えば、上記の実施例では、ARタグの選択に関する処理を携帯電話端末1が実行することとしたが、この処理を携帯電話端末1と通信可能なサーバ装置が実行することとしてもよい。この場合、携帯電話端末1は、撮影部40によって取得された画像Pと、位置・姿勢検出部36によって検出された携帯電話端末1の位置および姿勢とをサーバ装置に送信し、サーバ装置から応答された処理済みの画像を表示部2に表示する。
【0061】
また、上記の実施例では、手を閉じる動作の検出にともなって選択されたARタグを一覧表示することとしたが、手を閉じる動作の検出にともなって選択されたARタグの表示の仕方は、個々のARタグを容易に選択可能な方式であればよい。例えば、図8に示すメニューM3のように、選択されたARタグをカテゴリ分けし、カテゴリごとにタブC1〜C3等のタブを設けて、ARタグがカテゴリごとに表示されるようにしてもよい。
【0062】
また、手を閉じる動作の検出にともなってARタグを選択する際に、自装置とARタグの奥行き方向の距離を考慮することとしてもよい。図9から図11を参照しながら、自装置との奥行き方向の距離を考慮してARタグを選択する例について説明する。図9は、手がARタグと初めて重なった場面の一例を示す図である。図10は、基準距離と換算係数について説明するための図である。図11は、ARタグを選択するための閾値の一例を示す図である。
【0063】
図4に示したステップS11の場面で手が上方に移動すると、図9に示すように、手の一部がARタグA3の端部と重なった状態となる。このように、手がいずれかのARタグに初めて重なると、制御部22は、その時点での携帯電話端末1と手との距離を測定し、測定された距離を基準距離としてメモリに記憶させる。携帯電話端末1と手との距離の測定は、撮影部40が焦点を対象物に合わせるために用いる合焦機能によって実現される。なお、携帯電話端末1と手との距離は、例えば、赤外線や音波等を用いて距離を測定する測距センサを用いて測定してもよいし、予め所定の距離と対応付けて形状情報24cに保持されている手の大きさと画像P中の手の大きさの比率に基づいて算出してもよい。
【0064】
続いて、制御部22は、位置・姿勢検出部36によって検出された携帯電話端末1の位置とARタグA3に対応する仮想情報24bが示す位置との距離を算出する。そして、制御部22は、求めた2つの距離に基づいて、ARタグA3に対応する仮想情報24bが示す位置と他の仮想情報24bが示す位置との奥行き方向の距離を手の移動距離に換算するための換算係数を算出する。
【0065】
図10に示すように、基準距離がDSであり、ARタグA3に対応する仮想情報24bが示す位置P3と携帯電話端末1との距離がD3であるとすると、換算係数はDS/D3となる。この換算係数を用いることにより、ARタグA3を基準とした各ARタグの奥行き方向の相対位置を手の位置と対応させることができる。
【0066】
例えば、DSが10[cm]、すなわち、0.1[m]であり、D3が100[m]であるとすると、換算係数は、0.001となる。この場合、ARタグA2に対応する仮想情報24bが示す位置P2が位置P3から50[m]手前にあるとすると、50×0.001[m]、すなわち、手を5cm手前に移動させた位置がARタグA2の奥行き方向の位置となる。
【0067】
同様に、ARタグA1に対応する仮想情報24bが示す位置P1が位置P3から10[m]手前にあるとすると、10×0.001[m]、すなわち、手を1cm手前に移動させた位置がARタグA1の奥行き方向の位置となる。また、ARタグA4に対応する仮想情報24bが示す位置P4が位置P3から10[m]奥にあるとすると、10×0.001[m]、すなわち、手を1cm奥に移動させた位置がARタグA4の奥行き方向の位置となる。
【0068】
このように、ARタグの奥行き方向の相対位置を手の位置と対応させることにより、手を閉じる動作の検出にともなってARタグを選択する際に、自装置とARタグの奥行き方向の距離を考慮することが可能になる。すなわち、手を閉じる動作が検出された場合に、開いた手の領域に含まれるARタグであっても、手でつかめる範囲外に位置するARタグについては選択しないという制御を行うことが可能なる。
【0069】
手でつかめる範囲内であるかについては、例えば、図11に示すように、閾値を設定して判定してもよい。図11に示す例では、手を開く動作が検出された位置PSおよび手を閉じる動作が検出された位置PEから奥行き方向に閾値DT離れた位置までの範囲Sが手でつかめる範囲と判定される。図11に示す例では、範囲Sの外に位置するARタグA2は、開いた手の範囲に重なっていたとしても選択されない。
【符号の説明】
【0070】
1 携帯電話端末
2 表示部
13 操作部
22 制御部
24 記憶部
24a 仮想情報表示プログラム
24b 仮想情報
24c 形状情報
26 通信部
30 音声処理部
36 位置・姿勢検出部
40 撮影部
【技術分野】
【0001】
本発明は、撮影装置、制御方法および仮想情報表示プログラムに関する。
【背景技術】
【0002】
近年、現実空間の画像をコンピュータで処理して更なる情報を付加する拡張現実(AR:Augmented reality)技術が注目されている(例えば、特許文献1参照)。また、現実空間の画像に付加された情報を選択してより詳細な情報を表示させる技術も知られている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2002−027349号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来は、現実空間の画像に付加された複数の情報をまとめて選択可能な操作方式が提供されていなかった。このため、利用者は、現実空間の画像に付加されている複数の情報のうちどれが所望の情報であるか分からない場合には、情報を1つずつ選択して関連づけられた詳細情報を確認していかなければならなかった。
【0005】
本発明は、画像に付加された複数の情報を容易に選択することができる撮影装置、制御方法および仮想情報表示プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明に係る撮影装置は、撮影部と、前記撮影部によって取得された画像を表示する表示部と、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させる制御部とを備え、前記制御部は、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理する。
【0007】
ここで、前記制御部は、前記所定の物体の表示態様が変化したことを契機として前記選択処理を行うことが好ましい。なお、前記所定の物体の表示態様の変化は、前記所定の物体に含まれる突部が消滅したことを含むこととしてもよい。
【0008】
また、前記制御部は、前記選択処理によって選択した前記オブジェクトを前記表示部に一覧表示することが好ましい。なお、前記制御部は、前記選択されたオブジェクトの一覧表示を自装置からの距離に応じて前記選択されたオブジェクトを並べ替えて表示してもよい。また、前記制御部は、前記選択処理によって選択した前記オブジェクトをカテゴリごとに分類して表示してもよい。
【0009】
また、前記所定の物体の前記表示領域は、前記所定の物体を構成する複数の突部における端が互いに結ばれた領域の内側を含むことが好ましい。
【0010】
また、前記制御部は、前記所定の物体の表示態様が変化するまでに前記所定の物体の表示領域が移動した場合、当該移動の軌跡上に表示されているオブジェクトをさらに選択処理することが好ましい。
【0011】
また、上述した課題を解決し、目的を達成するために、本発明に係る制御方法は、撮影部によって取得された画像を表示するステップと、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップとを含む。
【0012】
また、上述した課題を解決し、目的を達成するために、本発明に係る仮想情報表示プログラムは、情報処理装置に、撮影部によって取得された画像を表示するステップと、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップとを実行させる。
【発明の効果】
【0013】
本発明は、画像に付加された複数の情報を容易に選択することができるという効果を奏する。
【図面の簡単な説明】
【0014】
【図1】図1は、本実施例に係る携帯電話端末の外観を示す正面図である。
【図2】図2は、本実施例に係る携帯電話端末の機能的な構成を示すブロック図である。
【図3】図3は、仮想情報の一例を示す図である。
【図4】図4は、ARタグの選択の一例を示す図である。
【図5】図5は、選択領域について説明するための図である。
【図6】図6は、ARタグの選択の他の例を示す図である。
【図7】図7は、携帯電話端末によるARタグ選択処理の処理手順を示す図である。
【図8】図8は、ARタグをカテゴリ別に表示する例を示す図である。
【図9】図9は、手がARタグと初めて重なった場面の一例を示す図である。
【図10】図10は、基準距離と換算係数について説明するための図である。
【図11】図11は、ARタグを選択するための閾値の一例を示す図である。
【発明を実施するための形態】
【0015】
以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、撮影装置の一例として携帯電話端末について説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、例えば、PHS(Personal Handyphone System)、PDA、ポータブルナビゲーション装置、ノートパソコン、ゲーム機等の各種情報処理装置に対しても本発明は適用できる。
【実施例】
【0016】
まず、図1を参照しながら、本実施例に係る携帯電話端末1の外観について説明する。図1は、携帯電話端末1の外観を示す正面図である。図1に示すように、携帯電話端末1の筐体1Cは、ヒンジ機構8によって開閉可能に連結された第1筐体1CAと第2筐体1CBとを備える。すなわち、携帯電話端末1は、折り畳み式の筐体を有する。
【0017】
なお、携帯電話端末1の筐体は、このような構造に限定されるものではない。例えば、携帯電話端末1の筐体は、両方の筐体を重ね合わせた状態から一方の筐体と他方の筐体とを互いにスライドできるようにしたスライド式の筐体であってもよいし、重ね合わせ方向に沿う軸線を中心に、一方の筐体を回転させるようにした回転式や、2軸ヒンジを介して2つの筐体を連結したものでもよい。また、携帯電話端末1の筐体は、1つの筐体からなるいわゆるストレート式(スレート式)の筐体でもよい。
【0018】
第1筐体1CAは、表示部2と、レシーバ16と、撮影部40とを有する。表示部2は、液晶ディスプレイ(Liquid Crystal Display)や有機EL(Organic Electro−Luminescence)パネル等の表示装置を備え、文字、図形、画像等の各種情報を表示する。表示部2は、撮影部40によって取得された画像を表示することもできる。レシーバ16は、通話時に通話相手の音声を出力する。
【0019】
撮影部40は、撮像センサ等の撮影手段によって画像を撮影する。撮影部40の撮影手段に外部の光を導く撮影窓は、第1筐体1CAの表示部2が設けられている面と反対側の面に設けられている。すなわち、第1筐体1CAは、利用者が表示部2を正面から見ると、撮影部40によって取得された第1筐体1CAとは反対側の画像が表示部2に表示されるように構成されている。
【0020】
第2筐体1CBは、テンキーや機能キー等からなる操作キー13Aと、メニューの選択および決定や画面のスクロール等を実行するための方向および決定キー13Bと、通話時に音声を取得する音声取得手段であるマイク15とを有する。操作キー13Aと、方向および決定キー13Bとは、携帯電話端末1の操作部13を構成する。なお、操作部13は、操作キー13A等に代えて、または、操作キー13A等に加えて、表示部2に重畳されたタッチセンサを備えていてもよい。
【0021】
次に、図2を参照しながら、携帯電話端末1の機能的な構成について説明する。図2は、携帯電話端末1の機能的な構成を示すブロック図である。図2に示すように、携帯電話端末1は、通信部26と、操作部13と、音声処理部30と、表示部2と、撮影部40と、位置・姿勢検出部36と、制御部22と、記憶部24とを備える。
【0022】
通信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA(Code Division Multiple Access)方式などによる無線信号回線を確立し、基地局を通じて他の装置との間で電話通信および情報通信を行う。操作部13は、操作キー13A、または、方向および決定キー13Bがユーザによって操作されると、その操作内容に対応する信号を制御部22へ出力する。
【0023】
音声処理部30は、マイク15から入力される音声をデジタル信号化して制御部22へ出力する。また、音声処理部30は、制御部22から出力されるデジタル信号を復号してレシーバ16へ出力する。表示部2は、制御部22から入力される制御信号に従って各種情報を表示する。撮影部40は、取得した画像をデジタル信号に変換して制御部22へ出力する。
【0024】
位置・姿勢検出部36は、携帯電話端末1の位置と姿勢を検出し、検出結果を制御部22へ出力する。位置・姿勢検出部36は、携帯電話端末1の位置を、例えば、GPS(Global Positioning System)受信機や通信部26が無線信号回線を確立している基地局に基づいて検出する。また、位置・姿勢検出部36は、携帯電話端末1の姿勢を、例えば、3軸加速度センサ、方位センサ、ジャイロセンサに基づいて検出する。
【0025】
制御部22は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備え、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部22は、記憶部24に記憶されているプログラムやデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部22は、CPUによる命令の実行結果に応じて、メモリおよび記憶部24に対してデータの読み書きを行ったり、通信部26や表示部2等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータや位置・姿勢検出部36等から入力される信号がパラメータとして利用される。
【0026】
記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置からなり、各種のプログラムやデータを記憶する。記憶部24に記憶されるプログラムおよびデータには、仮想情報表示プログラム24aと、1ないし複数の仮想情報24bと、形状情報24cとが含まれる。なお、記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、記憶部24に記憶されていることとしたプログラムおよびデータは、可搬の記憶媒体に記憶される。また、記憶部24に記憶されていることとしたプログラムおよびデータは、通信部26による無線通信によってサーバ装置等の他の装置から取得されることとしてもよい。
【0027】
仮想情報表示プログラム24aは、拡張現実(AR:Augmented reality)技術に基づいて、撮影部40によって取得された画像に現実の施設や物品に対応した仮想的な情報を重ねて表示部2に表示する機能を提供する。具体的には、仮想情報表示プログラム24aは、位置・姿勢検出部36によって検出される位置と姿勢等に基づいて撮影部40の撮影範囲にある施設や物品に対応する仮想情報24bを制御部22に取得させる。そして、仮想情報表示プログラム24aは、取得した仮想情報24bに対応するARタグと呼ばれるオブジェクトを画像に重ねて表示させる。
【0028】
また、仮想情報表示プログラム24aは、利用者に任意のARタグを選択させる機能と、選択されたARタグに関連づけられた動作を実行する機能を提供する。仮想情報表示プログラム24aは、複数のARタグが重なっている場合でも、任意のARタグを利用者が選択することを可能にする。
【0029】
仮想情報24bは、撮影部40によって取得された画像に重ねて表示されるARタグに関する情報を保持する。図3は、仮想情報24bの一例を示す図である。図3に示すように、仮想情報24bは、緯度、経度、高さ、画像、コメント、URL(Uniform Resource Locator)等の分類項目の情報を有する。緯度、経度、高さは、仮想情報24bに対応する現実の施設や物品の位置を示す。画像は、ARタグとして表示されるオブジェクトの実体を示す。コメントは、仮想情報24bに対応する現実の施設や物品に関する説明文である。URLは、ARタグに関連づけられた情報を示す。なお、仮想情報24bが有する分類項目は、上記分類項目に限らず、高さやコメントはなくてもよい。
【0030】
なお、表示対象の仮想情報24bの全てを予め記憶部24に記憶させるのではなく、携帯電話端末1の位置と姿勢とに基づいて、撮影部40の撮影範囲およびその周辺に存在する施設や物品に対応する仮想情報24bをサーバ装置から随時取得してもよい。この場合、所定量または所定件数の仮想情報24bを記憶部24にキャッシュするようにしてもよい。なお、ここでいうサーバ装置とは、例えば、ARサービスを提供する業者によって運営される装置である。
【0031】
形状情報24cは、撮影部40によって取得された画像の中から、ARタグを選択するために用いられる所定の物体を検出するための情報を保持する。本実施例においては、ARタグを選択するために用いられる所定の物体は、人間の手であるものとする。そして、形状情報24cには人間の手の形状が登録されているものとする。なお、ここでいう人間の手の形状とは、例えば、所定数以上の突部を有する形状とする。また、形状情報24cに登録された手の形状として、撮影された若しくは予め登録されている手の画像、又は手の形状の特徴情報等、いずれにも限られない。
【0032】
次に、図4から図6を参照しながら、仮想情報表示プログラム24aが提供する機能に基づいて制御部22によって実行されるARタグの選択処理について説明する。図4は、ARタグの選択の一例を示す図である。図5は、選択領域について説明するための図である。図6は、ARタグの選択の他の例を示す図である。
【0033】
図4に示すように、撮影部40が画像Pを取得すると、制御部22は、画像Pを表示部2に表示させるとともに、画像Pを形状情報24cと照合して手の形状の検出を試みる。手の形状が検出されると、制御部22は、二値化等によって手の輪郭を抽出する。なお、手の形状の検出は、例えば、特開2003−346162号公報にて開示されている技術等を用いて実現してもよい。また、手の認識方法としては、上記の方法に限らず、例えば、予め記憶された手の画像と画像Pとをマッチング処理して同一の手の形状を検出してもよい。また、同様の方法で、予め手の開かれた状態(開状態)および閉じられた状態(閉状態)の2パターンの画像を記憶しておき、当該2パターンの画像と画像Pに含まれる手の形状を対比することによって、画像Pに含まれる手の形状の検出を行ってもよい。
【0034】
また、制御部22は、位置・姿勢検出部36によって検出された携帯電話端末1の位置と姿勢とに基づいて、撮影部40の撮影範囲にある施設や物品に対応する仮想情報24bを取得し、取得した仮想情報24bに対応するARタグを画像Pに重ねて表示部2に表示させる。
【0035】
具体的には、制御部22は、取得した仮想情報24bの示す位置が、撮影部40によって取得される画像Pのどの位置に対応するかを算出し、算出した位置に仮想情報24bに対応するARタグを表示させる。仮想情報24bの示す位置が画像Pのどこに対応するかは、位置・姿勢検出部36によって検出された携帯電話端末1の位置と姿勢、仮想情報24bに含まれる位置情報、撮影部40の撮像面のサイズおよび画角等に基づいて算出される。
【0036】
また、画像Pにおいて、一部でも他のARタグが重なる領域があるARタグは、対応する仮想情報24bの示す位置が携帯電話端末1に近いほど前面に位置するように重ねて表示される。
【0037】
図4に示すステップS11では、画像Pには手Hが写っているので、画像Pを形状情報24cと照合することによって、画像Pに含まれる手Hの形状が検出される。また、ステップS11では、撮影部40の撮影範囲にある施設や物品に対応するARタグA1〜ARタグA4の4つのARタグが画像Pに重ねて表示されている。ARタグA2〜A4は、それぞれ、対応する仮想情報24bの示す位置が撮影部40の焦点からみて互いに近いために重なり合って表示される。
【0038】
この場面では、手Hは、閉状態であり、手Hの表示領域は、いずれのARタグの表示位置とも重なっていない。このように検出された手Hが閉状態であり、いずれのARタグの表示位置とも表示領域が重なっていない場合、どのARタグも選択されず、未選択状態を維持する。
【0039】
続いて、ステップS12では、手Hが、ARタグA2〜A4の表示位置を含む表示領域に対応する位置へ実際に移動した後に、開状態へ移行している。そして、ステップS13では、手Hが、表示領域を維持した状態で閉状態へ移行している。このように、手Hが開状態から閉状態へ移行すると、制御部22は、開いていたときの手Hの表示領域を選択領域に設定し、表示位置が選択領域に含まれるARタグを選択状態にする。この例では、ステップS13において、ARタグA2〜A4の3つのARタグが選択状態となる。
【0040】
このように、手Hを開いて閉じる動作が検出された場合に開いていたときの手Hの表示領域に表示位置が含まれるARタグを選択状態とすることにより、利用者は、複数のARタグを容易に選択することができる。また、手Hを開いて閉じる動作は、欲しいものを掴む動作と同一であるため、このような動作によってARタグを選択する方式は、利用者にとって非常に直感的で分かりやすい。
【0041】
なお、選択領域は、実際の手Hの形状に沿った領域であってもよいし、図5に示す領域R1のように指の先端(突端)を結んだ内側の領域であってもよいし、図5に示す領域R2のように手Hの形状を含む最小矩形であってもよい。領域R1を選択領域とすることにより、指の間に表示されていたARタグも選択されることとなり、利用者の意図に合った選択範囲を設定することができる。領域R2を選択領域とすることにより、領域を算出するための演算量を少なくすることができる。
【0042】
また、手Hの表示領域にARタグの表示位置が含まれる場合、ステップS12およびステップS13に示すように、手Hの形状をARタグよりも前面に表示することが好ましい。このように制御することにより、手Hの位置が明確になり、どのARタグが選択されるかを利用者が把握しやすくなる。また、表意位置の一部分のみが選択領域に含まれるARタグについては、選択状態にしてもよいし、選択状態にしなくてもよい。
【0043】
こうしてARタグが選択されると、制御部22は、選択されたARタグをメニューM1として表示部2に一覧表示する。図4に示すステップS14では、選択状態となったARタグが、対応する仮想情報24bに含まれるコメントと対応付けて一覧表示されている。このように、ARタグを一覧表示することにより、重なり合っていたARタグを所定の間隔で配列して表示させることができる。ARタグを所定の間隔で配列して表示させることにより、利用者は、個々のARタグをはっきりと識別することができるとともに、それらのARタグの1つを容易に選択することができるようになる。
【0044】
なお、選択状態となったARタグを配列する順序は、例えば、対応する仮想情報が示す位置が携帯電話端末1に近い順であってもよいし、対応する仮想情報の更新日時が新しい順であってもよい。対応する仮想情報が示す位置が携帯電話端末1に近い順にARタグを配列することにより、ARタグの配列順序が、対応する施設や物品が見える順序と一致するため、利用者が、ARタグと施設や物品との対応を把握し易くなる。
【0045】
続いて、ステップS15に示すように、利用者がメニューM1上のARタグの1つを選択すると、制御部22は、ステップS16に示すように、選択されたARタグに対応する動作を実行する。図4に示す例では、制御部22は、選択されたARタグA2に対応する動作として、ARタグA2に対応する仮想情報24bに含まれるURLにアクセスしてWEBページW1を表示部2に表示させる動作を実行している。
【0046】
なお、利用者は、操作部13を操作することによってメニューM1上のARタグの選択を実行してもよいし、撮影部40によって取得される画像中で所定の動作を行うことによってメニューM1上のARタグの選択を実行してもよい。ここでいう所定の動作とは、例えば、タップするようにARタグの表示領域内で指を上下させる動作や、ARタグをはじくように指を動かす動作や、ARタグの表示領域内で指を一定時間以上静止させる動作である。なお、指の認識方法については、手の形状の検出方法と同様の検出方法によって実現されてもよい。
【0047】
また、メニューM1を表示するに際しては、ARタグを選択する手の位置を利用者が確認しやすいように、メニューM1を手の形状の背面に表示することが好ましい。あるいは、メニューM1を半透明に表示して、背後の手の位置を利用者が確認できるようにしてもよい。
【0048】
図4では、開状態の手を表示領域を維持したままで閉状態へ移行してARタグを選択する例を示したが、利用者は、開状態の手を移動させることによって、より広範囲のARタグを選択することができる。例えば、図6に示すように、ステップS13において開状態へ移行した手Hが、ステップS17において、表示領域にARタグA1の表示位置が含まれる位置まで左下方向へ移動し、その後に閉状態へ移行したものとする。この場合、制御部22は、ARタグA2〜A4に加えて、ARタグA1も選択状態にする。そして、制御部22は、ステップS18に示すように、選択されたARタグA1〜A4をメニューM2として表示部2に一覧表示する。
【0049】
このように、制御部22は、開状態の手Hが移動した場合、移動の軌跡を監視し、移動前の選択開始領域R3から移動後の選択完了領域R4への軌跡上に表示位置が含まれる全てのARタグを選択状態にする。このように制御することにより、利用者は、離れた位置に表示されている複数のARタグを一度に選択することができる。なお、ここでいう開状態の手Hが移動した場合には、手Hが開状態から閉状態へ移行しながら移動した場合も含まれる。
【0050】
次に、図7を参照しながら、携帯電話端末1の動作について説明する。図7は、携帯電話端末1によるARタグ選択処理の処理手順を示す図である。図7に示す処理手順は、仮想情報表示プログラム24aが起動された後、利用者が所定の終了操作を行うまで繰り返して実行される。なお、ARタグ選択処理は、制御部22が仮想情報表示プログラム24aを実行することによって実現される。
【0051】
図7に示すように、制御部22は、まず、ステップS101として、メモリに設けられた監視フラグをオフに設定する。監視フラグは、開状態に変化した手の移動を監視すべき場合にオンに設定されるフラグである。続いて、制御部22は、ステップS102として、撮影部40で取得された画像Pを表示部2に表示させる。そして、制御部22は、ステップS103として、位置・姿勢検出部36に自装置の位置と姿勢を取得させる。
【0052】
続いて、制御部22は、ステップS104として、自装置の位置と姿勢等に基づいて、撮影部40の撮影範囲に対応する仮想情報24bを取得する。そして、制御部22は、ステップS105として、取得した仮想情報24bに対応するARタグを画像Pに重ねて表示部2に表示させる。
【0053】
続いて、制御部22は、ステップS106として、画像Pに含まれる手を検出する。手が検出されない場合(ステップS107,No)、制御部22は、ステップS108として、監視フラグをオフに設定し、ステップS102以降を再実行する。一方、画像Pに含まれる手が検出された場合(ステップS107,Yes)、制御部22は、ステップS109として、監視フラグがオンであるかを判定する。監視フラグがオンでない場合(ステップS109,No)、制御部22は、ステップS110として、手が開状態であるかを判定する。手が開状態であることは、例えば、指に相当する形状が含まれることに基づいて判定される。
【0054】
手が開状態である場合(ステップS110,Yes)、制御部22は、ステップS111として、監視フラグをオンに設定する。そして制御部22は、ステップS112として、その時点での手の領域に基づいて選択開始領域を設定し、ステップS102以降を再実行する。一方、手が開いた形状になっていない場合(ステップS110,No)、制御部22は、監視フラグを変更することなく、ステップS102以降を再実行する。
【0055】
ステップS109で監視フラグがオンであった場合、すなわち、手が開いた形状に変化していた場合(ステップS109,Yes)、制御部22は、ステップS113として、手が閉じた形状になっているかを判定する。手が閉じた形状になっていることは、例えば、指に相当する突部が形状に含まれなくなったことに基づいて判定される。手が閉じた形状に変化していない場合(ステップS113,No)、制御部22は、ステップS102以降を再実行する。
【0056】
手が閉じた形状に変化していた場合(ステップS113,Yes)、制御部22は、ステップS114として、その時点での手の領域に基づいて選択完了領域を設定する。なお、選択完了領域は、閉じた形状の手の領域に基づいて設定してもよいし、閉じた手が開いているときの形状を仮定し、仮定した手の領域に基づいて設定してもよい。
【0057】
続いて、制御部22は、ステップS115として、選択開始領域から選択完了領域への軌跡上に位置する全てのARタグを選択する。なお、ここでいう軌跡とは、選択開始領域から選択完了領域へ直線的に移動した場合の軌跡であってもよいし、実際に手が通った経路に沿って設定された軌跡であってもよい。そして、制御部22は、ステップS116として、選択したARタグに対応する仮想情報24bを一覧表示する。
【0058】
続いて、制御部22は、ステップS117として、一覧表示した仮想情報24bに対する利用者の選択動作が検出されたかを判定する。選択動作が検出されない場合(ステップS117,No)、制御部22は、ステップS117の判定を再実行する。選択動作が検出された場合(ステップS117,Yes)、制御部22は、ステップS118として、選択動作が行われた仮想情報24bに対応する動作を実行する。仮想情報24bに対応する動作とは、例えば、仮想情報24bに含まれるURLにアクセスしてWEBページを表示する動作である。
【0059】
上述してきたように、本実施例では、手で掴むような動作が検出された位置に表示されているARタグをまとめて選択可能にしたので、画像に付加された複数のARタグを容易に選択することができる。
【0060】
なお、上記の実施例で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。例えば、上記の実施例では、ARタグの選択に関する処理を携帯電話端末1が実行することとしたが、この処理を携帯電話端末1と通信可能なサーバ装置が実行することとしてもよい。この場合、携帯電話端末1は、撮影部40によって取得された画像Pと、位置・姿勢検出部36によって検出された携帯電話端末1の位置および姿勢とをサーバ装置に送信し、サーバ装置から応答された処理済みの画像を表示部2に表示する。
【0061】
また、上記の実施例では、手を閉じる動作の検出にともなって選択されたARタグを一覧表示することとしたが、手を閉じる動作の検出にともなって選択されたARタグの表示の仕方は、個々のARタグを容易に選択可能な方式であればよい。例えば、図8に示すメニューM3のように、選択されたARタグをカテゴリ分けし、カテゴリごとにタブC1〜C3等のタブを設けて、ARタグがカテゴリごとに表示されるようにしてもよい。
【0062】
また、手を閉じる動作の検出にともなってARタグを選択する際に、自装置とARタグの奥行き方向の距離を考慮することとしてもよい。図9から図11を参照しながら、自装置との奥行き方向の距離を考慮してARタグを選択する例について説明する。図9は、手がARタグと初めて重なった場面の一例を示す図である。図10は、基準距離と換算係数について説明するための図である。図11は、ARタグを選択するための閾値の一例を示す図である。
【0063】
図4に示したステップS11の場面で手が上方に移動すると、図9に示すように、手の一部がARタグA3の端部と重なった状態となる。このように、手がいずれかのARタグに初めて重なると、制御部22は、その時点での携帯電話端末1と手との距離を測定し、測定された距離を基準距離としてメモリに記憶させる。携帯電話端末1と手との距離の測定は、撮影部40が焦点を対象物に合わせるために用いる合焦機能によって実現される。なお、携帯電話端末1と手との距離は、例えば、赤外線や音波等を用いて距離を測定する測距センサを用いて測定してもよいし、予め所定の距離と対応付けて形状情報24cに保持されている手の大きさと画像P中の手の大きさの比率に基づいて算出してもよい。
【0064】
続いて、制御部22は、位置・姿勢検出部36によって検出された携帯電話端末1の位置とARタグA3に対応する仮想情報24bが示す位置との距離を算出する。そして、制御部22は、求めた2つの距離に基づいて、ARタグA3に対応する仮想情報24bが示す位置と他の仮想情報24bが示す位置との奥行き方向の距離を手の移動距離に換算するための換算係数を算出する。
【0065】
図10に示すように、基準距離がDSであり、ARタグA3に対応する仮想情報24bが示す位置P3と携帯電話端末1との距離がD3であるとすると、換算係数はDS/D3となる。この換算係数を用いることにより、ARタグA3を基準とした各ARタグの奥行き方向の相対位置を手の位置と対応させることができる。
【0066】
例えば、DSが10[cm]、すなわち、0.1[m]であり、D3が100[m]であるとすると、換算係数は、0.001となる。この場合、ARタグA2に対応する仮想情報24bが示す位置P2が位置P3から50[m]手前にあるとすると、50×0.001[m]、すなわち、手を5cm手前に移動させた位置がARタグA2の奥行き方向の位置となる。
【0067】
同様に、ARタグA1に対応する仮想情報24bが示す位置P1が位置P3から10[m]手前にあるとすると、10×0.001[m]、すなわち、手を1cm手前に移動させた位置がARタグA1の奥行き方向の位置となる。また、ARタグA4に対応する仮想情報24bが示す位置P4が位置P3から10[m]奥にあるとすると、10×0.001[m]、すなわち、手を1cm奥に移動させた位置がARタグA4の奥行き方向の位置となる。
【0068】
このように、ARタグの奥行き方向の相対位置を手の位置と対応させることにより、手を閉じる動作の検出にともなってARタグを選択する際に、自装置とARタグの奥行き方向の距離を考慮することが可能になる。すなわち、手を閉じる動作が検出された場合に、開いた手の領域に含まれるARタグであっても、手でつかめる範囲外に位置するARタグについては選択しないという制御を行うことが可能なる。
【0069】
手でつかめる範囲内であるかについては、例えば、図11に示すように、閾値を設定して判定してもよい。図11に示す例では、手を開く動作が検出された位置PSおよび手を閉じる動作が検出された位置PEから奥行き方向に閾値DT離れた位置までの範囲Sが手でつかめる範囲と判定される。図11に示す例では、範囲Sの外に位置するARタグA2は、開いた手の範囲に重なっていたとしても選択されない。
【符号の説明】
【0070】
1 携帯電話端末
2 表示部
13 操作部
22 制御部
24 記憶部
24a 仮想情報表示プログラム
24b 仮想情報
24c 形状情報
26 通信部
30 音声処理部
36 位置・姿勢検出部
40 撮影部
【特許請求の範囲】
【請求項1】
撮影部と、
前記撮影部によって取得された画像を表示する表示部と、
前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させる制御部とを備え、
前記制御部は、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理することを特徴とする撮影装置。
【請求項2】
前記制御部は、前記所定の物体の表示態様が変化したことを契機として前記選択処理を行うことを特徴とする請求項1に記載の撮影装置。
【請求項3】
前記所定の物体の表示態様の変化は、前記所定の物体に含まれる突部が消滅したことを含むことを特徴とする請求項2に記載の撮影装置。
【請求項4】
前記制御部は、前記選択処理によって選択した前記オブジェクトを前記表示部に一覧表示することを特徴とする請求項1から3のいずれか1項に記載の撮影装置。
【請求項5】
前記制御部は、前記選択されたオブジェクトの一覧表示を、自装置からの距離に応じて前記選択されたオブジェクトを並べ替えて表示することを特徴とする請求項4に記載の撮影装置。
【請求項6】
前記制御部は、前記選択処理によって選択した前記オブジェクトをカテゴリごとに分類して表示することを特徴とする請求項4または5に記載の撮影装置。
【請求項7】
前記所定の物体の前記表示領域は、前記所定の物体を構成する複数の突部における端が互いに結ばれた領域の内側を含むことを特徴とする請求項1から6のいずれか1項に記載の撮影装置。
【請求項8】
前記制御部は、前記所定の物体の表示態様が変化するまでに前記所定の物体の表示領域が移動した場合、当該移動の軌跡上に表示されているオブジェクトをさらに選択処理することを特徴とする請求項1から7のいずれか1項に記載の撮影装置。
【請求項9】
撮影部によって取得された画像を表示するステップと、
前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、
前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップと
を含むことを特徴とする制御方法。
【請求項10】
情報処理装置に、
撮影部によって取得された画像を表示するステップと、
前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、
前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップと
を実行させることを特徴とする仮想情報表示プログラム。
【請求項1】
撮影部と、
前記撮影部によって取得された画像を表示する表示部と、
前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させる制御部とを備え、
前記制御部は、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理することを特徴とする撮影装置。
【請求項2】
前記制御部は、前記所定の物体の表示態様が変化したことを契機として前記選択処理を行うことを特徴とする請求項1に記載の撮影装置。
【請求項3】
前記所定の物体の表示態様の変化は、前記所定の物体に含まれる突部が消滅したことを含むことを特徴とする請求項2に記載の撮影装置。
【請求項4】
前記制御部は、前記選択処理によって選択した前記オブジェクトを前記表示部に一覧表示することを特徴とする請求項1から3のいずれか1項に記載の撮影装置。
【請求項5】
前記制御部は、前記選択されたオブジェクトの一覧表示を、自装置からの距離に応じて前記選択されたオブジェクトを並べ替えて表示することを特徴とする請求項4に記載の撮影装置。
【請求項6】
前記制御部は、前記選択処理によって選択した前記オブジェクトをカテゴリごとに分類して表示することを特徴とする請求項4または5に記載の撮影装置。
【請求項7】
前記所定の物体の前記表示領域は、前記所定の物体を構成する複数の突部における端が互いに結ばれた領域の内側を含むことを特徴とする請求項1から6のいずれか1項に記載の撮影装置。
【請求項8】
前記制御部は、前記所定の物体の表示態様が変化するまでに前記所定の物体の表示領域が移動した場合、当該移動の軌跡上に表示されているオブジェクトをさらに選択処理することを特徴とする請求項1から7のいずれか1項に記載の撮影装置。
【請求項9】
撮影部によって取得された画像を表示するステップと、
前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、
前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップと
を含むことを特徴とする制御方法。
【請求項10】
情報処理装置に、
撮影部によって取得された画像を表示するステップと、
前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、
前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップと
を実行させることを特徴とする仮想情報表示プログラム。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【公開番号】特開2012−205153(P2012−205153A)
【公開日】平成24年10月22日(2012.10.22)
【国際特許分類】
【出願番号】特願2011−68969(P2011−68969)
【出願日】平成23年3月25日(2011.3.25)
【出願人】(000006633)京セラ株式会社 (13,660)
【Fターム(参考)】
【公開日】平成24年10月22日(2012.10.22)
【国際特許分類】
【出願日】平成23年3月25日(2011.3.25)
【出願人】(000006633)京セラ株式会社 (13,660)
【Fターム(参考)】
[ Back to top ]