説明

端末の動きまたは姿勢に基づいてビジュアルサーチを行うための方法、端末およびコンピュータ読取可能な記録媒体

端末の動きまたは姿勢に基づいてビジュアルサーチを行うための方法、端末およびコンピュータ読取可能な記録媒体が開示される。本発明の一実施形態によれば、端末の動きまたは姿勢に基づいてビジュアルサーチ(visual search)を行うための方法であって、(a)少なくとも1つのセンサー手段を用いて端末の動きまたは姿勢を検知するステップと、(b)検知された端末の動きまたは姿勢のうちの少なくとも1つを参照して、トリガリングイベント(triggering event)の発生の有無を判断するステップと、(c)トリガリングイベントが発生すると、トリガリングイベントが発生した時点に、端末にディスプレイされる出力映像に含まれる少なくとも1つのオブジェクトに対するビジュアルサーチが行われるようにするステップとを含む方法が提供される。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、端末の動きまたは姿勢に基づいてビジュアルサーチを行うための方法、端末およびコンピュータ読取可能な記録媒体に関し、より詳細には、ユーザの操作する端末が所定のパターンに従って動く際、端末にディスプレイされる拡張現実上の映像に含まれるオブジェクトに対するビジュアルサーチを実行できるようにする方法、端末およびコンピュータ読取可能な記録媒体に関する。
【背景技術】
【0002】
最近、移動通信技術の急激な発展に後押しされ、ほとんどの人が携帯電話、PDA、モバイルテレビなどのような移動式端末を利用しており、これに対する生活依存度がますます高くなる傾向にある。
【0003】
これにより、このような移動式端末を介して多様な情報を得ようとする現代人のニーズもますます増加する傾向にあり、移動式端末を介してコンテンツを提供する側では、多様な形態の情報をユーザに提供して興味を誘発させることにより、ユーザの利用度を高めようとしている。
【0004】
しかし、既存の移動式端末を用いる場合には、通話またはショートメッセージ通信を除けば、特定または不特定のユーザとの交流が皆無で、情報の共有または意見交換などのためのコミュニティ作りがほとんど不可能な水準であった。
【0005】
最近では、従来の移動式端末を用いて音声通話またはショートメッセージの送受信などの単純な機能を果たすことを超えて、移動式端末を用いてインターネット接続、情報検索、画像通話などの多様な情報通信機能を提供する技術が開発されているが、このような機能を果たすためには、端末を用いるユーザのやや複雑な操作が要求されるという問題があった。
【0006】
そこで、最近では、このような環境を改善するために、端末の動きまたは姿勢に応じて端末の動作が比較的簡単に制御される技術が着実に開発されている。
しかしながら、端末の動きまたは姿勢に応じて映像に表示される特定の物体またはカーソルの移動が制御される技術についてのみ開発が行われているのが実情であり、このような技術によりユーザに多様な情報またはインタフェースを提供しようとする認識はなされていない状況である。
【0007】
したがって、本出願人は、端末の動きまたは姿勢に基づいて端末上にディスプレイされているイメージ(仮に、拡張現実上でのイメージ)に含まれている所定のオブジェクトに対するビジュアルサーチが行われるようにすることにより、ユーザに多様な情報を提供して共有できるようにすると同時に、ユーザが端末の各種動作を直観的に制御できるようにするインタフェースをともに提供することができる技術を開発するに至った。
【発明の概要】
【発明が解決しようとする課題】
【0008】
本発明は、上述した従来技術の問題をすべて解決することを目的とする。
また、本発明の他の目的は、端末の動きまたは姿勢を参照して、ビジュアルサーチのためのトリガリングイベント(triggering event)の発生の有無を判断し、トリガリングイベントが発生すると、トリガリングイベントが発生した時点に、端末にディスプレイされる入力映像に含まれる少なくとも1つのオブジェクトに対してビジュアルサーチを行うことにより、ユーザにとって端末に対して直観的で簡単な操作を加えるだけで端末上にディスプレイされているオブジェクトに関する多様な情報に接することができるようにすることである。
【0009】
また、本発明のさらに他の目的は、トリガリングイベントが発生した時点に、端末にディスプレイされる拡張現実上の映像に含まれる少なくとも1つのオブジェクトに対してビジュアルサーチを行うことにより、拡張現実上の映像に含まれている数多くのオブジェクトに関する情報を取得し、多くのユーザの間にこのような情報を共有できるようにすることである。
【課題を解決するための手段】
【0010】
上記の目的を達成するための本発明の代表的な構成は、次のとおりである。
本発明の一実施形態によれば、端末の動きまたは姿勢に基づいてビジュアルサーチ(visual search)を行うための方法であって、(a)少なくとも1つのセンサー手段を用いて端末の動きまたは姿勢を検知するステップと、(b)前記検知された端末の動きまたは姿勢のうちの少なくとも1つを参照して、トリガリングイベント(triggering event)の発生の有無を判断するステップと、(c)前記トリガリングイベントが発生すると、前記トリガリングイベントが発生した時点に、前記端末にディスプレイされる出力映像に含まれる少なくとも1つのオブジェクトに対するビジュアルサーチが行われるようにするステップとを含む方法が提供される。
【0011】
本発明の他の実施形態によれば、端末の動きまたは姿勢に基づいてビジュアルサーチ(visual search)を行うための端末であって、少なくとも1つのセンサー手段を用いて端末の動きまたは姿勢を検知する動き・姿勢検知部と、前記検知された端末の動きまたは姿勢のうちの少なくとも1つを参照して、トリガリングイベント(triggering event)の発生の有無を判断するトリガリングイベント判断部と、前記トリガリングイベントが発生すると、前記トリガリングイベントが発生した時点に、前記端末にディスプレイされる出力映像に含まれる少なくとも1つのオブジェクトに対するビジュアルサーチが行われるようにするビジュアルサーチ部とを含む端末が提供される。
【0012】
この他にも、本発明を実現するための他の方法、システムおよび前記方法を実行するためのコンピュータプログラムを記録するためのコンピュータ読取可能な記録媒体がさらに提供される。
【発明の効果】
【0013】
本発明によれば、ユーザが端末を動かすか固定させるなどの直観的で簡単な操作を行うだけで端末上にディスプレイされているオブジェクトに関する多様な情報を得ることができるため、端末上にリアルタイムに表示される映像情報に対するビジュアルサーチを行うにあたり、ユーザの便宜性を増大させ、ユーザの興味を誘発させることができる。
【0014】
本発明によれば、トリガリングイベントが発生した時点に、端末にディスプレイされる拡張現実上の映像に含まれる少なくとも1つのオブジェクトに対してビジュアルサーチを行うことにより、拡張現実上の映像に含まれているオブジェクトに関する情報をタグ形式で拡張現実上に付加することにより、多くのユーザの間にこのような情報を共有できるようにするという効果がある。
【図面の簡単な説明】
【0015】
【図1】本発明の一実施形態に係る端末の概略的な構成を示す図である。
【図2】本発明の一実施形態に係る動き・姿勢検知部110の構成を例示的に示す図である。
【図3】本発明の一実施形態に係る制御部130の構成を例示的に示す図である。
【図4】本発明の一実施形態に係る端末100にディスプレイされる出力映像を例示的に示す図である。
【発明を実施するための形態】
【0016】
後述する本発明に関する詳細な説明は、本発明が実施できる特定の実施形態を例示として示す添付図面を参照する。これらの実施形態は、当業者が本発明を実施できるように十分に詳細に説明される。本発明の多様な実施形態は、互いに異なるが、相互排他的である必要はないことが理解されなければならない。例えば、ここに記載されている特定の形状、構造および特性は一実施形態に関連し、本発明の精神および範囲を逸脱しない範囲内で他の実施形態で実現可能である。また、各々の開示された実施形態における個別構成要素の位置または配置は、本発明の精神および範囲を逸脱しない範囲内で変更可能であることが理解されなければならない。したがって、後述する詳細な説明は限定的な意味として受け止めるものではなく、本発明の範囲は、適切に説明された場合、それら請求項が主張するのと均等のすべての範囲とともに添付した請求項によってのみ限定される。図面において、類似の参照符号は、様々な側面にわたって同一または類似の機能を指し示す。
【0017】
以下、本発明の属する技術分野における通常の知識を有する者が本発明を容易に実施できるようにするために、本発明の好ましい実施形態について、添付した図面を参照して詳細に説明する。
【0018】
[本発明の好ましい実施形態]
参照として、本明細書において、「端末の角度」に対する変化は、1つの軸を中心に同一平面上で生じる変化のみならず、固定されていない軸を中心に他の平面を行き来しながら生じる変化をも含む概念というべきである。
【0019】
端末の構成
図1は、本発明の一実施形態に係る端末の概略的な構成を示す図である。
図1に示すように、本発明の端末100は、端末100の動きの有無、距離、速度、加速度、方向などの動き情報および/または端末100が所定の回転軸に対して傾いた角度などの姿勢情報を検知する動き・姿勢検知部110と、ビジュアルサーチの対象となる映像を取得する入力映像取得部120と、動き・姿勢検知部110により検知された動きまたは姿勢情報に基づいて所定のトリガリングイベント(triggering event)が発生する場合、入力映像に含まれているオブジェクトに対するビジュアルサーチを行う(または、行うように指示する)制御部130と、制御部130により取得された情報を端末上に表示してユーザに提供する表示部140および通信部150とを含んで構成されることができる。
【0020】
本発明の一実施形態によれば、動き・姿勢検知部110、入力映像取得部120、制御部130、表示部140および通信部150は、端末100内に備えられるプログラムモジュールであり得る。このようなプログラムモジュールは、運営システム、応用プログラムモジュール、およびその他プログラムモジュールの形態で端末100に含まれてもよく、物理的には、様々な公知の記憶装置上に格納可能である。また、このようなプログラムモジュールは、端末100と通信可能な遠隔記憶装置に格納されてもよい。一方、このようなプログラムモジュールは、本発明にかかり、後述する特定の業務を行うか特定の抽象データ類型を実行するルーチン、サブルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを包括するが、これらに限らない。
【0021】
以下では、図2を参照して、本発明の一実施形態に係る動き・姿勢検知部110の構成およびその機能について詳細に説明する。
図2に示すように、本発明の動き・姿勢検知部110は、少なくとも1つの加速度センサー111と、少なくとも1つのジャイロスコープ112と、センサー補償および情報変換部113とを含んで構成されることができる。
【0022】
動き・姿勢検知部110は、それに含まれる各種センサーを介して測定した加速度に基づいて、端末100の線形動き、回転動き、揺れ情報などを求める機能を果たす。加速度センサー111は、移動する端末100の動きを検知してその加速度を求め、端末100の動きの有無、距離、速度、加速度、方向などに関する情報を検知するセンサーである。また、ジャイロスコープ112は、端末100の回転を検知してその動きの程度を求める機能を果たす。加速度センサー111は、検知した加速度を3つの軸(X軸、Y軸、Z軸)に対するベクトル値で表現することができ、ジャイロスコープ112は、検知した回転を3つの軸に対する回転ベクトル値(ロール(roll)、ピッチ(pitch)、ヨー(yaw))で表現することができる。このような加速度センサー111とジャイロスコープ112とを備えることにより、動き・姿勢検知部110は、端末の速度と位置、位置変化を把握することができる。動き・姿勢検知部110は、通常の慣性航法システム(INS:Inertial Navigation System)であり得、ジャイロスコープ112は、光学式、機械式、圧電型などのジャイロスコープであり得る。
【0023】
センサー補償および情報変換部113は、加速度センサー111およびジャイロスコープ112から出力されるアナログ信号をアナログ/デジタル信号に変換する機能を果たす。また、これとともに、変換された信号を積分した後、軌跡を追跡して、動き情報、角度情報、揺れ情報に変換する機能を果たすことができる。
【0024】
以上では、本発明の一実施形態に係る端末100の動き情報および姿勢情報を取得するために、動き・姿勢検知部110を一例として言及したが、必ずしもこれに限定されるものではなく、本発明の目的を達成できる範囲内で任意のセンサーを用いて端末の動き情報および/または姿勢情報を取得することもできる。
【0025】
動き・姿勢検知部110から出力される端末100の動き情報および/または姿勢情報は、一定周期またはリアルタイムに更新されて制御部130に伝達できるようになる。
一方、本発明の一実施形態に係る入力映像取得部120は、後述する表示部140を介して端末100上に提供される映像情報を取得する機能を果たす。本発明の一実施形態によれば、入力映像取得部120は、CCDカメラなどの光学装置を含むことができ、端末100を携帯しているユーザ周辺の風景の様子を、仮に、プレビュー状態でリアルタイムに受信し、これを端末100上に表示できるようにする。このとき、リアルタイムに撮影される周辺の風景の様子に関連付加情報をともに提供することにより、拡張現実(Augmented Reality)のような形態で端末100上に表示できるようにしてもよい。このような拡張現実に基づいた場合には、後述するように、ビジュアルサーチの対象となったオブジェクトに関する情報が拡張現実上にタグのような形式で追加可能なため、数多くのユーザにおびただしい量の有用な情報を体系的に提供可能な破壊力を有することができる。
【0026】
以下では、図3を参照して、動き・姿勢検知部110からの動き情報または姿勢情報を処理してトリガリングイベントの発生の有無を判断し、これにより、ビジュアルサーチを行って出力映像を生成する制御部130について説明する。
【0027】
図3に示すように、制御部130は、動き・姿勢情報処理部131と、トリガリングイベント判断部132と、ビジュアルサーチ部133と、出力映像生成部134とを含んで構成されることができる。
【0028】
まず、本発明の一実施形態に係る動き・姿勢情報処理部131は、動き・姿勢検知部110により取得された端末100の動きまたは姿勢情報を処理する機能を果たす。
具体的には、本発明の一実施形態に係る動き・姿勢情報処理部131は、動き・姿勢検知部110の加速度センサー111およびジャイロスコープ112により検知された動き情報(動きの有無、距離、速度、加速度および方向などに関する情報)および姿勢情報(所定の回転軸に対して傾いた角度などに関する情報)に基づいてユーザの入力動作を把握する機能を果たす。すなわち、後述するように、ユーザは、端末100を振るか、回転させるか、一定時間の間端末100の動きをなくすかなどをすることにより、端末100の動作(例えば、ビジュアルサーチなど)を制御する命令を入力することができるが、このために、動き・姿勢情報処理部131は、端末100の動きの有無、動いた距離、動き速度、動き加速度および動き方向などの動き情報および/または所定の回転軸に対して端末100が傾いた角度などの姿勢情報を処理することができるのである。
【0029】
次に、本発明の一実施形態に係るトリガリングイベント判断部132は、動き・姿勢情報処理部131により把握された端末100の動きまたは姿勢パターンを分析し、端末100の動きまたは姿勢が端末100の所定の動作を誘発させるトリガリングイベント(triggering event)に該当するか否かを判断する機能を果たす。より具体的には、トリガリングイベント判断部132は、端末100の動きの有無、距離、速度、加速度、方向などの動き情報および/または端末100が所定の回転軸に対する傾斜角度などの姿勢情報のうちの少なくとも1つを参照して、端末100の特定の動きおよび/または特定の姿勢が当該端末100上に表示された入力映像に含まれているオブジェクトに対するビジュアルサーチを行おうとするユーザの意志が反映されたイベントに該当するか否かを判断する機能を果たすことができる。
【0030】
ここで、本発明の一実施形態に係るトリガリングイベントは、ビジュアルサーチを行おうとするユーザの意志を直観的に示すイベントであって、揺れ、回転、不動(一定時間の間動きがない状態)、傾きなどの端末100の多様な類型の動きまたは姿勢に予め設定されることができる。例えば、トリガリングイベントは、端末100が少なくとも1つの回転軸(すなわち、ロール(roll)、ピッチ(pitch)、ヨー(yaw))を中心として所定の角度または速度以上に回転する場合、端末100が少なくとも1つの回転軸(すなわち、ロール(roll)、ピッチ(pitch)、ヨー(yaw))に沿って所定の距離または速度以上に移動する場合、端末100が所定時間の間動かない場合、端末100が少なくとも1つの回転軸(すなわち、ロール(roll)、ピッチ(pitch)、ヨー(yaw))に対して所定の角度範囲内に傾いた状態の場合(すなわち、端末100が所定の姿勢を取っている場合)などを含むことができる。
【0031】
また、本発明の一実施形態に係るトリガリングイベントは、端末100が多様な動きまたは姿勢を取っている間に所定の入力キーが入力されるものとして多様に予め設定可能である。例えば、端末100が横方向に横たえられた姿勢を維持している間に所定の入力ボタンが押されるイベントは、端末が位置する地点の周辺に関する情報を検索する動作を誘発させるトリガリングイベントとして予め設定されることができ、端末100が縦方向に立てられた姿勢を維持している間に所定の入力ボタンが押されるイベントは、端末によって撮影されているオブジェクトに関する情報を検索する動作を誘発させるトリガリングイベントとして予め設定されることができる。
【0032】
ただし、本発明に係るトリガリングイベントは、必ずしも前記列挙されたものに限定されるものではなく、本発明の目的を達成できる範囲内で適切に変更可能である。
次に、本発明の一実施形態に係るビジュアルサーチ部133は、トリガリングイベントが発生した場合、トリガリングイベントが発生した時点に、端末100の表示部140上に表示される入力映像に含まれている所定のオブジェクトに対してビジュアルサーチを行う機能を果たす。上述したように、本発明の一実施形態に係るビジュアルサーチ部133は、ビジュアルサーチに伴うイメージマッチング、情報検索など、多くの演算量が要求される機能を円滑に行うために、端末100と遠隔通信を行うことができるサーバ(図示せず)に搭載されてもよい。
【0033】
また、本発明の一実施形態に係るビジュアルサーチ部133は、トリガリングイベントが発生した時点に、端末100の表示部140上に表示される入力映像に含まれている複数のオブジェクトのうち、入力映像の中心部から近い所に位置する上位n個のオブジェクトに対するビジュアルサーチを行うことができ、これにより、ユーザの意思により符合するビジュアルサーチ結果を提供することができる。
【0034】
一方、上述したように、入力映像で多様な角度および距離を置いて含まれる特定のオブジェクトを認識するためには、所定のオブジェクト認識技術が要求されるが、本発明の一実施形態によれば、このようなオブジェクト認識技術として、K.MIKOLAJCZYK外7人が共同で著述し、2005年11月「International Journal of Computer Vision」に記載された「A Comparison of Affine Region Detectors」という論文などを参照することができる(前記論文の内容はその全体として本明細書に援用されていることが考慮されなければならない)。前記論文には、多様な角度で撮影された同一のオブジェクトを正確に認識するために、アフィン不変量(affine invariant)領域を検出する方法について記載されている。もちろん、本発明に適用可能なオブジェクト認識技術は、前記論文に記載された方法にのみ限定されるものではなく、多様な変形例を適用して本発明を実現することができる。
【0035】
一方、本発明の一実施形態によれば、出力映像生成部134は、ビジュアルサーチの対象となる入力映像と前記入力映像に関連する多様な情報とを組合せて拡張現実の形態の出力映像を生成する機能を果たすことができる。より具体的には、本発明の一実施形態に係る出力映像生成部134は、出力映像を拡張現実の形態で構成するにあたり、特定のオブジェクトに関する情報が特定のオブジェクトに関連づけられていることを暗示する視覚的「タグ」の形態で当該オブジェクトに付着されて表示されることができる。また、ビジュアルサーチを行った結果得られる所定のオブジェクトに関する情報を、拡張現実上に所定のオブジェクトに対するタグの形態で付着することができ、このような新たにタギングされた情報も、さらに他のユーザのために提供可能である。
【0036】
また、本発明の一実施形態に係る出力映像生成部134は、端末100の特定の揺れまたは姿勢をトリガリングイベントとして検知し、端末100上にディスプレイされる出力映像に含まれる情報の表示方式および/または情報の種類を制御する機能を追加的に果たすことができる。
【0037】
例えば、基本的に、リアルタイムに撮影される周辺の風景の様子に関連付加情報を重ねて表示する拡張現実のような類型の映像が端末100上に表示されてもよく、第1トリガリングイベントとして振る動作が1回行われると、前記関連付加情報に関連している複数のサムネイル(thumbnail)イメージが現在の端末100の位置に最も近い順に整列されて表示されてもよく、第2トリガリングイベントとして振る動作が2回行われると、複数のサムネイルイメージが人気度の高い順に整列されて表示されてもよく、第3トリガリングイベントとして振る動作が3回行われると、複数のサムネイルイメージが消えて再びリアルタイムに撮影される周辺の風景の様子に関連付加情報を重ねて表示する拡張現実に戻るようにしてもよい。
【0038】
他の例として、リアルタイムに撮影される周辺の風景の様子に関連付加情報を重ねて表示する拡張現実のような類型の映像が端末100上に表示されるにあたり、トリガリングイベントとして振る動作が行われることを基準として関連付加情報をすべてディスプレイするモードと、関連付加情報のうち、ユーザによって任意に生成された情報(アイコン、掲示物、書き込みなど)のみがディスプレイされるモードとが相互切り替えられるように制御することもできる。
【0039】
ただし、トリガリングイベントにより情報の表示方式または情報の種類が制御される実施形態は、前記列挙されたものに限定されるものではなく、これ以外にも、多様な変形例を想定することができる。
【0040】
一方、本発明の一実施形態に係る表示部140は、入力映像取得部120により取得された入力映像および出力映像生成部134により生成される出力映像を視覚的に表示する機能を果たす。例えば、表示部140は、通常の液晶表示装置(LCD:Liquid Crystal Display)または有機発光ダイオード(OLED:Organic Light Emitting Diodes)などの平板表示装置であり得る。
【0041】
本発明の一実施形態に係る通信部150は、サーバ(図示せず)へ/から各種情報およびコンテンツを送受信する機能を果たすことができる。すなわち、全体的に、通信部150は、端末100からの/へのデータの送受信を可能にする機能を果たす。
【0042】
以下では、本発明の一実施形態に係る端末100の動作を、具体的な実施形態を参照して説明する。
具体的な実施形態
上述したように、本発明の一実施形態に係る端末100は、端末100の動きまたは姿勢を参照して、ビジュアルサーチに関するトリガリングイベントの発生の有無を判断し、トリガリングイベントが発生すると、トリガリングイベントが発生した時点に、端末100にディスプレイされる入力映像に含まれている少なくとも1つのオブジェクトに対してビジュアルサーチが行われるようにすることができる。
【0043】
図4は、本発明の一実施形態に係る端末100にディスプレイされる出力映像を例示的に示す図である。
図4を参照すれば、端末100に備えられたカメラなどの入力映像取得部110により取得された入力映像がプレビュー(preview)映像の形態で端末100の表示部140上に表示されることができる。ここで、入力映像は、前記端末100のユーザが位置する地点(仮に、特定の街頭)で前記端末100をプレビュー(preview)モードに設定した状態で、端末100のレンズなどを介して入力される前記特定の街頭に関する映像であり得る。図4は、このような入力映像に前記入力映像と関連性のある付加情報(仮に、アイコンのような形態で表示されてもよい)を組合せて端末100の表示部140上にディスプレイしている出力映像の状態を例示的に示している。この状態で、ビジュアルサーチの実行を命令する揺れ、回転、傾き、不動などのトリガリングイベントが発生する場合、本発明の一実施形態に係る端末100は、入力映像の中央部に位置しているバス410(または、その裏側に位置する建物など)に対してビジュアルサーチを行うことができる。
【0044】
続いて、図4を参照すれば、入力映像の中央部に位置していたバス410または裏側に位置する建物に対してビジュアルサーチを行った結果得られた詳細情報が入力映像と組合されて端末100の表示部140上に表示されることにより、より新しい情報に満ちた拡張現実を実現することができ、このアップデートされた拡張現実は、他の端末のユーザにも提供されて共有されることができる。言い換えれば、端末100の表示部140上に表示される出力映像は、入力映像および入力映像に含まれる特定のオブジェクトに関する詳細情報が組合されて拡張現実の形態で構成されることができ、より具体的には、バス410または裏側に位置する建物に関する詳細情報は、当該位置で視覚的なタグ420として表現可能である。
【0045】
これにより、本発明の一実施形態に係る端末100は、端末100にリアルタイムにディスプレイされているオブジェクトに対してより詳細な情報を得ることを希望するユーザのニーズを、数多くのユーザによって毎度速い速度でアップデートされる拡張現実を介して即刻的で直観的に満足させることができる。
【0046】
上述した本発明に係る実施形態は、多様なコンピュータ構成要素を介して実行可能なプログラム命令語の形態で実現され、コンピュータ読取可能な記録媒体に記録されることができる。前記コンピュータ読取可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独または組合せて含むことができる。前記コンピュータ読取可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものであるか、コンピュータソフトウェア分野の当業者に公知で使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例には、ハードディスク、フロッピー(登録商標)ディスクおよび磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(floptical disk)のような磁気−光媒体(magneto−optical media)、およびROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納し実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラにより作われるような機械語コードのみならず、インタプリタなどを用いてコンピュータにより実行可能な高級言語コードも含まれる。前記ハードウェア装置は、本発明に係る処理を行うために、1つ以上のソフトウェアモジュールとして作動するように構成されてもよく、その逆も同様である。
【0047】
以上、本発明が具体的な構成要素などのような特定の事項と限定された実施形態および図面により説明されたが、これは、本発明のより全般的な理解を助けるために提供されたものに過ぎず、本発明が上記の実施形態に限定されるものではなく、本発明の属する技術分野における通常の知識を有する者であれば、このような記載から多様な修正および変形を図ることができる。
【0048】
したがって、本発明の思想は、上述した実施形態に限って定められてはならず、後述する特許請求の範囲のみならず、この特許請求の範囲と均等または等価的に変形されたすべてのものなどは本発明の思想の範疇に属するとするというべきである。
【符号の説明】
【0049】
110:動き・姿勢検知部
111:加速度センサー
112:ジャイロスコープ
113:センサー補償および情報変換部
120:入力映像取得部
130:制御部
131:動き・姿勢情報処理部
132:トリガリングイベント判断部
133:ビジュアルサーチ部
134:出力映像生成部
140:表示部
150:通信部

【特許請求の範囲】
【請求項1】
端末の動きまたは姿勢に基づいてビジュアルサーチ(visual search)を行うための方法であって、
(a)少なくとも1つのセンサー手段を用いて端末の動きまたは姿勢を検知するステップと、
(b)前記検知された端末の動きまたは姿勢のうちの少なくとも1つを参照して、トリガリングイベント(triggering event)の発生の有無を判断するステップと、
(c)前記トリガリングイベントが発生すると、前記トリガリングイベントが発生した時点に、前記端末にディスプレイされる出力映像に含まれる少なくとも1つのオブジェクトに対するビジュアルサーチが行われるようにするステップとを含み、
前記出力映像は、前記端末によりリアルタイムに入力される入力映像に前記入力映像と関連性のある情報を組合せた拡張現実(Augmented Reality)形態の映像であることを特徴とする方法。
【請求項2】
前記トリガリングイベントは、前記端末が予め設定されたパターンに従って動くイベント、前記端末が予め設定された時間の間動かないイベント、および前記端末が予め設定された姿勢を取る場合のうちの少なくとも1つを含むことを特徴とする請求項1に記載の方法。
【請求項3】
前記予め設定されたパターンは、前記端末の動いた距離、動き速度、動き加速度、および動き方向のうちの少なくとも1つにより特定されることを特徴とする請求項2に記載の方法。
【請求項4】
前記予め設定された姿勢は、前記端末が少なくとも1つの回転軸に対して傾いている角度により特定されることを特徴とする請求項2に記載の方法。
【請求項5】
前記(c)ステップにおいて、
前記少なくとも1つのオブジェクトは、前記出力映像上で前記出力映像の中心から近い所に表示される上位n個のオブジェクトであることを特徴とする請求項1に記載の方法。
【請求項6】
前記(c)ステップにおいて、
前記ビジュアルサーチは、前記端末と通信可能な遠隔の演算装置により行われることを特徴とする請求項1に記載の方法。
【請求項7】
(d)前記ビジュアルサーチを行った結果得られる前記少なくとも1つのオブジェクトに関する情報を提供するステップをさらに含むことを特徴とする請求項1に記載の方法。
【請求項8】
前記(d)ステップにおいて、
前記端末により入力される入力映像に前記少なくとも1つのオブジェクトに関する情報を拡張現実の形態で構成して提供することを特徴とする請求項7に記載の方法。
【請求項9】
端末の動きまたは姿勢に基づいてビジュアルサーチ(visual search)を行うための端末であって、
少なくとも1つのセンサー手段を用いて端末の動きまたは姿勢を検知する動き・姿勢検知部と、
前記検知された端末の動きまたは姿勢のうちの少なくとも1つを参照して、トリガリングイベント(triggering event)の発生の有無を判断するトリガリングイベント判断部と、
前記トリガリングイベントが発生すると、前記トリガリングイベントが発生した時点に、前記端末にディスプレイされる出力映像に含まれる少なくとも1つのオブジェクトに対するビジュアルサーチが行われるようにするビジュアルサーチ部とを含み、
前記出力映像は、前記端末によりリアルタイムに入力される入力映像に前記入力映像と関連性のある情報を組合せた拡張現実(Augmented Reality)形態の映像であることを特徴とする端末。
【請求項10】
前記トリガリングイベントは、前記端末が予め設定されたパターンに従って動くイベント、前記端末が予め設定された時間の間動かないイベント、および前記端末が予め設定された姿勢を取る場合のうちの少なくとも1つを含むことを特徴とする請求項9に記載の端末。
【請求項11】
前記予め設定されたパターンは、前記端末の動いた距離、動き速度、動き加速度、および動き方向のうちの少なくとも1つにより特定されることを特徴とする請求項10に記載の端末。
【請求項12】
前記予め設定された姿勢は、前記端末が少なくとも1つの回転軸に対して傾いている角度により特定されることを特徴とする請求項10に記載の端末。
【請求項13】
前記少なくとも1つのオブジェクトは、前記出力映像上で前記出力映像の中心から近い所に表示される上位n個のオブジェクトであることを特徴とする請求項9に記載の端末。
【請求項14】
前記ビジュアルサーチは、前記端末と通信可能な遠隔の演算装置により行われることを特徴とする請求項9に記載の端末。
【請求項15】
前記ビジュアルサーチを行った結果得られる前記少なくとも1つのオブジェクトに関する情報を提供する出力映像生成部をさらに含むことを特徴とする請求項9に記載の端末。
【請求項16】
前記出力映像生成部は、
前記端末により入力される入力映像に前記少なくとも1つのオブジェクトに関する情報を拡張現実の形態で構成して提供することを特徴とする請求項15に記載の端末。
【請求項17】
前記端末の第1姿勢で所定のキーが入力されると、第1トリガリングイベントと判断し、前記第1トリガリングイベントが発生した時点に、前記端末が位置している地点の周辺に対する情報検索が行われるようにし、前記端末の第2姿勢で所定のキーが入力されると、第2トリガリングイベントと判断し、前記第2トリガリングイベントが発生した時点に、前記端末にディスプレイされる出力映像に含まれる少なくとも1つのオブジェクトに対するビジュアルサーチが行われるようにすることを特徴とする請求項1に記載の方法。
【請求項18】
前記(d)ステップは、
(d1)少なくとも1つのセンサー手段を用いて端末の動きまたは姿勢を検知するステップと、
(d2)前記検知された端末の動きまたは姿勢のうちの少なくとも1つを参照して、出力映像制御トリガリングイベントの発生の有無を判断するステップと、
(d3)前記出力映像制御トリガリングイベントが発生すると、前記少なくとも1つのオブジェクトに関する情報の表示方式および情報の種類のうちの少なくとも1つが変化するようにするステップとを含むことを特徴とする請求項7に記載の方法。
【請求項19】
前記トリガリングイベント判断部は、
前記端末の第1姿勢で所定のキーが入力されると、第1トリガリングイベントと判断し、前記端末の第2姿勢で所定のキーが入力されると、第2トリガリングイベントと判断し、
前記ビジュアルサーチ部は、
第1トリガリングイベントが発生すると、前記第1トリガリングイベントが発生した時点に、前記端末が位置している地点の周辺に対する情報検索が行われるようにし、第2トリガリングイベントが発生すると、前記第2トリガリングイベントが発生した時点に、前記端末にディスプレイされる出力映像に含まれる少なくとも1つのオブジェクトに対するビジュアルサーチが行われるようにすることを特徴とする請求項9に記載の端末。
【請求項20】
前記出力映像生成部は、
少なくとも1つのセンサー手段を用いて端末の動きまたは姿勢を検知し、前記検知された端末の動きまたは姿勢のうちの少なくとも1つを参照して、出力映像制御トリガリングイベントの発生の有無を判断し、前記出力映像制御トリガリングイベントが発生すると、前記少なくとも1つのオブジェクトに関する情報の表示方式および情報の種類のうちの少なくとも1つが変化するようにすることを特徴とする請求項15に記載の端末。
【請求項21】
請求項1から9および請求項17から18のいずれか1項に記載の方法を実行するためのコンピュータプログラムを記録するためのコンピュータ読取可能な記録媒体。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate


【公表番号】特表2013−506218(P2013−506218A)
【公表日】平成25年2月21日(2013.2.21)
【国際特許分類】
【出願番号】特願2012−531999(P2012−531999)
【出願日】平成22年9月6日(2010.9.6)
【国際出願番号】PCT/KR2010/006052
【国際公開番号】WO2011/040710
【国際公開日】平成23年4月7日(2011.4.7)
【出願人】(508243525)オラワークス・インコーポレイテッド (8)
【Fターム(参考)】