説明

ロボットのタスクモデルの生成及び実行方法と装置

【課題】ロボットサービス設計者に任意のロボットに対する可用行為とロボットが認識可能な周囲環境に関する情報を知らせ、自身が考えるサービスに対してロボットタスクを構成する行為モデルの設計と具現を分離してタスクを生成できるモデルを提供し、この生成されたモデルを用いる場合、サービスに表現された行為の内部を直接具現したり、行為ライブラリを提供するようにロボットタスクを実行できるロボットのタスクモデルの生成及び実行方法とその装置を提供する。
【解決手段】本発明はロボットのタスクモデルの生成及び実行方法とその装置に関し、ロボット行為モデルとこれらの関係を一般化、体系化して知識化するために抽象的モデルの生成と実行過程を分離することは非常に有用であり、ロボット行為とタスクの抽象的な構造のみを考慮し、タスク具現者は必要なタスクライブラリ生成にのみ集中することで、任意のロボットで作動するタスクの安全性と漸進的な拡張及び体系化に多くの利点が得られる。

【発明の詳細な説明】
【技術分野】
【0001】
本発明はロボットのタスクモデルの生成及び実行方法とその装置に関し、更に詳しくは、ロボットタスクを構成する行為モデルの設計と具現を分離してロボットのタスクを生成できるモデルを提供し、この生成されたモデルを用いてロボットタスクを実行できる方法及び装置に関する。
【背景技術】
【0002】
周知のように、サービスロボットは人間の行動や作業などを自動的に行えるようにした機械装置である。このサービスロボットの応用分野は、産業用、医療用、宇宙用及び海底用に分類されており、例えば、最近になってはサービスロボットが次第に浮上している状況である。家庭やオフィス或いは展示場などで多様な形態で多様な作業を行っている。
【0003】
このようなロボットのタスクを生成(例えば、定義或いは著作)する場合、この生成されたタスクモデルがそのままプログラムコードで作成されてロボット内で実行される。また、通常の場合、ロボットタスクはロボットの装置を抽象化したアプリケーション・プログラム・インターフェース(Application Program Interface、以下、APIという)を組み合わせて作成される。
【0004】
このように作成されるタスクは、ロボットの装置に対する理解とこれを提供するAPIに対する理解が十分であり、これを用いてアプリケーションを具現できる人だけがロボットのタスクを作成できる。また、既存に提供されるロボットタスクの開発道具もこのような開発者の立場を補助する観点で著作されるのが殆どである。
【0005】
しかしながら、前述したように生成されたタスクモデルがそのままプログラムコードで作成されてロボット内で実行されることによって、新たなタスクが追加されたり、更新される場合に、既存コードの再使用性が低下する。また、ロボットの制御構造が複雑に絡み合っているため、ロボットのタスクを再構成するのに多くの困難がある。
【0006】
また、ロボットのタスクをロボット開発者が全て開発する場合、教育、エンターテイメント、交通、軍需など非常に多様に発展するロボット分野とここで希望するサービスを提供するのに限界、即ち、ロボットのタスクを開発する際にロボットサービスの設計者が含まれなければならないが、このサービス設計者はロボットに対する詳しい理解が不十分であるため、ロボットの基本的な特徴に対する理解だけで自身が提供しようとするロボットサービスのタスクを作成することに限界があり、また多様な応用サービスドメインをロボット開発者が全て理解することも容易でないという問題点がある。
【0007】
ロボットサービスの設計者に任意のロボットに対する可用行為とロボットが認識可能な周囲環境に関する情報を知らせると、ロボットサービスの設計者は自分が考えるサービスを抽象的ロボット行為で記述することができる。このように定義されたサービスはAPIを用いた場合より遥かに抽象的である。このような抽象的な定義だけではロボットが作動しないため、ロボットについてよく知っている人がロボットサービスの設計者が定義したサービスに表現された行為の内部を直接具現したり、行為ライブラリを提供しなければならない。
【先行技術文献】
【特許文献】
【0008】
【特許文献1】韓国公開特許10-2007-0004268号明細書
【発明の概要】
【発明が解決しようとする課題】
【0009】
そこで、本発明は上記事情に鑑みてなされたものであって、その目的は、ロボットのタスクを構成する行為モデルの設計と具現を分離してタスクを生成することができるモデルを提供し、このモデルを用いてタスクを行うロボットのタスクモデルの生成及びタスク実行方法と装置を提供することである。
【課題を解決するための手段】
【0010】
本発明の一観点によるロボットタスクモデルの生成及び実行方法は、ロボットの行為を生成する段階と、前記行為をコンテクストで表現する段階と、前記コンテクストに基づいて抽象的タスク実行モデルを生成する段階と、実際にロボットを動作するためにロボットのAPIを呼び出して前記生成された抽象的タスク実行モデルを実行する段階とを含むことを特徴とする。また、本発明の他の観点によるロボットのタスクモデルの生成及び実行装置は、ロボットの行為及びコンテクストを生成する生成部と、前記コンテクストに基づいて抽象的タスク実行モデルを生成し、実際にロボットを動作するために前記抽象的タスク実行モデルを実行するコンテクスト管理部と、前記コンテクスト管理部により呼び出されて前記抽象的タスク実行モデルが実行されるようにインターフェースするロボットAPIとを含むことを特徴とする。
【発明の効果】
【0011】
本発明によれば、ロボットタスクの開発をサービス設計者とロボットタスクの具現者に具現区分することで、ロボットタスクを更に効果的に開発できるという効果を奏する。
【0012】
また、抽象的本発明はロボットのタスクモデルの生成及び実行方法と装置を提供することで、サービス開発者はロボット行為とタスクの抽象的な構造のみを考慮し、タスク具現者は必要なタスクライブラリの生成にのみ集中することで、任意のロボットで作動するタスクの安全性と漸進的な拡張及び体系化に多くの利点が得られるという長所がある。
【図面の簡単な説明】
【0013】
【図1】本発明の一実施形態によるロボットサービスの設計者とロボットタスクの具現者との観点の差と関係を示す図である。
【図2】本発明の一実施形態によるロボットのタスクモデルの生成及び実行装置のブロック構成図である。
【図3】図1に示された抽象的行為モデルを示す図である。
【図4】図2に示すロボットAPI内に位置するセンサ1、センサ2、...、センサnと実行器1、実行器2、...、実行器nを示す図である。
【図5】図2に示された抽象的タスク実行モデルを示す図である。
【図6】本発明の一実施形態による抽象的行為モデルに対するコンテクストに基づいてツリー形式の抽象的タスク実行モデルを生成する方法を説明するフローチャートである。
【図7】本発明の一実施形態による抽象的タスク実行モデルの実行方法を説明するフローチャートである。
【図8】本発明の一実施形態によるロボットのタスクモデルの生成及び実行方法を順に示すフローチャートである。
【発明を実施するための形態】
【0014】
以下、添付する図面を参照して本発明の動作原理を詳細に説明する。
【0015】
図1は、本発明の一実施形態によるロボットサービスの設計者の観点とロボットタスクの具現者の観点との差とこれらの関係を示す図である。
【0016】
サービスの設計者はロボットのタスクを抽象的コンテクスト(abstract context)1011と抽象的行為(abstract behavior)1012の組み合わせとみなす。
【0017】
抽象的コンテクスト1011にはコンテクストの名前と説明を含み、抽象的行為1012には行為の名前と説明を含み、更にこの抽象的行為の入力としてタスクを駆動させる条件を示す観察されたコンテクストと出力として活動的コンテクストの観察を備える。このような状態で、サービス設計者は抽象的行為1012をノードとして考え、入力されるコンテクストと出力されるコンテクストを用いて抽象的行為を関係付けながら、抽象的タスクを定義する。
【0018】
次に、タスクの具現者はタスクをコンテクストマネジャー(context manager)1021と行為具現(behavior implementation)1022の組み合わせとみなす。タスク具現者の立場で、コンテクストマネジャー1021で抽象的コンテクストは実際にロボットが提供するセンシングAPIから抽出された情報の論理式で定義されたものと見なす。具現抽象的行為の具現1022は、駆動APIや別途のFSM(finite state machine)で表現されたタスクライブラリを用いて定義された客体や関数形態を有する。
【0019】
図2は、本発明の一実施形態によるロボットのタスクモデルの生成及びタスクの実行装置に対するブロック構成図であって、抽象的行為モデルを用いてサービス設計者によって設計された抽象的行為モデルとこれを用いて定義された抽象的実行タスクの切替を示す。図2に示された装置は、生成部10と、コンテクスト管理部20と、コンテクストデータベース(DataBase、以下、DBという)30と、抽象的タスク実行モデル40と、ロボットAPI50とを含むことができる。
【0020】
生成部10は、行為生成部11及びコンテクスト生成部12からなっている。図3に示すように、例えば、抽象的行為モデル301の例のように、ロボットの行為は行為生成部11を通じて抽象的に生成し、これらの関係をコンテクスト生成部12を通じてコンテクストで表現でき、この表現されたコンテクストをコンテクスト管理部20に提供できる。
【0021】
ここで、図3を参照すれば、行為1(Go to p)から行為7(Replan path)までの関係をそれぞれのコンテクスト1、2...、7で表現でき、行為と行為間の関係は1:nのコンテクストで連結され、全体的に抽象的行為モデルはグラフ形態になり得る。
【0022】
コンテクスト管理部20は、生成部10から入力される抽象的行為モデルのコンテクストに対して、一例として、図2に示すように、コンテクスト1(on)、コンテクスト2(off)、...、コンテクストn(off)に指定してコンテクストDB30に提供できる。ここで、コンテクスト管理部20は、コンテクストDB30に格納された抽象的行為モデルに対するコンテクストをいつでも更新し行為を加えることができる。
【0023】
また、コンテクスト管理部20は生成部10から入力される抽象的行為モデルのコンテクストに基づいて、図5に示すように、開始行為(行為5)から目的行為(行為4)まで指定されたツリー形式の抽象的タスク実行モデルを図6のフローチャート過程を通じて生成してランタイムモデリング部40に提供できる。ここで、コンテクスト管理部20は抽象的タスク実行モデルが生成されたら、抽象的タスク実行モデルにおいて不要な行為を除去できる。
【0024】
更に、コンテクスト管理部20は生成された抽象的タスク実行モデルを実際にロボット内に適用して動作するようにするために、図1に示すタスク具現者の観点102でのように、コンテクストマネジャー1021及び行為具現1022が生成されていなければならず、実行中にコンテクストDB30からコンテクストの内容を読み、行為具現に含まれている抽象的タスク実行モデルを実行するためにロボットAPI50を呼び出し、この呼び出しに応答してロボットAPI50のインターフェースを通じてランタイムモデリング部40にモデリングされている抽象的タスク実行モデルを図7のフローチャート過程で実行できる。
【0025】
コンテクストDB30は、コンテクスト管理部20から入力される抽象的行為モデルに対して指定されたコンテクスト(例えば、コンテクスト1(on)、コンテクスト2(off)、...、コンテクストn(off)を格納する。
【0026】
ランタイムモデリング部40は、コンテクスト管理部20から入力される図5に示すように、開始行為(行為5)から目的行為(行為4)まで指定された抽象的タスク実行モデルをツリー形式でモデリングする。
【0027】
ロボットAPI50は、図4に示すように、複数のセンサ1、センサ2、...、センサnと複数の実行器1、実行器2、...、実行器nからなっており、コンテクスト管理部20の呼び出し命令に応じてランタイムモデリング部40にモデリングされている抽象的タスク実行モデルが実行され得るようにインターフェースする。
【0028】
従って、本発明はロボットサービス設計者に任意のロボットに対する可用行為とロボットが認識可能な周囲環境に関する情報を知らせ、自身が考えるサービスに対してロボットタスクを構成する行為モデルの設計と具現を分離してタスクを生成できるモデルを提供し、この生成されたモデルを用いる場合、サービスに表現された行為の内部を直接具現したり、行為ライブラリを提供するようにロボットタスクを実行することで、ロボットタスクを更に効果的に開発できるようにする。
【0029】
図6は、本発明の一実施形態によって、抽象的行為モデルに対するコンテクストに基づいてツリー形式の抽象的タスク実行モデルを生成する方法を説明するフローチャートである。
【0030】
まず、コンテクスト管理部20はタスクの開始行為を指定(S601)し、現在の指定された行為が活性化するコンテクストを抽出(S603)する。
【0031】
次に、コンテクスト管理部20は、抽出されたコンテクストを入力としてそれぞれの行為が最後である否かを判別(S605)する。
【0032】
前記判別(S605)の結果、その行為が最後である場合、新たに追加された下位の行為があるかをチェック(S607)する。
【0033】
前記チェック(S607)の結果、新たに追加された下位の行為がない場合、前記行為をターゲット行為に指定(S609)し、前記指定されたターゲット行為まで不要な行為を除去(S611)する反面、前記チェック(S607)の結果、新たに追加された下位の行為がある場合、新たに追加された下位の行為が活性化するコンテクストを抽出するS603に進む。
【0034】
前記判別(S605)の結果、行為が最後でない場合、その行為がサイクルを形成するか(即ち、その行為が既に含まれているか)を判断(S613)する。
【0035】
前記判断(S613)の結果、サイクルを形成していなければ、その行為を現在の指定された行為の下位行為として指定(S615)する。しかし、前記判断(S613)の結果、サイクルを形成していれば、抽出されたコンテクストを入力として受けるそれぞれの行為が最後であるかを判別するS605の過程に進む。
【0036】
図7は、本発明の一実施形態による抽象的タスク実行モデルの実行方法に対するフローチャートである。
【0037】
図7を参照すれば、抽象的タスク実行モデルからコンテクストを抽出(S701)する。
【0038】
次に、コンテクスト管理部20は抽出されたコンテクストを用いて抽象的タスク実行モデルのツリー構造に合うように、抽出されたコンテクストの優先順位を決定(S703)する。
【0039】
優先順位が決定された後に、コンテクスト管理部20はコンテクストDB30から更新されたコンテクスト情報を獲得(S705)する。
【0040】
次に、獲得されたコンテクスト情報を分析してオン(on)状態のコンテクストがあるかを判断(S707)する。
【0041】
前記判断(S707)の結果、オン状態のコンテクストがない場合に、定められた時間が経過したかをチェック(S709)する。
【0042】
前記チェック(S709)の結果、定められた時間が経過していない場合、コンテクスト情報を獲得するS705の過程に進む反面、前記チェック(S709)の結果、定められた時間が経過している場合、終了する。
【0043】
その反面、前記判断(S707)の結果、オン状態のコンテクストがある場合、状態がオンであるコンテクストの中で優先順位が最も高いコンテクストを入力とする行為を実行(S711)する。
【0044】
その後、実行された行為が目的であるかを判別(S713)する。
【0045】
前記判別(S713)の結果、実行された行為が目的でない場合、コンテクスト情報を獲得するS705の過程に進む反面、前記判別(S713)の結果、実行された行為が目的である場合、終了する。
【0046】
図8は、本発明の一実施形態によるロボットのタスクモデルの生成及び実行方法を順に示すフローチャートである。
【0047】
まず、生成部10では、一例として、図3に示すように、抽象的行為モデルのためのロボットの行為を行為生成部11を通じて抽象的に生成(S801)し、行為間の関係をコンテクスト生成部12を通じてコンテクストで表現(S803)し、この表現されたコンテクストをコンテクスト管理部20に提供する。
【0048】
次に、生成部10から抽象的行為モデルに対するコンテクストの提供を受けるコンテクスト管理部20ではこの入力されたコンテクストに対して一例として、図2に示すように、コンテクスト1(on)、コンテクスト2(off)、...、コンテクストn(off)の形式に指定してコンテクストDB30に格納(S805)する。
【0049】
その後、コンテクスト管理部20では生成部10から入力される抽象的行為モデルに対するコンテクストに基づいて図5に示すように、開始行為(行為5)から目的行為(行為4)まで指定されたツリー形式の抽象的タスク実行モデルを図6のフローチャートの過程を通じて生成(S807)して抽象的タスク実行モデル40にモデリング(S809)するように提供する。
【0050】
次に、コンテクスト管理部20により生成された抽象的タスク実行モデルを実際にロボット内に適用する(S811)。図1に示すロボットタスクの具現者の観点でのように、コンテクストマネジャー1021及び行為具現1022が生成されていなければならない。
【0051】
その後、実行中にコンテクストDB30からコンテクストの内容を読み、行為具現に含まれている抽象的タスク実行モデルを実行するためにロボットAPI50を呼び出す(S813)。
【0052】
そうすると、ロボットAPI50では、該当センサ及び実行器を用いてコンテクスト管理部20の呼び出し命令に応じてランタイムモデリング部40にモデリングされている抽象的タスク実行モデルが実行され得るようにインターフェース(S815)する。
【0053】
コンテクスト管理部20は、この呼び出しに応答してロボットAPI50のインターフェースを通じてランタイムモデリング部40にモデリングされている抽象的タスク実行モデルを図7に示された方法で実行(S817)する。
【0054】
以上説明した通り、本発明はロボットのタスクモデルの生成及び実行方法とその装置を提供することによって、サービス開発者はロボット行為とタスクの抽象的な構造のみを考慮し、タスク具現者は必要なタスクライブラリの生成にのみ集中することで、任意のロボットで作動するタスクの安全性と漸進的な拡張及び体系化に多くの利点が得られる。
【0055】
一方、本発明の詳細な説明では具体的な実施形態について説明したが、本発明の範囲から逸脱しない範囲内で様々な変形が可能であることはもちろんである。従って、本発明の範囲は説明された実施形態に限定されず、後述する特許請求の範囲だけでなく、この特許請求の範囲と均等なものにより定まるべきである。
【符号の説明】
【0056】
10 生成部
20 コンテクスト管理部
30 コンテクストDB
40 抽象的タスク実行モデル
50 ロボットAPI

【特許請求の範囲】
【請求項1】
ロボットタスクのモデル生成及び実行方法において、
ロボットの行為を生成する段階と、
前記行為をコンテクストで表現する段階と、
前記コンテクストに基づいて抽象的タスク実行モデルを生成する段階と、
実際にロボットを動作するためにロボットのAPIを呼び出して前記生成された抽象的タスク実行モデルを実行する段階と
を含むことを特徴とするロボットのタスクモデルの生成及び実行方法。
【請求項2】
前記抽象的タスク実行モデルを生成する段階は、
タスクの開始行為を指定する段階と、
前記行為が活性化させるコンテクストを抽出する段階と、
前記コンテクストを入力として受けるそれぞれの行為が最後の行為であるかを判別する段階と、
前記判別結果において前記行為が最後の行為であり、新たに追加される行為がない場合に前記行為をターゲット行為として指定する段階と、
前記判別結果において前記行為が最後の行為ではなく、前記行為がサイクルを形成しなければ、前記行為の下位行為として指定する段階と
をさらに含むことを特徴とする請求項1に記載のロボットのタスクモデルの生成及び実行方法。
【請求項3】
前記判別結果において、前記行為が最後の行為であり、新たに追加される行為がない場合に前記指定されたターゲット行為まで不要な行為を除去することを特徴とする請求項2に記載のロボットのタスクモデルの生成及び実行方法。
【請求項4】
前記判別結果において、前記行為が最後の行為であり、新たに追加される行為がある場合に前記コンテクストを抽出する段階から再び行うことを特徴とする請求項2に記載のロボットのタスクモデルの生成及び実行方法。
【請求項5】
前記判別結果において、前記行為がサイクルを形成する場合に前記最後の行為であるかを判別する段階から再び行うことを特徴とする請求項2に記載のロボットのタスクモデルの生成及び実行方法。
【請求項6】
前記下位行為として指定する段階の後、前記最後の行為であるかを判別する段階から再び行うことを特徴とする請求項2に記載のロボットのタスクモデルの生成及び実行方法。
【請求項7】
前記抽象的タスク実行モデルを実行する段階は、
前記抽象的タスク実行モデルからコンテクストを抽出する段階と、
前記コンテクストの優先順位を決定し、更新されたコンテクスト情報を獲得する段階と、
前記コンテクスト情報を分析して、オン(on)状態のコンテクストのうち、優先順位が最も高いコンテクストを入力とする行為を皮切りに、目的行為に到達するまで実行する段階と
を含むことを特徴とする請求項1に記載のロボットのタスクモデルの生成及び実行方法。
【請求項8】
前記コンテクスト情報を分析してオン(on)状態のコンテクストが存在しない場合に、定められた時間が経過していなければ、前記更新されたコンテクスト情報を獲得する段階から再び行うことを特徴とする請求項7に記載のロボットのタスクモデルの生成及び実行方法。
【請求項9】
前記ロボットの行為をそれぞれのコンテクストで表現し、前記行為と行為間の関係を1:nのコンテクストで連結させることを特徴とする請求項1に記載のロボットのタスクモデルの生成及び実行方法。
【請求項10】
前記表現されたコンテクストに対してコンテクスト1(on)、コンテクスト2(off)、...、コンテクストn(off)に指定してコンテクストDBに格納することを特徴とする請求項1に記載のロボットのタスクモデルの生成及び実行方法。
【請求項11】
前記実際にロボットを動作するためにコンテクストマネジャー及び行為具現が生成されていることを特徴とする請求項1に記載のロボットのタスクモデルの生成及び実行方法。
【請求項12】
ロボットタスクモデルの生成及び実行装置において、
ロボットの行為及びコンテクストを生成する生成部と、
前記コンテクストに基づいて抽象的タスク実行モデルを生成し、実際にロボットを動作するために前記抽象的タスク実行モデルを実行するコンテクスト管理部と、
前記コンテクスト管理部により呼び出されて前記抽象的タスク実行モデルが実行されるようにインターフェースするロボットAPIと
を含むことを特徴とするロボットのタスクモデルの生成及び実行装置。
【請求項13】
前記生成部は、
前記ロボットの行為を生成する行為生成部と、
前記行為をコンテクストで表現して生成するコンテクスト生成部と
をさらに含むことを特徴とする請求項12に記載のロボットのタスクモデルの生成及び実行装置。
【請求項14】
前記生成部は、
前記ロボットの行為をそれぞれのコンテクストで表現し、前記行為と行為間の関係を1:nのコンテクストで連結させることを特徴とする請求項13に記載のロボットのタスクモデルの生成及び実行装置。
【請求項15】
前記生成部は、
前記ロボットを実際に動作するようにするためにコンテクストマネジャー及び行為具現を生成することを特徴とする請求項13に記載のロボットのタスクモデルの生成及び実行装置。
【請求項16】
前記コンテクスト管理部は、
タスクの開始行為を指定し、前記開始行為が活性化させるコンテクストを抽出し、前記コンテクストを入力として受けるそれぞれの行為が最後の行為であり、新たに追加される行為がない場合に、前記行為をターゲット行為として指定し、前記それぞれの行為が最後の行為ではなく、前記行為がサイクルを形成しなければ、前記行為を下位行為として指定して前記抽象的タスク実行モデルを生成することを特徴とする請求項12に記載のロボットのタスクモデルの生成及び実行装置。
【請求項17】
前記コンテクスト管理部は、
前記抽象的タスク実行モデルを生成する場合、前記それぞれの行為が最後の行為であり、新たに追加される行為がない場合に、前記指定されたターゲット行為まで不要な行為を除去することを特徴とする請求項16に記載のロボットのタスクモデルの生成及び実行装置。
【請求項18】
前記コンテクスト管理部は、
前記抽象的タスク実行モデルからコンテクストを抽出し、前記コンテクストの優先順位を決定し、更新されたコンテクスト情報を獲得し、前記コンテクスト情報を分析してオン(on)状態のコンテクストで優先順位が最も高いコンテクストを入力とする行為を皮切りに、目的行為に到達するまで前記抽象的タスク実行モデルを実行することを特徴とする請求項16に記載のロボットのタスクモデルの生成及び実行装置。
【請求項19】
前記生成されたコンテクストに対してオンとオフを繰り返し順次指定して格納するコンテクストDBを更に含むことを特徴とする請求項16に記載のロボットのタスクモデルの生成及び実行装置。
【請求項20】
前記ロボットAPIは、
多数のセンサと多数の実行器のうち、該当センサ及び実行器を用いて前記抽象的タスク実行モデルが実行されるようにインターフェースすることを特徴とする請求項12に記載のロボットのタスクモデルの生成及び実行装置。

【図1】
image rotate

【図2】
image rotate

【図3】
image rotate

【図4】
image rotate

【図5】
image rotate

【図6】
image rotate

【図7】
image rotate

【図8】
image rotate


【公開番号】特開2010−142940(P2010−142940A)
【公開日】平成22年7月1日(2010.7.1)
【国際特許分類】
【出願番号】特願2009−144347(P2009−144347)
【出願日】平成21年6月17日(2009.6.17)
【出願人】(596180076)韓國電子通信研究院 (733)
【氏名又は名称原語表記】Electronics and Telecommunications Research Institute
【住所又は居所原語表記】161 Kajong−dong, Yusong−gu, Taejon korea
【Fターム(参考)】