コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム
【課題】ユーザのコンテンツに対する反応を容易に取得でき、ユーザ嗜好に合ったコンテンツを提供する。
【解決手段】コンテンツ提供システムは、コンテンツを出力する出力部203と、ユーザの挙動を検出するセンサ212から得られる情報に基づいて、ユーザの挙動の種類を判定する判定部208と、出力部203で出力されたコンテンツに対応する判定部208による判定結果に基づいて、出力部203がさらに出力するコンテンツを決定するコンテンツ選択部209とを備える。
【解決手段】コンテンツ提供システムは、コンテンツを出力する出力部203と、ユーザの挙動を検出するセンサ212から得られる情報に基づいて、ユーザの挙動の種類を判定する判定部208と、出力部203で出力されたコンテンツに対応する判定部208による判定結果に基づいて、出力部203がさらに出力するコンテンツを決定するコンテンツ選択部209とを備える。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ユーザ嗜好に合ったコンテンツを提供する、コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラムに関する。
【背景技術】
【0002】
近年、ペット型ロボットが各メーカーから販売されており、一般の家庭内で見かける機会も多くなってきている。その中でも、人からの呼びかけに対して反応することで、人とコミュニケーションを取りつつ、コンテンツなどの情報を提供するロボットが現れてきている。
【0003】
ロボットが人とコミュニケーションを取りつつコンテンツを提供するものとして、ロボットの感情に適合するコンテンツを選択し、再生するものが提案されている(例えば、特許文献1参照)。前記特許文献1に記載されたコンテンツ再生システムでは、外部からの働きかけに応じて感情を変更して自律的に動作するロボット装置が、コンテンツ再生装置に感情情報を送信する。コンテンツ再生装置は、コンテンツに関する情報を記載したメタデータとロボット装置の感情情報とを比較し、ロボット装置の感情に適合するコンテンツを選択して再生することでロボット装置の感情を表現している。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2005−169567
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、前記従来の構成では、ロボット装置の感情に沿ったコンテンツを表示するのみであり、コンテンツに対してユーザが評価したり、コンテンツ再生時に行なったユーザの操作を、再生するコンテンツに反映したりすることができない。
【0006】
そこで、本発明は、コンテンツに対するユーザの反応を容易に取得でき、ユーザ嗜好に合ったコンテンツを提供することを目的とする。
【課題を解決するための手段】
【0007】
本願開示のコンテンツ提供システムは、コンテンツを出力する出力部と、ユーザの挙動を検出するセンサから得られる情報に基づいて、前記ユーザの挙動の種類を判定する判定部と、前記出力部で出力されたコンテンツに対応する前記判定部による判定結果に基づいて、前記出力部がさらに出力するコンテンツを決定する、コンテンツ選択部とを備える。
【0008】
上記構成によれば、センサで検出されたユーザの挙動から、ユーザの挙動の種類が判定され、出力されたコンテンツに対応する判定結果に基づいて、さらに出力するコンテンツが決定される。そのため、センサで検出されたユーザの挙動から、出力コンテンツに対するユーザの反応を判定し、その判定結果をさらに出力するコンテンツの決定に用いることができる。すなわち、ユーザによるコンテンツの評価が得られ、この評価に基づいて、さらに出力されるコンテンツが決定されるので、ユーザの好みに合ったコンテンツを提供することが可能になる。
【0009】
上記コンテンツ提供システムにおいて、前記判定部は、前記センサで検出された前記ユーザの挙動が、予め決められた複数の挙動の種類のいずれに該当するかを判定することができる。これにより、ユーザの挙動の種類を、迅速かつ適切に判定することができる。
【0010】
また、上記コンテンツ提供システムにおいて、前記判定部は、前記ユーザの挙動の種類により、前記ユーザの感情を判定し、前記コンテンツ選択部は、前記出力部で出力されたコンテンツに対応する、前記判定部で判定されたユーザの感情に基づいて、前記出力部がさらに出力するコンテンツを決定してもよい。
【0011】
これにより、ユーザの挙動から、ユーザの感情を読み取ることができ、出力されたコンテンツに対するユーザ感情に応じて、さらなるコンテンツを出力することが可能になる。そのため、ユーザの感情をコンテンツ選定に反映することができる。
【0012】
上記コンテンツ提供システムにおいて、前記コンテンツ選択部は、前記出力部がコンテンツを出力している時に、前記センサにより検出された前記ユーザの挙動に基づく判定結果を、前記出力部で出力されているコンテンツに対応する判定結果として、当該判定結果に基づいて、前記出力部がさらに出力するコンテンツを決定してもよい。
【0013】
これにより、コンテンツ出力時のユーザの挙動から判定された結果を、自動的に、コンテンツに対応付けることができる。
【0014】
上記コンテンツ提供システムにおいて、前記出力部が出力したコンテンツの履歴を示すコンテンツ履歴データ及び、当該履歴データの各コンテンツに対応する判定結果を示すデータを、評価データとして記録する記憶部をさらに備え、前記コンテンツ選択部は、前記記憶部に記録された前記評価データに基づいて、前記出力部がさらに出力するコンテンツを決定する態様とすることができる。
【0015】
本構成によって、出力したコンテンツの履歴と、ユーザの挙動から判定される各コンテンツに対するユーザの挙動の判定結果と各コンテンツとを対応付ける評価データを蓄積することができる。コンテンツ選択部は、蓄積された評価データを基に、ユーザがどのようなコンテンツを好むかを判定することができる。そのため、例えば、複数のコンテンツの中から、ユーザが好むコンテンツを選択して出力したり、ユーザが好むコンテンツを優先して出力したりすることが可能になる。
【0016】
上記コンテンツ提供システムにおいて、前記センサは、ユーザの接触を検出するセンサを含み、前記判定部は、前記センサで検出されたユーザの接触の強さ及び量の少なくともいずれか1つに基づいて、前記ユーザの挙動の種類を判定する態様とすることができる。
【0017】
これにより、ユーザのセンサへの接触を検出することによって、出力したコンテンツに対するユーザの反応を判定し、判定結果に基づいてさらなるコンテンツを決定することができる。そのため、ユーザの直感的な操作をコンテンツ選定に反映することができる。すなわち、ユーザの直感的操作を判定し、コンテンツと組み合わせることで、そのユーザの反応に応じてコンテンツを表示することが可能になる。
【0018】
前記コンテンツ提供システムは、複数のコンテンツを記憶する記憶部をさらに備え、前記コンテンツ選択部は、前記判定部による判定結果に基づいて、前記記憶部に記憶された複数のコンテンツのうち一部を、さらに出力するコンテンツに決定することができる。
【0019】
前記コンテンツ提供システムは、端末及びサーバを含んで構成され、前記端末は、少なくとも前記センサを備え、前記サーバは、少なくとも、前記コンテンツ選択部を備え、前記判定部及び前記出力部は、前記端末または前記サーバに設けられる態様とすることができる。
【0020】
このように、前記センサを少なくとも備える端末と、コンテンツ選択部を少なくとも備えるサーバとを設けた構成とすることにより、ユーザに近い位置で必要な機能と、多くのコンテンツを扱う機能とを、端末とサーバに、効率よく分散させることができる。
【0021】
上記コンテンツ提供システムは、前記判定部による判定結果の履歴に基づいて、前記端末の性格を決定する性格管理部をさらに備え、前記性格管理部によって決定された性格によって、前記端末の動作が制御される態様であってもよい。
【0022】
本構成によって、ユーザの動作及び状態の少なくとも一方の種類の履歴を基に、端末に対して性格を付与し、その性格によって端末の動作を制御することができる。
【発明の効果】
【0023】
上記構成により、ユーザのコンテンツに対する反応を容易に取得でき、ユーザ嗜好に合ったコンテンツを提供することができる。
【図面の簡単な説明】
【0024】
【図1】実施の形態1におけるコンテンツ提供システムの構成例を示す機能ブロック図
【図2】ユーザ感情の判定処理の一例を示すフローチャート
【図3】接触の種類判定に用いられる判定基準データの一例を示す図
【図4】コンテンツ提供システムの動作例を示すシーケンス図
【図5】端末が、コンテンツ提供システムの機能を備える場合の構成例を示す図
【図6】コンテンツを出力する端末と、ユーザの挙動を検出する端末とが、それぞれ別個に設けられる場合の構成例を示す図
【図7】コンテンツを提供するコンテンツサーバが、別途、独立して設けられる場合の構成例を示す図
【図8A】センサの変形例(圧力センサ)を示す図
【図8B】センサの変形例(圧力センサ、赤外線センサ)を示す図
【図8C】センサの変形例(圧力センサ、赤外線センサ、カメラ、マイク)を示す図
【図8D】センサの変形例(タッチパネル)を示す図
【図9】ユーザの接触情報に加えて、ユーザの音声認識及び画像認識に基づいて、ユーザの感情を判定する場合の判定基準データの一例を示す図
【図10】記憶部に記録される評価データの一例を示す図
【図11】コンテンツ選択部がチャンネルを選択する処理の例を説明するための図
【図12】コンテンツ選択部が、評価データに基づいて設定した確率の一例を示す図
【図13】実施の形態3におけるコンテンツ提供システムの構成例を示す機能ブロック図
【図14】端末の性格形成を決定する処理例を示すフローチャート
【図15A】性格が「すなお」である場合の端末の外観の一例を示す図
【図15B】性格が「ぐれる」である場合の端末の外観の一例を示す図
【図15C】性格が「すねる」である場合の端末の外観の一例を示す図
【発明を実施するための形態】
【0025】
(実施の形態1)
[システムの構成例]
図1は、実施の形態1におけるコンテンツ提供システムの構成例を示す機能ブロック図である。図1に示すコンテンツ提供システムは、コンテンツを出力する機能を備えた端末101と、コンテンツを端末101へ送信する機能を備えたサーバ102とを含む。サーバ102と端末101とは通信可能である。サーバ102と端末101とは、例えば、無線または有線のネットワークを介して通信することができるが、通信手段は特定のものに限定されない。
【0026】
端末101は、一例として、本実施形態では、家庭内に置かれた映像コンテンツを再生(表示)する装置であり、番組を受信するTVや動画を受信するPCと同じように使われる。この場合、端末101を、コンテンツ再生装置ということもできる。
【0027】
端末101は、挙動情報取得部201、制御部202、出力部203、通信処理部204を有している。また、端末101には、センサ212及び出力装置211が接続されている。
【0028】
挙動情報取得部201は、端末101外部のセンサ212から、ユーザの挙動を示す挙動情報を取得する。すなわち、センサ212により、ユーザの動作及び状態の少なくとも一方が検出される。センサ212により検出される挙動情報は、例えば、ユーザが端末101に対してどのような操作をしたかを示す情報とすることができる。センサ212で検出されるユーザの挙動は、端末101で出力されるコンテンツに対するユーザの反応を示すものであることが好ましい。
【0029】
本実施形態では、一例として、センサ212が圧電センサまたは赤外センサである場合について説明する。センサ212が圧電センサの場合は、挙動情報取得部201は、例えば、ユーザが触った強さや、端末101の表面を触った量(例えば、接触時間の長さあるいは接触距離の長さ)を、挙動情報として取得することができる。この場合、挙動情報取得部201は、ユーザのセンサ212に対する接触の度合いを判定することになる。なお、ユーザの挙動情報は単一のセンサで取得した情報でも、複数の種類のセンサの情報を合成した情報でもよい。
【0030】
制御部202は、端末101の動作を制御する。例えば、制御部202は、挙動情報取得部201で取得するユーザの挙動情報を通信処理部204に送ったり、通信処理部204が受信したコンテンツを出力部203で表示したりするように制御する。例えば、制御部202は、出力装置211にコンテンツが表示されているときに、挙動情報取得部201が挙動情報を取得すると、当該コンテンツと当該挙動情報を前記サーバ102に送信するように通信処理部204を制御することができる。
【0031】
出力部203は、出力装置211を制御する部分であり、出力装置211がディスプレイの場合は、出力部203は、通信処理部204が受信したコンテンツの映像信号を送って、出力装置211に表示させる。これにより、コンテンツを表示してユーザに見せることができる。出力装置211は、ディスプレイのみに限られず、例えば、音声を出力するスピーカ等を備えてもよい。
【0032】
通信処理部204は、端末101がサーバ102と通信するためのインタフェースであり、端末101から情報を送ったり、サーバ102からの情報を受信したりすることができる。
【0033】
サーバ102は、例えば、放送事業者やインターネットサービスプロバイダーによって提供されるコンテンツを配信する装置である。サーバ102は、記憶部205、制御部206、通信処理部207を備える。制御部206は、判定部208、コンテンツ選択部209を含んでいる。
【0034】
記憶部205は、例えば、複数のコンテンツのデータを記憶している部分である。制御部206は、コンテンツを、記憶部205から選択して読み出し、配信することができる。なお、記憶部205に記憶されているコンテンツは、例えば、サーバ102が独自に作成したコンテンツ、あるいはサーバ102が外部から取得したコンテンツであってもよいし、その他様々な種類のものとすることができる。
【0035】
通信処理部207は、サーバ102が端末101と通信するためのインタフェースであり、端末101からの情報を取得したり、端末101へ情報を送ったりすることができる。また、通信処理部207は、例えば、端末101と回線以外の他のネットワーク(例えば、インターネット等)にも接続することが可能である。サーバ102は、前記他のネットワークを介してコンテンツの情報を取得してもよい。
【0036】
判定部208は、端末101から受信した挙動情報に基づいて、ユーザが端末101に対してどのような動作をしたか、または、ユーザがどのような状態になったかを判定する部分である。そのため、判定部208は、挙動情報で示されるユーザの挙動の種類を判定する。例えば、判定部208は、挙動情報が示す挙動が、予め決められた挙動の種類のうちどれに該当するかを判定する。一例として、挙動情報に、ユーザの接触の強さ(圧力)を示す値pが含まれる場合、この値pが、予め決められた複数の数値レベル(例えば、レベル強[p > P1]、レベル中[P1 ≧ p ≧ P2]、レベル弱[p < P2])のうち、どのレベルに属するかによって、接触の種類を決定することができる。また、ユーザの挙動を、予め決められた複数の種類のうちいずれかに分類することで、挙動の種類を決定することもできる。このように、ユーザの挙動の種類を判定するには、予め判定基準となる情報を、例えば、記憶部205に記録しておき、この判定基準を基に、前記種類を決定することができる。
【0037】
また、判定部208は、挙動情報または挙動情報に基づいて判定されたユーザ挙動の種類に基づいて、ユーザの感情を判定してもよい。感情の判定は、例えば、予め記録された、ユーザ挙動の種類と感情との対応関係を示すデータを用いて行なうことができる。例えば、判定したユーザの挙動の種類を、前記対応関係を用いて、ユーザの感情に変換することができる。あるいは、ユーザの挙動が数値で表される場合、この数値が予め決められた複数の区間のうち、どれに属するかによって、感情を判定してもよい。このように、ユーザの感情判定のために、予め判定基準となる情報を、例えば、記憶部205に記録しておき、判定基準を基に、前記感情を決定することができる。判定部208による感情判定の具体例については後述する。なお、ここで判定可能な感情には、ユーザがコンテンツを好きか嫌いかといった情緒的、感覚的な感情の他、例えば、「コンテンツ出力をやめてほしい」あるいは「もっと見たい」といった意思や欲求も含まれる。
【0038】
コンテンツ選択部209は、端末101の出力部203で出力されたコンテンツに対応する判定部208による判定結果に基づいて、出力部203がさらに出力するコンテンツを決定する。コンテンツ選択部209は、例えば、判定部208による判定結果が、出力したコンテンツのうち、どのコンテンツに対するユーザの反応を表すものであるかを特定する。そして、コンテンツ選択部209は、前記コンテンツとそれに対するユーザの反応である前記判定結果を基に、さらに出力するコンテンツを決定する。
【0039】
ここで、コンテンツ選択部209により決定される、「さらに出力するコンテンツ」は、例えば、出力部203において出力中のコンテンツの後に出力するコンテンツとすることができる。すなわち、コンテンツ選択部209は、出力中のコンテンツに続いて、さらに出力すべきコンテンツを決定することができる。なお、出力中のコンテンツの次に出力するコンテンツのみならず、そのさらに後に出力すべきコンテンツを決定してもよい。また、コンテンツ選択部209は、続いて出力する複数のコンテンツと、その順番を決定してもよいし、コンテンツの属性(例えば、カテゴリー、種類、ジャンルまたはキーワード等)を、判定結果を基に決定し、決定した属性を持つコンテンツ群から出力すべきコンテンツをランダムに選択してもよい。
【0040】
また、コンテンツ選択部209は、現在出力中のコンテンツをさらに継続して出力するか、あるいは、現在出力中のコンテンツ出力は中断して、別のコンテンツを出力するかを決定することもできる。なお、端末101は、コンテンツ選択部209が決定したコンテンツを、順次出力してもよいし、コンテンツを出力しながら、さらに決定された他のコンテンツを並行して出力してもよい。
【0041】
このように、コンテンツ選択部209は、出力されたコンテンツに対する判定結果を、さらに出力するコンテンツに反映することができる。例えば、出力されたコンテンツに対するユーザの挙動の種類が、よくない評価(例えば、コンテンツに対する否定的な感情)を示す場合、そのコンテンツとは異なるコンテンツをさらに出力するコンテンツに決定することができる。一方、ユーザの挙動の種類がよい評価(例えば、コンテンツに対する肯定的な感情)を示す場合は、そのコンテンツあるいはそれに類似するコンテンツを、さらに出力するコンテンツに決定することができる。
【0042】
コンテンツ選択部209は、出力部203がコンテンツを出力している時に、前記センサにより検出された前記ユーザの挙動に基づく判定結果を、出力部203で出力されているコンテンツに対応する判定結果として認識(特定)し、当該判定結果に基づいて、出力部203がさらに出力するコンテンツを決定することができる。コンテンツ選択部209は、判定部208で判定されたユーザの挙動の種類を、出力中のコンテンツ情報と対応付ける。これによって、出力中のコンテンツに対する判定結果が明らかになる。
【0043】
コンテンツ選択部209は、例えば、コンテンツの出力タイミングと、センサ212によるユーザの挙動のタイミングまたは判定部208による判定のタイミングを監視し、コンテンツ出力中に同時に得られた判定結果を、その出力中のコンテンツに対応付けることができる。コンテンツ選択部209は、出力中のコンテンツを監視するため、例えば、端末101から現在出力中のコンテンツを示す情報を取得するようにしてもよいし、サーバ102が端末101に対して送信中のコンテンツを、現在出力中のコンテンツと判断してもよい。
【0044】
コンテンツ選択部209は、出力するコンテンツを決定する際に、判定部208による判定結果に基づいて、記憶部205に記憶された複数のコンテンツのうち一部を、さらに出力するコンテンツに決定することができる。例えば、記憶部205に、複数のコンテンツを、コンテンツのカテゴリー、種類、ジャンル等の属性を示す情報(属性情報)とともに記憶しておくことができる。この場合、コンテンツ選択部209は、判定結果から得られるユーザの感情に応じた属性のコンテンツを、記憶部205から抽出することで、出力するコンテンツを決定することができる。
【0045】
また、記憶部205は、コンテンツを複数のグループに分けて記憶しておき、コンテンツ選択部209は、判定結果に応じたグループを選択し、選択したグループに属するコンテンツ群から、出力すべきコンテンツを抽出することもできる。
【0046】
なお、記憶部205は、サーバ102に設けられてもよいが、サーバ102の外部、例えば、他のコンテンツサーバに設けられてもよい。
【0047】
或いは、サーバ102または外部の配信サーバにより複数のチャネルでコンテンツが端末101へ配信される構成において、コンテンツ選択部209は、判定結果に応じたチャネルを選択することで、出力するコンテンツを決定することもできる。 サーバ102の制御部206は、コンテンツ選択部209が決定したコンテンツを、記憶部205から読み出して、通信処理部207を介して端末101へ送信する。通信処理部207は、コンテンツ選択部209が決定したコンテンツを端末101へ送信する送信部として機能する。また、端末101の通信処理部204は、サーバ102からコンテンツを受信する受信部として機能する。このようにして、サーバ102は、出力したコンテンツに対するユーザの反応を取得し、ユーザの嗜好に合ったコンテンツを端末101へ送信することができる。これにより、コンテンツ提供システムでは、コンテンツに対するユーザの嗜好を、ユーザの直感的な行動から学習することを可能にするユーザインターフェースが実現される。
【0048】
[感情判定処理の例]
ここで、上記判定部208によるユーザ感情の判定処理例を説明する。図2は、ユーザ感情の判定処理の一例を示すフローチャートである。図2では、判定部208は、ユーザの挙動情報取得(T201)後に、その挙動情報が示す接触の強さを判定し(T202)、触った距離を示す操作距離を判定する(T203)。判定部208は、これらの強さ判定(T202)や、操作距離判定(T203)の結果によって、ユーザの接触(ユーザの行動)が、「叩く」、「なでる」、「操作なし」のどの種類に合致するかを判別する(T204)(このT204の処理の具体例は後述する。)。また、判定部208は、その種類に基づいてユーザの感情を判定する。例えば、接触の種類が「叩く」と判定された場合、判定部208は、ユーザ感情は「嫌い」と判定し(T205)、接触の種類が「なでる」と判定されれば、ユーザ感情は「好き」と判定し(T206)、接触の種類が「操作なし」と判定されれば、ユーザ感情は「無関心」と判定する(T207)。このように、ユーザの挙動情報の内容からユーザの感情を判定することによって、端末101で出力されたコンテンツに対してユーザがどのような感情を持っているかを示す情報が得られる。
【0049】
なお、「叩く」、「なでる」、「操作なし」等の挙動の種類と、「好き」、「嫌い」、「無関心」等のユーザの感情とを対応付けるデータを感情判定の基準データとして予め記憶部205に記録しておくことができる。判定部208は、予め記録された基準データを用いて感情を判定することができる。また、挙動情報と感情とを対応付けるデータを基準データとすることもできる。
【0050】
[ユーザ動作の種類判定の具体例]
図3は、ユーザによる接触の種類を判定するために用いられる判定基準データの一例を示す図である。判定部208は、図3に示す判定基準データを用いて、ユーザによる接触の強さと接触した状態で移動した距離(操作距離)の組み合わせによってユーザ接触の種類を判定することができる。これにより、ユーザの行動(挙動)が何であったかを導き出すことができる。
【0051】
例えば、ユーザの操作の強さtが、所定の閾値T1より大きい(T1<t)ために「強い」と判定され、かつ操作距離sが所定の閾値S2より小さい(s<S2)ために「短い」と判定されたときは、ユーザが端末101のセンサ212を叩いた可能性が高いため、判定部208は、ユーザの接触の種類を「叩く」と判定できる。
【0052】
また、ユーザ操作の強さtが、所定の区間内(T1<t<T2)である「中間」、またはtが閾値T2より小さく(t<T2)「弱い」と判定され、かつ操作距離sが閾値S1より大きく(s>S1)「長い」と判定された場合、ユーザが端末101のセンサ212をなでている可能性が高いため、判定部208は、ユーザによる接触の種類を「なでる」と判定できる。
【0053】
また、ユーザによる接触の強さtが閾値T2より小さく(t<T2)「弱い」と判定され、かつ、操作距離sが閾値S2より小さく(s<S2)「短い」と判定された場合には、ユーザは、端末101のセンサ212をほとんど触っていない可能性が高いため、判定部208は、「操作なし」と判定する。なお、コンテンツ配信後に一定時間、ユーザの操作が検知されない場合に「操作なし」と判定してもよい。
【0054】
なお、ユーザ操作の強さや操作距離の判定基準は、図3に示すような3段階ではなく、より多くの段階に分けてもよい。また、ユーザ操作の強さや操作距離の組み合わせの判定基準は、実際のユーザ操作により近くなるように、ユーザ自身の操作によってカスタマイズすることが可能であってもよい。
【0055】
[コンテンツ提供システムの動作例]
次に、コンテンツ提供システムの動作例を説明する。図4は、コンテンツ提供システムの動作例を示すシーケンス図である。図4において、図1と同じ構成要素については同じ記号を用いるものとする。
【0056】
ステップS01では、サーバ102が端末101へコンテンツを配信する。ユーザ103がこれまでに操作を行なっていない場合には、最初に配信されるコンテンツはランダムに選択される。
【0057】
ステップS02では、端末101において、サーバ102から配信されてきたコンテンツを、出力部203がディスプレイ211に表示させる。
【0058】
ステップS03では、ユーザ103は、表示されたコンテンツを見て何らかのアクションをする。アクションは、センサ212で検出される。アクションは、例えば、ユーザ103の動作及び状態の少なくとも一方として検出することができる。なお、ユーザ103がコンテンツに無関心であれば、ユーザ103は何も操作しない場合もある。
【0059】
ステップS04では、端末101では、挙動情報取得部201が、センサ212が検出したユーザ103のアクション(挙動)を示すユーザ103の挙動情報を取得する。制御部202は、通信処理部204に、挙動情報をサーバ102へ送信させる。
【0060】
ステップS05では、サーバ102の判定部208が、受信したユーザ103の挙動情報からユーザ行動を判定する。なお、判定部208は、上述のように、本ステップでユーザ感情を判定してもよい。
【0061】
ステップS06では、コンテンツ選択部209が、S05で判定されたユーザ行動に基づいて、コンテンツを選定する。例えば、ユーザ行動(感情)がなでる(好き)の場合には、その時に配信しているコンテンツをそのまま選定し続ける。ユーザ行動(感情)が叩く(嫌い)の場合には、その時に配信しているコンテンツを停止し、別のコンテンツを選定する。
【0062】
このように、ステップS06では、コンテンツ選択部209は、端末101から受信したユーザ103の挙動情報はステップS01で配信したコンテンツに対応するものであると認識した上で、以降に配信するコンテンツを決定している。受信した挙動情報がどのコンテンツに対するユーザ103の挙動であるかは、例えば、受信タイミングと、コンテンツ配信タイミングに基づいて特定することができる。例えば、コンテンツ配信中またはコンテンツ配信後一定期間内に受信した挙動情報は、その配信したコンテンツに対する挙動を示すものと判断することができる。また、サーバ102は、ステップS04で、ユーザの挙動情報とともに、対応するコンテンツを特定する情報も、端末101から受信してもよい。
【0063】
ステップS07では、サーバ102が、端末101へ、ステップS06で選択されているコンテンツを配信する。
【0064】
ステップS08では、端末101で、出力部203が、コンテンツを出力装置211に表示させる。このコンテンツに対するユーザの新たな挙動が検出される場合には、ステップS03〜S08が繰り返される。
【0065】
以上、本実施形態によれば、配信されるコンテンツに対してユーザの挙動がフィードバックされ、ユーザの好みに合ったコンテンツを提供するコンテンツ提供システムを実現することが可能になる。
【0066】
また、本実施形態では、ユーザのセンサ212に対する接触を示す情報を挙動情報として取得することで、ユーザのコンテンツに対する反応を、センサ212への接触動作という直感的な動作により、判定することができる。例えば、上記コンテンツ提供システムによれば、ユーザの「叩く」、「なでる」といった直感的行動をセンサ212によって取得し、コンテンツ情報を組み合わせることでユーザ嗜好を把握することができる。
【0067】
なお、図1では、端末101とサーバ102は一台ずつ設けられているが、これは一例であり、台数はこれに限られない。例えば、サーバ102は、複数の端末にコンテンツを送信する形態とすることができる。このことは、以降に示す変形例及び実施形態でも同様である。
【0068】
以下に、コンテンツ提供システムのシステム構成の変形例1〜3について、それぞれ図5〜図7を用いて説明する。図5〜図7において、図1と同じ機能ブロックには同じ番号を付している。また、下記システム構成の変形例1〜3は、実施形態1のみならず、以降の実施形態全てに適用可能である。また、システム構成の変形例は、下記のものに限られない。
【0069】
[システム構成の変形例1]
図5は、端末101が、コンテンツ提供システムの機能を備える場合の構成例である。端末101は、センサ212、出力装置211に接続され、挙動情報取得部201、制御部202(判定部208、コンテンツ選択部209を含む)、出力部203、記憶部205を備える。記憶部205には、複数のコンテンツが蓄積される。すなわち、端末101は、記憶部205からコンテンツを選択して再生し、再生中にユーザの挙動が検出されると、その挙動情報を基にユーザの挙動の種類または感情を判定し、判定結果を基に、次に再生するべきコンテンツを決定する。決定した次のコンテンツは、記憶部205から読み出され、出力部203により出力される。
【0070】
本変形例1の端末101は、例えば、映像または音楽再生装置等に適用することができる。この場合、ユーザは、端末101がコンテンツを再生している時に、端末101に対して、例えば、叩いたり、なでたり、怒鳴りつけたり、褒めたりすることにより、記憶部205に記憶されたコンテンツの中から、そのときの気分にあったコンテンツを選んで再生させることができる。
【0071】
さらなる変形例として、例えば、コンテンツを記憶し、提供する部分を端末101の外部に設けることもできる。例えば、図5に示す記憶部205にコンテンツを記憶する替わりに、端末101がアクセス可能なコンピュータの記憶部205にコンテンツを記憶しておき、当該コンピュータは、端末101からの要求に応じてコンテンツを端末101へ提供するよう構成することもできる。
【0072】
[システム構成の変形例2]
図6は、コンテンツを出力する端末と、ユーザの挙動を検出する端末とが、それぞれ別個に設けられる場合の構成例である。図6に示す例では、コンテンツ提供システムは、サーバ102、出力端末101b及びセンサ端末101aを含む。出力端末101bは、出力装置211に接続され、サーバ102と通信するための通信処理部204b、制御部202a及びコンテンツを出力する出力部203を備える。センサ端末101aは、センサ212に接続され、挙動情報取得部201、制御部202a、通信処理部204bを備える。サーバ102は、コンテンツを記憶する記憶部205、判定部208、コンテンツ選択部209、通信処理部207を備える。
【0073】
サーバ102は、記憶部205に記録されたコンテンツの中からコンテンツを選択して、出力端末101bへ配信する。出力端末101bは、受信したコンテンツを出力する。センサ端末101aは、ユーザの挙動を検出し、サーバ102へ送信する。サーバ102は、ユーザの挙動から、挙動の種類またはユーザの感情を判定し、判定結果に基づいて、さらに配信するコンテンツを決定する。
【0074】
このように、出力端末101bとセンサ端末101aとを分けて構成することにより、例えば、ユーザの挙動を検出するのに特化した、ユーザにとって挙動を伝えやすい端末を提供することができる。例えば、センサ端末101aは、頭部と胴体部を有するぬいぐるみの形状とすることができ、頭の部分にユーザによる接触を検出する圧力センサを備えた構成にすることができる。また、センサ端末101aとサーバ102との通信を無線通信とすることができる。これにより、例えば、ユーザは、手元にぬいぐるみを抱きながら、出力端末101bにより出力装置211で表示されるコンテンツを見て、ぬいぐるみを、叩く、なでる、怒鳴りつける、褒める等の動作をし、出力端末101bで表示されるコンテンツを自分の好みに合ったものにすることができる。
【0075】
[システム構成の変形例3]
図7は、コンテンツを提供するコンテンツサーバが、別途、独立して設けられる場合の構成例を示す図である。図7に示す例では、サーバ102及び端末101は、コンテンツサーバ216−1,2と通信可能となっている。コンテンツサーバ216−1,2は、通信処理部213−1,2、制御部214−1,2及びコンテンツ記憶部215−1,2を備える。サーバ102は、コンテンツ選択部209が決定したコンテンツを、コンテンツサーバ216−1またはコンテンツサーバ216−2へ要求する。コンテンツサーバ216−1,2は、サーバ102から、コンテンツの要求を受けて、要求されたコンテンツを、コンテンツ記憶部215から読み出し、通信処理部213を介して、端末101へ配信する。
【0076】
なお、サーバ102からコンテンツの要求を受けて端末101へコンテンツを送信するコンテンツサーバの数は、図7に示すように2台に限られず、1台でもよいし、3台以上でもよい。図7に示すように、コンテンツサーバを複数設けることによって、サーバ102は複数のコンテンツサーバから、ユーザの挙動に応じたコンテンツサーバを選択することが可能になる。例えば、端末101がコンテンツサーバ216−1から受信したコンテンツを出力しているときに検出したユーザの挙動が、肯定的な評価(感情)を示すものであれば、サーバ101は、次のコンテンツも、続けてコンテンツサーバ216−1に要求することができる。逆に、ユーザの挙動が否定的な評価(感情)を示す場合は、コンテンツサーバ216−1以外のコンテンツサーバ216−2に、次に出力するコンテンツを要求することができる。このように、コンテンツ選択部209は、挙動情報の種類に応じて、コンテンツの要求先(コンテンツの提供手段、ここでは一例としてコンテンツサーバ)を決定して、コンテンツを要求し、要求を受けたコンテンツの提供手段がコンテンツを端末101へ送信する構成とすることができる。さらに、コンテンツ選択部209は、コンテンツの要求先とともに、要求するコンテンツを指定する情報(コンテンツの種類、ジャンル等)をさらに決定し、コンテンツ提供手段へ要求してもよい。
【0077】
一例として、コンテンツ選択部209は、コンテンツの要求先として、動画ファイルの共有サービスを提供するA社のコンテンツサーバを選択していたが、検出されたユーザの挙動の種類が、A社のコンテンツサーバから配信されるコンテンツに興味を持っていないことを示すものと判定されたので、VoD(ビデオオンデマンド)を提供するB社のコンテンツサーバに要求先を切り替える、といった動作が可能になる。
【0078】
以下に、センサの変形例1〜4について、それぞれ図8A〜図8Dを用いて説明する。下記センサの変形例1〜4は、実施形態1のみならず、以降の実施形態全てに適用可能である。また、センサの変形例は、下記変形例1〜4に限られない。
【0079】
[センサの変形例1]
図8Aに示すセンサは、センサ212が、圧力センサ212aを含む場合のセンサ及び挙動情報取得部201の構成例を示す図である。図8Aに示す例では、圧力センサ212aは、ユーザの圧力センサ212aに対する接触の圧力を検出する。挙動情報取得部201は、ユーザの接触の強さ及び接触量の少なくとも一方を示す値を挙動情報として取得する。接触の強さは、例えば、圧力センサ212aで検出された圧力の大きさによって得ることができる。接触量は、例えば、圧力センサ212aで検出された接触時間または、接触距離により得ることができる。接触時間は、例えば、圧力の継続時間や時間変化を検出することにより得られる。接触距離は、例えば、複数の圧力センサ212aを、複数の異なる位置に設け、各位置における圧力を検出することにより得ることができる。すなわち、複数の位置における圧力変化を検出することによって接触距離に関する情報を得ることができる。例えば、所定の時間内に複数の位置において連続して検出された圧力は、一連のユーザによる接触操作として認識することができる。この一連の接触操作における軌跡の長さを、操作距離として取得することができる。
【0080】
なお、圧力センサ212aにより、接触の強さ及び接触量の2種類以上の値を検出することで、ユーザの挙動の種類をより詳しく判定することができる。例えば、圧力センサ212aで得られた、2種類以上の値の組み合わせが、予め記録されたパターンのいずれに該当するか判定することで、ユーザの直感的な挙動を判定することが可能になる。具体例としては、判定部208は、図3に示した例のように、予め設定された、接触の強さ及び操作距離の組み合わせパターンのいずれに該当するかにより、ユーザの挙動の種類または感情を判定することができる。
【0081】
[センサの変形例2]
図8Bに示すセンサは、センサ212が、圧力センサ212a及び赤外線センサ212bを含む場合のセンサ及び挙動情報取得部201の構成例を示す図である。図8Bに示す例では、赤外線センサ212bは、例えば、ユーザの3次元空間における動きを検出する。挙動情報取得部201は、圧力情報取得部201a及び位置情報取得部201bを備える。圧力情報取得部201aは、ユーザの接触の強さ及び接触量の少なくとも一方を挙動情報として取得する。位置情報取得部201bは、ユーザの位置を示す情報を挙動情報として取得する。例えば、位置情報取得部201bは、圧力センサ212aへの接触前のユーザ動作の向きや速度等を示す値を挙動情報として取得することができる。
【0082】
これにより、判定部208は、ユーザの圧力センサ212aへの接触の強さと接触量に加えて、赤外線センサ212bで検出される、接触前のユーザ動作の向きや速度等を、さらに用いて、ユーザ動作の種類(ユーザ行動)を判定することができる。このように、圧力センサ、赤外線センサなどの外部センサによってユーザ操作の強弱を取得することができる。その結果、ユーザの直感的行動を取得することが可能になる。
【0083】
[センサの変形例3]
図8Cに示すセンサは、センサ212が、圧力センサ212a、赤外線センサ212b、カメラ212c、マイク212dを含む場合のセンサ及び挙動情報取得部201の構成例を示す図である。図8Cに示す例では、カメラ212cは、ユーザの静止画または動画を撮影する。マイク212dは、ユーザの音声を録音する。挙動情報取得部201は、圧力情報取得部201a、位置情報取得部201b、画像認識部201c及び音声認識部201dを備える。
【0084】
画像認識部201cは、カメラ212cが撮影した画像中に、ユーザを検出し、ユーザの画像または、画像中のユーザの状態及び動作の少なくとも一方を挙動情報として取得することができる。例えば、ユーザの画像そのものを挙動情報としてもよいし、画像に基づいて判定されるユーザの表情(例えば、笑顔、怒り顔等)や、動きを挙動情報としてもよい。
【0085】
音声認識部201dは、マイク212dで録音された音声を認識する。音声認識結果そのものをユーザの挙動情報とすることもできるし、認識した音声中に特定の内容が含まれているか否かを挙動情報とすることもできる。なお、画像認識結果や音声認識結果に基づく判定処理は、端末101の挙動情報取得部201で実行してもよいし、サーバ102の判定部208で実行してもよい。
【0086】
図9は、ユーザの接触情報(接触の強さと接触量)に加えて、ユーザの音声認識及び画像認識に基づいて、ユーザの感情を判定する場合の判定基準データの一例を示す図である。図9に示す例では、ユーザの接触の強さ及び操作距離、音声認識及び画像認識結果の組み合わせのパターンと、各パターンにおけるユーザの感情を示す値とが記録されている。
【0087】
図9のデータに基づいて判定部208が判定する際、例えば、ユーザの接触が「強い」場合であって、音声認識の結果、否定的な語句が検出された場合、好度(好きという感情の度合い)のスコア(値)を−60と判定することができる。
【0088】
なお、上記否定語句は、例えば、「いや」「きらい」「うるさい」「だめ」「やめて」等、不快感、嫌悪、拒絶意思等を表現する語句とすることができる。上記肯定語句は、例えば、「いいね」「すき」「もっと」「さいこう」等、快感、好感、肯定意思等を表現する語句とすることできる。
【0089】
さらに、画像認識の結果、怒り顔が検出された場合は、好度の値はさらに−60と判定することができる。判定部208は、好度の合計値により、ユーザの感情を判定することができる。このように、判定部208は、図9の判定基準データを参照することにより、検出した操作距離、音声認識及び画像認識結果の組み合わせを好度のスコアに変換することができる。例えば、好度のスコア=0を基準として、判定基準データを用いて決定された好度の値を加算することができる。この場合、検出された挙動情報が肯定的な感情を示す場合は、好度の値はプラスとなり、スコアに値が加算され、否定的な感情を示す場合は好度の値はマイナスとなり、スコアから値が減算されることになる。上記処理のように、ユーザの接触情報に加えて、音声認識及び画像認識の結果を用いることで、より的確にユーザの感情を判定することが可能になる。
【0090】
[センサの変形例4]
図8Dに示すセンサは、センサ212が、タッチパネル212eを含む場合のセンサ及び挙動情報取得部201の構成例を示す図である。タッチパネル212eは、例えば、表示パネルを備え、表示パネルは、ユーザによる画面上の指示位置を検出するセンサを含む構成とすることができる。また、タッチパネル212eが、コンテンツの出力装置211を兼ねてもよい。
【0091】
挙動情報取得部201は、ユーザによる画面上の指示動作を挙動情報とすることができる。例えば、ユーザの指示位置、指示位置の軌跡、指示位置の移動速さ等を挙動情報とすることができるし、あるいは、これらから判定されるジェスチャを挙動情報とすることもできる。
【0092】
上記のような、センサ212としてタッチパネル212eを用い、出力装置211としてディスプレイを備える端末101の具体例としては、携帯電話、PDA(携帯情報端末)、電子書籍再生端末(電子ブックリーダ)、多機能携帯電話、電子辞書、携帯ゲーム機、多機能リモコン等のタブレット型の端末が挙げられる。このような端末101では、タッチパネル212eでユーザの挙動情報を取得することができる。また、挙動情報から判定される挙動の種類に基づいて決定されたコンテンツをディスプレイに表示することができる。
【0093】
例えば、多機能携帯電話の一例であるスマートフォンで端末101を構成することができる。この場合、スマートフォンのタッチパネル(センサ)でユーザの挙動を検出し、挙動の種類により、ディスプレイ、及び、スピーカまたはイヤホン等の音声出力装置で出力するコンテンツ(例えば、動画、音楽、仮想ペット、ゲーム等)を決定することができる。
【0094】
端末101としてのスマートフォンは、例えば、図1に示したように、データ通信可能なサーバ102に挙動情報を送信する通信処理部204を備え、サーバ102から、挙動の種類の判定結果に基づいて決定されたコンテンツを受信する構成であってもよい。あるいは、図5に示したように、スマートフォンが、判定部208、コンテンツ選択部209、記憶部205を備える構成であってもよい。さらに、図7に示したように、挙動の種類を判定してコンテンツを決定するサーバ102とは別のコンテンツサーバ216からコンテンツを受信する構成であってもよい。
【0095】
以上、センサ212の変形例1〜4を説明したが、センサ212の変形例は上記に限られない。例えば、センサ212は、ユーザの血圧、脈拍、体温等の生体情報を検出するセンサを含んでもよい。このような生体情報を検出するセンサは、例えば、専用の椅子等に仕込んでおくことができる。
【0096】
(実施の形態2)
実施の形態2では、サーバ102に配信したコンテンツ履歴とユーザ感情を保持できる場合の形態を示す。それ以外の構成や機能は上記実施の形態1と同様とすることができる。実施の形態2では、例えば、図1に示す構成において、サーバ102の記憶部205が、評価データを記録する。評価データは、出力したコンテンツの履歴を示すコンテンツ履歴データと、当該履歴データの各コンテンツに対応するユーザの挙動の種類または感情(判定部208の判定結果)を示すデータを含む。コンテンツ選択部209は、記憶部205に記録された評価データに基づいて、次に配信するべきコンテンツを決定する。この構成により、サーバ102において、コンテンツ出力の履歴と、各コンテンツに対するユーザの挙動の判定結果に基づいて、端末101の出力部がさらに出力するコンテンツを決定することが可能になる。
【0097】
図10は、記憶部205に記録される評価データの一例を示す図である。図10に示す例では、サーバ102が端末101へ配信したコンテンツ履歴と、端末101からの挙動情報を基に判定したユーザ感情の履歴とが対応付けられて記録されている。具体的には、コンテンツ名、コンテンツの配信日時、コンテンツの配信カテゴリー及びコンテンツを配信したときのユーザの感情が、対応付けられて1つのレコードとして記録されている。コンテンツの配信カテゴリーは、例えば、「スポーツ」や「音楽」、「ドラマ」といったコンテンツの種類や、「コメディ」や「アクション」や「ホラー」といったコンテンツのジャンルによって分類されている。
【0098】
図10に示す例において、「コンテンツA」は「カテゴリーA」に属し、配信時のユーザ感情は「嫌い」ある。「コンテンツB」は「カテゴリーB」に属し、ユーザ感情は「好き」である。「コンテンツC」は「カテゴリーC」に属し、ユーザ感情は「無関心」である。「コンテンツD」は「カテゴリーD」に属し、ユーザ感情は「嫌い」である。このとき、サーバ102は、ユーザ感情が「好き」となる「カテゴリーB」を優先してコンテンツを配信することで、ユーザにとって嗜好に合ったコンテンツを提供することが可能になる。例えば、コンテンツ選択部209は、記憶部205に記憶されたカテゴリーA〜Dのコンテンツのうち、カテゴリーBのコンテンツを選択して読み出し、端末101へ送信することができる。あるいは、コンテンツ選択部209は、複数のチャンネルでコンテンツがサーバ102から送信される場合に、特定のカテゴリーBのコンテンツを流すチャンネルを選択し、このチャンネルのコンテンツを端末101へ送信することができる。
【0099】
図11は、コンテンツ選択部209がチャンネルを選択する処理の例を説明するための図である。図11に示す例では、チャンネル(ch1)でカテゴリーAのコンテンツが流れており、同じ時間にチャンネル(ch2)でカテゴリーBのコンテンツ、チャンネル(ch3)でカテゴリーCのコンテンツが流れている。このとき、ユーザ感情によってカテゴリーBが優先されるため、コンテンツ選択部209ではカテゴリーBが流れるチャンネル(ch2)を選択して、端末101へと配信する。
【0100】
また、コンテンツ選択部209は、配信するコンテンツにおける各カテゴリーの出現確率を、評価データに基づいて、制御することもできる。例えば、評価データが示す判定結果の履歴において、よい評価を示す判定結果が多いカテゴリーのコンテンツの出現確率を高くするように制御することができる。具体的には、コンテンツ選択部209は、評価データ中の判定結果(ユーザ感情)に基づいて、コンテンツのカテゴリーごとに出現確率を設定し記録しておくことができる。図12は、コンテンツ選択部209が、評価データに基づいて設定した出現確率の一例である。図12に示す例では、カテゴリーと出現確率が対応付けられて記録される。
【0101】
本実施形態によれば、ユーザの直感的行動履歴に基づいて、出力されるコンテンツが制御される。そのため、出力するコンテンツを、ユーザの嗜好に合うように制御することが可能になる。 なお、評価データの内容は、上記の図10に示す例に限られない。例えば、コンテンツの配信カテゴリーの替わりに、コンテンツの種類、ジャンル、関連するキーワード、タグ等、その他のコンテンツの属性を表す属性情報を、コンテンツ毎に記録してもよい。これにより、例えば、コンテンツ選択部209は、評価データにおいて、肯定的な感情を示す判定結果の頻度が高い属性を特定し、その属性を持つコンテンツを優先して、出力コンテンツに決定することが可能になる。
【0102】
また、評価結果を示す情報は、図10に示すようにユーザ感情に限られず、例えば、ユーザの挙動情報を種類、好度のスコア等、その他、コンテンツに対するユーザの評価を示す情報であってもよい。
【0103】
また、コンテンツ選択部209は、上記のようにチャネルを選択する替わりに、複数のコンテンツが記憶された記憶部から、評価のよいカテゴリーのコンテンツを選択して、端末101へ送信することもできる。
【0104】
(実施の形態3)
図13は、実施の形態3におけるコンテンツ提供システムの構成例を示す機能ブロック図である。図13において、図1と同じ機能ブロックには同じ番号を付している。図13は、図1に示すコンテンツ提供システムに、性格管理部220をさらに設けた構成である。ここでは、一例として、サーバ102が、性格管理部220を備える場合について説明する。性格管理部220は、端末101に設けることもできる。
【0105】
性格管理部220は、判定部208による判定結果の履歴に基づいて、端末101の性格を決定する。サーバ102は、性格管理部220によって決定された性格によって、端末101の動作を制御する。例えば、端末101は、端末101の外観変更または動作等を行うアクチュエータ219を備える。サーバ102は、端末101へ性格管理部220で決定された性格を示す性格情報を送信する。端末101の制御部202は、性格情報を基に端末101の動作を制御する。あるいは、サーバ102は、端末101に送信するコンテンツを制御することによって、端末101でのコンテンツ出力を制御することができる。
【0106】
図14は、端末の性格形成を決定する処理例を示すフローチャートである。図14に示す例では、サーバ102でのユーザの挙動情報取得すなわち、ユーザの行動取得(T601)後に、判定部208は、ユーザがどのような行動を取ったか(ユーザの挙動の種類)を判定する(T602)。次に、性格管理部220は、T602で判定された挙動の種類の頻度が所定基準より高いかどうかを判定する(T603、T604)。例えば、判定部208により判定されたユーザの挙動の種類の履歴を記憶部205に蓄積することが好ましい。これにより、性格管理部220は、記憶部205に蓄積されたユーザの挙動の種類の履歴を参照して、頻度を判定することができる。
【0107】
頻度が高いと判定された場合には、端末101の性格として、当該挙動の種類の高頻度に対応する性格を選定する(T605、T607)。例えば、T602でユーザの行動が「叩く」と判定された場合、過去所定期間における「叩く」の頻度が所定基準より高いか否か判断する(T603)。性格管理部220は、「叩く」の頻度が高いときは、端末101の性格として「ぐれる」を(T605)、また、「叩く」の頻度が低いときには、「すなお」を選定する(T606)。ユーザ行動が「なでる」である場合には、端末101の性格として「すなお」を選定する(T606)。ユーザ行動が「操作なし」である場合で、その頻度が高いときには、端末101の性格として「いじける」を選定する(T607)。また、「操作なし」の頻度が低いときには、端末101の性格は変わらないものとし、直前に設定されている性格を続けるものとする。
【0108】
このように設定した性格情報は、サーバ102から端末101に設定される。端末101の制御部202は、性格情報によって、端末101の動作を変えるようにする。例えば、性格が「ぐれる」の場合には、敢えてユーザ嗜好に合わないコンテンツを流すよう出力部203に指示することができる。また、性格が「いじける」の場合には、コンテンツが配信されてきても表示しないよう出力部203を制御することができる。上記処理により、ユーザの直感的行動の履歴によって端末101の「性格」を形成し、「性格」に応じて端末101の動作やコンテンツ推奨頻度を変動させることができる。なお、上記例では、「ぐれる」は反抗的な性格の一例であり、「いじける」は怠惰な性格の一例となっている。これらの性格は一例であり、性格管理部220で設定可能な性格はこれらに限られない。
【0109】
なお、設定された性格情報と、端末101の色や動作が紐付けられてもよい。例えば、性格情報に応じて、端末101の外観を変更する動作をアクチュエータ219に実行させることができる。
【0110】
図15A、図15B及び図15Cは、アクチュエータによって変更される端末101の外観の一例を示す図である。図15A、図15B及び図15Cに示す例では、端末101は、出力装置211としてディスプレイと、猫の頭部の形をしたセンサ212を備える。ディスプレイにはコンテンツが表示される。センサ212は、例えば、ユーザによる猫の頭部への接触を検出する圧力センサとすることができる。また、猫の頭部にはアクチュエータ219により形状が変更される目217及び口218が設けられている。
【0111】
本例では、性格によって、猫の頭部に設けられた目217及び口218の形状が変更される。例えば、目217及び口218の形状は、性格が「すなお」な場合には図15A、性格が「ぐれる」場合には図15B、性格が「いじける」場合には図15Cに示す形状に、それぞれ変化させることができる。また、設定された性格情報に端末101の色が紐付けられてもよい。例えば、「すなお」な場合には端末101は黄色に変わり、「ぐれる」場合には赤色、「いじける」場合には青色に変わるとしてもよい。一例として、図15A〜Cに示す猫の鼻に、発光色を黄、赤または青に切り替えることができるLEDを設けることができる。この場合、出力部203は、性格管理部220で設定された性格に応じて、色を切り替えてLEDを発光させることができる。
【0112】
このように、端末101は、キャラクターを模したユーザにとって愛着の沸く外装を施すことができる。本実施形態によれば、ユーザ嗜好に合ったコンテンツを表示できると共に、玩具用として愛着を持つことができる端末を含むコンテンツ提供システムを実現できる。また、ユーザ操作履歴の統計を用いて、端末101の動作を「性格」として処理することにより、端末101の動作に複雑性を持たせつつ、ユーザの直感に合った動作を提供することが可能になる。すなわち、ユーザの直感的行動履歴によって、「性格」を形成し、「性格」に応じて動作やコンテンツ推奨頻度を変動させることができる。また、ユーザの直感的行動によって端末101の「性格」が変わっていくため、ユーザに、端末101を育てているという意識を持たせることができる。
【0113】
以上、本発明の実施形態の例を、実施形態1〜3として説明したが、本発明は上記実施形態1〜3に限られない。例えば、上記実施形態においては、コンテンツが映像である場合について説明したが、コンテンツは映像に限られず、その他、人間が閲覧、観賞または体験することができるものが含まれる。例えば、文章、静止画像、動画像、音楽、ゲーム、あるいはそれらの組み合わせがコンテンツに含まれる。また、コンテンツは、デジタルまたはアナログのデータとして、記憶装置に記憶され、伝送路を通じて伝送することができる。コンテンツのデータは、例えば、装置により再生、表示または実行されることにより、人間が、閲覧、観賞または体験できる状態になる。
【産業上の利用可能性】
【0114】
本発明は、例えば、コンテンツを配信する番組提供サービスや動画提供サービスを提供する場合に、簡単にユーザの嗜好を反映できるコンピュータシステムとして有用である。また、ユーザが育てる楽しさを持つことの出来るペット代わりの玩具ロボットとしても応用することができる。
【符号の説明】
【0115】
101 端末
102 サーバ装置
103 ユーザ
203 出力部
205 記憶部
208 判定部
209 コンテンツ選択部
211 出力部
212 センサ
220 性格管理部
【技術分野】
【0001】
本発明は、ユーザ嗜好に合ったコンテンツを提供する、コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラムに関する。
【背景技術】
【0002】
近年、ペット型ロボットが各メーカーから販売されており、一般の家庭内で見かける機会も多くなってきている。その中でも、人からの呼びかけに対して反応することで、人とコミュニケーションを取りつつ、コンテンツなどの情報を提供するロボットが現れてきている。
【0003】
ロボットが人とコミュニケーションを取りつつコンテンツを提供するものとして、ロボットの感情に適合するコンテンツを選択し、再生するものが提案されている(例えば、特許文献1参照)。前記特許文献1に記載されたコンテンツ再生システムでは、外部からの働きかけに応じて感情を変更して自律的に動作するロボット装置が、コンテンツ再生装置に感情情報を送信する。コンテンツ再生装置は、コンテンツに関する情報を記載したメタデータとロボット装置の感情情報とを比較し、ロボット装置の感情に適合するコンテンツを選択して再生することでロボット装置の感情を表現している。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2005−169567
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、前記従来の構成では、ロボット装置の感情に沿ったコンテンツを表示するのみであり、コンテンツに対してユーザが評価したり、コンテンツ再生時に行なったユーザの操作を、再生するコンテンツに反映したりすることができない。
【0006】
そこで、本発明は、コンテンツに対するユーザの反応を容易に取得でき、ユーザ嗜好に合ったコンテンツを提供することを目的とする。
【課題を解決するための手段】
【0007】
本願開示のコンテンツ提供システムは、コンテンツを出力する出力部と、ユーザの挙動を検出するセンサから得られる情報に基づいて、前記ユーザの挙動の種類を判定する判定部と、前記出力部で出力されたコンテンツに対応する前記判定部による判定結果に基づいて、前記出力部がさらに出力するコンテンツを決定する、コンテンツ選択部とを備える。
【0008】
上記構成によれば、センサで検出されたユーザの挙動から、ユーザの挙動の種類が判定され、出力されたコンテンツに対応する判定結果に基づいて、さらに出力するコンテンツが決定される。そのため、センサで検出されたユーザの挙動から、出力コンテンツに対するユーザの反応を判定し、その判定結果をさらに出力するコンテンツの決定に用いることができる。すなわち、ユーザによるコンテンツの評価が得られ、この評価に基づいて、さらに出力されるコンテンツが決定されるので、ユーザの好みに合ったコンテンツを提供することが可能になる。
【0009】
上記コンテンツ提供システムにおいて、前記判定部は、前記センサで検出された前記ユーザの挙動が、予め決められた複数の挙動の種類のいずれに該当するかを判定することができる。これにより、ユーザの挙動の種類を、迅速かつ適切に判定することができる。
【0010】
また、上記コンテンツ提供システムにおいて、前記判定部は、前記ユーザの挙動の種類により、前記ユーザの感情を判定し、前記コンテンツ選択部は、前記出力部で出力されたコンテンツに対応する、前記判定部で判定されたユーザの感情に基づいて、前記出力部がさらに出力するコンテンツを決定してもよい。
【0011】
これにより、ユーザの挙動から、ユーザの感情を読み取ることができ、出力されたコンテンツに対するユーザ感情に応じて、さらなるコンテンツを出力することが可能になる。そのため、ユーザの感情をコンテンツ選定に反映することができる。
【0012】
上記コンテンツ提供システムにおいて、前記コンテンツ選択部は、前記出力部がコンテンツを出力している時に、前記センサにより検出された前記ユーザの挙動に基づく判定結果を、前記出力部で出力されているコンテンツに対応する判定結果として、当該判定結果に基づいて、前記出力部がさらに出力するコンテンツを決定してもよい。
【0013】
これにより、コンテンツ出力時のユーザの挙動から判定された結果を、自動的に、コンテンツに対応付けることができる。
【0014】
上記コンテンツ提供システムにおいて、前記出力部が出力したコンテンツの履歴を示すコンテンツ履歴データ及び、当該履歴データの各コンテンツに対応する判定結果を示すデータを、評価データとして記録する記憶部をさらに備え、前記コンテンツ選択部は、前記記憶部に記録された前記評価データに基づいて、前記出力部がさらに出力するコンテンツを決定する態様とすることができる。
【0015】
本構成によって、出力したコンテンツの履歴と、ユーザの挙動から判定される各コンテンツに対するユーザの挙動の判定結果と各コンテンツとを対応付ける評価データを蓄積することができる。コンテンツ選択部は、蓄積された評価データを基に、ユーザがどのようなコンテンツを好むかを判定することができる。そのため、例えば、複数のコンテンツの中から、ユーザが好むコンテンツを選択して出力したり、ユーザが好むコンテンツを優先して出力したりすることが可能になる。
【0016】
上記コンテンツ提供システムにおいて、前記センサは、ユーザの接触を検出するセンサを含み、前記判定部は、前記センサで検出されたユーザの接触の強さ及び量の少なくともいずれか1つに基づいて、前記ユーザの挙動の種類を判定する態様とすることができる。
【0017】
これにより、ユーザのセンサへの接触を検出することによって、出力したコンテンツに対するユーザの反応を判定し、判定結果に基づいてさらなるコンテンツを決定することができる。そのため、ユーザの直感的な操作をコンテンツ選定に反映することができる。すなわち、ユーザの直感的操作を判定し、コンテンツと組み合わせることで、そのユーザの反応に応じてコンテンツを表示することが可能になる。
【0018】
前記コンテンツ提供システムは、複数のコンテンツを記憶する記憶部をさらに備え、前記コンテンツ選択部は、前記判定部による判定結果に基づいて、前記記憶部に記憶された複数のコンテンツのうち一部を、さらに出力するコンテンツに決定することができる。
【0019】
前記コンテンツ提供システムは、端末及びサーバを含んで構成され、前記端末は、少なくとも前記センサを備え、前記サーバは、少なくとも、前記コンテンツ選択部を備え、前記判定部及び前記出力部は、前記端末または前記サーバに設けられる態様とすることができる。
【0020】
このように、前記センサを少なくとも備える端末と、コンテンツ選択部を少なくとも備えるサーバとを設けた構成とすることにより、ユーザに近い位置で必要な機能と、多くのコンテンツを扱う機能とを、端末とサーバに、効率よく分散させることができる。
【0021】
上記コンテンツ提供システムは、前記判定部による判定結果の履歴に基づいて、前記端末の性格を決定する性格管理部をさらに備え、前記性格管理部によって決定された性格によって、前記端末の動作が制御される態様であってもよい。
【0022】
本構成によって、ユーザの動作及び状態の少なくとも一方の種類の履歴を基に、端末に対して性格を付与し、その性格によって端末の動作を制御することができる。
【発明の効果】
【0023】
上記構成により、ユーザのコンテンツに対する反応を容易に取得でき、ユーザ嗜好に合ったコンテンツを提供することができる。
【図面の簡単な説明】
【0024】
【図1】実施の形態1におけるコンテンツ提供システムの構成例を示す機能ブロック図
【図2】ユーザ感情の判定処理の一例を示すフローチャート
【図3】接触の種類判定に用いられる判定基準データの一例を示す図
【図4】コンテンツ提供システムの動作例を示すシーケンス図
【図5】端末が、コンテンツ提供システムの機能を備える場合の構成例を示す図
【図6】コンテンツを出力する端末と、ユーザの挙動を検出する端末とが、それぞれ別個に設けられる場合の構成例を示す図
【図7】コンテンツを提供するコンテンツサーバが、別途、独立して設けられる場合の構成例を示す図
【図8A】センサの変形例(圧力センサ)を示す図
【図8B】センサの変形例(圧力センサ、赤外線センサ)を示す図
【図8C】センサの変形例(圧力センサ、赤外線センサ、カメラ、マイク)を示す図
【図8D】センサの変形例(タッチパネル)を示す図
【図9】ユーザの接触情報に加えて、ユーザの音声認識及び画像認識に基づいて、ユーザの感情を判定する場合の判定基準データの一例を示す図
【図10】記憶部に記録される評価データの一例を示す図
【図11】コンテンツ選択部がチャンネルを選択する処理の例を説明するための図
【図12】コンテンツ選択部が、評価データに基づいて設定した確率の一例を示す図
【図13】実施の形態3におけるコンテンツ提供システムの構成例を示す機能ブロック図
【図14】端末の性格形成を決定する処理例を示すフローチャート
【図15A】性格が「すなお」である場合の端末の外観の一例を示す図
【図15B】性格が「ぐれる」である場合の端末の外観の一例を示す図
【図15C】性格が「すねる」である場合の端末の外観の一例を示す図
【発明を実施するための形態】
【0025】
(実施の形態1)
[システムの構成例]
図1は、実施の形態1におけるコンテンツ提供システムの構成例を示す機能ブロック図である。図1に示すコンテンツ提供システムは、コンテンツを出力する機能を備えた端末101と、コンテンツを端末101へ送信する機能を備えたサーバ102とを含む。サーバ102と端末101とは通信可能である。サーバ102と端末101とは、例えば、無線または有線のネットワークを介して通信することができるが、通信手段は特定のものに限定されない。
【0026】
端末101は、一例として、本実施形態では、家庭内に置かれた映像コンテンツを再生(表示)する装置であり、番組を受信するTVや動画を受信するPCと同じように使われる。この場合、端末101を、コンテンツ再生装置ということもできる。
【0027】
端末101は、挙動情報取得部201、制御部202、出力部203、通信処理部204を有している。また、端末101には、センサ212及び出力装置211が接続されている。
【0028】
挙動情報取得部201は、端末101外部のセンサ212から、ユーザの挙動を示す挙動情報を取得する。すなわち、センサ212により、ユーザの動作及び状態の少なくとも一方が検出される。センサ212により検出される挙動情報は、例えば、ユーザが端末101に対してどのような操作をしたかを示す情報とすることができる。センサ212で検出されるユーザの挙動は、端末101で出力されるコンテンツに対するユーザの反応を示すものであることが好ましい。
【0029】
本実施形態では、一例として、センサ212が圧電センサまたは赤外センサである場合について説明する。センサ212が圧電センサの場合は、挙動情報取得部201は、例えば、ユーザが触った強さや、端末101の表面を触った量(例えば、接触時間の長さあるいは接触距離の長さ)を、挙動情報として取得することができる。この場合、挙動情報取得部201は、ユーザのセンサ212に対する接触の度合いを判定することになる。なお、ユーザの挙動情報は単一のセンサで取得した情報でも、複数の種類のセンサの情報を合成した情報でもよい。
【0030】
制御部202は、端末101の動作を制御する。例えば、制御部202は、挙動情報取得部201で取得するユーザの挙動情報を通信処理部204に送ったり、通信処理部204が受信したコンテンツを出力部203で表示したりするように制御する。例えば、制御部202は、出力装置211にコンテンツが表示されているときに、挙動情報取得部201が挙動情報を取得すると、当該コンテンツと当該挙動情報を前記サーバ102に送信するように通信処理部204を制御することができる。
【0031】
出力部203は、出力装置211を制御する部分であり、出力装置211がディスプレイの場合は、出力部203は、通信処理部204が受信したコンテンツの映像信号を送って、出力装置211に表示させる。これにより、コンテンツを表示してユーザに見せることができる。出力装置211は、ディスプレイのみに限られず、例えば、音声を出力するスピーカ等を備えてもよい。
【0032】
通信処理部204は、端末101がサーバ102と通信するためのインタフェースであり、端末101から情報を送ったり、サーバ102からの情報を受信したりすることができる。
【0033】
サーバ102は、例えば、放送事業者やインターネットサービスプロバイダーによって提供されるコンテンツを配信する装置である。サーバ102は、記憶部205、制御部206、通信処理部207を備える。制御部206は、判定部208、コンテンツ選択部209を含んでいる。
【0034】
記憶部205は、例えば、複数のコンテンツのデータを記憶している部分である。制御部206は、コンテンツを、記憶部205から選択して読み出し、配信することができる。なお、記憶部205に記憶されているコンテンツは、例えば、サーバ102が独自に作成したコンテンツ、あるいはサーバ102が外部から取得したコンテンツであってもよいし、その他様々な種類のものとすることができる。
【0035】
通信処理部207は、サーバ102が端末101と通信するためのインタフェースであり、端末101からの情報を取得したり、端末101へ情報を送ったりすることができる。また、通信処理部207は、例えば、端末101と回線以外の他のネットワーク(例えば、インターネット等)にも接続することが可能である。サーバ102は、前記他のネットワークを介してコンテンツの情報を取得してもよい。
【0036】
判定部208は、端末101から受信した挙動情報に基づいて、ユーザが端末101に対してどのような動作をしたか、または、ユーザがどのような状態になったかを判定する部分である。そのため、判定部208は、挙動情報で示されるユーザの挙動の種類を判定する。例えば、判定部208は、挙動情報が示す挙動が、予め決められた挙動の種類のうちどれに該当するかを判定する。一例として、挙動情報に、ユーザの接触の強さ(圧力)を示す値pが含まれる場合、この値pが、予め決められた複数の数値レベル(例えば、レベル強[p > P1]、レベル中[P1 ≧ p ≧ P2]、レベル弱[p < P2])のうち、どのレベルに属するかによって、接触の種類を決定することができる。また、ユーザの挙動を、予め決められた複数の種類のうちいずれかに分類することで、挙動の種類を決定することもできる。このように、ユーザの挙動の種類を判定するには、予め判定基準となる情報を、例えば、記憶部205に記録しておき、この判定基準を基に、前記種類を決定することができる。
【0037】
また、判定部208は、挙動情報または挙動情報に基づいて判定されたユーザ挙動の種類に基づいて、ユーザの感情を判定してもよい。感情の判定は、例えば、予め記録された、ユーザ挙動の種類と感情との対応関係を示すデータを用いて行なうことができる。例えば、判定したユーザの挙動の種類を、前記対応関係を用いて、ユーザの感情に変換することができる。あるいは、ユーザの挙動が数値で表される場合、この数値が予め決められた複数の区間のうち、どれに属するかによって、感情を判定してもよい。このように、ユーザの感情判定のために、予め判定基準となる情報を、例えば、記憶部205に記録しておき、判定基準を基に、前記感情を決定することができる。判定部208による感情判定の具体例については後述する。なお、ここで判定可能な感情には、ユーザがコンテンツを好きか嫌いかといった情緒的、感覚的な感情の他、例えば、「コンテンツ出力をやめてほしい」あるいは「もっと見たい」といった意思や欲求も含まれる。
【0038】
コンテンツ選択部209は、端末101の出力部203で出力されたコンテンツに対応する判定部208による判定結果に基づいて、出力部203がさらに出力するコンテンツを決定する。コンテンツ選択部209は、例えば、判定部208による判定結果が、出力したコンテンツのうち、どのコンテンツに対するユーザの反応を表すものであるかを特定する。そして、コンテンツ選択部209は、前記コンテンツとそれに対するユーザの反応である前記判定結果を基に、さらに出力するコンテンツを決定する。
【0039】
ここで、コンテンツ選択部209により決定される、「さらに出力するコンテンツ」は、例えば、出力部203において出力中のコンテンツの後に出力するコンテンツとすることができる。すなわち、コンテンツ選択部209は、出力中のコンテンツに続いて、さらに出力すべきコンテンツを決定することができる。なお、出力中のコンテンツの次に出力するコンテンツのみならず、そのさらに後に出力すべきコンテンツを決定してもよい。また、コンテンツ選択部209は、続いて出力する複数のコンテンツと、その順番を決定してもよいし、コンテンツの属性(例えば、カテゴリー、種類、ジャンルまたはキーワード等)を、判定結果を基に決定し、決定した属性を持つコンテンツ群から出力すべきコンテンツをランダムに選択してもよい。
【0040】
また、コンテンツ選択部209は、現在出力中のコンテンツをさらに継続して出力するか、あるいは、現在出力中のコンテンツ出力は中断して、別のコンテンツを出力するかを決定することもできる。なお、端末101は、コンテンツ選択部209が決定したコンテンツを、順次出力してもよいし、コンテンツを出力しながら、さらに決定された他のコンテンツを並行して出力してもよい。
【0041】
このように、コンテンツ選択部209は、出力されたコンテンツに対する判定結果を、さらに出力するコンテンツに反映することができる。例えば、出力されたコンテンツに対するユーザの挙動の種類が、よくない評価(例えば、コンテンツに対する否定的な感情)を示す場合、そのコンテンツとは異なるコンテンツをさらに出力するコンテンツに決定することができる。一方、ユーザの挙動の種類がよい評価(例えば、コンテンツに対する肯定的な感情)を示す場合は、そのコンテンツあるいはそれに類似するコンテンツを、さらに出力するコンテンツに決定することができる。
【0042】
コンテンツ選択部209は、出力部203がコンテンツを出力している時に、前記センサにより検出された前記ユーザの挙動に基づく判定結果を、出力部203で出力されているコンテンツに対応する判定結果として認識(特定)し、当該判定結果に基づいて、出力部203がさらに出力するコンテンツを決定することができる。コンテンツ選択部209は、判定部208で判定されたユーザの挙動の種類を、出力中のコンテンツ情報と対応付ける。これによって、出力中のコンテンツに対する判定結果が明らかになる。
【0043】
コンテンツ選択部209は、例えば、コンテンツの出力タイミングと、センサ212によるユーザの挙動のタイミングまたは判定部208による判定のタイミングを監視し、コンテンツ出力中に同時に得られた判定結果を、その出力中のコンテンツに対応付けることができる。コンテンツ選択部209は、出力中のコンテンツを監視するため、例えば、端末101から現在出力中のコンテンツを示す情報を取得するようにしてもよいし、サーバ102が端末101に対して送信中のコンテンツを、現在出力中のコンテンツと判断してもよい。
【0044】
コンテンツ選択部209は、出力するコンテンツを決定する際に、判定部208による判定結果に基づいて、記憶部205に記憶された複数のコンテンツのうち一部を、さらに出力するコンテンツに決定することができる。例えば、記憶部205に、複数のコンテンツを、コンテンツのカテゴリー、種類、ジャンル等の属性を示す情報(属性情報)とともに記憶しておくことができる。この場合、コンテンツ選択部209は、判定結果から得られるユーザの感情に応じた属性のコンテンツを、記憶部205から抽出することで、出力するコンテンツを決定することができる。
【0045】
また、記憶部205は、コンテンツを複数のグループに分けて記憶しておき、コンテンツ選択部209は、判定結果に応じたグループを選択し、選択したグループに属するコンテンツ群から、出力すべきコンテンツを抽出することもできる。
【0046】
なお、記憶部205は、サーバ102に設けられてもよいが、サーバ102の外部、例えば、他のコンテンツサーバに設けられてもよい。
【0047】
或いは、サーバ102または外部の配信サーバにより複数のチャネルでコンテンツが端末101へ配信される構成において、コンテンツ選択部209は、判定結果に応じたチャネルを選択することで、出力するコンテンツを決定することもできる。 サーバ102の制御部206は、コンテンツ選択部209が決定したコンテンツを、記憶部205から読み出して、通信処理部207を介して端末101へ送信する。通信処理部207は、コンテンツ選択部209が決定したコンテンツを端末101へ送信する送信部として機能する。また、端末101の通信処理部204は、サーバ102からコンテンツを受信する受信部として機能する。このようにして、サーバ102は、出力したコンテンツに対するユーザの反応を取得し、ユーザの嗜好に合ったコンテンツを端末101へ送信することができる。これにより、コンテンツ提供システムでは、コンテンツに対するユーザの嗜好を、ユーザの直感的な行動から学習することを可能にするユーザインターフェースが実現される。
【0048】
[感情判定処理の例]
ここで、上記判定部208によるユーザ感情の判定処理例を説明する。図2は、ユーザ感情の判定処理の一例を示すフローチャートである。図2では、判定部208は、ユーザの挙動情報取得(T201)後に、その挙動情報が示す接触の強さを判定し(T202)、触った距離を示す操作距離を判定する(T203)。判定部208は、これらの強さ判定(T202)や、操作距離判定(T203)の結果によって、ユーザの接触(ユーザの行動)が、「叩く」、「なでる」、「操作なし」のどの種類に合致するかを判別する(T204)(このT204の処理の具体例は後述する。)。また、判定部208は、その種類に基づいてユーザの感情を判定する。例えば、接触の種類が「叩く」と判定された場合、判定部208は、ユーザ感情は「嫌い」と判定し(T205)、接触の種類が「なでる」と判定されれば、ユーザ感情は「好き」と判定し(T206)、接触の種類が「操作なし」と判定されれば、ユーザ感情は「無関心」と判定する(T207)。このように、ユーザの挙動情報の内容からユーザの感情を判定することによって、端末101で出力されたコンテンツに対してユーザがどのような感情を持っているかを示す情報が得られる。
【0049】
なお、「叩く」、「なでる」、「操作なし」等の挙動の種類と、「好き」、「嫌い」、「無関心」等のユーザの感情とを対応付けるデータを感情判定の基準データとして予め記憶部205に記録しておくことができる。判定部208は、予め記録された基準データを用いて感情を判定することができる。また、挙動情報と感情とを対応付けるデータを基準データとすることもできる。
【0050】
[ユーザ動作の種類判定の具体例]
図3は、ユーザによる接触の種類を判定するために用いられる判定基準データの一例を示す図である。判定部208は、図3に示す判定基準データを用いて、ユーザによる接触の強さと接触した状態で移動した距離(操作距離)の組み合わせによってユーザ接触の種類を判定することができる。これにより、ユーザの行動(挙動)が何であったかを導き出すことができる。
【0051】
例えば、ユーザの操作の強さtが、所定の閾値T1より大きい(T1<t)ために「強い」と判定され、かつ操作距離sが所定の閾値S2より小さい(s<S2)ために「短い」と判定されたときは、ユーザが端末101のセンサ212を叩いた可能性が高いため、判定部208は、ユーザの接触の種類を「叩く」と判定できる。
【0052】
また、ユーザ操作の強さtが、所定の区間内(T1<t<T2)である「中間」、またはtが閾値T2より小さく(t<T2)「弱い」と判定され、かつ操作距離sが閾値S1より大きく(s>S1)「長い」と判定された場合、ユーザが端末101のセンサ212をなでている可能性が高いため、判定部208は、ユーザによる接触の種類を「なでる」と判定できる。
【0053】
また、ユーザによる接触の強さtが閾値T2より小さく(t<T2)「弱い」と判定され、かつ、操作距離sが閾値S2より小さく(s<S2)「短い」と判定された場合には、ユーザは、端末101のセンサ212をほとんど触っていない可能性が高いため、判定部208は、「操作なし」と判定する。なお、コンテンツ配信後に一定時間、ユーザの操作が検知されない場合に「操作なし」と判定してもよい。
【0054】
なお、ユーザ操作の強さや操作距離の判定基準は、図3に示すような3段階ではなく、より多くの段階に分けてもよい。また、ユーザ操作の強さや操作距離の組み合わせの判定基準は、実際のユーザ操作により近くなるように、ユーザ自身の操作によってカスタマイズすることが可能であってもよい。
【0055】
[コンテンツ提供システムの動作例]
次に、コンテンツ提供システムの動作例を説明する。図4は、コンテンツ提供システムの動作例を示すシーケンス図である。図4において、図1と同じ構成要素については同じ記号を用いるものとする。
【0056】
ステップS01では、サーバ102が端末101へコンテンツを配信する。ユーザ103がこれまでに操作を行なっていない場合には、最初に配信されるコンテンツはランダムに選択される。
【0057】
ステップS02では、端末101において、サーバ102から配信されてきたコンテンツを、出力部203がディスプレイ211に表示させる。
【0058】
ステップS03では、ユーザ103は、表示されたコンテンツを見て何らかのアクションをする。アクションは、センサ212で検出される。アクションは、例えば、ユーザ103の動作及び状態の少なくとも一方として検出することができる。なお、ユーザ103がコンテンツに無関心であれば、ユーザ103は何も操作しない場合もある。
【0059】
ステップS04では、端末101では、挙動情報取得部201が、センサ212が検出したユーザ103のアクション(挙動)を示すユーザ103の挙動情報を取得する。制御部202は、通信処理部204に、挙動情報をサーバ102へ送信させる。
【0060】
ステップS05では、サーバ102の判定部208が、受信したユーザ103の挙動情報からユーザ行動を判定する。なお、判定部208は、上述のように、本ステップでユーザ感情を判定してもよい。
【0061】
ステップS06では、コンテンツ選択部209が、S05で判定されたユーザ行動に基づいて、コンテンツを選定する。例えば、ユーザ行動(感情)がなでる(好き)の場合には、その時に配信しているコンテンツをそのまま選定し続ける。ユーザ行動(感情)が叩く(嫌い)の場合には、その時に配信しているコンテンツを停止し、別のコンテンツを選定する。
【0062】
このように、ステップS06では、コンテンツ選択部209は、端末101から受信したユーザ103の挙動情報はステップS01で配信したコンテンツに対応するものであると認識した上で、以降に配信するコンテンツを決定している。受信した挙動情報がどのコンテンツに対するユーザ103の挙動であるかは、例えば、受信タイミングと、コンテンツ配信タイミングに基づいて特定することができる。例えば、コンテンツ配信中またはコンテンツ配信後一定期間内に受信した挙動情報は、その配信したコンテンツに対する挙動を示すものと判断することができる。また、サーバ102は、ステップS04で、ユーザの挙動情報とともに、対応するコンテンツを特定する情報も、端末101から受信してもよい。
【0063】
ステップS07では、サーバ102が、端末101へ、ステップS06で選択されているコンテンツを配信する。
【0064】
ステップS08では、端末101で、出力部203が、コンテンツを出力装置211に表示させる。このコンテンツに対するユーザの新たな挙動が検出される場合には、ステップS03〜S08が繰り返される。
【0065】
以上、本実施形態によれば、配信されるコンテンツに対してユーザの挙動がフィードバックされ、ユーザの好みに合ったコンテンツを提供するコンテンツ提供システムを実現することが可能になる。
【0066】
また、本実施形態では、ユーザのセンサ212に対する接触を示す情報を挙動情報として取得することで、ユーザのコンテンツに対する反応を、センサ212への接触動作という直感的な動作により、判定することができる。例えば、上記コンテンツ提供システムによれば、ユーザの「叩く」、「なでる」といった直感的行動をセンサ212によって取得し、コンテンツ情報を組み合わせることでユーザ嗜好を把握することができる。
【0067】
なお、図1では、端末101とサーバ102は一台ずつ設けられているが、これは一例であり、台数はこれに限られない。例えば、サーバ102は、複数の端末にコンテンツを送信する形態とすることができる。このことは、以降に示す変形例及び実施形態でも同様である。
【0068】
以下に、コンテンツ提供システムのシステム構成の変形例1〜3について、それぞれ図5〜図7を用いて説明する。図5〜図7において、図1と同じ機能ブロックには同じ番号を付している。また、下記システム構成の変形例1〜3は、実施形態1のみならず、以降の実施形態全てに適用可能である。また、システム構成の変形例は、下記のものに限られない。
【0069】
[システム構成の変形例1]
図5は、端末101が、コンテンツ提供システムの機能を備える場合の構成例である。端末101は、センサ212、出力装置211に接続され、挙動情報取得部201、制御部202(判定部208、コンテンツ選択部209を含む)、出力部203、記憶部205を備える。記憶部205には、複数のコンテンツが蓄積される。すなわち、端末101は、記憶部205からコンテンツを選択して再生し、再生中にユーザの挙動が検出されると、その挙動情報を基にユーザの挙動の種類または感情を判定し、判定結果を基に、次に再生するべきコンテンツを決定する。決定した次のコンテンツは、記憶部205から読み出され、出力部203により出力される。
【0070】
本変形例1の端末101は、例えば、映像または音楽再生装置等に適用することができる。この場合、ユーザは、端末101がコンテンツを再生している時に、端末101に対して、例えば、叩いたり、なでたり、怒鳴りつけたり、褒めたりすることにより、記憶部205に記憶されたコンテンツの中から、そのときの気分にあったコンテンツを選んで再生させることができる。
【0071】
さらなる変形例として、例えば、コンテンツを記憶し、提供する部分を端末101の外部に設けることもできる。例えば、図5に示す記憶部205にコンテンツを記憶する替わりに、端末101がアクセス可能なコンピュータの記憶部205にコンテンツを記憶しておき、当該コンピュータは、端末101からの要求に応じてコンテンツを端末101へ提供するよう構成することもできる。
【0072】
[システム構成の変形例2]
図6は、コンテンツを出力する端末と、ユーザの挙動を検出する端末とが、それぞれ別個に設けられる場合の構成例である。図6に示す例では、コンテンツ提供システムは、サーバ102、出力端末101b及びセンサ端末101aを含む。出力端末101bは、出力装置211に接続され、サーバ102と通信するための通信処理部204b、制御部202a及びコンテンツを出力する出力部203を備える。センサ端末101aは、センサ212に接続され、挙動情報取得部201、制御部202a、通信処理部204bを備える。サーバ102は、コンテンツを記憶する記憶部205、判定部208、コンテンツ選択部209、通信処理部207を備える。
【0073】
サーバ102は、記憶部205に記録されたコンテンツの中からコンテンツを選択して、出力端末101bへ配信する。出力端末101bは、受信したコンテンツを出力する。センサ端末101aは、ユーザの挙動を検出し、サーバ102へ送信する。サーバ102は、ユーザの挙動から、挙動の種類またはユーザの感情を判定し、判定結果に基づいて、さらに配信するコンテンツを決定する。
【0074】
このように、出力端末101bとセンサ端末101aとを分けて構成することにより、例えば、ユーザの挙動を検出するのに特化した、ユーザにとって挙動を伝えやすい端末を提供することができる。例えば、センサ端末101aは、頭部と胴体部を有するぬいぐるみの形状とすることができ、頭の部分にユーザによる接触を検出する圧力センサを備えた構成にすることができる。また、センサ端末101aとサーバ102との通信を無線通信とすることができる。これにより、例えば、ユーザは、手元にぬいぐるみを抱きながら、出力端末101bにより出力装置211で表示されるコンテンツを見て、ぬいぐるみを、叩く、なでる、怒鳴りつける、褒める等の動作をし、出力端末101bで表示されるコンテンツを自分の好みに合ったものにすることができる。
【0075】
[システム構成の変形例3]
図7は、コンテンツを提供するコンテンツサーバが、別途、独立して設けられる場合の構成例を示す図である。図7に示す例では、サーバ102及び端末101は、コンテンツサーバ216−1,2と通信可能となっている。コンテンツサーバ216−1,2は、通信処理部213−1,2、制御部214−1,2及びコンテンツ記憶部215−1,2を備える。サーバ102は、コンテンツ選択部209が決定したコンテンツを、コンテンツサーバ216−1またはコンテンツサーバ216−2へ要求する。コンテンツサーバ216−1,2は、サーバ102から、コンテンツの要求を受けて、要求されたコンテンツを、コンテンツ記憶部215から読み出し、通信処理部213を介して、端末101へ配信する。
【0076】
なお、サーバ102からコンテンツの要求を受けて端末101へコンテンツを送信するコンテンツサーバの数は、図7に示すように2台に限られず、1台でもよいし、3台以上でもよい。図7に示すように、コンテンツサーバを複数設けることによって、サーバ102は複数のコンテンツサーバから、ユーザの挙動に応じたコンテンツサーバを選択することが可能になる。例えば、端末101がコンテンツサーバ216−1から受信したコンテンツを出力しているときに検出したユーザの挙動が、肯定的な評価(感情)を示すものであれば、サーバ101は、次のコンテンツも、続けてコンテンツサーバ216−1に要求することができる。逆に、ユーザの挙動が否定的な評価(感情)を示す場合は、コンテンツサーバ216−1以外のコンテンツサーバ216−2に、次に出力するコンテンツを要求することができる。このように、コンテンツ選択部209は、挙動情報の種類に応じて、コンテンツの要求先(コンテンツの提供手段、ここでは一例としてコンテンツサーバ)を決定して、コンテンツを要求し、要求を受けたコンテンツの提供手段がコンテンツを端末101へ送信する構成とすることができる。さらに、コンテンツ選択部209は、コンテンツの要求先とともに、要求するコンテンツを指定する情報(コンテンツの種類、ジャンル等)をさらに決定し、コンテンツ提供手段へ要求してもよい。
【0077】
一例として、コンテンツ選択部209は、コンテンツの要求先として、動画ファイルの共有サービスを提供するA社のコンテンツサーバを選択していたが、検出されたユーザの挙動の種類が、A社のコンテンツサーバから配信されるコンテンツに興味を持っていないことを示すものと判定されたので、VoD(ビデオオンデマンド)を提供するB社のコンテンツサーバに要求先を切り替える、といった動作が可能になる。
【0078】
以下に、センサの変形例1〜4について、それぞれ図8A〜図8Dを用いて説明する。下記センサの変形例1〜4は、実施形態1のみならず、以降の実施形態全てに適用可能である。また、センサの変形例は、下記変形例1〜4に限られない。
【0079】
[センサの変形例1]
図8Aに示すセンサは、センサ212が、圧力センサ212aを含む場合のセンサ及び挙動情報取得部201の構成例を示す図である。図8Aに示す例では、圧力センサ212aは、ユーザの圧力センサ212aに対する接触の圧力を検出する。挙動情報取得部201は、ユーザの接触の強さ及び接触量の少なくとも一方を示す値を挙動情報として取得する。接触の強さは、例えば、圧力センサ212aで検出された圧力の大きさによって得ることができる。接触量は、例えば、圧力センサ212aで検出された接触時間または、接触距離により得ることができる。接触時間は、例えば、圧力の継続時間や時間変化を検出することにより得られる。接触距離は、例えば、複数の圧力センサ212aを、複数の異なる位置に設け、各位置における圧力を検出することにより得ることができる。すなわち、複数の位置における圧力変化を検出することによって接触距離に関する情報を得ることができる。例えば、所定の時間内に複数の位置において連続して検出された圧力は、一連のユーザによる接触操作として認識することができる。この一連の接触操作における軌跡の長さを、操作距離として取得することができる。
【0080】
なお、圧力センサ212aにより、接触の強さ及び接触量の2種類以上の値を検出することで、ユーザの挙動の種類をより詳しく判定することができる。例えば、圧力センサ212aで得られた、2種類以上の値の組み合わせが、予め記録されたパターンのいずれに該当するか判定することで、ユーザの直感的な挙動を判定することが可能になる。具体例としては、判定部208は、図3に示した例のように、予め設定された、接触の強さ及び操作距離の組み合わせパターンのいずれに該当するかにより、ユーザの挙動の種類または感情を判定することができる。
【0081】
[センサの変形例2]
図8Bに示すセンサは、センサ212が、圧力センサ212a及び赤外線センサ212bを含む場合のセンサ及び挙動情報取得部201の構成例を示す図である。図8Bに示す例では、赤外線センサ212bは、例えば、ユーザの3次元空間における動きを検出する。挙動情報取得部201は、圧力情報取得部201a及び位置情報取得部201bを備える。圧力情報取得部201aは、ユーザの接触の強さ及び接触量の少なくとも一方を挙動情報として取得する。位置情報取得部201bは、ユーザの位置を示す情報を挙動情報として取得する。例えば、位置情報取得部201bは、圧力センサ212aへの接触前のユーザ動作の向きや速度等を示す値を挙動情報として取得することができる。
【0082】
これにより、判定部208は、ユーザの圧力センサ212aへの接触の強さと接触量に加えて、赤外線センサ212bで検出される、接触前のユーザ動作の向きや速度等を、さらに用いて、ユーザ動作の種類(ユーザ行動)を判定することができる。このように、圧力センサ、赤外線センサなどの外部センサによってユーザ操作の強弱を取得することができる。その結果、ユーザの直感的行動を取得することが可能になる。
【0083】
[センサの変形例3]
図8Cに示すセンサは、センサ212が、圧力センサ212a、赤外線センサ212b、カメラ212c、マイク212dを含む場合のセンサ及び挙動情報取得部201の構成例を示す図である。図8Cに示す例では、カメラ212cは、ユーザの静止画または動画を撮影する。マイク212dは、ユーザの音声を録音する。挙動情報取得部201は、圧力情報取得部201a、位置情報取得部201b、画像認識部201c及び音声認識部201dを備える。
【0084】
画像認識部201cは、カメラ212cが撮影した画像中に、ユーザを検出し、ユーザの画像または、画像中のユーザの状態及び動作の少なくとも一方を挙動情報として取得することができる。例えば、ユーザの画像そのものを挙動情報としてもよいし、画像に基づいて判定されるユーザの表情(例えば、笑顔、怒り顔等)や、動きを挙動情報としてもよい。
【0085】
音声認識部201dは、マイク212dで録音された音声を認識する。音声認識結果そのものをユーザの挙動情報とすることもできるし、認識した音声中に特定の内容が含まれているか否かを挙動情報とすることもできる。なお、画像認識結果や音声認識結果に基づく判定処理は、端末101の挙動情報取得部201で実行してもよいし、サーバ102の判定部208で実行してもよい。
【0086】
図9は、ユーザの接触情報(接触の強さと接触量)に加えて、ユーザの音声認識及び画像認識に基づいて、ユーザの感情を判定する場合の判定基準データの一例を示す図である。図9に示す例では、ユーザの接触の強さ及び操作距離、音声認識及び画像認識結果の組み合わせのパターンと、各パターンにおけるユーザの感情を示す値とが記録されている。
【0087】
図9のデータに基づいて判定部208が判定する際、例えば、ユーザの接触が「強い」場合であって、音声認識の結果、否定的な語句が検出された場合、好度(好きという感情の度合い)のスコア(値)を−60と判定することができる。
【0088】
なお、上記否定語句は、例えば、「いや」「きらい」「うるさい」「だめ」「やめて」等、不快感、嫌悪、拒絶意思等を表現する語句とすることができる。上記肯定語句は、例えば、「いいね」「すき」「もっと」「さいこう」等、快感、好感、肯定意思等を表現する語句とすることできる。
【0089】
さらに、画像認識の結果、怒り顔が検出された場合は、好度の値はさらに−60と判定することができる。判定部208は、好度の合計値により、ユーザの感情を判定することができる。このように、判定部208は、図9の判定基準データを参照することにより、検出した操作距離、音声認識及び画像認識結果の組み合わせを好度のスコアに変換することができる。例えば、好度のスコア=0を基準として、判定基準データを用いて決定された好度の値を加算することができる。この場合、検出された挙動情報が肯定的な感情を示す場合は、好度の値はプラスとなり、スコアに値が加算され、否定的な感情を示す場合は好度の値はマイナスとなり、スコアから値が減算されることになる。上記処理のように、ユーザの接触情報に加えて、音声認識及び画像認識の結果を用いることで、より的確にユーザの感情を判定することが可能になる。
【0090】
[センサの変形例4]
図8Dに示すセンサは、センサ212が、タッチパネル212eを含む場合のセンサ及び挙動情報取得部201の構成例を示す図である。タッチパネル212eは、例えば、表示パネルを備え、表示パネルは、ユーザによる画面上の指示位置を検出するセンサを含む構成とすることができる。また、タッチパネル212eが、コンテンツの出力装置211を兼ねてもよい。
【0091】
挙動情報取得部201は、ユーザによる画面上の指示動作を挙動情報とすることができる。例えば、ユーザの指示位置、指示位置の軌跡、指示位置の移動速さ等を挙動情報とすることができるし、あるいは、これらから判定されるジェスチャを挙動情報とすることもできる。
【0092】
上記のような、センサ212としてタッチパネル212eを用い、出力装置211としてディスプレイを備える端末101の具体例としては、携帯電話、PDA(携帯情報端末)、電子書籍再生端末(電子ブックリーダ)、多機能携帯電話、電子辞書、携帯ゲーム機、多機能リモコン等のタブレット型の端末が挙げられる。このような端末101では、タッチパネル212eでユーザの挙動情報を取得することができる。また、挙動情報から判定される挙動の種類に基づいて決定されたコンテンツをディスプレイに表示することができる。
【0093】
例えば、多機能携帯電話の一例であるスマートフォンで端末101を構成することができる。この場合、スマートフォンのタッチパネル(センサ)でユーザの挙動を検出し、挙動の種類により、ディスプレイ、及び、スピーカまたはイヤホン等の音声出力装置で出力するコンテンツ(例えば、動画、音楽、仮想ペット、ゲーム等)を決定することができる。
【0094】
端末101としてのスマートフォンは、例えば、図1に示したように、データ通信可能なサーバ102に挙動情報を送信する通信処理部204を備え、サーバ102から、挙動の種類の判定結果に基づいて決定されたコンテンツを受信する構成であってもよい。あるいは、図5に示したように、スマートフォンが、判定部208、コンテンツ選択部209、記憶部205を備える構成であってもよい。さらに、図7に示したように、挙動の種類を判定してコンテンツを決定するサーバ102とは別のコンテンツサーバ216からコンテンツを受信する構成であってもよい。
【0095】
以上、センサ212の変形例1〜4を説明したが、センサ212の変形例は上記に限られない。例えば、センサ212は、ユーザの血圧、脈拍、体温等の生体情報を検出するセンサを含んでもよい。このような生体情報を検出するセンサは、例えば、専用の椅子等に仕込んでおくことができる。
【0096】
(実施の形態2)
実施の形態2では、サーバ102に配信したコンテンツ履歴とユーザ感情を保持できる場合の形態を示す。それ以外の構成や機能は上記実施の形態1と同様とすることができる。実施の形態2では、例えば、図1に示す構成において、サーバ102の記憶部205が、評価データを記録する。評価データは、出力したコンテンツの履歴を示すコンテンツ履歴データと、当該履歴データの各コンテンツに対応するユーザの挙動の種類または感情(判定部208の判定結果)を示すデータを含む。コンテンツ選択部209は、記憶部205に記録された評価データに基づいて、次に配信するべきコンテンツを決定する。この構成により、サーバ102において、コンテンツ出力の履歴と、各コンテンツに対するユーザの挙動の判定結果に基づいて、端末101の出力部がさらに出力するコンテンツを決定することが可能になる。
【0097】
図10は、記憶部205に記録される評価データの一例を示す図である。図10に示す例では、サーバ102が端末101へ配信したコンテンツ履歴と、端末101からの挙動情報を基に判定したユーザ感情の履歴とが対応付けられて記録されている。具体的には、コンテンツ名、コンテンツの配信日時、コンテンツの配信カテゴリー及びコンテンツを配信したときのユーザの感情が、対応付けられて1つのレコードとして記録されている。コンテンツの配信カテゴリーは、例えば、「スポーツ」や「音楽」、「ドラマ」といったコンテンツの種類や、「コメディ」や「アクション」や「ホラー」といったコンテンツのジャンルによって分類されている。
【0098】
図10に示す例において、「コンテンツA」は「カテゴリーA」に属し、配信時のユーザ感情は「嫌い」ある。「コンテンツB」は「カテゴリーB」に属し、ユーザ感情は「好き」である。「コンテンツC」は「カテゴリーC」に属し、ユーザ感情は「無関心」である。「コンテンツD」は「カテゴリーD」に属し、ユーザ感情は「嫌い」である。このとき、サーバ102は、ユーザ感情が「好き」となる「カテゴリーB」を優先してコンテンツを配信することで、ユーザにとって嗜好に合ったコンテンツを提供することが可能になる。例えば、コンテンツ選択部209は、記憶部205に記憶されたカテゴリーA〜Dのコンテンツのうち、カテゴリーBのコンテンツを選択して読み出し、端末101へ送信することができる。あるいは、コンテンツ選択部209は、複数のチャンネルでコンテンツがサーバ102から送信される場合に、特定のカテゴリーBのコンテンツを流すチャンネルを選択し、このチャンネルのコンテンツを端末101へ送信することができる。
【0099】
図11は、コンテンツ選択部209がチャンネルを選択する処理の例を説明するための図である。図11に示す例では、チャンネル(ch1)でカテゴリーAのコンテンツが流れており、同じ時間にチャンネル(ch2)でカテゴリーBのコンテンツ、チャンネル(ch3)でカテゴリーCのコンテンツが流れている。このとき、ユーザ感情によってカテゴリーBが優先されるため、コンテンツ選択部209ではカテゴリーBが流れるチャンネル(ch2)を選択して、端末101へと配信する。
【0100】
また、コンテンツ選択部209は、配信するコンテンツにおける各カテゴリーの出現確率を、評価データに基づいて、制御することもできる。例えば、評価データが示す判定結果の履歴において、よい評価を示す判定結果が多いカテゴリーのコンテンツの出現確率を高くするように制御することができる。具体的には、コンテンツ選択部209は、評価データ中の判定結果(ユーザ感情)に基づいて、コンテンツのカテゴリーごとに出現確率を設定し記録しておくことができる。図12は、コンテンツ選択部209が、評価データに基づいて設定した出現確率の一例である。図12に示す例では、カテゴリーと出現確率が対応付けられて記録される。
【0101】
本実施形態によれば、ユーザの直感的行動履歴に基づいて、出力されるコンテンツが制御される。そのため、出力するコンテンツを、ユーザの嗜好に合うように制御することが可能になる。 なお、評価データの内容は、上記の図10に示す例に限られない。例えば、コンテンツの配信カテゴリーの替わりに、コンテンツの種類、ジャンル、関連するキーワード、タグ等、その他のコンテンツの属性を表す属性情報を、コンテンツ毎に記録してもよい。これにより、例えば、コンテンツ選択部209は、評価データにおいて、肯定的な感情を示す判定結果の頻度が高い属性を特定し、その属性を持つコンテンツを優先して、出力コンテンツに決定することが可能になる。
【0102】
また、評価結果を示す情報は、図10に示すようにユーザ感情に限られず、例えば、ユーザの挙動情報を種類、好度のスコア等、その他、コンテンツに対するユーザの評価を示す情報であってもよい。
【0103】
また、コンテンツ選択部209は、上記のようにチャネルを選択する替わりに、複数のコンテンツが記憶された記憶部から、評価のよいカテゴリーのコンテンツを選択して、端末101へ送信することもできる。
【0104】
(実施の形態3)
図13は、実施の形態3におけるコンテンツ提供システムの構成例を示す機能ブロック図である。図13において、図1と同じ機能ブロックには同じ番号を付している。図13は、図1に示すコンテンツ提供システムに、性格管理部220をさらに設けた構成である。ここでは、一例として、サーバ102が、性格管理部220を備える場合について説明する。性格管理部220は、端末101に設けることもできる。
【0105】
性格管理部220は、判定部208による判定結果の履歴に基づいて、端末101の性格を決定する。サーバ102は、性格管理部220によって決定された性格によって、端末101の動作を制御する。例えば、端末101は、端末101の外観変更または動作等を行うアクチュエータ219を備える。サーバ102は、端末101へ性格管理部220で決定された性格を示す性格情報を送信する。端末101の制御部202は、性格情報を基に端末101の動作を制御する。あるいは、サーバ102は、端末101に送信するコンテンツを制御することによって、端末101でのコンテンツ出力を制御することができる。
【0106】
図14は、端末の性格形成を決定する処理例を示すフローチャートである。図14に示す例では、サーバ102でのユーザの挙動情報取得すなわち、ユーザの行動取得(T601)後に、判定部208は、ユーザがどのような行動を取ったか(ユーザの挙動の種類)を判定する(T602)。次に、性格管理部220は、T602で判定された挙動の種類の頻度が所定基準より高いかどうかを判定する(T603、T604)。例えば、判定部208により判定されたユーザの挙動の種類の履歴を記憶部205に蓄積することが好ましい。これにより、性格管理部220は、記憶部205に蓄積されたユーザの挙動の種類の履歴を参照して、頻度を判定することができる。
【0107】
頻度が高いと判定された場合には、端末101の性格として、当該挙動の種類の高頻度に対応する性格を選定する(T605、T607)。例えば、T602でユーザの行動が「叩く」と判定された場合、過去所定期間における「叩く」の頻度が所定基準より高いか否か判断する(T603)。性格管理部220は、「叩く」の頻度が高いときは、端末101の性格として「ぐれる」を(T605)、また、「叩く」の頻度が低いときには、「すなお」を選定する(T606)。ユーザ行動が「なでる」である場合には、端末101の性格として「すなお」を選定する(T606)。ユーザ行動が「操作なし」である場合で、その頻度が高いときには、端末101の性格として「いじける」を選定する(T607)。また、「操作なし」の頻度が低いときには、端末101の性格は変わらないものとし、直前に設定されている性格を続けるものとする。
【0108】
このように設定した性格情報は、サーバ102から端末101に設定される。端末101の制御部202は、性格情報によって、端末101の動作を変えるようにする。例えば、性格が「ぐれる」の場合には、敢えてユーザ嗜好に合わないコンテンツを流すよう出力部203に指示することができる。また、性格が「いじける」の場合には、コンテンツが配信されてきても表示しないよう出力部203を制御することができる。上記処理により、ユーザの直感的行動の履歴によって端末101の「性格」を形成し、「性格」に応じて端末101の動作やコンテンツ推奨頻度を変動させることができる。なお、上記例では、「ぐれる」は反抗的な性格の一例であり、「いじける」は怠惰な性格の一例となっている。これらの性格は一例であり、性格管理部220で設定可能な性格はこれらに限られない。
【0109】
なお、設定された性格情報と、端末101の色や動作が紐付けられてもよい。例えば、性格情報に応じて、端末101の外観を変更する動作をアクチュエータ219に実行させることができる。
【0110】
図15A、図15B及び図15Cは、アクチュエータによって変更される端末101の外観の一例を示す図である。図15A、図15B及び図15Cに示す例では、端末101は、出力装置211としてディスプレイと、猫の頭部の形をしたセンサ212を備える。ディスプレイにはコンテンツが表示される。センサ212は、例えば、ユーザによる猫の頭部への接触を検出する圧力センサとすることができる。また、猫の頭部にはアクチュエータ219により形状が変更される目217及び口218が設けられている。
【0111】
本例では、性格によって、猫の頭部に設けられた目217及び口218の形状が変更される。例えば、目217及び口218の形状は、性格が「すなお」な場合には図15A、性格が「ぐれる」場合には図15B、性格が「いじける」場合には図15Cに示す形状に、それぞれ変化させることができる。また、設定された性格情報に端末101の色が紐付けられてもよい。例えば、「すなお」な場合には端末101は黄色に変わり、「ぐれる」場合には赤色、「いじける」場合には青色に変わるとしてもよい。一例として、図15A〜Cに示す猫の鼻に、発光色を黄、赤または青に切り替えることができるLEDを設けることができる。この場合、出力部203は、性格管理部220で設定された性格に応じて、色を切り替えてLEDを発光させることができる。
【0112】
このように、端末101は、キャラクターを模したユーザにとって愛着の沸く外装を施すことができる。本実施形態によれば、ユーザ嗜好に合ったコンテンツを表示できると共に、玩具用として愛着を持つことができる端末を含むコンテンツ提供システムを実現できる。また、ユーザ操作履歴の統計を用いて、端末101の動作を「性格」として処理することにより、端末101の動作に複雑性を持たせつつ、ユーザの直感に合った動作を提供することが可能になる。すなわち、ユーザの直感的行動履歴によって、「性格」を形成し、「性格」に応じて動作やコンテンツ推奨頻度を変動させることができる。また、ユーザの直感的行動によって端末101の「性格」が変わっていくため、ユーザに、端末101を育てているという意識を持たせることができる。
【0113】
以上、本発明の実施形態の例を、実施形態1〜3として説明したが、本発明は上記実施形態1〜3に限られない。例えば、上記実施形態においては、コンテンツが映像である場合について説明したが、コンテンツは映像に限られず、その他、人間が閲覧、観賞または体験することができるものが含まれる。例えば、文章、静止画像、動画像、音楽、ゲーム、あるいはそれらの組み合わせがコンテンツに含まれる。また、コンテンツは、デジタルまたはアナログのデータとして、記憶装置に記憶され、伝送路を通じて伝送することができる。コンテンツのデータは、例えば、装置により再生、表示または実行されることにより、人間が、閲覧、観賞または体験できる状態になる。
【産業上の利用可能性】
【0114】
本発明は、例えば、コンテンツを配信する番組提供サービスや動画提供サービスを提供する場合に、簡単にユーザの嗜好を反映できるコンピュータシステムとして有用である。また、ユーザが育てる楽しさを持つことの出来るペット代わりの玩具ロボットとしても応用することができる。
【符号の説明】
【0115】
101 端末
102 サーバ装置
103 ユーザ
203 出力部
205 記憶部
208 判定部
209 コンテンツ選択部
211 出力部
212 センサ
220 性格管理部
【特許請求の範囲】
【請求項1】
コンテンツを出力する出力部と、
ユーザの挙動を検出するセンサと、
前記センサから得られる情報に基づいて、前記ユーザの挙動の種類を判定する判定部と、
前記出力部で出力されたコンテンツに対応する前記判定部による判定結果に基づいて、前記出力部がさらに出力するコンテンツを決定する、コンテンツ選択部とを備える、コンテンツ提供システム。
【請求項2】
前記判定部は、前記センサで検出された前記ユーザの挙動が、予め決められた複数の挙動の種類のいずれに該当するかを判定する、請求項1に記載のコンテンツ提供システム。
【請求項3】
前記判定部は、前記ユーザの挙動の種類により、ユーザの感情を判定し、
前記コンテンツ選択部は、前記出力部で出力されたコンテンツに対応する、前記判定部で判定されたユーザの感情に基づいて、前記出力部がさらに出力するコンテンツを決定する、請求項1または2に記載のコンテンツ提供システム。
【請求項4】
前記コンテンツ選択部は、前記出力部がコンテンツを出力している時に前記センサにより検出された前記ユーザの挙動に基づく判定結果を、前記出力部で出力されているコンテンツに対応する判定結果として、当該判定結果に基づいて、前記出力部がさらに出力するコンテンツを決定する、請求項1〜3のいずれか1項に記載のコンテンツ提供システム。
【請求項5】
前記出力部が出力したコンテンツの履歴を示すコンテンツ履歴データ及び、当該履歴データの各コンテンツに対応する判定結果を示すデータを、評価データとして記録する記憶部をさらに備え、
前記コンテンツ選択部は、前記記憶部に記録された前記評価データに基づいて、前記出力部がさらに出力するコンテンツを決定する、請求項1〜4のいずれか1項に記載のコンテンツ提供システム。
【請求項6】
前記センサは、ユーザの接触を検出するセンサを含み、
前記判定部は、前記センサで検出されたユーザの接触の強さ及び量の少なくともいずれか1つに基づいて、前記ユーザの挙動の種類を判定する、請求項1〜5のいずれか1項に記載のコンテンツ提供システム。
【請求項7】
複数のコンテンツを記憶する記憶部をさらに備え、
前記コンテンツ選択部は、前記判定部による判定結果に基づいて、前記記憶部に記憶された複数のコンテンツのうち一部を、さらに出力するコンテンツに決定する、請求項1〜6のいずれか1項に記載のコンテンツ提供システム。
【請求項8】
前記コンテンツ提供システムは、端末及びサーバを含み、
前記端末は、少なくとも前記センサを備え、
前記サーバは、少なくとも、前記コンテンツ選択部を備え、
前記判定部及び前記出力部は、前記端末または前記サーバに設けられる、請求項1〜7のいずれか1項に記載のコンテンツ提供システム。
【請求項9】
前記判定部による判定結果の履歴に基づいて、前記端末の性格を決定する性格管理部をさらに備え、
前記性格管理部によって決定された性格によって、前記端末の動作が制御される、請求項8に記載のコンテンツ提供システム。
【請求項10】
コンテンツを提供するサーバと通信可能な端末であって、
前記ユーザの挙動を検出するセンサと、
前記サーバから、前記センサで検出したユーザの挙動を用いて判定される前記ユーザの挙動の種類に基づいて決定されるコンテンツを受信する、コンテンツ受信部と、
前記コンテンツ受信部が受信したコンテンツを出力する出力部とを備える、端末。
【請求項11】
前記ユーザの挙動を検出するセンサから得られる情報に基づいて、前記ユーザの挙動の種類を判定する判定部をさらに備え、
前記受信部は、前記出力部で出力されたコンテンツに対応する前記判定部による判定結果に基づいて決定されるコンテンツを受信し、
前記出力部は、前記コンテンツ受信部が受信したコンテンツをさらに出力する、請求項10に記載の端末。
【請求項12】
ユーザに対してコンテンツを出力する端末とユーザの挙動を検出するセンサと通信可能である、コンテンツを提供するサーバであって、
前記端末へコンテンツを送信する送信部と、
前記センサで検出される情報に基づいて判定された、前記送信部で送信したコンテンツに対応する、前記ユーザの挙動の種類に基づいて、前記送信部がさらに送信するコンテンツを決定するコンテンツ選択部とを備える、サーバ。
【請求項13】
少なくとも1つのコンピュータが実行するコンテンツ提供方法であって、
前記コンピュータが、コンテンツを出力する出力工程と、
前記コンピュータが、ユーザの挙動を検出するセンサから得られる情報に基づいて、前記ユーザの挙動の種類を判定する判定工程と、
前記コンピュータが、前記出力部で出力されたコンテンツに対応する、前記判定工程による判定結果に基づいて、前記出力部がさらに出力するコンテンツを決定するコンテンツ選択工程とを含む、コンテンツ提供方法。
【請求項14】
ユーザの挙動を検出するセンサ及び、コンテンツを提供するサーバと通信可能なコンピュータに処理を実行させるコンテンツ提供プログラムであって、
コンテンツを出力する出力処理と、
前記コンテンツの出力中に前記センサで検出した前記ユーザの挙動を示すデータ、あるいは、前記コンテンツの出力中に前記センサで検出されたユーザの挙動から判定された前記ユーザの挙動の種類を前記サーバへ送信する処理と、
前記サーバから、前記コンテンツに対応する前記ユーザの挙動の種類に基づいて決定されるコンテンツを受信する、コンテンツ受信処理と、
前記受信したコンテンツをさらに出力する出力処理とをコンピュータに実行させる、コンテンツ提供プログラム。
【請求項15】
コンテンツを出力する出力装置及び、ユーザの挙動を検出するセンサと通信可能であるコンピュータに、処理を実行させるコンテンツ提供プログラムであって、
前記出力装置へコンテンツを送信する送信処理と、
前記センサから得られる情報に基づいて判定された、前記送信処理で送信されたコンテンツに対応する前記ユーザの挙動の種類に基づいて、前記送信処理でさらに送信するコンテンツを決定するコンテンツ選択処理とをコンピュータに実行させる、コンテンツ提供プログラム。
【請求項1】
コンテンツを出力する出力部と、
ユーザの挙動を検出するセンサと、
前記センサから得られる情報に基づいて、前記ユーザの挙動の種類を判定する判定部と、
前記出力部で出力されたコンテンツに対応する前記判定部による判定結果に基づいて、前記出力部がさらに出力するコンテンツを決定する、コンテンツ選択部とを備える、コンテンツ提供システム。
【請求項2】
前記判定部は、前記センサで検出された前記ユーザの挙動が、予め決められた複数の挙動の種類のいずれに該当するかを判定する、請求項1に記載のコンテンツ提供システム。
【請求項3】
前記判定部は、前記ユーザの挙動の種類により、ユーザの感情を判定し、
前記コンテンツ選択部は、前記出力部で出力されたコンテンツに対応する、前記判定部で判定されたユーザの感情に基づいて、前記出力部がさらに出力するコンテンツを決定する、請求項1または2に記載のコンテンツ提供システム。
【請求項4】
前記コンテンツ選択部は、前記出力部がコンテンツを出力している時に前記センサにより検出された前記ユーザの挙動に基づく判定結果を、前記出力部で出力されているコンテンツに対応する判定結果として、当該判定結果に基づいて、前記出力部がさらに出力するコンテンツを決定する、請求項1〜3のいずれか1項に記載のコンテンツ提供システム。
【請求項5】
前記出力部が出力したコンテンツの履歴を示すコンテンツ履歴データ及び、当該履歴データの各コンテンツに対応する判定結果を示すデータを、評価データとして記録する記憶部をさらに備え、
前記コンテンツ選択部は、前記記憶部に記録された前記評価データに基づいて、前記出力部がさらに出力するコンテンツを決定する、請求項1〜4のいずれか1項に記載のコンテンツ提供システム。
【請求項6】
前記センサは、ユーザの接触を検出するセンサを含み、
前記判定部は、前記センサで検出されたユーザの接触の強さ及び量の少なくともいずれか1つに基づいて、前記ユーザの挙動の種類を判定する、請求項1〜5のいずれか1項に記載のコンテンツ提供システム。
【請求項7】
複数のコンテンツを記憶する記憶部をさらに備え、
前記コンテンツ選択部は、前記判定部による判定結果に基づいて、前記記憶部に記憶された複数のコンテンツのうち一部を、さらに出力するコンテンツに決定する、請求項1〜6のいずれか1項に記載のコンテンツ提供システム。
【請求項8】
前記コンテンツ提供システムは、端末及びサーバを含み、
前記端末は、少なくとも前記センサを備え、
前記サーバは、少なくとも、前記コンテンツ選択部を備え、
前記判定部及び前記出力部は、前記端末または前記サーバに設けられる、請求項1〜7のいずれか1項に記載のコンテンツ提供システム。
【請求項9】
前記判定部による判定結果の履歴に基づいて、前記端末の性格を決定する性格管理部をさらに備え、
前記性格管理部によって決定された性格によって、前記端末の動作が制御される、請求項8に記載のコンテンツ提供システム。
【請求項10】
コンテンツを提供するサーバと通信可能な端末であって、
前記ユーザの挙動を検出するセンサと、
前記サーバから、前記センサで検出したユーザの挙動を用いて判定される前記ユーザの挙動の種類に基づいて決定されるコンテンツを受信する、コンテンツ受信部と、
前記コンテンツ受信部が受信したコンテンツを出力する出力部とを備える、端末。
【請求項11】
前記ユーザの挙動を検出するセンサから得られる情報に基づいて、前記ユーザの挙動の種類を判定する判定部をさらに備え、
前記受信部は、前記出力部で出力されたコンテンツに対応する前記判定部による判定結果に基づいて決定されるコンテンツを受信し、
前記出力部は、前記コンテンツ受信部が受信したコンテンツをさらに出力する、請求項10に記載の端末。
【請求項12】
ユーザに対してコンテンツを出力する端末とユーザの挙動を検出するセンサと通信可能である、コンテンツを提供するサーバであって、
前記端末へコンテンツを送信する送信部と、
前記センサで検出される情報に基づいて判定された、前記送信部で送信したコンテンツに対応する、前記ユーザの挙動の種類に基づいて、前記送信部がさらに送信するコンテンツを決定するコンテンツ選択部とを備える、サーバ。
【請求項13】
少なくとも1つのコンピュータが実行するコンテンツ提供方法であって、
前記コンピュータが、コンテンツを出力する出力工程と、
前記コンピュータが、ユーザの挙動を検出するセンサから得られる情報に基づいて、前記ユーザの挙動の種類を判定する判定工程と、
前記コンピュータが、前記出力部で出力されたコンテンツに対応する、前記判定工程による判定結果に基づいて、前記出力部がさらに出力するコンテンツを決定するコンテンツ選択工程とを含む、コンテンツ提供方法。
【請求項14】
ユーザの挙動を検出するセンサ及び、コンテンツを提供するサーバと通信可能なコンピュータに処理を実行させるコンテンツ提供プログラムであって、
コンテンツを出力する出力処理と、
前記コンテンツの出力中に前記センサで検出した前記ユーザの挙動を示すデータ、あるいは、前記コンテンツの出力中に前記センサで検出されたユーザの挙動から判定された前記ユーザの挙動の種類を前記サーバへ送信する処理と、
前記サーバから、前記コンテンツに対応する前記ユーザの挙動の種類に基づいて決定されるコンテンツを受信する、コンテンツ受信処理と、
前記受信したコンテンツをさらに出力する出力処理とをコンピュータに実行させる、コンテンツ提供プログラム。
【請求項15】
コンテンツを出力する出力装置及び、ユーザの挙動を検出するセンサと通信可能であるコンピュータに、処理を実行させるコンテンツ提供プログラムであって、
前記出力装置へコンテンツを送信する送信処理と、
前記センサから得られる情報に基づいて判定された、前記送信処理で送信されたコンテンツに対応する前記ユーザの挙動の種類に基づいて、前記送信処理でさらに送信するコンテンツを決定するコンテンツ選択処理とをコンピュータに実行させる、コンテンツ提供プログラム。
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8A】
【図8B】
【図8C】
【図8D】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15A】
【図15B】
【図15C】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8A】
【図8B】
【図8C】
【図8D】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15A】
【図15B】
【図15C】
【公開番号】特開2012−155616(P2012−155616A)
【公開日】平成24年8月16日(2012.8.16)
【国際特許分類】
【出願番号】特願2011−15535(P2011−15535)
【出願日】平成23年1月27日(2011.1.27)
【出願人】(000005821)パナソニック株式会社 (73,050)
【Fターム(参考)】
【公開日】平成24年8月16日(2012.8.16)
【国際特許分類】
【出願日】平成23年1月27日(2011.1.27)
【出願人】(000005821)パナソニック株式会社 (73,050)
【Fターム(参考)】
[ Back to top ]