説明

携帯端末、入力受付方法およびプログラム

【課題】落下させてしまう危険性を増大させることなく、片手での入力操作を可能にする。
【解決手段】画像を表示する表示部と、表示部に積層され、物体が接触または近接した位置を検知する入力部と、傾きを検出する傾き検出部と、入力部にて検知された位置に基づき、その位置に対応する表示部に表示された画像を選択画像として認識した後、認識した選択画像と、傾き検出部にて検出された傾きの変化とに応じた動作を実行する制御部とを有する

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、表示部と表示部に積層された入力部とを有する携帯端末、入力受付方法およびプログラムに関する。
【背景技術】
【0002】
近年、携帯ゲーム機やスマートフォン等、タッチパネルを備えた携帯端末が普及してきている。タッチパネルは、画像を表示する表示部としての機能とともに、その表示部に積層され、携帯端末の操作者からの入力を受け付ける入力部としての機能を有している。
【0003】
タッチパネルを備えた携帯端末の操作者は、指等の物体でタッチパネルを構成する表示部に接触することで、その携帯端末に文字を入力する等の入力操作を行う。
【0004】
図6は、携帯端末の操作者がその携帯端末に文字を入力する際に用いる画像の一例を示す図であり、(a)は複数の代表画像の一例を示す図、(b)は(a)に示した複数の代表画像のうち「あ」を示す代表画像に携帯端末の操作者が指等の物体で接触したときの状態を示す図である。
【0005】
なお、代表画像とは、50音の各行の最初の文字を示す画像である。代表画像は、50音の各行の最初の文字だけではなく、文字として入力される複数の記号のそれぞれのうち、最初の文字として予め決められた文字を示す画像を含んでいてもよい。
【0006】
図6を参照しながら、携帯端末の操作者から「お」の入力を受け付けるときのその携帯端末の動作について説明する。
【0007】
まず、携帯端末の操作者は、タッチパネルを構成する表示部113に表示された「あ」〜「わ」のそれぞれを示す代表画像のうち「あ」を示す代表画像が表示された位置に指等の物体で接触する。
【0008】
「あ」を示す代表画像の位置に指等の物体が接触すると、携帯端末は、「あ」を示す代表画像を、選択された画像である選択画像として認識する。
【0009】
そして、携帯端末は図6(b)に示すように、表示部113において、選択画像として認識した「あ」を示す代表画像の周囲にあ行の「あ」以外の文字である「い」〜「お」のそれぞれを示す4つの画像を表示させる。
【0010】
次に、携帯端末の操作者は、指等の物体を、表示部113上で弾くようにして「お」を示す画像が表示された方向へ向けて素早く移動させる。このような動作のことをフリック動作という。すると、携帯端末は、「お」を示す画像が示す文字を、入力された入力文字として認識する。
【0011】
そして、携帯端末は、入力文字として認識した「お」を、表示部113において入力文字表示エリア151に表示させる。
【0012】
なお、このような方法で文字を入力するための技術が例えば、特許文献1に開示されている。
【0013】
また、タッチパネルを備えた携帯端末を用いた文字入力の他の例としては、携帯端末の操作者が、「あ」を示す代表画像が表示された位置を指等の物体で4回タップすることで、携帯端末が「お」を入力文字として認識する方法もある。
【先行技術文献】
【特許文献】
【0014】
【特許文献1】特表2005−535975号公報
【発明の概要】
【発明が解決しようとする課題】
【0015】
携帯端末の操作者が、その携帯端末を片手で保持しつつ、上述したような方法で入力操作を行う場合、操作者は、表示部上で親指を動かすことになり、携帯端末を確実に保持することができなくなる。この場合、携帯端末を落下させてしまう危険性が増大してしまうという問題点がある。
【0016】
本発明は、落下させてしまう危険性を増大させることなく、片手での入力操作を可能にする携帯端末、入力受付方法およびプログラムを提供することを目的とする。
【課題を解決するための手段】
【0017】
上記目的を達成するために本発明の携帯端末は、
画像を表示する表示部と、
前記表示部に積層され、物体が接触または近接した位置を検知する入力部と、
傾きを検出する傾き検出部と、
前記入力部にて検知された位置に基づき、当該位置に対応する前記表示部に表示された画像を選択画像として認識した後、該認識した選択画像と、前記傾き検出部にて検出された傾きの変化とに応じた動作を実行する制御部と、を有する。
【0018】
また、上記目的を達成するために本発明の入力受付方法は、画像を表示する表示部と、前記表示部に積層され、物体が接触または近接した位置を検知する入力部とを有する携帯端末における入力受付方法であって、
前記入力部にて検知された位置に基づき、当該位置に対応する前記表示部に表示された画像を選択画像として認識する処理と、
傾きを検出する処理と、
前記認識した選択画像と、前記検出した傾きの変化とに応じた動作を実行する受付処理と、を有する。
【0019】
また、上記目的を達成するために本発明のプログラムは、画像を表示する表示部と、前記表示部に積層され、物体が接触または近接した位置を検知する入力部とを有する携帯端末に、
前記入力部にて検知された位置に基づき、当該位置に対応する前記表示部に表示された画像を選択画像として認識する機能と、
傾きを検出する機能と、
前記認識した選択画像と、前記検出した傾きの変化とに応じた動作を実行する受付機能と、を実現させる。
【発明の効果】
【0020】
本発明は以上説明したように構成されているので、落下させてしまう危険性を増大させることなく、片手での入力操作が可能となる。
【図面の簡単な説明】
【0021】
【図1】本発明の携帯端末の外観を示す斜視図である。
【図2】本発明の携帯端末の実施の一形態の構成を示すブロック図である。
【図3】図1に示した表示部に表示される、操作者が携帯端末に文字を入力する際に用いる画像の一例を示す図であり、(a)は複数の代表画像の一例を示す図、(b)は(a)に示した代表画像のうち「あ」を示す代表画像に操作者が指等の物体で接触したときの状態を示す図である。
【図4】図2に示した制御部が記憶している第1〜第4の方向を説明するための図である。
【図5】図1〜図4に示した携帯端末が操作者からの文字入力を受け付けるときの動作を説明するためのフローチャートである。
【図6】携帯端末の操作者がその携帯端末に文字を入力する際に用いる画像の一例を示す図であり、(a)は複数の代表画像の一例を示す図、(b)は(a)に示した複数の代表画像のうち「あ」を示す代表画像に携帯端末の操作者が指等の物体で接触したときの状態を示す図である。
【発明を実施するための形態】
【0022】
以下に、本発明の実施の形態について図面を参照して説明する。
【0023】
図1は、本発明の携帯端末の外観を示す斜視図である。また、図2は、本発明の携帯端末の実施の一形態の構成を示すブロック図である。
【0024】
本実施形態の携帯端末10は図1に示すように、表示部13を備えている。携帯端末10の操作者(以降、単に操作者という)は、携帯端末10を保持して携帯端末10を任意の方向に傾けることができる。
【0025】
図1に示した携帯端末10は図2に示すように、制御部11と、入力部12と、上述した表示部13と、傾き検出部14とを備えている。
【0026】
表示部13は、制御部11からの指示に応じ、画像を表示する。具体的には例えば、表示部13は、操作者が携帯端末10に文字を入力する際に用いる画像を表示する。
【0027】
図3は、図1に示した表示部13に表示される、操作者が携帯端末10に文字を入力する際に用いる画像の一例を示す図であり、(a)は複数の代表画像の一例を示す図、(b)は(a)に示した代表画像のうち「あ」を示す代表画像に操作者が指等の物体で接触したときの状態を示す図である。
【0028】
図3に示した複数の代表画像52のそれぞれは、上述したのと同様に、50音の各行の最初の文字を示す画像である。なお、図3(b)に示した関連画像53については後述する。
【0029】
また、図3に示した終了用画像54は、操作者が携帯端末10への文字の入力の終了を指示する際に用いる画像である。
【0030】
再度、図2を参照すると、入力部12は、表示部13に積層されており、操作者が指等の物体で表示部13に接触すると、その接触および接触した表示部13上の位置を検知する。そして、入力部12は、検知した位置を示す接触情報を制御部11へ出力する。また、入力部12は、接触を検知した後、その接触がなくなったことを検知すると、その旨を示す非接触情報を制御部11へ出力する。
【0031】
制御部11は、表示部13に表示させた画像の表示部13における表示位置を記憶している。例えば、図3(a)に示した画像が表示部13に表示されている場合、制御部11は、複数の代表画像52のそれぞれを表示させた表示部13における表示位置を記憶している。また、制御部11は、終了用画像54の表示部13における表示位置を記憶している。また、制御部11は、入力部12から出力された接触情報を受け付ける。そして、制御部11は、表示部13に表示された画像と、受け付けた接触情報が示す位置とに応じた動作を実行する。例えば、図3(a)に示した画像が表示部13に表示されている場合、受け付けた接触情報が示す位置が、複数の代表画像52のそれぞれの表示部13における表示位置のいずれかである場合、制御部11は、その代表画像を、選択された画像である選択画像として認識する。そして、制御部11は、選択画像として認識した代表画像の表示形態を変更させる。具体的には例えば、制御部11は、「あ」を示す代表画像を選択画像として認識した場合、図3(b)に示したように、「あ」を示す代表画像を表示部13において反転表示させる。これにより、操作者は、自身が選択している文字を確認することができる。また、制御部11は、代表画像と、代表画像に関連付けられた関連画像との間の表示部13における表示位置の関係を表すものとして第1〜第4の方向を記憶している。なお、関連画像は、例えば代表画像が「あ」を示す画像である場合、「あ」行の「あ」以外の文字である「い」〜「お」のそれぞれを示す4つの画像である。
【0032】
図4は、図2に示した制御部11が記憶している第1〜第4の方向を説明するための図である。
【0033】
図2に示した制御部11は図4に示すように、表示部13において図中下から上の方向を第1の方向として記憶している。同様に、制御部11は、表示部13において図中上から下の方向を第3の方向として記憶している。同様に、制御部11は、表示部13において図中左から右の方向を第2の方向として記憶している。同様に、制御部11は、表示部13において図中右から左の方向を第4の方向として記憶している。
【0034】
そして、制御部11は、例えば「あ」を示す代表画像を選択画像として認識した場合、表示部13において、「あ」を示す代表画像の周囲に「い」〜「お」のそれぞれを示す4つの関連画像のそれぞれを記憶させる。具体的には、制御部11は、「あ」を示す代表画像の第1〜第4の方向のそれぞれに、「い」〜「お」のそれぞれを示す4つの関連画像のそれぞれを表示させる。そして、制御部11は、第1〜第4の方向のうち「い」〜「お」のそれぞれを示す4つの関連画像のそれぞれを表示させた方向を、その関連画像と対応付けて記憶する。図4を参照すると、例えば「い」を示す関連画像は、第1の方向と対応付けられる。同様に例えば、「お」を示す関連画像は、第4の方向と対応付けられる。ここで、例えば、や行や、わ行の場合、その行の最初の文字以外の文字は4文字よりも少なくなる。制御部11は、例えば「や」を示す代表画像を選択画像として認識した場合、表示部13において、「ゆ」を示す関連画像を例えば第2の方向に表示させ、「よ」を示す関連画像を例えば第4の方向に表示させる。その後、制御部11は、後述する傾き検出部14から出力された方向情報を受け付けると、認識している選択画像に代えて、受け付けた方向情報に対応付けられた関連画像を新たな選択画像として認識する。なお、方向情報は、上述した第1〜第4の方向のいずれかを示す情報である。具体的には例えば、制御部11は、「あ」を示す代表画像を選択画像として認識している場合、受け付けた方向情報が示す方向が第1の方向であると、「あ」を示す代表画像に代えて、第1の方向と対応付けられた「い」を示す関連画像を新たに選択画像として認識する。ここで、関連画像を選択画像として認識した場合、制御部11は、第1〜第4の方向のうちその関連画像からの代表画像の方向を代表画像と対応付けて記憶する。具体的には例えば、図4を参照すると、制御部11は、「い」を示す関連画像を選択画像として認識した場合、「い」を示す関連画像からの「あ」を示す代表画像の方向である第3の方向と、「あ」を示す代表画像とを対応付けて記憶する。そして、制御部11は、「い」を示す関連画像を選択画像として認識しているときに、受け付けた方向情報が示す方向が第3の方向である場合、「い」を示す関連画像に代えて、第3の方向と対応付けられた「あ」を示す代表画像を新たに選択画像として認識する。なお、「い」を示す関連画像を選択画像として認識しているときに、受け付けた方向情報が示す方向が第3の方向以外の方向である場合、受け付けた方向情報が示す方向と、代表画像とが対応付けられていないことになる。この場合には、制御部11は、選択画像として認識している「い」を示す関連画像をそのまま新たな選択画像として認識するようにすればよい。また、制御部11は、選択画像を認識しているときに、入力部12から出力された非接触情報を受け付けると、選択画像として認識している代表画像または関連画像のいずれかが示す文字を、入力された入力文字として認識する。そして、制御部11は、入力文字として認識した文字を、図3に示した入力文字表示エリア51に表示させる。
【0035】
傾き検出部14は、例えばジャイロセンサーを備えており、携帯端末10の傾きとともに傾きの変化を検出する。そして、傾き検出部14は、検出した変化に応じ、上述した第1〜第4の方向のいずれかを携帯端末10が傾けられた方向として決定する。そして、傾き検出部14は、決定した方向を示す方向情報を制御部11へ出力する。
【0036】
以下に、上記のように構成された携帯端末10が操作者からの入力操作を受け付ける動作について説明する。ここでは、携帯端末10が操作者からの文字入力を受け付けるときの動作について説明する。
【0037】
図5は、図1〜図4に示した携帯端末10が操作者からの文字入力を受け付けるときの動作を説明するためのフローチャートである。ここでは、図3(a)に示した画像が表示部13に表示されているところから説明する。
【0038】
まず、操作者は、指等の物体で表示部13に接触する。
【0039】
入力部12は、その接触および接触した表示部13上の位置を検知する(ステップS1)。
【0040】
そして、入力部12は、検知した位置を示す接触情報を制御部11へ出力する。
【0041】
入力部12から出力された接触情報を受け付けた制御部11は、受け付けた接触情報が示す位置が、終了用画像54の表示部13における表示位置であるかどうかを確認する。すなわち、制御部11は、文字入力の終了の指示を受け付けたかどうかを確認する(ステップS2)。
【0042】
ステップS2における確認の結果、受け付けた接触情報が示す位置が、終了用画像54の表示部13における表示位置である場合、制御部11は、文字入力を受け付ける処理を終了する。
【0043】
一方、ステップS2における確認の結果、受け付けた接触情報が示す位置が、終了用画像54の表示部13における表示位置でない場合、制御部11は、受け付けた接触情報が示す位置が、複数の代表画像52のそれぞれの表示部13における表示位置のいずれかであるかどうかを確認する。すなわち、制御部11は、複数の代表画像のいずれかが選択されたかどうかを確認する(ステップS3)。
【0044】
ステップS3における確認の結果、受け付けた接触情報が示す位置が、複数の代表画像52のそれぞれの表示部13における表示位置のいずれでもない場合、ステップS1の動作へ遷移する。
【0045】
一方、ステップS3における確認の結果、受け付けた接触情報が示す位置が、複数の代表画像52の表示部13における表示位置のいずれかである場合、制御部11は、その代表画像を選択画像として認識する(ステップS4)。以降の説明では、操作者は、表示部13上の「あ」を示す代表画像が表示された位置に指等の物体で接触したものとする。従って、ここでは、制御部11は、「あ」を示す代表画像を選択画像として認識することになる。
【0046】
次に、制御部11は、選択画像として認識した「あ」を示す代表画像を表示部13において反転表示させる(ステップS5)。
【0047】
次に、制御部11は、表示部13において、「あ」を示す代表画像の第1〜第4の方向のそれぞれに、「い」〜「お」のそれぞれを示す4つの関連画像のそれぞれを表示させる(ステップS6)。
【0048】
次に、制御部11は、第1〜第4の方向のうち「い」〜「お」のそれぞれを示す4つの関連画像のそれぞれを表示させた方向を、その関連画像と対応付けて記憶する。
【0049】
そして、制御部11は、入力部12から出力された非接触情報を受け付けたかどうかを確認する(ステップS7)。
【0050】
ステップS7における確認の結果、入力部12から出力された非接触情報を受け付けた場合、制御部11は、選択画像が示す文字を入力文字として認識する(ステップS8)。
【0051】
そして、制御部11は、入力文字として認識した文字を、図3に示した入力文字表示エリア51に表示させる(ステップS9)。そして、ステップS1の動作へ遷移する。
【0052】
一方、ステップS7における確認の結果、入力部12から出力された非接触情報を受け付けていない場合、制御部11は、傾き検出部14から出力された方向情報を受け付けたかどうかを確認する(ステップS10)。
【0053】
ステップS10における確認の結果、傾き検出部14から出力された方向情報を受け付けていない場合、ステップS7の動作へ遷移する。
【0054】
一方、ステップS10における確認の結果、傾き検出部14から出力された方向情報を受け付けた場合、制御部11は、認識している選択画像に代えて、受け付けた方向情報が示す方向に対応付けられた代表画像または関連画像を新たな選択画像として認識する(ステップS11)。
【0055】
次に、制御部11は、新たに選択画像として認識した代表画像または関連画像を表示部13において反転表示させる(ステップS12)。そして、ステップS7の動作へ遷移する。
【0056】
このように本実施形態において携帯端末10は、表示部13と、表示部13に積層され、物体が接触または近接した位置を検知する入力部12と、傾きを検出する傾き検出部14とを備えている。
【0057】
また、携帯端末10は、入力部12にて検知された位置に基づき、その位置に対応する表示部13に表示された画像を選択画像として認識した後、認識した選択画像と、傾き検出部14にて検出された傾きの変化とに応じた動作を実行する。
【0058】
これにより、落下させてしまう危険性を増大させることなく、片手での入力操作が可能となる。
【0059】
なお、上述した第1および第2の実施形態において、入力部12は指等の物体の接触を検知するものとして説明したが、入力部12は指等の物体の近接を検知するものであってもよい。
【0060】
また、本実施形態においては、傾き検出部14が、携帯端末10の傾きの変化を検出し、検出した変化に応じ、携帯端末10が傾けられた方向を決定する場合について説明した。携帯端末10の傾きの変化を検出し、検出した変化に応じ、携帯端末10が傾けられた方向を決定する動作は、このようなものに限定されない。
【0061】
一例としては、傾き検出部14が、携帯端末10の傾きだけを検出し、検出した傾きを示す傾き情報を制御部11へ出力する。傾き検出部14から出力された傾き情報を受け付けた制御部11は、例えば、この傾き情報が示す傾きと、この傾き情報を受け付ける前に受け付けた傾き情報が示す傾きとを比較することで携帯端末10の傾きの変化を検出する。そして、制御部11は、検出した変化に応じ、携帯端末10が傾けられた方向を決定する。
【0062】
また、本発明においては、携帯端末内の処理は上述の専用のハードウェアにて実現されるもの以外に、その機能を実現するためのプログラムを携帯端末にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを携帯端末に読み込ませ、実行するものであっても良い。携帯端末にて読取可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、DVD、CDなどの移設可能な記録媒体の他、携帯端末に内蔵されたHDDなどを指す。
【符号の説明】
【0063】
10 携帯端末
11 制御部
12 入力部
13 表示部
14 傾き検出部
51 入力文字表示エリア
52 代表画像
53 関連画像
54 終了用画像

【特許請求の範囲】
【請求項1】
画像を表示する表示部と、
前記表示部に積層され、物体が接触または近接した位置を検知する入力部と、
傾きを検出する傾き検出部と、
前記入力部にて検知された位置に基づき、当該位置に対応する前記表示部に表示された画像を選択画像として認識した後、該認識した選択画像と、前記傾き検出部にて検出された傾きの変化とに応じた動作を実行する制御部と、を有する携帯端末。
【請求項2】
請求項1に記載の携帯端末において、
前記傾き検出部は、傾きの方向を決定し、
前記制御部は、前記表示部において、前記認識した選択画像の周囲に、当該選択画像に関連する関連画像を表示させ、その後、前記傾き検出部にて傾きの方向が決定されると、前記表示部において当該選択画像の前記決定された方向に表示された関連画像を、当該選択画像に代えて新たな選択画像として認識する携帯端末。
【請求項3】
請求項2に記載の携帯端末において、
前記選択画像として認識される画像は、文字を示す画像であり、
前記入力部は、前記物体の接触または近接がなくなったことを検知し、
前記制御部は、前記選択画像を認識した後、前記入力部にて前記物体の接触または近接がなくなったことが検知されると、当該選択画像が示す文字を当該携帯端末に入力された文字として認識する携帯端末。
【請求項4】
画像を表示する表示部と、前記表示部に積層され、物体が接触または近接した位置を検知する入力部とを有する携帯端末における入力受付方法であって、
前記入力部にて検知された位置に基づき、当該位置に対応する前記表示部に表示された画像を選択画像として認識する処理と、
傾きを検出する処理と、
前記認識した選択画像と、前記検出した傾きの変化とに応じた動作を実行する受付処理と、を有する入力受付方法。
【請求項5】
請求項4に記載の入力受付方法において、
傾きの方向を決定する傾き決定処理をさらに有し、
前記受付処理は、
前記表示部において、前記認識した選択画像の周囲に、当該選択画像に関連する関連画像を表示させる処理と、
前記傾き決定処理にて傾きの方向が決定されると、前記表示部において当該選択画像の前記決定された方向に表示された関連画像を、当該選択画像に代えて新たな選択画像として認識する処理と、を含む入力受付方法。
【請求項6】
請求項5に記載の入力受付方法において、
前記選択画像として認識される画像は、文字を示す画像であり、
前記入力部が、前記物体の接触または近接がなくなったことを検知する処理と、
前記選択画像を認識した後、前記入力部にて前記物体の接触または近接がなくなったことが検知されると、当該選択画像が示す文字を当該携帯端末に入力された文字として認識する処理と、さらに有する入力受付方法。
【請求項7】
画像を表示する表示部と、前記表示部に積層され、物体が接触または近接した位置を検知する入力部とを有する携帯端末に、
前記入力部にて検知された位置に基づき、当該位置に対応する前記表示部に表示された画像を選択画像として認識する機能と、
傾きを検出する機能と、
前記認識した選択画像と、前記検出した傾きの変化とに応じた動作を実行する受付機能と、を実現させるためのプログラム。
【請求項8】
請求項7に記載のプログラムにおいて、
前記携帯端末に、傾きの方向を決定する傾き決定機能をさらに実現させ、
前記受付機能は、
前記表示部において、前記認識した選択画像の周囲に、当該選択画像に関連する関連画像を表示させる機能と、
前記傾き決定機能にて傾きの方向が決定されると、前記表示部において当該選択画像の前記決定された方向に表示された関連画像を、当該選択画像に代えて新たな選択画像として認識する機能と、を含むプログラム。
【請求項9】
請求項8に記載のプログラムにおいて、
前記選択画像として認識される画像は、文字を示す画像であり、
前記携帯端末に、
前記入力部が、前記物体の接触または近接がなくなったことを検知する機能と、
前記選択画像を認識した後、前記入力部にて前記物体の接触または近接がなくなったことが検知されると、当該選択画像が示す文字を当該携帯端末に入力された文字として認識する機能と、をさらに実現させるためのプログラム。

【図1】
image rotate

【図2】
image rotate

【図5】
image rotate

【図3】
image rotate

【図4】
image rotate

【図6】
image rotate


【公開番号】特開2013−58024(P2013−58024A)
【公開日】平成25年3月28日(2013.3.28)
【国際特許分類】
【出願番号】特願2011−195113(P2011−195113)
【出願日】平成23年9月7日(2011.9.7)
【出願人】(310006855)NECカシオモバイルコミュニケーションズ株式会社 (1,081)
【Fターム(参考)】