デュアル・デジタル・センサを備えた立体画像および映像キャプチャ・デバイスと、それを用いた方法
【課題】立体画像表示のための立体画像を生成する装置とその構成を提供する。
【解決手段】第1の画像センサと、第1の画像センサと離れて配置された第2の画像センサと、第1および第2の画像センサからの画像データを合成するダイバーシティ合成モジュールと、ダイバーシティ合成モジュールからの合成画像データを処理するように構成された画像処理モジュールとを備えることにより、立体画像表示のための立体画像を生成する装置を構成する。
【解決手段】第1の画像センサと、第1の画像センサと離れて配置された第2の画像センサと、第1および第2の画像センサからの画像データを合成するダイバーシティ合成モジュールと、ダイバーシティ合成モジュールからの合成画像データを処理するように構成された画像処理モジュールとを備えることにより、立体画像表示のための立体画像を生成する装置を構成する。
【発明の詳細な説明】
【関連出願】
【0001】
本願は、2006年7月25日に出願され、"MOBILE DEVICE WITH DUAL DIGITAL CAMERA SENSORS AND METHODS OF USING THE SAME"と題され、その全体が参照によって本明細書に組み込まれ、本願ともに譲渡された米国特許出願(代理人整理番号061170)に関連する。
【技術分野】
【0002】
本願は、電子デバイスに関し、さらに詳しくは、デュアル・デジタル・センサを備えた立体画像および映像キャプチャ・デバイスと、それを用いた方法に関する。
【背景技術】
【0003】
例えばセルラ電話のようないくつかのモバイル・デバイスは、画像をキャプチャするためのセンサを持つことができる。
【発明の概要】
【0004】
1つの局面は、第1の画像センサと、第1の画像センサと離れて配置された第2の画像センサと、第1の画像センサおよび第2の画像センサからの画像データを合成するダイバーシティ合成モジュールと、ダイバーシティ合成モジュールから得られた合成画像データを処理するように構成された画像処理モジュールとを備えた装置に関する。
【0005】
他の局面は、第1の画像センサを用いて第1の画像を検知することと、第1の画像センサから離れて配置された第2の画像センサを用いて第2の画像を検知することと、第1の画像センサおよび第2の画像センサからの画像データをダイバーシティ合成することと、立体画像を生成するために、合成された画像データを処理することとを備えた方法に関する。
【0006】
1または複数の実施形態の詳細は、添付図面および以下の記述で述べられる。
【図面の簡単な説明】
【0007】
【図1】図1は、2またはそれ以上のカメラ・センサを備えたモバイル・デバイスを例示している。
【図2A】図2Aは、単一の視点Vがカメラ・センサの位置である場合における画像平面P1’およびP2’に投影された2つの対象ポイントP1およびP2を例示している。
【図2B】図2Bは、左側Vと右側Vとが、2つのカメラ・センサの位置である場合における右側画像平面P1r’、P2r’および左側画像平面P1l’、P2l’の2つの対象ポイントP1およびP2の投射投影を例示している。
【図3】図3は、図1のデバイスにおけるカメラ処理パイプラインの一例を例示している。
【図4】図4は、図1のデバイスによって実行されうる立体映像処理フローチャートを例示している。
【図5】図5は、図1のデバイスの2つのセンサによって見られる画像の一例を例示する。
【図6】図6は、図1のデバイスの2つのセンサ・コントローラのフローチャートを例示する。
【図7A】図7Aは、水平距離によって分離された2つのセンサからのキャプチャされた画像の例を例示する。
【図7B】図7Bは、水平距離によって分離された2つのセンサからのキャプチャされた画像の例を例示する。
【図7C】図7Cは、図7Aおよび図7Bの左目視点および右目視点から構成された3−D画像を示す。
【図8A】図8Aは、水平距離によって分離された2つのセンサからのキャプチャされた画像の例を例示する。
【図8B】図8Bは、水平距離によって分離された2つのセンサからのキャプチャされた画像の例を例示する。
【図8C】図8Cは、図8Aおよび図8Bの左目視点および右目視点から構築された3−D画像を示す。
【図9】図9は、2またはそれ以上のセンサを備えたモバイル・デバイスの別の構成を例示する。
【図10】図10は、図9のデバイスを用いた映像モード処理の方法を例示する。
【発明を実施するための形態】
【0008】
(投射図法)
図2Aに示されるように、カメラは投射投影を行なうことにより画像をキャプチャする。図2Aは、単一の視点Vがカメラ・センサの位置である場合における画像平面P1’およびP2’に投影された2つの対象ポイントP1およびP2を例示している。
【0009】
深さ方向を知覚することができる人間の視覚体系を模擬するために、2つのカメラ・センサを備えたデバイスが、図2Bに示すように、右目および左目のビューをキャプチャすることができる。図2Bは、左側Vと右側Vとが、2つのカメラ・センサの位置である場合における右側画像平面P1r’、P2r’および左側画像平面P1l’、P2l’の2つの対象ポイントP1およびP2の投射投影を例示している。画像平面上における対象の投射の差分は、立体画像としての深さ方向の感知に相当する。
【0010】
図7A−7Bおよび図8A−8Bは、約6cmの水平距離によって分離された2つのセンサからのキャプチャされた画像の例を例示する。図7Cおよび図8Cは、下記に述べられるように、図7A−7Bおよび図8A−8Bからの左目視点および右目視点から構築された3−D画像を示す。
【0011】
(3−D立体画像および映像)
知覚的なリアリズムを高めることは、次世代のマルチメディア開発を駆り立てる要因となった。急速に成長しているマルチメディア通信市場およびエンタテイメント市場は、立体画像キャプチャ、処理、圧縮、配信、および表示をカバーする3次元(3−D)(立体または立体的とも称される)画像技術および映像技術を用いることができる。
【0012】
立体(stereo)画像と単一(mono)画像との間の主な相違は、前者が、シーン内における対象の距離と、3次元の感覚とを与えることである。人間の視覚は、本質的には、異なる投射視点にある左目と右目によって見られる両目を用いた視点によって、立体的である。我々の脳は、立体的な深さのある画像を合成することができる。
【0013】
マルチメディア・デバイスは、モノスコピックなインフラストラクチャで実現されうる。モノスコピックなカメラは、立体画像をキャプチャして生成することができる。モノスコピックなカメラは、立体画像を生成するために、深さ情報を検出および推定する自動焦点処理からの統計情報を用いることができる。
【0014】
(デュアル・センサを備えたデバイス)
デュアル・センサを備えたデバイスに関し、例えば、増加したデータ処理の計算上の複雑さ、電力消費、これらセンサの位置および解像度の設定のような多くの問題がある。カメラ電話のようなデバイスは、固定位置に2つの画像センサを有しうる。すなわち、2つのセンサは、移動することができない。2つのセンサは、例えば異なる解像度を持つ1次センサおよび2次センサのように、別々に設定され、取り扱われうる。低解像度センサが、映像をキャプチャするために使用される一方、高解像度センサが、静止画像をキャプチャするために使用されうる。下記に述べられるように、2つのセンサから得られた画像は、ともに合成あるいは処理されうる。
【0015】
デュアル・センサ・カメラ電話は、立体画像または立体映像をキャプチャおよび生成するために、正確なビューを得ることができる。デュアル・カメラ・センサ・モバイル・デバイスのコストは、1つのセンサを持つデバイスとほぼ同じほどに低減されうる。以下の記述は、高品質立体画像/映像キャプチャおよび立体画像合成を可能にするデュアル・カメラ・センサ・モバイル・デバイスあるいは立体画像システムを説明する。
【0016】
図1は、3−D立体画像および映像をキャプチャして処理するように構成された、デュアル・デジタル・カメラ・センサ132、134を備えたモバイル・デバイス130を例示する。一般に、モバイル・デバイス130は、デジタル画像および/または映像シーケンスをキャプチャし、生成し、処理し、修正し、スケールし、符号化し、復号し、送信し、格納し、表示するように構成されうる。このデバイス130は、高品質立体画像キャプチャ、様々なセンサ位置、視点角度ミスマッチ補償、および、立体画像の処理および合成のための効率的なソリューションを提供することができる。
【0017】
モバイル・デバイス130は、無線通信デバイス、携帯情報端末(PDA)、ハンドヘルド・デバイス、ラップトップ・コンピュータ、デスクトップ・コンピュータ、デジタル・カメラ、デジタル記録デバイス、ネットワーク対応デジタル・テレビ、モバイル電話、セルラ電話、衛星電話、カメラ電話、地上ベースの無線電話、ダイレクト双方向通信デバイス(しばしば、「ウォーキー・トーキー」と称される)、カムコーダ等で実現されうる。
【0018】
モバイル・デバイス130は、第1のセンサ132、第2のセンサ134、第1のカメラ・インタフェース136、第2のカメラ・インタフェース148、第1のバッファ138、第2のバッファ150、メモリ146、ダイバーシティ合成モジュール140(あるいはエンジン)、カメラ処理パイプライン142、第2のメモリ154、3−D画像用ダイバーシティ合成コントローラ152、モバイル・ディスプレイ・プロセッサ(MDP)144、ビデオ・エンコーダ156、静止画像エンコーダ158、ユーザ・インタフェース120、およびトランシーバ129を含みうる。図1に示される構成要素に加えて、あるいはそれらの構成要素の代わりに、モバイル・デバイス130は、その他の構成要素を含むことができる。図1のアーキテクチャは、単に一例である。本明細書に記述された機能および技術は、その他様々なアーキテクチャで実現されうる。
【0019】
センサ132、134は、デジタル・カメラ・センサでありうる。センサ132、134は、同様または異なる物理構造を有しうる。センサ132、134は、同様にまたは異なって設定されたセッティングを有しうる。センサ132、134は、静止画像スナップショットおよび/または映像シーケンスをキャプチャすることができる。各センサは、個々のセンサまたはセンサ要素の表面に配置されたカラー・フィルタ・アレイ(CFA)を含むことができる。
【0020】
メモリ146、154は、個別かもしれないしあるいは統合されうる。メモリ146、154は、処理前および処理後の画像シーケンスまたは映像シーケンスを格納することができる。メモリ146、154は、揮発性記憶装置および/または不揮発性記憶装置を含みうる。メモリ146、154は、例えばダイナミック・ランダム・アクセス・メモリ(DRAM)、フラッシュ・メモリまたはNANDゲート・メモリ、あるいはその他任意のデータ記憶技術のような任意のタイプのデータ記憶手段を備えることができる。
【0021】
カメラ処理パイプライン142(エンジン、モジュール、処理ユニット、ビデオ・フロント・エンド(VFE)等とも称される)は、ハードウェア、ソフトウェア、ファームウェア、および/または1または複数のマイクロプロセッサ、デジタル信号プロセサ(DSP)、特定用途向けIC(ASIC)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、あるいはこれらの様々な組み合わせを含むモバイル電話用チップ・セットを備えうる。このパイプライン142は、画像シーケンスおよび/または映像シーケンスの品質を改善するために、1または複数の画像処理技術を実行することができる。下記に述べられるように、図3は、図1のカメラ処理パイプライン142の一例を例示している。
【0022】
ビデオ・エンコーダ156は、デジタル・ビデオ・データの符号化(すなわち圧縮)および復号(すなわち解凍)のためのエンコーダ/デコーダ(コーデック)を備えることができる。ビデオ・エンコーダ156は、MPEGまたはH.264のような、1または複数の符号化/復号規格またはフォーマットを使用することができる。
【0023】
静止画像エンコーダ158は、画像データの符号化(すなわち圧縮)および復号(すなわち解凍)のためのエンコーダ/デコーダ(コーデック)を備えることができる。静止画像エンコーダ158は、例えばJPEGのような1または複数の符号化/復号規格またはフォーマットを使用することができる。
【0024】
トランシーバ129は、符号化された画像シーケンスまたは映像シーケンスを受信して、別のデバイスまたはネットワークに送信することができる。トランシーバ129は、符号分割多元接続(CDMA)のような無線通信規格を使用することができる。CDMA規格の例は、CDMA 1x エボリューション・データ・オプティマイズド(EV−DO)(3GPP2)、広帯域CDMA(WCDMA)(3GPP)等を含む。
【0025】
デバイス130は、2センサ・カメラ・アーキテクチャのための高度に最適化されたハードウェア・ソリューションを含みうる。そのコストは、単一センサ・カメラで使用されるエンジンとほぼ等しい。デュアル・カメラ・センサ・デバイス130内には、キャプチャされた画像および映像の高い視覚品質、および、低電力制約を提供するモジュールのセットが実装されうる。
【0026】
デバイス130は、3−D立体画像および映像が効率的に生成されるように、2つのセンサ138、150間の固定された水平距離を保つことができる。図1に示すように、2つのセンサ132、134は、水平距離で約6cm離れているが、6cmよりも遠いあるいは近いその他の距離もまた使用されうる。第1のセンサ132は、1次センサであり、第2のセンサ134は、2次センサでありうる。第2のセンサ134は、電力消費を低減するために、非立体モードに対しては停止されうる。
【0027】
2つのバッファ138、150は、例えば、2つのセンサ132、134からのピクセル・データの1行または1ラインのようなリアル・タイム・センサ入力データを格納することができる。センサ・ピクセル・データは、小さなバッファ138、150にオン・ラインで(つまりリアル・タイムで)入る。そして、センサ132とセンサ134(またはバッファ138とバッファ150)を切り換えることによって、ダイバーシティ合成モジュール140および/またはカメラ・エンジン・パイプライン・エンジン142によって、オフラインで処理される。ダイバーシティ合成モジュール140および/またはカメラ・エンジン・パイプライン・エンジン142は、1つのセンサのデータ・レートの約2倍の速度で動作することができる。出力データ帯域幅およびメモリ要求を低減するために、立体画像および映像が、カメラ・エンジン142内で整えられる。
【0028】
ダイバーシティ合成モジュール140は、まず、第1のバッファ138からのデータを選択する。バッファ138の1行の終わりに、ダイバーシティ合成モジュール140は、第2のセンサ134からデータを得るために、第2のバッファ150に切り換えることができる。ダイバーシティ合成モジュール140は、第2のバッファ150からのデータの1行の終わりに、第1のバッファ138に切り換えることができる。
【0029】
処理電力およびデータ・トラフィック帯域幅を低減するために、映像モードにあるセンサ画像データは、(第1のメモリ146をバイパスすることによって)バッファ138、150を経由して直接的にダイバーシティ合成モジュール140へ送られうる。一方、スナップショット(画像)処理モードの場合、センサ・データが、オフライン処理のために、メモリ146に保存されうる。さらに、低電力消費プロファイルのために、第2のセンサ134の電源がオフされ、カメラ・パイプライン駆動クロックを縮小することができる。
【0030】
(立体画像合成)
図7A−7Bおよび図8A−8Bは、水平距離で約6cm離された第1のセンサ132と第2のセンサ134(左目視点および右目視点)によってキャプチャされた画像の例を例示している。図7A−7Bおよび図8A−8Bは、(図1のデバイス130内、または、デバイス130からのデータを受信するその他幾つかのデバイス内の)自動立体画像(autostereoscopic)表示システムに直接的に渡される画像を示す。立体画像(stereoscopic)表示を見るためには、ユーザによって3−D眼鏡が使用されるべきである。これは、立体的なアプリケーションの効果を実演する。自動立体画像(autostereoscopic)と単なる立体画像(stereoscopic)との違いは、立体画像表示は、3−D眼鏡を必要とすることである。3−D眼鏡は、各目に対する正しい視点を選択的に可能にする。これら3−D眼鏡上のカラー・フィルタ(Anaglyph)の場合、左目視点のみが赤チャネル・データを含み、右目視点のみが緑チャネルおよび青チャネルを含む。図3のカメラ・プロセス処理パイプライン内のカラー・チャネル・マスク328は、未使用のチャネル・データを削除することができる。
【0031】
図7Cおよび図8Cは、図7A−7Bおよび図8A−8Bにおける2視点から構築された3−D立体画像(anaglyph)を例示する。
【0032】
(カメラ・パイプライン)
図3は、図1のカメラ処理パイプライン142の一例を例示する。例えば、このパイプライン142は、黒サブトラクト(subtract)モジュール300と、レンズ・ロール・オフ補正モジュール302と、チャネル利得モジュール304と、不良ピクセル補正またはノイズ低減モジュール306と、デモザイク・モジュール308と、統計データ収集モジュール310と、1−D Yマッピング・モジュール312と、視野(FOV:field of view)クロッピング・モジュール314と、スケール・モジュール316と、ホワイト・バランス・モジュール318と、色補正モジュール320と、皮膚色プロセッサ322、luma適応モジュール324と、赤/緑/青(RGB)ルック・アップ・テーブル(LUT)と、RGB−YCrCb色変換またはチャネル・マスク・モジュール328と、Y適応空間フィルタ(ASF:adaptive spatial filtering)モジュール330と、彩度サブ・モジュール332とを含むことができる。図3中で示されるモジュール/機能に加えて、あるいはそのモジュールの代わりに、パイプライン142は、他のモジュールおよび/または機能を含むことができる。パイプライン142の出力は、図1の第2のメモリ154に供給されうる。
【0033】
(垂直ミスマッチ・オフセット)
デバイス130は、2つの独立したセンサ132、134からキャプチャされた2つの画像の垂直ミスマッチを高信頼度で計算し、補償することができる。
【0034】
図5は、図1の2つのセンサ132、134によって見られた、すなわちキャプチャされた画像の一例を例示する。センサ132、134のおのおのの有効な行インデクスは、2つのセンサ132、134間に存在する“Yオフセット”と呼ばれる垂直ミスマッチ・オフセットに由来する。3−D画像用ダイバーシティ合成コントローラ152は、図6を用いて下記に示すようにして、Yオフセットを導出する。例えば、Yオフセット=5の場合、第1のセンサ132の有効な行インデクスは、5から(画像高さ−1)となり、第2のセンサ134については、0から(画像高さ−6)となる。あるいは、Yオフセット=−5の場合、第1のセンサ132の有効な行インデクスは、0から(画像高さ−6)となり、第2のセンサ134については、5から(画像高さ−1)となる。2つのセンサの出力データを使うために、単一のカメラVFEパイプライン142が、高クロック周波数で駆動されうる。
【0035】
Yオフセットを推定するために、Y 1−Dマッピング・モジュール312が、例えば、付録Aの擬似コードにおけるY SumSensor1[]およびY SumSensor2[]のような垂直方向1−Dマッピング・データを提供する。入力される行データは、第1のセンサ132および第2のセンサ134から交互に来るので、おのおのの行のY SumSensor1[]およびY SumSensor2[]は、フレームの最後において利用可能となるだろう。このY推定タスクがディセーブルされると、Y 1−Dマッピング・モジュール312は、電力消費を低減するためにディセーブルされる。
【0036】
チャンネル・マスク・モジュール328は、決まった画像および映像処理のために色変換を実行し、3−D画像の構築時において色チャネル・マスク・タスクを実行しうる。左目視点のみが赤チャネル・データを含み、右目視点が緑チャネルおよび青チャネルを含んでいるので、カメラ・エンジン142は、第1のセンサ行データに関する赤チャネル・データのみを送り出し、第2のセンサ行データに関する緑チャネル・データおよび青チャネル・データを送出する。したがって、立体画像の構築のための出力データ・トラフィック帯域幅、メモリ要求、および後処理タスクが低減されうる。
【0037】
(映像モード処理)
図4は、図1のデバイス130によって実行されうる立体映像処理フローチャートを例示する。立体画像処理は、図4の立体映像モード処理と同様の方法で実行されうる。ブロック400では、水平ピクセル・インデクスが、バッファ選択が第1のバッファ138(第1のセンサ・データ)であるか、第2のバッファ150(第2のセンサ・データ)であるかを決定する。ブロック402、406では、第1のバッファ138および第2のバッファ150からそれぞれピクセルが読み取られる。ブロック404、408では、有効なデータ基準について、垂直ピクセル・インデクス(yピクセル)が、Yオフセット(y_offset)と比較される。この有効なデータ基準は、第1のセンサ・データとも第2のセンサ・データとも異なる有効な行データは、ブロック410において、ダイバーシティ合成モジュール140へ送られ、その後、ブロック412において、カメラ・パイプライン・エンジン142に送られるだろう。ブロック414は、そのピクセルが最後のピクセルであるかを判定し、もし最後のピクセルでなければ、ブロック400に戻る。もし最後のピクセルであれば、処理された、第1のセンサ・データの赤チャネル・データと、第2のセンサ・データの緑チャネル・データおよび青チャネル・データとが、たとえばブロック418における表示や映像符号化のような更なる処理のために、メモリ154内に保存されるだろう(ブロック416)。
【0038】
(センサ・コントローラ)
位置の不正確さおよび視点角度のミスマッチによって、2つのセンサによってキャプチャされた画像間で、ある垂直方向のミスマッチ・オフセットが存在しうる。図5は、2つのセンサによってキャプチャされた画像間の垂直方向のオフセット(“Yオフセット”)を例示する。2つのセンサのコントローラ152は、共通のオーバラップ・エリアに位置する構築された画像を、垂直方向において調節することができる。(図4におけるブロック404および408によって、あるいは、図3におけるFOVクロッピング・モジュール314によって)画像の上端または下端をクロップ・アウトした後、「構築された画像の高さ」は、図5に示すように、「センサ画像高さ」からYオフセットを引いたものに等しい。
【0039】
図6は、図1中の2つのセンサ・コントローラ152のフローチャートを例示する。図6は、デバイス130に電源が投入された場合、あるいは、センサ位置が変わった場合にアクティブになる推定タスクを例示する。オフセットは垂直方向にしかないので、この提案された推定ソリューションは、(図3における1−D Yマッピング・モジュール312による)1−D Yマッピングによって行われ、その後、1−D相互相関がなされる。付録Aは、対応する擬似コードをリストしている。
【0040】
水平距離と、僅かな垂直距離とを持つ2つの画像が同時にキャプチャされるので、2つのシーンは、水平方向において非常に類似し、高く相関付けられる。したがって、この処理は、ロバストで効率的なターゲットを達成するために、1−D垂直マッピングおよび相互相関探索のみを用いる。
【0041】
ブロック602、606では、第1のセンサ132および第2のセンサ134が、データをキャプチャする。各行について蓄積されたlumaデータは、フレームの最後において利用可能である。ブロック604、608では、カメラ・パイプライン142が、図3の1−D Yマッピング・モジュール312による1−D Yマッピングを用いてセンサ・データを処理する。
【0042】
ブロック610では、図1におけるコントローラ152が、2つのセンサのYマッピング間の最大相関に対応するYオフセットを見つける。2つのセンサのYマッピング・データの相互相関は、図1のコントローラ152による後処理中に行われる。最大相互相関に対応するオフセットは、導出されたYオフセットである。垂直オフセットは、視点角度に依存して制限された値でありうる。その探索範囲もまた制限されうる。
【0043】
ブロック612では、立体画像処理の失敗を回避するために、最大相互相関が、図1におけるコントローラ152によって、しきい値と比較される。最大相互相関が、しきい値未満ではない場合、立体画像が正しく構築され、ブロック614において、ダイバーシティ合成のためのYオフセットが設定される。例えば、このしきい値は、第1のセンサYマッピング・データの自動相関の90%として設定されうる。言い換えれば、構築ステータスは、第1のセンサと第2のセンサとでオーバラップしている画像エネルギーが、第1のセンサ・データのエネルギーの90%に等しいか、それより大きい場合においてのみ正しい。最大相互相関がしきい値以下である場合、ブロック616に示すように、立体画像は、正しく構築されない。
【0044】
要約すると、デュアル・カメラ・センサ132、134を備えたデバイス130は、高品質な立体画像および映像のキャプチャを可能とする。例えばセンサ位置、視点角度ミスマッチ補償、および2つの視点の合成のような多くの問題に対処することができる。デバイス130は、デバイス130のコストが、単一のセンサを備えたカメラ電話で使用される処理エンジンとほぼ同じになるように、特定のアプリケーションの低電力制約を満足するように高度に最適化されている。一方、柔軟性がありかつ信頼性のある解決策は、高い視覚品質を保証するために、2つの独立したセンサ132、134からキャプチャされた2つの視点画像の垂直方向のミスマッチを計算し、補償することができる。
【0045】
(少なくとも1つのセンサが可動式である2つのセンサを備えたデバイス)
図9は、2またはそれ以上のセンサ102、104を備えたモバイル・デバイス100の別の構成を例示している。デバイス100は、上述した機能のうちの1または複数を実現するように構成されうる。モバイル・デバイス100は、デジタル画像および/または映像シーケンスをキャプチャ、生成、処理、修正、スケール、符号化、復号、送信、格納、および表示するように構成されうる。モバイル・デバイス100は、例えば、無線通信デバイス、携帯情報端末(PDA)、ラップトップ・コンピュータ、デスクトップ・コンピュータ、デジタル・カメラ、デジタル記録デバイス、ネットワーク対応のデジタル・テレビ、モバイル電話、セルラ電話、衛星電話、カメラ電話、地上ベースの無線電話、ダイレクト双方向通信デバイス(しばしば、「ウォーキー・トーキー」と称される)等のようなデバイス内に存在するか、あるいはこれらデバイスに実装されうる。
【0046】
モバイル・デバイス100は、第1のセンサ102、第2のセンサ104、センサ位置コントローラ106、カメラ処理パイプライン108、ディスプレイ110、ビデオ・エンコーダ112、静止画像エンコーダ114、メモリ116、カメラ・コントローラ118、ユーザ・インタフェース120、プロセッサ128、およびトランシーバ129を含みうる。図9に示す構成要素に加えて、あるいはその構成要素の代わりに、モバイル・デバイス100は他の構成要素を含むことができる。図9で示されたアーキテクチャは、単に一例である。本明細書に記述された特徴および技術は、その他様々なアーキテクチャを用いて実現されうる。
【0047】
センサ102、104は、デジタル・カメラ・センサでありうる。センサ102、104は、静止画像スナップショットおよび/または映像シーケンスをキャプチャすることができる。これらセンサはそれぞれ、個々のセンサまたはセンサ要素の表面に配置されたカラー・フィルタ・アレイ(CFA)を含みうる。
【0048】
メモリ116は、処理前および処理後の画像または映像シーケンスを格納することできる。メモリ116は、揮発性記憶装置および不揮発性記憶装置を含むことができる。メモリ116は、例えば、ダイナミック・ランダム・アクセス・メモリ(DRAM)、フラッシュ・メモリ、NORまたはNANDゲート・メモリ、またはその他任意のデータ記憶技術のような任意のタイプのデータ記憶手段を備えうる。
【0049】
(エンジン、モジュール、処理ユニット等とも呼ばれる)カメラ処理パイプライン108は、ハードウェア、ソフトウェア、ファームウェア、および/または、1または複数のマイクロプロセッサ、デジタル信号プロセサ(DSP)、特定用途向けIC(ASIC)、フィールドプログラマブル・ゲート・アレイ(FPGA)、あるいはこれらの様々な組み合わせを含む、モバイル電話のためのチップ・セットを備えうる。カメラ処理パイプライン108は、画像および/または映像シーケンスの品質を改善する1または複数の画像処理技術を実行することができる。例えば、パイプライン108は、デモザイク、レンズ・ロール・オフ補正、スケーリング、色補正、色変換、および空間フィルタリングのような技術を実行することができる。パイプライン108はまた、その他の技術を実行することが可能である。
【0050】
ビデオ・エンコーダ112は、デジタル・ビデオ・データを符号化(すなわち圧縮)、および復号(すなわち解凍)をするためのエンコーダ/デコーダ(コーデック)を備えることができる。
【0051】
静止画像エンコーダ114は、画像データを符号化(すなわち圧縮)、および復号(すなわち解凍)をするためのエンコーダ/デコーダ(コーデック)を備えることができる。
【0052】
トランシーバ129は、符号化された画像または映像シーケンスを受信し、および/または、それらを、別のデバイスまたはネットワークへ送信することができる。トランシーバ129は、符号分割多元接続(CDMA)のような無線通信規格を使用することができる。CDMA規格の例は、CDMA 1x エボリューション・データ・オプティマイズド(EV−DO)、広帯域CDMA(WCDMA)等を含む。
【0053】
(センサに関する更なる詳細)
2つの個別のセンサ102、104を備えたモバイル・デバイス100の設計および機能が、以下に述べられる。センサ102、104は、2つの局面を持つことができる。第1に、センサ位置コントローラ106が、例えば、センサ102、104を、1または複数の方向に回転、シフト、またはスライドさせることによって、2つのセンサ102、104の場所および/または位置を調節することができる。動作のいくつかの例が、図9に示される。しかし、他の2次元(2−D)または3次元(3−D)の動作もまた実施されうる。その動作は、ユーザおよび/またはカメラ・コントローラ118によって設定されうる。調整可能なセンサ102、104によって、例えば画像品質改善、3−D画像および映像視覚化、および360°パノラマ映像生成のような多くの高機能を可能としうる。
【0054】
これら動作は、ある期間中、あるいはある周波数の間、固定されうる。1つの構成では、センサは、2を超えるセンサを備えている。これらセンサは、ライン状に、三角形状に、円状またはその他幾つかのパターンで配置される。この構成では、デバイス100は、あるセンサを起動し、何れのセンサをも動かすことなく他のセンサを停止させることができる。この構成は、センサを動かすことから生じる問題を回避することができる。
【0055】
第2に、例えば分解能のような、センサ102、104の様々な設定を調節することができ、さらに進化した機能および/または画像処理アプリケーションが可能となる。デュアル・センサ102、104は、モバイル・デバイス100の画像処理の柔軟性を改善することができる。
【0056】
図10は、図9のデバイス100を用いたビデオ・モード処理の方法を例示する。図10は、図1乃至図8Cを参照して説明された機能のうちの何れかを含むように組み合わせまたは修正される。ブロック202および204では、センサ102、104が、画像をキャプチャして、ビデオ・フロント・エンド(VFE)内に実装されているかあるいはビデオ・フロント・エンド(VFE)と結合されたカメラ処理パイプライン108へピクセル・データを送る。ブロック206および208では、カメラ処理パイプライン108が、このピクセル・データを処理する。例えば、カメラ処理パイプライン108は、色を調節し、サイズをスケールし、画像コントラストを高めることにより、画像品質を改善することができる。
【0057】
ブロック210では、カメラ処理パイプライン108が、2つのセンサ102、104からの、処理され、キャプチャされた画像を合成する(または縫い合わせる)。合成された画像は、ディスプレイ110による表示のため、および/または、エンコーダ112、114による静止画像および/または映像の符号化のために、メモリ116に保存されうる。判定ブロック212は、キャプチャおよび処理するための更なるピクセル・データが存在するかを判定する。
【0058】
2つのセンサ102、104は、1または複数の利点を備えることができる。第1に、センサ位置を調節することによって、観察者の視角を制御することができる。第2に、2つのセンサ102、104から入力された画像が、一緒に処理され合成されうる。第3に、2つのセンサ102、104の間の水平距離が調整可能でありうる。これらの利点のうちの1または複数は、柔軟性および機能を高め、広範囲の拡張機能をサポートすることができる。
【0059】
本明細書に記述された技術は、特定用途のためのセンサ位置設定および制御構成に依存しうる。低電力消費プロファイルのために、第2のセンサ104の電源がオフされ、カメラ・パイプライン駆動クロックを縮小することができる。
【0060】
(調整可能なセンサ位置)
センサ102、104には3つの位置あるいは場所が存在しうる。これは、柔軟性を与え、拡張機能を可能にする。
【0061】
2つのセンサ102、104は、互いに非常に接近して配置されうる。2つのセンサ102、104が、実質的に同じビュー・ポートをターゲットとしている場合、つまり、理論上、2つのセンサ102、104の間の距離が、0に近い場合、キャプチャされた画像および/または映像の品質は、非常に高められうる。キャプチャされた画像を1つに合成するために、それらを移動させる調節アルゴリズムを用いることができる。
【0062】
特に、光が弱い環境においては、ランダムな画像ノイズが問題となりうる。2つのセンサ102、104を用いた受信ダイバーシティは、時間ダイバーシティによる重なり合った画像のボケや、露光時間といった制約なしで、センサ・ノイズを低減するための良い解決策でありうる。2つのセンサ102、104は、2つのセンサ102、104によってキャプチャされたシーン間の相違点を少なくするために、互いに近接して配置されうる。センサ・ノイズ分布は、独立しており、同じ分散を持つかもしれない。2つのセンサ102、104からの2つの処理された画像の合成後、信号対ノイズ比(SNR)は、以下のようにして計算されうる。
【数1】
【0063】
ここで、S1およびS2は、センサ102およびセンサ104からのキャプチャされた画像の信号であり、var(N1)およびvar(N2)は、センサ102およびセンサ104からのセンサ・ノイズ画像分散である。2つのセンサの画像および映像を合成した後、SNRは、3デシベル(dB)も改善されうる。
【0064】
デュアル・カメラ・センサを備えたモバイル・デバイスが本明細書で説明された。このデバイスでは、センサの設定および位置の両方が調節可能でありうる。高度な機能適応性のある画像合成エンジンが、例えば画像品質改善、3−D画像および映像視覚化、および360°パノラマ映像生成のような高度な機能またはアプリケーションを提供することができる。
【0065】
本明細書で開示された局面に関連して記載された様々な例示的な論理ブロック、モジュール、回路、およびアルゴリズム・ステップが、電子工学ハードウェア、コンピュータ・ソフトウェア、あるいはこれらの組み合わせとして実現されることを理解するであろう。ハードウェアとソフトウェアとの相互置換性を明確に説明するために、様々な例示的な部品、ブロック、モジュール、回路、およびステップが、それらの機能に関して一般的に記述された。それら機能がハードウェアとしてまたはソフトウェアとして実現されるかは、特定のアプリケーションおよびシステム全体に課せられている設計制約に依存する。当業者であれば、各特定のアプリケーションに応じて変化する方法で上述した機能を実現することができる。しかしながら、この適用判断は、限定と解釈されるべきではない。
【0066】
本明細書で開示された局面に関連して記述された様々な例示的な論理ブロック、モジュール、および回路は、汎用プロセッサ、DSP、ASIC、FPGAあるいはその他のプログラマブル論理デバイス、ディスクリート・ゲートあるいはトランジスタ・ロジック、ディスクリート・ハードウェア部品、または本明細書に記述した機能を実現するために設計された上記何れかの組み合わせを用いて実現または実施されうる。汎用プロセッサとしてマイクロプロセッサを用いることが可能であるが、代わりに、従来技術によるプロセッサ、コントローラ、マイクロコントローラ、あるいは状態機器を用いることも可能である。プロセッサは、例えばDSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアに接続された1または複数のマイクロプロセッサ、またはその他任意のこのような構成である計算デバイスの組み合わせとして実現することも可能である。
【0067】
本明細書で開示された実施形態に関連して記述された方法やアルゴリズムの動作は、ハードウェアによって直接的に、プロセッサによって実行されるソフトウェア・モジュールによって、または、これらの組み合わせによって具体化される。ソフトウェア・モジュールは、RAMメモリ、フラッシュ・メモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、リムーバブル・ディスク、CD−ROM、あるいはその他任意の型式の記憶媒体に収納されうる。記憶媒体は、プロセッサがそこから情報を読み取り、またそこに情報を書き込むことができるようにプロセッサに結合される。または、記憶媒体はプロセッサに統合されることができる。このプロセッサと記憶媒体とは、ASIC内に存在することができる。ASICは、ユーザ端末内に存在することもできる。あるいはこのプロセッサと記憶媒体とは、ユーザ端末内のディスクリート部品として存在することができる。
【0068】
これら記述された局面に対する様々な変形例は、当業者に明らかであって、本明細書で定義された一般的な原理は、本発明の主旨または範囲から逸脱することなく他の実施形態にも適用されうる。このように、本開示は、本明細書で示された実施形態に限定されるものではなく、本明細書に記載された原理および新規な特徴に一致した最も広い範囲に相当することが意図されている。
【0069】
【表1】
【関連出願】
【0001】
本願は、2006年7月25日に出願され、"MOBILE DEVICE WITH DUAL DIGITAL CAMERA SENSORS AND METHODS OF USING THE SAME"と題され、その全体が参照によって本明細書に組み込まれ、本願ともに譲渡された米国特許出願(代理人整理番号061170)に関連する。
【技術分野】
【0002】
本願は、電子デバイスに関し、さらに詳しくは、デュアル・デジタル・センサを備えた立体画像および映像キャプチャ・デバイスと、それを用いた方法に関する。
【背景技術】
【0003】
例えばセルラ電話のようないくつかのモバイル・デバイスは、画像をキャプチャするためのセンサを持つことができる。
【発明の概要】
【0004】
1つの局面は、第1の画像センサと、第1の画像センサと離れて配置された第2の画像センサと、第1の画像センサおよび第2の画像センサからの画像データを合成するダイバーシティ合成モジュールと、ダイバーシティ合成モジュールから得られた合成画像データを処理するように構成された画像処理モジュールとを備えた装置に関する。
【0005】
他の局面は、第1の画像センサを用いて第1の画像を検知することと、第1の画像センサから離れて配置された第2の画像センサを用いて第2の画像を検知することと、第1の画像センサおよび第2の画像センサからの画像データをダイバーシティ合成することと、立体画像を生成するために、合成された画像データを処理することとを備えた方法に関する。
【0006】
1または複数の実施形態の詳細は、添付図面および以下の記述で述べられる。
【図面の簡単な説明】
【0007】
【図1】図1は、2またはそれ以上のカメラ・センサを備えたモバイル・デバイスを例示している。
【図2A】図2Aは、単一の視点Vがカメラ・センサの位置である場合における画像平面P1’およびP2’に投影された2つの対象ポイントP1およびP2を例示している。
【図2B】図2Bは、左側Vと右側Vとが、2つのカメラ・センサの位置である場合における右側画像平面P1r’、P2r’および左側画像平面P1l’、P2l’の2つの対象ポイントP1およびP2の投射投影を例示している。
【図3】図3は、図1のデバイスにおけるカメラ処理パイプラインの一例を例示している。
【図4】図4は、図1のデバイスによって実行されうる立体映像処理フローチャートを例示している。
【図5】図5は、図1のデバイスの2つのセンサによって見られる画像の一例を例示する。
【図6】図6は、図1のデバイスの2つのセンサ・コントローラのフローチャートを例示する。
【図7A】図7Aは、水平距離によって分離された2つのセンサからのキャプチャされた画像の例を例示する。
【図7B】図7Bは、水平距離によって分離された2つのセンサからのキャプチャされた画像の例を例示する。
【図7C】図7Cは、図7Aおよび図7Bの左目視点および右目視点から構成された3−D画像を示す。
【図8A】図8Aは、水平距離によって分離された2つのセンサからのキャプチャされた画像の例を例示する。
【図8B】図8Bは、水平距離によって分離された2つのセンサからのキャプチャされた画像の例を例示する。
【図8C】図8Cは、図8Aおよび図8Bの左目視点および右目視点から構築された3−D画像を示す。
【図9】図9は、2またはそれ以上のセンサを備えたモバイル・デバイスの別の構成を例示する。
【図10】図10は、図9のデバイスを用いた映像モード処理の方法を例示する。
【発明を実施するための形態】
【0008】
(投射図法)
図2Aに示されるように、カメラは投射投影を行なうことにより画像をキャプチャする。図2Aは、単一の視点Vがカメラ・センサの位置である場合における画像平面P1’およびP2’に投影された2つの対象ポイントP1およびP2を例示している。
【0009】
深さ方向を知覚することができる人間の視覚体系を模擬するために、2つのカメラ・センサを備えたデバイスが、図2Bに示すように、右目および左目のビューをキャプチャすることができる。図2Bは、左側Vと右側Vとが、2つのカメラ・センサの位置である場合における右側画像平面P1r’、P2r’および左側画像平面P1l’、P2l’の2つの対象ポイントP1およびP2の投射投影を例示している。画像平面上における対象の投射の差分は、立体画像としての深さ方向の感知に相当する。
【0010】
図7A−7Bおよび図8A−8Bは、約6cmの水平距離によって分離された2つのセンサからのキャプチャされた画像の例を例示する。図7Cおよび図8Cは、下記に述べられるように、図7A−7Bおよび図8A−8Bからの左目視点および右目視点から構築された3−D画像を示す。
【0011】
(3−D立体画像および映像)
知覚的なリアリズムを高めることは、次世代のマルチメディア開発を駆り立てる要因となった。急速に成長しているマルチメディア通信市場およびエンタテイメント市場は、立体画像キャプチャ、処理、圧縮、配信、および表示をカバーする3次元(3−D)(立体または立体的とも称される)画像技術および映像技術を用いることができる。
【0012】
立体(stereo)画像と単一(mono)画像との間の主な相違は、前者が、シーン内における対象の距離と、3次元の感覚とを与えることである。人間の視覚は、本質的には、異なる投射視点にある左目と右目によって見られる両目を用いた視点によって、立体的である。我々の脳は、立体的な深さのある画像を合成することができる。
【0013】
マルチメディア・デバイスは、モノスコピックなインフラストラクチャで実現されうる。モノスコピックなカメラは、立体画像をキャプチャして生成することができる。モノスコピックなカメラは、立体画像を生成するために、深さ情報を検出および推定する自動焦点処理からの統計情報を用いることができる。
【0014】
(デュアル・センサを備えたデバイス)
デュアル・センサを備えたデバイスに関し、例えば、増加したデータ処理の計算上の複雑さ、電力消費、これらセンサの位置および解像度の設定のような多くの問題がある。カメラ電話のようなデバイスは、固定位置に2つの画像センサを有しうる。すなわち、2つのセンサは、移動することができない。2つのセンサは、例えば異なる解像度を持つ1次センサおよび2次センサのように、別々に設定され、取り扱われうる。低解像度センサが、映像をキャプチャするために使用される一方、高解像度センサが、静止画像をキャプチャするために使用されうる。下記に述べられるように、2つのセンサから得られた画像は、ともに合成あるいは処理されうる。
【0015】
デュアル・センサ・カメラ電話は、立体画像または立体映像をキャプチャおよび生成するために、正確なビューを得ることができる。デュアル・カメラ・センサ・モバイル・デバイスのコストは、1つのセンサを持つデバイスとほぼ同じほどに低減されうる。以下の記述は、高品質立体画像/映像キャプチャおよび立体画像合成を可能にするデュアル・カメラ・センサ・モバイル・デバイスあるいは立体画像システムを説明する。
【0016】
図1は、3−D立体画像および映像をキャプチャして処理するように構成された、デュアル・デジタル・カメラ・センサ132、134を備えたモバイル・デバイス130を例示する。一般に、モバイル・デバイス130は、デジタル画像および/または映像シーケンスをキャプチャし、生成し、処理し、修正し、スケールし、符号化し、復号し、送信し、格納し、表示するように構成されうる。このデバイス130は、高品質立体画像キャプチャ、様々なセンサ位置、視点角度ミスマッチ補償、および、立体画像の処理および合成のための効率的なソリューションを提供することができる。
【0017】
モバイル・デバイス130は、無線通信デバイス、携帯情報端末(PDA)、ハンドヘルド・デバイス、ラップトップ・コンピュータ、デスクトップ・コンピュータ、デジタル・カメラ、デジタル記録デバイス、ネットワーク対応デジタル・テレビ、モバイル電話、セルラ電話、衛星電話、カメラ電話、地上ベースの無線電話、ダイレクト双方向通信デバイス(しばしば、「ウォーキー・トーキー」と称される)、カムコーダ等で実現されうる。
【0018】
モバイル・デバイス130は、第1のセンサ132、第2のセンサ134、第1のカメラ・インタフェース136、第2のカメラ・インタフェース148、第1のバッファ138、第2のバッファ150、メモリ146、ダイバーシティ合成モジュール140(あるいはエンジン)、カメラ処理パイプライン142、第2のメモリ154、3−D画像用ダイバーシティ合成コントローラ152、モバイル・ディスプレイ・プロセッサ(MDP)144、ビデオ・エンコーダ156、静止画像エンコーダ158、ユーザ・インタフェース120、およびトランシーバ129を含みうる。図1に示される構成要素に加えて、あるいはそれらの構成要素の代わりに、モバイル・デバイス130は、その他の構成要素を含むことができる。図1のアーキテクチャは、単に一例である。本明細書に記述された機能および技術は、その他様々なアーキテクチャで実現されうる。
【0019】
センサ132、134は、デジタル・カメラ・センサでありうる。センサ132、134は、同様または異なる物理構造を有しうる。センサ132、134は、同様にまたは異なって設定されたセッティングを有しうる。センサ132、134は、静止画像スナップショットおよび/または映像シーケンスをキャプチャすることができる。各センサは、個々のセンサまたはセンサ要素の表面に配置されたカラー・フィルタ・アレイ(CFA)を含むことができる。
【0020】
メモリ146、154は、個別かもしれないしあるいは統合されうる。メモリ146、154は、処理前および処理後の画像シーケンスまたは映像シーケンスを格納することができる。メモリ146、154は、揮発性記憶装置および/または不揮発性記憶装置を含みうる。メモリ146、154は、例えばダイナミック・ランダム・アクセス・メモリ(DRAM)、フラッシュ・メモリまたはNANDゲート・メモリ、あるいはその他任意のデータ記憶技術のような任意のタイプのデータ記憶手段を備えることができる。
【0021】
カメラ処理パイプライン142(エンジン、モジュール、処理ユニット、ビデオ・フロント・エンド(VFE)等とも称される)は、ハードウェア、ソフトウェア、ファームウェア、および/または1または複数のマイクロプロセッサ、デジタル信号プロセサ(DSP)、特定用途向けIC(ASIC)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、あるいはこれらの様々な組み合わせを含むモバイル電話用チップ・セットを備えうる。このパイプライン142は、画像シーケンスおよび/または映像シーケンスの品質を改善するために、1または複数の画像処理技術を実行することができる。下記に述べられるように、図3は、図1のカメラ処理パイプライン142の一例を例示している。
【0022】
ビデオ・エンコーダ156は、デジタル・ビデオ・データの符号化(すなわち圧縮)および復号(すなわち解凍)のためのエンコーダ/デコーダ(コーデック)を備えることができる。ビデオ・エンコーダ156は、MPEGまたはH.264のような、1または複数の符号化/復号規格またはフォーマットを使用することができる。
【0023】
静止画像エンコーダ158は、画像データの符号化(すなわち圧縮)および復号(すなわち解凍)のためのエンコーダ/デコーダ(コーデック)を備えることができる。静止画像エンコーダ158は、例えばJPEGのような1または複数の符号化/復号規格またはフォーマットを使用することができる。
【0024】
トランシーバ129は、符号化された画像シーケンスまたは映像シーケンスを受信して、別のデバイスまたはネットワークに送信することができる。トランシーバ129は、符号分割多元接続(CDMA)のような無線通信規格を使用することができる。CDMA規格の例は、CDMA 1x エボリューション・データ・オプティマイズド(EV−DO)(3GPP2)、広帯域CDMA(WCDMA)(3GPP)等を含む。
【0025】
デバイス130は、2センサ・カメラ・アーキテクチャのための高度に最適化されたハードウェア・ソリューションを含みうる。そのコストは、単一センサ・カメラで使用されるエンジンとほぼ等しい。デュアル・カメラ・センサ・デバイス130内には、キャプチャされた画像および映像の高い視覚品質、および、低電力制約を提供するモジュールのセットが実装されうる。
【0026】
デバイス130は、3−D立体画像および映像が効率的に生成されるように、2つのセンサ138、150間の固定された水平距離を保つことができる。図1に示すように、2つのセンサ132、134は、水平距離で約6cm離れているが、6cmよりも遠いあるいは近いその他の距離もまた使用されうる。第1のセンサ132は、1次センサであり、第2のセンサ134は、2次センサでありうる。第2のセンサ134は、電力消費を低減するために、非立体モードに対しては停止されうる。
【0027】
2つのバッファ138、150は、例えば、2つのセンサ132、134からのピクセル・データの1行または1ラインのようなリアル・タイム・センサ入力データを格納することができる。センサ・ピクセル・データは、小さなバッファ138、150にオン・ラインで(つまりリアル・タイムで)入る。そして、センサ132とセンサ134(またはバッファ138とバッファ150)を切り換えることによって、ダイバーシティ合成モジュール140および/またはカメラ・エンジン・パイプライン・エンジン142によって、オフラインで処理される。ダイバーシティ合成モジュール140および/またはカメラ・エンジン・パイプライン・エンジン142は、1つのセンサのデータ・レートの約2倍の速度で動作することができる。出力データ帯域幅およびメモリ要求を低減するために、立体画像および映像が、カメラ・エンジン142内で整えられる。
【0028】
ダイバーシティ合成モジュール140は、まず、第1のバッファ138からのデータを選択する。バッファ138の1行の終わりに、ダイバーシティ合成モジュール140は、第2のセンサ134からデータを得るために、第2のバッファ150に切り換えることができる。ダイバーシティ合成モジュール140は、第2のバッファ150からのデータの1行の終わりに、第1のバッファ138に切り換えることができる。
【0029】
処理電力およびデータ・トラフィック帯域幅を低減するために、映像モードにあるセンサ画像データは、(第1のメモリ146をバイパスすることによって)バッファ138、150を経由して直接的にダイバーシティ合成モジュール140へ送られうる。一方、スナップショット(画像)処理モードの場合、センサ・データが、オフライン処理のために、メモリ146に保存されうる。さらに、低電力消費プロファイルのために、第2のセンサ134の電源がオフされ、カメラ・パイプライン駆動クロックを縮小することができる。
【0030】
(立体画像合成)
図7A−7Bおよび図8A−8Bは、水平距離で約6cm離された第1のセンサ132と第2のセンサ134(左目視点および右目視点)によってキャプチャされた画像の例を例示している。図7A−7Bおよび図8A−8Bは、(図1のデバイス130内、または、デバイス130からのデータを受信するその他幾つかのデバイス内の)自動立体画像(autostereoscopic)表示システムに直接的に渡される画像を示す。立体画像(stereoscopic)表示を見るためには、ユーザによって3−D眼鏡が使用されるべきである。これは、立体的なアプリケーションの効果を実演する。自動立体画像(autostereoscopic)と単なる立体画像(stereoscopic)との違いは、立体画像表示は、3−D眼鏡を必要とすることである。3−D眼鏡は、各目に対する正しい視点を選択的に可能にする。これら3−D眼鏡上のカラー・フィルタ(Anaglyph)の場合、左目視点のみが赤チャネル・データを含み、右目視点のみが緑チャネルおよび青チャネルを含む。図3のカメラ・プロセス処理パイプライン内のカラー・チャネル・マスク328は、未使用のチャネル・データを削除することができる。
【0031】
図7Cおよび図8Cは、図7A−7Bおよび図8A−8Bにおける2視点から構築された3−D立体画像(anaglyph)を例示する。
【0032】
(カメラ・パイプライン)
図3は、図1のカメラ処理パイプライン142の一例を例示する。例えば、このパイプライン142は、黒サブトラクト(subtract)モジュール300と、レンズ・ロール・オフ補正モジュール302と、チャネル利得モジュール304と、不良ピクセル補正またはノイズ低減モジュール306と、デモザイク・モジュール308と、統計データ収集モジュール310と、1−D Yマッピング・モジュール312と、視野(FOV:field of view)クロッピング・モジュール314と、スケール・モジュール316と、ホワイト・バランス・モジュール318と、色補正モジュール320と、皮膚色プロセッサ322、luma適応モジュール324と、赤/緑/青(RGB)ルック・アップ・テーブル(LUT)と、RGB−YCrCb色変換またはチャネル・マスク・モジュール328と、Y適応空間フィルタ(ASF:adaptive spatial filtering)モジュール330と、彩度サブ・モジュール332とを含むことができる。図3中で示されるモジュール/機能に加えて、あるいはそのモジュールの代わりに、パイプライン142は、他のモジュールおよび/または機能を含むことができる。パイプライン142の出力は、図1の第2のメモリ154に供給されうる。
【0033】
(垂直ミスマッチ・オフセット)
デバイス130は、2つの独立したセンサ132、134からキャプチャされた2つの画像の垂直ミスマッチを高信頼度で計算し、補償することができる。
【0034】
図5は、図1の2つのセンサ132、134によって見られた、すなわちキャプチャされた画像の一例を例示する。センサ132、134のおのおのの有効な行インデクスは、2つのセンサ132、134間に存在する“Yオフセット”と呼ばれる垂直ミスマッチ・オフセットに由来する。3−D画像用ダイバーシティ合成コントローラ152は、図6を用いて下記に示すようにして、Yオフセットを導出する。例えば、Yオフセット=5の場合、第1のセンサ132の有効な行インデクスは、5から(画像高さ−1)となり、第2のセンサ134については、0から(画像高さ−6)となる。あるいは、Yオフセット=−5の場合、第1のセンサ132の有効な行インデクスは、0から(画像高さ−6)となり、第2のセンサ134については、5から(画像高さ−1)となる。2つのセンサの出力データを使うために、単一のカメラVFEパイプライン142が、高クロック周波数で駆動されうる。
【0035】
Yオフセットを推定するために、Y 1−Dマッピング・モジュール312が、例えば、付録Aの擬似コードにおけるY SumSensor1[]およびY SumSensor2[]のような垂直方向1−Dマッピング・データを提供する。入力される行データは、第1のセンサ132および第2のセンサ134から交互に来るので、おのおのの行のY SumSensor1[]およびY SumSensor2[]は、フレームの最後において利用可能となるだろう。このY推定タスクがディセーブルされると、Y 1−Dマッピング・モジュール312は、電力消費を低減するためにディセーブルされる。
【0036】
チャンネル・マスク・モジュール328は、決まった画像および映像処理のために色変換を実行し、3−D画像の構築時において色チャネル・マスク・タスクを実行しうる。左目視点のみが赤チャネル・データを含み、右目視点が緑チャネルおよび青チャネルを含んでいるので、カメラ・エンジン142は、第1のセンサ行データに関する赤チャネル・データのみを送り出し、第2のセンサ行データに関する緑チャネル・データおよび青チャネル・データを送出する。したがって、立体画像の構築のための出力データ・トラフィック帯域幅、メモリ要求、および後処理タスクが低減されうる。
【0037】
(映像モード処理)
図4は、図1のデバイス130によって実行されうる立体映像処理フローチャートを例示する。立体画像処理は、図4の立体映像モード処理と同様の方法で実行されうる。ブロック400では、水平ピクセル・インデクスが、バッファ選択が第1のバッファ138(第1のセンサ・データ)であるか、第2のバッファ150(第2のセンサ・データ)であるかを決定する。ブロック402、406では、第1のバッファ138および第2のバッファ150からそれぞれピクセルが読み取られる。ブロック404、408では、有効なデータ基準について、垂直ピクセル・インデクス(yピクセル)が、Yオフセット(y_offset)と比較される。この有効なデータ基準は、第1のセンサ・データとも第2のセンサ・データとも異なる有効な行データは、ブロック410において、ダイバーシティ合成モジュール140へ送られ、その後、ブロック412において、カメラ・パイプライン・エンジン142に送られるだろう。ブロック414は、そのピクセルが最後のピクセルであるかを判定し、もし最後のピクセルでなければ、ブロック400に戻る。もし最後のピクセルであれば、処理された、第1のセンサ・データの赤チャネル・データと、第2のセンサ・データの緑チャネル・データおよび青チャネル・データとが、たとえばブロック418における表示や映像符号化のような更なる処理のために、メモリ154内に保存されるだろう(ブロック416)。
【0038】
(センサ・コントローラ)
位置の不正確さおよび視点角度のミスマッチによって、2つのセンサによってキャプチャされた画像間で、ある垂直方向のミスマッチ・オフセットが存在しうる。図5は、2つのセンサによってキャプチャされた画像間の垂直方向のオフセット(“Yオフセット”)を例示する。2つのセンサのコントローラ152は、共通のオーバラップ・エリアに位置する構築された画像を、垂直方向において調節することができる。(図4におけるブロック404および408によって、あるいは、図3におけるFOVクロッピング・モジュール314によって)画像の上端または下端をクロップ・アウトした後、「構築された画像の高さ」は、図5に示すように、「センサ画像高さ」からYオフセットを引いたものに等しい。
【0039】
図6は、図1中の2つのセンサ・コントローラ152のフローチャートを例示する。図6は、デバイス130に電源が投入された場合、あるいは、センサ位置が変わった場合にアクティブになる推定タスクを例示する。オフセットは垂直方向にしかないので、この提案された推定ソリューションは、(図3における1−D Yマッピング・モジュール312による)1−D Yマッピングによって行われ、その後、1−D相互相関がなされる。付録Aは、対応する擬似コードをリストしている。
【0040】
水平距離と、僅かな垂直距離とを持つ2つの画像が同時にキャプチャされるので、2つのシーンは、水平方向において非常に類似し、高く相関付けられる。したがって、この処理は、ロバストで効率的なターゲットを達成するために、1−D垂直マッピングおよび相互相関探索のみを用いる。
【0041】
ブロック602、606では、第1のセンサ132および第2のセンサ134が、データをキャプチャする。各行について蓄積されたlumaデータは、フレームの最後において利用可能である。ブロック604、608では、カメラ・パイプライン142が、図3の1−D Yマッピング・モジュール312による1−D Yマッピングを用いてセンサ・データを処理する。
【0042】
ブロック610では、図1におけるコントローラ152が、2つのセンサのYマッピング間の最大相関に対応するYオフセットを見つける。2つのセンサのYマッピング・データの相互相関は、図1のコントローラ152による後処理中に行われる。最大相互相関に対応するオフセットは、導出されたYオフセットである。垂直オフセットは、視点角度に依存して制限された値でありうる。その探索範囲もまた制限されうる。
【0043】
ブロック612では、立体画像処理の失敗を回避するために、最大相互相関が、図1におけるコントローラ152によって、しきい値と比較される。最大相互相関が、しきい値未満ではない場合、立体画像が正しく構築され、ブロック614において、ダイバーシティ合成のためのYオフセットが設定される。例えば、このしきい値は、第1のセンサYマッピング・データの自動相関の90%として設定されうる。言い換えれば、構築ステータスは、第1のセンサと第2のセンサとでオーバラップしている画像エネルギーが、第1のセンサ・データのエネルギーの90%に等しいか、それより大きい場合においてのみ正しい。最大相互相関がしきい値以下である場合、ブロック616に示すように、立体画像は、正しく構築されない。
【0044】
要約すると、デュアル・カメラ・センサ132、134を備えたデバイス130は、高品質な立体画像および映像のキャプチャを可能とする。例えばセンサ位置、視点角度ミスマッチ補償、および2つの視点の合成のような多くの問題に対処することができる。デバイス130は、デバイス130のコストが、単一のセンサを備えたカメラ電話で使用される処理エンジンとほぼ同じになるように、特定のアプリケーションの低電力制約を満足するように高度に最適化されている。一方、柔軟性がありかつ信頼性のある解決策は、高い視覚品質を保証するために、2つの独立したセンサ132、134からキャプチャされた2つの視点画像の垂直方向のミスマッチを計算し、補償することができる。
【0045】
(少なくとも1つのセンサが可動式である2つのセンサを備えたデバイス)
図9は、2またはそれ以上のセンサ102、104を備えたモバイル・デバイス100の別の構成を例示している。デバイス100は、上述した機能のうちの1または複数を実現するように構成されうる。モバイル・デバイス100は、デジタル画像および/または映像シーケンスをキャプチャ、生成、処理、修正、スケール、符号化、復号、送信、格納、および表示するように構成されうる。モバイル・デバイス100は、例えば、無線通信デバイス、携帯情報端末(PDA)、ラップトップ・コンピュータ、デスクトップ・コンピュータ、デジタル・カメラ、デジタル記録デバイス、ネットワーク対応のデジタル・テレビ、モバイル電話、セルラ電話、衛星電話、カメラ電話、地上ベースの無線電話、ダイレクト双方向通信デバイス(しばしば、「ウォーキー・トーキー」と称される)等のようなデバイス内に存在するか、あるいはこれらデバイスに実装されうる。
【0046】
モバイル・デバイス100は、第1のセンサ102、第2のセンサ104、センサ位置コントローラ106、カメラ処理パイプライン108、ディスプレイ110、ビデオ・エンコーダ112、静止画像エンコーダ114、メモリ116、カメラ・コントローラ118、ユーザ・インタフェース120、プロセッサ128、およびトランシーバ129を含みうる。図9に示す構成要素に加えて、あるいはその構成要素の代わりに、モバイル・デバイス100は他の構成要素を含むことができる。図9で示されたアーキテクチャは、単に一例である。本明細書に記述された特徴および技術は、その他様々なアーキテクチャを用いて実現されうる。
【0047】
センサ102、104は、デジタル・カメラ・センサでありうる。センサ102、104は、静止画像スナップショットおよび/または映像シーケンスをキャプチャすることができる。これらセンサはそれぞれ、個々のセンサまたはセンサ要素の表面に配置されたカラー・フィルタ・アレイ(CFA)を含みうる。
【0048】
メモリ116は、処理前および処理後の画像または映像シーケンスを格納することできる。メモリ116は、揮発性記憶装置および不揮発性記憶装置を含むことができる。メモリ116は、例えば、ダイナミック・ランダム・アクセス・メモリ(DRAM)、フラッシュ・メモリ、NORまたはNANDゲート・メモリ、またはその他任意のデータ記憶技術のような任意のタイプのデータ記憶手段を備えうる。
【0049】
(エンジン、モジュール、処理ユニット等とも呼ばれる)カメラ処理パイプライン108は、ハードウェア、ソフトウェア、ファームウェア、および/または、1または複数のマイクロプロセッサ、デジタル信号プロセサ(DSP)、特定用途向けIC(ASIC)、フィールドプログラマブル・ゲート・アレイ(FPGA)、あるいはこれらの様々な組み合わせを含む、モバイル電話のためのチップ・セットを備えうる。カメラ処理パイプライン108は、画像および/または映像シーケンスの品質を改善する1または複数の画像処理技術を実行することができる。例えば、パイプライン108は、デモザイク、レンズ・ロール・オフ補正、スケーリング、色補正、色変換、および空間フィルタリングのような技術を実行することができる。パイプライン108はまた、その他の技術を実行することが可能である。
【0050】
ビデオ・エンコーダ112は、デジタル・ビデオ・データを符号化(すなわち圧縮)、および復号(すなわち解凍)をするためのエンコーダ/デコーダ(コーデック)を備えることができる。
【0051】
静止画像エンコーダ114は、画像データを符号化(すなわち圧縮)、および復号(すなわち解凍)をするためのエンコーダ/デコーダ(コーデック)を備えることができる。
【0052】
トランシーバ129は、符号化された画像または映像シーケンスを受信し、および/または、それらを、別のデバイスまたはネットワークへ送信することができる。トランシーバ129は、符号分割多元接続(CDMA)のような無線通信規格を使用することができる。CDMA規格の例は、CDMA 1x エボリューション・データ・オプティマイズド(EV−DO)、広帯域CDMA(WCDMA)等を含む。
【0053】
(センサに関する更なる詳細)
2つの個別のセンサ102、104を備えたモバイル・デバイス100の設計および機能が、以下に述べられる。センサ102、104は、2つの局面を持つことができる。第1に、センサ位置コントローラ106が、例えば、センサ102、104を、1または複数の方向に回転、シフト、またはスライドさせることによって、2つのセンサ102、104の場所および/または位置を調節することができる。動作のいくつかの例が、図9に示される。しかし、他の2次元(2−D)または3次元(3−D)の動作もまた実施されうる。その動作は、ユーザおよび/またはカメラ・コントローラ118によって設定されうる。調整可能なセンサ102、104によって、例えば画像品質改善、3−D画像および映像視覚化、および360°パノラマ映像生成のような多くの高機能を可能としうる。
【0054】
これら動作は、ある期間中、あるいはある周波数の間、固定されうる。1つの構成では、センサは、2を超えるセンサを備えている。これらセンサは、ライン状に、三角形状に、円状またはその他幾つかのパターンで配置される。この構成では、デバイス100は、あるセンサを起動し、何れのセンサをも動かすことなく他のセンサを停止させることができる。この構成は、センサを動かすことから生じる問題を回避することができる。
【0055】
第2に、例えば分解能のような、センサ102、104の様々な設定を調節することができ、さらに進化した機能および/または画像処理アプリケーションが可能となる。デュアル・センサ102、104は、モバイル・デバイス100の画像処理の柔軟性を改善することができる。
【0056】
図10は、図9のデバイス100を用いたビデオ・モード処理の方法を例示する。図10は、図1乃至図8Cを参照して説明された機能のうちの何れかを含むように組み合わせまたは修正される。ブロック202および204では、センサ102、104が、画像をキャプチャして、ビデオ・フロント・エンド(VFE)内に実装されているかあるいはビデオ・フロント・エンド(VFE)と結合されたカメラ処理パイプライン108へピクセル・データを送る。ブロック206および208では、カメラ処理パイプライン108が、このピクセル・データを処理する。例えば、カメラ処理パイプライン108は、色を調節し、サイズをスケールし、画像コントラストを高めることにより、画像品質を改善することができる。
【0057】
ブロック210では、カメラ処理パイプライン108が、2つのセンサ102、104からの、処理され、キャプチャされた画像を合成する(または縫い合わせる)。合成された画像は、ディスプレイ110による表示のため、および/または、エンコーダ112、114による静止画像および/または映像の符号化のために、メモリ116に保存されうる。判定ブロック212は、キャプチャおよび処理するための更なるピクセル・データが存在するかを判定する。
【0058】
2つのセンサ102、104は、1または複数の利点を備えることができる。第1に、センサ位置を調節することによって、観察者の視角を制御することができる。第2に、2つのセンサ102、104から入力された画像が、一緒に処理され合成されうる。第3に、2つのセンサ102、104の間の水平距離が調整可能でありうる。これらの利点のうちの1または複数は、柔軟性および機能を高め、広範囲の拡張機能をサポートすることができる。
【0059】
本明細書に記述された技術は、特定用途のためのセンサ位置設定および制御構成に依存しうる。低電力消費プロファイルのために、第2のセンサ104の電源がオフされ、カメラ・パイプライン駆動クロックを縮小することができる。
【0060】
(調整可能なセンサ位置)
センサ102、104には3つの位置あるいは場所が存在しうる。これは、柔軟性を与え、拡張機能を可能にする。
【0061】
2つのセンサ102、104は、互いに非常に接近して配置されうる。2つのセンサ102、104が、実質的に同じビュー・ポートをターゲットとしている場合、つまり、理論上、2つのセンサ102、104の間の距離が、0に近い場合、キャプチャされた画像および/または映像の品質は、非常に高められうる。キャプチャされた画像を1つに合成するために、それらを移動させる調節アルゴリズムを用いることができる。
【0062】
特に、光が弱い環境においては、ランダムな画像ノイズが問題となりうる。2つのセンサ102、104を用いた受信ダイバーシティは、時間ダイバーシティによる重なり合った画像のボケや、露光時間といった制約なしで、センサ・ノイズを低減するための良い解決策でありうる。2つのセンサ102、104は、2つのセンサ102、104によってキャプチャされたシーン間の相違点を少なくするために、互いに近接して配置されうる。センサ・ノイズ分布は、独立しており、同じ分散を持つかもしれない。2つのセンサ102、104からの2つの処理された画像の合成後、信号対ノイズ比(SNR)は、以下のようにして計算されうる。
【数1】
【0063】
ここで、S1およびS2は、センサ102およびセンサ104からのキャプチャされた画像の信号であり、var(N1)およびvar(N2)は、センサ102およびセンサ104からのセンサ・ノイズ画像分散である。2つのセンサの画像および映像を合成した後、SNRは、3デシベル(dB)も改善されうる。
【0064】
デュアル・カメラ・センサを備えたモバイル・デバイスが本明細書で説明された。このデバイスでは、センサの設定および位置の両方が調節可能でありうる。高度な機能適応性のある画像合成エンジンが、例えば画像品質改善、3−D画像および映像視覚化、および360°パノラマ映像生成のような高度な機能またはアプリケーションを提供することができる。
【0065】
本明細書で開示された局面に関連して記載された様々な例示的な論理ブロック、モジュール、回路、およびアルゴリズム・ステップが、電子工学ハードウェア、コンピュータ・ソフトウェア、あるいはこれらの組み合わせとして実現されることを理解するであろう。ハードウェアとソフトウェアとの相互置換性を明確に説明するために、様々な例示的な部品、ブロック、モジュール、回路、およびステップが、それらの機能に関して一般的に記述された。それら機能がハードウェアとしてまたはソフトウェアとして実現されるかは、特定のアプリケーションおよびシステム全体に課せられている設計制約に依存する。当業者であれば、各特定のアプリケーションに応じて変化する方法で上述した機能を実現することができる。しかしながら、この適用判断は、限定と解釈されるべきではない。
【0066】
本明細書で開示された局面に関連して記述された様々な例示的な論理ブロック、モジュール、および回路は、汎用プロセッサ、DSP、ASIC、FPGAあるいはその他のプログラマブル論理デバイス、ディスクリート・ゲートあるいはトランジスタ・ロジック、ディスクリート・ハードウェア部品、または本明細書に記述した機能を実現するために設計された上記何れかの組み合わせを用いて実現または実施されうる。汎用プロセッサとしてマイクロプロセッサを用いることが可能であるが、代わりに、従来技術によるプロセッサ、コントローラ、マイクロコントローラ、あるいは状態機器を用いることも可能である。プロセッサは、例えばDSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアに接続された1または複数のマイクロプロセッサ、またはその他任意のこのような構成である計算デバイスの組み合わせとして実現することも可能である。
【0067】
本明細書で開示された実施形態に関連して記述された方法やアルゴリズムの動作は、ハードウェアによって直接的に、プロセッサによって実行されるソフトウェア・モジュールによって、または、これらの組み合わせによって具体化される。ソフトウェア・モジュールは、RAMメモリ、フラッシュ・メモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、リムーバブル・ディスク、CD−ROM、あるいはその他任意の型式の記憶媒体に収納されうる。記憶媒体は、プロセッサがそこから情報を読み取り、またそこに情報を書き込むことができるようにプロセッサに結合される。または、記憶媒体はプロセッサに統合されることができる。このプロセッサと記憶媒体とは、ASIC内に存在することができる。ASICは、ユーザ端末内に存在することもできる。あるいはこのプロセッサと記憶媒体とは、ユーザ端末内のディスクリート部品として存在することができる。
【0068】
これら記述された局面に対する様々な変形例は、当業者に明らかであって、本明細書で定義された一般的な原理は、本発明の主旨または範囲から逸脱することなく他の実施形態にも適用されうる。このように、本開示は、本明細書で示された実施形態に限定されるものではなく、本明細書に記載された原理および新規な特徴に一致した最も広い範囲に相当することが意図されている。
【0069】
【表1】
【特許請求の範囲】
【請求項1】
第1の画像センサと、
前記第1の画像センサと離れて配置された第2の画像センサと、
前記第1および第2の画像センサからの画像データを合成するダイバーシティ合成モジュールと、
前記ダイバーシティ合成モジュールからの合成画像データを処理するように構成された画像処理モジュールと
を備えた装置。
【請求項2】
前記画像処理モジュールは、立体画像表示のための立体画像を生成するように構成された請求項1に記載の装置。
【請求項3】
前記画像処理モジュールは、立体画像表示で直接的に視覚化される立体画像を生成するように構成された請求項1に記載の装置。
【請求項4】
前記画像処理モジュールは、立体画像表示のための立体映像を生成するように構成された請求項1に記載の装置。
【請求項5】
前記画像処理モジュールは、立体画像表示で直接的に視覚化される立体映像を生成するように構成された請求項1に記載の装置。
【請求項6】
前記第1の画像センサからの画像データを格納する第1のバッファと、
前記第2の画像センサからの画像データを格納する第2のバッファとをさらに備え、
前記ダイバーシティ合成モジュールは、前記第1のバッファおよび前記第2のバッファから交互に画像データを受け取るように構成された請求項1に記載の装置。
【請求項7】
前記画像処理モジュールは、前記第1の画像センサおよび前記第2の画像センサからの画像データのための垂直方向1次元マッピングを提供するように構成されたマッピング・モジュールを備える請求項1に記載の装置。
【請求項8】
前記マッピング・モジュールからの垂直方向1次元マッピング・データを相関付け、前記第1および第2の画像センサからの画像データの垂直マッピングの最大相関に対応する垂直ミスマッチ・オフセットを見つけるように構成されたコントローラをさらに備え、
前記ダイバーシティ合成モジュールは、前記第1および第2の画像センサからの画像データを合成するために前記垂直ミスマッチ・オフセットを使用する請求項7に記載の装置。
【請求項9】
前記ダイバーシティ合成モジュールは、
前記垂直ミスマッチ・オフセットを、前記第1の画像センサからの第1のピクセルの垂直インデクスと比較し、前記第1の画像センサからの第1のピクセルの垂直インデクスが、前記垂直ミスマッチ・オフセットよりも大きいのであれば、前記第1のピクセルを前記画像処理モジュールに送り、
前記垂直ミスマッチ・オフセットを、前記第2の画像センサからの第2のピクセルの垂直インデクスと比較し、前記第2の画像センサからの第2のピクセルの垂直インデクスが、画像高さから前記垂直ミスマッチ・オフセットを引いたものよりも小さいのであれば、前記第2のピクセルを前記画像処理モジュールに送る
ように構成された請求項8に記載の装置。
【請求項10】
前記コントローラは、立体画像構築失敗があるかを判定するために、前記垂直ミスマッチ・オフセットを、しきい値と比較するように構成された請求項8に記載の装置。
【請求項11】
前記画像処理モジュールは、前記第1および第2の画像センサによってキャプチャされた画像の黒サブトラクト、レンズ・ロール・オフ補正、チャネル利得調節、不良ピクセル補正、デモザイク、クロッピング、スケール、ホワイト・バランス、色補正、luma適応、色変換、および画像コントラスト強調のうちの少なくとも1つを実行するように構成された請求項1に記載の装置。
【請求項12】
前記画像処理モジュールは、3次元画像を構築するためカラー・チャネル・マスク・タスクを実行するように構成された色変換モジュールを備える請求項1に記載の装置。
【請求項13】
前記画像処理モジュールは、前記第1の画像センサの行データに関する赤チャネル・データを出力し、前記第2の画像センサの行データに関する緑チャネル・データおよび青チャネル・データを出力する請求項12に記載の装置。
【請求項14】
前記第1の画像センサと前記第2の画像センサとは、約6cm離れて配置された請求項1に記載の装置。
【請求項15】
前記第2の画像センサは、前記装置が低電力モードに入った場合に停止するように構成された請求項1に記載の装置。
【請求項16】
前記装置はモバイル電話である請求項1に記載の装置。
【請求項17】
無線通信を送信および受信するように構成されたトランシーバをさらに備える請求項1に記載の装置。
【請求項18】
第1の画像センサを用いて第1の画像を検知することと、
前記第1の画像センサと離れて配置された第2の画像センサを用いて第2の画像を検知することと、
前記第1および第2の画像センサからの画像データをダイバーシティ合成することと、
立体画像を生成するために、前記ダイバーシティ合成された画像データを処理することと
を備える方法。
【請求項19】
立体画像表示のための立体画像を準備することをさらに備える請求項18に記載の方法。
【請求項20】
立体画像表示で直接的に視覚化される立体画像を準備することをさらに備える請求項18に記載の方法。
【請求項21】
立体画像表示のための立体映像を生成することをさらに備える請求項18に記載の方法。
【請求項22】
立体画像表示で直接的に視覚化される立体映像を生成することをさらに備える請求項18に記載の方法。
【請求項23】
前記第1の画像センサからの画像データを格納することと、
前記第2の画像センサからの画像データを格納することとをさらに備え、
前記ダイバーシティ合成することは、前記第1のバッファおよび前記第2のバッファから交互に画像データを受け取ることを備える請求項18に記載の方法。
【請求項24】
前記ダイバーシティ合成された画像データを処理することは、前記第1の画像センサおよび前記第2の画像センサからの画像データのための垂直方向1次元マッピングを提供することを備える請求項18に記載の方法。
【請求項25】
垂直方向1次元マッピング・データを相関付けることと、
前記第1および第2の画像センサからの画像データの垂直マッピングの最大相関に対応する垂直ミスマッチ・オフセットを見つけることとをさらに備え、
前記ダイバーシティ合成することは、前記第1および第2の画像センサからの画像データを合成するために前記垂直ミスマッチ・オフセットを使用する請求項24に記載の方法。
【請求項26】
前記ダイバーシティ合成することは、
前記垂直ミスマッチ・オフセットを、前記第1の画像センサからの第1のピクセルの垂直インデクスと比較することと、
前記第1の画像センサからの第1のピクセルの垂直インデクスが、前記垂直ミスマッチ・オフセットよりも大きいのであれば、前記第1のピクセルを処理することと、
前記垂直ミスマッチ・オフセットを、前記第2の画像センサからの第2のピクセルの垂直インデクスと比較することと、
前記第2の画像センサからの第2のピクセルの垂直インデクスが、画像高さから前記垂直ミスマッチ・オフセットを引いたものよりも小さいのであれば、前記第2のピクセルを処理することと
を備える請求項24に記載の方法。
【請求項27】
立体画像構築失敗があるかを判定するために、前記垂直ミスマッチ・オフセットを、しきい値と比較することをさらに備える請求項24に記載の方法。
【請求項28】
前記処理することは、前記第1および第2の画像センサによってキャプチャされた画像の黒サブトラクト、レンズ・ロール・オフ補正、チャネル利得調節、不良ピクセル補正、デモザイク、クロッピング、スケール、ホワイト・バランス、色補正、luma適応、色変換、および画像コントラスト強調のうちの少なくとも1つを実行することを備える請求項18に記載の方法。
【請求項29】
前記処理することは、3次元画像を構築するためカラー・チャネル・マスク・タスクを実行することを備える請求項18に記載の方法。
【請求項30】
前記処理することは、前記第1の画像センサの行データに関する赤チャネル・データを出力し、前記第2の画像センサの行データに関する緑チャネル・データおよび青チャネル・データを出力する請求項29に記載の方法。
【請求項31】
低電力モードにある前記第2の画像センサを停止することをさらに備える請求項18に記載の方法。
【請求項32】
無線通信を送信すること、および受信することをさらに備える請求項18に記載の方法。
【請求項1】
第1の画像センサと、
前記第1の画像センサと離れて配置された第2の画像センサと、
前記第1および第2の画像センサからの画像データを合成するダイバーシティ合成モジュールと、
前記ダイバーシティ合成モジュールからの合成画像データを処理するように構成された画像処理モジュールと
を備えた装置。
【請求項2】
前記画像処理モジュールは、立体画像表示のための立体画像を生成するように構成された請求項1に記載の装置。
【請求項3】
前記画像処理モジュールは、立体画像表示で直接的に視覚化される立体画像を生成するように構成された請求項1に記載の装置。
【請求項4】
前記画像処理モジュールは、立体画像表示のための立体映像を生成するように構成された請求項1に記載の装置。
【請求項5】
前記画像処理モジュールは、立体画像表示で直接的に視覚化される立体映像を生成するように構成された請求項1に記載の装置。
【請求項6】
前記第1の画像センサからの画像データを格納する第1のバッファと、
前記第2の画像センサからの画像データを格納する第2のバッファとをさらに備え、
前記ダイバーシティ合成モジュールは、前記第1のバッファおよび前記第2のバッファから交互に画像データを受け取るように構成された請求項1に記載の装置。
【請求項7】
前記画像処理モジュールは、前記第1の画像センサおよび前記第2の画像センサからの画像データのための垂直方向1次元マッピングを提供するように構成されたマッピング・モジュールを備える請求項1に記載の装置。
【請求項8】
前記マッピング・モジュールからの垂直方向1次元マッピング・データを相関付け、前記第1および第2の画像センサからの画像データの垂直マッピングの最大相関に対応する垂直ミスマッチ・オフセットを見つけるように構成されたコントローラをさらに備え、
前記ダイバーシティ合成モジュールは、前記第1および第2の画像センサからの画像データを合成するために前記垂直ミスマッチ・オフセットを使用する請求項7に記載の装置。
【請求項9】
前記ダイバーシティ合成モジュールは、
前記垂直ミスマッチ・オフセットを、前記第1の画像センサからの第1のピクセルの垂直インデクスと比較し、前記第1の画像センサからの第1のピクセルの垂直インデクスが、前記垂直ミスマッチ・オフセットよりも大きいのであれば、前記第1のピクセルを前記画像処理モジュールに送り、
前記垂直ミスマッチ・オフセットを、前記第2の画像センサからの第2のピクセルの垂直インデクスと比較し、前記第2の画像センサからの第2のピクセルの垂直インデクスが、画像高さから前記垂直ミスマッチ・オフセットを引いたものよりも小さいのであれば、前記第2のピクセルを前記画像処理モジュールに送る
ように構成された請求項8に記載の装置。
【請求項10】
前記コントローラは、立体画像構築失敗があるかを判定するために、前記垂直ミスマッチ・オフセットを、しきい値と比較するように構成された請求項8に記載の装置。
【請求項11】
前記画像処理モジュールは、前記第1および第2の画像センサによってキャプチャされた画像の黒サブトラクト、レンズ・ロール・オフ補正、チャネル利得調節、不良ピクセル補正、デモザイク、クロッピング、スケール、ホワイト・バランス、色補正、luma適応、色変換、および画像コントラスト強調のうちの少なくとも1つを実行するように構成された請求項1に記載の装置。
【請求項12】
前記画像処理モジュールは、3次元画像を構築するためカラー・チャネル・マスク・タスクを実行するように構成された色変換モジュールを備える請求項1に記載の装置。
【請求項13】
前記画像処理モジュールは、前記第1の画像センサの行データに関する赤チャネル・データを出力し、前記第2の画像センサの行データに関する緑チャネル・データおよび青チャネル・データを出力する請求項12に記載の装置。
【請求項14】
前記第1の画像センサと前記第2の画像センサとは、約6cm離れて配置された請求項1に記載の装置。
【請求項15】
前記第2の画像センサは、前記装置が低電力モードに入った場合に停止するように構成された請求項1に記載の装置。
【請求項16】
前記装置はモバイル電話である請求項1に記載の装置。
【請求項17】
無線通信を送信および受信するように構成されたトランシーバをさらに備える請求項1に記載の装置。
【請求項18】
第1の画像センサを用いて第1の画像を検知することと、
前記第1の画像センサと離れて配置された第2の画像センサを用いて第2の画像を検知することと、
前記第1および第2の画像センサからの画像データをダイバーシティ合成することと、
立体画像を生成するために、前記ダイバーシティ合成された画像データを処理することと
を備える方法。
【請求項19】
立体画像表示のための立体画像を準備することをさらに備える請求項18に記載の方法。
【請求項20】
立体画像表示で直接的に視覚化される立体画像を準備することをさらに備える請求項18に記載の方法。
【請求項21】
立体画像表示のための立体映像を生成することをさらに備える請求項18に記載の方法。
【請求項22】
立体画像表示で直接的に視覚化される立体映像を生成することをさらに備える請求項18に記載の方法。
【請求項23】
前記第1の画像センサからの画像データを格納することと、
前記第2の画像センサからの画像データを格納することとをさらに備え、
前記ダイバーシティ合成することは、前記第1のバッファおよび前記第2のバッファから交互に画像データを受け取ることを備える請求項18に記載の方法。
【請求項24】
前記ダイバーシティ合成された画像データを処理することは、前記第1の画像センサおよび前記第2の画像センサからの画像データのための垂直方向1次元マッピングを提供することを備える請求項18に記載の方法。
【請求項25】
垂直方向1次元マッピング・データを相関付けることと、
前記第1および第2の画像センサからの画像データの垂直マッピングの最大相関に対応する垂直ミスマッチ・オフセットを見つけることとをさらに備え、
前記ダイバーシティ合成することは、前記第1および第2の画像センサからの画像データを合成するために前記垂直ミスマッチ・オフセットを使用する請求項24に記載の方法。
【請求項26】
前記ダイバーシティ合成することは、
前記垂直ミスマッチ・オフセットを、前記第1の画像センサからの第1のピクセルの垂直インデクスと比較することと、
前記第1の画像センサからの第1のピクセルの垂直インデクスが、前記垂直ミスマッチ・オフセットよりも大きいのであれば、前記第1のピクセルを処理することと、
前記垂直ミスマッチ・オフセットを、前記第2の画像センサからの第2のピクセルの垂直インデクスと比較することと、
前記第2の画像センサからの第2のピクセルの垂直インデクスが、画像高さから前記垂直ミスマッチ・オフセットを引いたものよりも小さいのであれば、前記第2のピクセルを処理することと
を備える請求項24に記載の方法。
【請求項27】
立体画像構築失敗があるかを判定するために、前記垂直ミスマッチ・オフセットを、しきい値と比較することをさらに備える請求項24に記載の方法。
【請求項28】
前記処理することは、前記第1および第2の画像センサによってキャプチャされた画像の黒サブトラクト、レンズ・ロール・オフ補正、チャネル利得調節、不良ピクセル補正、デモザイク、クロッピング、スケール、ホワイト・バランス、色補正、luma適応、色変換、および画像コントラスト強調のうちの少なくとも1つを実行することを備える請求項18に記載の方法。
【請求項29】
前記処理することは、3次元画像を構築するためカラー・チャネル・マスク・タスクを実行することを備える請求項18に記載の方法。
【請求項30】
前記処理することは、前記第1の画像センサの行データに関する赤チャネル・データを出力し、前記第2の画像センサの行データに関する緑チャネル・データおよび青チャネル・データを出力する請求項29に記載の方法。
【請求項31】
低電力モードにある前記第2の画像センサを停止することをさらに備える請求項18に記載の方法。
【請求項32】
無線通信を送信すること、および受信することをさらに備える請求項18に記載の方法。
【図1】
【図2A】
【図2B】
【図3】
【図4】
【図5】
【図6】
【図7A】
【図7B】
【図7C】
【図8A】
【図8B】
【図8C】
【図9】
【図10】
【図2A】
【図2B】
【図3】
【図4】
【図5】
【図6】
【図7A】
【図7B】
【図7C】
【図8A】
【図8B】
【図8C】
【図9】
【図10】
【公開番号】特開2013−48450(P2013−48450A)
【公開日】平成25年3月7日(2013.3.7)
【国際特許分類】
【外国語出願】
【出願番号】特願2012−219364(P2012−219364)
【出願日】平成24年10月1日(2012.10.1)
【分割の表示】特願2009−521992(P2009−521992)の分割
【原出願日】平成19年7月25日(2007.7.25)
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.WCDMA
【出願人】(595020643)クゥアルコム・インコーポレイテッド (7,166)
【氏名又は名称原語表記】QUALCOMM INCORPORATED
【Fターム(参考)】
【公開日】平成25年3月7日(2013.3.7)
【国際特許分類】
【出願番号】特願2012−219364(P2012−219364)
【出願日】平成24年10月1日(2012.10.1)
【分割の表示】特願2009−521992(P2009−521992)の分割
【原出願日】平成19年7月25日(2007.7.25)
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.WCDMA
【出願人】(595020643)クゥアルコム・インコーポレイテッド (7,166)
【氏名又は名称原語表記】QUALCOMM INCORPORATED
【Fターム(参考)】
[ Back to top ]