JP4089017B2 - After-recording method and apparatus for digital recording medium and reproducing method and apparatus for digital recording medium - Google Patents
After-recording method and apparatus for digital recording medium and reproducing method and apparatus for digital recording medium Download PDFInfo
- Publication number
- JP4089017B2 JP4089017B2 JP19182798A JP19182798A JP4089017B2 JP 4089017 B2 JP4089017 B2 JP 4089017B2 JP 19182798 A JP19182798 A JP 19182798A JP 19182798 A JP19182798 A JP 19182798A JP 4089017 B2 JP4089017 B2 JP 4089017B2
- Authority
- JP
- Japan
- Prior art keywords
- recording
- bit stream
- data
- recording medium
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Management Or Editing Of Information On Record Carriers (AREA)
- Television Signal Processing For Recording (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、デジタル記録媒体に記録したビデオデータ等に対してアフターレコーディングを行う方法及び装置等に関する。
【0002】
【従来の技術】
アフターレコーディング(以下、単に「アフレコ」ともいう)は、例えばスタジオ収録や野外収録等でオリジナルデータ(ビデオデータのみ、あるいはビデオデータとセリフ等の音声データ)を記録した後、編集過程において、効果音等の新たな音声データ(アフレコ音声データ)を追加して記録したり、あるいはオリジナルの音声データの一部をこうしたアフレコ音声データで置き換えたりする音声編集処理法である。
【0003】
デジタル記録媒体に記録したオリジナルデータに対してアフレコを行う手法には、例えば次の(1)〜(3)のような幾通りかのものが存在しているが、本明細書ではこのうちの(1)及び(3)の手法を対象として説明を行うものとする。
【0004】
(1)オリジナルデータを再生しながらアフレコ音声を入力し、このアフレコ音声データを、オリジナルデータの再生時にリアルタイムにオリジナルデータと多重化して当該デジタル記録媒体に記録する。
【0005】
(2)オリジナルデータを再生しながら入力したアフレコ音声データを一旦別の記録媒体に記録しておき、その後(即ちリアルタイムでなく)、この別の記録媒体から再生したアフレコ音声データを、オリジナルデータを記録しているデジタル記録媒体に多重化して記録する。
【0006】
(3)当該デジタル記録媒体に、アフレコ音声のデータをオリジナルデータとは多重化せずに記録し、再生時に、当該デジタル記録媒体から読み出したオリジナルの音声データとアフレコ音声データとをミキシングして完成音として出力する。
【0007】
図5は、デジタル記録媒体へのデータ(ビットストリーム)の記録例を示す。ビデオビットストリームVと、主音声ビットストリームA1と、副音声ビットストリームA2とが、1つのストリームに多重化して記録されている。ビデオビットストリームのビットレートに対して音声ビットストリームのビットレートは低いので(例えば、前者が6Mbpsまたは8Mbps程度であるのに対して後者は256kbps程度なので、その比はおよそ25対1または32対1である)、ほとんどの記録領域をVが占める中で、A1,A2の記録領域は周期的に点在している。
【0008】
尚、デジタル記録媒体用の符号化標準としては例えばMPEG2が用いられるが、その場合には、MPEG2のビデオで圧縮符号化したビデオビットストリームVと、MPEG2のオーディオで圧縮符号化した主音声ビットストリームA1及び副音声ビットストリームA2とが、MPEG2のシステムによりパケット多重方式で記録されることになる。
【0009】
図6は、デジタル記録媒体に図5の例のように記録したオリジナルデータに対して上記(1)の手法でアフレコを行う際の処理過程の一例を示す。最初に、オリジナルデータであるビデオビットストリームVと主音声ビットストリームA1とをデジタル記録媒体から読み出し、RF及び復調回路21,ECC回路22で復調,誤り訂正を行った後、読み出しレートとデコード処理のレートとの差を吸収するためのバッファ23を経て、デコーダ(多重分離のためのデマルチプレックス部とビデオデコーダとオーディオデコーダとを含む)24でデコードし、ビデオ出力端子P1,音声出力端子P2から図示しないディスプレイ,スピーカに送ってオリジナルの映像,音声を再生する。
【0010】
アフレコを行おうとするユーザは、このように映像及び音声を再生しながら、アフレコ音声データ(例えば、図示しないマイクの前で発生した音声のデータ、またはアフレコ音声のライブラリテープから選択して再生した音声データ等)を音声入力端子P3から入力する。実際に記録するアフレコ音声データとしては、この入力したアフレコ音声データにミキサ25でオリジナル(主音声)の音声データをミキシングしたものを用いることも多い。
【0011】
そして、オリジナルの映像,音声の再生に同期してアフレコ音声データをエンコーダ26でエンコードし、エンコード処理レートと書き込みレートとの差を吸収するためのバッファ27を経て、ECC回路28,変調及びRF回路29で誤り訂正符号の付加,変調を行った後、副音声ビットストリームA2の記録領域にこのアフレコ音声データを書き込む。
【0012】
ここで、副音声ビットストリームA2の記録領域は、アフレコ音声データを記録できる容量を有してさえいればよいので、アフレコを行う前に音声データが記録されている必要はなく、空白になっていてもよい。但し、空白になっている副音声ビットストリームA2の記録領域にアフレコ音声データを書き込んだ際に、ビデオビットストリームVと主音声ビットストリームA1と副音声ビットストリームA2とが正しい(MPEG2のシステムの規格に則った)多重化ビットストリームにならない場合には、アフレコ時に再度多重化を行うことが必要である。
【0013】
以上でアフレコが完了する。このようにアフレコを終えたデジタル記録媒体から完成作品としての映像及び音声を再生する際には、オリジナルの音声(主音声ビットストリームA1)とアフレコ音声(副音声ビットストリームA2)とのうちの任意の一方を選択して再生することができる。
【0014】
尚、上記処理過程例では、便宜上書き込み時にアフレコ音声データのみを書き込むものとして説明を行った。しかし、実際には、ECC回路が一定の大きさのデータブロックを単位として処理を行うことを理由として、アフレコ音声データの書き込みと併せてオリジナルデータの書き直しも行う必要がある。即ち、例えば音声ビットストリームのパケットの大きさが2kバイトであるのに対し、ECC回路のデータブロックの大きさが32kバイトまたは64kバイトであるとすると、ECC回路28での誤り訂正符号の付加は、アフレコ音声データと、この音声データを書き込むべき副音声ビットストリームA2の記録領域に隣接する領域に記録されているビデオビットストリームV等とを併せた32または64kバイト分のデータを単位として行なわなければならない。このように、デジタル記録媒体中の一部の領域に新たなデータを書き込む際にそれに隣接する領域のデータも誤り訂正符号を付加し直すべき対象となることから、オリジナルデータの書き直しが必要になる。
【0015】
【発明が解決しようとする課題】
ところで、このような処理過程を経るアフレコでは、ビデオビットストリームV及び主音声ビットストリームA1を読み出してからアフレコ音声データを書き込むまでに、各回路において概ね次のような処理時間がかかる。
【0016】
ECC回路22,28:それぞれ数十ミリ秒程度
バッファ23,27:それぞれ数百ミリ秒から数十秒程度(使用するバッファの機能に応じて大きなばらつきがある)
デコーダ24:数十ミリ秒程度
エンコーダ26:数十ミリ秒程度
【0017】
従って、通算として数百ミリ秒から数秒程度(場合によっては数十秒程度)の処理時間がかかるので、アフレコ音声データが、同時に再生されるべきオリジナルデータが記録されている領域よりもこの処理時間分だけ遅れた再生時刻に対応する領域に書き込まれるというディレイの問題が生じていた。即ち、例えばパケット多重化の場合には、アフレコ音声データが、同時に再生されるべきオリジナルデータのパケット中のタイムスタンプが示す時刻よりも遅い時刻を示すタイムスタンプを有するパケットとして記録されていた。
【0018】
しかも、この処理時間の長さはアフレコを行う毎に多少は変動するのが通常なので、オリジナルデータの記録領域に対するアフレコ音声データの記録領域の時間的関係もアフレコを行う毎に変動してしまう。その結果、従来は、完成作品としての映像及び音声を再生する際に、アフレコ音声をオリジナルの映像等と時間的に正確に一致させて再生することは困難であった。
【0019】
本発明は上述の点に鑑みてなされたもので、上記(1)のアフレコ手法を採用した図6のような処理過程を経ても、アフレコ音声を容易にオリジナルの映像等と時間的に正確に一致させて再生することのできるアフレコの方法及び装置を提供しようとするものである。
【0020】
また、上記(3)のアフレコ手法を採用しても、アフレコ音声をオリジナルの映像等と時間的に正確に一致させて再生することのできる、アフレコの方法及び装置並びに再生方法及び装置を提供しようとするものである。
【0021】
【課題を解決するための手段】
本発明に係るアフレコ方法は、請求項1に記載のように、ビデオビットストリームと主音声ビットストリームと副音声ビットストリームとの記録領域を有する記録媒体から、ビデオビットストリームと少なくとも1つの音声ビットストリームとを含むビットストリームを読み出す第1ステップと、このビットストリームをデコードする第2ステップと、このビットストリームのデコードに同期して、新たな音声データをエンコードしてアフレコ用のビットストリームとする第3ステップと、このアフレコ用のビットストリームをこの記録媒体の副音声ビットストリームの記録領域に書き込む第4ステップと、この記録媒体から読み出したビットストリームとアフレコ用のビットストリームとの時間的な対応関係を示す情報として、記録媒体から読み出したビットストリームのうちアフレコ用のビットストリームと対応し始める部分のプレゼンテーションタイムスタンプを示す情報を前記記録媒体の付加情報を記録するための領域に書き込む第5ステップとを含むことを特徴としている。
【0022】
このアフレコ方法によれば、ビデオビットストリームと主音声ビットストリームと副音声ビットストリームとの記録領域を有する記録媒体から読み出したビデオビットストリームと少なくとも1つの音声ビットストリームとを含むビットストリームのデコードに同期して新たな音声データをエンコードして得たアフレコ用のビットストリームを、当該記録媒体の副音声ビットストリームの記録領域に書き込むようにしている。
【0023】
このように、アフレコ用の音声データを副音声ビットストリームの記録領域に書き込むことにより、オリジナルデータ(ビデオビットストリーム及び少なくとも1つの音声ビットストリーム)の記録領域に対するアフレコデータの記録領域の時間的関係が明確になる。これにより、完成作品としての映像及び音声を再生する際に、アフレコデータを容易にオリジナルデータと時間的に正確に一致させて再生することが可能になる。そして、オリジナルデータとアフレコデータとの時間的な対応関係を示す情報として、オリジナルデータのうちアフレコデータと対応し始める部分のプレゼンテーションタイムスタンプを示す情報を記録媒体の付加情報の記録領域に書き込むので、オリジナルデータとアフレコデータとを多重化せずに記録しても、付加情報中のこの情報に基づいて、アフレコデータをオリジナルデータと時間的に正確に一致させて再生することが可能になる。
【0024】
また本発明に係るアフレコ装置は、請求項5に記載のように、ビデオビットストリームと主音声ビットストリームと副音声ビットストリームとの記録領域を有する記録媒体から、ビデオビットストリームと少なくとも1つの音声ビットストリームとを含むビットストリームを読み出す読み出し手段と、このビットストリームをデコードするデコーダと、新たな音声データをエンコードしてアフターレコーディング用のビットストリームとするエンコーダと、このアフターレコーディング用のビットストリームを記録媒体に書き込むための書き込み手段と、このデコーダによるビットストリームのデコードに同期してこのエンコーダによりエンコードされたアフターレコーディング用のビットストリームを、この書き込み手段を制御して記録媒体の副音声ビットストリームの記録領域に書き込ませる制御手段と、記録媒体から読み出したビットストリームとアフターレコーディング用のビットストリームとの時間的な対応関係を示す情報として、記録媒体から読み出したビットストリームのうちアフターレコーディング用のビットストリームと対応し始める部分のプレゼンテーションタイムスタンプを示す情報を記録媒体の付加情報を記録するための領域に書き込む付加情報書込み手段とを備えたことを特徴としている。
【0025】
このアフレコ装置によれば、読み出し手段により記録媒体から読み出したビデオビットストリームと少なくとも1つの音声ビットストリームとを含むビットストリームのデコーダによるデコードに同期して、新たな音声データがエンコーダによりエンコードされてアフレコ用のビットストリームが得られると、このアフレコ用のビットストリームが、制御手段の制御のもとで、書き込み手段により当該記録媒体の副音声ビットストリームの記録領域に書き込まれる。
【0026】
このように、アフレコ用の音声データを副音声ビットストリームの記録領域に書き込むことにより、オリジナルデータの記録領域に対するアフレコデータの記録領域の時間的関係が明確になる。これにより、完成作品としての映像及び音声を再生する際に、アフレコデータを容易にオリジナルデータと時間的に正確に一致させて再生することが可能になる。そして、オリジナルデータとアフレコデータとの時間的な対応関係を示す情報として、オリジナルデータのうちアフレコデータと対応し始める部分のプレゼンテーションタイムスタンプを示す情報を記録媒体の付加情報の記録領域に書き込むので、オリジナルデータとアフレコデータとを多重化せずに記録しても、付加情報中のこの情報に基づいて、アフレコデータをオリジナルデータと時間的に正確に一致させて再生することが可能になる。
【0027】
尚、請求項8及び11に記載の再生方法及び装置は、前述の(3)のアフレコ手法を採用した場合に好適な方法及び装置の一例である。
【0029】
この再生方法及び装置によれば、ビデオビットストリームと主音声ビットストリームと副音声ビットストリームとの記録領域を有する記録媒体の付加情報の記録領域から、オリジナルデータ(ビデオビットストリーム及び少なくとも1つの音声ビットストリーム)とアフレコ音声データとの時間的な対応関係を示す情報として、オリジナルデータのうちアフレコ音声データと対応し始める部分のプレゼンテーションタイムスタンプを示す情報が読み出され、この情報に基づき、オリジナルデータと、記録媒体の副音声ビットストリームの記録領域に書き込まれているアフレコ音声データとが同期して読み出されてデコードされるので、アフレコ時にオリジナルデータとアフレコ音声データとが多重化せずに記録されていても、アフレコ音声データがオリジナルデータと時間的に正確に一致させて再生される。
【0030】
【発明の実施の形態】
最初に、前述のアフレコ手法(1)〜(3)のうちの(1)の手法を採用する場合(すなわちオリジナルデータを再生しながらアフレコ音声を入力し、このアフレコ音声データを、オリジナルデータの再生時にリアルタイムにオリジナルデータに多重化して当該デジタル記録媒体に記録する場合)における本発明の一例について説明することにする。
【0031】
この(1)のアフレコ手法を採用する場合において、アフレコ音声データを記録するデジタル記録媒体の「所定の領域」として具体的にどのような領域を決定するかについては、例えば次の(A)または(B)のような領域が考えられる。但し、これらはそれぞれ好適な例であり、それ以外の領域を除外する趣旨ではない。
【0032】
(A)オリジナルデータの記録領域と略等しい再生時刻に対応する領域
これは、MPEGのシステムのような多重方式における方式上の制約に従って決定した例である。図5及び図6との関係でこの領域を説明すると、図6の処理過程で読み出した主音声ビットストリームA1と略同時に再生される副音声ビットストリームA2の記録領域ということになるが、具体的には、例えば次の(i)〜(ii)のうちのいずれかの領域とすることが考えられる。
【0033】
(i)この主音声ビットストリームA1の記録領域に最も空間的に近い副音声ビットストリームA2の記録領域
(ii)この主音声ビットストリームA1に付加されている時刻情報(MPEGのシステムではパケット中のプレゼンテーションタイムスタンプ(PTS))と略同じ時刻を示す時刻情報を付加されている副音声ビットストリームA2の記録領域
【0034】
(B)オリジナルデータの記録領域から大幅に遅れた時刻に対応する領域
これは、多重方式における方式上の制約に従わずに決定した例である。
【0035】
このうち、上記(A)の領域にアフレコ用のデータを書き込む場合には、デジタル記録媒体からオリジナルデータを読み出すためのデータチャネルと、アフレコ用のデータを当該デジタル記録媒体に書き込むデータチャネルとが別々に必要である。従って、読み出し用と書き込み用との2系統のヘッドを設けて読み出しと書き込みとを独立して行う方法か、あるいは1系統のヘッドをシークさせて読み出しと書き込みを時分割に行う方法かのいずれかを採用する必要がある(後者の方法は、ディスクのようなランダムアクセス方式の記録媒体に記録したオリジナルデータに対してアフレコを行う場合に限られることはもちろんである)。
【0036】
こうした方法は、一般的に記録再生装置においてデータの入出力をマルチチャネルで行う場合の方法と同じである。しかし、チャネル数が僅か2つであり読み出しと書き込みとを独立して行う場合でもヘッドは2系統のみで足りることや、読み出しと書き込みとを時分割に行う場合でもディレイの大きさに応じた距離だけヘッドをシークすればよい(フルストロークのシークを行うようなことはない)のでシーク距離が比較的小さいことから、一般的なマルチチャネルにおけるよりは実現のための条件は厳しくないといえる。
【0037】
これに対し、上記(B)の領域にアフレコ用のデータを書き込む場合には、1系統のヘッドでオリジナルデータを読み出した後、当該ヘッドの現在の位置でアフレコ用のデータの書き込みを行えば足りる。従って、ヘッドの系統数の削減やヘッドの制御の簡略化という点からは、こちらのほうが更に実現が容易であるといえる。
【0038】
しかし、この場合には、完成作品としての映像及び音声の再生時に、アフレコデータをオリジナルデータと時間的に一致させて再生するための処理を行わなければならない。この処理は、特にスロー再生や倍速再生等の特殊再生時には煩雑である。また、こうした処理を行うことは、装置のコストの増加にもつながる。従って、これらの点からは、逆に上記(A)の領域に書き込むほうが望ましいといえる。
そこで、以下では、上記(A)の領域に書き込む場合を例にとって具体例を説明する。
【0039】
図1は、前述の(1)のアフレコ手法を採用する場合において本発明のアフレコ方法及び装置を適用した光ディスク装置のシステム構成の一例を示す。
この光ディスク装置では、1枚の書き換え型の光ディスク1に対して1系統の光ピックアップ(光ヘッド)2が設けられており、データの読み出しと書き込みの双方にこの光ピックアップ2が共用される。光ディスク1には、図5に示したのと同様にして、ビデオビットストリームV,主音声ビットストリームA1及び副音声ビットストリームA2がMPEG2のシステムによりパケット多重方式で記録されている。各ビットストリームV,A1及びA2において、それぞれ幾つかのパケットに対して1つの割合で、プレゼンテーションタイムスタンプを有するパケットが存在している。
【0040】
光ピックアップ2により光ディスク1から読み出されたビットストリームは、RF及び復調/変調回路3(図6のRF及び復調回路21と変調及びRF回路29との機能を併有するもの),ECC回路4(図6のECC回路22とECC回路28との機能を併有するもの)でそれぞれ復調,誤り訂正を施された後、スイッチ5を介し、読み出しレートとデコード処理レートとの差を吸収するための読み出しチャネル用バッファ6に送られる。
【0041】
読み出しチャネル用バッファ6から取り出されたビットストリームは、デコーダ(デマルチプレックス部とビデオデコーダとオーディオデコーダとを含む)7でデコードされ、ビデオ出力端子P1,音声出力端子P2から図示しないディスプレイ,スピーカに送られて再生される一方で、バイパスバッファ8に送られる。バイパスバッファ8は、光ディスク1から読み出されたビットストリームを、デコード処理の後にも蓄積しておいて光ディスク1に再び書き込むことができるようにする役割を果たす。
【0042】
バイパスバッファ8から取り出されたビットストリームは、各パケット中のストリームIDに基づいて当該パケットのメディアの種類(ビデオか、主音声か、副音声か)を検出する検出器9を経て、スイッチ10の一方の固定接点に送られる。
【0043】
他方、音声入力端子P3から入力された音声データは、エンコーダ11でエンコードされた後、エンコーダバッファ12に蓄積される。エンコーダバッファ12から取り出された音声データは、スイッチ10のもう一方の固定接点に送られる。
【0044】
スイッチ10の可動接点は、エンコード処理レートと書き込みレートとの差を吸収するための書き込みチャネル用バッファ13に接続されている。スイッチ10を介して書き込みチャネル用バッファ13に送られたデータ(バイパスバッファ8から取り出されたビットストリームまたはエンコーダバッファ12から取り出された音声データ)は、書き込みチャネル用バッファ13から取り出され、スイッチ5を介してECC回路4,RF及び復調/変調回路3で誤り訂正符号の付加,変調を施された後、光ピックアップ2により光ディスク1に書き込まれる。
【0045】
尚、一例として、読み出しレートと書き込みレートとは互いに等しい大きさになっている(あるいは、読み出しレートと書き込みレートとの双方が可変であってそれらの最大レートが互いに等しくなっている)。
【0046】
この光ディスク装置でも、このように光ディスク1からビットストリームを読み出してから、その再生に同期して入力した音声データが光ディスク1に書き込まれるまでに、図6を用いて説明したような理由からやはり数百ミリ秒から数秒程度の処理時間がかかる。
【0047】
従って、この読み出しから書き込みまでの間に、光ディスク1に対する光ピックアップ2の位置は、この処理時間分だけ先に進んでしまうことになる。換言すれば、或る時刻を基準にして考えると、読み出したデータの記録領域と略等しい再生時刻に対応する領域にデータを書き込むために光ピックアップ2が存在しなければならない位置Wは、図2に示すように、当該時刻における光ピックアップ2の読み出し位置Rよりも、この処理時間分だけ後方にあることになる。
【0048】
図1に戻り、システムコントローラ14は、後述のようにアフレコ時にこの光ディスク装置の各部の動作を制御するものであり、図示せずも、CPUと、CPUが実行すべき処理プログラム等を格納したROMと、処理過程で生じたデータ等を一時記憶するためのRAMとを含んでいる。尚、この制御のうち、光ピックアップ2の位置の微調整は、RF及び復調/変調回路3で復調されたビットストリームを取り込んで現在読み出し中のデータのアドレス情報を検出するアドレス検出回路15の検出結果に基づいて行われる。また、スイッチ10の切り替え制御は、検出器9の検出結果に基づいて行われる。
【0049】
次に、アフレコ時にこのシステムコントローラ14が実行する処理の一例を説明する。
〔第1ステップ〕
最初に、図示しない操作パネルの操作によりユーザがアフレコ対象のオリジナルデータを指定することか、あるいは予め光ディスク1に書き込まれているアフレコ対象のオリジナルデータの指定情報を読み出すことに基づき、光ディスク1に記録されているオリジナルデータのうち、アフレコの対象となるオリジナルデータの範囲を確定する。
【0050】
続いて、このアフレコ対象のオリジナルデータのアドレス情報に基づき、光ピックアップ2を読み出し開始位置X0にシークさせる。そして、光ピックアップ2,RF及び復調/変調回路3,ECC回路4を読み出しモードに設定すると共にスイッチ5を読み出しチャネル用バッファ6側に切り替え、光ピックアップ2の位置を微調整した後、光ピックアップ2による読み出しを開始する。これにより、アフレコ対象のオリジナルデータが読み出しチャネル用バッファ6に蓄積されていく。
【0051】
図3は、アフレコ時の各時刻における光ピックアップ2の位置と読み出し・書き込み状況との関係(同図A)を示すと共に、これらの時刻における読み出しチャネル用バッファ6,書き込みチャネル用バッファ13のデータ蓄積量(同図B,C)を示す。尚、図3Aでは、太い実線は読み出し中であることを示し、破線は書き込み中であることを示し、細い実線はシーク中であることを示している。
【0052】
この図3では、読み出しチャネル用バッファ6への蓄積処理は、時刻T0からT2までの段階に相当しており、同図にも読み出しチャネル用バッファ6のデータ蓄積量が増加する様子が表れている。
【0053】
〔第2ステップ〕
読み出しチャネル用バッファ6からオリジナルデータを取り出し、デコーダ7でデコードして再生する一方で、バイパスバッファ8に蓄積する。
【0054】
デコーダ7でのデコード処理は、光ピックアップ2の位置にかかわらず、また読み出しモードと書き込みモードのいずれであるかにかかわらず、アフレコが終了するまで継続して行う。
このデコード処理は、図3との関係では時刻T0と時刻T1との間で開始される。
【0055】
〔第3ステップ〕
オリジナルデータの再生に同期してユーザが入力したアフレコ音声データを、エンコーダ11でエンコードし、エンコーダバッファ12に蓄積する。
エンコーダ11でのエンコード処理は、光ピックアップ2の位置にかかわらず、また読み出しモードと書き込むモードのいずれであるかにかかわらず、アフレコが終了するまで継続して行う。
【0056】
〔第4ステップ〕
バイパスバッファ8からオリジナルデータを取り出して検出器9に送る。
検出器9の検出結果が、現在バイパスバッファ8から取り出しているオリジナルデータがビデオビットストリームVまたは主音声ビットストリームA1であることを示しているときは、スイッチ10の可動接点を検出器9側の固定接点に切り替えて、オリジナルデータを書き込みチャネル用バッファ13に蓄積する。
【0057】
他方、検出器9の検出結果が、現在バイパスバッファ8から取り出しているオリジナルデータが副音声ビットストリームA2であることを示しているときは、スイッチ10の可動接点をエンコーダバッファ12側の固定接点に切り替えて、エンコーダバッファ12から取り出したアフレコ音声データを書き込みチャネル用バッファ13に蓄積する。それと同時に、バイパスバッファ8から副音声ビットストリームA2を取り出して検出器9側の固定接点に流し続けることにより、書き込みチャネル用バッファ13側ではこの副音声ビットストリームA2を無視するようにする。
【0058】
これにより、オリジナルデータであるビデオビットストリームV,主音声ビットストリームA1及び副音声ビットストリームA2のうちの副音声ビットストリームA2をアフレコ音声データで置き換えることによりオリジナルデータとアフレコ音声データとを組み合わせたビットストリームが、書き込みチャネル用バッファ13に蓄積されていく。
【0059】
この書き込みチャネル用バッファ13への蓄積処理は、光ピックアップ2の位置にかかわらず、また読み出しモードと書き込むモードのいずれであるかにかかわらず、アフレコが終了するまで継続して行う。
この書き込みチャネル用バッファ13への蓄積処理は、図3では時刻T1以降の段階に相当している。
【0060】
続いて、次の(a)〜(f)の要因のうちのいずれか1つまたは2以上の組み合わせにより決定される一定の条件が満たされた時点で、オリジナルデータの読み出しを停止し、スイッチ5を書き込みチャネル用バッファ13側に切り替える。
(a)読み出し開始からの経過時間
(b)読み出しチャネル用バッファ6のデータ蓄積量
(c)書き込みチャネル用バッファ13のデータ蓄積量
(d)メディアレート(光ディスク1に対する読み出し・書き込みのレート)
(e)読み出しチャネル,書き込みチャネルのデータレート(デコーダ7の消費レート,エンコーダ11の出力レート)
(f)バッファ6,13の容量
【0061】
そして、最後に読み出しチャネル用バッファ6に送ったオリジナルデータのアドレス情報を記憶する。(次回読み出しを再開する際には、このアドレス情報に基づき、この最後にバッファ6に送ったデータに続くオリジナルデータを光ディスク1から読み出していく。)
このスイッチ5の切り替えは、図3では時刻T2の段階に相当している。
【0062】
続いて、システムコントローラ14に予め記憶された情報に基づき、光ピックアップ2を、現在の位置X2から、書き込み開始位置(ここでは、読み出し開始位置と同じ位置X0)にまでシークさせ、位置X0に近づくと光ピックアップ2の位置を微調整する。
【0063】
このシーク動作は、図3では時刻T2からT3までの段階に相当している。前出の図2を例にとれば、このシーク動作により光ピックアップ2の位置はRからWに変化することになる。
【0064】
そして、光ピックアップ2,RF及び復調/変調回路3,ECC回路4を書き込みモードに切り替えて、書き込みチャネル用バッファ13からデータを取り出す。これにより、光ディスク1から読み出したオリジナルデータのうち副音声ビットストリームA2をアフレコ音声データで置き換えたデータが、誤り訂正符号を付加し直された後、光ディスク1上の当初の記録領域と略等しい領域に書き込まれていく。換言すれば、オリジナルデータであるビデオビットストリームV及び主音声ビットストリームA1の記録領域と略等しい再生時刻に対応する副音声ビットストリームA2の領域に、当該オリジナルデータと同時に再生されるべきアフレコ音声データが多重化して記録されていく。
【0065】
この書き込み処理は、図3では時刻T3からT4までの段階に相当しており、同図にも書き込みチャネル用バッファ13のデータ蓄積量が減少する様子が表れている。
【0066】
続いて、書き込み開始からの経過時間及び上記(b)〜(f)の要因のうちのいずれか1つまたは2以上の組み合わせにより決定される一定の条件が満たされた時点で、光ディスク1へのデータの書き込みを停止し、スイッチ5を再び読み出しチャネル用バッファ6側に切り替える。そして、最後に書き込んだデータのアドレス情報を記憶する。(次回書き込みを再開する際には、このアドレス情報に基づき、この最後に書き込んだデータに続くデータを書き込みチャネル用バッファ13から取り出していく。)
このスイッチ5の切り替えは、図3では時刻T4の段階に相当している。
この第4ステップまでで、アフレコ動作の1サイクルが終了する。
【0067】
続いて、前回スイッチ5を書き込みチャネル用バッファ13側に切り替えた際に記憶したアドレス情報に基づき、光ピックアップ2を、現在の位置X1から、前回読み出しを停止した位置X2にまでシークさせる。
【0068】
このシーク動作は、図3では時刻T4からT5までの段階に相当している。前出の図2を例にとれば、このシーク動作により光ピックアップ2の位置はWからRに変化することになる。このように、光ピックアップ2の位置は読み出し位置と書き込み位置との間を往復する。
【0069】
そして、光ピックアップ2,RF及び復調/変調回路3,ECC回路4を再び読み出しモードに設定して、光ピックアップ2の位置を微調整した後、光ピックアップ2による読み出しを再開する。以下、アフレコ対象のオリジナルデータに対応するアフレコデータの書き込みが全て完了するまで(あるいは図示しない操作パネルの操作によりユーザがアフレコの終了を指示するまで)、図3に時刻T5以降の段階として示すように、上述のような読み出しと書き込みとを時分割に行っていく。
【0070】
尚、図1の例ではバイパスバッファ8の後段に検出器9を設けているが、バイパスバッファ8の前段に検出器9を設けたり、あるいはデコーダ7でパケットのメディアの種類を検出したりしてもよい。但し、そうする場合には、検出結果とバイパスバッファ8の蓄積データとの関連をシステムコントローラ14が記憶しておく必要がある。
【0071】
また、メディアの種類を検出するだけでなくパケット中のプレゼンテーションタイムスタンプに基づいて各パケットの再生時刻をも検出する検出器を設けるようにしてもよい。そうすることにより、アフレコ音声データをビデオビットストリームV及び主音声ビットストリームA1の記録領域と略等しい再生時刻に対応する領域に多重化して記録する処理を、一層高精度に行うことができる。
【0072】
また、こうした検出器とスイッチ10との組み合わせに代えて、バイパスバッファ8から取り出したオリジナルデータとエンコーダバッファ12から取り出したアフレコ音声データとを多重化するための多重化器を設けるようにしてもよい。そうすることにより、一層効率的かつ高精度に多重化を行うことができるとともに、当初のオリジナルデータとは異なる構成で多重化を行うことができる。
【0073】
図4は、前述の(1)のアフレコ手法を採用する場合において本発明のアフレコ方法及び装置を適用した光ディスク装置のシステム構成の別の一例を示すものであり、図1と同一の部分には同一符号を付して重複説明を省略する。
【0074】
この光ディスク装置では、ECC回路4用のワークメモリとして2系統のワークメモリ16,17が設けられており、ECC回路4に供給されるデータが、スイッチ18を介してワークメモリ16,17のうちのいずれか一方に一時記憶されるようになっている(これに対し、図1の光ディスク装置では、ECC回路4には図示せずも1系統のワークメモリのみが設けられている)。
【0075】
この光ディスク装置においてアフレコ時にシステムコントローラ14が実行する処理は、図1の光ディスク装置での処理に対して次のような相違点を有しているが、その他の点については図1の光ディスク装置での処理と一致している。
【0076】
〔読み出しモードでの相違点〕
光ディスク1から読み出されてECC回路4に供給されるオリジナルデータを、スイッチ18を介して例えば一方のワークメモリ16に一時記憶する。
【0077】
前述の(a)〜(f)の要因のうちのいずれか1つまたは2以上の組み合わせにより決定される一定の条件が満たされてスイッチ5を書き込みチャネル用バッファ13側に切り替える際に、スイッチ18をワークメモリ17側に切り替える。
【0078】
オリジナルデータの読み出しを停止してアドレス情報を記憶する際に、読み出しチャネル用バッファ6に最後に送ったオリジナルデータではなく、ワークメモリ16に最後に送ったオリジナルデータのアドレス情報を記憶する。
【0079】
〔書き込みモードでの相違点〕
前述の(a)〜(f)の要因のうちのいずれか1つまたは2以上の組み合わせにより決定される一定の条件が満たされてスイッチ5を読み出しチャネル用バッファ6側に切り替える際に、スイッチ18を再びワークメモリ16側に切り替える。
【0080】
このような処理を行う利点は、次の通りである。
図1の光ディスク装置での処理では、ECC回路4が一定の大きさのデータブロックを単位として処理を行うことから、ECC回路4に入力されてはいるがデータブロックの大きさに達していないデータは、スイッチ5の切り替え時にECC回路4において破棄してしまわざるを得ない。従って、読み出し再開時にはこの破棄したデータを光ディスク1から読み出し直さなければならず、書き込み再開時にもこの破棄したデータを書き込みチャネル用バッファ13から取り出し直さなければならないので、非効率的である。
【0081】
これに対し、図4の光ディスク装置での処理では、読み出し時,書き込み時にECC回路4に入力されたがデータブロックの大きさに達していないデータが、スイッチ5の切り替え後にもそのままワークメモリ16,17に保持されるので、読み出し再開時にはワークメモリ16に保持したデータに続くデータを光ディスク1から読み出せば足り、書き込みの再開時にもワークメモリ17に保持したデータに続くデータを書き込みチャネル用バッファ13から取り出せば足りるので、効率的にアフレコを行うことができる。
【0082】
次に、前述のアフレコ手法(1)〜(3)のうちの(3)の手法を採用する場合(すなわちオリジナルデータを記録したデジタル記録媒体に、アフレコ音声のデータをオリジナルデータとは多重化せずに記録し、再生時に、当該デジタル記録媒体から読み出したオリジナルの音声データとアフレコ音声データとをミキシングして完成音として出力する場合)における本発明の一例について説明することにする。
【0083】
図7は、この(3)のアフレコ手法を採用する場合において本発明のアフレコ方法及び装置を適用した光ディスク装置のシステム構成の一例を示すものであり、図1と同一の部分には同一符号を付して重複説明を省略する。
この光ディスク装置では、1枚の書き換え型の光ディスク19に対して1系統の光ピックアップ(光ヘッド)2が設けられており、データの読み出しと書き込みの双方にこの光ピックアップ2が共用される。光ディスク19には、図8に示すように、ビデオビットストリームV,主音声ビットストリームA1及び副音声ビットストリームA2が記録されている。オリジナルデータであるビデオビットストリームVと主音声ビットストリームA1は、MPEG2のシステムによりパケット多重方式で記録されている(Rの部分)。また副音声ビットストリームA2は、MPEG2のシステムのパケット多重方式によりパケットに入っているが、ビットストリームV,A1とは独立して記録されている(Wの部分)。各ビットストリームV,A1及びA2において、それぞれ幾つかのパケットに対して1つの割合で、プレゼンテーションタイムスタンプを有するパケットが存在している。
【0084】
光ピックアップ2により光ディスク19から読み出されたビットストリームは、RF及び復調/変調回路3(図6のRF及び復調回路21と変調及びRF回路29との機能を併有するもの),ECC回路4(図6のECC回路22とECC回路28との機能を併有するもの)でそれぞれ復調,誤り訂正を施された後、スイッチ5を介し、読み出しレートとデコード処理レートとの差を吸収するための読み出しチャネル用バッファ6に送られる。
【0085】
読み出しチャネル用バッファ6から取り出されたビットストリームは、デコーダ(デマルチプレックス部とビデオデコーダとオーディオデコーダとを含む)7でデコードされ、ビデオ出力端子P1,音声出力端子P2から図示しないディスプレイ,スピーカに送られて再生される。
【0086】
他方、音声入力端子P3から入力された音声データは、エンコーダ11でエンコードされた後、エンコーダバッファ12に蓄積される。エンコーダバッファ12から取り出された音声データは、多重化器20を経て、書き込みチャネル用バッファ13に送られる。
【0087】
書き込みチャネル用バッファ13に送られたデータ(エンコーダバッファ12から取り出された音声データ)は、書き込みチャネル用バッファ13から取り出され、スイッチ5を介してECC回路4,RF及び復調/変調回路3で誤り訂正符号の付加,変調を施された後、光ピックアップ2により光ディスク19に書き込まれる。
【0088】
本例の場合には、読み出しレートと書き込みレートとは互いに異なっているのが通常である。つまり、読み出しレートはビデオとオーディオとが多重化されているストリームのビットレートであり、書き込みレートはオーディオ1本から成るストリームのビットレートであるため、読み出しレートのほうが書き込みレートよりも高いことが予想される。
【0089】
この光ディスク装置でも、このように光ディスク19からビットストリームを読み出してから、その再生に同期して入力した音声データが光ディスク19に書き込まれるまでに、図6を用いて説明したような理由からやはり数百ミリ秒から数秒程度の処理時間がかかる。
【0090】
従って、この読み出しから書き込みまでの間に、光ディスク19に対する光ピックアップ2の位置は、この処理時間分だけ先に進んでしまうことになる。但しこの例では、オリジナルデータのビットストリームは図8におけるRの部分であるのに対し、後述するようにアフレコ音声データは図8におけるWの部分に書き込まれ、この両部分は互いに異なるそれぞれ独立したビットストリームであるため、遅れは考慮しなくてよい。つまり、読み出しているデータと書き込んでいるデータとの間には、信号処理による遅れだけの時間差が発生しているが、これは記録時の動作には全く影響しない。
但し、後述するように、オリジナルデータのビットストリームとアフレコ音声データのビットストリームとの時間的な対応関係について光ディスク19のTOCの領域に記録しておく。
【0091】
図7に戻り、システムコントローラ14は、後述のようにアフレコ時にこの光ディスク装置の各部の動作を制御するものであり、図示せずも、CPUと、CPUが実行すべき処理プログラム等を格納したROMと、処理過程で生じたデータ等を一時記憶するためのRAMとを含んでいる。尚、この制御のうち、光ピックアップ2の位置の微調整は、RF及び復調/変調回路3で復調されたビットストリームを取り込んで現在読み出し中のデータのアドレス情報を検出するアドレス検出回路15の検出結果に基づいて行われる。
【0092】
次に、アフレコ時にこのシステムコントローラ14が実行する処理の一例を説明する。
〔第1ステップ〕
最初に、図示しない操作パネルの操作によりユーザがアフレコ対象のオリジナルデータを指定することか、あるいは予め光ディスク19に書き込まれているアフレコ対象のオリジナルデータの指定情報を読み出すことに基づき、光ディスク19に記録されているオリジナルデータのうち、アフレコの対象となるオリジナルデータの範囲を確定する。
【0093】
続いて、このアフレコ対象のオリジナルデータのアドレス情報に基づき、光ピックアップ2を読み出し開始位置X0にシークさせる。そして、光ピックアップ2,RF及び復調/変調回路3,ECC回路4を読み出しモードに設定すると共にスイッチ5を読み出しチャネル用バッファ6側に切り替え、光ピックアップ2の位置を微調整した後、光ピックアップ2による読み出しを開始する。これにより、アフレコ対象のオリジナルデータが読み出しチャネル用バッファ6に蓄積されていく。
【0094】
図9は、アフレコ時の各時刻における光ピックアップ2の位置と読み出し・書き込み状況との関係(同図A)を示すと共に、これらの時刻における読み出しチャネル用バッファ6,書き込みチャネル用バッファ13のデータ蓄積量(同図B,C)を示す。尚、図9Aでは、太い実線は読み出し中であることを示し、破線は書き込み中であることを示し、細い実線はシーク中であることを示している。
【0095】
この図9では、読み出しチャネル用バッファ6への蓄積処理は、時刻T0からT2までの段階に相当しており、同図にも読み出しチャネル用バッファ6のデータ蓄積量が増加する様子が表れている。
【0096】
〔第2ステップ〕
読み出しチャネル用バッファ6からオリジナルデータを取り出し、デコーダ7でデコードして再生する。
【0097】
デコーダ7でのデコード処理は、光ピックアップ2の位置にかかわらず、また読み出しモードと書き込みモードのいずれであるかにかかわらず、アフレコが終了するまで継続して行う。
このデコード処理は、図9との関係では時刻T0と時刻T1との間で開始される。
【0098】
〔第3ステップ〕
オリジナルデータの再生に同期してユーザが入力したアフレコ音声データを、エンコーダ11でエンコードし、エンコーダバッファ12に蓄積する。
エンコーダ11でのエンコード処理は、光ピックアップ2の位置にかかわらず、また読み出しモードと書き込むモードのいずれであるかにかかわらず、アフレコが終了するまで継続して行う。
【0099】
〔第4ステップ〕
エンコーダバッファ12から取り出したアフレコ音声データは、多重化器20でMPEG2のシステムの規格に則ったパケットに収められて、書き込みチャネル用バッファ13に蓄積される。
【0100】
これにより、オリジナルデータと時間的に対応するビットストリームが作成されて、書き込みチャネル用バッファ13に蓄積されていく。
【0101】
この書き込みチャネル用バッファ13への蓄積処理は、光ピックアップ2の位置にかかわらず、また読み出しモードと書き込むモードのいずれであるかにかかわらず、アフレコが終了するまで継続して行う。
この書き込みチャネル用バッファ13への蓄積処理は、図9では時刻T1以降の段階に相当している。
【0102】
続いて、次の(a)〜(f)の要因のうちのいずれか1つまたは2以上の組み合わせにより決定される一定の条件が満たされた時点で、オリジナルデータの読み出しを停止して、スイッチ5を再び書き込みチャネル用バッファ13側に切り替る。
(a)読み出し開始からの経過時間
(b)読み出しチャネル用バッファ6のデータ蓄積量
(c)書き込みチャネル用バッファ13のデータ蓄積量
(d)メディアレート(光ディスク19に対する読み出し・書き込みのレート)
(e)読み出しチャネル,書き込みチャネルのデータレート(デコーダ7の消費レート,エンコーダ11の出力レート)
(f)バッファ6,13の容量
【0103】
そして、最後に読み出しチャネル用バッファ6に送ったオリジナルデータのアドレス情報を記憶する。(次回読み出しを再開する際には、このアドレス情報に基づき、この最後にバッファ6に送ったデータに続くオリジナルデータを光ディスク19から読み出していく。)
このスイッチ5の切り替えは、図9では時刻T2の段階に相当している。
【0104】
続いて、システムコントローラ14に予め記憶された情報に基づき、光ピックアップ2を、現在の位置X2から、書き込み開始位置(ここでは、オリジナルデータの記録位置である図8のRの部分とは重ならない、副音声ビットストリームA2の記録位置である図8のWの部分の中の位置Y0)にまでシークさせ、位置Y0に近づくと光ピックアップ2の位置を微調整する。
【0105】
このシーク動作は、図9では時刻T2からT3までの段階に相当している。前出の図8を例にとれば、このシーク動作により光ピックアップ2の位置はRからWに変化することになる。
【0106】
そして、光ピックアップ2,RF及び復調/変調回路3,ECC回路4を書き込みモードに切り替えて、書き込みチャネル用バッファ13からデータを取り出す。これにより、アフレコ音声データが、誤り訂正符号を付加された後、光ディスク19上に書き込まれていく。
【0107】
この書き込み処理は、図9では時刻T3からT4までの段階に相当しており、同図にも書き込みチャネル用バッファ13のデータ蓄積量が減少する様子が表れている。
【0108】
続いて、書き込み開始からの経過時間及び上記(b)〜(f)の要因のうちのいずれか1つまたは2以上の組み合わせにより決定される一定の条件が満たされた時点で、光ディスク19へのデータの書き込みを停止し、スイッチ5を再び読み出しチャネル用バッファ6側に切り替える。そして、最後に書き込んだデータのアドレス情報を記憶する。(次回書き込みを再開する際には、このアドレス情報に基づき、この最後に書き込んだデータに続くデータを書き込みチャネル用バッファ13から取り出していく。)
このスイッチ5の切り替えは、図9では時刻T4の段階に相当している。
この第4ステップまでで、アフレコ動作の1サイクルが終了する。
【0109】
続いて、前回スイッチ5を書き込みチャネル用バッファ13側に切り替えた際に記憶したアドレス情報に基づき、光ピックアップ2を、現在の位置Y1から、前回読み出しを停止した位置X2にまでシークさせる。
【0110】
このシーク動作は、図9では時刻T4からT5までの段階に相当している。前出の図8を例にとれば、このシーク動作により光ピックアップ2の位置はWからRに変化することになる。このように、光ピックアップ2の位置は読み出し位置と書き込み位置との間を往復する。
【0111】
そして、光ピックアップ2,RF及び復調/変調回路3,ECC回路4を再び読み出しモードに切り替え、光ピックアップ2の位置を微調整した後、光ピックアップ2による読み出しを再開する。以下、アフレコ対象のオリジナルデータに対応するアフレコデータの書き込みが全て完了するまで(あるいは図示しない操作パネルの操作によりユーザがアフレコの終了を指示するまで)、図9に時刻T5以降の段階として示すように、上述のような読み出しと書き込みとを時分割に行っていく。
【0112】
〔第5ステップ〕
アフレコの最終段階として、オリジナルデータとアフレコ音声データとの時間的な対応関係を示す情報を光ディスク19に記録する。
ここでは、一例として、プレゼンテーションタイムスタンプ(PTS)を利用する。
すなわち、先にも述べたように、MPEG2のシステムでは、各メディアのビットストリームのパケットがプレゼンテーションタイムスタンプを有しているので、図10に例示するように、オリジナルデータであるビデオビットストリームV及び主音声ビットストリームA1のうちアフレコ音声データである音声ビットストリームA2と対応し始める部分(すなわちユーザあるいは光ディスク19に書き込まれている指定情報により指定されたアフレコ対象のオリジナルデータの先頭部分)のプレゼンテーションタイムスタンプにより、オリジナルデータとアフレコ音声データとの時間的な対応関係が一義的に特定されることになる。
【0113】
そこで、アフレコ対象のオリジナルデータに対応するアフレコ音声データの書き込みが全て完了したときあるいはユーザがアフレコの終了を指示したときには、システムコントローラ14は、オリジナルデータのうちアフレコ音声データと対応し始める部分のプレゼンテーションタイムスタンプを示す情報を、光ディスク19のTOC(Table Of Contents )の領域に記録する。
また、オリジナルデータのうちアフレコ音声データと対応し始める部分(図9のX0)のアドレス情報と、アフレコ音声データの開始位置(図9のY0)及び終了位置のアドレス情報も、TOCの領域に記録する。
【0114】
このように、オリジナルデータとアフレコ音声データとの時間的な対応関係を示す情報として、オリジナルデータのうちアフレコ音声データと対応し始める部分のプレゼンテーションタイムスタンプを示す情報が光ディスク19のTOCの領域に記録されるので、オリジナルデータとアフレコ音声データとが多重化せずに記録されるにも係わらず、TOC中のこの情報に基づいて、アフレコ音声データをオリジナルデータと時間的に正確に一致させて再生することが可能になる。
【0115】
図11は、前述の(3)のアフレコ手法を採用する場合において本発明の再生方法及び装置を適用した光ディスク装置のシステム構成の一例を示す。
この光ディスク装置では、データ読み出し用の1系統の光ピックアップ(光ヘッド)31が設けられており、この光ディスク装置に装着された光ディスクから光ピックアップ31により読み出されたビットストリームは、RF及び復調回路32(図6のRF及び復調回路21の機能を有するもの),ECC回路33(図6のECC回路22の機能を有するもの)でそれぞれ復調,誤り訂正を施された後、スイッチ34を介し、読み出しレートとデコード処理レートとの差を吸収するためのバッファ35(チャンネル(Ch)1のバッファ35aとチャンネル(Ch)2のバッファ35bとのいずれか)に送られる。
【0116】
Ch1のバッファ35aから取り出されたビットストリームは、デコーダ(デマルチプレックス部とビデオデコーダとオーディオデコーダとを含む)36aでデコードされる。デコーダ36aから出力された映像信号は、ビデオ出力端子P1から図示しないディスプレイに送られ、デコーダ36aから出力された音声信号は、ミキシング回路37に送られる。
【0117】
他方Ch2のバッファ35bから取り出されたビットストリームは、デコーダ(オーディオデコーダを含む)36bでデコードされ、デコーダ36bから出力された音声信号はミキシング回路37に送られる。
ミキシング回路37から出力された音声信号は、音声出力端子P2から図示しないスピーカに送られて再生される。
【0118】
また図示せずも、光ピックアップ31により光ディスクから読み出されたTOC情報は、RF及び復調回路32,ECC回路33でそれぞれ復調,誤り訂正を施された後、システムコントローラ38に送られる。
システムコントローラ38は、後述のように再生時にこの光ディスク装置の各部の動作を制御するものであり、図示せずも、CPUと、CPUが実行すべき処理プログラム等を格納したROMと、処理過程で生じたデータ等を一時記憶するためのRAMとを含んでいる。尚、この制御のうち、光ピックアップ31の位置の微調整は、RF及び復調/変調回路32で復調されたビットストリームを取り込んで現在読み出し中のデータのアドレス情報を検出するアドレス検出回路39の検出結果に基づいて行われる。
【0119】
次に、光ディスク19(図7の光ディスク装置によりアフレコが行われたもの)の再生時にこのシステムコントローラ38が実行する処理の一例を説明する。
〔第1ステップ〕
光ピックアップ31に光ディスク19のTOC情報を読み出させた際に、図7の光ディスク装置により記録された情報であるところの、オリジナルデータのうちアフレコ音声データと対応し始める部分のプレゼンテーションタイムスタンプを示す情報と、オリジナルデータのうちアフレコ音声データと対応し始める部分(図9のX0)のアドレス情報と、アフレコ音声データの開始位置(図9のY0)及び終了位置のアドレス情報とを得る。
【0120】
〔第2ステップ〕
図示しない操作パネルの操作によりユーザがオリジナルデータ(図8のビデオビットストリームV及び主音声ビットストリームA1)の再生開始位置を指定すると、この再生開始位置のアドレス情報に基づき、光ピックアップ31をこの再生開始位置にシークさせる。そして、スイッチ34をCh1のバッファ35a側に切り替え、光ピックアップ31の位置を微調整した後、光ピックアップ31による読み出しを開始する。
そして、バッファ35aに蓄積されたオリジナルデータをバッファ35aから取り出してデコーダ36aに送り、デコーダ36aでのデコード処理を開始する。
【0121】
これにより、オリジナルの映像が再生されると共に、オリジナルの音声がミキシング回路37を経てそのまま再生される。
尚、デコーダ36aの消費レートは光ディスク19からの読み出しレートよりも小さいので、バッファ35aに容量一杯にまでオリジナルデータが蓄積されると、光ディスク19からのオリジナルデータの読み出しを中断し、その後バッファ35aからデータが取り出されることによりバッファ35aの容量に十分な空きができると、光ディスク19からの読み出しを再開する。
【0122】
このようにしてオリジナルデータが読み出されていき、第1ステップで得た情報が示すプレゼンテーションタイムスタンプと同じプレゼンテーションタイムスタンプを有する部分(図9ではX0、図10ではPTSの部分)に達すると、バッファ35aのデータ蓄積量が例えば次の(g)〜(j)のような各要因から決定される最低限必要な量(一例として容量一杯の量)になった時点で、オリジナルデータの読み出しを停止すると共にバッファ35aからのオリジナルデータの取り出しを停止して、スイッチ34をCh2のバッファ35b側に切り替える。(g)第1ステップで得た情報が示すプレゼンテーションタイムスタンプと同じプレゼンテーションタイムスタンプを有する部分に達してからの経過時間
(h)メディアレート(光ディスク19に対する読み出し・書き込みのレート)
(i)Ch1,Ch2のデータレート(デコーダ36a,36bの消費レート)
(j)バッファ35a,35bの容量
【0123】
そして、最後にバッファ35aに送ったオリジナルデータのアドレス情報を記憶する。(次回オリジナルデータの読み出しを再開する際には、このアドレス情報に基づき、この最後にバッファ35aに送ったデータに続くオリジナルデータを光ディスク19から読み出していく。)
【0124】
続いて、第1ステップで得たアドレス情報に基づき、光ピックアップ31を、現在の位置から、アフレコ音声データの開始位置(図9のY0)にまでシークさせ、光ピックアップ31の位置を微調整した後、光ピックアップ31による読み出しを開始する。
これにより、アフレコ音声データ(図8の副音声ビットストリームA2)がバッファ35bに蓄積されていく。
【0125】
〔第3ステップ〕
続いて、バッファ35bのデータ蓄積量が、例えば上記(h)〜(j)及び次の(k)及び(l)のような各要因から決定される最低限必要な量(一例として容量一杯の量)になった時点で、Ch1のバッファ35a,Ch2のバッファ35bからオリジナルデータ,アフレコ音声データをそれぞれ取り出してデコーダ36a,36bに送り、デコーダ36bでのデコード処理も開始する。
(k)アフレコ音声データの読み出しを開始してからの経過時間
(l)Ch1のバッファ35aのデータ蓄積量
尚、バッファ35bについての上記最低限必要なデータ蓄積量は、バッファ35aについての上記最低限必要なデータ蓄積量よりも小さくてもよい。なぜなら、デコーダ36bでのデコード処理の開始後もまだアフレコ音声データの読み出しを続けているので、バッファ35bにアンダーフローが発生する危険性が少なくなっているからである。
【0126】
また、この例では、第2ステップにおいて、第1ステップで得た情報が示すプレゼンテーションタイムスタンプと同じプレゼンテーションタイムスタンプを有する部分に達すると、Ch1のバッファ35aからのオリジナルデータの取り出しを停止し(従ってデコーダ36aでのオリジナルデータのデコード処理を停止し)、その後の第3ステップにおいて、Ch2のバッファ35bからのアフレコ音声データの取り出しを開始してデコーダ36bでのアフレコ音声データのデコード処理を開始すると同時に、バッファ35aからのオリジナルデータの取り出しを再開(従ってデコーダ36aでのオリジナルデータのデコード処理を再開)している。しかし別の例として、第2ステップにおいて、第1ステップで得た情報が示すプレゼンテーションタイムスタンプと同じプレゼンテーションタイムスタンプを有する部分に達しても、バッファ35aからのオリジナルデータの取り出しを継続し(従ってデコーダ36aでのオリジナルデータのデコード処理を継続し)、このようにデコーダ36aでのデコード処理を継続した状態で、第3ステップにおいて、バッファ35bからのアフレコ音声データの取り出しを開始してデコーダ36bでのアフレコ音声データのデコード処理を開始するようにしてもよい。
【0127】
〔第4ステップ〕
これにより、オリジナルの映像が再生されると共に、オリジナルの音声とアフレコ音声とがミキシング回路37でミキシングされて再生され始める。
【0128】
続いて、例えば上記(h)〜(j),(k),(l)及び次の(m)のような各要因から決定される一定の条件を満たした時点で、アフレコ音声データの読み出しを停止し、スイッチ34を再びCh1のバッファ35a側に切り替える。
(m)Ch2のバッファ35bのデータ蓄積量
そして、最後にバッファ35bに送ったアフレコ音声データのアドレス情報を記憶する。(次回アフレコ音声データの読み出しを再開する際には、このアドレス情報に基づき、この最後にバッファ35bに送ったデータに続くアフレコ音声データを光ディスク19から読み出していく。)
【0129】
続いて、前回スイッチ34をCh2のバッファ35b側に切り替えた際に記憶したアドレス情報に基づき、光ピックアップ31を、現在の位置から、前回読み出しを停止したオリジナルデータの位置にまでシークさせ、光ピックアップ31の位置を微調整した後、光ピックアップ31による読み出しを開始する。
以下、アフレコ音声データの終了位置までの読み出しが全て完了するまで(あるいは図示しない操作パネルの操作によりユーザが再生の終了を指示するまで)、、上述のようなオリジナルデータの読み出しとアフレコ音声データの読み出しとを時分割に行っていく。
【0130】
図12は、この再生時の定常状態における、光ピックアップ31の読み出し状況(同図A)と、Ch1のバッファ35a,Ch2のバッファ35bのデータ蓄積量(同図B,C)との一例を示す。図12Aにおいて、Ch1はオリジナルデータを読み出し中の期間であり、Ch2はアフレコ音声データを読み出し中の期間であり、Tpはシーク中の期間であり、Tcは時分割読み出しの繰り返し周期であり、Rmは光ディスク19からの読み出しレートである。
【0131】
この図12では、時刻T0に、バッファ35aのデータ蓄積量がゼロになる前にオリジナルデータの読み出しが再開され、その後の時刻T1に、オリジナルデータの読み出しが停止され、時刻T1からT2の間に光ピックアップ31がアフレコ音声データの記録位置にシークされ、その後時刻T2に、バッファ35bのデータ蓄積量がゼロになる前にアフレコ音声データの読み出しが再開され、その後の時刻T3に、アフレコ音声データの読み出しが停止され、時刻T3からT4の間に光ピックアップ31がオリジナルデータの記録位置にシークされ、以下同様な過程が繰り返される様子が表れている。
【0132】
尚、図12では、オリジナルデータの読み出し中の期間とアフレコ音声データの読み出し中の期間との長さの関係や、バッファ35aのデータ蓄積量とバッファ35bのデータ蓄積量と大きさの関係を捨象して描いている。しかし、オリジナルデータはビデオビットストリームV及び主音声ビットストリームA1から成るのに対し、アフレコ音声データは副音声ビットストリームA2のみから成るので、オリジナルデータの読み出し中の期間がアフレコ音声データの読み出し中の期間よりも長く、且つバッファ35aのデータ蓄積量がバッファ35bのデータ蓄積量よりも大きくてよいことはもちろんである。
【0133】
このように、光ディスク19のTOCの領域から、オリジナルデータのうちアフレコ音声データと対応し始める部分のプレゼンテーションタイムスタンプを示す情報が読み出され、この情報に基づき、オリジナルデータとアフレコ音声データとが同期して読み出されてデコードされるので、アフレコ時にはオリジナルデータとアフレコ音声データとが多重化せずに記録されているにも係わらず、アフレコ音声データがオリジナルデータと時間的に正確に一致させて再生される。
【0134】
以上の各例では1系統の光ピックアップをシークさせて読み出しと書き込みと(または2チャンネルのデータの読み出し)を時分割に行っているが、2系統の光ピックアップを設けて読み出しと書き込みと(または2チャンネルのデータの読み出し)を独立して行うようにしてもよい。
【0135】
また、以上の例では書き換え型の光ディスクを搭載した光ディスク装置に本発明を適用しているが、例えば磁気ディスク等の適宜の書き換え可能なディスク状記録媒体(あるいはディスク状記録媒体以外のランダムアクセス方式のデジタル記録媒体)を搭載した記録再生装置に本発明を適用してもよい。また、2系統のヘッドを設ける場合には、例えば磁気テープ等のシーケンシャルアクセス方式のデジタル記録媒体を搭載した記録再生装置に本発明を適用してもよい。
【0136】
また、以上の例ではオリジナルデータをパケット多重方式で記録した記録媒体に本発明を適用しているが、適宜の方式でオリジナルデータを記録したデジタル記録媒体に本発明を適用してよい。
【0137】
また、以上の例ではビデオビットストリームVと主音声ビットストリームA1とから成るオリジナルデータに対して音声データのアフレコを行うようにしているが、適宜のメディア種類のビットストリームから成るオリジナルデータに対して適宜の種類の新たなデータのアフレコを行う場合に本発明を適用してよい。即ち、例えばビデオビットストリームのみから成る(あるいはビデオビットストリームと音声ビットストリームとから成る)オリジナルデータに対して音声データとグラフィックデータとの少なくともいずれか一方のアフレコを行う場合や、音声ビットストリームのみから成るオリジナルデータに対してビデオデータとグラフィックデータとの少なくともいずれか一方のアフレコを行う場合等にも本発明を適用してよい。
【0138】
そして、前述の(3)のアフレコ手法を採用する場合における再生時のミキシングも、図11の光ディスク装置におけるように主音声ビットストリームA1と副音声ビットストリームA2とについて行なうだけでなく、オリジナルデータのうちのビデオビットストリームと、アフレコデータのうちのビデオビットストリームまたはグラフィックビットストリームとについて行なうようにしてもよい。
【0139】
また、本発明は、以上の実施例に限らず、本発明の要旨を逸脱することなく、その他様々の構成をとりうることはもちろんである。
【0140】
【発明の効果】
以上のように、本発明に係るアフレコ方法及び装置によれば、オリジナルデータ(ビデオビットストリーム及び少なくとも1つの音声ビットストリーム)の記録領域に対するアフレコ用の音声データの記録領域の時間的関係が明確になるので、完成作品としての映像及び音声を再生する際に、アフレコデータを容易にオリジナルデータと時間的に正確に一致させて再生することができるという効果が得られる。
【0141】
また、オリジナルデータとアフレコデータとの時間的な対応関係を示す情報として、オリジナルデータのうちアフレコデータと対応し始める部分のプレゼンテーションタイムスタンプを示す情報が記録媒体の付加情報の記録領域に記録されるので、オリジナルデータとアフレコデータとが多重化せずに記録しても、この情報に基づいて、アフレコデータをオリジナルデータと時間的に正確に一致させて再生することができるという効果が得られる。
【0142】
また、本発明に係る請求項8及び11に記載の再生方法及び装置によれば、ビデオビットストリームと主音声ビットストリームと副音声ビットストリームとの記録領域を有する記録媒体の付加情報の記録領域から、オリジナルデータ(ビデオビットストリーム及び少なくとも1つの音声ビットストリーム)とアフレコ音声データとの時間的な対応関係を示す情報として、オリジナルデータのうちアフレコ音声データと対応し始める部分のプレゼンテーションタイムスタンプを示す情報が読み出され、この情報に基づき、オリジナルデータと、記録媒体の副音声ビットストリームの記録領域に書き込まれているアフレコ音声データとが同期して読み出されてデコードされるので、アフレコ時にオリジナルデータとアフレコ音声データとが多重化せずに記録されていても、アフレコ音声データをオリジナルデータと時間的に正確に一致させて再生することができるという効果が得られる。
【図面の簡単な説明】
【図1】本発明を適用した光ディスク装置のシステム構成の一例を示すブロック図である。
【図2】光ピックアップの読み出し位置と書き込み位置との関係の一例を示す図である。
【図3】光ピックアップの位置と読み出し・書き込みの状況との関係と、バッファへのデータ蓄積量との一例を示す図である。
【図4】本発明を適用した光ディスク装置のシステム構成の別の一例を示すブロック図である。
【図5】デジタル記録媒体へのデータの記録例を示す図である。
【図6】従来のアフレコの処理過程の一例を示す図である。
【図7】本発明を適用した光ディスク装置のシステム構成の一例を示すブロック図である。
【図8】光ピックアップの読み出し位置と書き込み位置との関係の一例を示す図である。
【図9】光ピックアップの位置と読み出し・書き込みの状況との関係と、バッファへのデータ蓄積量との一例を示す図である。
【図10】オリジナルデータのうちアフレコ音声データと対応し始める部分のプレゼンテーションタイムスタンプを示す図である。
【図11】本発明を適用した光ディスク装置のシステム構成の別の一例を示すブロック図である。
【図12】時分割再生時における光ピックアップの読み出しの状況とバッファへのデータ蓄積量との一例を示す図である。
【符号の説明】
1,19‥‥光ディスク、2,31‥‥光ピックアップ、3‥‥RF及び復調/変調回路、4、33‥‥ECC回路、5,10,18、34‥‥スイッチ、6‥‥読み出しチャネル用バッファ、7,36a,36b‥‥デコーダ、8‥‥バイパスバッファ、9‥‥検出器、11‥‥エンコーダ、12‥‥エンコーダバッファ、13‥‥書き込みチャネル用バッファ、14,38‥‥システムコントローラ、15,39‥‥アドレス検出回路、16,17‥‥ワークメモリ、20‥‥多重化器,32‥‥RF及び復調回路、35a‥‥Ch1のバッファ、35b‥‥Ch2のバッファ、37‥‥ミキシング回路[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method and apparatus for performing after recording on video data or the like recorded on a digital recording medium.
[0002]
[Prior art]
After-recording (hereinafter, also simply referred to as “after-recording”), for example, after recording original data (video data only, or audio data such as video data and lines) in studio recording or outdoor recording, Is a voice editing processing method in which new voice data (after-recording voice data) is added and recorded, or a part of the original voice data is replaced with such after-recording voice data.
[0003]
There are several methods for performing post-recording on original data recorded on a digital recording medium, for example, the following (1) to (3). The description will be made on the methods (1) and (3).
[0004]
(1) After-recording sound is input while reproducing the original data, and this after-recording sound data is multiplexed with the original data in real time when the original data is reproduced and recorded on the digital recording medium.
[0005]
(2) Recording the after-recording sound data input while reproducing the original data once on another recording medium (that is, not in real time), and then recording the after-recording sound data reproduced from the other recording medium with the original data. Multiplex and record on a digital recording medium.
[0006]
(3) After-recording audio data is recorded on the digital recording medium without being multiplexed with the original data, and the original audio data read from the digital recording medium and the after-recording audio data are mixed during reproduction. Output as sound.
[0007]
FIG. 5 shows an example of recording data (bit stream) on a digital recording medium. A video bit stream V, a main audio bit stream A1, and a sub audio bit stream A2 are multiplexed and recorded in one stream. Since the bit rate of the audio bit stream is lower than the bit rate of the video bit stream (for example, the former is about 6 Mbps or 8 Mbps, while the latter is about 256 kbps, the ratio is about 25 to 1 or 32 to 1. However, while V occupies most of the recording area, the recording areas A1 and A2 are periodically scattered.
[0008]
For example, MPEG2 is used as an encoding standard for a digital recording medium. In this case, a video bitstream V compressed and encoded with MPEG2 video and a main audio bitstream compressed and encoded with MPEG2 audio are used. A1 and the sub audio bitstream A2 are recorded by the MPEG2 system in a packet multiplexing manner.
[0009]
FIG. 6 shows an example of a processing process when post-recording is performed on the original data recorded on the digital recording medium as in the example of FIG. 5 by the method (1). First, the video bit stream V and the main audio bit stream A1, which are original data, are read from the digital recording medium, demodulated and error-corrected by the RF and
[0010]
The user who wants to perform dubbing, while reproducing video and audio in this way, dubbed audio data (for example, audio data generated in front of a microphone (not shown) or audio selected and reproduced from a dubbing audio library tape). Data) is input from the audio input terminal P3. As the after-recording audio data to be actually recorded, the input after-recording audio data is often mixed with the original (main audio) audio data by the
[0011]
The post-record audio data is encoded by the
[0012]
Here, the recording area of the sub audio bit stream A2 only needs to have a capacity capable of recording after-recording audio data, so it is not necessary to record the audio data before performing after-recording, and is blank. May be. However, when the after-recording audio data is written in the blank recording area of the sub audio bit stream A2, the video bit stream V, the main audio bit stream A1, and the sub audio bit stream A2 are correct (the MPEG2 system standard). If the bit stream does not become a multiplexed bit stream, it is necessary to perform multiplexing again after dubbing.
[0013]
The dubbing is now complete. When the video and audio as a completed work are reproduced from the digital recording medium after the post-recording as described above, any of the original audio (main audio bitstream A1) and after-recording audio (sub audio bitstream A2) is selected. Can be selected and played.
[0014]
In the above processing example, it is assumed that only after-recording audio data is written at the time of writing for convenience. However, in practice, it is necessary to rewrite the original data together with the writing of the post-recording audio data because the ECC circuit performs processing in units of data blocks of a certain size. That is, for example, if the size of the packet of the audio bit stream is 2 kbytes, but the size of the data block of the ECC circuit is 32 kbytes or 64 kbytes, the error correction code is added by the
[0015]
[Problems to be solved by the invention]
By the way, in an after-recording process that has undergone such a processing process, it takes approximately the following processing time in each circuit until the after-recording audio data is written after the video bit stream V and the main audio bit stream A1 are read.
[0016]
Decoder 24: about several tens of milliseconds
Encoder 26: about several tens of milliseconds
[0017]
Accordingly, since it takes a processing time of about several hundred milliseconds to several seconds (in some cases, about several tens of seconds), this processing time is longer than the area where the post-recording audio data is recorded with the original data to be reproduced at the same time. There has been a problem of delay that data is written in an area corresponding to a reproduction time delayed by a minute. That is, for example, in the case of packet multiplexing, post-recording audio data is recorded as a packet having a time stamp indicating a time later than the time indicated by the time stamp in the packet of the original data to be reproduced at the same time.
[0018]
In addition, since the length of this processing time usually varies somewhat every time after-recording is performed, the temporal relationship of the recording area of the after-recording audio data with respect to the recording area of the original data also varies every time after-recording is performed. As a result, conventionally, when reproducing video and audio as a finished product, it has been difficult to reproduce after-recording audio with the original video or the like accurately in time.
[0019]
The present invention has been made in view of the above points. Even after the processing process shown in FIG. 6 adopting the after-recording method of (1) above, the after-recording sound can be easily and accurately timed with the original video. It is an object of the present invention to provide an after-recording method and apparatus that can be reproduced in a consistent manner.
[0020]
Further, it is intended to provide an after-recording method and apparatus, and a reproducing method and apparatus, which can reproduce after-recording audio with the original video or the like accurately in time even if the after-recording method of (3) is adopted. It is what.
[0021]
[Means for Solving the Problems]
The after-recording method according to the present invention is as described in
[0022]
According to this post-recording method, It has recording areas for video bitstream, main audio bitstream, and sub audio bitstream Read from the recording medium Including a video bitstream and at least one audio bitstream Synchronized with the decoding of the bitstream voice The bit stream for post-recording obtained by encoding the data is recorded on the recording medium. Sub audio bitstream recording area To write to.
[0023]
In this way, for post-recording voice Data Sub audio bitstream recording area By writing to the original data (Video bitstream and at least one audio bitstream) The temporal relationship of the recording area of the after-recording data with respect to the recording area is clarified. As a result, when the video and audio as a completed work are reproduced, it is possible to reproduce the after-recording data easily and accurately in time with the original data. Then, as information indicating the temporal correspondence between the original data and the after-recording data, information indicating the presentation time stamp of the portion of the original data that starts to correspond to the after-recording data is written in the recording area of the additional information on the recording medium. Even if the original data and the after-recording data are recorded without being multiplexed, it is possible to reproduce the after-recording data accurately in time with the original data based on this information in the additional information.
[0024]
An after-recording apparatus according to the present invention is also claimed in the claims. 5 As described in It has recording areas for video bitstream, main audio bitstream, and sub audio bitstream From recording media , Including a video bitstream and at least one audio bitstream Read means for reading the bit stream, a decoder for decoding the bit stream, and a new voice The encoder encodes the data into a bit stream for after recording, the writing means for writing the bit stream for after recording to the recording medium, and the encoder encodes in synchronization with the decoding of the bit stream by this decoder. The after-recording bit stream is controlled by this writing means. Sub audio bitstream recording area As the information indicating the temporal correspondence between the control means to be written to the recording medium and the bit stream read from the recording medium and the bit stream for after recording, it corresponds to the bit stream for after recording in the bit stream read from the recording medium. And additional information writing means for writing information indicating the presentation time stamp of the part to be started into an area for recording additional information on the recording medium.
[0025]
According to this after-recording apparatus, the data is read from the recording medium by the reading means. Including a video bitstream and at least one audio bitstream In synchronization with decoding by the bitstream decoder, a new voice When the data is encoded by the encoder to obtain the after-recording bit stream, the after-recording bit stream is recorded on the recording medium by the writing unit under the control of the control unit. Sub audio bitstream recording area Is written to.
[0026]
In this way, for post-recording voice Data Sub audio bitstream recording area As a result, the temporal relationship between the recording area of the after-recording data and the recording area of the original data becomes clear. As a result, when the video and audio as a completed work are reproduced, it is possible to reproduce the after-recording data easily and accurately in time with the original data. Then, as information indicating the temporal correspondence between the original data and the after-recording data, information indicating the presentation time stamp of the portion of the original data that starts to correspond to the after-recording data is written in the recording area of the additional information on the recording medium. Even if the original data and the after-recording data are recorded without being multiplexed, it is possible to reproduce the after-recording data accurately in time with the original data based on this information in the additional information.
[0027]
[0029]
According to this reproduction method and apparatus, It has recording areas for video bitstream, main audio bitstream, and sub audio bitstream Original data from the additional information recording area of the recording medium (Video bitstream and at least one audio bitstream) And dubbing voice As the information indicating the temporal correspondence with the data, voice Information indicating the presentation time stamp of the part that starts to correspond to the data is read, and based on this information, the original data and Written in the recording area of the sub-audio bitstream of the recording medium Dubbing voice Since the data is read and decoded synchronously, the original data and the after-recording voice Even if data is recorded without being multiplexed, voice The data is played back with the original data accurately matched in time.
[0030]
DETAILED DESCRIPTION OF THE INVENTION
First, when the method (1) of the above-described after-recording methods (1) to (3) is adopted (that is, after-recording sound is input while reproducing the original data, the after-recording sound data is reproduced as the original data. An example of the present invention will be described in the case where the original data is sometimes multiplexed in real time and recorded on the digital recording medium.
[0031]
In the case of adopting the after-recording method of (1), what kind of area is specifically determined as the “predetermined area” of the digital recording medium for recording the after-recording audio data is, for example, the following (A) or A region like (B) is conceivable. However, these are preferable examples, and are not intended to exclude other areas.
[0032]
(A) Area corresponding to the reproduction time substantially equal to the recording area of the original data
This is an example determined in accordance with a system restriction in a multiplexing system such as an MPEG system. This area will be described in relation to FIG. 5 and FIG. 6. This area is a recording area of the sub audio bit stream A2 that is reproduced substantially simultaneously with the main audio bit stream A1 read out in the process of FIG. For example, it can be considered as any one of the following (i) to (ii).
[0033]
(I) Recording area of the sub audio bit stream A2 that is spatially closest to the recording area of the main audio bit stream A1
(Ii) The sub audio bit stream A2 to which time information indicating substantially the same time as the time information added to the main audio bit stream A1 (presentation time stamp (PTS) in a packet in the MPEG system) is added. Recording area
[0034]
(B) Area corresponding to time greatly delayed from original data recording area
This is an example determined without complying with the restrictions on the method in the multiplexing method.
[0035]
Of these, when data for after-recording is written in the area (A), a data channel for reading original data from the digital recording medium and a data channel for writing data for after-recording to the digital recording medium are separately provided. Is necessary. Therefore, either a method of providing two heads for reading and writing and performing reading and writing independently, or a method of seeking and reading and writing in a time-division manner by seeking one head. (The latter method is, of course, limited to the case where post-recording is performed on original data recorded on a random-access recording medium such as a disk).
[0036]
Such a method is generally the same as the method when data input / output is performed in a multi-channel in a recording / reproducing apparatus. However, even if the number of channels is only two and reading and writing are performed independently, only two systems are necessary, and even when reading and writing are performed in a time-sharing manner, the distance according to the size of the delay Since the seek distance is relatively small since the head only needs to be sought (no full-stroke seek is performed), it can be said that the conditions for realization are not stricter than in general multi-channel.
[0037]
On the other hand, in the case of writing after-recording data in the area (B), it is sufficient to read the original data with one head and then write the after-recording data at the current position of the head. . Therefore, it can be said that this is easier to implement in terms of reducing the number of head systems and simplifying control of the head.
[0038]
However, in this case, at the time of reproduction of video and audio as a finished product, it is necessary to perform a process for reproducing after-recording data in time coincidence with the original data. This process is particularly troublesome during special playback such as slow playback or double speed playback. Moreover, performing such a process leads to an increase in the cost of the apparatus. Therefore, from these points, it can be said that it is preferable to write in the area (A).
Therefore, in the following, a specific example will be described taking the case of writing in the area (A) as an example.
[0039]
FIG. 1 shows an example of a system configuration of an optical disc apparatus to which the after-recording method and apparatus of the present invention are applied when the above-described after-recording method (1) is adopted.
In this optical disc apparatus, one optical pickup (optical head) 2 is provided for one rewritable
[0040]
The bit stream read from the
[0041]
The bit stream taken out from the read
[0042]
The bit stream extracted from the
[0043]
On the other hand, the audio data input from the audio input terminal P3 is encoded by the
[0044]
The movable contact of the
[0045]
As an example, the read rate and the write rate are equal to each other (or both the read rate and the write rate are variable and their maximum rates are equal to each other).
[0046]
Also in this optical disk apparatus, since the bit stream is read from the
[0047]
Therefore, the position of the
[0048]
Returning to FIG. 1, the
[0049]
Next, an example of processing executed by the
[First step]
First, the user designates original data to be post-recorded by operating an operation panel (not shown), or records on the
[0050]
Subsequently, based on the address information of the original data to be dubbed, the
[0051]
FIG. 3 shows the relationship between the position of the
[0052]
In FIG. 3, the accumulation processing in the read
[0053]
[Second step]
Original data is taken out from the read
[0054]
The decoding process in the
This decoding process is started between time T0 and time T1 in relation to FIG.
[0055]
[Third step]
The post-record audio data input by the user in synchronization with the reproduction of the original data is encoded by the
The encoding process in the
[0056]
[Fourth step]
Original data is extracted from the
When the detection result of the
[0057]
On the other hand, when the detection result of the
[0058]
As a result, the bit that combines the original data and the after-recording audio data by replacing the sub-audio bit stream A2 of the video bit stream V, the main audio bit stream A1, and the sub-audio bit stream A2 that is the original data with the after-recording audio data. Streams are accumulated in the
[0059]
The accumulation processing in the
The accumulation processing in the
[0060]
Subsequently, when a certain condition determined by any one or a combination of two or more of the following factors (a) to (f) is satisfied, reading of the original data is stopped, and the
(A) Elapsed time from start of reading
(B) Amount of data stored in the read
(C) Amount of data stored in the
(D) Media rate (read / write rate for the optical disc 1)
(E) Data rate of read channel and write channel (consumption rate of
(F) Capacity of
[0061]
Finally, the address information of the original data sent to the read
The switching of the
[0062]
Subsequently, based on information stored in advance in the
[0063]
This seek operation corresponds to the stage from time T2 to T3 in FIG. Taking FIG. 2 as an example, the position of the
[0064]
Then, the
[0065]
This writing process corresponds to the stage from time T3 to T4 in FIG. 3, and the state in which the amount of data stored in the
[0066]
Subsequently, when a certain condition determined by any one or a combination of two or more of the elapsed time from the start of writing and the above factors (b) to (f) is satisfied, Data writing is stopped, and the
The switching of the
Up to the fourth step, one cycle of the after-recording operation is completed.
[0067]
Subsequently, based on the address information stored when the
[0068]
This seek operation corresponds to the stage from time T4 to T5 in FIG. Taking FIG. 2 as an example, the position of the
[0069]
Then, the
[0070]
In the example of FIG. 1, the
[0071]
In addition to detecting the type of media, a detector for detecting the reproduction time of each packet based on the presentation time stamp in the packet may be provided. By doing so, the process of multiplexing and recording the after-recording audio data in the area corresponding to the reproduction time substantially equal to the recording area of the video bit stream V and the main audio bit stream A1 can be performed with higher accuracy.
[0072]
Further, instead of the combination of the detector and the
[0073]
FIG. 4 shows another example of the system configuration of the optical disc apparatus to which the after-recording method and apparatus of the present invention is applied when the above-described after-recording method (1) is adopted. The same reference numerals are given and redundant description is omitted.
[0074]
In this optical disc apparatus, two systems of
[0075]
The processing executed by the
[0076]
[Differences in read mode]
Original data read from the
[0077]
When a certain condition determined by any one or a combination of two or more of the above factors (a) to (f) is satisfied and the
[0078]
When reading the original data and storing the address information, the address information of the original data sent last is stored in the
[0079]
[Differences in write mode]
When a certain condition determined by any one or a combination of two or more of the above factors (a) to (f) is satisfied and the
[0080]
The advantages of performing such processing are as follows.
In the processing in the optical disk apparatus of FIG. 1, since the ECC circuit 4 performs processing in units of data blocks having a certain size, data that has been input to the ECC circuit 4 but has not reached the size of the data block. Is forced to be discarded in the ECC circuit 4 when the
[0081]
On the other hand, in the processing in the optical disk apparatus of FIG. 4, data that has been input to the ECC circuit 4 at the time of reading and writing but has not reached the size of the data block remains unchanged after the
[0082]
Next, when the method (3) of the above-mentioned after-recording methods (1) to (3) is adopted (that is, the after-recording audio data is multiplexed with the original data on the digital recording medium on which the original data is recorded). An example of the present invention will be described in the case where original audio data and post-recording audio data read out from the digital recording medium are mixed and output as a completed sound during recording and reproduction.
[0083]
FIG. 7 shows an example of the system configuration of an optical disc apparatus to which the after-recording method and apparatus of the present invention is applied when the after-recording method of (3) is adopted. The same reference numerals are used for the same parts as in FIG. A duplicate description will be omitted.
In this optical disk apparatus, one optical pickup (optical head) 2 is provided for one rewritable optical disk 19, and the
[0084]
The bit stream read from the optical disk 19 by the
[0085]
The bit stream taken out from the read
[0086]
On the other hand, the audio data input from the audio input terminal P3 is encoded by the
[0087]
Data sent to the write channel buffer 13 (audio data extracted from the encoder buffer 12) is extracted from the
[0088]
In the case of this example, the read rate and the write rate are usually different from each other. In other words, the read rate is the bit rate of a stream in which video and audio are multiplexed, and the write rate is the bit rate of a stream consisting of a single audio, so the read rate is expected to be higher than the write rate. Is done.
[0089]
Also in this optical disk apparatus, since the bit stream is read from the optical disk 19 in this way and the audio data input in synchronization with the reproduction is written to the optical disk 19, it is still a number for the reason described with reference to FIG. Processing time from 100 milliseconds to several seconds is required.
[0090]
Accordingly, the position of the
However, as will be described later, the temporal correspondence between the bit stream of the original data and the bit stream of the after-recording audio data is recorded in the TOC area of the optical disc 19.
[0091]
Returning to FIG. 7, the
[0092]
Next, an example of processing executed by the
[First step]
First, the user designates original data to be post-recorded by operating an operation panel (not shown), or records on the optical disc 19 based on reading designation information of the original data to be post-recorded previously written on the optical disc 19. The range of the original data to be dubbed is determined among the original data being recorded.
[0093]
Subsequently, based on the address information of the original data to be dubbed, the
[0094]
FIG. 9 shows the relationship between the position of the
[0095]
In FIG. 9, the accumulation processing in the read
[0096]
[Second step]
Original data is taken out from the read
[0097]
The decoding process in the
This decoding process is started between time T0 and time T1 in relation to FIG.
[0098]
[Third step]
The post-record audio data input by the user in synchronization with the reproduction of the original data is encoded by the
The encoding process in the
[0099]
[Fourth step]
The post-recording audio data taken out from the
[0100]
As a result, a bit stream temporally corresponding to the original data is created and stored in the
[0101]
The accumulation processing in the
The accumulation processing in the
[0102]
Subsequently, when a predetermined condition determined by any one or a combination of two or more of the following factors (a) to (f) is satisfied, reading of the original data is stopped, and the
(A) Elapsed time from start of reading
(B) Amount of data stored in the read
(C) Amount of data stored in the
(D) Media rate (read / write rate for the optical disc 19)
(E) Data rate of read channel and write channel (consumption rate of
(F) Capacity of
[0103]
Finally, the address information of the original data sent to the read
The switching of the
[0104]
Subsequently, based on the information stored in advance in the
[0105]
This seek operation corresponds to the stage from time T2 to T3 in FIG. Taking FIG. 8 as an example, the position of the
[0106]
Then, the
[0107]
This write process corresponds to the stage from time T3 to T4 in FIG. 9, and the figure shows that the amount of data stored in the
[0108]
Subsequently, when a certain condition determined by one or a combination of two or more of the elapsed time from the start of writing and the factors (b) to (f) is satisfied, the optical disc 19 is loaded. Data writing is stopped, and the
The switching of the
Up to the fourth step, one cycle of the after-recording operation is completed.
[0109]
Subsequently, based on the address information stored when the
[0110]
This seek operation corresponds to the stage from time T4 to T5 in FIG. Taking FIG. 8 as an example, the position of the
[0111]
Then, the
[0112]
[Fifth step]
As the final stage of post-recording, information indicating the temporal correspondence between the original data and post-recording audio data is recorded on the optical disc 19.
Here, as an example, a presentation time stamp (PTS) is used.
That is, as described above, in the MPEG2 system, since the packet of the bit stream of each medium has a presentation time stamp, the video bit stream V and the original data as shown in FIG. The presentation time of the portion of the main audio bitstream A1 that starts to correspond to the audio bitstream A2 that is post-recording audio data (that is, the head portion of the original data to be postrecorded specified by the user or specified information written on the optical disc 19) The time correspondence between the original data and the post-recording sound data is uniquely specified by the stamp.
[0113]
Therefore, when writing of the after-recording audio data corresponding to the original data to be dubbed is completed or when the user instructs the end of the after-recording, the
Also, the address information of the portion of the original data that starts to correspond to the post-recording audio data (X0 in FIG. 9) and the address information of the start position (Y0 in FIG. 9) and the end position of the post-recording audio data are also recorded in the TOC area. To do.
[0114]
Thus, as information indicating the temporal correspondence between the original data and the post-recording audio data, information indicating the presentation time stamp of the portion of the original data that starts to correspond to the post-recording audio data is recorded in the TOC area of the optical disc 19. Therefore, although the original data and the post-recording audio data are recorded without being multiplexed, the post-recording audio data is reproduced with the time exactly matched with the original data based on this information in the TOC. It becomes possible to do.
[0115]
FIG. 11 shows an example of the system configuration of an optical disc apparatus to which the reproducing method and apparatus of the present invention are applied when the after-recording method (3) is adopted.
In this optical disk apparatus, a single optical pickup (optical head) 31 for reading data is provided, and a bit stream read by the
[0116]
The bit stream extracted from the Ch1 buffer 35a is decoded by a decoder 36a (including a demultiplexing unit, a video decoder, and an audio decoder) 36a. The video signal output from the decoder 36a is sent to a display (not shown) from the video output terminal P1, and the audio signal output from the decoder 36a is sent to the mixing
[0117]
On the other hand, the bit stream extracted from the
The audio signal output from the mixing
[0118]
Although not shown, the TOC information read from the optical disk by the
As will be described later, the
[0119]
Next, an example of a process executed by the
[First step]
7 shows the presentation time stamp of the portion of the original data that starts to correspond to the post-recording audio data, which is the information recorded by the optical disc apparatus of FIG. 7 when the
[0120]
[Second step]
When the user designates the reproduction start position of the original data (video bit stream V and main audio bit stream A1 in FIG. 8) by operating an operation panel (not shown), the
Then, the original data stored in the buffer 35a is taken out from the buffer 35a and sent to the decoder 36a, and the decoding process in the decoder 36a is started.
[0121]
As a result, the original video is reproduced and the original sound is reproduced as it is through the mixing
Since the consumption rate of the decoder 36a is smaller than the reading rate from the optical disc 19, when the original data is accumulated in the buffer 35a to the full capacity, the reading of the original data from the optical disc 19 is interrupted and then from the buffer 35a. When the
[0122]
In this way, when the original data is read out and reaches the portion (X0 in FIG. 9 and PTS portion in FIG. 10) having the same presentation time stamp as the presentation time stamp indicated by the information obtained in the first step, When the amount of data stored in the buffer 35a reaches the minimum required amount determined from the following factors (g) to (j), for example (the amount full), the original data is read out. At the same time, the extraction of the original data from the buffer 35a is stopped, and the
(H) Media rate (read / write rate for the optical disc 19)
(I) Ch1 and Ch2 data rates (consumption rates of the
(J) Capacity of
[0123]
Then, the address information of the original data finally sent to the buffer 35a is stored. (When resuming the reading of the original data next time, based on this address information, the original data following the data finally sent to the buffer 35a is read from the optical disc 19.)
[0124]
Subsequently, based on the address information obtained in the first step, the
Thereby, the after-recording audio data (sub audio bit stream A2 in FIG. 8) is accumulated in the
[0125]
[Third step]
Subsequently, the amount of data stored in the
(K) Elapsed time since the start of post-recording audio data reading
(L) Amount of data stored in the buffer 35a of Ch1
The minimum required data accumulation amount for the
[0126]
Also, in this example, when the second step reaches a portion having the same presentation time stamp as the presentation time stamp indicated by the information obtained in the first step, the extraction of the original data from the buffer 35a of Ch1 is stopped (accordingly, The decoding process of the original data in the decoder 36a is stopped), and in the subsequent third step, the after-recording audio data is started to be extracted from the
[0127]
[Fourth step]
As a result, the original video is reproduced, and the original sound and the after-recording sound are mixed by the mixing
[0128]
Subsequently, the after-recording audio data is read when a certain condition determined from the factors (h) to (j), (k), (l) and the following (m) is satisfied. The
(M) Amount of data stored in
Then, the address information of the post-recording audio data sent last to the
[0129]
Subsequently, based on the address information stored when the
Hereinafter, until the reading of the post-recording audio data to the end position is completed (or until the user instructs the end of the reproduction by operating the operation panel not shown), the reading of the original data and the recording of the post-recording audio data as described above are performed. Reading and time division are performed.
[0130]
FIG. 12 shows an example of the reading state of the optical pickup 31 (A in the figure) and the data accumulation amounts (B and C in the figure) of the Ch1 buffer 35a and
[0131]
In FIG. 12, at time T0, reading of original data is resumed before the amount of data stored in the buffer 35a becomes zero, and at time T1 thereafter, reading of original data is stopped, and between times T1 and T2 The
[0132]
In FIG. 12, the relationship between the length of the original data reading period and the post-recording audio data reading period, and the relationship between the data storage amount of the buffer 35a and the data storage amount of the
[0133]
In this way, information indicating the presentation time stamp of the portion of the original data that starts to correspond to the post-recording audio data is read from the TOC area of the optical disc 19, and based on this information, the original data and the post-recording audio data are synchronized. Since the original data and the post-recording audio data are recorded without being multiplexed at the time of the post-recording, the post-recording audio data is accurately matched in time with the original data. Played.
[0134]
In each of the above examples, reading and writing (or reading of two channels of data) is performed in a time-sharing manner by seeking one system of optical pickup, but reading and writing (or two systems) are provided. (Reading data of two channels) may be performed independently.
[0135]
In the above example, the present invention is applied to an optical disk device equipped with a rewritable optical disk. For example, an appropriate rewritable disk-shaped recording medium such as a magnetic disk (or a random access method other than the disk-shaped recording medium). The present invention may be applied to a recording / reproducing apparatus equipped with a digital recording medium). When two heads are provided, the present invention may be applied to a recording / reproducing apparatus equipped with a sequential access type digital recording medium such as a magnetic tape.
[0136]
In the above example, the present invention is applied to a recording medium in which original data is recorded by a packet multiplexing method. However, the present invention may be applied to a digital recording medium in which original data is recorded by an appropriate method.
[0137]
In the above example, the audio data is post-recorded on the original data consisting of the video bit stream V and the main audio bit stream A1, but the original data consisting of a bit stream of an appropriate media type is used. The present invention may be applied when post-recording new data of an appropriate type. That is, for example, when performing post-recording of at least one of audio data and graphic data on original data consisting only of a video bit stream (or consisting of a video bit stream and an audio bit stream), or from only an audio bit stream The present invention may also be applied to the case where after-recording of at least one of video data and graphic data is performed on the original data.
[0138]
Then, in the case of adopting the after-recording method of (3) described above, the mixing at the time of reproduction is performed not only for the main audio bit stream A1 and the sub audio bit stream A2 as in the optical disc apparatus of FIG. You may make it perform about the video bit stream of these, and the video bit stream or graphic bit stream of the after-recording data.
[0139]
Further, the present invention is not limited to the above-described embodiments, and it is needless to say that various other configurations can be taken without departing from the gist of the present invention.
[0140]
【The invention's effect】
As described above, according to the post-recording method and apparatus according to the present invention, the original data (Video bitstream and at least one audio bitstream) For the recording area of Voice for Since the temporal relationship of the data recording area is clarified, the effect that the dubbing data can be easily reproduced in time exactly with the original data when reproducing the video and audio as a completed work. Is obtained.
[0141]
Also , Information indicating the temporal correspondence between original data and post-record data Information indicating the presentation time stamp of the original data that begins to correspond to the post-record data But recoding media Because it is recorded in the additional information recording area, the original data and post-recording data are recorded without being multiplexed. Even Based on this information, it is possible to reproduce the after-recording data by accurately matching it with the original data in terms of time.
[0142]
Moreover, the claim concerning this
[Brief description of the drawings]
FIG. 1 is a block diagram showing an example of a system configuration of an optical disc apparatus to which the present invention is applied.
FIG. 2 is a diagram illustrating an example of a relationship between a reading position and a writing position of an optical pickup.
FIG. 3 is a diagram illustrating an example of a relationship between a position of an optical pickup and a read / write situation and an amount of data stored in a buffer.
FIG. 4 is a block diagram showing another example of the system configuration of the optical disc apparatus to which the present invention is applied.
FIG. 5 is a diagram illustrating an example of recording data on a digital recording medium.
FIG. 6 is a diagram showing an example of a conventional post-recording process.
FIG. 7 is a block diagram showing an example of a system configuration of an optical disc apparatus to which the present invention is applied.
FIG. 8 is a diagram illustrating an example of a relationship between a reading position and a writing position of the optical pickup.
FIG. 9 is a diagram illustrating an example of a relationship between a position of an optical pickup and a read / write situation, and an amount of data stored in a buffer.
FIG. 10 is a diagram showing a presentation time stamp of a portion of original data that starts to correspond to post-recording audio data.
FIG. 11 is a block diagram showing another example of the system configuration of the optical disc apparatus to which the present invention is applied.
FIG. 12 is a diagram illustrating an example of a state of reading of an optical pickup and a data accumulation amount in a buffer during time-division reproduction.
[Explanation of symbols]
DESCRIPTION OF
Claims (13)
前記ビットストリームをデコードする第2ステップと、
前記ビットストリームのデコードに同期して、新たな音声データをエンコードしてアフターレコーディング用のビットストリームとする第3ステップと、
前記アフターレコーディング用のビットストリームを前記記録媒体の前記副音声ビットストリームの記録領域に書き込む第4ステップと、
前記記録媒体から読み出されたビットストリームと前記アフターレコーディング用のビットストリームとの時間的な対応関係を示す情報として、前記記録媒体から読み出されたビットストリームのうち前記アフターレコーディング用のビットストリームと対応し始める部分のプレゼンテーションタイムスタンプを示す情報を前記記録媒体の付加情報を記録するための領域に書き込む第5ステップと
を含むことを特徴とする記録媒体におけるアフターレコーディング方法。 A first step of reading a bitstream including a video bitstream and at least one audio bitstream from a recording medium having a recording area of a video bitstream, a main audio bitstream, and a sub audio bitstream ;
A second step of decoding the bitstream;
In synchronism with the decoding of the bitstream, a third step of encoding new audio data into a bitstream for after recording;
A fourth step of writing the bit stream for the after recording into a recording area of the sub audio bit stream of the recording medium;
As information indicating the temporal correspondence between the bit stream read from the recording medium and the bit stream for after recording, the bit stream for after recording out of the bit stream read from the recording medium and And a fifth step of writing information indicating a presentation time stamp of a portion that starts to correspond to an area for recording additional information of the recording medium.
前記読み出し手段が前記記録媒体から読み出したビットストリームをデコードするデコーダと、
新たな音声データをエンコードしてアフターレコーディング用のビットストリームとするためのエンコーダと、
前記アフターレコーディング用のビットストリームを前記記録媒体に書き込むための書き込み手段と、
前記デコーダによる前記ビットストリームのデコードに同期して前記エンコーダによりエンコードされた前記アフターレコーディング用のビットストリームを、前記書き込み手段を制御して前記記録媒体の前記副音声ビットストリームの記録領域に書き込ませる制御手段と、
前記記録媒体から読み出されたビットストリームと前記アフターレコーディング用のビットストリームとの時間的な対応関係を示す情報として、前記記録媒体から読み出されたビットストリームのうち前記アフターレコーディング用のビットストリームと対応し始める部分のプレゼンテーションタイムスタンプを示す情報を前記記録媒体の付加情報を記録するための領域に書き込む付加情報書込み手段と
を備えたことを特徴とする記録媒体におけるアフターレコーディング装置。Read means for reading a bit stream including a video bit stream and at least one audio bit stream from a recording medium having recording areas for the video bit stream, the main audio bit stream, and the sub audio bit stream ;
A decoder for decoding the bitstream read from the recording medium by the reading means;
An encoder for encoding new audio data into a bitstream for after-recording,
Writing means for writing the bit stream for after-recording to the recording medium;
Control for writing the after-recording bitstream encoded by the encoder in synchronization with the decoding of the bitstream by the decoder into the recording area of the sub-audio bitstream of the recording medium by controlling the writing means Means,
As information indicating the temporal correspondence between the bit stream read from the recording medium and the bit stream for after recording, the bit stream for after recording out of the bit stream read from the recording medium and An after-recording apparatus for a recording medium, comprising: additional information writing means for writing information indicating a presentation time stamp of a portion that starts to correspond to an area for recording additional information of the recording medium.
前記読み出し手段と前記書き込み手段とは共通の読み出し・書き込み用ヘッドであり、
前記制御手段は、前記読み出し・書き込み用ヘッドを時分割に用いて前記アフターレコーディング用のビットストリームを書き込ませることを特徴とする請求項5に記載の記録媒体におけるアフターレコーディング装置。The recording medium is a rewritable disc-shaped recording medium,
The reading means and the writing means are a common read / write head,
6. The after recording apparatus for a recording medium according to claim 5 , wherein the control means causes the bit stream for the after recording to be written using the read / write head in a time division manner.
前記情報に基づき、前記オリジナルデータのビットストリームと、前記記録媒体の前記副音声ビットストリームの記録領域に書き込まれている前記アフターレコーディング用音声データのビットストリームとを同期させて読み出す第2ステップと、
前記オリジナルデータのビットストリーム及び前記アフターレコーディング用音声データのビットストリームをデコードする第3ステップと
を含むことを特徴とするアフターレコーディングされた記録媒体の再生方法。 Includes a video bit stream and at least one audio bit stream that are subject to after recording from a recording area of additional information of a recording medium having recording areas of a video bit stream, a main audio bit stream, and a sub audio bit stream As the information indicating the temporal correspondence between the bit stream of the original data and the bit stream of the audio data for after recording written without being multiplexed with the bit stream of the original data, the after data of the original data A first step of reading information indicating a presentation time stamp of a portion that starts to correspond to the audio data for recording;
A second step of synchronously reading out the bit stream of the original data and the bit stream of the after-recording audio data written in the recording area of the sub-audio bit stream of the recording medium based on the information;
And a third step of decoding the bit stream of the original data and the bit stream of the audio data for after-recording. A method of reproducing an after-recorded recording medium, comprising:
前記読み出し手段に、前記記録媒体の付加情報の記録領域から、アフターレコーディングの対象となった、ビデオビットストリームと少なくとも1つの音声ビットストリームとを含むオリジナルデータのビットストリームと、該オリジナルデータのビットストリームとは多重化せずに書き込まれたアフターレコーディング用音声データのビットストリームとの時間的な対応関係を示す情報として、前記オリジナルデータのうち前記アフターレコーディング用音声データと対応し始める部分のプレゼンテーションタイムスタンプを示す情報を読み出させ、該情報に基づき、前記読み出し手段を制御して、前記オリジナルデータのビットストリームと、前記記録媒体の前記副音声ビットストリームの記録領域に書き込まれている前記アフターレコーディング用音声データのビットストリームとを同期させて読み出させる制御手段と、
前記読み出し手段が前記記録媒体から読み出したビットストリームをデコードするデコーダと
を備えたことを特徴とするアフターレコーディングされた記録媒体の再生装置。Read means for reading a bit stream from a recording medium having recording areas for a video bit stream, a main audio bit stream, and a sub audio bit stream ;
A bit stream of original data including a video bit stream and at least one audio bit stream, which is a target of after-recording, from the recording area of the additional information of the recording medium, and the bit stream of the original data Is a presentation time stamp of a portion of the original data that starts to correspond to the after-recording audio data as information indicating a temporal correspondence with the bit stream of the after-recording audio data written without being multiplexed to read the information indicating, on the basis of the information, the control the reading means, and a bit stream of the original data, wherein the after-record written to the recording area of the sub-audio bitstream of said recording medium And control means for read out is synchronized with the bit stream of the audio data for loading,
An after-recorded recording medium playback apparatus, comprising: a decoder for decoding the bit stream read from the recording medium by the reading means.
前記読み出し手段は1つの読み出し用ヘッドであり、
前記制御手段は、前記1つの読み出しヘッドを時分割に用いて前記オリジナルデータのビットストリームと前記アフターレコーディング用データのビットストリームとを読み出させることを特徴とする請求項11または12に記載のアフターレコーディングされた記録媒体の再生装置。The recording medium is a disk-shaped recording medium;
The reading means is one reading head;
The control means according to claim 1 1 or 1 2, characterized in that to read the bit stream of the after-recording data and a bit stream of the original data using the time division the one read head Of after-recorded recording media.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP19182798A JP4089017B2 (en) | 1997-09-02 | 1998-07-07 | After-recording method and apparatus for digital recording medium and reproducing method and apparatus for digital recording medium |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23716397 | 1997-09-02 | ||
JP9-237163 | 1997-09-02 | ||
JP19182798A JP4089017B2 (en) | 1997-09-02 | 1998-07-07 | After-recording method and apparatus for digital recording medium and reproducing method and apparatus for digital recording medium |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007323043A Division JP4297187B2 (en) | 1997-09-02 | 2007-12-14 | After-recording method and apparatus for recording medium, and reproducing method and apparatus for digital recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11144378A JPH11144378A (en) | 1999-05-28 |
JP4089017B2 true JP4089017B2 (en) | 2008-05-21 |
Family
ID=26506915
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP19182798A Expired - Fee Related JP4089017B2 (en) | 1997-09-02 | 1998-07-07 | After-recording method and apparatus for digital recording medium and reproducing method and apparatus for digital recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4089017B2 (en) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100466496B1 (en) | 1998-08-07 | 2005-01-13 | 가부시키가이샤 히타치세이사쿠쇼 | Recording media, Recording device, Play-back device, Recording method and Computer-readable Recording media |
JP2000251394A (en) * | 1999-02-26 | 2000-09-14 | Matsushita Electric Ind Co Ltd | Video/audio data converting device and disk device using it |
CN1321311A (en) | 1999-07-07 | 2001-11-07 | 松下电器产业株式会社 | AV data recording device and method, disk recording by AV data recording device and method, AV data reproducing device and method therefor |
ES2372593T3 (en) | 1999-07-29 | 2012-01-24 | Sharp Kabushiki Kaisha | METHOD OF DETERMINING AN ACCESS POSITION ON A RECORDING MEDIA AND METHOD OF RECORDING MANAGEMENT. |
JP2001043616A (en) * | 1999-07-30 | 2001-02-16 | Sharp Corp | Recording method, recording medium and recorder |
KR100657241B1 (en) | 1999-09-03 | 2006-12-18 | 삼성전자주식회사 | Video recording / playback apparatus and method and recording medium |
US6771891B1 (en) | 1999-09-03 | 2004-08-03 | Samsung Electronics Co., Ltd. | Apparatus and method for recording/reproducing moving picture and recording medium |
WO2002023896A1 (en) | 2000-09-18 | 2002-03-21 | Matsushita Electric Industrial Co., Ltd. | Voice/video information recording/reproducing device and method therefor |
KR100399999B1 (en) | 2001-02-05 | 2003-09-29 | 삼성전자주식회사 | Recording medium containing multi-stream recorded thereon, recording apparatus, recording method therefor, reproducing apparatus, and reproducing method therefor |
JP2003169292A (en) | 2001-11-30 | 2003-06-13 | Victor Co Of Japan Ltd | After-recording device, computer program, recording medium, transmission method and reproducing device |
JP2003199045A (en) | 2001-12-26 | 2003-07-11 | Victor Co Of Japan Ltd | Information-recording-signal generating method and apparatus, information-signal reproducing method and apparatus, information-signal transmitting method, apparatus and program, and information-signal recording medium |
JP3986973B2 (en) | 2002-10-17 | 2007-10-03 | シャープ株式会社 | AV data recording method, AV data recording apparatus, data recording medium, and program |
KR100917883B1 (en) * | 2003-02-25 | 2009-09-16 | 삼성전자주식회사 | Error flag generation device and method for error correction |
EP1465181A1 (en) | 2003-04-02 | 2004-10-06 | Deutsche Thomson-Brandt Gmbh | Method for controlling an optical pick-up for reading data streams for simultaneous reproduction |
JP4779340B2 (en) | 2004-03-29 | 2011-09-28 | ソニー株式会社 | Data processing method, data processing apparatus, information recording medium, and computer program |
US8003024B2 (en) | 2006-09-18 | 2011-08-23 | Coopervision International Holding Company, Lp | Polyolefin contact lens molds and uses thereof |
CN104135667B (en) * | 2014-06-10 | 2015-06-24 | 腾讯科技(深圳)有限公司 | Video remote explanation synchronization method, terminal equipment and system |
-
1998
- 1998-07-07 JP JP19182798A patent/JP4089017B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11144378A (en) | 1999-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4089017B2 (en) | After-recording method and apparatus for digital recording medium and reproducing method and apparatus for digital recording medium | |
JP3491365B2 (en) | Encoded data decoding method and decoding device | |
KR100530680B1 (en) | Signal recording / reproducing apparatus and method | |
US6526217B1 (en) | Method and apparatus for after recording of digital recording medium and method and apparatus for reproducing digital recording medium | |
US5701386A (en) | Recording and reproducing apparatus and method for compressed video signal | |
JPH09214872A (en) | Information signal processing unit and information signal processing method | |
WO2005117432A1 (en) | Program recording device and program recording method | |
EP1551023A1 (en) | Moving picture/audio recording device and moving picture/audio recording method | |
JPH11346341A (en) | Optical disk and its recording device and method and reproducing device and method | |
JP4297187B2 (en) | After-recording method and apparatus for recording medium, and reproducing method and apparatus for digital recording medium | |
CN100498951C (en) | Recording method | |
JPH11298845A (en) | Optical disk, optical disk recorder and optical disk player | |
US6574418B1 (en) | Apparatus and method for reproduction and distribution medium | |
JP2006049988A (en) | Digital data recording / reproducing device | |
JP3482852B2 (en) | Coded signal recording / reproducing apparatus and method | |
JP3637760B2 (en) | Information encoding apparatus, information decoding apparatus, and information encoding / decoding recording / reproducing apparatus | |
JP2812305B2 (en) | Optical disk drive | |
JP4353106B2 (en) | Multiplexed stream recording method and recording / reproducing method | |
JP4712922B2 (en) | DVD audio playback device | |
CA2475269C (en) | Recording method, recording medium and recording apparatus | |
JP2001143390A (en) | Digital signal recording and reproducing device | |
JPH0845183A (en) | Packet data recording and reproducing device and recording medium | |
JP2000339860A (en) | Data recording and reproducing device | |
JP2003101956A (en) | Reproducing device | |
JP2001148157A (en) | Recording and reproducing device, and recording and reproducing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070717 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070918 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071214 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20071227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080218 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110307 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110307 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120307 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130307 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130307 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140307 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |