[go: up one dir, main page]

JP4193256B2 - Audio signal processing apparatus and method, and video / audio recording / reproducing apparatus - Google Patents

Audio signal processing apparatus and method, and video / audio recording / reproducing apparatus Download PDF

Info

Publication number
JP4193256B2
JP4193256B2 JP34159798A JP34159798A JP4193256B2 JP 4193256 B2 JP4193256 B2 JP 4193256B2 JP 34159798 A JP34159798 A JP 34159798A JP 34159798 A JP34159798 A JP 34159798A JP 4193256 B2 JP4193256 B2 JP 4193256B2
Authority
JP
Japan
Prior art keywords
data
audio
block
audio data
sync
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP34159798A
Other languages
Japanese (ja)
Other versions
JP2000174578A (en
Inventor
健治 山▼さき▲
修二 綱島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP34159798A priority Critical patent/JP4193256B2/en
Publication of JP2000174578A publication Critical patent/JP2000174578A/en
Application granted granted Critical
Publication of JP4193256B2 publication Critical patent/JP4193256B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
  • Control Of Amplification And Gain Control (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、ディジタルオーディオ信号のミュート解除時に生じる雑音を発生しなくなるようにしたオーディオ信号処理装置および方法、ならびに、映像音声記録再生装置に関する。
【0002】
【従来の技術】
現在、アナログオーディオ信号をA/D変換してディジタルオーディオデータとして処理する、ディジタルオーディオ機器が普及している。処理を重ねても音質の劣化が少なく、比較的容易に高音質が得られるため、プロ用途、アマチュア用途を問わず、幅広く用いられている。
【0003】
ところで、オーディオ信号を再生する際には、一時的に再生出力を無音にするミュート処理が行われる場合がある。例えば、オーディオ回路の立ち上げ時や、過大なレベルの信号あるいは不正な信号が入力された際に、ミュート処理により自動的に出力を無音にして、回路やスピーカなどの保護を行う。ミュート処理は、自動的あるいは手動により解除され、通常の再生が再開される。
【0004】
このミュート処理の解除の際に、単純に、無音状態から通常の再生状態への切り替えを行ってしまうと、通常の再生状態になったときに、信号波形が急峻に立ち上がってしまうことがある。この信号波形の急峻な立ち上がりは、再生音に対して「プチッ」というパルス状の雑音となって現れる。
【0005】
【発明が解決しようとする課題】
従来のディジタルオーディオ機器では、演算処理によって、このミュート状態から通常の再生状態への変化点で生じる、「プチッ」というパルス状の雑音を抑制していた。例えば、オーディオデータ処理専用の集積回路(IC)において、乗算器を用いて、時系列方向にサンプル毎に所定の計数を乗じて信号レベルを減衰させる。しかしながら、この方法では、乗算器を用いるためオーディオデータ信号回路が複雑になり、規模が大きくなってしまうという問題点があった。
【0006】
また、例えばカメラ一体型ビデオテープレコーダのように、携帯用の機器においては、バッテリによる駆動の長時間化に伴う低消費電力化や、機器の小型軽量化に伴う基板面積の制限による回路削減などで、ミュート処理用の乗算器が設けられたオーディオデータ処理専用のICが省略されることが多い。したがって、このような、携帯用の機器では、ミュート解除時にパルス状の雑音が発生してしまうという問題点があった。
【0007】
したがって、この発明の目的は、簡単な構成でミュート解除時の雑音を出さないようにしたオーディオ信号処理装置および方法、ならびに、映像音声記録再生装置を提供することにある。
【0008】
【課題を解決するための手段】
この発明は、上述した課題を解決するために、ディジタルオーディオ信号を処理するオーディオ信号処理装置において、無音状態から有音状態への立ち上げ時に、入力されたオーディオデータの上位側ビットだけを下位側にビットシフトし、ビットシフトの量を立ち上げ時から時間と共に減らしていくことでオーディオデータのレベルに傾斜を付けることを特徴とするオーディオ信号処理装置である。
【0009】
また、この発明は、ビデオデータおよびオーディオデータをそれぞれ積符号を用いたエラー訂正符号化して記録媒体に記録し、記録媒体に記録されたビデオデータおよびオーディオデータを再生するようにされた映像信号記録再生装置において、入力されたビデオデータおよびオーディオデータに対して、それぞれ積符号を用いたエラー訂正符号化を行い、ID情報および同期信号を付加して記録媒体に記録する記録手段と、記録媒体に記録されたビデオデータおよびオーディオデータを再生し、再生された該ビデオデータおよびオーディオデータに対して、それぞれ同期信号およびID情報に基づき、積符号によるエラー訂正符号化の復号化を行う再生手段と、再生手段によって再生されたオーディオデータの、無音状態から有音状態への立ち上げ時に、オーディオデータの上位側ビットだけを下位側にビットシフトし、ビットシフトの量を立ち上げ時から時間と共に減らしていくことでオーディオデータのレベルに傾斜を付ける手段とを有することを特徴とする映像音声記録再生装置である。
【0010】
また、この発明は、ディジタルオーディオ信号を処理するオーディオ信号処理方法において、無音状態から有音状態への立ち上げ時に、入力されたオーディオデータの上位側ビットだけを下位側にビットシフトし、ビットシフトの量を立ち上げ時から時間と共に減らしていくことでオーディオデータのレベルに傾斜を付けることを特徴とするオーディオ信号処理方法である。
【0011】
上述したように、この発明は、無音状態から有音状態への立ち上げ時に、入力されたオーディオデータの上位側ビットだけを下位側にビットシフトし、ビットシフトの量を立ち上げ時から時間と共に減らしていくようにしているため、ビットシフトを行うだけの簡単な構成で、無音状態から有音状態への立ち上げ時にオーディオデータのレベルに対して傾斜を付けることができる。
【0012】
【発明の実施の形態】
以下、この発明をディジタルVTRに対して適用した一実施形態について説明する。この一実施形態は、放送局の環境で使用して好適なもので、互いに異なる複数のフォーマットのビデオ信号の記録・再生を可能とするものである。例えば、NTSC方式に基づいたインターレス走査で有効ライン数が480本の信号(480i信号)およびPAL方式に基づいたインターレス走査で有効ライン数が576本の信号(576i信号)の両者を殆どハードウエアを変更せずに記録・再生することが可能とされる。さらに、インターレス走査でライン数が1080本の信号(1080i信号)、プログレッシブ走査(ノンインターレス)でライン数がそれぞれ480本、720本、1080本の信号(480p信号、720p信号、1080p信号)などの記録・再生も行うようにできる。
【0013】
また、この一実施形態では、ビデオ信号は、MPEG2方式に基づき圧縮符号化され、オーディオ信号は、非圧縮で扱われる。周知のように、MPEG2は、動き補償予測符号化と、DCTによる圧縮符号化とを組み合わせたものである。MPEG2のデータ構造は、階層構造をなしており、下位から、ブロック層、マクロブロック層、スライス層、ピクチャ層、GOP層およびシーケンス層となっている。
【0014】
ブロック層は、DCTを行う単位であるDCTブロックからなる。マクロブロック層は、複数のDCTブロックで構成される。スライス層は、ヘッダ部と、行間をまたがらない任意個のマクロブロックより構成される。ピクチャ層は、ヘッダ部と、複数のスライスとから構成される。ピクチャは、1画面に対応する。GOP(Group Of Picture)層は、ヘッダ部と、フレーム内符号化に基づくピクチャであるIピクチャと、予測符号化に基づくピクチャであるPおよびBピクチャとから構成される。
【0015】
GOPには、最低1枚のIピクチャが含まれ、PおよびBピクチャは、存在しなくても許容される。最上層のシーケンス層は、ヘッダ部と複数のGOPとから構成される。
【0016】
MPEGのフォーマットにおいては、スライスが1つの可変長符号系列である。可変長符号系列とは、可変長符号を復号化しなければデータの境界を検出できない系列である。
【0017】
また、シーケンス層、GOP層、ピクチャ層、スライス層およびマクロブロック層の先頭には、それぞれ、バイト単位に整列された所定のビットパターンを有する識別コード(スタートコードと称される)が配される。なお、上述した各層のヘッダ部は、ヘッダ、拡張データまたはユーザデータをまとめて記述したものである。シーケンス層のヘッダには、画像(ピクチャ)のサイズ(縦横の画素数)等が記述される。GOP層のヘッダには、タイムコードおよびGOPを構成するピクチャ数等が記述される。
【0018】
スライス層に含まれるマクロブロックは、複数のDCTブロックの集合であり、DCTブロックの符号化系列は、量子化されたDCT係数の系列を0係数の連続回数(ラン)とその直後の非0系列(レベル)を1つの単位として可変長符号化したものである。マクロブロックならびにマクロブロック内のDCTブロックには、バイト単位に整列した識別コードは付加されない。すなわち、これらは、1つの可変長符号系列ではない。
【0019】
マクロブロックは、画面(ピクチャ)を16画素×16ラインの格子状に分割したものである。スライスは、例えばこのマクロブロックを水平方向に連結してなる。連続するスライスの前のスライスの最後のマクロブロックと、次のスライスの先頭のマクロブロックとは連続しており、スライス間でのマクロブロックのオーバーラップを形成することは、許されていない。また、画面のサイズが決まると、1画面当たりのマクロブロック数は、一意に決まる。
【0020】
一方、復号および符号化による信号の劣化を避けるためには、符号化データ上で編集することが望ましい。このとき、PピクチャおよびBピクチャは、その復号に、時間的に前のピクチャあるいは前後のピクチャを必要とする。そのため、編集単位を1フレーム単位とすることができない。この点を考慮して、この一実施形態では、1つのGOPが1枚のIピクチャからなるようにしている。
【0021】
また、例えば1フレーム分の記録データが記録される記録領域が所定のものとされる。MPEG2では、可変長符号化を用いているので、1フレーム期間に発生するデータを所定の記録領域に記録できるように、1フレーム分の発生データ量が制御される。さらに、この一実施形態では、磁気テープへの記録に適するように、1スライスを1マクロブロックから構成すると共に、1マクロブロックを、所定長の固定枠に当てはめる。
【0022】
図1は、この一実施形態による記録再生装置の記録側の構成の一例を示す。記録時には、所定のインターフェース例えばSDI(Serial Data Interface) の受信部を介してディジタルビデオ信号が端子101から入力される。SDIは、(4:2:2)コンポーネントビデオ信号とディジタルオーディオ信号と付加的データとを伝送するために、SMPTEによって規定されたインターフェイスである。入力ビデオ信号は、ビデオエンコーダ102においてDCT(Discrete Cosine Transform) の処理を受け、係数データに変換され、係数データが可変長符号化される。ビデオエンコーダ102からの可変長符号化(VLC)データは、MPEG2に準拠したエレメンタリストリームである。この出力は、セレクタ103の一方の入力端に供給される。
【0023】
一方、入力端子104を通じて、ANSI/SMPTE 305Mによって規定されたインターフェイスである、SDTI(Serial Data Transport Interface) のフォーマットのデータが入力される。この信号は、SDTI受信部105で同期検出される。そして、バッファに一旦溜め込まれ、エレメンタリストリームが抜き出される。抜き出されたエレメンタリストリームは、セレクタ103の他方の入力端に供給される。
【0024】
セレクタ103で選択され出力されたエレメンタリストリームは、ストリームコンバータ106に供給される。ストリームコンバータ106では、MPEG2の規定に基づきDCTブロック毎に並べられていたDCT係数を、1マクロブロックを構成する複数のDCTブロックを通して、周波数成分毎にまとめ、まとめた周波数成分を並べ替える。並べ替えられた変換エレメンタリストリームは、パッキングおよびシャフリング部107に供給される。
【0025】
エレメンタリストリームのビデオデータは、可変長符号化されているため、各マクロブロックのデータの長さが不揃いである。パッキングおよびシャフリング部107では、マクロブロックが固定枠に詰め込まれる。このとき、固定枠からはみ出た部分は、固定枠のサイズに対して余った部分に順に詰め込まれる。また、タイムコード等のシステムデータが入力端子108からパッキングおよびシャフリング部107に供給され、ピクチャデータと同様にシステムデータが記録処理を受ける。また、走査順に発生する1フレームのマクロブロックを並び替え、テープ上のマクロブロックの記録位置を分散させるシャフリングが行われる。シャフリングによって、変速再生時に断片的にデータが再生される時でも、画像の更新率を向上させることができる。
【0026】
パッキングおよびシャフリング部107からのビデオデータおよびシステムデータ(以下、特に必要な場合を除き、システムデータを含む場合も単にビデオデータと言う。)が外符号エンコーダ109に供給される。ビデオデータおよびオーディオデータに対するエラー訂正符号としては、積符号が使用される。積符号は、ビデオデータまたはオーディオデータの2次元配列の縦方向に外符号の符号化を行い、その横方向に内符号の符号化を行い、データシンボルを2重に符号化するものである。外符号および内符号としては、リードソロモンコード(Reed-Solomon code) を使用できる。
【0027】
外符号エンコーダ109の出力がシャフリング部110に供給され、複数のECC(Error Correctig Code)ブロックにわたってシンクブロック単位で順番を入れ替える、シャフリングがなされる。シンクブロック単位のシャフリングによって特定のECCブロックにエラーが集中することが防止される。シャフリング部110でなされるシャフリングをインターリーブと称することもある。シャフリング部110の出力が混合部111に供給され、オーディオデータと混合される。なお、混合部111は、後述のように、メインメモリにより構成される。
【0028】
112で示す入力端子からオーディオデータが供給される。この一実施形態では、非圧縮のディジタルオーディオ信号が扱われる。ディジタルオーディオ信号は、入力側のSDI受信部(図示しない)またはSDTI受信部105で分離されたもの、またはオーディオインターフェースを介して入力されたものである。入力ディジタルオーディオ信号が遅延部113を介してAUX付加部114に供給される。遅延部113は、オーディオ信号とビデオ信号と時間合わせ用のものである。入力端子115から供給されるオーディオAUXは、補助的データであり、オーディオデータのサンプリング周波数等のオーディオデータに関連する情報を有するデータである。オーディオAUXは、AUX付加部114にてオーディオデータに付加され、オーディオデータと同等に扱われる。
【0029】
AUX付加部114からのオーディオデータおよびAUX(以下、特に必要な場合を除き、AUXを含む場合も単にオーディオデータと言う。)が外符号エンコーダ116に供給される。外符号エンコーダ116は、オーディオデータに対して外符号の符号化を行う。外符号エンコーダ116の出力がシャフリング部117に供給され、シャフリング処理を受ける。オーディオシャフリングとして、シンクブロック単位のシャフリングと、チャンネル単位のシャフリングとがなされる。
【0030】
シャフリング部117の出力が混合部111に供給され、ビデオデータとオーディオデータが1チャンネルのデータとされる。混合部111の出力がID付加部118が供給され、ID付加部118にて、シンクブロック番号を示す情報等を有するIDが付加される。ID付加部118の出力が内符号エンコーダ119に供給され、内符号の符号化がなされる。さらに、内符号エンコーダ119の出力が同期付加部120に供給され、シンクブロック毎の同期信号が付加される。同期信号が付加されることによってシンクブロックが連続する記録データが構成される。この記録データが記録アンプ121を介して回転ヘッド122に供給され、磁気テープ123上に記録される。回転ヘッド122は、実際には、隣接するトラックを形成するヘッドのアジマスが互いに異なる複数の磁気ヘッドが回転ドラムに取り付けられたものである。
【0031】
記録データに対して必要に応じてスクランブル処理を行っても良い。また、記録時にディジタル変調を行っても良く、さらに、パーシャル・レスポンスクラス4とビタビ符号を使用しても良い。
【0032】
磁気テープへの信号の記録は、回転する回転ヘッド上に設けられた磁気ヘッドにより、斜めのトラックを形成する、ヘリカルスキャン方式によって行われる。磁気ヘッドは、回転ドラム上の、互いに対向する位置に、それぞれ複数個が設けられる。すなわち、磁気テープが回転ヘッドに180°程度の巻き付け角で以て巻き付けられている場合、回転ヘッドの180°の回転により、同時に複数本のトラックを形成することができる。また、磁気ヘッドは、互いにアジマスの異なる2個で一組とされる。複数個の磁気ヘッドは、隣接するトラックのアジマスが互いに異なるように配置される。
【0033】
図2は、この発明の一実施形態の再生側の構成の一例を示す。磁気テープ123から回転ヘッド122で再生された再生信号が再生アンプ131を介して同期検出部132に供給される。再生信号に対して、等化や波形整形などがなされる。また、ディジタル変調の復調、ビタビ復号等が必要に応じてなされる。同期検出部132は、シンクブロックの先頭に付加されている同期信号を検出する。同期検出によって、シンクブロックが切り出される。
【0034】
同期検出ブロック132の出力が内符号デコーダ133に供給され、内符号のエラー訂正がなされる。内符号デコーダ133の出力がID補間部134に供給され、内符号によりエラーとされたシンクブロックのID例えばシンクブロック番号が補間される。ID補間部134の出力が分離部135に供給され、ビデオデータとオーディオデータとが分離される。上述したように、ビデオデータは、MPEGのイントラ符号化で発生したDCT係数データおよびシステムデータを意味し、オーディオデータは、PCM(Pulse Code Modulation) データおよびAUXを意味する。
【0035】
分離部135からのビデオデータがデシャフリング部136において、シャフリングと逆の処理がなされる。デシャフリング部136は、記録側のシャフリング部110でなされたシンクブロック単位のシャフリングを元に戻す処理を行う。デシャフリング部136の出力が外符号デコーダ137に供給され、外符号によるエラー訂正がなされる。訂正できないエラーが発生した場合には、エラーの有無を示すエラーフラグがエラー有りを示すものとされる。
【0036】
外符号デコーダ137の出力がデシャフリングおよびデパッキング部138に供給される。デシャフリングおよびデパッキング部138は、記録側のパッキングおよびシャフリング部107でなされたマクロブロック単位のシャフリングを元に戻す処理を行う。また、デシャフリングおよびデパッキング部138では、記録時に施されたパッキングを分解する。すなわち、マクロブロック単位にデータの長さを戻して、元の可変長符号を復元する。さらに、デシャフリングおよびデパッキング部138において、システムデータが分離され、出力端子139に取り出される。
【0037】
デシャフリングおよびデパッキング部138の出力が補間部140に供給され、エラーフラグが立っている(すなわち、エラーのある)データが修整される。すなわち、変換前に、マクロブロックデータの途中にエラーがあるとされた場合には、エラー箇所以降の周波数成分のDCT係数が復元できない。そこで、例えばエラー箇所のデータをブロック終端符号(EOB)に置き替え、それ以降の周波数成分のDCT係数をゼロとする。同様に、高速再生時にも、シンクブロック長に対応する長さまでのDCT係数のみを復元し、それ以降の係数は、ゼロデータに置き替えられる。さらに、補間部140では、ビデオデータの先頭に付加されているヘッダがエラーの場合に、ヘッダ(シーケンスヘッダ、GOPヘッダ、ピクチャヘッダ、ユーザデータ等)を回復する処理もなされる。
【0038】
DCTブロックに跨がって、DCT係数がDC成分および低域成分から高域成分へと並べられているため、このように、ある箇所以降からDCT係数を無視しても、マクロブロックを構成するDCTブロックのそれぞれに対して、満遍なくDCならびに低域成分からのDCT係数を行き渡らせることができる。
【0039】
補間部140の出力がストリームコンバータ141に供給される。ストリームコンバータ141では、記録側のストリームコンバータ106と逆の処理がなされる。すなわち、DCTブロックに跨がって周波数成分毎に並べられていたDCT係数を、DCTブロック毎に並び替える。これにより、再生信号がMPEG2に準拠したエレメンタリストリームに変換される。
【0040】
また、ストリームコンバータ141の入出力は、記録側と同様に、マクロブロックの最大長に応じて、十分な転送レート(バンド幅)を確保しておく。マクロブロックの長さを制限しない場合には、画素レートの3倍のバンド幅を確保するのが好ましい。
【0041】
ストリームコンバータ141の出力がビデオデコーダ142に供給される。ビデオデコーダ142は、エレメンタリストリームを復号し、ビデオデータを出力する。すなわち、ビデオデコーダ142は、逆量子化処理と、逆DCT処理とがなされる。復号ビデオデータが出力端子143に取り出される。外部とのインターフェースには、例えばSDIが使用される。また、ストリームコンバータ141からのエレメンタリストリームがSDTI送信部144に供給される。SDTI送信部144には、経路の図示を省略しているが、システムデータ、再生オーディオデータ、AUXも供給され、SDTIフォーマットのデータ構造を有するストリームへ変換される。SDTI送信部144からのストリームが出力端子145を通じて外部に出力される。
【0042】
分離部135で分離されたオーディオデータがデシャフリング部151に供給される。デシャフリング部151は、記録側のシャフリング部117でなされたシャフリングと逆の処理を行う。デシャフリング部117の出力が外符号デコーダ152に供給され、外符号によるエラー訂正がなされる。外符号デコーダ152からは、エラー訂正されたオーディオデータが出力される。訂正できないエラーがあるデータに関しては、エラーフラグがセットされる。
【0043】
外符号デコーダ152の出力がAUX分離部153に供給され、オーディオAUXが分離される。分離されたオーディオAUXが出力端子154に取り出される。また、オーディオデータが補間部155に供給される。補間部155では、エラーの有るサンプルが補間される。補間方法としては、時間的に前後の正しいデータの平均値で補間する平均値補間、前の正しいサンプルの値をホールドする前値ホールド等を使用できる。補間部155の出力が出力部156に供給される。出力部156は、エラーであり、補間できないオーディオ信号の出力を禁止するミュート処理、並びにビデオ信号との時間合わせのための遅延量調整処理がなされる。出力部156から出力端子157に再生オーディオ信号が取り出される。
【0044】
なお、図1および図2では省略されているが、入力データと同期したタイミング信号を発生するタイミング発生部、記録再生装置の全体の動作を制御するシステムコントローラ(マイクロコンピュータ)等が備えられている。
【0045】
次に、この一実施形態における、磁気テープに対するフットプリントならびにオーディオデータのフォーマットについて説明する。
【0046】
図3〜図5は、この一実施形態による記録再生装置が対応できるオーディオのエラー訂正ブロックの種類を示す。オーディオのエラー訂正ブロックは、大きく分けてフィールド(フレーム)周波数の違いで分類できる。フィールド(フレーム)周波数は、29.97Hz、59.94Hz、25Hz、50Hz、23.976Hzの5種類がある。29.97Hz、25Hz、23.976Hzは、プログレッシブ(ノンインターレス)走査の場合の周波数であり、他の周波数は、インターレス走査である。図3がフィールド(フレーム)周波数29.97Hz/59.94Hzの例であり、図4がフィールド(フレーム)周波数25Hz/50Hzの例である。また、図5がフレーム周波数23.976Hzの例である。
【0047】
プログレッシブ走査のフレーム周期は、インターレスのフィールド周期と同じであるので、ここからは、繁雑さを避けるために、インターレス走査のフレームおよびフィールドは、単にフレームおよびフィールドと呼び、プログレッシブ走査のフレームは、Pフレームと呼ぶ。
【0048】
オーディオの1サンプル当たりのビット数は、各フォーマットで求められる音質の違いにより16ビット、24ビットの2種類がある。図3A、図4Aおよび図5Aが16ビット/サンプルを示し、図3B、図4Bおよび図5Bが24ビット/サンプルである。なお、サンプリング周波数は、全て48KHzとされている。
【0049】
エラー訂正ブロックにおいて、例えば8ビット(1バイト)からなる1シンボル単位でエラー訂正符号化がなされ、横方向の1行がシンクブロックに対応する。SYは、テープ記録上のシンクパターンであって、2バイトが割り当てられる。IDは、シンク番号やセグメント番号ビデオ/オーディオ等、シンクブロックが固有に持っている重要な情報が格納されており、2バイトが割り当てられる。DIDは、オーディオ5FSeq(後述する)情報等のオーディオデータに関する重要な情報が入っており、1バイトが割り当てられる。
【0050】
例えば、59.94Hz、16バイト/サンプルのエラー訂正ブロックは、図1の左上の図となり、1シンクブロックのデータ数119バイトであって、内符号パリティが12バイト、外符号パリティが10バイトであることが分かる。
【0051】
図6は、シンクブロックの構造を示す。また、図7は、シンクブロック中のIDおよびDIDのビットアサインを示す。図6Aにおいて、SYNCは、テープ記録上のシンクパターンであって、2バイト(76B4h:hは16進表記を表す)が割り当てられる。SYNCに続けて、2バイトのIDが配され、112バイト〜189バイトと容量が可変とされたデータ領域が配される。続く12バイトは、パリティであり、内符号パリティが格納される。
【0052】
また、データ領域は、図6Bに示されるように、先頭に1バイトのDIDが配され、続けてオーディオデータが格納される。このデータ領域全体は、ペイロードと称される。
【0053】
ID0は、図7Aの左側に示されるように、シンクブロックの識別番号であるシンクIDが格納される。ID0によって、1トラック上で、オーディオシンクブロックそれぞれに別のIDが割り振られる。ID1は、図7Aの右側に示されるように、セグメント番号やビデオ/オーディオの識別ビットなどが格納される。アジマス番号は、アジマス情報で、〔0〕または〔1〕が入る。Upper/Lowerは、シンクIDの追加情報で、ID0の8バイト、ビデオ/オーディオ識別ビットおよびこのUpper/Lowerで、トラック上のシンクブロックをそれぞれ区別して識別できるようになっている。エディットINは、エディット情報であり、編集の時のIN点で当ビットが〔1〕で記録される。
【0054】
図7Bは、DIDのビットアサインを示す。DID中のNT Seqは、ノントラッキング再生の際に、どのシンクブロックが同一フィールドかを識別するために使われる。データ/オーディオは、非圧縮オーディオデータ以外がオーディオのシンクブロックに格納されている場合に、〔1〕が立てられる。5FSeqは、フレーム(フィールド)周波数が59.94Hz、29.97Hzの場合に発生する5フィールドシーケンスに関する情報が入る。
【0055】
5フィールドシーケンスとは、オーディオデータのサンプリング周波数が48KHzのときに、5フィールドで1周期になるというもので、4004サンプル/5フィールドなので、これを各フィールドに割り当てる時に800、801、801、801、801サンプル/フィールドというように割り当てる。これを5フィールドシーケンスと呼ぶ。
【0056】
図8は、フレーム(フィールド)周波数が29.97Hz、59.94Hzの場合の、1チャンネル、1フィールドのオーディオのエラー訂正ブロックにおけるレイアウトを示す。図8Aは、配置を概略的に示し、図8Bは、より詳細に示す。なお、これは、以下の図9および図10でも同様である。1フィールド当たり800または801サンプルを、偶数番サンプルおよび奇数番サンプルがそれぞれ格納される、2エラー訂正ブロックに分割している。図8中、AUX0、AUX1、AUX2は、AUXデータであり、オーディオに関する補助的なデータが格納される。
【0057】
各枠は、1サンプル分のデータ長に対応し、枠内の数字は、オーディオデータのサンプル順を表すサンプル番号に対応している。また、PVxとあるのは、後述する外符号パリティである。0番〜800番は、オーディオサンプルデータであり、上述したように、5フィールドシーケンスがあり、800または801サンプル/フィールドである。800サンプル/フィールドの場合には、800番には798番に格納される第798番のサンプルがコピーされる。
【0058】
PV0〜PV9は、縦系列の外符号パリティで、10バイトある。外符号番号は、横方向のデータであるシンクブロックをまとめて呼ぶための番号である。1フィールド(1Pフレーム)では、36シンクブロックなので、外符号番号は0〜35になる。
【0059】
図9、図10は、それぞれフレーム(フィールド)周波数が25Hz/50Hz、23.976Hzの場合のオーディオのエラー訂正ブロックにおけるレイアウトである。これらは、総サンプル数の変化に伴うサンプル番号の違い以外は、上述の図8に示した29.97Hz/59.94Hzの場合と同様である。
【0060】
図11〜図14は、各フォーマットにおける、フットプリント上のチャンネルアロケーションの例を示す。フォーマットは、SD1〜SD4とそれぞれ称される4種類である。図11がSD1、図12がSD2、図13がSD3、図14がSD4を示す。各図において、四角は、1セクタを表し、その中のAxは、オーディオのチャンネル番号を表している。また、それぞれの図の右側に記されている「9」や「6」という数字は、1セクタ当たりのシンクブロック数である。
【0061】
例えば、フォーマットSD1の場合には、図11に示されるように、A0〜A3までの4チャンネルが存在し、9[シンクブロック]×2[セクタ/トラック、チャンネル]×4[トラック/フレーム]=72シンクブロック/チャンネル、フレームであることがわかる。つまり、1フィールド当たり、各チャンネルのそれぞれが72/2=36シンクブロックであることがわかる。フォーマットSD2〜SD4も同様に計算すると、1フィールドまたは1Pフレームでは、1チャンネル当たり36シンクブロック/チャンネル、フィールドである。これは、上述の、図8〜図10における1フィールド(1Pフレーム)当たり36外符号番号に対応している。
【0062】
1フィールドまたは1Pフレーム当たりのトラック数が違うのは、ビデオでの圧縮率の違いにより各フォーマットでデータ量が異なり、それに伴って、必要なトラック数が異なるためである。この一実施形態では、オーディオデータは、非圧縮で扱われ、1フィールド(1Pフレーム)当たりのオーディオのデータ量は、常に同じである。そのため、ビデオが必要なトラック数に対応して、オーディオもSD1〜SD4のフォーマットに分かれる。
【0063】
図15は、各フォーマットにおけるオーディオ外符号番号アロケーションを示す。図15Aは、フォーマットSD1の例であり、図15Bは、SD4の例である。また、図15Cは、フォーマットSD2およびSD3に共通する配置である。1チャンネル、1フィールドの外符号番号がセグメント、アジマスに対してどのように配置されているかを示すものである。この図で、四角の中に書かれている番号が外符号番号である。図中の矢印は、ヘッドのトレース方向を示す。また、横方向の1行が1セクタに相当する。例えば、SD1では、1チャンネル、1フィールド分のオーディオデータが2セクタにわたって配置されているのが分かる。
【0064】
これら図15A〜図15Cで分かるように、1フィールド分の36外符号番号は、シャッフルされて順序を並べ替えられて配置される。ヘッドトレースの方向により、左の方が先に記録されることが示されている。例えば、図15Cの、SD3(SD2)の場合には、外符号番号19、18が先頭に記録される。
【0065】
この例では、アジマス0、セグメント0の1セクタは、外符号番号19、21、0、4、8、12、16、23および25の9シンクブロックからなる。この1セクタは、アジマス0、セグメント0であり、これがA0だとした場合、図13に示されるフォーマットSD3のアジマス0、セグメント0のA0に対して、この1セクタが書かれる。また、図15CのフォーマットSD3における外符号番号28、30、1、5、9、13、17、32および34の1セクタは、アジマス1、セグメント1であり、これがA0だとすると、図13のSD3のアジマス1、セグメント1のA0に対して、この1セクタが書かれることになる。
【0066】
次に、この一実施形態における、オーディオデコード処理について説明する。図16は、この記憶再生装置に用いられるデコーダ1の構成の一例を示す。このデコーダ1は、例えば1つのIC(集積回路)内に構成されるものである。また、この構成は、図2における分離回路135ならびにデシャフリング回路151から出力部156までのオーディオ信号処理系の構成に対応する。デコーダ1は、記録時にシャフリングされている再生信号をデシャフリングして元の順序に並べ替える。そして、それぞれAdv、Confと称される、8チャンネルずつ2系統の、合計で16チャンネルのオーディオデータを出力する。
【0067】
タイミング発生ブロック10では、供給された各種信号に基づき、デコーダ1内で必要な各種タイミング信号やコントロール信号、各種情報を生成する。タイミング発生ブロック10で生成されたコントロール信号がRCブロック19に供給される。また、タイミング発生ブロック10で生成された各種情報がデシャフリング部11およびAOTブロック16に供給される。
【0068】
磁気テープ123から再生され、同期検出、内符号訂正およびID補間された再生データがシンクブロック単位でデシャフリング部11に供給される。デシャフリング部11では、チャンネルデシャフリング用RAM14およびシンクデシャフリング用RAM15にそれぞれ格納されたデシャフリングテーブルに基づき、データをSDRAM(Synchronous DRAM)13に書き込む際のアドレスを生成する。このアドレスは、再生データと共に、SDRAMコントローラ12に供給される。再生データは、供給されたアドレスに基づくSDRAMコントローラ12の制御により、元のデータ順に並べ替えられてSDRAM13に書き込まれる。
【0069】
SDRAM13から読み出されたデータは、AOTブロック16に供給され、外符号用RAM17Aおよび17Bを用いて外符号訂正がなされる。また、AOTブロック16では、エラーフラグやAUXデータの抜取りが行われる。外符号訂正された再生データは、ID1およびAUXデータの情報に基づきAdvおよびConfとに分類されると共に、チャンネル毎に分けられて、AOTブロック16から出力される。このとき、2チャンネル分が1本の信号経路とされ、合計で8本の信号が出力される。Adv系統の4本の出力は、レートコンバート用RAM18A〜18Dにそれぞれ供給される。同様に、Conf系統の4本の出力は、レートコンバート用RAM18E〜18Hにそれぞれ供給される。なお、各図中においては、レートコンバート用RAMをRC用RAMと省略して記載してある。
【0070】
レートコンバート用RAM18A〜18Hは、それぞれRCブロック19によって読み出し制御される。また、RCブロック19には、AOTブロック16からコントロール信号が供給され、RCブロック19からAOTブロック16に対してフィールドスタート信号が供給される。RCブロック19の制御に基づき、レートコンバート用RAM18A〜18Hから再生オーディオデータが8ビットパラレルで読み出され、AIFブロック20に供給される。
【0071】
AIFブロック20では、供給された再生オーディオデータをパラレル/シリアル変換して、8チャンネル、2系統のそれぞれの出力データとして出力する。また、AIFブロック20では、必要に応じてオーディオデータの修整やミュート処理などを行う。
【0072】
次に、デコーダ1の各部について、さらに詳細に説明する。タイミング発生ブロック10は、フレーム信号であるTG−フレーム、フィールド信号であるTG−AVSTO、リファレンス5フィールドシーケンスIDであるTG−5F−ID、サンプル区切り信号であるFSを受け取り、デコーダ1の内部で必要なタイミング信号や、コントロール信号、各種情報を生成する。タイミング発生ブロック10は、Advパス番号、Advライトフィールドバンク番号、Confパス番号およびConfライトフィールドバンク番号(後述する)を、コントロール信号としてデシャフリング部11に送る。
【0073】
デシャフリング部11には、内符号訂正された再生データが供給される。この再生データには、外符号訂正は、未だなされていない。そして、チャンネルデシャフリング用RAM14とシンクデシャフリング用RAM15とを利用して、デシャフリングを行い、再生データをSDRAM13に書き込む際のアドレスを生成する。このアドレスに従い再生データをSDRAM12に書き込むことで、再生データのデシャフリング処理がなされる。アドレス情報と再生データとがSDRAMコントローラ12に供給され、SDRAMコントローラ12のアドレス制御により再生データがSDRAM13に対して書き込まれる。
【0074】
チャンネルデシャフリング用RAM14およびシンクでシャフリング用RAM15での処理について、さらに詳細に説明する。この、RAM14および15での処理がこの発明の主旨に係わる部分である。
【0075】
図17〜図19を用いて、SDRAM13のアドレスアサインについて説明する。SDRAM13では、オーディオデータをフィールドで区切って書き込む。1フィールドが格納されるSDRAM13の領域を、フィールドバンクと呼ぶ。この一実施形態では、SDRAM13は、8個のフィールドバンクを有し、8フィールド分のオーディオデータを格納することができる。
【0076】
図17Aは、1つのフィールドバンクに格納されるデータブロックを示す。横方向の1行がシンクブロックであり、シンクブロックを構成するデータの1バイト毎にシンク内バイト番号が付される。シンクブロックは、列方向に並べられ、それぞれに対して外符号番号が付される。SDRAM13のアドレスアサインは、図17Bに示されるように、2ビットのIDに続き、1ビットのConf/Adv値、6ビットの外符号番号、3ビットのフィールドバンク値、3ビットのチャンネル番号および6ビットのシンク内バイト番号の、合計で21ビットから構成される。
【0077】
図18は、SDRAM13上のシンクブロックの構成の一例を示す。シンクブロックは、図18Aに示されるように、SDRAM13上では、PS番号0、PS番号1、AIX0、AIX1、DIDおよびデータから構成される。
【0078】
PS番号は、パス番号の略である。PS番号0、1は、ヘッドクロッグなどで新しいデータがSDRAM13上に書かれなかったときに、そのデータが古いものであることを判別するために使われる。PS番号0、1は、単純に8フィールド毎(SDRAM13のフィールドバンクの周期毎) にインクリメントされる。すなわち、タイミング発生ブロック10から送られた16ビット、0〜65535までの数値がPS番号0、1に格納される。Rsvは、Reservedの略であり、ダミーデータが格納される。
【0079】
図18Bは、AIX0のビットアサインを示す。ビット7および6、ビット4〜ビット0は、Reservedである。ビット5のFabSYNCは、内符号訂正時に、シンクブロック間の距離が乱れたなどの理由により、このシンクブロックが正規のシンクブロックでは無い可能性が高いとされた場合、立てられるビットである。
【0080】
図18Cは、AIX1のビットアサインを示す。Jumpは、例えば記録時と異なる速度で再生する変速再生時に用いられる。変速再生時に、DT(Dynamic Tracking)ヘッドが1フィールド飛んだ時に値が1とされる。TapeDirは、テープ走行方向であり、フォワード時に値1、リバース時に値0とされる。内符号エラーは、内符号訂正の際にエラーとされたシンクブロックの場合に、値が1とされる。
【0081】
なお、DIDは、既に図7で説明したDIDそのものが格納される。
【0082】
SDRAM13に格納されるシンクブロックは、上述の図3〜図5、あるいは図8〜図10における、横方向の1行のデータに対して、上述したPS番号0および1、AIX0および1、ならびにDIDからなる、各付加情報を付加した構成とされる。
【0083】
上述したように、シンクブロックにおいて、バイト毎にシンク内バイト番号が付される。この一実施形態では、SDRAM13は、32ビット幅のものが用いられる。そのため、シンクブロックのデータは、図19に示されるように、4バイト毎にアドレスが設けられる。したがって、SDRAM13上では、シンク内バイト番号の上位6ビット([7:2])でアドレスアサインされる。
【0084】
図18Bに示されるように、SDRAM13のアドレスは、Adv/Conf、外符号番号、フィールドバンクおよびチャンネル番号、シンク内バイト番号を用いて作られ、書き込まれる。Adv/Confは、内符号訂正されたデータがデシャフリング部11に到来する際に、システムによって付された情報に基づき判断する。フィールドバンクは、タイミング発生ブロック10から供給されるAdv/Conf Wrフィールドバンク番号そのものである。
【0085】
シンク内バイト番号において、付加情報についての番号は、番号0〜7までが割り当てられている。一方、データについての番号は、内符号訂正されたデータが供給される際に、値をオフセットしてインクリメントすれば決まる。内符号訂正されたデータに対する付加情報は、図7に示すID0、ID1のみであり、外符号番号およびチャンネル番号の情報は、無い。そこで、ID0、ID1の情報から外符号番号、チャンネル番号を作り出すために、チャンネルデシャフリング用RAM14およびシンクデシャフリング用RAM15を用いる。
【0086】
図20を用いて、チャンネルデシャフリング用RAM14での処理を説明する。先ず、ID0のシンク番号とID1のupper/lowerの情報から、トラック内セクタ番号を生成する。トラック内セクタ番号は、1トラック内におけるオーディオセクタを、ヘッドトレースの順番で番号付けしたものである。
【0087】
ID0は、図21に示されるように、upper/lowerのそれぞれのオーディオセクタにおいて、ヘッドトレース方向に昇順で付されている。したがって、トラック内セクタ番号は、ID1のupper/lowerと、ID0とから求めることができる。図21の例において、ID0が〔24h〕、ID1でupper/lowerが〔1〕であれば、トラック内セクタ番号は〔6〕となる。
【0088】
チャンネルデシャフリング用RAM14には、トラック内セクタ番号とID1のSEG番号とをアドレスとして与えると、返り値としてチャンネル番号が返るようなデシャフリングテーブルが格納されている。デシャフリング部11からチャンネルデシャフリング用RAM14に対して、これらの値がアドレスとして供給され、RAM14から、該当するチャンネル番号が出力される。なお、チャンネルデシャフリング用RAM14に格納されるデシャフリングテーブルは、図示されないシステムコントローラにより書き替えが可能である。データのフォーマットに応じて、このデシャフリングテーブルを書き替えることにより、あらゆるフォーマット変更に対応できる。
【0089】
図22は、チャンネルデシャフリング用RAM14に供給される、トラック内セクタ番号とSEG番号とのビット割り付けの例を示す。図22Aに示されるように、フォーマットSD1〜SD4の各フォーマットのそれぞれで、各値に必要なビット数が異なる。この一実施形態では、図22Bに一例が示されるように、各フォーマットに対するビット割り付けがなされる。
【0090】
図23を用いて、シンクデシャフリング用RAM15での処理を説明する。シンクデシャフリング用RAM15は、チャンネルフィールド内セクタ番号とセクタ内シンク番号をアドレスとして与えると、外符号番号を返り値として返す。チャンネルフィールド内セクタ番号は、アジマス0、1のセクタをペアとして、該当するセクタが同一チャンネル、同一フィールド内で何番目のセクタとなるかを示す番号である。例えば、上述した図21の例では、Seg1の各セクタは、同一チャンネル、同一フィールド内でアジマス0、1のセクタをペアとして数えると、2番目のセクタになる。したがって、0、1、2という数え方で、チャンネルフィールド内セクタ番号1となる。
【0091】
同様に、Seg2は、新しいフィールドの最初のセクタとなるので、チャンネルフィールド内セクタ番号0ということになる。
【0092】
図24は、フォーマットSD1〜SD4の各フォーマットにおける、チャンネルフィールド内セクタ番号、アジマス番号、セクタ内シンク番号および外符号番号のビット割り付けを示す。SD2、SD3のときには、チャンネルフィールド内セクタ番号とSeg番号は、1ビットの同一の値である。また、SD4のときには、チャンネルフィールド内セクタ番号とSeg番号は、2ビットの同一の値である。一方、SD1のときには、上述した図11から分かるように、同一トラック内でもUpper、Lowerで同一チャンネルが入る。そのため、チャンネルフィールド内セクタ番号は、ID1のupper/lowerと同一の1ビットの値である。
【0093】
また、図24において、セクタ内シンク番号は、同一セクタ内でヘッドトレース順に数えて何番めのシンクブロックとなるかを示す番号である。図21の、SD2の例でいうと、1セクタにそれぞれ9シンクブロックあり、セクタ内シンク番号は、ID0の下位4ビットで求められる。上述したように、このようにして求められたチャンネルフィールド内セクタ番号、アジマス番号およびセクタ内シンク番号を、デシャフリング部11からシンクデシャフリング用RAM15に対してアドレスとして与えると、シンクデシャフリング用RAM15からデシャフリング部11に対して、返り値として外符号番号が返される。
【0094】
図25および図26は、上述のようにして外符号番号を求める、より具体的な例を示す。図25Aは、フォーマットSD1の例であり、図25Bは、フォーマットSD4の例である。また、図26は、フォーマットSD2の例である。
【0095】
なお、シンクデシャフリング用RAM15に格納されるデシャフリングテーブルは、図示されないシステムコントローラにより書き替えが可能である。データのフォーマットに応じて、このデシャフリングテーブルを書き替えることにより、あらゆるフォーマット変更に対応できる。
【0096】
図24Bに示されるように、フォーマットSD1〜SD3の場合と、SD4の場合とでは、チャンネルフィールド内セクタ番号とセクタ内シンク番号に必要なビット数が異なる。しかしながら、これらのビット数を足した総必要ビット数は同じなので、アドレスを生成する際に、フォーマットに応じてビット割り付けを変更することで、最終的に必要なビット数が節約される。図示されないシステムコントローラにより、フォーマットに応じたビット割り付けが指示される。
【0097】
このように、チャンネルデシャフリング用RAM14とシンクデシャフリング用RAM15とを使い、デシャフリング部11におけるSDRAM13のアドレス計算に必要な値を求める。求められたアドレスがデータと共にSDRAMコントローラ12に送られる。データは、SDRAM12コントローラ12の制御により、送られたアドレスに従い、SDRAM12に書き込まれる。SDRAM13のアドレスアサインは、Conf/Adv別、フィールドバンク別、チャンネル別、外符号番号別に並べられ整理されてSDRAM13に書かれているので、例えば外符号訂正などの、後の処理が簡単となる。
【0098】
AOTブロック16は、SDRAM13の読み出しの制御、読み出されたデータからのエラーフラグの抜取り、外符号用RAM17Aおよび17Bの制御、外符号訂正、レートコンバート用RAM18A〜18Hの書き込み制御、および、AUXデータの抜取りの機能を有する。
【0099】
図27は、AOTブロック16によってなされるオーディオ処理のタイミングチャートを示す。タイミング発生ブロック10から、フィールド周期のコントロール信号(Fld−Start)が供給される(図27A)。信号Fld−Startは、例えばフィールドの変わり目で出力されるパルス信号である。AOTブロック16では、この信号を基準として各種処理が行われる。なお、以下の説明では、直後に出力される信号Fld−Startから始まるフィールドを新フィールドとし、信号Fld−Start以前のフィールドを旧フィールドとしてこれらを区別する。
【0100】
概略的な処理の流れとしては、上述もしたように、AOTブロック16によってSDRAM13からデータが読み出され、外符号用RAM17Aあるいは17Bに書き込まれる(図27B)。そして、外符号用RAM17Aあるいは17Bに書き込まれたデータに対して外符号訂正が行われる。外符号訂正されたデータは、外符号用RAM17Aあるいは17Bから読み出され(図27C)、レートコンバート用RAM18A〜18Hのうち、該当するものに書き込まれる(図27D)。レートコンバート用RAM18A〜18Hに書き込まれたデータは、所定のクロックに基づき、チャンネル毎に時分割で読み出される。
【0101】
AOTブロック16によって、SDRAM13のフィールドバンクのうち、新フィールドに対応するバンクが計算される。これは、タイミング発生ブロック10から、Adv/Conf RdFldバンク番号として供給される情報に基づき計算される。そして、そのバンクに格納されているデータから、エラーフラグが読み出される。また、そのバンクからデータが読み出され、外符号用RAM17Aあるいは17Bのうち、該当する側に書き込まれる。AOTブロック16によって、SDRAM13から読み出されたエラーフラグを用い、外符号用RAM17Aあるいは17Bに書き込まれたデータに対して、外符号訂正が行われる(図27Bの「A」の部分の処理)。
【0102】
これらの処理を、さらに詳細に説明する。AOTブロック16によって、該当するフィールドバンク番号のSDRAM13のアドレスが指定される。このアドレスは、AOTブロック16からSDRAMコントローラ12に対して送られる。SDRAMコントローラ12では、このアドレスに従いSDRAM13からデータを読み出す。
【0103】
外符号訂正処理は、図27F〜図27Iに示されるように、スロットに分けられ時分割で行われる。なお、この図27では、信号の系統がAdvおよびConfの2系統あるうちの、Advについてのみ、示されている。図27F〜図27Iに「Conf」で示されているのは、Conf系統を処理するスロットであり、Adv、Confが交互に時分割で処理されているのがわかる。
【0104】
スロットは、さらに小さいスロットに分けられる。先ず、チャンネル0の外符号番号が偶数のデータを対象として、Ps番号0および1、AIX0および1、DID、D0〜D11を読む。このとき、AIX1のビット0のエラーフラグは、レジスタに格納しておく。エラーフラグの判定時に、タイミング発生ブロック10から供給されたAdv/Confパス番号と、SDRAM13から読み出されらパス番号を比較して、異なっていたら古いデータが残ってると判断して、それら、古いデータのシンクブロックは、エラーとして扱う。
【0105】
図28は、パス番号(PS番号)の書き込みおよび読み出しの様子を示す。図28Aおよび図28Bは、書き込みの際のチャートである。図28Cおよび図28Dは、読み出しの際のチャートである。SDRAM13に書き込まれるときには、タイミング発生ブロック10からデシャフリング部11に供給されるAdv/Confライトフィールド番号と、パス番号とが比較される。比較結果に基づき、内符号訂正されたデータが供給される度に、該当するフィールドバンク番号のSDRAM13のアドレスに対して、パス番号を付けてデータを書き込む。
【0106】
ここで、1フィールド分全てのシンクブロックデータが来ていれば、全てパス番号は、新しいものに更新される。一方、来てないシンクブロックデータがあると、SDRAM13のその部分は、更新されてないことになる。そのときには、パス番号も更新されず、古い値が入っている。
【0107】
タイミング発生ブロック10からAOTブロック16に対して、SDRAM13から読み出されるべきパス番号情報が供給される。供給されたパス番号と、SDRAM13の該当箇所のパス番号とが異なる場合には、SDRAM13上のデータが更新されていない古いデータであると判断される。図28の例では、バンク2でPs番号297とPs番号298とが混在しており、更新されてないシンクブロックがあることがわかる。
【0108】
このように、更新されていないデータでも、古いデータを主体として、通常どおり外符号訂正されてしまう。これを防ぐために、ある一定以上の未更新シンクブロックがある場合には、通常の外符号訂正を禁止し、古いデータを主体とした外符号訂正が行われるのが防がれる。但し、イレージャ訂正は、可能としておく。この一実施形態では、Ps番号を利用してシンクブロックが更新されたかどうかを判断して、未更新のデータはエラー扱いとする。そして、シンクブロック内のデータD0以降の、外符号パリティが付加されているデータは、一旦、外符号用RAM17Aあるいは17Bに格納される。
【0109】
図29は、外符号用RAM17Aおよび17Bのアドレスアサインの一例を示す。図中でダミーとあるのは、実際には使わないが、アドレスアサイン上発生した意味のない領域である。また、図29において、行方向に付されたバイト番号は、説明のために便宜上、付したもので、バイト単位の番号である。列方向には、外符号番号が付されている。先ず、図27F〜図27Hの、Ch0、Evnと記された部分の処理が行われる。ここでは、チャンネル0の、外符号番号が偶数のデータを対象にして処理が行われる。
【0110】
SDRAM13から読み出されたデータは、例えば外符号用RAM17Aに書き込まれる。すると、図29においてバイト番号0〜11が埋まる。次に、外符号用RAM17Aから、図29の縦方向(列方向)に、1本(すなわち、1バイト番号分)ずつ、外符号用RAM17Aからデータが読み出される。読み出されたデータに対して、上述したレジスタに格納されたエラーフラグが付加される。そして、外符号用RAM17Aから読み出され、エラーフラグが付加されたデータに対して、AOTブロック16によって外符号訂正が行われる。外符号訂正は、図29における12バイト番号分、すなわち列方向に12本分のデータに対して行われる。
【0111】
なお、この一実施形態においては、デコーダ1に対して外符号用RAM17Aおよび17Bとが設けられている。このうち外符号用RAM17Aは、Adv系統に対応し、外符号用RAM17Bは、Con系統に対応している。
【0112】
外符号訂正されたデータは、レートコンバート用RAM18A〜18Hに書き込まれる。図27F〜図27Iを参照し、Adv系列において、チャンネル0の外符号番号が偶数のデータの処理から、チャンネル0の外符号番号が奇数のデータの処理へと続く。同様にして、外符号番号が偶数/奇数が交互に、チャンネル1、2、・・・、7の処理へと続く。このようにして、レートコンバート用RAM18A〜18Hのうち対応するものに、外符号訂正されたデータが格納されていく。この例では、Adv系列のチャンネル0および1、チャンネル2および3、チャンネル4および5、チャンネル6および7の各データがレートコンバータ用RAM18A、18B、18C、18Dに、それぞれ格納される。
【0113】
図30は、レートコンバート用RAM18A〜18Hのアドレスアサインの一例を示す。行方向にバイト番号が付され、列方向が外符号番号に対応している。上述したように、この一実施形態では、1サンプルが16ビットおよび1サンプルが24ビットの、2種類のオーディオデータを扱うようにされている。これら2種類のデータでは、レートコンバート用RAM18A〜18Hに対する格納の方法が互いに異なる。1サンプルが16ビット(2バイト)のデータは、例えばバイト番号0および1というように、バイト番号の2個分が1組とされ、行方向にデータが詰め込まれる。一方、1サンプルが24ビット(3バイト)のデータは、例えばバイト番号0、1および2というように、バイト番号の3個分が1組とされ、行方向にデータが詰め込まれる。
【0114】
また、レートコンバート用RAM18A〜18Hは、バンク0、1および2の3バンクからなる。これらバンク0、1および2のそれぞれは、図29に示す外符号用RAM17Aおよび17Bの、行方向に12本分の、外符号パリティを除いたデータ部分を格納できるようにされている。上述した図27Eにおいて、四角の中に書かれている数字は、このバンク番号を示す。レートコンバート用RAM18A〜18Hは、サイクリックに読み出される。そのため、図27Eに示されるように、バンク番号もサイクリックに、0、1、2、0、1、2、・・・というように切り替えられる。
【0115】
一方、図27Bにおいて、各外符号用RAM17に対する書き込みタイミングを示す線の上に記されている数字(例えば2、0)は、外符号用RAM17Aあるいは17Bに対する書き込み、外符号用RAM17Aあるいは17Bからの読み出し、ならびに、レートコンバート用RAM18A〜18Hに対する書き込み行うバンク番号を示す。レートコンバート用RAM18A〜18Hのそれぞれにおいて、書き込みと読み出しとが時間的に重複しないように制御される。
【0116】
図27Bの「A」の処理の次は、「B」と記された処理に移行する。「B」では、上述のD0〜D11の続きの処理がなされる。すなわち、D12〜D25からなる24バイト番号分が上述と同様にしてSDRAM13から読み出される。読み出されたデータは、外符号用RAM17Aあるいは17Bの、バイト番号24本分全てに対して書き込まれる。そして、そのデータが外符号訂正され、レートコンバート用RAM18A〜18Hの該当するものに書き込まれる。図27の例では、例えばレートコンバート用RAM18Aのバンク0、1に書き込まれる。このようにして、以下、D26〜D49、D50〜D73、・・・と続けて処理され、1フィールド分のデータが処理される。
【0117】
図16に戻り、レートコンバート用RAM18A〜18Hの読み出しは、RCブロック19によって制御される。RCブロック19によってレートコンバート用RAM18A〜18Hからの読み出しが制御され、Adv系統のチャンネル0〜7、Conf系統のチャンネル0〜7の、合計16チャンネルのオーディオデータを時分割でAIFブロック20に供給する。
【0118】
図31は、RCブロック19からAIFブロック20に対するデータ伝送の時分割処理を概略的に示す。なお、この図31では、1サンプルが24ビットのオーディオデータの例について説明する。図31Aに示すサンプルトップ信号は、周波数が48KHzのサンプル周期に対応するFS周期の信号である。このサンプルトップ信号で、図31Bのように伝送されるオーディオデータの、サンプル毎の切れ目を識別する。なお、データは、データおよびエラーフラグとで、ビット幅が9ビットで伝送される。Adv系列およびConf系列の16チャンネル分のデータが時分割多重され伝送される。
【0119】
図31Cおよび図31Dは、図31Aおよび図31Bにおける1FS周期分を、さらに詳細に示す。24ビット/サンプルのデータは、それぞれ8ビットずつのMSB( 最上位バイト)、MDB(中間バイト)およびLSB(最下位バイト)で扱われる。先ず、これらMSB、MDBおよびLSBのそれぞれが、FS周期の256倍の速さのクロック(ck)で、4クロックおきに出力されるようにする。先ず、Adv系列のチャンネル0のデータが出力され、次に、同様にしてAdv系列のチャンネル2、4、6のデータが順に出力され、さらに、Conf系列のチャンネル0、2、4、6のデータが順に出力される。続けて、Adv系列のチャンネル1、3、5、7のデータが順に出力され、さらに続けて、Conf系列のチャンネル1、3、5、7のデータが順に出力される。各チャンネル間は、16クロック分の間隔をとる。このようにして、Adv系列のチャンネル0〜7のデータおよびConf系列のチャンネル0〜7のデータの、合計16チャンネル分のオーディオデータが時分割でAIFブロック20に伝送される。
【0120】
図32は、AIFブロック20の構成の一例を示す。このAIFブロック20では、RCブロック19からパラレルデータとして供給された16チャンネル分を、それぞれのチャンネル毎に、例えばAES/EBUの規格に準じたシリアルデータに変換する。また、このAIFブロック20では、供給されたオーディオデータに付されたエラーフラグに基づくデータ修整、簡易的なミュート処理、変速再生時のフィルタ処理(シャトルフィルタ)および傾斜レベル制御処理などを行う。
【0121】
先ず、図33を用いて、データ修整、簡易ミュートおよびシャトルフィルタの各処理について概略的に説明する。図33において、「×(バツ)」は、本来データがそこにあるべきだが、エラーのために失われてしまったサンプルを示し、「△(三角)」は、実際に補完されたデータを示す。また、「○(丸)」は、正常なサンプルを示す。
【0122】
図33Aは、データ修整処理を示す。データ修整は、このように、エラーデータを、前後のサンプルの平均をとって補完することで行う。図33Bは、簡易ミュート処理を示す。簡易ミュートは、エラーが続くときや、例えばビデオテープレコーダで再生を停止して、ミュートが必要なときに簡易的なミュートを行う。ホールドされている正常データをシフトして、データの値を1/2ずつに減らしていく。これにより、簡易的なミュートが行われる。図33Cは、シャトルフィルタ処理を示す。シャトルフィルタは、記録時と異なる速度で再生するシャトル再生時に、データが飛び飛びになってデータが急峻に変化することによる雑音を低減する。その時点のデータと次のサンプルデータとの平均を求め、結果データを処理サンプルデータとして出力する。
【0123】
図34は、傾斜レベル制御処理を説明するための図である。傾斜レベル制御処理は、ミュートの状態から音を鳴らす際の過渡状態で、急峻な波形にならないようにする。例えば、図34Aに示されるように、立ち上がりで急峻な波形となってしまった場合には、その時点で、「プチッ」というパルス状のノイズが出てしまう。これを防ぐために、データ値に対して徐々に傾斜を付けて、急峻な波形とならないようにする。具体的には、オーディオサンプルの上位側8ビットを、最初8ビットシフトして〔0〕の状態にしておき、徐々にシフト量を減らして2倍ずつ値を大きくしていく。これにより、図34Bに示されるように、傾斜を持ってデータのレベルが制御される。
【0124】
図32において、AIFブロック20に入力されたオーディオデータは、ディレイ回路201に供給されると共に、平均値回路204および205それぞれの第1の入力端、セレクタ制御回路202に供給される。ディレイ回路201は、供給されたデータとエラーフラグとを、1FS周期分(すなわち、1サンプル分)遅延させる。ディレイ回路201で遅延されたデータならびにエラーフラグは、ホールドレジスタ部203、平均値回路204および205それぞれの第2の入力端、傾斜レベル制御回路206、ならびに、セレクタ制御回路202に供給される。
【0125】
エラーフラグは、ホールドレジスタ部203に設けられた、Adv系統のチャンネル0〜7、Conf系統のチャンネル0〜7のレジスタに、それぞれ格納される。
【0126】
セレクタ208には、ディレイ回路201のエラーの無い出力がカレントデータとして供給される。また、ホールドレジスタ部203、平均値回路204および205、ならびに、傾斜レベル制御回路206の出力がそれぞれセレクタ208に供給される。セレクタ208は、エラーフラグの状態に基づき、セレクタ制御回路202によって選択入力端の選択を制御され、オーディオデータに対する処理の選択がなされる。
【0127】
エラーフラグがあり、データ修整処理が必要な場合には、平均値回路204において、ホールドレジスタ部203の出力と、RCブロック19から直接的に供給されたデータとから平均値を算出し、その結果を修整データとして用いる。
【0128】
簡易ミュートが必要な場合には、ホールドレジスタ部203でホールドされているホールドデータを出力した後、1/2回路207でデータシフトして、データ値を1/2にする。そして、そのデータをホールドレジスタ部203に格納するというように、再帰的にホールドデータを1/2づつ減少させて、簡易ミュートとする。
【0129】
シャトルフィルタ処理は、カレントデータとRCブロック19から供給されたデータとの平均値を、平均値回路205で常に計算し、この結果を用いることでなされる。
【0130】
傾斜レベル制御回路206は、必要に応じて入力データの上位側の8ビットのシフト量を制御して、傾斜レベル制御を行う。例えば、プレイボタンが押されるなどしてミュート処理が解除されたときに、この傾斜レベル制御回路206による制御が行われる。例えば、セレクタ208によってホールドレジスタ部203が選択され、ミュート処理が簡易ミュート処理によって行われる。ミュートが解除されると、セレクタ208によって傾斜レベル制御回路206が選択され、傾斜レベル制御が開始される。傾斜レベル制御によって、無音状態から有音状態へと徐々に立ち上げられる。
【0131】
図35を用いて、傾斜レベル制御の方法を説明する。図35Aおよび図35Bにおいて、左側が時間的により先に入力されたサンプルである。「h」は、表記が16進表記であることを示す。入力および出力データは、16進表記の4桁のうち、上位2桁が上位側8ビットを、下位2桁が下位側8ビットをそれぞれ示す。
【0132】
図35Aは、1サンプル毎にビットシフト量を1ずつ減らし、信号レベルを2倍ずつ増加させるように制御する例である。入力データの最初のサンプルは、上位側の8ビットが8ビット分シフトされ、値が〔0〕とされる。これにより、このサンプルは、殆ど無音の状態とされる。ここから徐々にシフト量を減らしていくことで、徐々にデータ値が大きくなり、音が立ち上がっていく傾斜レベル制御がなされる。
【0133】
この例では、入力データ(上段)の最初のサンプルの値〔5040h〕は、上位側8ビット〔50〕が8ビットシフトされて〔00〕とされる。したがって、出力データは、その下段に示されるように、〔0040h〕となる。次のサンプルの値〔4068h〕は、上位側8ビット〔40〕が7ビットシフトされて〔00〕とされ、出力データが〔0068h〕となる。以下同様にして、例えば5番目のサンプルの値〔1045h〕は、上位側8ビット〔10〕が4ビットシフトされて〔01〕とされ、〔0145h〕となる。9番目以降のサンプルは、ビットシフトされず、入力データがそのまま出力される。
【0134】
なお、このようなビットシフトは、例えば、8ビットパラレルロードが可能なシフトレジスタを2個用いた構成で、容易に実現可能である。すなわち、一方を上位側8ビット、他方を下位側8ビット用とする。上位側8ビットが入力されるシフトレジスタを、サンプルに合わせて所定のビット数だけ右シフトする。下位側8ビット用のシフトレジスタではシフト処理を行わない。そして、上位側および下位側のシフトレジスタの出力をラッチして、16ビットパラレル出力する。もちろん、この構成に限らず、他の構成でも実現可能である。
【0135】
図35Aの例では、このように、傾斜レベル制御回路206において、制御が開始されてから8サンプルかけて1ビットずつビットシフト量を減らされる。急峻な波形にはならないため、雑音とはならない。また、この例に限らず、例えば図35Bに示されるように、2サンプル毎に信号レベルを2倍ずつ増加させるようにもできる。ビットシフトされる周期が変化し、レベルの傾斜量が変わってより緩やかにレベル制御が行われる。
【0136】
なお、この一実施形態では、1サンプル当たり16ビットのデータに対して、上位側8ビットのみを処理の対象にしている。下位8側ビットは、例えばデータをD/A変換してアナログオーディオ信号とした際には、微小なレベルに相当し、雑音の原因にはなりにくい。上位側8ビットだけを処理の対象とすることで、回路が簡単になる。回路構成が簡単なので、このように、AIFブロック20の構成の一部として、例えばデータ修整を行う構成と共に組み込むことが可能とされる。
【0137】
セレクタ制御回路202では、エラーフラグの状況を監視して、その状況に基づき、ホールドレジスタ部203、平均値回路204および205、傾斜レベル制御回路206、ならびに、ディレイ回路201の各出力を選択する。これにより、簡易ミュート処理、データ修整処理、シャトルフィルタ処理、傾斜レベル制御処理および無処理(カレントデータ)の選択を適切に行う。
【0138】
レジスタ群209は、Adv系統のチャンネル0/1、2/3、4/5、6/7、ならびに、Conf系統のチャンネル0/1、2/3、4/5、6/7にそれぞれ対応した8つのレジスタを有している。セレクタ208から時分割で供給されたオーディオデータは、一旦、レジスタ群209の対応するレジスタにそれぞれ格納される。そして、レジスタ群209のレジスタのそれぞれから出力されたオーディオデータは、P/Sレジスタ群210に送られ、レジスタをシフトさせてパラレル/シリアル変換が行われる。そして、系統およびチャンネル毎に、シリアルデータとされたオーディオデータが出力される。なお、データは、2チャンネル毎に1本の信号として出力される。
【0139】
なお、上述では、この発明がディジタルビデオテープレコーダVTRに対して適用されるように説明したが、これはこの例に限定されない。この発明は、例えばディジタルオーディオデータの記録再生のみを行う、オーディオ記録再生装置に対して適用することができる。また、この発明においては、記録ならびに再生も必須の構成ではなく、特に記録再生を行わないディジタルオーディオ機器にも適用可能なものである。
【0140】
【発明の効果】
以上説明したように、この発明によれば、入力データが上位側8ビットを最初8ビットシフトされた後、サンプル毎にビットシフト量を減らされるように制御されるため、オーディオ信号の立ち上がり時にも波形が急峻にならず、オーディオ信号のミュート解除時の雑音を無くせる効果がある。
【0141】
また、この発明によれば、ディジタルオーディオデータの傾斜レベル制御を、ビットシフトによって行っているため、回路構成が簡単になる効果がある。
【0142】
さらに、回路構成が簡単になるため、例えばエラー訂正デコーダに内蔵されている、データ修整回路と同一のブロックに傾斜レベル制御を行う回路を容易に組み込むことができる。そのため、オーディオ処理専用のICなどが組み込まれていないような、例えばカメラ一体型ビデオテープレコーダにおいても、オーディオ信号の傾斜立ち上げが可能になるという効果がある。
【0143】
さらに、この一実施形態によれば、傾斜立ち上げ処理の際の傾斜量は、ビットシフトする周期を変えるだけで容易に実現できるという効果がある。
【図面の簡単な説明】
【図1】この発明の一実施形態の記録側の構成を示すブロック図である。
【図2】この発明の一実施形態の再生側の構成を示すブロック図である。
【図3】この一実施形態による記録再生装置が対応できるオーディオのエラー訂正ブロックの種類を示す略線図である。
【図4】この一実施形態による記録再生装置が対応できるオーディオのエラー訂正ブロックの種類を示す略線図である。
【図5】この一実施形態による記録再生装置が対応できるオーディオのエラー訂正ブロックの種類を示す略線図である。
【図6】シンクブロックの構造を示す略線図である。
【図7】シンクブロック中のIDおよびDIDのビットアサインを示す略線図である。
【図8】フレーム(フィールド)周波数が29.97Hz、59.94Hzの場合の、1チャンネル、1フィールドのオーディオのエラー訂正ブロックにおけるレイアウトを示す略線図である。
【図9】フレーム(フィールド)周波数が25Hz/50Hzの場合のオーディオのエラー訂正ブロックにおけるレイアウトを示す略線図である。
【図10】フレーム周波数が23.976Hzの場合のオーディオのエラー訂正ブロックにおけるレイアウトを示す略線図である。
【図11】フォーマットSD1における、フットプリント上のチャンネルアロケーションの例を示す略線図である。
【図12】フォーマットSD2における、フットプリント上のチャンネルアロケーションの例を示す略線図である。
【図13】フォーマットSD3における、フットプリント上のチャンネルアロケーションの例を示す略線図である。
【図14】フォーマットSD4における、フットプリント上のチャンネルアロケーションの例を示す略線図である。
【図15】各フォーマットにおけるオーディオ外符号番号アロケーションを示す略線図である。
【図16】この発明によるオーディオデコーダの構成の一例を示すブロック図である。
【図17】SDRAMのアドレスアサインを説明するための略線図である。
【図18】SDRAMのアドレスアサインを説明するための略線図である。
【図19】SDRAMのアドレスアサインを説明するための略線図である。
【図20】チャンネルデシャフリング用RAMでの処理を説明するための略線図である。
【図21】トラック内セクタ番号を求める方法について説明するための略線図である。
【図22】チャンネルデシャフリング用RAMに供給される、トラック内セクタ番号とSEG番号とのビット割り付けの例を示す略線図である。
【図23】シンクデシャフリング用RAMでの処理を説明するための略線図である。
【図24】各フォーマットでのチャンネルフィールド内セクタ番号、アジマス番号、セクタ内シンク番号および外符号番号のビット割り付けを示す略線図である。
【図25】外符号番号を求めるより具体的な例を示す略線図である。
【図26】外符号番号を求めるより具体的な例を示す略線図である。
【図27】AOTブロックでのオーディオ処理のタイミングチャートである。
【図28】パス番号の書き込みおよび読み出しの様子を示す略線図である。
【図29】外符号用RAMのアドレスアサインの一例を示す略線図である。
【図30】レートコンバート用RAMのアドレスアサインの一例を示す略線図である。
【図31】RCブロックからAIFブロックに対するデータ伝送の時分割処理を概略的に示す略線図である。
【図32】AIFブロックの構成の一例を示すブロック図である。
【図33】データ修整、簡易ミュートおよびシャトルフィルタの各処理を概略的に説明するための略線図である。
【図34】傾斜レベル制御処理を説明するための略線図である。
【図35】傾斜レベル制御処理を説明するための略線図である。
【符号の説明】
1・・・デコーダ、11・・・ デシャフリング部、13・・・SDRAM、14・・・チャンネルデシャフリング用RAM、15・・・シンクデシャフリング用RAM、16・・・AOTブロック、17A,17B・・・外符号用RAM、18A〜18H・・・レートコンバート用RAM、19・・・RCブロック、20・・・AIFブロック、133・・・内符号デコーダ、124・・・ID補間回路、151・・・デシャフリング回路、152・・・外符号デコーダ、201・・・ディレイ回路、202・・・セレクタ制御回路、203・・・ホールドレジスタ部、204・・・平均値回路、205・・・平均値回路、206・・・傾斜レベル制御回路、208・・・セレクタ、209・・・レジスタ群、210・・・P/Sレジスタ群
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an audio signal processing apparatus and method, and a video / audio recording / reproducing apparatus in which noise generated when a mute of a digital audio signal is canceled is not generated.
[0002]
[Prior art]
Currently, digital audio devices that process analog audio signals as A / D converted digital audio data have become widespread. Even if the process is repeated, the sound quality is hardly deteriorated and a high sound quality can be obtained relatively easily. Therefore, it is widely used regardless of professional use or amateur use.
[0003]
By the way, when the audio signal is reproduced, there is a case where a mute process for temporarily silence the reproduction output is performed. For example, when the audio circuit is started up, or when an excessive level signal or an illegal signal is input, the output is automatically silenced by the mute processing to protect the circuit and the speaker. The mute process is canceled automatically or manually, and normal reproduction is resumed.
[0004]
If the silent state is simply switched to the normal playback state when canceling the mute process, the signal waveform may rise sharply when the normal playback state is reached. The steep rise of the signal waveform appears as a pulse-like noise “pit” with respect to the reproduced sound.
[0005]
[Problems to be solved by the invention]
In a conventional digital audio device, a pulse noise such as “petit” generated at a change point from the mute state to the normal reproduction state is suppressed by arithmetic processing. For example, in an integrated circuit (IC) dedicated to audio data processing, a multiplier is used to attenuate a signal level by multiplying a predetermined count for each sample in the time series direction. However, this method has a problem that the audio data signal circuit becomes complicated and the scale becomes large because a multiplier is used.
[0006]
In portable devices such as video tape recorders with built-in cameras, for example, low power consumption due to longer battery operation and circuit reduction due to substrate size limitations associated with smaller and lighter devices Therefore, an audio data processing IC provided with a multiplier for mute processing is often omitted. Therefore, such a portable device has a problem in that pulse noise is generated when mute is released.
[0007]
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an audio signal processing apparatus and method, and a video / audio recording / reproducing apparatus which are configured so as not to generate noise upon canceling mute with a simple configuration.
[0008]
[Means for Solving the Problems]
In order to solve the above-described problem, the present invention is directed to an audio signal processing apparatus for processing a digital audio signal, wherein at the time of start-up from a silent state to a voiced state, only higher-order bits of input audio data are lower-ordered. The audio signal processing apparatus is characterized in that the level of the audio data is inclined by bit-shifting the signal to the next bit and decreasing the bit-shift amount with time from the start-up.
[0009]
The present invention also provides video signal recording in which video data and audio data are error correction encoded using product codes and recorded on a recording medium, and the video data and audio data recorded on the recording medium are reproduced. In the reproducing apparatus, input video data and audio data are each subjected to error correction encoding using a product code, added with ID information and a synchronization signal and recorded on a recording medium, and the recording medium Reproducing means for reproducing the recorded video data and audio data, and decoding the error correction coding by the product code based on the synchronization signal and the ID information, respectively, for the reproduced video data and audio data; The audio data played back by the playback means is changed from the silent state to the voiced state. And means for shifting the upper bits of the audio data to the lower side at the time of starting up, and reducing the amount of bit shift with time from the time of starting, so as to incline the level of the audio data. Is a video / audio recording / reproducing apparatus.
[0010]
The present invention also relates to an audio signal processing method for processing a digital audio signal, wherein at the time of start-up from a silent state to a voiced state, only the upper bits of the input audio data are bit-shifted to the lower side, and the bit shift is performed. The audio signal processing method is characterized in that the level of the audio data is decreased with time from the time of start-up to give a slope to the level of the audio data.
[0011]
As described above, according to the present invention, at the time of start-up from the silent state to the sound state, only the high-order bits of the input audio data are bit-shifted to the low-order side, and the amount of bit shift is increased with time from the start-up. Since the number is reduced, it is possible to add a slope to the level of the audio data at the time of start-up from the silent state to the voiced state with a simple configuration that only performs bit shift.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment in which the present invention is applied to a digital VTR will be described. This embodiment is suitable for use in a broadcast station environment, and enables recording / playback of video signals in a plurality of different formats. For example, both signals with 480 effective lines (480i signal) in interlaced scanning based on the NTSC system and signals with 576 effective lines (576i signal) in interlaced scanning based on the PAL system are almost hard. It is possible to record and play back without changing the wear. Furthermore, signals with 1080 lines (1080i signal) in interlaced scanning and signals with 480 lines, 720 lines, and 1080 lines in progressive scanning (non-interlaced) (480p signal, 720p signal, 1080p signal), respectively. Recording / playback can be performed.
[0013]
In this embodiment, the video signal is compression-encoded based on the MPEG2 system, and the audio signal is handled without being compressed. As is well known, MPEG2 is a combination of motion compensation predictive coding and compression coding by DCT. The data structure of MPEG2 has a hierarchical structure, and from the lower order is a block layer, a macroblock layer, a slice layer, a picture layer, a GOP layer, and a sequence layer.
[0014]
The block layer is composed of DCT blocks that are units for performing DCT. The macroblock layer is composed of a plurality of DCT blocks. The slice layer is composed of a header part and an arbitrary number of macroblocks that do not extend between rows. The picture layer is composed of a header part and a plurality of slices. A picture corresponds to one screen. The GOP (Group Of Picture) layer is composed of a header part, an I picture that is a picture based on intra-frame coding, and a P and B picture that are pictures based on predictive coding.
[0015]
A GOP includes at least one I picture, and P and B pictures are allowed even if they do not exist. The uppermost sequence layer includes a header part and a plurality of GOPs.
[0016]
In the MPEG format, a slice is one variable length code sequence. A variable-length code sequence is a sequence in which a data boundary cannot be detected unless the variable-length code is decoded.
[0017]
In addition, an identification code (referred to as a start code) having a predetermined bit pattern arranged in units of bytes is arranged at the heads of the sequence layer, GOP layer, picture layer, slice layer, and macroblock layer. . In addition, the header part of each layer mentioned above describes a header, extension data, or user data collectively. In the header of the sequence layer, the size (number of vertical and horizontal pixels) of the image (picture) is described. In the GOP layer header, a time code, the number of pictures constituting the GOP, and the like are described.
[0018]
The macroblock included in the slice layer is a set of a plurality of DCT blocks, and the coded sequence of the DCT block is a sequence of quantized DCT coefficients, the number of consecutive 0 coefficients (run), and the non-zero sequence immediately thereafter. (Level) is variable length encoded as one unit. Identification codes arranged in byte units are not added to the macroblock and the DCT block in the macroblock. That is, these are not one variable length code sequence.
[0019]
The macro block is obtained by dividing a screen (picture) into a grid of 16 pixels × 16 lines. The slice is formed by, for example, connecting the macro blocks in the horizontal direction. The last macroblock of the previous slice and the first macroblock of the next slice are continuous, and it is not allowed to form macroblock overlap between slices. When the screen size is determined, the number of macro blocks per screen is uniquely determined.
[0020]
On the other hand, in order to avoid signal degradation due to decoding and encoding, it is desirable to edit on the encoded data. At this time, the P picture and the B picture require the temporally previous picture or the previous and subsequent pictures for decoding. For this reason, the editing unit cannot be set to one frame unit. In consideration of this point, in this embodiment, one GOP is made up of one I picture.
[0021]
Further, for example, a recording area in which recording data for one frame is recorded is a predetermined one. Since MPEG2 uses variable length coding, the amount of data generated for one frame is controlled so that data generated in one frame period can be recorded in a predetermined recording area. Further, in this embodiment, one slice is composed of one macro block and one macro block is applied to a fixed frame having a predetermined length so as to be suitable for recording on a magnetic tape.
[0022]
FIG. 1 shows an example of the configuration of the recording side of the recording / reproducing apparatus according to this embodiment. At the time of recording, a digital video signal is input from the terminal 101 via a receiving unit of a predetermined interface, for example, SDI (Serial Data Interface). SDI is an interface defined by SMPTE for transmitting (4: 2: 2) component video signals, digital audio signals and additional data. The input video signal is subjected to DCT (Discrete Cosine Transform) processing in the video encoder 102, converted into coefficient data, and the coefficient data is variable-length encoded. The variable length coding (VLC) data from the video encoder 102 is an elementary stream compliant with MPEG2. This output is supplied to one input terminal of the selector 103.
[0023]
On the other hand, SDTI (Serial Data Transport Interface) format data, which is an interface defined by ANSI / SMPTE 305M, is input through the input terminal 104. This signal is synchronously detected by the SDTI receiving unit 105. Then, once stored in the buffer, the elementary stream is extracted. The extracted elementary stream is supplied to the other input terminal of the selector 103.
[0024]
The elementary stream selected and output by the selector 103 is supplied to the stream converter 106. In the stream converter 106, the DCT coefficients arranged for each DCT block based on the MPEG2 regulations are grouped for each frequency component through a plurality of DCT blocks constituting one macro block, and the collected frequency components are rearranged. The rearranged converted elementary streams are supplied to the packing and shuffling unit 107.
[0025]
Since the elementary stream video data is variable-length encoded, the data lengths of the macroblocks are not uniform. In the packing and shuffling unit 107, macroblocks are packed in a fixed frame. At this time, the portion that protrudes from the fixed frame is sequentially packed into the remaining portion with respect to the size of the fixed frame. Further, system data such as a time code is supplied from the input terminal 108 to the packing and shuffling unit 107, and the system data is subjected to a recording process in the same manner as picture data. Further, shuffling is performed in which the macroblocks of one frame generated in the scanning order are rearranged to distribute the recording positions of the macroblocks on the tape. Shuffling can improve the image update rate even when data is reproduced piecewise during variable speed reproduction.
[0026]
Video data and system data from the packing and shuffling unit 107 (hereinafter, unless otherwise required, system data is also simply referred to as video data) is supplied to the outer code encoder 109. A product code is used as an error correction code for video data and audio data. In the product code, the outer code is encoded in the vertical direction of the two-dimensional array of video data or audio data, the inner code is encoded in the horizontal direction, and the data symbols are encoded doubly. As the outer code and the inner code, a Reed-Solomon code can be used.
[0027]
The output of the outer code encoder 109 is supplied to the shuffling unit 110, and shuffling is performed in which the order is changed in units of sync blocks over a plurality of ECC (Error Correctig Code) blocks. Shuffling in sync block units prevents errors from concentrating on a specific ECC block. The shuffling performed by the shuffling unit 110 may be referred to as interleaving. The output of the shuffling unit 110 is supplied to the mixing unit 111 and mixed with the audio data. Note that the mixing unit 111 includes a main memory as will be described later.
[0028]
Audio data is supplied from an input terminal 112. In this embodiment, uncompressed digital audio signals are handled. The digital audio signal is separated by an input side SDI receiving unit (not shown) or SDTI receiving unit 105, or inputted via an audio interface. The input digital audio signal is supplied to the AUX adding unit 114 via the delay unit 113. The delay unit 113 is for time alignment of the audio signal and the video signal. The audio AUX supplied from the input terminal 115 is auxiliary data, and is data having information related to audio data such as a sampling frequency of the audio data. The audio AUX is added to the audio data by the AUX adding unit 114 and is handled in the same way as the audio data.
[0029]
Audio data and AUX from the AUX adding unit 114 (hereinafter referred to simply as audio data including AUX unless otherwise required) are supplied to the outer code encoder 116. The outer code encoder 116 encodes audio data with an outer code. The output of the outer code encoder 116 is supplied to the shuffling unit 117 and subjected to shuffling processing. As audio shuffling, shuffling in sync blocks and shuffling in channels are performed.
[0030]
The output of the shuffling unit 117 is supplied to the mixing unit 111, and the video data and the audio data are converted into one channel data. The output of the mixing unit 111 is supplied to the ID adding unit 118, and the ID adding unit 118 adds an ID having information indicating a sync block number. The output of the ID adding unit 118 is supplied to the inner code encoder 119, and the inner code is encoded. Further, the output of the inner code encoder 119 is supplied to the synchronization adding unit 120, and a synchronization signal for each sync block is added. Recording data with continuous sync blocks is configured by adding a synchronization signal. This recording data is supplied to the rotary head 122 via the recording amplifier 121 and recorded on the magnetic tape 123. The rotary head 122 is actually a magnetic head in which a plurality of magnetic heads having different azimuths forming adjacent tracks are attached to a rotary drum.
[0031]
You may perform a scramble process with respect to recording data as needed. Also, digital modulation may be performed during recording, and partial response class 4 and Viterbi code may be used.
[0032]
Signal recording on the magnetic tape is performed by a helical scan method in which an oblique track is formed by a magnetic head provided on a rotating rotary head. A plurality of magnetic heads are provided on the rotary drum at positions facing each other. That is, when the magnetic tape is wound around the rotary head with a winding angle of about 180 °, a plurality of tracks can be simultaneously formed by rotating the rotary head at 180 °. Further, two magnetic heads having different azimuths are used as one set. The plurality of magnetic heads are arranged so that adjacent tracks have different azimuths.
[0033]
FIG. 2 shows an example of the configuration on the playback side of one embodiment of the present invention. A reproduction signal reproduced by the rotary head 122 from the magnetic tape 123 is supplied to the synchronization detection unit 132 via the reproduction amplifier 131. Equalization and waveform shaping are performed on the reproduced signal. Further, demodulation of digital modulation, Viterbi decoding, and the like are performed as necessary. The synchronization detector 132 detects a synchronization signal added to the head of the sync block. A sync block is cut out by synchronization detection.
[0034]
The output of the synchronization detection block 132 is supplied to the inner code decoder 133 and error correction of the inner code is performed. The output of the inner code decoder 133 is supplied to the ID interpolation unit 134, and the ID of the sync block, for example, the sync block number, which is an error due to the inner code, is interpolated. The output of the ID interpolation unit 134 is supplied to the separation unit 135, and the video data and the audio data are separated. As described above, video data means DCT coefficient data and system data generated by MPEG intra coding, and audio data means PCM (Pulse Code Modulation) data and AUX.
[0035]
The video data from the separation unit 135 is processed in the deshuffling unit 136 in the reverse process of shuffling. The deshuffling unit 136 performs a process of restoring the sync block unit shuffling performed by the recording-side shuffling unit 110. The output of the deshuffling unit 136 is supplied to the outer code decoder 137, and error correction using the outer code is performed. When an error that cannot be corrected occurs, an error flag indicating the presence or absence of an error indicates that there is an error.
[0036]
The output of the outer code decoder 137 is supplied to the deshuffling and depacking unit 138. The deshuffling and depacking unit 138 performs processing for restoring the macroblock unit shuffling performed by the recording side packing and shuffling unit 107. The deshuffling and depacking unit 138 disassembles the packing applied during recording. That is, the original variable length code is restored by returning the data length in units of macroblocks. Further, in the deshuffling and depacking unit 138, the system data is separated and taken out to the output terminal 139.
[0037]
The output of the deshuffling and depacking unit 138 is supplied to the interpolation unit 140, and the data in which the error flag is set (that is, there is an error) is corrected. That is, if there is an error in the middle of the macroblock data before conversion, the DCT coefficient of the frequency component after the error location cannot be restored. Therefore, for example, the data at the error location is replaced with a block end code (EOB), and the DCT coefficients of the frequency components thereafter are set to zero. Similarly, during high-speed reproduction, only DCT coefficients up to the length corresponding to the sync block length are restored, and the subsequent coefficients are replaced with zero data. Further, the interpolation unit 140 performs processing for recovering the header (sequence header, GOP header, picture header, user data, etc.) when the header added to the head of the video data is an error.
[0038]
Since the DCT coefficients are arranged from the DC component and the low-frequency component to the high-frequency component across the DCT block, a macroblock is configured even if the DCT coefficient is ignored from a certain point in this way. For each DCT block, DCT coefficients from DC and low frequency components can be distributed evenly.
[0039]
The output of the interpolation unit 140 is supplied to the stream converter 141. The stream converter 141 performs the reverse process of the stream converter 106 on the recording side. That is, the DCT coefficients arranged for each frequency component across DCT blocks are rearranged for each DCT block. As a result, the reproduction signal is converted into an elementary stream compliant with MPEG2.
[0040]
As for the input / output of the stream converter 141, as in the recording side, a sufficient transfer rate (bandwidth) is secured according to the maximum length of the macroblock. When the length of the macroblock is not limited, it is preferable to secure a bandwidth that is three times the pixel rate.
[0041]
The output of the stream converter 141 is supplied to the video decoder 142. The video decoder 142 decodes the elementary stream and outputs video data. That is, the video decoder 142 performs an inverse quantization process and an inverse DCT process. Decoded video data is extracted to the output terminal 143. For example, SDI is used as an interface with the outside. Further, the elementary stream from the stream converter 141 is supplied to the SDTI transmission unit 144. Although the route is not shown in the SDTI transmission unit 144, system data, reproduction audio data, and AUX are also supplied and converted into a stream having a data structure of the SDTI format. A stream from the SDTI transmission unit 144 is output to the outside through the output terminal 145.
[0042]
The audio data separated by the separation unit 135 is supplied to the deshuffling unit 151. The deshuffling unit 151 performs a process reverse to that performed by the shuffling unit 117 on the recording side. The output of the deshuffling unit 117 is supplied to the outer code decoder 152, and error correction using the outer code is performed. From the outer code decoder 152, error-corrected audio data is output. For data with errors that cannot be corrected, an error flag is set.
[0043]
The output of the outer code decoder 152 is supplied to the AUX separation unit 153, and the audio AUX is separated. The separated audio AUX is taken out to the output terminal 154. Audio data is supplied to the interpolation unit 155. The interpolation unit 155 interpolates samples with errors. As an interpolation method, average value interpolation for interpolating with the average value of correct data before and after time, pre-value hold for holding the value of the previous correct sample, and the like can be used. The output of the interpolation unit 155 is supplied to the output unit 156. The output unit 156 performs a mute process for prohibiting output of an audio signal that is an error and cannot be interpolated, and a delay amount adjustment process for time alignment with the video signal. A reproduced audio signal is extracted from the output unit 156 to the output terminal 157.
[0044]
Although omitted in FIGS. 1 and 2, a timing generator for generating a timing signal synchronized with input data, a system controller (microcomputer) for controlling the overall operation of the recording / reproducing apparatus, and the like are provided. .
[0045]
Next, the footprint for the magnetic tape and the format of the audio data in this embodiment will be described.
[0046]
3 to 5 show the types of audio error correction blocks that can be supported by the recording / reproducing apparatus according to the embodiment. Audio error correction blocks can be broadly classified by the difference in field (frame) frequency. There are five field (frame) frequencies: 29.97 Hz, 59.94 Hz, 25 Hz, 50 Hz, and 23.976 Hz. 29.97 Hz, 25 Hz, and 23.976 Hz are frequencies in the case of progressive (non-interlaced) scanning, and the other frequencies are interlaced scanning. FIG. 3 shows an example of a field (frame) frequency 29.97 Hz / 59.94 Hz, and FIG. 4 shows an example of a field (frame) frequency 25 Hz / 50 Hz. FIG. 5 shows an example of a frame frequency of 23.976 Hz.
[0047]
Since the frame period of progressive scanning is the same as the interlaced field period, in order to avoid complexity, the frame and field of interlaced scanning are simply referred to as frame and field, and the frame of progressive scanning is This is called a P frame.
[0048]
There are two types of audio bits per sample: 16 bits and 24 bits depending on the difference in sound quality required for each format. 3A, 4A and 5A show 16 bits / sample, and FIGS. 3B, 4B and 5B show 24 bits / sample. The sampling frequency is all 48 KHz.
[0049]
In the error correction block, error correction encoding is performed in units of one symbol consisting of, for example, 8 bits (1 byte), and one row in the horizontal direction corresponds to the sync block. SY is a sync pattern on tape recording, and 2 bytes are allocated. The ID stores important information inherent to the sync block, such as sync number and segment number video / audio, and is assigned 2 bytes. The DID contains important information related to audio data such as audio 5FSeq (described later) information, and 1 byte is allocated.
[0050]
For example, an error correction block of 59.94 Hz, 16 bytes / sample is shown in the upper left of FIG. 1, and the number of data of one sync block is 119 bytes, the inner code parity is 12 bytes, and the outer code parity is 10 bytes. I understand that there is.
[0051]
FIG. 6 shows the structure of the sync block. FIG. 7 shows bit assignment of ID and DID in the sync block. In FIG. 6A, SYNC is a sync pattern on tape recording, and 2 bytes (76B4h: h represents hexadecimal notation) are allocated. Following the SYNC, a 2-byte ID is arranged, and a data area having a variable capacity of 112 bytes to 189 bytes is arranged. The subsequent 12 bytes are parity, and the inner code parity is stored.
[0052]
In the data area, as shown in FIG. 6B, 1-byte DID is arranged at the head, and audio data is subsequently stored. This entire data area is called a payload.
[0053]
As shown in the left side of FIG. 7A, ID0 stores a sync ID that is an identification number of the sync block. With ID0, another ID is assigned to each audio sync block on one track. As shown on the right side of FIG. 7A, ID1 stores a segment number, a video / audio identification bit, and the like. The azimuth number is azimuth information, and [0] or [1] is entered. Upper / Lower is additional information of the sync ID, and the sync block on the track can be distinguished and identified by the 8 bytes of ID0, the video / audio identification bit, and the Upper / Lower. Edit IN is edit information, and this bit is recorded as [1] at the IN point at the time of editing.
[0054]
FIG. 7B shows the bit assignment of the DID. NT Seq in the DID is used to identify which sync block is the same field during non-tracking reproduction. Data / audio is set to [1] when data other than uncompressed audio data is stored in an audio sync block. 5FSeq contains information on a five-field sequence generated when the frame (field) frequency is 59.94 Hz and 29.97 Hz.
[0055]
The 5-field sequence is a period of 5 fields when the sampling frequency of audio data is 48 KHz, and is 4004 samples / 5 fields. Therefore, when assigning each field to 800, 801, 801, 801, Assign as 801 samples / field. This is called a 5-field sequence.
[0056]
FIG. 8 shows a layout in an error correction block for audio of one channel and one field when frame (field) frequencies are 29.97 Hz and 59.94 Hz. FIG. 8A shows the arrangement schematically, and FIG. 8B shows it in more detail. This also applies to FIGS. 9 and 10 below. 800 or 801 samples per field are divided into two error correction blocks in which even-numbered samples and odd-numbered samples are stored, respectively. In FIG. 8, AUX0, AUX1, and AUX2 are AUX data, and auxiliary data related to audio is stored.
[0057]
Each frame corresponds to the data length of one sample, and the numbers in the frame correspond to sample numbers representing the sample order of audio data. PVx is an outer code parity, which will be described later. Numbers 0 to 800 are audio sample data, and as described above, there are five field sequences, which are 800 or 801 samples / field. In the case of 800 samples / field, the No. 798 sample stored in No. 798 is copied to No. 800.
[0058]
PV0 to PV9 are 10-byte outer code parity in the vertical series. The outer code number is a number for collectively calling sync blocks that are horizontal data. Since one field (1P frame) is 36 sync blocks, the outer code number is 0-35.
[0059]
FIGS. 9 and 10 are layouts in an audio error correction block when the frame (field) frequencies are 25 Hz / 50 Hz and 23.976 Hz, respectively. These are the same as in the case of 29.97 Hz / 59.94 Hz shown in FIG. 8 except for the difference in the sample numbers accompanying the change in the total number of samples.
[0060]
FIGS. 11 to 14 show examples of channel allocation on the footprint in each format. There are four types of formats, referred to as SD1 to SD4, respectively. 11 shows SD1, FIG. 12 shows SD2, FIG. 13 shows SD3, and FIG. 14 shows SD4. In each figure, a square represents one sector, and Ax therein represents an audio channel number. Also, the numbers “9” and “6” shown on the right side of each figure indicate the number of sync blocks per sector.
[0061]
For example, in the case of the format SD1, as shown in FIG. 11, there are four channels A0 to A3, and 9 [sync block] × 2 [sector / track, channel] × 4 [track / frame] = It can be seen that there are 72 sync blocks / channel and frame. That is, it can be seen that each channel has 72/2 = 36 sync blocks per field. When the formats SD2 to SD4 are calculated in the same manner, 36 sync blocks / channel and field per channel in one field or 1P frame. This corresponds to the 36 outer code numbers per field (1P frame) in FIGS.
[0062]
The reason why the number of tracks per field or 1P frame is different is that the amount of data differs depending on the format due to the difference in the compression rate of video, and the number of necessary tracks varies accordingly. In this embodiment, audio data is handled uncompressed, and the amount of audio data per field (1P frame) is always the same. Therefore, the audio is also divided into SD1 to SD4 formats corresponding to the number of tracks that require video.
[0063]
FIG. 15 shows audio outer code number allocation in each format. FIG. 15A shows an example of format SD1, and FIG. 15B shows an example of SD4. FIG. 15C shows an arrangement common to the formats SD2 and SD3. It shows how the outer code numbers of one channel and one field are arranged with respect to the segment and azimuth. In this figure, the number written in the square is the outer code number. The arrows in the figure indicate the head trace direction. One row in the horizontal direction corresponds to one sector. For example, in SD1, it can be seen that audio data for one channel and one field is arranged over two sectors.
[0064]
As can be seen from FIGS. 15A to 15C, the 36 outer code numbers for one field are shuffled and rearranged in order. Depending on the direction of the head trace, the left side is recorded first. For example, in the case of SD3 (SD2) in FIG. 15C, outer code numbers 19 and 18 are recorded at the head.
[0065]
In this example, one sector of azimuth 0 and segment 0 is composed of 9 sync blocks of outer code numbers 19, 21, 0, 4, 8, 12, 16, 23, and 25. The one sector is azimuth 0 and segment 0. If this is A0, this one sector is written to azimuth 0 and segment 0 A0 of the format SD3 shown in FIG. Further, one sector of the outer code numbers 28, 30, 1, 5, 9, 13, 17, 32, and 34 in the format SD3 of FIG. 15C is azimuth 1 and segment 1, and if this is A0, the sector of SD3 of FIG. This one sector is written for azimuth 1, segment A0.
[0066]
Next, audio decoding processing in this embodiment will be described. FIG. 16 shows an example of the configuration of the decoder 1 used in this storage / playback apparatus. The decoder 1 is configured in, for example, one IC (integrated circuit). Further, this configuration corresponds to the configuration of the audio signal processing system from the separation circuit 135 and the deshuffling circuit 151 to the output unit 156 in FIG. The decoder 1 deshuffles the reproduction signals shuffled during recording and rearranges them in the original order. Then, a total of 16 channels of audio data are output, each of which is called Adv and Conf.
[0067]
The timing generation block 10 generates various timing signals, control signals, and various information necessary in the decoder 1 based on the supplied various signals. The control signal generated by the timing generation block 10 is supplied to the RC block 19. Various information generated by the timing generation block 10 is supplied to the deshuffling unit 11 and the AOT block 16.
[0068]
The reproduction data reproduced from the magnetic tape 123 and subjected to synchronization detection, inner code correction, and ID interpolation is supplied to the deshuffling unit 11 in units of sync blocks. The deshuffling unit 11 generates an address for writing data to the SDRAM (Synchronous DRAM) 13 based on the deshuffling tables stored in the channel deshuffling RAM 14 and the sync deshuffling RAM 15. This address is supplied to the SDRAM controller 12 together with the reproduction data. The reproduction data is rearranged in the original data order and written to the SDRAM 13 under the control of the SDRAM controller 12 based on the supplied address.
[0069]
The data read from the SDRAM 13 is supplied to the AOT block 16, and outer code correction is performed using the outer code RAMs 17A and 17B. In the AOT block 16, an error flag and AUX data are extracted. The reproduction data whose outer code has been corrected is classified into Adv and Conf based on the information of ID1 and AUX data, and is divided for each channel and output from the AOT block 16. At this time, two channels are used as one signal path, and a total of eight signals are output. The four outputs of the Adv system are supplied to the rate conversion RAMs 18A to 18D, respectively. Similarly, the four outputs of the Conf system are respectively supplied to the rate conversion RAMs 18E to 18H. In each figure, the rate conversion RAM is abbreviated as RC RAM.
[0070]
The rate conversion RAMs 18 </ b> A to 18 </ b> H are read and controlled by the RC block 19. The RC block 19 is supplied with a control signal from the AOT block 16 and supplied with a field start signal from the RC block 19 to the AOT block 16. Based on the control of the RC block 19, the reproduced audio data is read from the rate conversion RAMs 18 </ b> A to 18 </ b> H in 8-bit parallel and supplied to the AIF block 20.
[0071]
The AIF block 20 performs parallel / serial conversion on the supplied reproduced audio data and outputs the data as output data of 8 channels and 2 systems. Further, the AIF block 20 performs audio data modification, mute processing, and the like as necessary.
[0072]
Next, each part of the decoder 1 will be described in more detail. The timing generation block 10 receives a TG-frame that is a frame signal, a TG-AVSTO that is a field signal, a TG-5F-ID that is a reference 5 field sequence ID, and an FS that is a sample delimiter signal, and is necessary inside the decoder 1. Timing signals, control signals, and various information are generated. The timing generation block 10 sends the Adv path number, Adv light field bank number, Conf path number, and Conf light field bank number (described later) to the deshuffling unit 11 as control signals.
[0073]
The deshuffling unit 11 is supplied with the reproduction data with the inner code corrected. Outer code correction has not yet been performed on this reproduced data. Then, using the channel deshuffling RAM 14 and the sync deshuffling RAM 15, deshuffling is performed, and an address for writing the reproduction data to the SDRAM 13 is generated. By writing the reproduction data into the SDRAM 12 according to this address, the reproduction data is deshuffled. Address information and reproduction data are supplied to the SDRAM controller 12, and reproduction data is written to the SDRAM 13 by address control of the SDRAM controller 12.
[0074]
The processing in the channel deshuffling RAM 14 and the sync and shuffling RAM 15 will be described in more detail. The processing in the RAMs 14 and 15 is a part related to the gist of the present invention.
[0075]
The address assignment of the SDRAM 13 will be described with reference to FIGS. In the SDRAM 13, the audio data is written by being divided by fields. An area of the SDRAM 13 in which one field is stored is called a field bank. In this embodiment, the SDRAM 13 has eight field banks and can store audio data for eight fields.
[0076]
FIG. 17A shows data blocks stored in one field bank. One row in the horizontal direction is a sync block, and an in-sync byte number is assigned to each byte of data constituting the sync block. The sync blocks are arranged in the column direction, and an outer code number is assigned to each. As shown in FIG. 17B, the address assignment of the SDRAM 13 follows a 2-bit ID, a 1-bit Conf / Adv value, a 6-bit outer code number, a 3-bit field bank value, a 3-bit channel number, and a 6-bit channel number. It consists of a total of 21 bits of byte numbers in the sync of bits.
[0077]
FIG. 18 shows an example of the configuration of the sync block on the SDRAM 13. As shown in FIG. 18A, the sync block is composed of PS number 0, PS number 1, AIX 0, AIX 1, DID, and data on the SDRAM 13.
[0078]
PS number is an abbreviation for path number. PS numbers 0 and 1 are used to determine that data is old when new data is not written on the SDRAM 13 by a head clog or the like. PS numbers 0 and 1 are simply incremented every 8 fields (every period of the field bank of the SDRAM 13). That is, the 16-bit numerical values from 0 to 65535 sent from the timing generation block 10 are stored in the PS numbers 0 and 1. Rsv is an abbreviation for Reserved and stores dummy data.
[0079]
FIG. 18B shows the bit assignment of AIX0. Bits 7 and 6 and bits 4 to 0 are reserved. FabSYNC of bit 5 is a bit that is set when there is a high possibility that this sync block is not a normal sync block because the distance between the sync blocks is disturbed at the time of inner code correction.
[0080]
FIG. 18C shows the bit assignment of AIX1. Jump is used at the time of variable speed reproduction for reproducing at a speed different from that at the time of recording. During variable speed reproduction, the value is set to 1 when a DT (Dynamic Tracking) head flies by one field. TapeDir is the tape running direction, and is 1 for forward and 0 for reverse. The value of the inner code error is set to 1 in the case of a sync block that is regarded as an error at the time of inner code correction.
[0081]
Note that the DID itself already stored in FIG. 7 is stored as the DID.
[0082]
The sync block stored in the SDRAM 13 is the above-described PS numbers 0 and 1, AIX 0 and 1, and DID with respect to the data in one row in the horizontal direction in FIG. 3 to FIG. 5 or FIG. 8 to FIG. It is set as the structure which added each additional information which consists of.
[0083]
As described above, an in-sync byte number is assigned to each byte in the sync block. In this embodiment, the SDRAM 13 is 32 bits wide. Therefore, the sync block data is provided with an address every 4 bytes as shown in FIG. Therefore, on the SDRAM 13, the address is assigned by the upper 6 bits ([7: 2]) of the in-sync byte number.
[0084]
As shown in FIG. 18B, the address of the SDRAM 13 is created and written using Adv / Conf, the outer code number, the field bank and channel number, and the in-sync byte number. Adv / Conf makes a determination based on information attached by the system when the inner code corrected data arrives at the deshuffling unit 11. The field bank is the Adv / Conf Wr field bank number itself supplied from the timing generation block 10.
[0085]
In the byte number in the sync, numbers 0 to 7 are assigned as the numbers for the additional information. On the other hand, the data number is determined by offsetting and incrementing the value when the data with the inner code corrected is supplied. The additional information for the inner code corrected data is only ID0 and ID1 shown in FIG. 7, and there is no information on the outer code number and the channel number. Therefore, the channel deshuffling RAM 14 and the sync deshuffling RAM 15 are used to generate the outer code number and the channel number from the information of ID0 and ID1.
[0086]
Processing in the channel deshuffling RAM 14 will be described with reference to FIG. First, the in-track sector number is generated from the ID0 sync number and ID1 upper / lower information. The in-track sector number is obtained by numbering the audio sectors in one track in the head trace order.
[0087]
As shown in FIG. 21, ID0 is assigned in ascending order in the head trace direction in each upper / lower audio sector. Accordingly, the sector number in the track can be obtained from the upper / lower of ID1 and ID0. In the example of FIG. 21, if ID0 is [24h], ID1 and upper / lower is [1], the in-track sector number is [6].
[0088]
The channel deshuffling RAM 14 stores a deshuffling table in which the channel number is returned as a return value when the in-track sector number and the SEG number of ID1 are given as addresses. These values are supplied as addresses from the deshuffling unit 11 to the channel deshuffling RAM 14, and the corresponding channel numbers are output from the RAM 14. The deshuffling table stored in the channel deshuffling RAM 14 can be rewritten by a system controller (not shown). By changing the deshuffling table according to the data format, any format change can be handled.
[0089]
FIG. 22 shows an example of bit allocation of the track sector number and SEG number supplied to the channel deshuffling RAM 14. As shown in FIG. 22A, the number of bits required for each value differs in each of the formats SD1 to SD4. In this embodiment, bit allocation is performed for each format, as shown in FIG. 22B.
[0090]
The processing in the sync deshuffling RAM 15 will be described with reference to FIG. When the sync deshuffling RAM 15 gives the sector number in the channel field and the sync number in the sector as addresses, it returns the outer code number as a return value. The sector number in the channel field is a number indicating the sector number in the same channel and the same field with the sector of azimuth 0 and 1 as a pair. For example, in the example of FIG. 21 described above, each sector of Seg1 becomes the second sector when the sectors of azimuth 0 and 1 are counted as a pair in the same channel and the same field. Accordingly, the sector number 1 in the channel field is obtained by counting 0, 1, and 2.
[0091]
Similarly, since Seg2 is the first sector of the new field, the sector number in the channel field is 0.
[0092]
FIG. 24 shows the bit assignment of the sector number in the channel field, the azimuth number, the sync number in the sector, and the outer code number in each of the formats SD1 to SD4. In the case of SD2 and SD3, the sector number in the channel field and the Seg number are the same value of 1 bit. In the case of SD4, the sector number in the channel field and the Seg number are the same value of 2 bits. On the other hand, in the case of SD1, as can be seen from FIG. 11 described above, the same channel enters the upper and lower even within the same track. Therefore, the sector number in the channel field is the same 1-bit value as upper / lower of ID1.
[0093]
In FIG. 24, the in-sector sync number is a number indicating the number of sync blocks counted in the head trace order in the same sector. In the example of SD2 in FIG. 21, there are 9 sync blocks in each sector, and the sync number in the sector is obtained from the lower 4 bits of ID0. As described above, when the sector number in the channel field, the azimuth number and the sync number in the sector thus obtained are given as addresses from the deshuffling unit 11 to the sync deshuffling RAM 15, the sync deshuffling is performed. An outer code number is returned from the RAM 15 to the deshuffling unit 11 as a return value.
[0094]
25 and 26 show more specific examples of obtaining the outer code number as described above. FIG. 25A is an example of the format SD1, and FIG. 25B is an example of the format SD4. FIG. 26 shows an example of the format SD2.
[0095]
The deshuffling table stored in the sync deshuffling RAM 15 can be rewritten by a system controller (not shown). By changing the deshuffling table according to the data format, any format change can be handled.
[0096]
As shown in FIG. 24B, the number of bits required for the sector number in the channel field and the sync number in the sector differ between the formats SD1 to SD3 and SD4. However, since the total necessary number of bits added to these bits is the same, when the address is generated, the necessary number of bits can be finally saved by changing the bit allocation according to the format. Bit allocation according to the format is instructed by a system controller (not shown).
[0097]
In this way, the channel deshuffling RAM 14 and the sync deshuffling RAM 15 are used to obtain values necessary for address calculation of the SDRAM 13 in the deshuffling unit 11. The determined address is sent to the SDRAM controller 12 together with the data. Data is written into the SDRAM 12 according to the address sent under the control of the SDRAM 12 controller 12. The address assignment of the SDRAM 13 is written in the SDRAM 13 after being arranged and arranged by Conf / Adv, by field bank, by channel, and by the outer code number, so that later processing such as outer code correction becomes easy.
[0098]
The AOT block 16 controls reading of the SDRAM 13, extraction of an error flag from the read data, control of the outer code RAMs 17A and 17B, outer code correction, write control of the rate conversion RAMs 18A to 18H, and AUX data It has a function of sampling.
[0099]
FIG. 27 shows a timing chart of audio processing performed by the AOT block 16. A control signal (Fld-Start) having a field period is supplied from the timing generation block 10 (FIG. 27A). The signal Fld-Start is, for example, a pulse signal that is output at the change of field. In the AOT block 16, various processes are performed based on this signal. In the following description, a field that starts immediately after the signal Fld-Start is set as a new field, and a field before the signal Fld-Start is set as an old field.
[0100]
As a schematic processing flow, as described above, data is read from the SDRAM 13 by the AOT block 16 and written to the outer code RAM 17A or 17B (FIG. 27B). Then, the outer code correction is performed on the data written in the outer code RAM 17A or 17B. The data subjected to the outer code correction is read from the outer code RAM 17A or 17B (FIG. 27C) and written to the corresponding one of the rate conversion RAMs 18A to 18H (FIG. 27D). Data written in the rate conversion RAMs 18A to 18H is read out in a time-sharing manner for each channel based on a predetermined clock.
[0101]
The AOT block 16 calculates the bank corresponding to the new field among the field banks of the SDRAM 13. This is calculated based on information supplied from the timing generation block 10 as an Adv / Conf RdFld bank number. Then, an error flag is read from the data stored in the bank. Data is read from the bank and written to the corresponding side of the outer code RAM 17A or 17B. The AOT block 16 uses the error flag read from the SDRAM 13 to correct the outer code for the data written in the outer code RAM 17A or 17B (the process of “A” in FIG. 27B).
[0102]
These processes will be described in more detail. The address of the SDRAM 13 having the corresponding field bank number is designated by the AOT block 16. This address is sent from the AOT block 16 to the SDRAM controller 12. The SDRAM controller 12 reads data from the SDRAM 13 according to this address.
[0103]
As shown in FIGS. 27F to 27I, the outer code correction processing is divided into slots and is performed in a time division manner. In FIG. 27, only Adv out of the two signal systems Adv and Conf is shown. In FIG. 27F to FIG. 27I, “Conf” indicates a slot for processing the Conf system, and it can be seen that Adv and Conf are alternately processed in a time division manner.
[0104]
The slot is further divided into smaller slots. First, Ps numbers 0 and 1, AIX0 and 1, DID, D0 to D11 are read for data with an even outer code number of channel 0. At this time, the error flag of bit 0 of AIX1 is stored in the register. When the error flag is determined, the Adv / Conf path number supplied from the timing generation block 10 is compared with the path number read from the SDRAM 13, and if they are different, it is determined that old data remains, and those old Data sync blocks are treated as errors.
[0105]
FIG. 28 shows how the pass number (PS number) is written and read. 28A and 28B are charts at the time of writing. 28C and 28D are charts at the time of reading. When writing to the SDRAM 13, the Adv / Conf light field number supplied from the timing generation block 10 to the deshuffling unit 11 is compared with the pass number. Based on the comparison result, each time the data with the inner code corrected is supplied, the data is written with the pass number attached to the address of the SDRAM 13 of the corresponding field bank number.
[0106]
Here, if all sync block data for one field has been received, all the pass numbers are updated to new ones. On the other hand, if there is sync block data that has not arrived, that portion of the SDRAM 13 is not updated. At that time, the pass number is not updated and the old value is entered.
[0107]
The pass number information to be read from the SDRAM 13 is supplied from the timing generation block 10 to the AOT block 16. If the supplied pass number is different from the pass number of the corresponding part of the SDRAM 13, it is determined that the data on the SDRAM 13 is old data that has not been updated. In the example of FIG. 28, Ps number 297 and Ps number 298 are mixed in bank 2, and it can be seen that there is a sync block that has not been updated.
[0108]
As described above, even in the case of data that has not been updated, the outer code is corrected as usual, mainly using old data. In order to prevent this, when there are more than a certain number of unupdated sync blocks, normal outer code correction is prohibited and outer code correction mainly using old data is prevented. However, erasure correction is possible. In this embodiment, it is determined whether the sync block has been updated using the Ps number, and unupdated data is treated as an error. The data added with the outer code parity after the data D0 in the sync block is temporarily stored in the outer code RAM 17A or 17B.
[0109]
FIG. 29 shows an example of address assignment of the outer code RAMs 17A and 17B. In the figure, a dummy is a meaningless area that is not actually used but has occurred in address assignment. In FIG. 29, the byte numbers given in the row direction are given for convenience of explanation, and are numbers in byte units. In the column direction, outer code numbers are assigned. First, the processing of the portions denoted by Ch0 and Evn in FIGS. 27F to 27H is performed. Here, processing is performed on data of channel 0 having an even outer code number.
[0110]
The data read from the SDRAM 13 is written in the outer code RAM 17A, for example. Then, byte numbers 0 to 11 are filled in FIG. Next, data is read from the outer code RAM 17A one by one (ie, one byte number) in the vertical direction (column direction) of FIG. An error flag stored in the above-described register is added to the read data. Then, the outer code correction is performed by the AOT block 16 on the data read from the outer code RAM 17A and added with the error flag. The outer code correction is performed on the 12-byte number in FIG. 29, that is, 12 pieces of data in the column direction.
[0111]
In this embodiment, the decoder 1 is provided with outer code RAMs 17A and 17B. Out of these, the outer code RAM 17A corresponds to the Adv system, and the outer code RAM 17B corresponds to the Con system.
[0112]
The data subjected to outer code correction is written in the rate conversion RAMs 18A to 18H. Referring to FIGS. 27F to 27I, in the Adv series, processing of data with an even outer code number of channel 0 continues from processing of data with an odd outer code number of channel 0. In the same manner, the processing of channels 1, 2,... In this manner, the outer code corrected data is stored in the corresponding one of the rate conversion RAMs 18A to 18H. In this example, Adv series channels 0 and 1, channels 2 and 3, channels 4 and 5, and channels 6 and 7 are stored in rate converter RAMs 18A, 18B, 18C, and 18D, respectively.
[0113]
FIG. 30 shows an example of address assignment of the rate conversion RAMs 18A to 18H. A byte number is assigned in the row direction, and the column direction corresponds to the outer code number. As described above, in this embodiment, two types of audio data, one sample being 16 bits and one sample being 24 bits, are handled. With these two types of data, the storage methods for the rate conversion RAMs 18A to 18H are different from each other. For one sample of 16 bits (2 bytes) of data, such as byte numbers 0 and 1, for example, two byte numbers are set as one set, and the data is packed in the row direction. On the other hand, for one sample of 24 bits (3 bytes) of data, for example, byte numbers 0, 1, and 2, one set of three byte numbers is packed in the row direction.
[0114]
Further, the rate conversion RAMs 18A to 18H are composed of three banks of banks 0, 1, and 2. Each of these banks 0, 1 and 2 can store the data portion excluding the outer code parity for 12 rows in the outer code RAMs 17A and 17B shown in FIG. In FIG. 27E described above, the numbers written in the squares indicate the bank numbers. The rate conversion RAMs 18A to 18H are cyclically read. Therefore, as shown in FIG. 27E, the bank numbers are also cyclically switched to 0, 1, 2, 0, 1, 2,.
[0115]
On the other hand, in FIG. 27B, the numbers (for example, 2, 0) written on the lines indicating the write timing for each outer code RAM 17 are written to the outer code RAM 17A or 17B, and from the outer code RAM 17A or 17B. The bank numbers for reading and writing to the rate conversion RAMs 18A to 18H are shown. In each of the rate conversion RAMs 18A to 18H, control is performed so that writing and reading do not overlap in time.
[0116]
After the process of “A” in FIG. 27B, the process proceeds to a process marked “B”. In “B”, the processing subsequent to D0 to D11 described above is performed. That is, the 24-byte number composed of D12 to D25 is read from the SDRAM 13 in the same manner as described above. The read data is written to all 24 byte numbers in the outer code RAM 17A or 17B. Then, the data is subjected to outer code correction and written in the corresponding ones of the rate conversion RAMs 18A to 18H. In the example of FIG. 27, for example, data is written in banks 0 and 1 of the rate conversion RAM 18A. In this way, the process is subsequently performed in the order of D26 to D49, D50 to D73, and so on, and data for one field is processed.
[0117]
Returning to FIG. 16, the reading of the rate conversion RAMs 18 </ b> A to 18 </ b> H is controlled by the RC block 19. Reading from the rate conversion RAMs 18A to 18H is controlled by the RC block 19, and a total of 16 channels of audio data of channels 0 to 7 of the Adv system and channels 0 to 7 of the Conf system are supplied to the AIF block 20 in a time division manner. .
[0118]
FIG. 31 schematically shows a time division process of data transmission from the RC block 19 to the AIF block 20. FIG. 31 illustrates an example of audio data in which one sample is 24 bits. The sample top signal shown in FIG. 31A is a signal having an FS cycle corresponding to a sample cycle having a frequency of 48 KHz. With this sample top signal, a break for each sample of audio data transmitted as shown in FIG. 31B is identified. The data is transmitted with a data and an error flag and a bit width of 9 bits. Data for 16 channels of Adv series and Conf series are time-division multiplexed and transmitted.
[0119]
FIG. 31C and FIG. 31D show the 1FS period in FIG. 31A and FIG. 31B in more detail. Data of 24 bits / sample is handled by MSB (most significant byte), MDB (intermediate byte) and LSB (least significant byte) each having 8 bits. First, each of these MSB, MDB and LSB is output every 4 clocks with a clock (ck) which is 256 times faster than the FS cycle. First, the data of Adv series channel 0 is output, then the data of Adv series channels 2, 4, and 6 are sequentially output in the same manner, and further the data of channels 0, 2, 4, and 6 of the Conf series are output. Are output in order. Subsequently, data of Adv series channels 1, 3, 5, and 7 are output in order, and further, data of Conf series channels 1, 3, 5, and 7 are output in order. Each channel has an interval of 16 clocks. In this way, a total of 16 channels of audio data of Adv series channels 0 to 7 and Conf series channels 0 to 7 are transmitted to the AIF block 20 in a time division manner.
[0120]
FIG. 32 shows an example of the configuration of the AIF block 20. In the AIF block 20, the 16 channels supplied as parallel data from the RC block 19 are converted into serial data according to, for example, the AES / EBU standard for each channel. The AIF block 20 performs data correction based on an error flag attached to the supplied audio data, simple mute processing, filter processing (shuttle filter) at the time of variable speed reproduction, inclination level control processing, and the like.
[0121]
First, each process of data modification, simple mute, and shuttle filter will be schematically described with reference to FIG. In FIG. 33, “× (X)” indicates a sample that should originally have data but has been lost due to an error, and “Δ (triangle)” indicates actually complemented data. . In addition, “◯ (circle)” indicates a normal sample.
[0122]
FIG. 33A shows the data modification process. In this way, data correction is performed by complementing error data by taking the average of previous and subsequent samples. FIG. 33B shows a simple mute process. Simple mute performs simple mute when an error continues, or when playback is stopped by a video tape recorder, for example, and mute is necessary. The held normal data is shifted and the data value is reduced by half. Thereby, simple mute is performed. FIG. 33C shows shuttle filter processing. The shuttle filter reduces noise caused by data jumping and data steeply changing during shuttle playback in which playback is performed at a speed different from that during recording. The average of the data at that time and the next sample data is obtained, and the result data is output as processed sample data.
[0123]
FIG. 34 is a diagram for explaining the inclination level control process. The inclination level control process is a transitional state when a sound is generated from the mute state, so as not to have a steep waveform. For example, as shown in FIG. 34A, when the waveform becomes steep at the rising edge, a pulse-like noise “puchi” is generated at that time. In order to prevent this, the data value is gradually inclined so as not to have a steep waveform. Specifically, the upper 8 bits of the audio sample are initially shifted by 8 bits to a state of [0], and the shift amount is gradually decreased to increase the value by 2 times. Accordingly, as shown in FIG. 34B, the data level is controlled with a slope.
[0124]
In FIG. 32, the audio data input to the AIF block 20 is supplied to the delay circuit 201 and also to the first input terminal of each of the average value circuits 204 and 205, the selector control circuit 202. The delay circuit 201 delays the supplied data and the error flag by one FS cycle (that is, one sample). The data delayed by the delay circuit 201 and the error flag are supplied to the hold register unit 203, the second input terminals of the average value circuits 204 and 205, the slope level control circuit 206, and the selector control circuit 202, respectively.
[0125]
The error flags are stored in the registers of the Adv system channels 0 to 7 and the Conf system channels 0 to 7, respectively, provided in the hold register unit 203.
[0126]
To the selector 208, an error-free output from the delay circuit 201 is supplied as current data. The outputs of the hold register unit 203, the average value circuits 204 and 205, and the inclination level control circuit 206 are supplied to the selector 208, respectively. In the selector 208, the selection of the selection input terminal is controlled by the selector control circuit 202 based on the state of the error flag, and processing for audio data is selected.
[0127]
When there is an error flag and data correction processing is required, the average value circuit 204 calculates an average value from the output of the hold register unit 203 and the data directly supplied from the RC block 19, and the result Is used as modified data.
[0128]
When simple mute is required, the hold data held by the hold register unit 203 is output, and then the data is shifted by the 1/2 circuit 207 to reduce the data value to 1/2. Then, the hold data is recursively decreased by 1/2 so that the data is stored in the hold register unit 203, and simple mute is performed.
[0129]
The shuttle filter process is performed by always calculating the average value of the current data and the data supplied from the RC block 19 by the average value circuit 205 and using the result.
[0130]
The slope level control circuit 206 performs slope level control by controlling the shift amount of the upper 8 bits of the input data as necessary. For example, when the mute process is canceled by pressing the play button or the like, the control by the inclination level control circuit 206 is performed. For example, the hold register unit 203 is selected by the selector 208, and the mute process is performed by the simple mute process. When the mute is released, the inclination level control circuit 206 is selected by the selector 208, and the inclination level control is started. By the inclination level control, the sound is gradually started up from the silent state to the voiced state.
[0131]
A method of controlling the inclination level will be described with reference to FIG. In FIGS. 35A and 35B, the left side is a sample input earlier in time. “H” indicates that the notation is hexadecimal notation. Of the four digits in hexadecimal notation, the upper 2 digits indicate the upper 8 bits, and the lower 2 digits indicate the lower 8 bits.
[0132]
FIG. 35A is an example in which the bit shift amount is decreased by 1 for each sample, and the signal level is increased by 2 times. In the first sample of input data, the upper 8 bits are shifted by 8 bits, and the value is set to [0]. As a result, this sample is almost silent. By gradually decreasing the shift amount from here, the slope level control is performed in which the data value gradually increases and the sound rises.
[0133]
In this example, the value [5040h] of the first sample of the input data (upper stage) is shifted to 8 bits by shifting the upper 8 bits [50] to [00]. Therefore, the output data is [0040h] as shown in the lower part thereof. The next sample value [4068h] is shifted to 7 bits by shifting the upper 8 bits [40] to [00], and the output data is [0068h]. In the same manner, for example, the value [1045h] of the fifth sample is [0145h] by shifting the upper 8 bits [10] by 4 bits to [01]. The ninth and subsequent samples are not bit-shifted and the input data is output as it is.
[0134]
Such a bit shift can be easily realized by using, for example, two shift registers capable of 8-bit parallel loading. That is, one is for the upper 8 bits and the other is for the lower 8 bits. The shift register to which the upper 8 bits are input is right-shifted by a predetermined number of bits according to the sample. Shift processing is not performed in the shift register for the lower 8 bits. Then, the outputs of the upper and lower shift registers are latched and 16-bit parallel output is performed. Of course, the present invention is not limited to this configuration, and other configurations can be realized.
[0135]
In the example of FIG. 35A, in this way, the slope level control circuit 206 reduces the bit shift amount by 1 bit over 8 samples after the control is started. Since it does not become a steep waveform, it does not become noise. Further, the present invention is not limited to this example. For example, as shown in FIG. 35B, the signal level can be increased by two times every two samples. The bit shift period changes, the level inclination changes, and level control is performed more gently.
[0136]
In this embodiment, only the upper 8 bits are processed for 16 bits of data per sample. For example, when the data is D / A converted into an analog audio signal, the lower 8 bits correspond to a minute level and hardly cause noise. Since only the upper 8 bits are processed, the circuit is simplified. Since the circuit configuration is simple, it can be incorporated as a part of the configuration of the AIF block 20 together with a configuration for performing data correction, for example.
[0137]
The selector control circuit 202 monitors the status of the error flag, and selects each output of the hold register unit 203, the average value circuits 204 and 205, the gradient level control circuit 206, and the delay circuit 201 based on the status. Thereby, the simple mute processing, data modification processing, shuttle filter processing, inclination level control processing, and no processing (current data) are appropriately selected.
[0138]
The register group 209 corresponds to the channels 0/1, 2/3, 4/5, and 6/7 of the Adv system, and the channels 0/1, 2/3, 4/5, and 6/7 of the Conf system, respectively. It has 8 registers. The audio data supplied from the selector 208 by time division is temporarily stored in the corresponding registers of the register group 209, respectively. The audio data output from each of the registers of the register group 209 is sent to the P / S register group 210, and the registers are shifted to perform parallel / serial conversion. Then, audio data converted into serial data is output for each system and channel. Data is output as one signal for every two channels.
[0139]
In the above description, the present invention is applied to the digital video tape recorder VTR. However, the present invention is not limited to this example. The present invention can be applied to an audio recording / reproducing apparatus that performs only recording / reproducing of digital audio data, for example. In the present invention, recording and reproduction are not indispensable configurations, and can be applied to digital audio equipment that does not perform recording and reproduction.
[0140]
【The invention's effect】
As described above, according to the present invention, the input data is controlled so that the bit shift amount is reduced for each sample after the upper 8 bits are first shifted by 8 bits. The waveform is not steep, and there is an effect of eliminating noise when the mute of the audio signal is released.
[0141]
In addition, according to the present invention, since the inclination level control of digital audio data is performed by bit shift, there is an effect that the circuit configuration is simplified.
[0142]
Furthermore, since the circuit configuration is simplified, for example, a circuit that performs slope level control can be easily incorporated in the same block as the data correction circuit that is incorporated in the error correction decoder. Therefore, for example, even in a camera-integrated video tape recorder in which an IC dedicated for audio processing or the like is not incorporated, there is an effect that an audio signal can be tilted up.
[0143]
Furthermore, according to this embodiment, there is an effect that the amount of inclination at the time of starting up the inclination can be easily realized only by changing the bit shift period.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a recording side according to an embodiment of the present invention.
FIG. 2 is a block diagram showing the configuration of the playback side according to the embodiment of the present invention.
FIG. 3 is a schematic diagram showing the types of audio error correction blocks that can be supported by the recording / reproducing apparatus according to the embodiment;
FIG. 4 is a schematic diagram showing types of audio error correction blocks that can be supported by the recording / reproducing apparatus according to the embodiment;
FIG. 5 is a schematic diagram showing types of audio error correction blocks that can be supported by the recording / reproducing apparatus according to the embodiment;
FIG. 6 is a schematic diagram illustrating a structure of a sync block.
FIG. 7 is a schematic diagram showing bit assignment of ID and DID in a sync block.
FIG. 8 is a schematic diagram showing a layout in an error correction block for audio of one channel and one field when frame (field) frequencies are 29.97 Hz and 59.94 Hz.
FIG. 9 is a schematic diagram showing a layout in an audio error correction block when a frame (field) frequency is 25 Hz / 50 Hz.
FIG. 10 is a schematic diagram illustrating a layout in an audio error correction block when a frame frequency is 23.976 Hz.
FIG. 11 is a schematic diagram illustrating an example of channel allocation on a footprint in the format SD1.
FIG. 12 is a schematic diagram illustrating an example of channel allocation on a footprint in the format SD2.
FIG. 13 is a schematic diagram illustrating an example of channel allocation on a footprint in the format SD3.
FIG. 14 is a schematic diagram illustrating an example of channel allocation on a footprint in the format SD4.
FIG. 15 is a schematic diagram showing audio outer code number allocation in each format;
FIG. 16 is a block diagram showing an example of a configuration of an audio decoder according to the present invention.
FIG. 17 is a schematic diagram for explaining address assignment of SDRAM;
FIG. 18 is a schematic diagram for explaining address assignment of SDRAM;
FIG. 19 is a schematic diagram for explaining address assignment of SDRAM;
FIG. 20 is a schematic diagram for explaining processing in a channel deshuffling RAM;
FIG. 21 is a schematic diagram for explaining a method for obtaining a sector number in a track;
FIG. 22 is a schematic diagram illustrating an example of bit allocation between a sector number in a track and an SEG number supplied to a channel deshuffling RAM;
FIG. 23 is a schematic diagram for explaining processing in a sync deshuffling RAM;
FIG. 24 is a schematic diagram showing bit assignment of a sector number in an channel field, an azimuth number, a sync number in a sector, and an outer code number in each format.
FIG. 25 is a schematic diagram illustrating a more specific example of obtaining an outer code number.
FIG. 26 is a schematic diagram illustrating a more specific example of obtaining an outer code number.
FIG. 27 is a timing chart of audio processing in an AOT block.
FIG. 28 is a schematic diagram illustrating how a pass number is written and read.
FIG. 29 is a schematic diagram illustrating an example of address assignment of an outer code RAM.
FIG. 30 is a schematic diagram illustrating an example of address assignment of a rate conversion RAM;
FIG. 31 is a schematic diagram schematically illustrating time division processing for data transmission from an RC block to an AIF block;
FIG. 32 is a block diagram illustrating an example of a configuration of an AIF block.
FIG. 33 is a schematic diagram for schematically illustrating each process of data modification, simple mute, and shuttle filter.
FIG. 34 is a schematic diagram for explaining an inclination level control process;
FIG. 35 is a schematic diagram for explaining inclination level control processing;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Decoder, 11 ... Deshuffling part, 13 ... SDRAM, 14 ... Channel deshuffling RAM, 15 ... Sync deshuffling RAM, 16 ... AOT block, 17A, 17B: RAM for outer codes, 18A to 18H: RAM for rate conversion, 19: RC block, 20: AIF block, 133: Inner code decoder, 124: ID interpolation circuit, 151: Deshuffling circuit, 152 ... Outer code decoder, 201 ... Delay circuit, 202 ... Selector control circuit, 203 ... Hold register unit, 204 ... Average value circuit, 205 ... Average value circuit, 206... Slope level control circuit, 208... Selector, 209... Register group, 210.

Claims (3)

ディジタルオーディオ信号を処理するオーディオ信号処理装置において、
無音状態から有音状態への立ち上げ時に、入力されたオーディオデータの上位側ビットだけを下位側にビットシフトし、上記ビットシフトの量を上記立ち上げ時から時間と共に減らしていくことで上記オーディオデータのレベルに傾斜を付けることを特徴とするオーディオ信号処理装置。
In an audio signal processing apparatus for processing a digital audio signal,
When starting from the silent state to the voiced state, only the upper bits of the input audio data are bit-shifted to the lower side, and the amount of the bit shift is reduced with time from the start-up to reduce the audio. An audio signal processing apparatus characterized by adding a slope to a data level.
ビデオデータおよびオーディオデータをそれぞれ積符号を用いたエラー訂正符号化して記録媒体に記録し、記録媒体に記録されたビデオデータおよびオーディオデータを再生するようにされた映像信号記録再生装置において、
入力されたビデオデータおよびオーディオデータに対して、それぞれ積符号を用いたエラー訂正符号化を行い、ID情報および同期信号を付加して記録媒体に記録する記録手段と、
上記記録媒体に記録された上記ビデオデータおよびオーディオデータを再生し、再生された該ビデオデータおよびオーディオデータに対して、それぞれ上記同期信号および上記ID情報に基づき、上記積符号によるエラー訂正符号化の復号化を行う再生手段と、
上記再生手段によって再生された上記オーディオデータの、無音状態から有音状態への立ち上げ時に、上記オーディオデータの上位側ビットだけを下位側にビットシフトし、上記ビットシフトの量を上記立ち上げ時から時間と共に減らしていくことで上記オーディオデータのレベルに傾斜を付ける手段と
を有することを特徴とする映像音声記録再生装置。
In a video signal recording / reproducing apparatus adapted to reproduce video data and audio data recorded on a recording medium by performing error correction encoding using video codes and audio data, respectively, on a recording medium,
Recording means for performing error correction encoding using product codes on the input video data and audio data, and adding ID information and a synchronization signal to record on the recording medium;
The video data and audio data recorded on the recording medium are reproduced, and the reproduced video data and audio data are subjected to error correction coding by the product code based on the synchronization signal and the ID information, respectively. Playback means for decoding;
When the audio data reproduced by the reproduction means is raised from a silent state to a voiced state, only the upper bits of the audio data are bit-shifted to the lower side, and the amount of the bit shift is And a means for inclining the level of the audio data by decreasing with time.
ディジタルオーディオ信号を処理するオーディオ信号処理方法において、
無音状態から有音状態への立ち上げ時に、入力されたオーディオデータの上位側ビットだけを下位側にビットシフトし、上記ビットシフトの量を上記立ち上げ時から時間と共に減らしていくことで上記オーディオデータのレベルに傾斜を付けることを特徴とするオーディオ信号処理方法。
In an audio signal processing method for processing a digital audio signal,
When starting from the silent state to the voiced state, only the upper bits of the input audio data are bit-shifted to the lower side, and the amount of the bit shift is reduced with time from the start-up to reduce the audio. An audio signal processing method characterized by adding a slope to a data level.
JP34159798A 1998-12-01 1998-12-01 Audio signal processing apparatus and method, and video / audio recording / reproducing apparatus Expired - Lifetime JP4193256B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34159798A JP4193256B2 (en) 1998-12-01 1998-12-01 Audio signal processing apparatus and method, and video / audio recording / reproducing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34159798A JP4193256B2 (en) 1998-12-01 1998-12-01 Audio signal processing apparatus and method, and video / audio recording / reproducing apparatus

Publications (2)

Publication Number Publication Date
JP2000174578A JP2000174578A (en) 2000-06-23
JP4193256B2 true JP4193256B2 (en) 2008-12-10

Family

ID=18347320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34159798A Expired - Lifetime JP4193256B2 (en) 1998-12-01 1998-12-01 Audio signal processing apparatus and method, and video / audio recording / reproducing apparatus

Country Status (1)

Country Link
JP (1) JP4193256B2 (en)

Also Published As

Publication number Publication date
JP2000174578A (en) 2000-06-23

Similar Documents

Publication Publication Date Title
JP3004252B2 (en) Digital recording / reproducing apparatus and method with improved error correction capability
US5995707A (en) Speed change reproduction recording apparatus for VCR of digital HDTV and method thereof
JP4182641B2 (en) Data processing apparatus and method, and recording apparatus and method
JP4610680B2 (en) Signal processing apparatus and method, recording apparatus, reproducing apparatus, recording / reproducing apparatus, and video signal recording / reproducing apparatus
JP2000138897A (en) Data processor and data recorder
JP3932721B2 (en) Data recording apparatus, data recording / reproducing apparatus, data recording method, and data recording / reproducing method
US6741793B1 (en) Data transmitting apparatus and method thereof, recording apparatus, and recording and reproducing apparatus
WO2001041436A1 (en) Recording apparatus and method, and reproducing apparatus and method
JP3719602B2 (en) Video tape recorder and recording method
JP4193256B2 (en) Audio signal processing apparatus and method, and video / audio recording / reproducing apparatus
JP4051782B2 (en) Data processing apparatus and method, and data reproducing apparatus
JP2004120799A (en) Digital data transmission apparatus and transmission method thereof
JP2001155437A (en) Device and method for recording
JP2000173188A (en) Audio signal processor and video/audio recording/ reproducing device
JP2001169243A (en) Recorder and recording method, and reproducing device and reproducing method
JP2000132914A (en) Data processor and data recorder
JP2000173197A (en) Device and method for data processing and data reproducing device
JP2000149456A (en) Data processor and processing method, and data recorder and recording method
WO2003105472A1 (en) Video tape recorder and recording method
JP4010067B2 (en) Synchronization detecting device and method, and reproducing device
JP2000149455A (en) Data recorder and recording method, data recording and reproducing device and recording and reproducing method, and data recording medium
KR0170666B1 (en) Recording/reproducing apparatus and method
JP4164769B2 (en) Video tape recorder and recording method
JP4655101B2 (en) Data generating apparatus and data generating method
JP2000123485A (en) Recording device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080902

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080915

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 4