[go: up one dir, main page]

JP2022542451A - ビデオ編集システム、方法、およびユーザインターフェース - Google Patents

ビデオ編集システム、方法、およびユーザインターフェース Download PDF

Info

Publication number
JP2022542451A
JP2022542451A JP2022506496A JP2022506496A JP2022542451A JP 2022542451 A JP2022542451 A JP 2022542451A JP 2022506496 A JP2022506496 A JP 2022506496A JP 2022506496 A JP2022506496 A JP 2022506496A JP 2022542451 A JP2022542451 A JP 2022542451A
Authority
JP
Japan
Prior art keywords
media
video editing
editing system
user interface
indicia
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022506496A
Other languages
English (en)
Other versions
JP7657772B2 (ja
JPWO2021022324A5 (ja
Inventor
マシュー ダウリング
アレクサンダー ディアス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Blackmagic Design Pty Ltd
Original Assignee
Blackmagic Design Pty Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2019902773A external-priority patent/AU2019902773A0/en
Application filed by Blackmagic Design Pty Ltd filed Critical Blackmagic Design Pty Ltd
Publication of JP2022542451A publication Critical patent/JP2022542451A/ja
Publication of JPWO2021022324A5 publication Critical patent/JPWO2021022324A5/ja
Application granted granted Critical
Publication of JP7657772B2 publication Critical patent/JP7657772B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/38Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/383Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Figure 2022542451000001
本発明は、メディアファイルをビデオ編集システムにインポートするためのインポートマネージャーと;ユーザインターフェースと;1つまたは複数の共通属性を有するインポートされたメディアファイルを検出し、検出された各メディアファイルのインディシアをユーザインターフェースに表示させる同期エンジンと;を含むビデオ編集システムに関する。

Description

一般的には、本発明はビデオ編集ソフトウェアアプリケーションに関する。具体的には、本発明は、それに限定されないが、異なるアングルから複数のカメラで録画された1つのシーンのビデオファイルを管理する、ビデオ編集システム、方法、およびユーザインターフェースに関する。
映画および/またはビデオの製作物は、通常、構成エレメントの集合からプロジェクトを組み立てることにより、ビデオ編集システムを使って作成される。ビデオ編集システムにより、ビデオクリップ、オーディオビジュアルクリップ、オーディオクリップ、および関連するメタデータを含むこれらの構成エレメントが個別にインポートされて編集され、最終の製作物に統合することができる。場合により、複数の異なるカメラを使用することで個々のビデオクリップが生成され、異なるアングルから同じシーンが録画されることもある。
最新のビデオ編集システムは、このようなマルチカメラのソースマテリアルを管理する機能を提供する。たとえば、出願人のダビンチリゾルブ(登録商標)ソフトウェアでは、ユーザーがマルチカメラシーンを構成する様々のクリップをマニュアルで選択し、そこから「マルチカム」ファイルを作成することができる。ダビンチリゾルブ(登録商標)は、編集操作の過程で各クリップのオーディオトラックを利用して、マルチカムファイル内の個別のクリップを同期させる。
マルチカメラのソースマテリアルを管理するための代替手段を備えておくことに利点がある。
本明細書に記載のどのような従来技術であってもそれを参照することが、その従来技術が共通の一般的知識の一部を形成することを、いかなる裁判管轄においても、承認又は示唆するものではなく、あるいはその従来技術が当業者によって他の従来技術とともに理解され、他の従来技術と関連すると見なされ、及び/又は他の従来技術と組み合わされると合理的に予測され得ることを承認又は示唆するものではない。
本発明の第1態様によれば、
メディアファイルをビデオ編集システムにインポートするためのインポートマネージャーと;
ユーザインターフェースと;
1つまたは複数の共通属性を有するインポートされたメディアファイルを検出し、検出された各メディアファイルのインディシアを該ユーザインターフェースに表示するための同期エンジンと;を含むビデオ編集システムが提供される。
本発明は、少なくとも好ましい実施形態では、ビデオ編集システムと一体化され、(マルチカメラソースマテリアルの個々のファイルなどの)共通属性を有するファイルを自動的に検出し、その内容をビデオ編集システムのユーザインターフェースに便利よく表示する、同期エンジンを備える。
共通属性は、インポートされたファイル自体またはファイルのメタデータから得ることができる。たとえば、共通属性は、両方のファイルに共通のタイムコードであってもよい。あるいは、共通属性は、(単独の、または共通のタイムコードと組み合わされた)メディアファイルの日時であってもよいし、または(タイムコードと時刻/日付のいずれかが共通な)ファイルのオーディオトラックであってもよい。同期エンジンは、追加の共通属性を検出することができる。たとえば、地理的な位置を検出することができ、それは、タイムコードおよび/または日時などの他の検出された共通属性と組み合わせることができる。
同期エンジンは、2つのファイルの非共通属性を検出し、これをファイルの1つまたは複数の検出された共通属性と組み合わせることもできる。たとえば、異なるカメラで録画されたビデオ(そのような情報はファイルのそれぞれのメタデータから得られる)を含むが、タイムコードおよび/または日時が重複している2つのファイルは、複数のカメラのソースマテリアルから成る可能性が高い。
好ましくは、ユーザインターフェースは、タイムラインおよび空間的に離れたメディアビン表示領域を含み、インディシアが該メディアビン表示領域に表示される。インディシアは、それらが共通属性を共有することを示すようにメディアビン表示領域に表示されることが望ましい。一実施形態によれば、インディシアはメディアビン表示領域に垂直に配置され、検出されたメディアファイルが複数のカメラのメディアクリップを含むことを示す。
好ましくは、同期エンジンは、1つの検出されたメディアファイルがユーザインターフェースの編集コントロール部へロードされることを検出し、それにより共通属性を有する他の検出されたメディアファイルのインディシアをユーザインターフェースに自動的に表示することができる。これに関連し、該編集コントロール部はタイムラインであってもよい。
好ましくは、同期エンジンは、すでにタイムラインに存在しかつ共通属性を有する別の検出されたメディアファイルに対し、(今回)検出されたメディアファイルをタイムラインの正しい位置に配置することができる。
好ましい実施形態によれば、同期エンジンは、ビデオ編集システムのバックグラウンドで連続して動作する。
本発明の第2態様によれば、ビデオ編集システムのメディアファイルを管理する方法が提供され、該方法は:
メディアファイルをビデオ編集システムにインポートするステップと;
1つまたは複数の共通属性を有するインポートされたメディアファイルを検出するステップと;
検出されたメディアファイルのインディシアをビデオ編集システムのユーザインターフェースに表示するステップと;を含む。
本発明の別の態様によれば、プロセッサによって実行されるとき、本発明の第1態様に係るビデオ編集システムを提供するかもしくは本発明の第2態様に係る方法を実行する、命令を格納するコンピュータ可読媒体を含むソフトウェアプロダクトが提供される。
本発明のさらなる態様によれば、
編集コントロール部と;
ビデオ編集システムにインポートされた複数のメディアファイルのインディシアを表示するパネルと;
メディアファイルの1つが編集コントロール部にロードされたことを検出し、該メディアファイルと共通属性を共有する他のメディアファイルのインディシアをパネルに自動的に表示する同期エンジンと;を含む、ビデオ編集システム用のユーザインターフェースが提供される。
本明細書で使用される場合、“comprise”、及びその用語の“comprising”、“comprises”、“comprised”等の変化形は、文脈からそれ以外の意味を必要とする場合を除き、さらなる添加物、コンポーネント、整数又はステップを除外することを意図しない。
本発明のさらなる態様、および先行する段落に記載された態様のさらなる実施形態は、実施例を通しておよび添付する図面を参照して提供される以下の説明から明らかになるだろう。
本発明の実施形態を実施するのに適した、統合されたソフトウェアモジュールの集合体の概略図である。 図1に示された同期エンジンによって実行されるアルゴリズムの一例を示すフローチャートである。 本発明の実施形態に係るビデオ編集システムにより作成されたグラフィカルユーザインターフェースのディスプレイの一例である。 本発明の実施形態に係るビデオ編集システムにより作成されたグラフィカルユーザインターフェースのディスプレイの一例である。 本発明の実施形態に係るビデオ編集システムにより作成されたグラフィカルユーザインターフェースのディスプレイの一例である。 本発明の実施形態に係るビデオ編集システムにより作成されたグラフィカルユーザインターフェースのディスプレイの一例である。 本発明の実施形態に係るビデオ編集システムにより作成されたグラフィカルユーザインターフェースのディスプレイの一例である。 本発明の実施形態に係るビデオ編集システムにより作成されたグラフィカルユーザインターフェースのディスプレイの一例である。 本発明の実施形態に係るビデオ編集システムにより作成されたグラフィカルユーザインターフェースのディスプレイの一例である。 本発明の実施形態に係るビデオ編集システムにより作成されたグラフィカルユーザインターフェースのディスプレイの一例である。 本発明の実施形態に係るビデオ編集システムにより作成されたグラフィカルユーザインターフェースのディスプレイの一例である。 本発明の実施形態に係るビデオ編集システムを実施するのに適したハードウェア環境の概略図である。
図1は、本発明の実施形態を実施するのに適したビデオ編集システム100を示している。ビデオ編集システム100は(以下に説明する)コンピュータシステムにインストールされたソフトウェアアプリケーションであり、該コンピュータシステムにはオペレーティングシステム190もインストールされている。ビデオ編集システム100は、ノンリニアエディタ(NLE)120を含み、それにより(ビデオクリップおよびオーディオクリップなどの)ソースマテリアルの非破壊編集を実行し、プロジェクトの作成を完成させる機能を提供する。必要な場合、ノンリニアエディタ120は、編集およびプロジェクト作成機能を提供するために、(ビデオおよびグラフィックリソースを含む)コンピュータのハードウェアリソースを利用する。ハードウェアリソースは、通常、適切なオペレーティングシステム190のAPIを介してアクセスされる。
ビデオ編集システム100は、ビデオ編集、カラーコレクション、プロジェクトの作成などのワークフローのためのユーザインターフェースコントロールを表示する、グラフィカルユーザインターフェース140を含む。
ソースマテリアルは、インポートマネージャー160を介してビデオ編集システム100にインポートされる。この点に関して、インポートマネージャー160は、適切なオペレーティングシステム190のAPIにアクセスして、ローカルおよびリモートファイルシステムをスキャンし、ビデオ編集システム100にインポートする適切なソースマテリアルを探索する。さらに、インポートマネージャー160は、ビデオ編集システム100にインポートする前に必要なソースマテリアルの(トランスコーディングなどの)前処理の管理も行う。ソースマテリアルがインポートされると、ソースマテリアルに関連するデータとして、ファイルネーム、ディレクトリの場所、長さ、ハードウェアの詳細、地理的位置、日時、およびコーデックなどがデータベース165に格納される。また、データベース165は、インポートされたソースマテリアルから作成されたプロジェクトの内容を格納およびアクセスするためにビデオ編集システム100によって利用される。
ビデオ編集システム100は、同期エンジン180をさらに含む。以下に説明するように、同期エンジン180は、選択されインポートされたクリップと共通の属性を共有する、インポートされているメディアクリップを自動的に識別し、それらのクリップをユーザインターフェースに表示する「ライブ」同期ビューを実行する。一実施形態によれば、ビデオ編集システムは、共通の属性を共有する複数のメディアクリップのためのフォルダ(すなわち「メディアビン」)を自動的に作成し、そのフォルダ内のメディアクリップを表示する。
たとえば、該選択されるメディアクリップは、表示されている、または編集されている過程において存在し、その場合には、同期エンジン180は、該選択されたメディアクリップと共通の属性を共有する他のすべてのメディアクリップを表示する。関連する(つまり、共通属性を共有する)メディアクリップのこの種の「ライブ」ビューは、特定の時点でどんなクリップが利用できるのか示すとともに、それらの関連するクリップがどれくらいの間利用できるのか示すので便利である。このライブビューにより、該関連するメディアクリップをすばやくアクセスして編集することもできる。
次に、図2を参照して、ライブ同期ビューを提供するために同期エンジン180が実行するアルゴリズムの一例を説明する。好ましい実施形態では、該アルゴリズムは、ビデオ編集システム100のバックグラウンドで連続的に実行される。アルゴリズムは、「ソースレベル」で同期を達成すること、つまり、カメラから配信されるネイティブファイルフォーマットを操作することなく、または実質的操作無しにそのまま利用することがさらに好ましい。これにより、より正確で効率的な同期が可能になるだけでなく、インポートされたメディアが最初のインポート時に同期されるので、ユーザーが編集するタイミングで利用可能となる。ソースレベルでの同期により、広範囲で検出された同期情報を同じソースメディアを利用する後続のプロジェクトに使用することもできる。
プロセスはステップ200で開始する。ステップ210で、メディアファイルがビデオ編集システム100にインポートされる。インポートマネージャー160は、インポートのための適切なユーザインターフェースコントロールを提供する。たとえば、インポートマネージャー160は、コンピュータのファイルシステム内のファイルの場所からビデオ編集システム100によって提供されるプロジェクトパラダイムに、ファイルをドラッグアンドドロップさせるコントロールを提供する。たとえば、ビデオ編集システム100により、ユーザーがフォルダ(または「ビン」)を、ディレクトリ階層(または「メディアプール」)内に作成して、選択されたメディアファイルをそのフォルダにドラッグし、それによりビデオ編集システムにインポートすることができる。
ステップ220で、同期エンジン180は、インポートされたメディアファイルおよびそのメタデータを解析する。
ステップ230で、同期エンジン180は、インポートされたメディアファイルのタイムコード情報を、ビデオ編集システム100に以前にインポートされた他のメディアファイルのタイムコードと照合する。当業者にとって周知のように、タイムコードは、ビデオキャプチャと同時にビデオカメラによって生成され、キャプチャされたビデオ内の正しい位置を特定するために使用される。SMPTE標準規格によれば、タイムコードは32ビットの数値として生成され、それぞれが時間、分、秒、およびフレームを表す。
2つの異なるファイルのそれぞれが、(ファイルのメタデータに存在するカメラ識別子フィールドから明らかである)別々のカメラによって録画されたビデオを含み、その2つの異なるファイルに共通のタイムコード値のシーケンスを識別することが、ファイルに存在するビデオが、異なるカメラで、おそらくは異なる角度から撮られた同一のシーンであることを示唆する。
新しくインポートされたファイルと以前にインポートされたファイルの間に共通のタイムコード値がない場合、(後述する)ステップ270へ進む。
2つのメディアファイルのタイムコードが一致する場合(タイムコード値が重複している場合に起こり得る)、ステップ240に進み、同期エンジン180は、インポートされたファイルのメタデータに存在する日時情報を、以前にインポートされたファイルの対応するメタデータ一と照合する。日時情報は、通常、カメラ自体の内部クロックを使用するビデオファイルに含まれている。それは、必ずしもタイムコードデータほど正確ではないため、二次的な照合基準として使われる。
日時のメタデータが一致する場合は、ほぼ同じ日時に録画されたビデオに重複するタイムコードがあるので、2つのファイルがマルチカメラソースを構成している可能性がある。このシナリオでは、(必要に応じ)関連するクリップのグループが作成され、新しくインポートされたメディアファイルがそのグループに割り当てられる(ステップ250)。関連するクリップのグループは、(共通のタイムコード値および/または日時などの)共通属性を共有していることが検出されたすべてのファイルを含む。後述するように、関連するクリップのグループは、ユーザーが該クリップの1つと関わり合いを持つことでグループ内のすべてのクリップを自動的に表示する、ユーザインターフェース機能をトリガーするために利用される。
日時のメタデータが一致しない場合は、ステップ260に進み、そこで同期エンジンは、新しくインポートされたファイルの任意のオーディオトラックと以前にインポートされたファイルの任意のオーディオトラックについて、オーディオ比較ルーチンを実行する。比較ルーチンが2つのオーディオファイル間に共通性を示す場合は、(それはファイルに存在するビデオが異なるカメラで撮影された同一のシーンのものである事実を反映するものであり)、ステップ250に戻り、そこで新しくインポートされたメディアファイルは、該当の関連するクリップのグループに割り当てられる。
他のマッチングアルゴリズムを本発明で使用することもできる。たとえば、タイムコードのみを使用して、または日付/時刻情報のみを使用してファイルを照合できる。他のアルゴリズムでは、タイムコードとオーディオ、または日付/時刻とオーディオなどの照合基準のさまざまな組み合わせを利用する。地理座標やその他の位置情報など、その他の照合基準も使用できる。
出願人のダビンチリゾルブ(登録商標)は、本発明の実施形態を実施するのに適したビデオ編集システムの一例である。図3は、ダビンチリゾルブによって生成されたユーザインターフェース140の一例を示している。インターフェース140は、インポートされたビデオクリップを受信および表示するためのメディアビン表示領域300を備えたパネルを含む。図3に示されたプロジェクトにはクリップがインポートされていないため、メディアビンの表示領域300は空の状態である。インターフェース140はまた、選択されたビデオクリップを表示するためのソースビューア310と、編集やプロジェクト作成のために配置され、ソースビューア310からクリップをドラッグすることができるタイムライン320とを含む。
図4は、一連のクリップがメディアビン表示領域300に配置されることによってインポートされた後のユーザインターフェース140の状態を示す。図示の実施形態で、同期エンジン180は、上記のマッチングアルゴリズムを使用して一連のインポートされたクリップについてライブ同期を実行した。ユーザインターフェース140は、操作されると同期エンジン180が起動して同期を実行する同期ボタン325をさらに含む。同期ボタン325を操作すると、同期制御ウィンドウが表示され、これにより、ユーザーは同期に関連する様々なオプションを選択できる。たとえば、ユーザーは、同期ウィンドウを介して、タイムコード、日時、オーディオ、またはそれらの任意の組み合わせに基づいて同期が実行されることを選択できる。
図4に示される実施形態では、マッチングアルゴリズムは、インポートされたクリップが、4つの異なるカメラによって録画された共通のシーンに関するものであることを確定した。ユーザインターフェース140は、ユーザーが個々のカメラを選択できるようにするカメラ選択ウィンドウ330を表示する。
図5は、ユーザーが図4に示されるカメラ選択ウィンドウから「カメラ1」を選択した後のユーザインターフェース140の状態を示す。図示の実施形態では、インポートされたビデオクリップのうち1つだけが「カメラ1」を使用して録画されていた。このことは、メディアビン表示領域300に示されている単一のビデオクリップに反映されている。メディアクリップは、ソースビューア310に表示させるために選択され、編集のためにタイムライン320にドラッグされる。
図6は、本発明によって提供されるライブ同期ビューを示している。該同期ビューは、図6で「同期ビン」とラベル付けされた同期ビューボタン610を操作することにより選択される。同期ビューボタン610を操作すると、NLE120は(「同期ビン」という名前の)新しいメディアビンを作成し、同期ビン表示領域620にそのコンテンツをレンダリングする。図示の実施形態では、新しいメディアビンに存在する各クリップの(サムネイル形式の)インディシアが同期ビン表示領域に表示される。
クリップのインディシアは、それらが同期され、したがって1つまたは複数の共通属性を共有することを示すように、同期ビン表示領域620に表示される。図示の実施形態では、(マッチングアルゴリズムによって決定された)4つの異なるカメラによって録画されたクリップのインディシアが、同期ビン表示領域620に垂直に配置された態様で表示される。
図6に示されるライブ同期ビューの実施形態では、ソースビューア310は、4つのカメラのそれぞれに対して別々のビューイングエリアを含む。
同期ビン表示領域620は、現在のクリップ630(すなわち、タイムライン320およびソースビューア310に存在するクリップ)を表示するだけでなく、現在のクリップ630の関連するクリップのグループ内にある他のどんなクリップも自動的に表示する。上記のように、図示の実施形態では、関連するクリップのグループは、異なるカメラによる同じシーンの録画から成る。これらの関連するクリップは、クリップ640および650として図6に示されている。クリップ630、640および650は、同期ビン表示領域620に垂直に配置されて、それらが相互に同期された関係であることを示している。上記のように、同期エンジン180が共通の属性を有するクリップを検出すると、個々のクリップは、同期エンジンによって、関連するクリップのグループに割り当てられる。関連するクリップを専用のメディアビンに表示することは完全に自動化されており、ユーザーにとっては透過的である。
関連するクリップ630、640、650は、共通の属性を検出するために使用されたメタデータに従って、同期ビン表示領域に表示される。たとえば、クリップが共通のタイムコード値を有するものとして検出された場合、これらのタイムコード値はその共通性を示すように使われる。図6に示される実施形態では、クリップ630が最初にスタートするが、これは、その間はカメラ1がシーンを録画する「唯一のカメラであった時間間隔」があったことを示している。このことは、クリップ630のみが表示されて他の表示領域がブランクなっている、図6に示されたソースビューア310に反映されている。
後の時点で、クリップ630と640が(たとえば、共通のタイムコードまたはオーディオトラックを有することにより)オーバーラップし、カメラ1と2が同時に独立して同じシーンを録画していたことを示す。さらに後の時点で、3つのクリップ630、640、650がすべてオーバーラップし、カメラ1、カメラ2、カメラ3のそれぞれが同じシーンを録画していたことを示す。この時間情報は、クリップ630に対してクリップ640および650の開始点をオフセットすることによって表示される。
ユーザーは、クリップ(図6のクリップ630)をタイムライン320にドラッグして、編集およびプロジェクトの作成を行うことがでる。NLE120は、検出された属性情報(たとえばタイムコード情報、日時、またはオーディオトラック)を利用して、タイムラインの正しい時間位置にクリップを配置する。属性情報は、複数のクリップがタイムライン320にドラッグされたときそれらの同期を維持するためにも使用される。
図7は、タイムライン320のプレイヘッド710が図6に示された時間より後の時間まで進行した場合のユーザインターフェース140の状態を示す。第2プレイヘッド715が同期ビン表示領域620に設けられ、ユーザーは、これを操作して表示されたクリップをスクロールすることもできる。
図7に示される時点で、プレイヘッド710および715は、複数の関連するクリップが再生されているある位置まで進んでいる。特に、図7に示す時間位置では、4台のカメラ(つまり、カメラ1、カメラ2、カメラ3、カメラ4)のすべてが別々かつ同時に同じシーンを録画していた。このことは、クリップ630、640、650、660が、同期ビン表示領域620において垂直に配置され表示されていることによって示されている。本発明は、そのような状況を検出し、すべての関連するクリップをソースビューア310の関連する表示領域に自動的にロードする。
図8に示すように、個々のビューのいずれか1つを選択してソースビューア310に便利よく表示することができる。オーディオ波形ビューア690は、ソースビューア310の真下に設けられている。オーディオ波形ビューア690は、編集コントロール部として機能し、たとえば、ユーザーがインポイントおよびアウトポイントを使ってクリップ(この場合はクリップ660)をマークできる。このインポイントおよびアウトポイントは、編集およびプロジェクト作成のためにタイムライン320にロードできるクリップ全体のセクションを定義する。上記のように、NLE120は、検出された属性情報(たとえば、タイムコード情報)を利用して、タイムライン320内の正しい時間位置に該クリップのセクションを配置する。
上記のように、クリップが同期ビン表示領域620に表示されると、それらを適切にタイムライン320にドラッグして、いつも通りに編集することができる。このことは、2つの関連するクリップ910および920がソースビューア310または同期ビン表示領域からタイムライン320にドラッグされたことを示す図9に描かれている。ソースビューア310は同期ビン表示領域620に存在する4つのクリップすべてを表示するように示されているが、タイムライン320には4つのクリップのうち2つだけがドラッグされている。
重要なことは、クリップがタイムライン320にドラッグされたとき、(マッチングアルゴリズムによって検出された)クリップ910と920との間の同期された時間関係が維持されることである。これにより、カメラの切り替えを切れ目なく行うことができる。言い換えると、プロジェクトがクリップ910からクリップ920に切り替わって、クリップ910に戻るときに(図9に示すように)、プロジェクト全体の連続性が維持される。
本発明の同期エンジン180は、ビデオ編集システム100によって提供される他の編集機能と切れ目なく動作する。このことが図10に示されており、そこには、クリップ920によって占有されるタイムライン320の同じトラックにドラッグされた、関連のないクリップ950が示されている。クリップ950はクリップ920と同じ関連するクリップのグループにはないにもかかわらず、そのような編集機能が許容される。それと同時に、クリップ910と920との間の時間関係は、タイムライン320に維持される。
図11はプレイヘッド1000がクリップ920の再生を超えて進行し、クリップ950の再生を開始した後の図10のユーザインターフェースの状態を示す。上記のように、クリップ950は、同期エンジン180がクリップによって共有されるいずれの共通属性も検出しなかったので、同じ関連するクリップのグループ920に属していない。しかしながら、クリップ950は、他のクリップと共通の属性を共有し、それらの属性は同期エンジン180によって以前に検出されていた。このシナリオでは、同期エンジン180は、新しい同期ビンおよび同期ビン表示領域620を自動的に作成し、クリップ920に関連するクリップを新たに作成されたビンにロードする。プレイヘッド1000がクリップ950の再生を開始すると、新たに作成された同期ビン表示領域が表示される。これらのロードされたクリップは、その後、タイムラインに適切にドラッグされ編集することができる。
図12は、本発明の実施形態を実施可能なコンピュータシステム1200の一例を示すブロック図を提供する。コンピュータシステム1200は、情報を伝えるためのバス1202または他の通信メカニズムと、バス1202に接続された、情報を処理するためのハードウェアプロセッサ1204とを含む。ハードウェアプロセッサ1204は、例えば、汎用マイクロプロセッサ、グラフィックスプロセッシングユニット、他のタイプのプロセッシングユニット、またはそれらの組み合わせであってもよい。
さらに、コンピュータシステム1200は、情報や、プロセッサ1204によって実行される命令を記憶するための、バス1202に接続されたランダムアクセスメモリ(RAM)や他のダイナミック記憶装置などのメインメモリ1206を含む。メインメモリ1206は、プロセッサ1204によって実行される命令の実行中に一時変数や他の中間情報を記憶するためにも使われる。そのような命令が、プロセッサ1204にアクセス可能な非一時記憶媒体に格納される場合、コンピュータシステム1200は、該命令により指定されたオペレーションを実行するようカスタマイズされた専用マシンになる。
コンピュータシステム1200はさらに、バス1202に接続された、静的情報やプロセッサ1204の命令を記憶するためのリードオンリーメモリ(ROM)1208や他のスタティック記憶装置を含む。磁気ディスクまたは光ディスクなどの記憶装置1210が提供され、情報や上記のビデオ編集ソフトウェアアプリケーションを含む命令を格納するために、バス1202に接続される。
コンピュータシステム1200は、バス1202を介して(LCD、LED、タッチスクリーンディスプレイまたはその他のディスプレイなどの)ディスプレイ1212に接続され、コンピュータユーザに対して、上記で説明され図示されたグラフィカルユーザインターフェースなどの情報を表示する。英数字キーおよびその他のキーを含む入力デバイス1214は、情報およびコマンド選択をプロセッサ1204に伝えるためにバス1202に接続される。別のタイプのユーザー入力デバイスは、方向情報およびコマンド選択をプロセッサ1204に伝え、およびディスプレイ1212上のカーソルの動きを制御するための、マウス、トラックボール、またはカーソル方向キーなどのカーソルコントロールである。
一実施形態によれば、本明細書に記載の技術は、プロセッサ1204が、メインメモリ1206に含まれる1つまたは複数の命令の、1つまたは複数のシーケンスを実行することに応じて、コンピュータシステム1200によって実行される。そのような命令は、リモートデータベースなどの別の記憶媒体からメインメモリ1206に読み込まれてもよい。プロセッサ1204は、メインメモリ1206に含まれる命令のシーケンスを実行することで本明細書に記載のプロセスのステップを実行する。代替の実施形態では、ハードワイヤード回路を、ソフトウェア命令の代わりに、またはソフトウェア命令と組み合わせて使用してもよい。
本明細書で使用される「記憶媒体」という用語は、マシンを特定の方法で動作させるデータおよび/または命令を格納するあらゆる非一時的な記憶媒体を指す。そのような記憶媒体は、不揮発性記憶媒体および/または揮発性記憶媒体を含み得る。不揮発性記憶媒体には、例えば、記憶装置1210などの光学ディスクまたは磁気ディスクが含まれる。揮発性記憶媒体には、メインメモリ1206などのダイナミックメモリが含まれる。記憶媒体の一般的な形態には、例えば、フロッピーディスク、フレキシブルディスク、ハードディスク、ソリッドステートドライブ、磁気テープ、またはその他のあらゆる磁気データ記憶媒体、CD-ROM、その他のあらゆる光データ記憶媒体、孔のパターンを備えたあらゆる物理媒体、RAM、PROM、EPROM、FLASH-EPROM、NVRAM、その他あらゆるメモリチップまたはカートリッジが含まれる。
さらに、コンピュータシステム1200は、バス1202に接続された通信インターフェース1216を含む。通信インターフェース1216は、通信ネットワーク1220に接続されたネットワークリンク1218に結合して双方向データ通信を提供する。例えば、通信インターフェース1216は、サービス総合デジタル網(ISDN)カード、ケーブルモデム、サテライトモデムなどであってもよい。別の例として、通信インターフェース1216は、互換性のあるLANへのデータ通信接続を提供するためのローカルエリアネットワーク(LAN)カードであってもよい。ワイヤレスリンクを実装してもよい。そのような実装を行う場合、通信インターフェース1216は、様々なタイプの情報を表すデジタルデータストリームを伝送する電気、電磁気、または光信号を送受信する。
本明細書で開示され明らかとなった発明は、テキストや図面に記載され又はそこから明白な、個々の特徴の2つ以上の全ての代替されうる組み合わせに及ぶことが理解されるだろう。これらの異なる組み合わせの全てが本発明の様々の代替されうる態様を構成する。

Claims (19)

  1. メディアファイルをビデオ編集システムにインポートするためのインポートマネージャーと;
    ユーザインターフェースと;
    1つまたは複数の共通属性を有するインポートされたメディアファイルを検出し、検出された各メディアファイルのインディシアを前記ユーザインターフェースに表示するための同期エンジンと;
    を含むビデオ編集システム。
  2. 前記1つまたは複数の共通属性は、検出されたメディアファイルが複数のカメラのメディアクリップを含むことを示す、請求項1に記載のビデオ編集システム。
  3. 前記共通属性は、1つまたは複数のタイムコード、時間、日付、オーディオ波形を含む、請求項2に記載のビデオ編集システム。
  4. 前記ユーザインターフェースはタイムラインおよび空間的に離れたメディアビン表示領域を含み、前記インディシアが前記メディアビン表示領域に表示される、請求項1乃至3のいずれかに記載のビデオ編集システム。
  5. 前記インディシアは、共通属性を共有することを示すように前記メディアビン表示領域に表示される、請求項4に記載のビデオ編集システム。
  6. 前記インディシアは前記メディアビン表示領域に垂直に配置され、検出されたメディアファイルが複数のカメラのメディアクリップを含むことを示す、請求項5に記載のビデオ編集システム。
  7. 前記ユーザインターフェースは、メディアビン表示領域にまたはそれに隣接してプレイヘッドを含む、請求項4乃至6のいずれかに記載のビデオ編集システム。
  8. 前記インディシアは、検出されたメディアファイルのサムネイルである、請求項1乃至7のいずれかに記載のビデオ編集システム。
  9. 前記同期エンジンは、検出された1つのメディアファイがユーザインターフェースの編集コントロール部にロードされることを検出し、共通属性を有する検出された他のメディアファイルのインディシアをユーザインターフェースに自動的に表示させる、請求項1乃至8のいずれかに記載のビデオ編集システム。
  10. 前記編集コントロール部はタイムラインである、請求項9に記載のビデオ編集システム。
  11. 前記同期エンジンは、共通属性データを利用して、検出されたメディアファイルを前記タイムラインの正しい時間位置に配置する、請求項4乃至10のいずれかに記載のビデオ編集システム。
  12. 前記同期エンジンは、共通属性データを利用して、検出された別のメディアファイルを前記タイムラインの前記検出されたメディアファイルに対して正しい時間位置に配置する、請求項11に記載のビデオ編集システム。
  13. 前記同期エンジンは、前記ビデオ編集システムのバックグラウンドで連続して動作する、請求項1乃至12のいずれかに記載のビデオ編集システム。
  14. メディアファイルをビデオ編集システムにインポートするステップと;
    1つまたは複数の共通属性を有するインポートされたメディアファイルを検出するステップと;
    検出された各メディアファイルのインディシアをビデオ編集システムのユーザインターフェースに表示するステップと;
    を含む、ビデオ編集システムのメディアファイルを管理する方法。
  15. 検出されたメディアファイルのためのメディアビンを作成するステップと;
    検出されたメディアファイルのインディシアをユーザインターフェースのメディアビン表示領域に表示するステップと;
    をさらに含む、請求項14に記載の方法。
  16. 前記インディシアは、それらが共通属性を共有することを示すように前記メディアビン表示領域に表示される、請求項15に記載の方法。
  17. 前記インディシアは、メディアビン表示領域に垂直に配置され、検出されたメディアファイルが複数のカメラのメディアクリップを含むことを示す、請求項16に記載の方法。
  18. プロセッサによって実行されるとき、請求項1乃至13のいずれかに記載のビデオ編集システムを提供する命令を格納するコンピュータ可読媒体を含む、ソフトウェアプロダクト。
  19. 編集コントロール部と;
    ビデオ編集システムにインポートされた複数のメディアファイルのインディシアを表示する、前記編集コントロール部から空間的に離れたメディアビン表示領域と;
    メディアファイルの1つが前記編集コントロール部にロードされたことを検出し、前記メディアファイルと共通属性を共有する他のメディアファイルのインディシアを前記メディアビン表示領域に自動的に表示する同期エンジンと;
    を含む、ビデオ編集システム用のユーザインターフェース。
JP2022506496A 2019-08-02 2020-08-03 ビデオ編集システム、方法、およびユーザインターフェース Active JP7657772B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU2019902773A AU2019902773A0 (en) 2019-08-02 Video editing system, method and user interface
AU2019902773 2019-08-02
PCT/AU2020/050795 WO2021022324A1 (en) 2019-08-02 2020-08-03 Video editing system, method and user interface

Publications (3)

Publication Number Publication Date
JP2022542451A true JP2022542451A (ja) 2022-10-03
JPWO2021022324A5 JPWO2021022324A5 (ja) 2023-08-08
JP7657772B2 JP7657772B2 (ja) 2025-04-07

Family

ID=74502423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022506496A Active JP7657772B2 (ja) 2019-08-02 2020-08-03 ビデオ編集システム、方法、およびユーザインターフェース

Country Status (5)

Country Link
US (1) US12057141B2 (ja)
EP (1) EP4008102A4 (ja)
JP (1) JP7657772B2 (ja)
CN (1) CN114450935A (ja)
WO (1) WO2021022324A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD1001836S1 (en) * 2020-02-06 2023-10-17 Battelle Memorial Institute Display screen or portion thereof with graphical user interface
USD1011359S1 (en) * 2020-09-22 2024-01-16 Igt Display screen or portion thereof with graphical user interface
US20220134222A1 (en) * 2020-11-03 2022-05-05 Nvidia Corporation Delta propagation in cloud-centric platforms for collaboration and connectivity
USD981442S1 (en) * 2021-02-17 2023-03-21 Blackmagic Design Pty Ltd Display screen or portion thereof with graphical user interface
CN117857719A (zh) * 2022-09-30 2024-04-09 北京字跳网络技术有限公司 视频素材剪辑方法及装置

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69222102T2 (de) 1991-08-02 1998-03-26 Grass Valley Group Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial
US6628303B1 (en) 1996-07-29 2003-09-30 Avid Technology, Inc. Graphical user interface for a motion video planning and editing system for a computer
US7930624B2 (en) * 2001-04-20 2011-04-19 Avid Technology, Inc. Editing time-based media with enhanced content
US7231135B2 (en) 2001-05-18 2007-06-12 Pentax Of American, Inc. Computer-based video recording and management system for medical diagnostic equipment
US7287222B2 (en) 2002-01-31 2007-10-23 Canon Kabushiki Kaisha Information processing apparatus and method that determines effectiveness of metadata for editing information content
US7805678B1 (en) 2004-04-16 2010-09-28 Apple Inc. Editing within single timeline
US8126312B2 (en) 2005-03-31 2012-02-28 Apple Inc. Use of multiple related timelines
US7434155B2 (en) 2005-04-04 2008-10-07 Leitch Technology, Inc. Icon bar display for video editing system
US10692536B1 (en) * 2005-04-16 2020-06-23 Apple Inc. Generation and use of multiclips in video editing
US8156176B2 (en) 2005-04-20 2012-04-10 Say Media, Inc. Browser based multi-clip video editing
EP1969447A2 (en) 2006-01-05 2008-09-17 Eyespot Corporation System and methods for storing, editing, and sharing digital video
US20070162857A1 (en) 2006-01-06 2007-07-12 Ralf Weber Automated multimedia authoring
EP2137642A1 (en) * 2007-04-13 2009-12-30 Thomson Licensing Systems and methods for specifying frame-accurate images for media asset management
US8170396B2 (en) 2007-04-16 2012-05-01 Adobe Systems Incorporated Changing video playback rate
US20090006368A1 (en) * 2007-06-29 2009-01-01 Microsoft Corporation Automatic Video Recommendation
JP2010541415A (ja) * 2007-09-28 2010-12-24 グレースノート インコーポレイテッド マルチメディアイベントのプレゼンテーションの合成
US8363055B1 (en) 2008-11-18 2013-01-29 Pixar Multiple time scales in computer graphics
US8359537B2 (en) 2009-04-30 2013-01-22 Apple Inc. Tool for navigating a composite presentation
US8881013B2 (en) 2009-04-30 2014-11-04 Apple Inc. Tool for tracking versions of media sections in a composite presentation
US8701008B2 (en) * 2009-06-18 2014-04-15 Cyberlink Corp. Systems and methods for sharing multimedia editing projects
US8910046B2 (en) 2010-07-15 2014-12-09 Apple Inc. Media-editing application with anchored timeline
US8819557B2 (en) 2010-07-15 2014-08-26 Apple Inc. Media-editing application with a free-form space for organizing or compositing media clips
US8745499B2 (en) 2011-01-28 2014-06-03 Apple Inc. Timeline search and index
US8886015B2 (en) 2011-01-28 2014-11-11 Apple Inc. Efficient media import
US8621355B2 (en) * 2011-02-02 2013-12-31 Apple Inc. Automatic synchronization of media clips
US8966367B2 (en) 2011-02-16 2015-02-24 Apple Inc. Anchor override for a media-editing application with an anchored timeline
CA3089869C (en) * 2011-04-11 2022-08-16 Evertz Microsystems Ltd. Methods and systems for network based video clip generation and management
US8406610B2 (en) * 2011-04-27 2013-03-26 Cyberlink Corp. Systems and methods of editing media data
US20130073964A1 (en) * 2011-09-20 2013-03-21 Brian Meaney Outputting media presentations using roles assigned to content
US10079039B2 (en) 2011-09-26 2018-09-18 The University Of North Carolina At Charlotte Multi-modal collaborative web-based video annotation system
US9437247B2 (en) 2011-11-14 2016-09-06 Apple Inc. Preview display for multi-camera media clips
US9417756B2 (en) * 2012-10-19 2016-08-16 Apple Inc. Viewing and editing media content
US20140143671A1 (en) 2012-11-19 2014-05-22 Avid Technology, Inc. Dual format and dual screen editing environment
US20150121437A1 (en) * 2013-04-05 2015-04-30 Google Inc. Multi-perspective game broadcasting
US20150243325A1 (en) 2014-02-24 2015-08-27 Lyve Minds, Inc. Automatic generation of compilation videos
KR101598710B1 (ko) * 2014-09-11 2016-02-29 엘지전자 주식회사 이동단말기 및 그 제어방법
US9679605B2 (en) 2015-01-29 2017-06-13 Gopro, Inc. Variable playback speed template for video editing application
US9767852B2 (en) * 2015-09-11 2017-09-19 Frederick Mwangaguhunga Systems and methods for detecting audio mismatches between digital media files
US20170244959A1 (en) * 2016-02-19 2017-08-24 Adobe Systems Incorporated Selecting a View of a Multi-View Video
US10402062B2 (en) * 2016-04-16 2019-09-03 Apple Inc. Organized timeline
US10616624B2 (en) * 2017-03-01 2020-04-07 Rhinobird Inc. Multi-angle video synchronization and multi-angle video interface
US10276213B2 (en) 2017-05-22 2019-04-30 Adobe Inc. Automatic and intelligent video sorting
JP6369706B1 (ja) * 2017-12-27 2018-08-08 株式会社Medi Plus 医療動画処理システム
US10705708B2 (en) 2018-11-29 2020-07-07 International Business Machines Corporation Data expansion control
WO2020198793A1 (en) 2019-04-01 2020-10-08 Blackmagic Design Pty Ltd Media management system
GB2617352A (en) * 2022-04-05 2023-10-11 Canon Kk Method, device, and computer program for encapsulating region annotations in media tracks

Also Published As

Publication number Publication date
US20220284926A1 (en) 2022-09-08
CN114450935A (zh) 2022-05-06
EP4008102A4 (en) 2023-07-19
JP7657772B2 (ja) 2025-04-07
US12057141B2 (en) 2024-08-06
EP4008102A1 (en) 2022-06-08
WO2021022324A1 (en) 2021-02-11

Similar Documents

Publication Publication Date Title
US11157154B2 (en) Media-editing application with novel editing tools
JP7657772B2 (ja) ビデオ編集システム、方法、およびユーザインターフェース
JP6214619B2 (ja) マルチメディアクリップの生成
US7623755B2 (en) Techniques for positioning audio and video clips
US8966367B2 (en) Anchor override for a media-editing application with an anchored timeline
US7432940B2 (en) Interactive animation of sprites in a video production
US8875025B2 (en) Media-editing application with media clips grouping capabilities
US7434155B2 (en) Icon bar display for video editing system
US20020175917A1 (en) Method and system for streaming media manager
US11747972B2 (en) Media-editing application with novel editing tools
US20220239987A1 (en) Systems and methods for creating and modifying event-centric media content
AU2002301447B2 (en) Interactive Animation of Sprites in a Video Production

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230728

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250326

R150 Certificate of patent or registration of utility model

Ref document number: 7657772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150