본 발명은 이하의 도면들의 간단한 설명, 본 발명의 상세한 설명, 및 청구항들에서 더 설명되는 장치 및 동작의 방법들에 관한 것이다.
본 발명의 일 양상에 따라, 제1 비디오 플레이어 시스템 및 제2 비디오 플레이어 시스템에 의해 받아들여져 그들과 상호작용할 수 있고, 상기 제1 비디오 플레이어 시스템은 제1 디스플레이 특성(first display characteristic)을 갖는 제1 비디오 디스플레이(first video display)를 가지며, 상기 제2 비디오 플레이어 시스템은 제2 디스플레이 특성(second display characteristic)을 갖는 제2 비디오 디스플레이(second video display)를 가지며, 상기 제1 디스플레이 특성은 상기 제2 디스플레이 특성과 다른, 이동가능한 스토리지 매체(removable storage media, 이하에서는 스토리지 미디어라고도 함)가 제공되고, 상기 이동 가능한 스토리지 매체는,
상기 이동가능한 스토리지 매체 내의 복수의 저장 위치들(storage locations);
상기 복수의 저장 위치들 중의 적어도 제1 저장 위치에 저장된 비디오 데이터(video data)의 풀 프레임들(full frames)의 시퀀스(sequence);
적어도 상기 제1 디스플레이 특성을 충족시키기 위해 생성되고, 상기 복수의 저장 위치들 중의 적어도 제2 저장 위치에 저장된, 제1 서브-프레임 메타데이터(first sub-frame metadata);
상기 제1 서브-프레임 메타데이터는 비디오 데이터의 풀 프레임들의 시퀀스 내에서 제1 복수의 서브-프레임들(first plurality of sub-frames)을 정의하고, 상기 제1 복수의 서브-프레임들 각각은 적어도 제1 파라미터(first parameter)를 갖되, 상기 제1 복수의 서브-프레임들 각각의 상기 제1 파라미터는 서로 다르며;
적어도 상기 제2 디스플레이 특성을 충족시키기 위해 생성되고, 상기 복수의 저장 위치들 중의 적어도 제3 저장 위치에 저장된, 제2 서브-프레임 메타데이터(second sub-frame metadata); 및
상기 제2 서브-프레임 메타데이터는 비디오 데이터의 풀 프레임들의 시퀀스 내에서 제2 복수의 서브-프레임들(second plurality of sub-frames)을 정의하고, 상기 제2 복수의 서브-프레임들 각각은 적어도 제2 파라미터(second parameter)를 갖되, 상기 제2 복수의 서브-프레임들 각각의 상기 제2 파라미터는 서로 다르다.
바람직하게는, 상기 제1 서브-프레임 메타데이터는 상기 제1 디스플레이를 위한 비디오 데이터의 풀 프레임들의 시퀀스를 가공하기 위해 상기 제1 비디오 플레이어 시스템에 의해 검색(retrieve)되고 사용될 수 있고;
상기 제2 서브-프레임 메타데이터는 상기 제2 디스플레이를 위한 비디오 데이터의 풀 프레임들의 시퀀스를 가공하기 위해 상기 제2 비디오 플레이어 시스템에 의해 검색되고 사용될 수 있다.
바람직하게는, 상기 제1 파라미터는 비디오 데이터의 풀 프레임들의 시퀀스 내에서 서브-프레임 중심점(sub-frame center point)을 포함하되,
상기 서브-프레임 중심점은, 상기 제1 비디오 디스플레이용으로 만들어지는 비디오 데이터와 상기 제2 비디오 디스플레이용으로 만들어지는 비디오 데이터가 서로 다른 중심점을 갖도록 하기 위한 것이다.
바람직하게는, 상기 제1 비디오 플레이어 시스템은 텔레비젼을 포함하고, 상기 제2 비디오 플레이어 시스템은 컴퓨터를 포함한다.
바람직하게는, 상기 제1 비디오 디스플레이는 핸드헬드 디바이스(handheld device)의 디스플레이를 포함한다.
바람직하게는, 상기 스토리지 미디어는 비디오 디스크(video disk)를 포함한다.
바람직하게는, 상기 스토리지 미디어는 램(Random Access Memory;RAM)을 포함한다.
바람직하게는, 상기 스토리지 미디어는 롬(Read Only Memory;ROM)을 포함한다.
바람직하게는, 상기 이동 가능한 스토리지 미디어는 상기 복수의 저장 위치들 중의 적어도 제4 저장 위치에 디지털 권한 관리 데이터(digital rights management data)를 더 포함하고, 상기 디지털 권한 관리 데이터는 비디오 데이터의 풀 프레임들의 시퀀스에 관련된다.
바람직하게는, 상기 이동 가능한 스토리지 미디어는 상기 복수의 저장 위치들 중의 적어도 제4 위치에 디지털 권한 관리 데이터를 더 포함하고, 상기 디지털 권한 관리 데이터는 상기 제1 서브-프레임 데이터에 관련된다.
바람직하게는, 상기 이동 가능한 스토리지 미디어는
비디오 데이터의 풀 프레임들의 시퀀스에 상응하는 오디오 데이터;
상기 제1 복수의 서브-프레임들에 상응하는 제1 서브-프레임 오디오 데이터; 및
상기 제2 복수의 서브-프레임들에 상응하는 제2 서브-프레임 오디오 데이터를 더 포함한다.
바람직하게는, 상기 제1 디스플레이 특성은 제1 이미지 해상도(resolution)를 포함하고 상기 제2 디스플레이 특성은 제2 이미지 해상도를 포함한다.
바람직하게는, 상기 제1 디스플레이 특성은 제1 대각선 치수(diagonal dimension)를 포함하고, 상기 제2 디스플레이 특성은 제2 대각선 치수를 포함하고, 상기 제1 대각선 치수는 실질적으로 상기 제2 대각선 치수보다 더 크다.
바람직하게는, 비디오 데이터의 풀 프레임들의 시퀀스는 비디오 데이터의 풀 프레임들의 인코딩된 시퀀스(encoded sequence)를 포함한다.
본 발명의 일 양상에 따른, 비디오 플레이어 회로(video player circuitry)는,
복수의 저장 위치들을 포함하며 복수의 저장 위치들에는 풀 프레임 비디오(full frame video) 및 복수의 서브-프레임 메타데이터(sub-frame metadata)가 저장된 이동가능한 스토리지 매체를 받아들이는, 매체 인터페이스(media interface);
적어도 하나의 디스플레이 특성을 갖는 디스플레이에 통신상으로 결합된(communicatively coupled) 인터페이스 회로(interface circuitry);
상기 적어도 하나의 디스플레이 특성에 하여 상기 매체 인터페이스에 의해 받아들여진 상기 이동가능한 스토리지 매체에 저장된 상기 복수의 서브-프레임 메타데이터로부터 제1 서브-프레임 메타데이터를 선택하는 프로세싱 회로(processing circuitry); 를 포함하고,
상기 프로세싱 회로는 상기 제1 서브-프레임 메타데이터를 사용하여 상기 풀 프레임 비디오로부터 가공된 비디오(tailored video)를 생성하며;
상기 프로세싱 회로는 상기 인터페이스 회로를 통하여 상기 가공된 비디오를 제공(deliver)한다.
바람직하게는, 상기 프로세싱 회로는 상기 적어도 하나의 디스플레이 특성을 갖는 디스플레이에 상응하는 추가 정보(supplemental information)에 따라서 상기 가공된 비디오를 생성하는 과정의 일부로서 포스트-프로세싱(post-processing)을 수행한다.
바람직하게는, 상기 비디오 플레이어 회로 및 상기 디스플레이는 하나의 하우징(housing) 에 배치된다.
바람직하게는, 상기 비디오 플레이어 회로는 제1 하우징에 배치되고 상기 디스플레이는 제2 하우징에 배치된다.
바람직하게는, 상기 비디오 플레이어 회로는 상기 풀 프레임 비디오를 디코딩하도록 동작할 수 있는 디코더 회로를 포함한다.
바람직하게는, 상기 풀 프레임 비디오는 제1 해상도를 가지며 상기 가공된 비디오는 상기 제1 해상도보다 낮은 제2 해상도를 갖는다.
바람직하게는, 상기 풀 프레임 비디오는 제1 영상비를 가지며 상기 가공된 비디오는 상기 제1 영상비와는 다른 제2 영상비를 갖는다.
바람직하게는, 적어도 상기 프로세싱 회로의 한 부분(portion)은 프로그램 코드에 따라서 기본적인 기능성(underlying functionality)을 수행하는 범용 프로세싱 회로(general purpose processing circuitry)를 포함한다.
본 발명의 일 양상에 따라, 이동 가능한 스토리지 미디어에 데이터를 저장하는 방법은,
풀 스크린 비디오 시퀀스를 나타내는 제1 데이터를 저장하는 단계;
제1 서브-프레임 메타데이터를 나타내는 제2 데이터를 저장하는 단계를 포함 하되, 상기 제2 데이터는 상기 제1 데이터로부터 제1 가공된 비디오(first tailored video)를 만들어 내는 데 사용하기 위한 것이고, 상기 제1 서브-프레임 메타데이터는 상기 풀 스크린 비디오 시퀀스 내에서의 제1 서브-프레임(first sub-frame) 및 상기 풀 스크린 비디오 시퀀스 내에서의 제2 서브-프레임(second sub-frame)을 정의하며, 상기 제1 서브-프레임은 상기 제2 서브-프레임의 특성(characteristic)과는 다른 적어도 하나의 특성을 가지며; 그리고
제2 서브-프레임 메타데이터를 나타내는 제3 데이터를 저장하는 단계를 포함하되, 상기 제3 데이터는 상기 제1 데이터로부터 제2 가공된 비디오(second tailored video)를 만들어 내는 데 사용된다.
바람직하게는, 상기 이동가능한 스토리지 미디어를 분배(distribute)하는 단계를 더 포함한다.
바람직하게는, 상기 제1 데이터는 인코딩된다.
바람직하게는, 상기 방법은 상기 이동 가능한 미디어를 비디오 플레이어 시스템에 결합하는 단계를 더 포함한다.
바람직하게는, 상기 방법은 디지털 권한 관리에 관련된 제4 데이터를 저장하는 단계를 더 포함한다.
본 발명의 다양한 특징들 및 장점들이 수반되는 도면들을 참조한 이하에서의 본 발명의 상세한 설명들로부터 명백해질 것이다.
도 1은 본 발명의 실시예들에 따라 구성된 복수의 비디오 플레이어 시스템들 및 스토리지 미디어(storage media)를 보여주는 시스템 다이어그램이다. 본 발명에 따라 구성된 스토리지 미디어(10)는 CD ROM, DVD ROM, 전기적(electronic) RAM, 자기적(magnetic) RAM, ROM, 또는 디지털 컴퓨터에 의해 사용될 수 있는 데이터를 저장하는 다른 유형의 스토리지 디바이스(storage device)일 수 있다. 상기 스토리지 미디어(10)는 HD-DVD 포맷(들)(format(s)), DVD 포맷(들), 자기적 테이프 포맷(들), 블루-레이(BLU-RAY) DVD 포맷(들), 램(RAM) 포맷(들), 롬(ROM) 포맷(들), 또는 데이터를 데이터의 저장을 가능하게 하는 다른 포맷(들)과 같은 어떤 현재 또는 숙고된(contemplated) 비디오 포맷을 지원할 수 있다. 상기 스토리지 미디어(10)는 이동할 수 있고(transportable), 여기에서 더 설명되는 것과 같이, 디지털 컴퓨터에 통신상으로 부착(attach)될 수 있다. 유선 연결(wired link), 무선 연결(wireless link), 또는 다른 부착(attachment) 기술이 상기 디지털 컴퓨터가 상기 스토리지 미디어(10)로부터 데이터를 읽기 위해(그리고 상기 스토리지 미디어(10)에 데이터를 쓰기 위해) 사용될 수 있다.
상기 스토리지 미디어(10)는 비디오(11), 서브-프레임 메타데이터(15), 디지털 권한 관리(ditigal rights management;DRM)/빌링(billing) 데이터(19), 비가공 오디오 데이터(raw audio data, 102), 및 오디오 메타데이터(audio metadata, 104)를 저장한다. 상기 스토리지 미디어(10)의 구조 및 내용들은 여기에서 도 9b를 참조하여 더 설명될 것이다. 상기 비디오(11)는 인코딩된 소스 비디오(12), 비가공 소스 비디오(14), 변경된(altered) 영상비/해상도 비디오(13), 및 서브-프레임 처리된(sub-frame processed) 비디오(17)를 포함한다. 상기 서브-프레임 메타데이터(15)는 유사 디스플레이 메타데이터(similar display metadata, 16) 및 목표 디스플레이 메타데이터(target display metadata, 18)를 포함한다. 서브-프레임 메타데이터(15)는 상기 비디오 데이터(11)를 처리하기 위해 비디오 플레이어 시스템(video player system, 26, 28, 20, 또는 34)에 의해 사용된다. 상기 서브-프레임 메타데이터가 만들어지고 처리되는 방식은 도 4 내지 18을 참조하여 여기에서 더 설명되어질 것이다.
일반적으로, 상기 비디오 플레이어들(20, 26, 28, 또는 34) 중의 어떤 것은 상응하는 미디어 드라이브(corresponding media drive) 또는 상응하는 통신 링크(corresponding communication link)를 통하여 상기 스토리지 미디어(10)를 받아들이도록 동작할 수 있다. 상기 비디오 플레이어 시스템들(20, 26, 28, 및 34)은 각각의 비디오 디스플레이 특성들로써 하나 또는 그 이상의 비디오 디스플레이들을 지원한다. 상기 인코딩된 소스 비디오(12) 및/또는 상기 비가공 소스 비디오(14)가 상응하는 영상비들, 해상도들, 및 목적 비디오 디스플레이(destination video display)에 상응할 수 없는 다른 비디오 특성들을 갖기 때문에, 상기 비디오 플레이어 시스템들(20, 26, 28, 및 34)은 상기 비디오 데이터(11)를 처리하기 위해 서브-프레임 메타데이터(15)를 사용한다. 상기 비디오 플레이어 시스템들(20, 26, 28, 및 34)은 목표 디스플레이에 상응하는 특성들을 갖는 비디오 데이터를 만들어 내기 위해 상기 서브-프레임 메타데이터(15)를 사용하여 상기 비디오 데이터(11)를 처리한다. 상기 비디오 플레이어 시스템들(20, 26, 28, 및 34)이 상기 서브-프레임 메타데이터(15)를 사용하여 상기 비디오 데이터(11)를 서브-프레임 처리(sub-frame process)하는 방식은 도 7 및 도 9 내지 도 18을 참조하여 여기에서 더 설명될 것이다.
상기 스토리지 미디어(10) 상에 저장되는 비디오 데이터(11)는 미디어 프로그램들, 예를 들면, 텔레비젼 쇼들, 영화들, MPEG 클립들 등의 하나 또는 그 이상의 다중의 포맷들을 포함할 수 있다. 상기 인코딩된 소스 비디오(12)는 상기 비가공 소스 비디오(14)에 상응할 수 있지만 인코딩된 포맷일 수 있다. 다르게는, 상기 인코딩된 소스 비디오(12)는 상기 비가공 소스 비디오(14)의 그것과는 다르게 프로그램된 것일 수 있다. 변경된 영상비/해상도 비디오(13)는 비가공 소스 비디오(14)와 동종의 프로그램에 상응할 수 있지만, 상기 비가공 소스 비디오(14)와는 다른 영상비, 해상도 등일 수 있다. 나아가, 상기 비디오 데이터(11)는 서브-프레임 메타데이터를 사용하여 사전에 처리된 서브-프레임 프레세스된 비디오(17)를 포함할 수 있다. 이러한 서브-프레임 처리된 비디오(17)는 디스플레이들의 클래스(class), 즉 도 1에 도시된 비디오 디스플레이들 중의 하나에 상응하는 디스플레이들의 클래스들 중의 하나에 상응할 수 있다. 상기 서브-프레임 처리된 비디오(17)는 도 1에 도시된 비디오 디스플레이들 중의 하나를 위한 적합한 영상비 및 해상도를 가질 수 있다.
상기 서브-프레임 메타데이터(15)는 도 1에 도시된 디스플레이들 중의 하나 또는 그 이상에 상응하는 유사 디스플레이 메타데이터(similar display metadata, 16)를 포함한다. 일반적으로, 상기 유사 디스플레이 메타데이터(16), 예를 들어, 그것이 비가공 소스 비디오(14)를 처리하기 위해 사용될 때, 각각 상기 유사 디스플레이 메타데이터(16)에의 디스플레이들 중의 특정 클래스에 상응하는 비디오 데이터를 생성한다. 도 1의 비디오 플레이어 시스템들(20, 26, 28, 34) 중의 어떤 것은 상기 유사 디스플레이 메타데이터(16)에 기초한 비디오 데이터(11)를 처리할 수 있다.
상기 서브-프레임 메타데이터(15)의 목표 디스플레이 메타데이터(18)는 목적 비디오 디스플레이(destination video display)로 직접적으로 방향지어지는 비디오 데이터를 만들어 내도록 상기 인코딩된 소스 비디오(12), 상기 비가공 소스 비디오(14), 상기 변경된 영상비/해상도 비디오, 또는 상기 서브-프레임 처리 비디오(17)를 처리하기 위해 사용될 수 있다. 예를 들면, 비디오 플레이어(34)는 상기 비디오 플레이어 시스템(34)의 비디오 디스플레이에 직접적으로 상응하는 비디오를 만들어 내기 위해 상기 목표 디스플레이 메타데이터(18)에 기초한 상기 인코딩된 소스 비디오(12)를 처리할 수 있다. 이 프로세싱에 의해 만들어진 비디오 데이터는 비디오 플레이어(34)의 비디오 디스플레이에 정확하게(exectly) 또는 실질적으로(substantially) 일치하는(correspond to) 영상비, 해상도, 및 다른 비디오 특성들을 가질 것이다.
상기 이동 가능한 스토리지 미디어(10)의 DRM/빌링 데이터(19)는 비디오 플레이어 시스템, 예를 들면, 비디오 플레이어 시스템(20)이 상기 비디오 데이터(11)를 관람/사용(view/use)할 및/또는 상기 서브-프레임 메타데이터(15)를 사용할 권한들(rights)을 갖는 것을 보증(ensure)하기 위해 사용된다. 도 2 및 3을 참조하여 상응하는 비디오 플레이어, 예를 들면, 비디오 플레이어(26)을 통하여 상기 DRM/빌링 데이터(19)의 사용시, 상기 비디오 플레이어(26)는 상기 비디오 플레이어 시스템(26)이 상기 비디오 데이터(11) 및/또는 상기 서브-프레임 메타데이터(15)를 사용할 권한들을 갖는지를 먼저 결정하기 위해 DRM/빌링 서버(224)와 상호작용할 수 있다. 다음으로, 상기 스토리지 미디어(10)에 포함된 데이터의 사용을 위하여 구매자(subscriber)가 지불하는 것을 보증하기 위해, 상기 비디오 플레이어(26)는, 상기 DRM/빌링 데이터(19)를 사용하여, 상기 DRM/빌링 서버(224)와 협력(cooperation)하여 빌링 동작들(billing operations)을 더 구현(implement)할 수 있다.
상기 스토리지 미디어(10)의 비가공 오디오 데이터(102)는 상기 비디오 데이터에 상응할 수 있다. 상기 비가공 오디오 데이터(102)는 상기 비디오 플레이어 시스템들(20, 26, 28, 및 34) 중의 어떤 것에 의해 사용될 수 있는 오디오 포맷으로 저장된다. 예를 들면, 상기 비가공 오디오 데이터(10)는 상기 비디오 플레이어 시스템들(20, 26, 28, 또는 34) 중의 어떤 것은, 사용자를 위한 서라운드 사운드 프리젠테이션(surround sound presentation)을 만들어 내기 위해 사용할 수 있는 디지털 포맷으로 저장될 수 있다. 이와 달리, 상기 비 가공 오디오 데이터(102)는 다 중 포맷들을 포함할 수 있고, 그 중의 하나는 그것의 오디오 재생 특성들에 기초한 비디오 플레이어 시스템(20, 26, 34, 또는 28)에 의해 선택될 수 있다.
오디오 메타데이터(104)는 서브-프레임 메타데이터(15)를 사용하여 상기 비디오 데이터(11)의 서브-프레임 프로세싱(sub-frame processing)과 양립하는(consistent with) 비디오 플레이어 시스템(20, 26, 28, 또는 34)에 의해 사용된다. 여기에서, 더 설명되는 바와 같이, 서브-프레임 프로세싱 동작들은 상기 비디오 데이터(11)의 비디오 프레임들의 시퀀스를 변경(alter)한다. 사용자에게 제공되는 오디오 트랙(audio track)은 상기 처리된 비디오에 상응한다는 것을 보증하기 위해, 오디오 메타데이터(104)는 상기 처리된 비디오에 상응하는 오디오를 만들어 내도록 비디오 플레이어 시스템(20, 26, 28, 또는 34)에 의해 사용된다. 상기 오디오 메타데이터(104)는 일반적으로 상기 서브-프레임 메타데이터(15)에 상응한다.
도시된 바와 같이, 본 발명의 비디오 플레이어 시스템들(20, 26, 28, 및 34)은 하나의 디바이스 내에 포함될 수 있거나 다중의 디바이스들 사이에서 분배도리 수 있다. 본 발명의 비디오 플레이어 시스템이 하나의 디바이스 내에 포함될 수 있는 방식은 비디오 플레이어들(26 및 34)에 의해 보여진다. 본 발명의 비디오 플레이어 시스템이 다중의 디바이스들 내에 분배되는 방식은 비디오 플레이어시스템들(20 및 28)에 의해 보여진다. 비디오 플레이어 시스템(20)은 비디오 플레이어(22) 및 비디오 디스플레이 디바이스(24)를 포함한다. 비디오 플레이어 시스템(28)은 비디오 플레이어(32) 및 비디오 디스플레이 디바이스(30)를 포함한다.
도 1의 비디오 플레이어 시스템들의 기능성은 일반적으로 세 가지 유형의 기 능성들을 포함한다. 기능성의 제1 유형은 다중-모드(multi-mode) 비디오 회로 및 애플리케이션(MC&A) 기능성이다. 상기 MC&A 기능성은 제1 모드 및 제2 모드 중 어느 하나 또는 둘다에서 동작할 수 있다. 상기 MC&A 기능성의 동작의 제1 모드에서, 예를 들면, 상기 비디오 디스플레이 디바이스(30)는 통신 링크(도 2를 참조하여 더 설명되는)를 통하여 또는 DVD와 같은 스토리지 매체(10)를 통하여 소스 비디오(11) 및 메타데이터를 수신한다. 상기 MC&A 기능성의 동작의 제1 모드에서, 상기 비디오 디스플레이 디바이스(30)는 비디오의 디스플레이로 귀결되는 프로세싱 및 재생 동작들을 위하여 상기 소스 비디오(11) 및 상기 메타데이터(15)를 사용한다.
비디오 디스플레이 디바이스(30)에 의해 수신되는 소스 비디오(11)는 인코딩된 소스 비디오(12) 또는 비가공 소스 비디오(14)일 수 있다. 상기 메타데이터(15)는 유사 디스플레이 메타데이터(16) 또는 목표 디스플레이 메타데이터(18)일 수 있다. 일반적으로, 인코딩된 소스 비디오(12) 및 비가공 소스 비디오(14)는 전자는 인코딩되는 반면 후자는 인코딩되지 않는 유사 내용을 가질 수 있다. 일반적으로, 소스 비디오(11)는 비디오 카메라에 의해 캡쳐될 수 있도록 비디오 데이터의 풀-프레임들의 시퀀스를 포함한다. 메타데이터(15)는 목표 비디오 플레이어의 목표 비디오 디스플레이 상에서 재생하기 위해 특별히 비디오를 만들어 내도록 비디오 데이터의 풀 프레임의 시퀀스를 수정하기 위해 비디오 프로세싱 동작들에서 사용되는 부가 정보이다. 메타데이터(15)가 생성되는 방식 및 상기 소스 비디오(11)와의 관계는 도 4 내지 도 9a를 참조하여 더 설명될 것이다.
상기 MC&A 제 모드 동작들로써, 비디오 디스플레이 디바이스(30)는 그것의 비디오 디스플레이를 위하여 출력을 만들어 내기 위해 공동으로(in combination) 상기 소스 비디오(11) 및 메타데이터(15)를 사용한다. 일반적으로 유사 디스플레이 메타데이터(16)는 목표된 비디오 플레이들의 클래스(class) 또는 그룹으로 가공된 특징들(attributes)을 갖는다. 이 클래스 또는 그룹 내에서의 목표 비디오 플레이어들은 유사 스크린 해상도, 유사 영상비들, 또는 비디오 플레이어들의 클래스의 비디오 디스플레이들 상에의 프리젠테이션을 위하여 수정된 소스 비디오를 만들어 내도록 소스 비디오를 수정하도록 잘 돕는 다른 유사 특성들을 가질 수 있다. 이와 달리, 상기 목표 디스플레이 메타데이터(18)는 비디오 플레이어의 메이크/모델/타입에 독특한 정보를 포함한다. 비디오 플레이어, 예를 들면, 비디오 디스플레이 디바이스(30)가 상기 소스 비디오(11)의 수정을 위하여 상기 목표 디스플레이 메타데이터(18)를 사용할 때, 상기 수정된 비디오는 특별히 상기 비디오 디스플레이 디바이스(30)의 비디오 디스플레이로 가공된다.
본 발명의 비디오 플레이어 시스템의 MC&A 기능성의 동작의 제2 모들에서, 상기 비디오 디스플레이 디바이스(30)는 다른 비디오 플레이어(32)에 의해 메타데이터(15)를 미리 사용함으로써 처리된 비디오(인코딩된 비디오 또는 비가공 비디오)를 수신하고 디스플레이한다. 예를 들면, 상기 비디오 플레이어 시스템(28)으로써, 비디오 플레이어(32)는 비디오 디스플레이 디바이스(30)로 출력을 만들어 내기 위해 상기 메타데이터(15)를 사용하여 상기 소스 비디오(11)를 미리 생성한다. 상기 MC&A 기능성의 동작의 이러한 제2 모드로써, 상기 비디오 디스플레이 디바이스(30)는 프리젠테이션을 위하여 비디오 플레이어(32)의 출력을 수신하고 그러한 출력을 그의 비디오 디스플레이 상에 제공한다. 상기 비디오 디스플레이 디바이스(30)의 MC&A 기능성은 상기 비디오 플레이어(32)로부터 숫니된 비디오 데이터를 더 수정할 수 있다.
도 1의 비디오 플레이어 시스템들(26 및/또는 34) 중의 하나 또는 그 이상에 의해 사용된 다른 기능성은 집적 비디오 회로 및 애플리케이션 기능성(Integrated Video Circuitry and Application functionality;IC&A)를 포함한다. 도 1의 비디오 플레이어 시스템들(26 및 34)의 IC&A 기능성은 예를 들어, 상응하는 비디오 플레이어(34) 상에의 디스플레이를 위하여 비디오 출력을 만들어 내기 위해 소스 비디오(11) 및 메타데이터(15)를 수신하고 상기 소스 비디오(11) 및 상기 메타데이터(15)를 처리한다. 상기 비디오 플레이어 시스템들(34 및 36) 각각은 상응하는 통신 링크들을 통하여 상기 소스 비디오(11) 및 상기 메타데이터(15)를 수신하고 그의 IC&A 기능성은 상기 상응하는 비디오 플레이어 시스템들(26 및 34)의 비디오 디스플레이 상에의 디스플레이를 위하여 비디오를 만들어 내도록 상기 소스 비디오(11) 및 메타데이터(15)를 처리한다.
도 1의 다른 양상에 따라, 비디오 플레이어 시스템은 분산형 비디오 회로 및 애플리케이션(Distributed video Circuitry and Application;DC&C) 기능성을 포함할 수 있다. 비디오 플레이어(32)에 연관된(associated) DC&A 기능성은 소스 비디오(11) 및 메타데이터(15)를 만들어 내고 상기 메타데이터(15)와 함께(in conjunction with) 상기 소스 비디오(11)의 프로세싱에 의해 서브-프레임 비디오 데이터를 만들어 낸다. 비디오 플레이어들(22 및 32)의 DC&A 기능성은 각각 상응하는 비디오 디스플레이 디바이스들(24 및 30)로 출력들을 제공한다. 그들의 각각의 기능성을 사용함에 의해, 상기 상응하는 비디오 플레이어들(24 및 30)은 상기 수신된 비디오 입력들을 더 수정할 수 있고 그 후 그들 각각의 디스플레이들 상에 비디오를 제공할 수 있다.
도 1의 비디오 플레이어 시스템들의 특정 구현 및 특정 동작들에 의존하여, 그들의 기능들은 다중의 디바이스들 사이에서 분산될 수 있다. 예를 들면, 비디오 플레이어 시스템(20), 비디오 플레이어(22), 및 비디오 디스플레이 디바이스(24) 모두는 DC&A 기능성을 포함한다. 상기 분산형 DCA 기능성은 어느 하나 또는 둘다 수행할 수 있는 프로세싱 임무들을 공유하기 위해 다양한 동작들로 구성될 수 있다. 나아가, 상기 비디오 플레이어 시스템(28), 비디오 플레이어(32), 및 비디오 디스플레이 디바이스(30)는 프로세싱 기능들을 공유하고 때때로 상기 비디오 플레이어 시스템(28)의 특정 현 구성(configuration)에 기초하여 변할 수 있다.
도 2는 본 발명의 실시예들에 따라 구성된 비디오 플레이어 시스템, 스토리지 미디어, 및 복수의 분배 서버들을 보여주는 블록 다이어그램이다. 도 2에 보여지는 비디오 플레이어 시스템(202)은 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어의 조합으로 구현되는 기능적 구성요소들을 포함한다. 비디오 플레이어 시스템(202)은 목표 디스플레이(204), 디코더(206), 메타데이터 프로세싱 회로(208), 목표 디스플레이 가공 회로(210), 디지털 권한 회로(214), 및 빌링 회로(216)를 포함한다. 상기 비디오 플레이어 시스템(202)은 인코딩된 소스 비디오(12) 및 비가공 소스 비디오(14) 중의 하나 또는 둘다를 포함하는 소스 비디오(11)를 추출(extract)한다. 상기 비디오 플레이어 시스템(202)은 하나 또는 그 이상의 유사 디스플레이 메타데이터(15) 및 목표 디스플레이 메타데이터(18)를 포함하는 메타데이터(15)를 수신한다. 일반적으로, 비디오 플레이어 시스템(202)의 목표 디스플레이(204)는 메타데이터 프로세싱 회로(208) 또는 목표 디스플레이 가공 회로(48)에 의해 만들어지는 출력을 디스플레이한다.도 2의 스토리지 미디어(10)는 도 1의 스토리지 미디어(10)와 동일하거나 실질적으로 대응되고, 상응하는 미디어 드라이브에서의 비디오 플레이어 시스템(202)에 의해 받아들여질 수 있고 및/또는 하나 또는 그 이상의 통신 링크들을 통하여 상기 비디오 플레이어 시스템(202)에 통신상으로 결합될 수 있다. 상기 비디오 플레이어 시스템(202)의 미디어 드라이브는 상기 비디오 플레이어 시스템(202)에 내부적(internal)일 수 있다. 다르게는, 상기 미디어 드라이브는 통신 링크를 통하여 비디오 플레이어 시스템(202)과 통신하는 외부(external) 미디어일 수 있다. 스토리지 미디어(10)는 단순히 비디오 플레이어 시스템(202)으로의 유니버셜 직렬 버스(universal serial bus;USB) 통신 인터페이스를 갖는 스토리지 디바이스일 수 있다. 나아가, 상기 스토리지 미디어910)는 비디오 플레이어 시스템(202)에 의해 무선 인터페이스를 통해 억세스될 수 있다. 어떤 경우에, 비디오 플레이어 시스템(202)은 상기 비디오(11), 상기 서브-프레임 메타데이터(15), 상기 DRM/빌링 데이터(19), 상기 비가공 오디오 데이터(102), 및 상기 스토리지 미디어(10)의 오디오 메타데이터 중의 어떤 것에 억세스하도록 동작할 수 있다.
디코더(206)는 비디오 데이터의 풀 프레임들의 시퀀스를 만들어 내기 위해 이코딩된 소스 비디오(12)를 수신하고 디코딩하도록 동작할 수 있다. 메타데이터 프로세싱 회로(208)는 디코더(44)로부터 수신된 비디오 데이터의 풀 프레임의 시퀀스를 수신하도록 동작할 수 있다. 다르게는, 상기 메타데이터 프로세싱 회로(208)는 비가공 소스 비디오(14)로서 직접적으로 비디오 데이터의 풀 프레임들의 시퀀스를 수신하도록 동작할 수 있다. 어느 하나의 경우에서, 상기 메타데이터 프로세싱 회로(208)는 메타데이터(15)(유사 디스플레이 메타데이터(16) 또는 목표 디스플레이 메타데이터(18))에 기초한 비디오 데이터의 풀 프레임들의 시퀀스를 만들어 내도록 동작할 수 있다. 일반적으로, 상기 메타데이터(15)에 기초하여, 상기 메타데이터 프로세싱 회로(208)는 풀 프레임 및 비디오 데이터의 시퀀스로부터 비디오 데이터의 서브-프레임들의 복수의 시퀀스들을 생성하도록 동작할 수 있다. 일 동작에서, 비디오 데이터의 서브-프레임들의 복수의 시퀀스들 중의 제1 시퀀스는 비디오 데이터의 서브-프레임들의 복수의 시퀀스들의 제2 시퀀스의 그것과는 다른 비디오 데이터의 풀 프레임의 시퀀스 내에서의 중심 점(center point)을 갖는다. 이들 개념들은 도 5 내지 9를 차조하여 더 설명될 것이다.
상기 비디오 플레이어 시스템(202)은 비디오 분배 서버(218), 메타데이터 분배 서버(220), 결합된 메타데이터 및 비디오 분배 서버(222), 및 DRM/빌링 서버(224)에 통신상으로 결합된다. 상기 서버들(218, 220, 222, 및 224)의 구조 및 동작들은 여기에서와 동일자로 출원되고, 위에서 참조된, 서브-프레임 메타데이터 분배 서버(SUB-FRAME METADATA DISTRIBUTION SERVER)라고 명칭이 부여된, 함께 계류중인(co-pending) 특허 출원서를 참조하여 더 설명된다.
일반적으로, 비디오 플레이어 시스템(202)은 스토리지 미디어(10)로부터 비디오(11) 및/또는 서브-프레임 데이터(15)를 억세스한다. 그러나, 스토리지 미디어(10)와 그의 상호작용에 기초하여, 상기 비디오 플레이어 시스템(202)은 상기 비디오 플레이어 시스템(202)의 목표 디스플레이(204)로 더 가공된 더 나은 버젼들(versions)이 서버들(218, 220, 또는 222)에서 이용가능한가를 결정할 수 있다. 이 동작의 한 특정 예에서, 스토리지 미디어(10)로부터 추출된 정보에 기초한, 비디오 플레이어 시스템(202)은 목표 디스플레이(204)에 정확히 상응하는 서브-프레임 처리된(sub-frame processed) 비디오를 수신하기 위해 비디오 분배 서버(218)를 억세스할 수 있다. 나아가, 다른 동작에서, 스토리지 미디어(10)와의 상호 작용 및 그 상에 포함된 데이터의 억세스에 기초한 비디오 플레이어 시스템(202)은 목표 디스플레이(204)에 상응하는 목표 디스플레이 메타데이터가 메타데이터 분배 서버(220)로부터 이용가능한지를 결정한다. 상기 비디오 플레이어 시스템(202)은 상기 스토리지 미디어(10)의 DRM/빌링 데이터(19)에 기초한 DRM/빌링 동작들을 수행하기 때문에, 비디오 플레이어 시스템(202)은 그로부터 목표 디스플레이 메타데이터를 수신하기 위해 메타데이터 분배 서버(220)로의 억세스를 갖는다. 유사 동작들은 상기 결합된 메타데이터 및 비디오 분배 서버(222)와 함께 수행될 수 있다. 비디오 플레이어 시스템(202)은 상기 DRM/빌링 서버(224)와 협력하여 그리고 스토리지 미디어(10)로부터 읽힌 DRM/빌링 데이터(19)에 기초한 그의 DRM/빌링 동작들을 수행할 수 있다.
상기 목표 디스플레이 가공 회로(210)는 출력을 생성하기 위해 비디오 데이 터의 서브-프레임들의 복수의 시퀀스들을 수정하도록 목표 디스플레이 파라미터들(212)과 같은 추가 정보(supplemental information)에 따라 후-프로세싱 동작들(post-processing operations)을 수행할 수 있다. 상기 목표 디스플레이 가공 회로(210)의 출력은 그 후 목표 디스플레이(42) 상에 디스플레이된다. 상기 목표 디스플레이 가공 회로(210)가 비디오 데이터의 서브-프레임들의 복수의 시퀀스들의 후-프로세싱을 수행하기 위해 사용되지 않을 때, 메타데이터 프로세싱(208)의 출력은 상기 목표 디스플레이(42)에 직접적으로 제공된다.
상기 비디오 플레이어 시스템(202)의 디지털 권한 회로(214)는 상기 비디오 플레이어 시스템(202)이 소스 비디오(11) 및/또는 메타데이터(15)를 사용/수정할 권한들 및/또는 상기 목표 디스플레이(42) 에 거기에서(thereupon) 기초한 디스플레이를 위한 비디오를 만들어 낼 권한들을 가지는지 아닌지를 결정하기 위해 사용된다. 상기 디지털 권한 회로(214)는 그러한 디지털 권한들이 존재하는지를 결정함에 있어 원격 서버(remote server) 또는 다른 교환 시스템들(commuting systems)과 상호 작용할 수 있다. 그러나, 상기 디지털 권한 회로(214)는 상기 비디오 플레이어 시스템(202)이 그러한 것을 처리(operate upon)할 권한들을 갖는지를 결정하기 위해 단순히 상기 소스 비디오(11)의 부분들 및/또는 상기 메타데이터(15)에서 보일 수 있다. 상기 비디오 플레이어 시스템(202)의 빌링 회로(216)는 국부적으로(locally) 빌링 기록들을 만들어 내고 원격으로(remotely) 상기 소스 비디오(11) 및/또는 상기 메타데이터(15)의 사용을 위하여 빌링을 야기하도록 동작한다. 상기 빌링 회로(216)는 그러한 빌링 기록 생성을 시작할 때, 원격 서버 또는 서버들과 함께 동작할 수 있다.
도 3은 본 발명의 실시예들에 따른 복수의 비디오 플레이어 시스템들, 복수의 분배 서버들, 및 부가적 서버들을 포함하는 통신 기반구조를 보여주는 시스템 다이어그램이다. 일반적으로, 상기 소스 비디오(11) 및 상기 메타데이터(15)는 통신 링크들/네트워크들(304) 또는 스토리지 미디어(10)를 통하여 비디오 플레이어 시스템들(308, 310, 320, 및 314)로 전송된다. 상기 통신 링크들/네트워크들(304)은 인터넷, 그거리 통신망들(LANs), 무선 근거리 통신망들(WLANs), 광역 통신망들(WANs), 전화망, 케이블 모뎀 망들, 위상 통신 망들, 와이 맥스(WiMAX;Worldwide Interperability for Microwave Access) 망들, 및/또는 다른 유선 및/또는 무선 통신 링크들 중 하나 또는 그 이상을 포함할 수 있다.
상기 소스 비디오(11) 및/또는 메타데이터(15)가 상기 스토리지 미디어(10)에 포함될 때, 상응하는 비디오 플레이어 시스템(308, 310, 312, 또는 314)는 미디어 드라이브 내에서 상기 스토리지 미디어(10)를 받아들이고 미디어 드라이브를 사용하여 상기 미디어(10)를 읽는다. 보여지는 바와 같이, 도 1을 참조하여 앞서 설명된 회로 및 애플리케이션 기능성 DC&A, MC&A, 및 IC&A의 다양한 유형들은 상기 비디오 플레이어 시스템들(308, 310, 312, 및 314)에 의해 구현된다. 도 10 내지 16을 참조하여 더 설명되는 바와 같이, 이들 회로들/애플리케이션들의 기능성은 다중의 디바이스들에 걸쳐(across) 분산될 수 있다.
상기 비디오 플레이어 시스템들(308, 310, 312, 또는 314) 중의 어떤 것은 상기 스토리지 미디어(10)로부터 모든 요구되는 비디오 데이터(11) 및 서브-프레임 메타데이터(15)를 수신할 수 있다. 다르게는, 요구되는 비디오 데이터의 단지 일부분(portion)은 스토리지 미디어(10)로부터 수신된다. 그러한 경우에, 비디오 플레이어 시스템, 예를 들면, 비디오 플레이어 시스템(308)은 스토리지 미디어(10) 상에서 이용할 수 없는 비디오 데이터 또는 메타데이터를 수신하기 위해 메타데이터 분배 서버(220), 비디오 분배 서버(218), 및/또는 결합된 메타데이터 및 비디오 분배 서버(222) 중의 어떤 것을 억세스할 수 있다. 그러나, 이들 동작들로써, 비디오 플레이어(308)는 먼저 스토리지 미디어(10)에 억세스할 것이고, 그 후 스토리지 미디어(10)에서 이용할 수 없는 비디오 데이터 또는 메타데이터를 위하여 상기 서버들(218, 220, 또는 222) 중의 어느 하나를 억세스할지를 결정한다. 상기 비디오 플레이어(308)는 그것이 재생을 위하여 상기 스토리지 미디어(10)에 뿐만 아니라 상기 서버들(218, 220, 또는 222) 중의 어떤 것에의 억세스를 갖는지를 결정하기 위해 DRM/빌링 서버(224)와 상호 작용할 것이다.
상기 비디오 플레이어 시스템이 결합된 비디오 디스플레이를 서비스(service)할 때, 상기 비디오 플레이어 시스템, 즉, 비디오 플레이어 시스템(308)은 그것의 서비스된 비디오 디스플레이(309)에 관해 부가적인 정보를 검색(retrieve)하기 위해 플레이어 정보 서버(316)를 억세스할 수 있다. 상기 플레이어 정보 서버(316)의 억세스에 기초하여, 서비스된 비디오 디스플레이(309)의 메이크/모델 또는 일련 번호에 기초하여, 상기 비디오 플레이어 시스템(308)은 그것이 그의 서브-프레임 메타데이터 프로세싱 동작들 및/또는 비디오 데이터 가공 동작들에서 사용할 수 있는 목표 디스플레이 정보를 수신한다. 이들 모든 동작들은 도 4 내지 18을 참조하여 여기에서 더 설명될 것이다.
도 4는 본 발명의 일 실시예에 따라 구성된 비디오 캡쳐/서브-프레임 메타데이터 생성 시스템을 보여주는 시스템 다이어그램이다. 도 4의 비디오 캡쳐/서브-프레임 메타데이터 시스템은 카메라(110) 및 SMG 시스템(120)을 포함한다. 상기 비디오 카메라(110)는 신(102)에 관한 비디오 데이터의 풀 프레임들의 원 시퀀스를 캡쳐한다. 상기 비디오 카메라(110)는 또한 마이크로폰들(111A 및 111B)을 통하여 오디오를 캡쳐할 수 있다. 상기 비디오 카메라(110)는 콘솔(console, 140)에 비디오 데이터의 풀 프레임들을 제공할 수 있고 상기 SMG 시스템(120)을 실행할 수 있다. 상기 비디오 카메라(110)의 SMG 시스템(120) 또는 콘솔(140)은 사용자 입력 디바이스(121 또는 123)를 통하여 사용자로부터 입력을 수신한다. 이러한 사용자 입력에 기초하여, 상기 SMG 시스템(120)은 비디오 데이터의 풀 프레임들의 시퀀스를 또한 보여주는 비디오 디스플레이 상에 하나 또는 그 이상의 서브 프레임들을 디스플레이한다. 사용자 입력 및 부가적 정보로부터 생성된 서브 프레임들에 기초하여, 상기 SMG 시스템(120)은 메타데이터(15)를 만든다. 상기 비디오 캡쳐/서브 프레임 메타데이터 생성 시스템(100)의 비디오 데이터 출력은 하나 또는 그 이상의 상기 인코딩된 소스 비디오(12) 또는 비가공 소스 비디오(14)이다. 상기 비디오 캡쳐/서브 프레임 메타데이터 생성(100)은 또한 유사 디스플레이 메타데이터(16) 및/또는 목표 디스플레이 메타데이터(18)일 수 있는 메타데이터(15)를 또한 출력한다. 상기 비디오 캡쳐/서브-프레임 메타데이터 생성 시스템(100)은 또한 목표 디스플레이 정보(20)를 출력할 수 있다.
상기 비디오 카메라(110)에 의해 캡쳐되는 원 비디오 프레임들의 시퀀스는 신(102)이다. 상기 신(102)은 비디오 카메라(110)에 의해 캡쳐되는 어떤 유형의 신이 될 수 있다. 예를 들면, 상기 신(102)은 매우 상세하게 상대적으로 큰 캡쳐(capture)를 갖는 경치의 신일 수 있다. 다르게는, 상기 신(102)은 서로 간에 대화(dialog)를 갖는 배우들의 헤드 샷들(head shots)일 수 있다. 나아가, 상기 신(102)은 공을 쫓는 개의 액션 신일 수 있다. 상기 신(102) 유형은 전형적으로 때때로 원 비디오 프레임들의 캡쳐동안 변한다.
이전의(prior) 비디오 캡쳐 시스템들로써, 사용자는 상기 카메라(110)를 "대형 스크린" 포맷을 위하여 최적화된 상기 신(102)의 원 비디오 프레임들을 캡쳐하도록 조작한다(operate). 본 발명으로써, 상기 원 비디오 프레임들은 각각의 비디오 디스플레이들을 갖는 목표 비디오 플레이어들에 의한 최종의 프리젠테이션을 위하여 이후에 변환될 수 있다. 상기 서브-프레임 메타데이터 생성 시스템(120)이 시간이 흐르면서(over time) 다른 유형들의 신들을 캡쳐하기 때문에, 상기 캡쳐된 비디오가 상기 목표 비디오 플레이어들 상에 보이기 위한 서브-프레임들을 만들도록 변환되는 방식은 또한 시간이 흐르면서(over time) 변할 수 있다. 상기 "대형 스크린" 포맷은 더 작은 스크린 유형들로 늘 잘 변환(translate)되는 것은 아니다. 그러므로, 본 발명의 서브-프레임 메타데이터 생성 시스템(120)은, 더 작은 포맷들로 변환할 때 목표 비디오 플레이어들의 하나 또는 그 이상의 비디오 디스플레이들 상에의 디스플레이를 위해 고 품질의 비디오 서브-프레임들을 제공하는 원 비디오 프레임들의 캡쳐를 지원한다.
상기 인코딩된 소스 비디오(12)는 이산 코사인 변환(discrete cosine transform;DCT)에 기초한 인코딩/압축 포맷들(예를 들면, MPEG-1, MPEG-2, HD용 MPEG-2-enhanced, MPEG-4 AVC, H.261 및 H.263) 중의 하나 또는 그 이상을 사용하여 인코딩될 수 있고, 모션 벡터들(motion vectors)은 전형적으로 존재하는 인터-프레임(inter-frame) 또는 인터-필드(inter-field) 모션을 참작함에 의해 이웃하는 프레임들 또는 필드들로부터 프레임 또는 필드에 기초한 예측들(field-based predictions)을 구성(construct)하기 위해 사용된다. 한 예로서, MPEG 코딩 표준을 사용할 때, 원 비디오 프레임들의 시퀀스가 세 개의 다른 유형의 프레임들의 시퀀스, 즉 "I" 프레임들, "B" 프레임들 및 "P" 프레임들로 인코딩된다. "I" 프레임들은 내부 부호화(intra-coded)인 반면, "B" 프레임들 및 "P" 프레임들은 상호 부호화(intra-coded)이다. 그리하여, I-프레임들은 독립적, 즉 그들은 다른 어떤 프레임에 관계없이 재구성될 수 있는 반면, P-프레임들 및 B-프레임들은 종속적, 즉 그들은 재구성을 위한 다른 프레임에 종속적이다. 특히, P-프레임들은 마지막 I-프레임 또는 P-프레임으로부터 앞 방향으로(forward) 예측되고, B-프레임들은 마지막/다음의 I-프레임으로부터 앞 방향으로(forward)도 예측되고 뒷 방향으로(backward)도 예측된다. 상기 IPB 프레임들의 시퀀스는 N이 통상적으로 8로 설정되는 "I", "P" 또는 "B" 프레임에서의 NxN 픽셀 데이터 블록들을 양자화(quantization)가 더 쉽게 수행되는 DCT 도메인(domain)으로 변환하기 위해 DCT를 사용하여 압축된다. 런-길이 인코딩(run-length encoding) 및 엔트로피 인코딩(entropy encoding)은 그 후 상기 원 비압축 영상 데이터(original uncompressed video data)보다도 상당히 감소된 비트 레이트(bit rate)를 갖는 압촉된 비트스트림(bitstream)을 만들어 내기 위해 양자화된(quantized) 비트스트림(bitstream)에 적용된다.
도 5는 대표적인 원 비디오 프레임들 및 상응하는 서브-프레임들을 보여주는 다이어그램이다. 보여지는 바와 같이, 상기 비디오 디스플레이(400)는 도 4의 신(102)을 나타내는 원 비디오 프레임들의 시퀀스를 디스플레이하는 표시 영역을 갖는다. 도 5의 실시예에에 따라, 상기 SMG 시스템(120)은, 서브-프레임(402)에 부가하여, 원 비디오 프레임들의 시퀀스에 연관(association)된 상기 비디오 디스플레이(400) 상에 부가적인 서브-프레임들(404 및 406)을 제공함으로써, 사용자 입력을 나타내는 부가적 신호들에 응답하여 더 동작할 수 있다. 이들 서브-프레임들(402) 각각은 복수의 목표 비디오 디스플레이들 중의 하나에 상응하는 영상비 및 크기를 가질 것이다. 나아가, 상기 SMG 시스템(120)은 이들 서브-프레임들(402, 404, 및 406)의 각각에 연관된(associated) 메타데이터(15)를 만들어 낸다. 상기 복수의 서브-프레임들(402, 404, 및 406)과 연관된, 상기 서브-프레임 메타데이터 생성 시스템(120)이 생성하는 상기 메타데이터(15)는 상응하는 목표 비디오 디스플레이가 그의 비디오 디스플레이 상에 상응하는 프리젠테이션을 만들어 내도록 할 수 있다. 도 4의 예에서, 상기 SMG 시스템(120)은 복수의 서브-프레임들(402, 404, 및 406) 각각이 디스플레이되는 하나의 비디오 디스플레이(400)을 포함한다. 다른 실시예에서, 상기 비디오 프로세싱 시스템에 의해 생성되는 상기 복수의 서브-프레임들 각각은 상응하는 목표 비디오 플레이어 상에 독립적으로 디스플레이될 수 있다.
도 5의 예로써, 서브-프레임들의 상기 세트 중 서브-프레임들(404 및 406) 중의 적어도 두 개는 원 비디오 프레임들의 시퀀스의 하나의 프레임에 상응할 수 있다. 그리하여, 예를 들어, 특정 목표 비디오 플레이어로써, 서브-프레임들(404 및 406) 및 거기에 포함된 관련 비디오 정보(related video information)는 다른 시간들에 하나의 목표 비디오 플레이어 상에 제공될 수 있다. 도 5의 예로써, 상기 목표 비디오 플레이어에 의해 제공되는 비디오의 제1 부분(portion)은 서브-프레임(404)에서 포함된 것과 같은 공을 쫓는 개를 보일 수 있고, 반면에 상기 목표 비디오 플레이어에 의해 제공되는 비디오의 제2 부분은 서브-프레임(406)에서 보여지는 바와 같이 튀어오르는 공을 보인다. 그리하여, 이러한 예로써, 때 맞춰 인접한 목표 비디오 플레이어의 비디오 시퀀스들은 원 비디오 프레임들의 하나의 시퀀스로부터 만들어진다.
나아가, 도 5의 예로써, 상기 서브-프레임들의 세트 중의 적어도 두 개의 서브-프레임들은 공간상의 위치(spatial position)가 원 비디오 프레임들의 시퀀스 상에서(over) 변하는 객체(object)를 포함할 수 있다. 그러한 프레임들에서, 상기 개를 확인(identify)하는 서브-프레임(404)의 공간상의 위치는 상기 튀어오르는 공을 나타내는 상기 서브-프레임(406)에 대하여 원 비디오 프레임들 상에서 변할 것이다. 나아가, 도 5의 실시예로써, 서브-프레임들의 세트 중 두 개의 서브-프레임들은 원 비디오 프레임들의 시퀀스 중의 적어도 두 개의 다른 프레임들에 상응할 수 있다. 이러한 예로써, 서브-프레임들(404 및 406)은 상기 비디오 디스플레이(400) 상에 디스플레이되는 원 비디오 프레임들의 시퀀스 중의 다른 프레임들에 상응할 수 있다. 이러한 예로써, 제1 주기 시간 동안, 서브-프레임(404)은 주기 시간을 넘어 상기 개의 이미지를 디스플레이하기 위해 선택된다. 나아가, 이러한 예로써, 서브-프레임(406)은 상기 튀어오르는 공을 보이기 위한 다른 주기 시간에 상응할 것이다. 이러한 예로써, 서브-프레임들(404 및 406)의 세트 중의 적어도 일 부분은 원 비디오 프레임들의 시퀀스에 교차하여(across) 묘사된 신의 서브-신(sub-scene)에 상응할 것이다. 이러한 묘사된 시퀀스는 완전한 디스플레이(400) 또는 서브-프레임(402)을 교차하여 묘사될 수 있다.
도 6은 서브-프레임들을 만들기 위한 비디오 편집 툴들(video editing tools)을 포함하는 그래픽 사용자 인터페이스를 제공하는 비디오 프로세싱 시스템 디스플레이의 일 실시예를 보여주는 다이어그램이다. 상기 비디오 프로세싱 디스플레이(502) 상에서, 현 프레임(504) 및 상기 현 프레임(504)의 서브-프레임(506)이 디스플레이된다. 상기 서브-프레임(506)은 사용자에 의해 확인된 대상 영역 내에서 비디오 데이터를 포함한다. 상기 서브-프레임(506)이 확인되면, 상기 사용자는 상기 GUI(508)를 통하여 상기 사용자에게 제공되는 하나 또는 그 이상의 비디오 편집 툴들을 사용하여 상기 서브-프레임(506)을 편집할 수 있다. 예를 들어, 도 6에 보여지는 바와 같이, 상기 사용자는 필터들(filters), 색 보정(color correction), 오버레이들(overlays), 또는 다른 편집 툴들을 클릭(click)하거나 그렇지 않으면 상기 GUI(508) 내에서 편집 툴들 중의 하나를 선택함에 의해 상기 서브-프레임(506)에 적용할 수 있다. 더구나, 상기 GUI(508)는 원 서브-프레임들의 시퀀스를 서브-프레임들의 시퀀스에 보이고 비교하기 위해 상기 사용자가 원 프레임들 및/또 는 서브-프레임들 사이에서 이동하도록 할 수 있다.
도 7은 대표적인 원 비디오 프레임들 및 상응하는 서브-프레임들을 보여주는 다이어그램이다. 도 7에서, 제1 신(602)은 원 비디오 프레임들(606)의 제1 시퀀스(604)에 교차하여 묘사되고 제2 신(608)은 원 비디오 프레임들(606)의 제2 시퀀스(610)에 교차하여 묘사된다. 그리하여, 각 신(602 및 608)은 원 비디오 프레임들(606)의 각각의 시퀀스(604 및 610)를 포함하고, 원 비디오 프레임들(606)의 상기 각각의 시퀀스(604 및 610)에서 상기 원 비디오 프레임들(606) 각각을 순차적으로 디스플레이함에 의해 보여진다.
그러나, 관람자의 인식 비디오 질(perceived video quality)을 감소함이 없이 작은 비디오 디스플레이 상에 상기 신들(602 및 608) 각각을 디스플레이하기 위해, 상기 신들(602 및 608) 각각은 개별적으로 디스플레이되는 서브-신들로 나눠질 수 있다. 예를 들면, 도 7에서 보여지는 바와 같이, 상기 제1 신(602) 내에서, 두 개의 서브-신들(612 및 614)이 있고, 상기 제2 신(608) 내에서, 하나의 서브 신(616)이 있다. 각 신(602 및 608)이 원 비디오 프레임들(606)의 각각의 시퀀스(604 및 610)를 순차적으로 디스플레이함에 의해 보여질 수 있는 것과 같이, 각 서브-신(612, 614, 및 616)은 서브-프레임들(618(618a, 618b, 및 618c))을 디스플레이함에 의해 또한 보여질 수 있다.
예를 들면, 원 비디오 프레임들의 상기 제1 시퀀스(604) 내에서의 상기 제1 프레임(606a)을 보면, 사용자는 두 개의 서브-프레임들(618a 및 618b)을 확인할 수 있고, 각각은 다른 서브-신(612 및 614)을 나타내는 비디오 데이터를 포함한다. 상 기 서브-신들(612 및 614)이 원 비디오 프레임들(606)의 상기 제1 시퀀스(604)의 처음부터끝까지(throughout) 계속된다고 가정하여, 상기 사용자는 원 비디오 프레임들(606)의 상기 제1 시퀀스(604)에서의 연속되는 원 비디오 프레임들(606a) 각각에서 각각의 서브-신(612 및 614)에 대해 하나씩인 두 개의 서브-프레임들(618a 및 618b)을 더 확인할 수 있다. 그 결과는 서브-프레임들(618a)의 제1 시퀀스(620)에서 상기 서브-프레임들(618a) 각각은 서브-신(612)을 나타내는 비디오 내용을 포함하는 서브-프레임들(618a)의 제1 시퀀스(620)이고, 서브-프레임들(618b)의 제2 시퀀스(630)에서 상기 서브-프레임들(618b) 각각은 서브-신(614)을 나타내는 비디오 내용을 포함하는 서브-프레임들(618b)의 제2 시퀀스(630)이다. 서브-프레임들(618a 및 618b)의 각 시퀀스(620)는 연속적으로 디스플레이될 수 있다. 예를 들면, 상기 제1 서브-신(612)에 상응하는 모든 서브-프레임들(618a)은 상기 제2 서브-신(614)에 상응하는 시퀀스(630)의 모든 서브-프레임들(618b)의 순차적인 디스플레이에 앞서 연속적으로 디스플레이될 수 있다. 이러한 방식으로, 상기 영화는 상기 신(602)의 논리적인 흐름을 유지하고 관람자에게 상기 신(602)에서 작은 상세한 부분들(small details)을 인식하도록 허용한다.
마찬가지로, 원 비디오 프레임들(606)의 상기 제2 시퀀스(610) 내에서의 상기 프레임(606b)을 살펴보면, 사용자는 서브-신(616)에 상응하는 서브-프레임(618c)을 확인할 수 있다. 다시, 원 비디오 프레임들(606)의 상기 제2 시퀀스(610)의 처음부터 끝까지 상기 서브-신(616)이 계속된다고 가정하면, 상기 사용자는 원 비디오 프레임들(606)의 상기 제2 시퀀스(610)에서의 상기 연속되는 원 비 디오 프레임들(606) 각각에서 상기 서브-신(616)을 포함하는 상기 서브-프레임(618c)을 더 확인할 수 있다. 그 결과는 서브-프레임들(618c)의 상기 시퀀스(640)에서의 상기 서브-프레임들(618c) 각각이 서브-신(616)을 나타내는 비디오 내용을 포함하는 서브-프레임들(618c)의 시퀀스(640)이다.
도 8은 서브-프레임들의 시퀀스를 위한 대표적인 서브-프레임 메타데이터를 보여주는 챠트이다. 도 8에서 보여지는 상기 서브-프레임 메타데이터(150) 내에서, 상기 서브-프레임들의 시퀀스(예를 들면, 디스플레이의 순서)를 지시하는 메타데이터(700)가 나열되어 있다. 예를 들면, 상기 나열된 메타데이터(700)는 서브-신들의 시퀀스와 각 서브-신을 위한 서브-프레임들의 시퀀스를 확인할 수 있다. 도 8에 도시된 예를 사용하면, 상기 나열된 메타데이터(700)는 각 그룹(720)이 특정 서브-신에 상응하는 서브-프레임 메타데이터(150)의 그룹들(720)로 나눠질 수 있다.
예를 들면, 상기 제1 그룹(720)에서, 서브-프레임들의 상기 제1 시퀀스(예를 들면, 시퀀스(620))에서의 첫번째 서브-프레임(예를 들면, 서브-프레임(618a))으로 시작하고, 상기 제1 시퀀스(620)에서의 각각의 부가적인 서브-프레임이 이에 뒤따른다. 도 8에서, 상기 제1 시퀀스에서의 첫번째 서브-프레임은 원 비디오 프레임 A의 서브-프레임 A로 표시되고, 상기 제1 시퀀스에서의 마지막 서브-프레임은 원 비디오 프레임 F의 서브-프레임 F로 표시된다. 상기 제1 시퀀스(620)에서의 마지막 서브-프레임이후에, 상기 나열된 메타데이터(700)는 상기 제2 그룹(720)으로 계속되고, 서브-프레임들의 제2 시퀀스(예를 들면, 시퀀스(630))에서의 첫번째 서브-프레임(예를 들면, 서브-프레임(618b))으로 시작하고 상기 제2 시퀀스(630)에서의 마 지막 서브-프레임으로 끝난다. 도 8에서, 상기 제2 시퀀스에서의 제1 서브-프레임은 원 비디오 프레임 A의 서브-프레임 G로 표시되고, 제2 시퀀스에서의 마지막 서브-프레임은 원 비디오 프레임의 서브-프레임 L로 표시된다. 최종적인 그룹(720)은 서브-프레임들의 제3 시퀀스(예를 들면, 시퀀스(640))에서의 첫번째 서브-프레임(예를 들면, 서브-프레임(618c))으로 시작하고 상기 제3 시퀀스(640)에서의 마지막 서브-프레임으로 끝난다. 도 8에서, 상기 제3 시퀀스에서의 첫번째 서브-프레임은 원 비디오 프레임 G의 서브-프레임 M으로 표시되고 제3 시퀀스에서의 마지막 서브-프레임은 원 비디오 프레임 I의 서브-프레임 P로 표시된다.
각 그룹(720) 내에, 상기 그룹(720)에서 각 개개의 서브-프레임을 위한 상기 서브-프레임 메타데이터가 있다. 예를 들면, 제1 그룹(720)은 서브-프레임들의 제1 시퀀스(620)에서의 서브-프레임들 각각을 위한 상기 서브-프레임 메타데이터(150)를 포함한다. 대표적인 실시예에서, 상기 서브-프레임 메타데이터(150)는 다수의 엔터리들(entry, 710)을 포함하는 메타데이터 텍스트 파일(metadata text file)로 구성될 수 있다. 상기 메타데이터 텍스트 파일에서의 각 엔터리(710)는 특정 서브-프레임을 위한 상기 서브-프레임 메타데이터(150)를 포함한다. 그리하여, 상기 메타데이터 텍스트 파일에서의 각 엔트리(710)는 상기 메타데이터에 연관되는 특정 서브-프레임을 확인하는 서브-프레임 확인자를 포함하고, 원 비디오 프레임들의 시퀀스에서의 프레임들 중의 하나를 참조한다.
편집 정보의 예들은 팬 방향(pan direction) 및 팬 레이트(pan rate), 줌 레이트(zoom rate), 명암(contrast) 조정, 밝기 조정, 필터 파라미터(filter parameter), 및 비디오 효과 파라미터(video effect parameter)를 포함하지만 이에 한정되지는 않는다. 더 상세하게는, 서브-프레임과 연관되어, a)비쥬얼 수정(visual modification), 예를 들면 밝기(brightness), 필터링(filtering), 비디오 효과들(video effects), 명암 및 음영(contrast and tint) 조정; b) 모션 정보(motion information), 예를 들면, 패닝(panning), 가속(acceleration), 속도(velocity), 원 프레임들의 시퀀스 상의(over) 서브-프레임 움직임의 방향; c) 크기 재조정 정보(resizing information), 예를 들면, 원 프레임들의 시퀀스 상의(over) 서브-프레임의 줌잉(zooming)(줌인(zoom in), 줌아웃(zoom out) 및 줌레이트(zoom rate)를 포함하는); d)상기 서브-프레임 내에서 떨어지는 상기 원 비디오 데이터의 부분들과 연관되거나(associated), 결합되거나(combined) 중첩되도록(overlaid) 임의의 유형의 추가 매체(supplemental media)(예를 들면, 텍스트 또는 그래픽 중첩 또는 추가 오디오)에 관한 것들을 포함하여 적용될 수 있는 몇 가지 유형들의 편집 정보가 있다.
도 9a는 서브-프레임을 위한 편집 정보를 포함하는 대표적인 서브-프레임 메타데이터를 보여주는 챠트이다. 상기 서브-프레임 메타데이터는 메타데이터 헤더(header, 802)를 포함한다. 상기 메타데이터 헤더(802)는 메타데이터 파라미터들(metadata parameters), 디지털 권한 관리 파라미터들(digital rights management parameters), 및 빌링 관리 파라미터들(billing management parameters)을 포함한다. 상기 메타데이터 파라미터들은, 생성일(date of creation), 만료일(date of expiration), 생성자 확인(creator identification), 목표 비디오 디바이스 카테고리/카테고리들(target video device category/categories), 목표 비디오 디바이스 클래스(들)(target video device class(es)), 소스 비디오 정보(source video information), 및 모든 메타데이터에 일반적으로 관련되는 다른 정보(other informatio)와 같은 메타데이터에 관한 정보를 포함한다. 상기 메타데이터 헤더(802)의 디지털 권한 관리 구성요소는 어느 정도로 상기 서브-프레임 메타데이터가 사용될 수 있는지의 여부를 결정하기 위해서 사용되는 정보를 포함한다. 상기 메타데이터 헤더(802)의 빌링 관리 파라미터들은 상기 메타데이터 사용상에서 초래되는 빌링 동작들을 초기화하기 위해 사용될 수 있는 정보를 포함한다.
서브-프레임 메타데이터는 상기 메타데이터 텍스트 파일의 엔트리(804)에서 알 수 있다. 각 서브-프레임을 위한 상기 서브-프레임 메타데이터는 서브-프레임에 할당된 서브-프레임 확인자(SF ID), 서브-프레임이 취해지는 원 비디오 프레임(OF ID, OF Count, Plaback Offset)과 연관된 정보, 서브-프레임 위치와 크기(SF Location, SF Size), 및 서브-프레임이 디스플레이되는 디스플레이의 영상비(SF Ratio)와 같은 일반적은 서브-프레임 정보(806)를 포함한다. 게다가, 도 9a에서 보여지는 바와 같이, 특정 서브-프레임을 위한 서브-프레임 정보(804)는 서브-프레임을 편집하는 것에 사용하기 위한 편집 정보(806)를 포함할 수 있다. 도 9a에서 보여지는 편집 정보(806)의 예들은 팬 방향(Pan Direction) 및 팬 레이트(Pan Rate), 줌 레이트(Zoom Rate), 색 조정(Color Adjustment), 필터 파라미터(Filter Parameter), 추가 중첩 이미지 또는 비디오 시퀀스(Supplemental Overlay Image or Video Sequence) 및 다른 비디오 효과들 및 연관 파라미터들(Other Video Effects & Associated Parameters)을 포함한다.
도 9b는 본 발명의 일 실시예에 따라 구성된 이동 가능한 스토리지 미디어를 보여주는 블록 다이어그램이다. 도 9b의 이동가능한 스토리지 미디어(950)는 비디오 데이터의 풀 프레임들의 시퀀스(952 및 954)를 포함한다. 일 실시예에서, 상기 스토리지 미디어(950)는 제1 포맷(952)으로 비디오 데이터의 풀 프레임들의 하나의 시퀀스를 저장한다. 그러나, 다른 실시예들에서, 각각 상기 스토리지 미디어(950)는 비디오 데이터의 풀 프레임들의 시퀀스(952 및 954)의 제1 포맷 및 제2 포맷과 같은 다중 포맷들을 저장한다. 스토리지 미디어(950)는 또한 오디오 데이터(956), 제1 서브-프레임 메타데이터(958), 제2 서브-프레임 메타데이터(960), 제1 서브-프레임 오디오 데이터(962), 제2 서브-프레임 오디오 데이터(964), 및 디지털 권한 관리 데이터(966)를 포함한다.
상기 스토리지 미디어(950)는 미디어 드라이브로부터 이동 가능할 수 있다. 그러한 경우에, 상기 스토리지 미디어(950)는 제1 비디오 플레이어 시스템 및 제2 비디오 플레이어 시스템에 의해 받아들여지거나 제1 비디오 플레이어 시스템 및 제2 비디오 플레이어 시스템과 상호작용할 수 있다. 도 1, 2, 및 3을 참조하여 앞서 설명된 바와 같이, 상기 제1 비디오 플레이어 시스템은 제1 비디오 디스플레이 특성들을 갖는 제1 비디오 디스플레이를 가지며, 반면에 상기 제2 비디오 플레이어 시스템은 제2 디스플레이 특성들을 갖는 제2 비디오 디스플레이를 갖는다. 도 1, 2, 및 3의 예들에서의 경우와 같이, 상기 제1 디스플레이 특성들은 전형적으로 상기 제2 디스플레이 특성들과 다를 것이다. 도 9b의 이동 가능한 스토리지 미디어(950)는 다른 특성들을 갖는 비디오 디스플레이들을 갖는 이들 다른 비디오 플레이어 시스템들을 지원한다.
그리하여, 도 9b의 실시예로써, 상기 스토리지 미디어(950)는 복수의 저장 위치들(storage locations)을 포함한다. 비디오 데이터의 풀 프레임들의 시퀀스(952)는 상기 복수의 저장 위치들 중의 적어도 제1 저장 위치에 저장된다. 나아가, 제1 서브-프레임 메타데이터(first sub-frame metadata, 958)는 복수의 저장 위치들 중의 적어도 제2 저장 위치에 저장된다. 상기 제1 서브-프레임 메타데이터(958)는 상기 제1 비디오 플레이어 시스템의 적어도 제1 디스플레이 특성을 충족시키기 위해 생성된다. 그러나, 상기 제1 서브-프레임 메타데이터(958)는 복수의 다른 디스플레이 특성들을 충족시킬 수 있다. 그러한 경우에, 이 제1 서브-프레임 메타데이터(958)는 목표 디스플레이 메타데이터에 비교될 때 유사 디스플레이 메타데이터일 것이다. 그러나, 상기 제1 서브-프레임 메타데이터(958)는 사실상 목표 디스플레이 메타데이터일 수 있다.
상기 제1 서브-프레임 메타데이터(958)는 비디오 데이터의 풀 프레임들의 시퀀스(952) 내에서 제1 복수의 서브-프레임들을 정의한다. 상기 제1 복수의 서브-프레임들 각각은 상기 제1 복수의 서브-프레임들 중의 다른 것의 파라미터와는 다른 적어도 제1 파라미터(first parameter)를 갖는다. 상기 제2 서브-프레임 메타데이터(second sub-frame metadata, 960)는 상기 복수의 저장 위치들 중의 적어도 제3 저장 위치에 저장된다. 상기 제2 서브-프레임 메타데이터(960)는 상기 제2 비디오 플레이어의 제2 비디오 디스플레이에 연관된 적어도 제2 디스플레이 특성을 충족시키기 위해 생성된다. 상기 제2 서브-프레임 메타데이터는 적어도 상기 제2 디스플레이 특성을 충족시키기 위해 생성된 상기 복수의 저장 위치들 중의 제3 저장 위치에 저장된다. 상기 제2 서브-프레임 메타데이터(952)는 비디오 데이터의 풀 프레임들의 시퀀스(952) 내에서 제2 복수의 서브-프레임들을 할당(assign)한다. 상기 제2 복수의 서브-프레임들 각각은 상기 제2 복수의 서브-프레임들 중의 다른 것의 그것과는 다른 적어도 제2 파라미터를 갖는다. 상기 제1 서브-프레임 메타데이터(958) 및 제2 서브-프레임 메타데이터(960)가 서브-프레임 프로세싱 동작들(sub-frame processing operations)을 위하여 사용될 수 있는 방식은 도 10 내지 18을 참조하여 더 설명된다.
상기 제1 서브-프레임 메타데이터(958)는 상기 제1 디스플레이를 위하여 비디오 데이터의 풀 프레임들의 시퀀스(952)를 가공하기 위해 상기 제1 비디오 플레이어 시스템에 의해 검색(retrieve)되고 사용될 수 있다. 나아가, 상기 제2 서브-프레임 메타데이터(960)는 상기 제2 디스플레이를 위하여 비디오 데이터의 풀 프레임들의 시퀀스(952)를 가공하기 위해 상기 제2 비디오 플레이어 시스템에 의해 검색되고 사용될 수 있다.상기 제1 및 제2 복수의 서브-프레임들 사이의 차이들을 고려할 때, 상기 제1 파라미터는 비디오 데이터의 풀 프레임들의 시퀀스 내에서 서브 -프레임들 중심점(center point)을 포함할 수 있다. 그리하여, 예를 들면, 상기 제1 비디오 디스플레이를 위해 만들어지는 비디오 데이터는 상기 제2 비디오 디스플레이를 위해 만들어지는 것들과는 다른 중심점들을 가질 수 있다.
상기 제1 서브-프레임 오디오 데이터(962)는 상기 제1 서브-프레임 메타데이터(958)에 상응한다. 그리하여, 상기 제1 서브-프레임 메타데이터(958)에 기초한 비디오 데이터의 풀 프레임들의 시퀀스(952)의 프로세싱 후에, 비디오 데이터의 서브-프레임들의 처리된 시퀀스는 상기 제1 서브-프레임 오디오 데이터(962)에 상응한다. 다르게는, 상기 제1 서브-프레임 오디오 데이터(962)는 상기 오디오 데이터(956)를 프로세하기 위해 사용될 수 있고 그래서 그것은 서브-프레임들의 상응하는 처리된 시퀀스에 상응한다. 마찬가지로, 상기 제2 서브-프레임 오디오 데이터(964)는 비디오 데이터의 서브-프레임들의 처리된 시퀀스에 직접적으로 상응할 수 있고 비디오 데이터의 서브-프레임들의 시퀀스에 상응하는 처리된 오디오 데이터를 만들어 내기 위해 오디오 데이터(956)를 처리하도록 사용될 수 있다. 비디오 데이터의 서브-프레임들의 상기 제1 시퀀스와 비디오 데이터의 서브-프레임들의 상기 제2 시퀀스 사이의 차이들을 고려할 때, 상기 제1 디스플레이 특성들 및 상기 제2 디스플레이 특성들 사이의 차이들을 고려할 수 있다. 예를 들면, 상기 제1 디스플레이 특성들은 제1 해상도를 가질 수 있는 반면에 상기 제2 디스플레이 특성들은 상기 제1 이미지 해상도와 다른 제2 이미지 해상도를 가질 것이다. 나아가, 상기 제1 디스플레이 특성들은 제1 대각선 치수를 가질 수 있는 반면에 상기 제2 디스플레이 특성들은 제2 대각선 치수를 가질 수 있다. 그러한 경우에, 상기 제1 대 각선 치수는 상기 제2 대각선 치수보다 실질적으로 더 클 수 있다. 그러한 경우에, 비디오 데이터의 서브-프레임들의 상기 제1 시퀀스 및 비디오 데이터의 서브-프레임들의 제2 시퀀스는 상기 제1 디스플레이 및 상기 제2 디스플레이의 다른 특성들에 상응하는 다른 특성들을 가질 것이다.
도 10은 본 발명의 일 실시예에 따라 구성된 비디오 플레이 시스템을 보여주는 블록 다이어그램이다. 상기 비디오 플레이어 시스템(900)은 비디오 디스플레이(902), 로컬 스토리지(904), 사용자 입력 인터페이스(들)(916), 통신 인터페이스(들)(918), 디스플레이 인터페이스(920), 프로세싱 회로(922), 및 상기 스토리지 미디어(10)를 받아들이는 미디어 드라이브(924)를 포함한다. 이러한 특정의 실시예에서, 상기 비디오 플레이어 시스템(900)은 상기 비디오 디스플레이(902) 및 공유된 하우징(housing) 내에서의 다른 구성요소들을 포함한다. 그러나, 도 1의 비디오 플레이어 시스템들(20 및 28)과 같은 다른 실시예들에서, 상기 비디오 플레이어 시스템(900)은 다른 하우징에 존재하는 비디오 디스플레이(924)를 서비스한다. 상기 비디오 디스플레이(924)는 상기 비디오 플레이어 시스템(900)으로의 통신 인터페이스에 의해 링크된 다른 위치에 심지어 존재할 수 있다. 원격으로 위치한(remotely located) 비디오 디스플레이(924)로써, 상기 비디오 플레이어 시스템(900)의 디스플레이 인터페이스(920)는 통신 링크를 통해 상기 비디오 디스플레이(924)와 통신한다.
상기 비디오 플레이어 시스템(900)은 그것의 미디어 드라이브(924)를 통해 스토리지 미디어로부터 비디오 데이터(11), 서브-프레임 메타데이터(15), DRM/빌링 데이터(19), 비가공 오디오 데이터(102), 및/또는 오디오 메타데이터(104)를 수신한다. 다르게는, 상기 비디오 플레이어 시스템(900)은 상기 비디오 데이터(11), 서브-프레임 메타데이터(15), 비가공 오디오 데이터(102), 및/또는 오디오 메타데이터 중의 임의의 것을 그것의 통신 인터페이스(918) 및 통신들 링크들/네트워크들(304)을 통하여 서버들(218, 220, 및 222)로부터 수신할 수 있다. 나아가, 상기 비디오 플레이어 시스템(900은 통신 링크(304)를 통한 그것의 통신 인터페이스(918)를 통하여 DRM/빌링 서버(224) 및/또는 플레이어 정보 서버(316)와 상호 작용한다.
본 발명의 일 양상에 따라, 상기 메타데이터 인터페이스(924)는 이동 가능한 스토리지 미디어(10)를 받아들인다. 이 이동가능한 스토리지 미디어(10)는 풀 프레임 비디오 및 복수의 서브-프레임 메타데이터를 저장하고 있다. 상기 디스플레이 인터페이스(920)는 적어도 하나의 디스플레이 특성을 갖는 상기 디스플레이(924)에 통신상으로 결합된다. 상기 프로세싱 회로(922)는 상기 디스플레이(924)의 적어도 하나의 디스플레이 특성에 기초하여 스토리지 미디어(10) 상에 저장된 상기 복수의 서브-프레임 메타데이터로부터 제1 서브-프레임 메타데이터를 선택한다. 상기 프로세싱 회로(922)는 그 후 상기 스토리지 미디어(10)에 저장된 상기 제1 서브-프레임 메타데이터를 사용하여 스토리지 미디어(10) 상에 저장된 풀 프레임 비디오로부터 가공된 비디오를 만들어 낸다. 상기 프로세싱 회로(922)는 그 후 상기 디스플레이 인터페이스(920)를 통하여 상기 비디오 디스플레이(924)에 상기 가공된 비디오를 제공(deliver)한다. 상기 프로세싱 회로(922)는 상기 가공된 비디오의 이러한 생성의 부분(part)으로서 상기 비디오 디스플레이(924)에 상응하는 추가 정보(supplemental information)에 따라 후-프로세싱(post-processing)을 수행할 수 있다.
상기 비디오 플레이어 시스템(900)은 그것의 사용자 입력 인터페이스(916)을 사용하여 사용자 입력을 수신한다. 프로세싱 회로(922)는 마이크로프로세서 또는 디지털 신호 프로세서와 같은 범용 프로세서(general purpose processor), 주문형 반도체(application specific integrated circuit), 또는 소프트웨어 명령들을 실행하고 데이터를 처리하도록 동작할 수 있는 다른 유형의 프로세싱 회로일 수 있다. 로컬 스토리지(904)는 램(RAM), 롬(ROM), 광 드라이브(optical drive), 하드 디스크 드라이브(hard disk drive), 이동가능한 스토리지 미디어, 또는 명령들 및 데이터를 저장할 수 있는 다른 스토리지 미디어 중의 하나 또는 그 이상을 포함한다. 상기 로컬 스토리지(904)는 운영 시스템(906), 비디오 플레이어 소프트웨어(908), 비디오 데이터(910), 목표 디스플레이 정보(912), 및 인코더 및/또는 디코더 소프트웨어(914)를 저장한다. 상기 비디오 플레이어 소프트웨어(908)는 MC&A, IC&A 및/또는 DC&A 기능성 중의 하나 또는 그 이상을 포함한다.
본 발명에 따른 하나의 특정 동작에 있어서, 상기 비디오 플레이어 시스템(900)은 인코딩된 소스 비디오(12)를 수신하고 비디오 디스플레이(902 또는 924)로의 출력을 만들어 낸다. 상기 비디오 플레이어 소프트웨어(908) 및 상기 인코더 소프트웨어(914)를 실행하는(running) 상기 프로세싱 회로(922)는 상기 인코딩된 소스 비디오(12)로부터 비디오 데이터의 풀 프레임들의 시퀀스를 만들어 낸다. 상 기 비디오 플레이어 소프트웨어(908)는 비디오 데이터의 풀 프레임들의 시퀀스를 처리함에 의해 제1 위치 및 크기 정보(sizing information)에 기초한 비디오 데이터의 서브-프레임들의 제1 시퀀스 및 제2 위치 및 크기 정보에 기초한 비디오 데이터의 서브-프레임들의 제2 시퀀스를 생성하는 서브-프레임 프로세서 애플리케이션(sub-frame processor application)을 포함한다. 상기 제1 위치 및 크기 정보 그리고 상기 제2 위치 및 크기 정보는 함께 상기 메타데이터(15)를 구성한다. 상기 비디오 플레이어 시스템(900)의 이러한 특정 동작들로써, 상기 디스플레이 인터페이스(920)는 디스플레이(902 또는 924) 상에의 풀 프레임 프리젠테이션을 위한 비디오 데이터의 서브-프레임들의 상기 제1 시퀀스 및 제2 시퀀스를 제공한다.
비가공 소스 비디오(14)를 사용하여 유사 동작들이 사용될 수 있다. 유사 디스플레이 메타데이터(16) 및/또는 목표 디스플레이 메타데이터(18)는 이들 동작들로 사용될 수 있다. 다른 특정 동작에서, 상기 비디오 플레이어 시스템(900)은 상기 비디오 디스플레이(902) 또는 상기 비디오 디스플레이(924)를 위해 특별히 비디오 데이터를 만들어 내기 위해 비디오의 서브-프레임들의 상기 제1 시퀀스 및 제2 시퀀스를 가공하도록 상기 목표 디스플레이 정보(912)를 처리한다.
도 11은 본 발명의 일 실시예에 따라 구성된 비디오 플레이어 시스템을 보여주는 블록 다이어그램이다. 도 11의 특정 구조로써, 상기 비디오 플레이어 시스템(1100)은 디코더(1102), 메타데이터 프로세싱 회로(1104), 메타데이터 가공 회로(1106), 관리 회로(1108), 목표 디스플레이 가공 회로(1110), 디스플레이(1112), 및 비디오 스토리지를 포함한다. 상기 디코더(1102)는 인코딩된 소스 비디오(12)를 수신하고 비가공 비디오를 만들어 낸다. 다르게는, 상기 비가공 소스 비디오(14)는 상기 비디오 플레이어 시스템(1100)으로의 입력으로서 직접적으로 제공될 수 있다. 상기 비디오 스토리지(1014)는 상기 비가공 비디오(16)를 저장한다. 상기 관리 회로는 그의 다른 기능들에 더하여 DRM 및 빌링 동작들을 수행한다. 상기 관리 회로는 그것과 함께 교환된 DRM/빌링 데이터(1116)로 DRM/빌링 서버와 인터페이스할 수 있다.
상기 관리 회로(1108)는 목표 디스플레이 정보(20)를 수신하고 메타데이터 가공 회로(1106), 디코더(1102, 메타데이터 프로세싱 회로(1104), 및 목표 디스플레이 가공 회로(1110)에 상기 비디오 플레이어 시스템(1100) 내에서 통신상으로 결합한다. 상기 메타데이터 가공 회로(1106)는 메타데이터(15)를 수신한다. 상기 관리 회로(1108)로부터의 입력에 기초하여, 상기 메타데이터 가공 회로(1106)는 그것이 더 특별히 상기 디스플레이(1112)를 위해 적합하도록 하기 위해 상기 메타데이터를 수정한다. 그러한 경우에, 상기 메타데이터 가공 회로(1106)에 의해 수신된 메타데이터(15)는 도 1에서 보여지는 상기 유사 디스플레이 메타데이터(16)일 수 있다. 상기 목표 디스플레이 정보(20)는 디스플레이(1112)에 각각의 정보를 포함한다. 상기 목표 디스플레이 정보(20)에 기초하여, 상기 관리 회로(1108)는 메타데이터 가공 회로(1106)에의 입력을 제공하고, 상기 메타데이터 가공 회로(1106)는 상기 메타데이터(15)를 수정하기 위해서 사용한다.
상기 메타데이터 프로세싱 회로(1104)는 상기 비가공 비디오, 메타데이터 가공 회로(1106)로부터의 입력, 및 관리 회로(1108)로부터의 입력을 수신한다. 상기 메타데이터 프로세싱 회로(1104)는 그것의 입력들을 처리하고 목표 디스플레이 가공 회로(1110)로의 출력을 만들어 낸다. 상기 목표 디스플레이 가공 회로(1110)는 메타데이터 프로세싱 회로(1104)로부터 수신된 입력을 변경(alter)하고 디스플레이(1112)로의 출력을 만들어 낸다.
상기 비디오 플레이어 시스템(1100)의 특정 동작에서, 상기 디코더 회로(1102)는 비디오 데이터(비가공 비디오)의 풀 프레임들의 시퀀스를 만들어 내기 위해 인코딩된 소스 비디오(12)를 수신한다. 서브-프레임 정보(메타데이터 가공 회로(1106)의 출력)에 따른, 상기 메타데이터 프로세싱(1104, 전-프로세싱(pre-processing) 회로)는 비디오 데이터(비가공 비디오)의 풀-프레임들의 시퀀스들로부터 비디오 데이터의 서브-프레임들의 복수의 시퀀스들을 생성한다. 비디오 데이터의 서브-프레임들의 상기 복수의 시퀀스들은 상기 메타데이터 프로세싱 회로(1104) 내에서 또한 생성된 비디오 데이터의 서브-프레임들의 복수의 시퀀스들 중의 제2 시퀀스의 그것에서 풀-프레임들 및 비디오의 시퀀스 내에서의 다른 점(point)을 갖는 비디오 데이터의 서브-프레임들의 제1 시퀀스를 포함한다. 상기 메타데이터 프로세싱(1104)은 또한 상기 목표 디스플레이 가공 회로(1110)에의 출력을 만들어 내기 위해 비디오 데이터의 서브-프레임들의 복수의 시퀀스들 중의 제1 시퀀스를 비디오 데이터의 서브-프레임들의 복수의 시퀀스들 중의 제2 시퀀스와 결합(assemble)한다.
상기 목표 디스플레이 가공 회로(1110, 후-프로세싱 회로(post-processing circuitry))는 출력을 만들어 내기 위해 비디오 데이터의 서브-프레임들의 상기 복수의 시퀀스들을 수정한다. 수정 동작들은, 상기 목표 디스플레이 가공 회로(1110)가 관리 회로(1108)로부터 수신된 입력에 기초하도록 한다. 상기 목표 디스플레이 가공 회로(1110)에 의해 관리 회로(1108)로부터 수신된 입력은 목표 디스플레이 정보(20)에 기초한다. 상기 목표 디스플레이 가공 회로(1110)에 의해 만들어진 입력은 그 후의 프리젠테이션을 위하여 디스플레이(1112)로 제공된다.
본 발명의 동작들에 따라, 상기 비가공 소스 비디오(14) 및/또는 인코딩된 소스 비디오(12)는 소스 비디오 해상도를 갖는다. 상기 소스 비디오 해상도는 제1 해상도로서 언급된다. 그러나, 상기 메타데이터 프로세싱 회로(1104)에 의해 만들어진 비디오 데이터의 서브-프레임들의 복수의 시퀀스들은 디스플레이(1112)의 특성(property)에 상응하는 제2 해상도를 가질 것이다. 대부분의 경우들에서, 상기 제2 해상도는 상기 제1 해상도의 그것보다 더 작을 것이다. 그러한 것은 디스플레이(1112)의 크기가 상기 소스 비디오의 프리젠테이션을 위해 의도된 디스플레이의 크기보다 더 작기 때문에 전형적인 경우이다. 나아가, 상기 디스플레이(1112)는 소스 비디오(12 및 14)를 디스플레이하기 위해 의도된 디스플레이와는 다른 영상비를 가질 수 있다. 그리하여, 비디오 데이터(12 및 14)의 풀-프레임의 시퀀스는 제1 영상비를 갖는 반면에, 메타데이터 프로세싱(1104) 및 목표 디스플레이 가공 회로(1110)에 의해 만들어진 출력은 상기 제1 영상비와는 다른 제2 영상비를 가질 것이다.
상기 비디오 플레이어 시스템(1100)의 몇몇 실시예들에 있어서, 구성요소들(1102 내지 1112)은 하나의 하우징에 포함된다. 다르게는, 상기 디스플레 이(1112)는 구성요소들(1102 내지 1110)으로부터 분리된 하우징에 배치될 수 있다. 추가 실시예들에 있어서, 상기 구성요소들(1102 내지 1112)은 많은 다른 장치들 구성들(constructs)로 결합되거나 분리될 수 있다. 다양한 이들 구성들(constructs)이 도 12 내지 15를 참조하여 설명될 것이다.
도 12는 본 발명에 따른 분산형 비디오 플레이어 시스템의 제1 실시예를 보여주는 개략적인 블록 다이어그램이다. 도 12의 실시예로써, 상기 비디오 플레이어 시스템의 기능적 구성요소들 중의 분리 라인들(1202, 1204, 및 1206)이 디스플레이된다. 이들 분리 라인들(1202, 1204, 및 1206)은 구별되는 프로세싱 디바이스들, 하나의 디바이스 중의 구별되는 프로세싱 구성요소들, 및/또는 시간 내에 구별되는 프로세싱 동작들 중에서의 분리를 나타낸다. 특히, 1202의 분리들 중의 하나는 상기 비디오 플레이어 회로의 다른 구성요소들로부터 디코더(1102) 및 메타데이터 가공 회로(1106)를 분리한다. 나아가, 분리 라인(1204)은 메타데이터 프로세싱 회로(1104)를 목표 디스플레이 가공 회로(1110)로부터 분리한다. 나아가, 분리 라인(1206)은 목표 디스플레이 가공 회로(1110)를 디스플레이(1112)로부터 분리한다.
도 12의 구성요소들은 도 11을 참조하여 앞서 보여진 구성요소들과 유사하고 적절한 보통의 숫자를 유지한다. 이 보통의 숫자 및 보통의 기능성 설계로써, 디코더(1102), 메타데이터 프로세싱 회로(1104), 메타데이터 가공 회로(1106), 목표 디스플레이 가공 회로(1110), 및 디스플레이(1112)는 도 11에 도시된 것처럼 동일 또는 유사한 입력들을 수신하고 동일 및/또는 유사한 기능성들을 구현하거나 실행한다. 상기 분리 라인들(1202, 1204, 및 1206)은 어떻게 다양한 구성요소들(1102 내지 1112)에 의해 수행되는 기능들이 물리적 센스(physical sense), 논리적 센스(logical sense), 및/또는 일시적 센스(temporal sense)에서 서로(one another)로부터 분리될 수 있는지를 보여준다.
도 13은 본 발명에 따른 분산형 비디오 플레이어 시스템의 제2 실시예를 보여주는 개략적인 블록 다이어그램이다. 도 11 및 도 12의 구조들과 대조적으로, 집적된 디코딩(integrated decoding) 및 메타데이터 프로세싱 회로(1302)는 디코딩 및 메타데이터 프로세싱 동작들을 수행한다. 상기 집적된 디코딩 및 메타데이터 프로세싱 회로(1302)는 인코딩된 소스 비디오(12), 비가공 소스 비디오(14), 및 목표 디스플레이 메타데이터(18)를 수신한다. 특정 동작들에서, 상기 집적된 디코딩 및 메타데이터 프로세싱 회로(1302)은 인코딩된 소스 비디오(12) 및 비가공 소스 비디오(14) 중의 하나를 비디오 데이터의 풀-프레임들의 어떤 특정 시퀀스를 위해 수신할 것이다. 상기 집적된 디코딩 및 메타데이터 프로세싱 회로/기능성(1302)은 또한 상기 메타데이터 가공 회로(1106)로부터 입력을 수신한다. 상기 메타데이터 가공 기능성(1106)은 유사 디스플레이 메타데이터(16) 및 목표 디스플레이 정보(20)를 수신한다. 상기 메타데이터 가공 회로(1106)는 가공된 메타데이터를 만들어 내기 위해 목표 디스플레이 정보(20)에 기초한 유사 디스플레이 메타데이터(16)를 수정한다. 메타데이터 가공 회로(1106)에 의해 만들어진 가공된 메타데이터는 목표 디스플레이 메타데이터(18)과 함께 또는 대신에 사용될 수 있다.
집적된 디코딩 및 메타데이터 프로세싱 회로(1302)의 출력은 목표 디스플레이 정보(20)에 기초한 상기 집적된 디코딩 및 메타데이터 프로세싱(1302)에 의해 만들어진 복수의 비디오 데이터의 서브-프레임들을 더 수정하거나 가공하고 디스플레이(1112)로의 출력을 만들어 내는 목표 디스플레이 가공 회로(1110)에 의해 수신된다. 분리 라인들(1304, 1306, 및/또는 1308)은 어떻게 집적된 디코딩 및 메타데이터 프로세싱 회로(1302), 목표 디스플레이 가공 회로(1110), 및 디스플레이(1112)가 물리적 센스, 논리적 센스, 및/또는 일시적 센스에서 서로로부터 분리될 수 있는지를 보여준다.
도 14는 본 발명에 따른 분산형 비디오 플레이어 시스템의 제3 실시예를 보여주는 개략적 블록 다이어그램이다. 도시된 비디오 플레이어 시스템은 집적된 디코딩, 목표 디스플레이 가공, 및 메타데이터 프로세싱 회로(1404), 추가 목표 디스플레이 가공 회로(1406), 및 디스플레이(1112)를 포함한다. 상기 집적된 디코딩, 목표 디스플레이 가공, 및 메타데이터 프로세싱 회로(1404)는 인코딩된 소스 비디오(12), 비가공 소스 비디오(14), 목표 디스플레이 메타데이터(18), 유사 디스플레이 메타데이터(16), 및/또는 목표 디스플레이 정보(20)를 수신한다. 인코딩된 소스 비디오(12)의 디코딩에 기초하여 또는 상기 비가공 소스 비디오(14)로부터 직접, 상기 집적된 디코딩, 목표 디스플레이 가공 및 메타데이터 프로세싱 회로(1404)는 상기 소스 비디오의 비디오 데이터의 풀-프레임들의 시퀀스를 처리한다. 그러한 프로세싱은 상기 메타데이터(16 또는 18) 및/또는 상기 목표 디스플레이 정보(20)에 기초하여 수행된다. 상기 집적된 디코딩, 목표 디스플레이 가공, 및 메타데이터 프로세싱 회로(1404)는 비디오 데이터의 서브-프레임들의 복수의 시퀀스를 추가 목표 디스플레이 가공 회로(1406)에 만들어 낸다. 상기 추가 목표 디스플레이 가공(1406)은 목표 디스플레이 정보(20)에 기초한 비디오 데이터의 서브-프레임들의 복수의 시퀀스들의 부가적 가공을 수행한다. 그러한 목표 가공은 특별히 디스플레이(1112)를 위하여 비디오 데이터의 서브-프레임들의 복수의 시퀀스들을 수정하는 것을 포함한다. 분리 라인들(1408, 및 1410)은 어떻게 상기 집적된 디코딩, 목표 디스플레이 가공, 및 메타데이터 프로세싱 회로(1404), 상기 추가 목표 디스플레이 가공 회로(1406), 및 상기 디스플레이(1202)가 물리적 센스, 논리적 센스 및/또는 일시적 센스에서 서로로부터 분리될 수 있는지를 보여준다.
도 15는 본 발명에 따른 분산형 비디오 플레이어 시스템의 제4 실시예를 보여주는 개략적인 블록 다이어그램이다. 디코더(1502)는 인코딩된 소스 비디오(12)를 수신하고 비인코딩된(unencoded) 비디오(13)를 만들어 낸다. 상기 비인코딩된 비디오(13) 및/또는 비가공 소스 비디오(14)는 집적된 목표 디스플레이 가공 및 메타데이터 프로세싱 회로(1504)에 의해 수신되고 처리된다. 상기 집적된 목표 디스플레이 가공 및 메타데이터 프로세싱 회로(1504)는 목표 디스플레이 메타데이터(18), 유사 디스플레이 메타데이터(16), 및/또는 목표 디스플레이 정보(20)를 더 수신한다. 상기 비인코딩된 비디오(13) 또는 비가공 소스 비디오(14)는 비디오 데이터의 풀-프레임들의 시퀀스를 포함한다. 상기 집적된 목표 디스플레이 가공 및 메타데이터 프로세싱 회로(1504)는 추가 목표 디스플레이 가공 회로(1506)에 비디오 데이터의 서브-프레임들의 복수의 시쿠너스들을 만들어 내기 위해 하나 또는 그 이상의 상기 목표 디스플레이 메타데이터(18), 상기 유사 디스플레이 메타데이터(16), 및 상기 목표 디스플레이 정보(20)에 기초한 비디오 데이터의 풀-프레임들의 상기 시퀀스를 만들어 낸다. 상기 추가 목표 디스플레이 가공 회로(1506)는 디스플레이(1508)에 가공된 출력을 만들어 내기 위해 상기 목표 디스플레이 정보에 기초한 비디오 데이터의 서브-프레임들의 상기 복수의 시퀀스들을 수정한다. 상기 디스플레이(1508)는 추가 목표 디스플레이 가공(1506)의 출력을 수신하고 거기에 포함된 비디오 데이터 내용을 디스플레이한다.
블록들(1504, 1506, 및 1508)의 기능들은 기능적으로, 물리적으로, 및/또는 일시적으로 서로로부터 분리될 수 있다. 예를 들어, 일 실시예에서, 디코더(1502) 및 집적된 목표 디스플레이 가공 및 메타데이터 프로세싱 회로(1504)는 하나의 프로세싱 디바이스에 의해 실행될 수 있다. 이 실시예로써, 상기 추가 목표 디스플레이 가공 회로(1506)는 상기 디스플레이(1508)와 함께 포함될 수 있다.
다른 실시예들에서, 블록들(1502, 1504, 1506, 및 1508)은 다른 하우징들 내에, 다른 위치들 내에 존재할 수 있고, 다른 기능의 구성요소들에 의해 실행될 수 있고, 및/또는 다른 시간에 실행될 수 있다. 그리하여, 라인들(1510, 및 1512)은 물리적 경계들, 기능적 경계들, 및/또는 일시적 경계들을 나타낼 수 있다.
도 16은 본 발명에 따라 비디오 데이터, 메타데이터, 및 분산형 비디오 플레이어 시스템 내에서의 다른 정보를 전송하기 위한 기술들을 보여주는 시스템 다이어그램이다. 도 12 내지 15의 다양한 구성요소들이 결합되는 방식이 도 16에 보여진다. 통신 전송(1602)은 통신 링크/망 연결(1604) 및/또는 물리적 스토리지 미디어(1606)를 포함할 수 있다. 경계 라인들(1612 및 1614)은 경계 라인들 1202 내지 1206, 1304 내지 1308, 1408 내지 1410, 및/또는 1510 내지 1512 중의 어떤 것을 포함할 수 있다. 그러한 경우에, 정보는 상기 통신 링크/망(1604) 또는 미디어(1606)를 통하여 이들 라인들을 통하여 지나간다.
하나의 특정 동작으로써, 데이터는 비인코딩된 포맷으로 전송(transfer)된다. 그러나, 다른 실시예에서, 상기 정보는 인코더(1608)에 의해 인코딩되고 통신 링크/망 연결(1604)을 통해 전송되고, 이후의 프로세싱에 앞서 디코더(1610)에 의해 그 후 디코딩된다.
도 17은 본 발명의 일 실시예에 따른 비디오 프로세싱 및 재생을 위한 프로세스를 보여주는 플로우 챠트이다. 본 발명에 따른 비디오 프로세싱 회로의 동작들(1700)은 비디오 데이터를 수신하는 것으로 시작한다(단계 1710). 상기 비디오 데이터가 인코딩된 포맷으로 수신될 때, 상기 비디오 프로세싱 회로는 상기 비디오 데이터를 디코딩한다(단계 1712). 상기 비디오 프로세싱 회로는 그 후 메타데이터를 수신한다(단계 1714). 이 메타데이터는 앞서 여기에서 설명된 일반적인 메타데이터, 유사 메타데이터, 가공된 메타데이터일 수 있다. 유사 메타데이터 또는 일반적 메타데이터가 수신될 때, 도 17의 동작은 목표 디스플레이 정보에 기초한 상기 메타데이터를 가공하는 단계(단계 1716)를 포함한다. 단계 1716은 선택적이다.
그 후, 도 17의 동작은 상기 메타데이터에 기초한 비디오 데이터를 서브-프레임 처리(sub-frame process)하는 단계(단계 1718)를 포함한다. 그 후, 동작은 목표 디스플레이 정보에 기초한 단계 1718에서 만들어진 비디오 데이터의 서브-프레임들의 출력 시퀀스를 가공하는 단계(단계 1720)를 포함한다. 단계 1720의 동작은 비디오 데이터의 서브-프레임들의 가공된 출력 시퀀스를 만들어 낸다. 그 후, 비디 오 데이터의 서브-프레임들의 이 출력 시퀀스는 선택적으로 인코딩된다(단계 1722). 최종적으로, 비디오 데이터의 서브-프레임들의 시퀀스는 스토리지에의 출력, 통신망을 통한 목표 디바이스에의 출력, 또는 다른 방식에서의 또는 다른 위치에의 출력이다(단계1724).
도 17의 일 특정 실시예에 따라, 비디오 프로세싱 시스템은 비디오 데이터의 풀-프레임들의 시퀀스를 나타내는 비디오 데이터를 수신한다. 상기 비디오 프로세싱 시스템은 그 후 비디오 데이터의 서브-프레임들의 제1 시퀀스 및 비디오 데이터의 서브-프레임들의 제2 시퀀스를 생성하기 위해 상기 비디오 데이터를 서브-프레임 처리한다. 비디오 데이터의 서브-프레임들의 상기 제1 시퀀스는 적어도 제1 파라미터에 의해 정의되고, 비디오 데이터의 서브-프레임들의 상기 제2 시퀀스는 적어도 제2 파라미터에 의해 정의되고, 상기 적어도 제1 파라미터 및 상기 적어도 제2 파라미터는 함께 메타데이터를 포함한다. 상기 비디오 프로세싱 시스템은 그 후 비디오 데이터의 서브-프레임들의 상기 제1 시퀀스를 비디오 데이터의 서브-프레임들의 상기 제2 시퀀스와 결합함에 의해 비디오 데이터의 서브-프레임들의 제3 시퀀스를 생성한다.
이 실시예로써, 비디오 데이터의 서브-프레임들의 상기 제1 시퀀스는 비디오 데이터의 풀 프레임들의 시퀀스 내에서의 제1 영역에 상응할 수 있고 비디오 데이터의 서브-프레임들의 상기 제2 시퀀스는 비디오 데이터의 풀 프레임들의 시퀀스 내에서의 제2 영역에 상응할 수 있다. 여기서, 상기 제1 영역은 상기 제2 영역과는 다르다.
도 18은 본 발명의 일 실시예에 따라 이동 가능한 스토리지 미디어에 연관된 방법을 보여주는 플로우 챠트이다. 도 18의 방법(1800)은 풀 스크린 비디오 시퀀스를 나타내는 제1 데이터를 저장하는 것으로 시작한다(단계 1810). 이 풀 스크린 비디오 시퀀스는, 예를 들면, 도 4의 카메라(110)에 의해 캡쳐된 비가공 비디오 데이터에 상응할 수 있다. 동작은 제1 서브-프레임 메타데이터를 나타내는 제2 데이터를 저장하는 것으로 계속된다(단계 1812). 상기 제2 데이터는 상기 제1 데이터로부터 제1 가공된 비디오(first tailored video)를 만들어 내는 데 사용하기 위함이다. 상기 제1 서브-프레임 메타데이터는 상기 풀 스크린 비디오 시퀀스 내에서의 제1 서브-프레임 및 상기 풀 프레임 비디오 시퀀스 내에서의 제2 서브-프레임을 정의한다. 상기 제1 서브-프레임은 상기 제2 서브-프레임의 그것과는 다른 적어도 하나의 특성을 갖는다. 동작은 제2 서브-프레임 메타데이터를 나타내는 제3 데이터를 저장하는 것으로 계속된다(단계 1814). 나아가, 동작은 디지털 권한 관리에 관계되는 제4 데이터를 저장하는 것을 포함한다(단계 1816). 그 후, 동작은 상기 이동 가능한 스토리지 미디어를 분배하는 것을 포함한다(단계 1816). 여기에서 앞서 설명된 바와 같이, 상기 이동 가능한 스토리지 미디어는 DVD와 같은 광 미디어(optical media), 롬, 램, 또는 디지털 정보를 저장할 수 있는 메모리 디바이스의 다른 유형을 포함할 수 있다.
도 18의 동작(1800)은 제1 가공된 비디오를 만들어 내기 위해 상기 제2 데이터를 사용하여 상기 제1 데이터를 프로세싱하는 단계(단계 1818)를 포함할 수 있다. 동작(1800)은 제2 가공된 비디오를 만들어 내기 위해 상기 제3 데이터를 사용 하여 상기 제1 데이터를 프로세싱하는 단계(단계 1820)를 더 포함할 수 있다. 단계들 1818 내지 1820의 프로세싱 동작들은 다른 비디오 플레이어 시스템들에 의해 수행될 수 있다. 다르게는, 하나 이상의 디스플레이를 서비스하는 비디오 플레이어 시스템이 단계들 1818 내지 1820의 동작들을 수행할 수 있다.
당해 기술 분야에서 통상의 기술을 가진 자에게는, 여기에서 사용될 수 있는 용어들인 "동작적으로 결합된(operably coupled)" 및 "통신상으로 결합된(communicatively coupled)"은 직접적인 결합 및 다른 구성요소(component), 소자(element), 회로(circuit), 또는 모듈(module)을 통한 간접적인 결합을 포함한다. 여기에서, 간접적인 결합을 위하여, 개재되는 구성요소, 소자, 회로, 또는 모듈은 신호의 정보를 수정하지는 않고 그것의 전류 레벨, 전압 레벨, 및/또는 파워 레벨을 조정할 수 있다. 당해 기술 분야에서 통상의 지식을 가진 자가 알 수 있는 바와 같이, 추론된 결합(inferred coupling)(예를 들면, 하나의 소자가 추론(inference)에 의해 다른 소자에 결합되는)은 두 소자들 간에 "동작적으로 결합된" 또는 "통신상으로 결합된"에서와 똑같은 방식으로 결합된 직접 및 간접적인 결합을 포함한다.
본 발명은 또한 상술된 기능들과 거기에서의 관련 사항들의 수행을 보여주는 방법 단계들의 도움으로 설명되었다. 이들 기능적인 빌딩 블록들(functional building blocks) 및 방법 단계들의 범위들(boundaries) 및 시퀀스(sequence)는 설명의 편의를 위해 임의로 정의되어졌다. 치환 범위들(alternate boundaries) 및 시퀀스들은 상술된 기능들 및 관련 사항들이 적절하게 수행되는 한 정의될 수 있다. 그러한 치환 범위들 및 시퀀스들은 따라서 청구된 발명의 범위와 사상 내에 있다.
본 발명은 일정한 중요한 기능들의 수행을 보여주는 기능적인 빌딩 블록들의 도움으로 위에서 설명되어졌다. 이들 기능적인 빌딩 블록들의 범위들은 설명의 편의를 위해 임의로 정의되어졌다. 치환 범위들은 상기 일정한 중요한 기능들이 적절히 수행되는 한 정의될 수 있다. 유사하게, 흐름도(flow diagram) 블록들(blocks)은 또한 일정한 중요한 기능성을 설명하기 위해 여기에서 임의로 정의되었다. 사용되는 정도까지는, 상기 흐름도 블록 범위들 및 시퀀스는 정의될 수 있고 그렇지 않더라도 여전히 상기 일정한 중요한 기능성을 수행한다. 기능적 빌딩 블록들 및 흐름도 블록들 및 시퀀스들의 그러한 정의는 따라서 청구되는 발명의 범위 및 사상 내에 있다.
당해 기술 분야에서 통상의 지식을 가진 자는, 또한 상기 기능적인 빌딩 블록들, 그리고 다른 도해 블록들, 모듈들 및 여기에서의 구성요소들은 도해(illustrate)로 또는 분리된 구성요소들, 주문형 반도체들, 적절한 소프트웨어를 실행하는 프로세서들 등 또는 거기에서의 임의의 조합에 의해 구현될 수 있다는 것을 알 수 있을 것이다.
더구나, 전술한 실시예들로 명확성 및 이해의 목적을 위해 상세히 설명되어졌으나, 본 발명은 그러한 실시예들로 제한되지는 않는다. 이후의 청구범위들의 범위에 의해 단지 제한되는 바, 본 발명의 사상 및 영역 내에서 다양한 변화들(changes) 및 개조들(modifications)이 실행될 수 있음은 본 발명의 기술분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.