[go: up one dir, main page]

KR20180026803A - 타일 및 타일 그룹을 이용한 관심 영역 비디오 코딩 - Google Patents

타일 및 타일 그룹을 이용한 관심 영역 비디오 코딩 Download PDF

Info

Publication number
KR20180026803A
KR20180026803A KR1020187006055A KR20187006055A KR20180026803A KR 20180026803 A KR20180026803 A KR 20180026803A KR 1020187006055 A KR1020187006055 A KR 1020187006055A KR 20187006055 A KR20187006055 A KR 20187006055A KR 20180026803 A KR20180026803 A KR 20180026803A
Authority
KR
South Korea
Prior art keywords
tile
tile group
roi
picture
tiles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020187006055A
Other languages
English (en)
Inventor
얀 예
유웬 히
용 히
Original Assignee
브이아이디 스케일, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 브이아이디 스케일, 인크. filed Critical 브이아이디 스케일, 인크.
Publication of KR20180026803A publication Critical patent/KR20180026803A/ko
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

타일 및 타일 그룹을 이용한 관심 영역(region of interest, ROI) 비디오 코딩에 관한 시스템, 방법 및 수단이 개시된다. 복수의 타일을 포함한 인코딩된 비디오 시퀀스가 수신될 수 있다. 복수의 타일은 하나 이상의 타일 그룹으로 나누어질 수 있다. 상기 하나 이상의 타일 그룹의 파라미터들을 표시하는 시그널링이 수신될 수 있다. 상기 하나 이상의 타일 그룹 중 하나의 타일 그룹이 디코딩되고 디코딩된 타일 그룹에 관한 화상이 디스플레이될 수 있다. 디코딩된 타일 그룹은 상기 ROI와 중첩할 수 있다. ROI는 디스플레이된 화상에 대응할 수 있고, 디스플레이된 화상은 인코딩된 비디오 시퀀스의 일부일 수 있다. 상기 ROI와 중첩하지 않는 타일 그룹은 디코딩되지 않을 수 있다.

Description

타일 및 타일 그룹을 이용한 관심 영역 비디오 코딩{REGION OF INTEREST VIDEO CODING USING TILES AND TILE GROUPS}
이 출원은 2012년 9월 18일자 출원한 미국 가특허 출원 제61/702,676호를 우선권 주장하며, 이 우선권 출원의 전체 내용은 여기에서의 인용에 의해 본원에 통합된다.
고효율 비디오 코딩(High Efficiency Video Coding, HEVC)은 H.264/AVC와 동일한 주관적 품질로 2배의 압축비를 달성할 수 있다. 스마트폰 및 태블릿의 폭발적인 성장에 의해, 비제한적인 예를 들자면 비디오 스트리밍, 비디오 채팅, 비디오 공유 및 게이밍과 같은 모바일 비디오 기기가 사람들의 일상 생활의 일부가 되고 있다. 모바일 장치에서 비디오 트래픽의 폭발적 성장은 4G 모바일 네트워크의 구현과 함께 무선 네크 하부구조에 대한 중대한 수요를 가져올 수 있다. HEVC는 일부 대역폭 문제를 완화하기 위해 모바일 공간에서 활용될 수 있다. 울트라 HDTV(U-HDVC)의 활용은 HEVC 시장 채용을 위한 원동력이 될 수 있다.
HEVC는 비제한적인 예를 들자면 확장형 비디오 블록 사이즈(예를 들면, 최대 64×64까지), 대변환 사이즈(예를 들면, 최대 32×32까지), 진보형 모션 벡터 예측(advanced motion vector prediction, AMVP), 및 개선된 코딩 효율을 위한 샘플 적응 오프셋(sample adaptive offset, SAO)과 같은 다수의 코딩 툴을 포함할 수 있다. HEVC는 비제한적인 예를 들자면 슬라이스 구조 외에 파면 병렬 처리(Wavefront Parallel Processing, WPP) 및 타일과 같은 툴을 포함한 병렬화를 지원할 수 있다. WPP 및/또는 타일을 사용할 경우, 1 화상(picture)에 대응하는 비디오 비트스트림이 비트스트림의 독립적으로 디코딩가능한 부분집합으로 패킷화될 수 있지만, 슬라이스 헤더의 추가적인 오버헤드를 발생하지 않을 수 있다. WPP 및 타일은 화상을 복수의 영역으로 분할하여 상기 영역들의 동시 디코딩이 병렬로 가능하게 할 수 있다.
타일 및 타일 그룹을 이용한 관심 영역(region of interest, ROI) 비디오 코딩에 관한 시스템, 방법 및 수단이 개시된다. 복수의 타일로 분할되는 화상의 시간 계열을 포함한 인코딩된 비디오 시퀀스가 수신될 수 있다. 복수의 타일은 화상을 표시하는 모든 타일들이 타일 그룹의 구성원이 아니라는 전제로 적어도 하나 이상의 타일 그룹으로 나누어질 수 있다. 상기 적어도 하나 이상의 타일 그룹의 파라미터들을 표시하는 시그널링이 수신될 수 있다. 타일 그룹은 디코딩되고 디코딩된 타일 그룹에 관한 화상의 ROI가 디스플레이될 수 있다. ROI 내에 있는 타일 그룹만이 디코딩될 수 있다. 상기 적어도 하나 이상의 타일 그룹의 파라미터들은 복수의 타일 그룹, 각 타일 그룹 내의 복수의 타일, 및 각 타일의 인덱스를 포함할 수 있다. 상기 적어도 하나 이상의 타일 그룹의 파라미터들은 화상 파라미터 집합(picture parameter set, PPS), 비디오 유저빌리티 정보(video usability information, VUI), 또는 보충 강화 정보(supplemental enhancement information, SEI) 메시지로 시그널링될 수 있다. 타일 그룹은 타일 그룹 내의 모든 화소들이 그 참조 화상 내 동일한 타일 그룹의 화소들로부터 시간적으로 예측되도록 제약(constrain)될 수 있다.
관심 영역(region of interest, ROI)을 표시하는 시그널링은 비디오 디코더에 의해 수신될 수 있고, 또는 ROI가 다른 방식으로 결정될 수 있다. ROI는 송신기 또는 수신기에 의해 결정될 수 있고, 또는 송신기와 수신기 간에 협의될 수 있다. 송신기가 ROI를 결정하거나 또는 협의하는 경우에는 비트스트림의 시그널링이 필요할 수 있다. 예를 들면, 콘텐츠 제공자는 하나 이상의 관심 영역을 식별할 수 있고, 이러한 ROI의 표시(시간에 따른 공간적 선명도)를 비트스트림 자체로 인코딩할 수 있다(예를 들면, ROI는 화상의 상부 좌측 코너에 관한 그 정점의 화소 좌표를 통하여 표시될 수 있다). 디코더 측에서, 이용가능 ROI는 사용자 인터페이스로 최종 사용자에게 제공될 수 있고, 상기 최종 사용자는 ROI를 선택하여 그 영역만을 볼 수 있다. ROI 정보는 또한 비트스트림 외부로 송신될 수 있다. 다른 예에 있어서, 최종 사용자가 디스플레이된 비디오 콘텐츠에서 관심 영역을 식별할 수 있게 하는 사용자 인터페이스가 제공될 수 있고, 장치가 ROI를 디스플레이하기 위해 줌(zoom)할 수 있으며, 그러한 줌에 의해 비디오 콘텐츠의 다른 영역이 디스플레이로부터 배제될 수 있다. ROI는 디스플레이된 화상에 대응할 수 있고, 디스플레이된 화상은 인코딩된 비디오 시퀀스의 일부일 수 있다. 인코딩된 비디오 시퀀스 전체가 디코딩되지 않고, 디스플레이된 화상, 또는 상기 디스플레이된 화상과 중첩하는 타일 그룹(들)만을 디코딩할 수 있다.
도 1은 하나의 화상을 복수의 타일로 수평 치수 및 수직 치수에 있어서 고르게 분할하는 예를 보인 도이다.
도 2a는 4개의 타일 중 2개의 타일에 포함된 ROI의 예를 보인 도이다.
도 2b는 시간 인스턴스 (T+1)에서 ROI 내측에 있지만 시간 인스턴스 T에서 ROI 외측에 있는 블록의 예를 보인 도이다.
도 3은 화상의 타일들을 2개 이상의 타일 그룹으로 그룹화하는 예를 보인 도이다.
도 4는 화상의 타일들 중 일부를 하나의 타일 그룹으로 그룹화하고 타일들 중 다른 부분은 타일 그룹에 속하지 않는 예를 보인 도이다.
도 5는 타일 그룹 내 블록들의 모션 예측에 대한 제약의 예를 보인 도이다.
도 6은 타일 그룹(및 타일)이 형상을 변경할 때 타일 그룹 내 블록들의 모션 예측에 대한 제약의 예를 보인 도이다.
도 7은 타일이 형상을 변경하고 타일 그룹이 추가될 때 타일 그룹 내 블록들의 모션 예측에 대한 제약의 예를 보인 도이다.
도 8a는 하나 이상의 본 발명의 실시형태가 구현될 수 있는 예시적인 통신 시스템의 계통도이다.
도 8b는 도 8a에 도시된 통신 시스템에서 사용될 수 있는 예시적인 무선 송수신 유닛(WTRU)의 계통도이다.
도 8c는 도 8a에 도시된 통신 시스템에서 사용될 수 있는 예시적인 무선 접근 네트워크 및 예시적인 코어 네트워크의 계통도이다.
도 8d는 도 8a에 도시된 통신 시스템에서 사용될 수 있는 다른 예시적인 무선 접근 네트워크 및 다른 예시적인 코어 네트워크의 계통도이다.
도 8e는 도 8a에 도시된 통신 시스템에서 사용될 수 있는 다른 예시적인 무선 접근 네트워크 및 다른 예시적인 코어 네트워크의 계통도이다.
관심 영역(ROI)은 전술한 바와 같이 전체 화상이 아닌, 비디오 시퀀스 내의 화상의 일부를 말한다. ROI 코딩은 모바일 비디오 기기용으로 활용될 수 있다. 예를 들면, 모바일 장치는 화면 사이즈가 제한되기 때문에, 사람들은 예컨대 터치 스크린을 이용하여 관심 영역을 터치함으로써, 포인터 장치를 이용하여 관심 영역에 선을 그리거나 관심 영역 주위에 박스를 그림으로써, 또는 어떤 다른 수단에 의해, 화면을 보면서 특정의 비디오 영역으로 줌할 수 있다. 비디오 콘텐츠는 모바일 용도가 아닌 다른 목적으로 생성될 수 있다(예를 들면, TV 방송용으로). 그러한 콘텐츠는 비제한적인 예를 들자면 비디오 스트림과 같은 모바일 기기용으로 재구성될 수 있다(예를 들면, 유튜브®, 훌루®, 아마존®, 넷플릭스® 등). 자동 비디오 크기전환(resizing) 및 목표전환(retargeting)이 활용될 수 있다. 여기에서 설명하는 구현 예들은 타일을 활용하여 디코딩 복잡성을 감소시킨 ROI 비디오 코딩를 제공할 수 있다.
타일은 HEVC에 의해 지원될 수 있다. 타일은 화상을 소정 크기의 직사각형 영역으로 분할할 수 있다. 도 1은 수평 치수 및 수직 치수에 있어서 화상(100)을 복수의 타일(102a, 102b, 102c, 102d, 102e, 102f, 102g, 102h, 102i)로 고르게 분할하는 예를 보인 도이다. 표 1은 화상 파라미터 집합의 타일들에 대한 구문 구조(syntax structure)의 예를 보인 것이다(예를 들면, HEVC에서). 만일 tiles_enabled_flag가 온으로 되면, 각 치수 내의 타일들의 수가 시그널링될 수 있다. 만일 타일들이 균일한 크기를 가지면(예를 들면, uniform_spacing_flag가 1이면), 추가의 정보가 시그널링되지 않을 수 있다. 타일의 폭 및 높이가 시그널링될 수 있다. 예를 들면, 도 1에 도시한 바와 같이, num_tile_columns_minus1 및 num_tile_rows_minus1은 2로 설정되고 uniform_spacing_flag는 1로 설정될 수 있다. 디블로킹 필터가 타일 경계를 가로질러 적용되는지를 표시하기 위해 추가의 플래그 loop_filter_across_tiles_enabled_flag를 사용할 수 있다(예를 들면, 디블로킹 필터는 경계를 따르는 가시적 불연속성을 완화하기 위해 활용될 수 있다).
Figure pat00001
인코더는 인코더가 새로운 타일 분할 파라미터(표 1)와 함께 새로운 PPS를 시그널링함으로써 타일들이 화상들 간에 분할되는 법을 변경할 수 있다. 일 예에 있어서, 타일은 서로 비교하여, 즉 이전 인스턴스에서의 동일 타일과 비교하여 동일한 크기로 유지될 필요가 없다; 예를 들어 만일 ROI가 2개의 시간 인스턴스 사이의 화상 내에서 이동하면, 인코더는 ROI가 그 현재 타일에서 유지하게 하는 새로운 타일 분할 파라미터와 함께 제2 시간 인스턴스에서 새로운 PPS를 시그널링할 수 있다. 만일 타일 그룹 멤버십이 정적으로 유지되면, 인코더는 임의의 새로운 타일 그룹 파라미터를 시그널링하지 않을 수 있다.
도 2a는 비디오 시퀀스의 화상(200)이 복수의 타일(202a, 202b, 202c, 202d)로 분할(및 타일로서 코딩)된 예를 보인 도이다. ROI(204)는 2개의 타일(202a, 202c) 내에 포함된다. ROI(204)가 중첩되는 타일(202a, 202c)은 ROI를 덮는다고 말할 수 있다. 타일(202a, 202b, 202c, 202d)들은 독립적으로 디코딩될 수 있다. 화상(200)이 디코딩될 때, ROI(204)가 중첩되는 타일(예를 들면, 2개의 타일(202a, 202c))의 디코딩은 화상의 ROI를 화면에 디스플레이하기 위해 충분할 수 있다.
비록 ROI(204)를 디스플레이하기 위해 일부(예를 들면, 일부만)의 타일(예를 들면, 타일(202a, 202c))을 디코딩할 필요가 있다 하더라도(예를 들면, 화상(200)이 참조 화상인 경우), 화상(200)의 모든 타일(202a, 202b, 202c, 202d)이 디코딩될 수 있다. HEVC는 시간 예측을 이용하여 비디오 신호에 고유한 시간 용장성을 감소시킬 수 있다. 화상(200)이 디코딩 순서로 후속 화상을 디코딩하기 위한 참조 화상으로서 사용될 수 있도록 화상의 모든 타일(예를 들면, 타일(202a, 202b, 202c, 202d))이 디코딩될 수 있다.
도 2b는 비디오 시퀀스의 화상(200)이 시간 인스턴스 T에서 복수의 타일(202a, 202b, 202c, 202d)로 분할(및 타일로서 코딩)된 예를 보인 도이다. ROI(204)는 2개의 타일(202a, 202c) 내에 포함된다. 비디오 블록(206)(예를 들면, 화소들의 그룹)은 시간 인스턴스 T에서 부분적으로 ROI(204)의 외측에 있다. 블록(206)은 시간 인스턴스 T에서 타일(202a, 202b)들을 브릿지한다.
시간 인스턴스 (T+1)에서 블록(206)을 예측하는 것이 바람직할 수 있고, 이를 위해 시간 인스턴스 T에서의 화상(200)을 참조 화상으로서 사용하여 시간 인스턴스 (T+1)에서 화상(200)을 예측할 수 있다. ROI는 정적 상태를 유지할 수 있다. 디코딩되는 화상(예를 들면, 시간 인스턴스 (T+1)에서의 화상(200))과 하나 이상의 그 참조 화상(예를 들면, 시간 인스턴스 T에서의 화상(200)) 사이의 각 타일 내에 모션 추정이 한정되는 HEVC에서의 제약이 없기 때문에, 만일 시간 인스턴스 T에서 참조 화상 내의 모든 타일(202a, 202b, 202c, 202d)이 디코딩되면, 시간 인스턴스 (T+1)에서의 비디오 블록(206)은 시간 인스턴스 T에서의 비디오 블록(206)으로부터 예측될 수 있다. 코딩 순서는 디스플레이 순서와 동일할 수 있고, 또는 비디오 시퀀스 내 화상의 코딩 순서는 비디오 시퀀스 내 화상의 디스플레이 순서와 다를 수 있다(예를 들면, 계층적 B 예측 구조).
ROI를 덮는 타일들의 부분집합(예를 들면, 도 2b의 예에서는 타일(202a, 202c))에서 모션 보상 예측이 수행되는 것을 보장하기 위해 모션 추정 중에 제약을 두는 인코더에 대한 구현 예가 여기에서 설명된다. 여기에서 설명하는 구현 예는 ROI 디코딩의 복잡성을 감소시키는데 용이할 수 있다. 여기에서 설명하는 구현 예는 예를 들면 디코더가 일련의 화상 내에서 ROI를 덮는 타일들의 부분집합을 시간 방향으로 디코딩(예를 들면, 디코딩만)하게 함으로써 디코딩 복잡성 및 전력 소모를 감소시킬 수 있다. 감소된 디코딩은 ROI를 덮는 타일들의 부분집합이 후술하는 바와 같이 동일하게 유지되는 한 수행될 수 있다. 이러한 제약은 완전한 디코딩(예를 들면, 모든 타일의 디코딩) 대신에 감소된 디코딩(예를 들면, 타일 부분집합의 디코딩)을 수행할 수 있다는 것을 디코더에게 통보하기 위해 비트스트림으로 시그널링될 수 있다.
타일 그룹을 활용할 수 있다. 타일은 그 좌표가 타일 경계(boundleft, boundright, boundtop, boundbottom) 내에 있는 화소들의 집합(pel)을 말할 수 있다. 예를 들면, T = {pel|coordx(pel)∈[boundleft, boundright] 및 coordy(pel)∈[boundtop, boundbottom]}이다.
타일 그룹(TG)은 n개의 타일들의 조합을 말한다. 즉 TG = {T0, T1, ..., Tn-1}이고, 여기에서 Ti(i=0, ..., n-1)는 화상 내 타일들이다. 화소 샘플(pel)은 만일 그 화소 샘플이 타일 그룹 내의 타일에 속하면 타일 그룹(TG)에 속할 수 있다. 타일 그룹은 모션 보상 예측이 그 자신의 경계를 넘지 않아야 한다는 (여기에서 설명하는) 제약을 만족시킬 수 있다. 예를 들어서, 만일 화상의 타일 그룹(TG) 내 화소(pel)가 인터 예측되면, 그 화소는 하나 이상의 참조 화상에 있는 동일한 타일 그룹(TG) 내 참조 화소들로부터 예측(예를 들면, 예측만)될 수 있다. 타일 그룹 내 화소들은 만일 참조 화상 내 참조 화소(pel_ref)가 타일 그룹(TG)에 속하지 않으면 그 참조 화소는 타일 그룹(TG)에 속하는 (현재) 화상 내 화소 샘플(pel_cur)의 모션 보상 예측에 사용될 수 없다는 제약을 만족시킬 수 있다.
도 3은 비디오 시퀀스 내 화상(300)을 복수의 타일(302a, 302b, 302c, 302d, 302e, 302f, 302g, 302h, 302i)로 분할(및 타일로서 코딩)하고 타일들을 타일 그룹(303, 305)으로 그룹화하는 예를 보인 도이다. 제1 타일 그룹(303)은 타일(302a, 302b, 302d, 302e)을 포함할 수 있다. 제2 타일 그룹(305)은 타일(302c, 302f, 302g, 302h, 302i)을 포함할 수 있다.
도 4는 비디오 시퀀스 내 화상(400)을 복수의 타일(402a, 402b, 402c, 402d, 402e, 402f, 402g, 402h, 402i)로 분할(및 타일로서 코딩)하고 일부 타일만이 타일 그룹(403)에 속하는 예를 보인 도이다. 예를 들면, 타일(402a, 402b, 402d, 402e)은 타일 그룹(403)에 속하고 화상 내의 나머지 타일(402c, 402f, 402g, 402h, 402i)은 임의의 타일 그룹에 속하지 않을 수 있다. 상기 나머지 타일(402c, 402f, 402g, 402h, 402i)에 의해 덮어지는 화소들을 예측하는 법에 대한 제약은 없을 수 있다.
비록 도 3 또는 도 4에 도시하지 않았지만, 타일은 2개 이상의 타일 그룹에 속할 수 있다. 예를 들어서 만일 도 3의 302a가 303 및 305 둘 다에 속하면, 즉 303 = {302a, 302b, 302d, 302e}이고 305 = {302a, 302c, 302f, 302g, 302h, 302i}이면, 302a의 화소들은 303 및 305에 의해 덮어지는 공동 영역(303∩305), 즉 302a 자체로부터 모션 보상 예측될 수 있다.
도 5는 비디오 시퀀스의 화상(500)이 시간 인스턴스 T에서 타일 그룹(503, 505)으로 그룹화되는 복수의 타일(설명의 간편성을 위해 도시 생략됨)로 분할(및 타일로서 코딩)된 예를 보인 도이다. ROI는 설명의 간편성을 위해 도시하지 않았다. ROI는 타일 그룹(503) 또는 타일 그룹(505)으로 표시될 수 있다. 그러나 실제로 ROI는 ROI가 중첩되는 타일 그룹보다 약간 더 작은 것이 유리하다. 예를 들면, 타일 그룹(503)은 표 1의 loop_filter_across_tiles_enabled_flag가 1로 설정된 경우 인루프(in-loop) 필터링(예를 들면, 디블로킹 필터, 샘플 적응 오프셋 등)이 ROI 내측의 화소 값에 영향을 주지 않고 타일 경계를 따라 수행될 수 있도록 ROI의 외측에 작은 여유를 추가로 포함할 수 있다. 비디오 블록(506)은 시간 인스턴스 T에서 타일 그룹(503) 내에 있다. 비디오 블록(508)은 시간 인스턴스 T에서 타일 그룹(505) 내에 있다.
시간 인스턴스 (T+1)에서는 시간 인스턴스 T에서의 화상(500)을 참조 화상으로서 이용하여 시간 인스턴스 (T+1)에서의 화상(500) 내 블록(506, 508)들을 예측하는 것이 바람직할 수 있다. 타일 그룹(503, 505)에 대하여 소정의 제약이 부여될 수 있다. 시간 인스턴스 (T+1)에서 타일 그룹(503) 내 비디오 블록(506)은 타일 그룹(503)의 경계 내에 온전하게 있는 참조 블록으로부터 예측(예를 들면, 예측만)될 수 있다. 시간 인스턴스 (T+1)에서 타일 그룹(505) 내의 비디오 블록(508)은 타일 그룹(505)의 경계 내에 온전하게 있는 참조 블록으로부터 예측(예를 들면, 예측만)될 수 있다. "내에 온전하게 있는"이란 부분 화소 모션 벡터에 기인하는 모션 보간을 포함하여 모션 보상 예측에 참여하는 화소들이 임의의 다른 타일 그룹의 경계 내에 있지 않은 상황을 의미한다. 이러한 제약은 상이한 타일 그룹들이 시간 도메인에서 독립적으로 디코딩될 수 있게 한다. 만일 ROI의 감소된 디코딩이 바람직하면, 제1 타일 그룹이 ROI를 덮도록 규정되고 제2 타일 그룹(또는 타일 그룹이 없음)이 화상의 나머지를 덮도록 규정될 수 있다. 이러한 구성은 디코더가 제1 타일 그룹을 화상의 시간 계열로 디코딩(예를 들면, 디코딩만)하게 하고 ROI를 디스플레이할 수 있게 한다. ROI가 타일 그룹 내에 온전하게 있도록 타일 그룹을 규정하는 것은 디코더가 ROI를 디스플레이하기 위해 그 타일 그룹의 시간 계열 화상을 디코딩(예를 들면, 디코딩만)하게 할 수 있다. 화상 내의 타일들은 예를 들어서 2개 이상의 ROI가 있으면 기기의 필요성에 따라 3개 이상의 타일 그룹으로 분할될 수 있다. 더 많은 타일 그룹이 있으면 다른 ROI를 지원하는 더 많은 가능성을 제공할 수 있다. 2개의 타일 그룹의 구성원인 타일로부터의 화소들이 그 타일로부터 예측될 수 있도록 제약이 수정될 수 있다(전술한 내용 참조).
표 1에 나타낸 바와 같이, 타일 관련 파라미터들은 HEVC에서 PPS로 시그널링될 수 있다. 비디오 시퀀스 내에서, 상이한 화상들은 상이한 PPS를 사용하도록 허용될 수 있다. 타일 파라미터들은 동일한 비디오 시퀀스에서 화상들 간에 변경될 수 있다. 비록 대부분의 비디오 기기에서 타일들의 수 및 타일들의 위치가 비디오 시퀀스(예를 들면, 일련의 화상)에서 동일하게 유지할 가능성이 높지만, 타일들의 구성이 동일한 비디오 시퀀스에서 화상들 간에 변경하도록 허용될 뿐만 아니라 타일들의 그룹핑이 화상들 간에 변경될 수 있게 하는 상황이 발생할 수 있다.
도 6은 비디오 시퀀스의 화상(600)이 시간 인스턴스 T에서 타일 그룹(603, 605)으로 그룹화되는 복수의 타일(설명의 간편성을 위해 도시 생략됨)로 분할(및 타일로서 코딩)된 예를 보인 도이다. ROI는 설명의 간편성을 위해 도시하지 않았다. 비디오 블록(606)은 시간 인스턴스 T에서 타일 그룹(603) 내에 있다. 비디오 블록(608)은 시간 인스턴스 T에서 타일 그룹(605) 내에 있다.
시간 인스턴스 (T+1)에서는 시간 인스턴스 T에서의 화상(600)을 참조 화상으로서 이용하여 화상(600) 내의 블록(606, 608)들을 예측하는 것이 바람직할 수 있다.
시간 인스턴스 (T+2)에서, 타일 그룹(603, 605)은 시간 인스턴스 T와 시간 인스턴스 (T+1)에서의 화상(600)과는 다르게, 예를 들면 상부 및 하부의 분할으로부터 좌측 및 우측의 분할으로 분할되었지만, 비디오 블록(606)은 온전히 타일 그룹(603) 내에 있고 비디오 블록(608)은 온전히 타일 그룹(605) 내에 있다. 그럼에도 불구하고 상이한 형상의 타일 및 타일 그룹을 가진 동일한 시퀀스 내 화상들의 이러한 예는 전술한 모션 예측 제약을 만족시킨다, 즉 시간 인스턴스 (T+2)에서의 화상(600) 내 블록(606, 608)들은 시간 인스턴스 (T+1)에서의 화상(600)을 참조 화상으로서 이용하여 예측될 수 있다. PPS 신호는 타일 및 타일 그룹을 규정하는 시간 인스턴스 T 전에 전송될 수 있다. 다른 PPS 신호는 타일 및 타일 그룹을 규정하는 시간 인스턴스 (T+1)과 시간 인스턴스 (T+2) 사이에서 전송될 수 있다.
도 7은 비디오 시퀀스의 화상(700)이 시간 인스턴스 T에서 타일 그룹(703)으로 그룹화되는 복수의 타일(설명의 간편성을 위해 점선으로 도시됨)로 분할(및 타일로서 코딩)된 예를 보인 도이다. ROI는 설명의 간편성을 위해 도시하지 않았다. 비디오 블록(706)은 시간 인스턴스 T에서 타일 그룹(703) 내에 있다. 비디오 블록(708)은 시간 인스턴스 T에서 역시 타일 그룹(703) 내에 있다.
시간 인스턴스 (T+1)에서는 시간 인스턴스 T에서의 화상(700)을 참조 화상으로서 이용하여 화상(700) 내의 블록(706, 708)들을 예측하는 것이 바람직할 수 있다.
시간 인스턴스 (T+2)에서, 타일 그룹(703)은 시간 인스턴스 T와 시간 인스턴스 (T+1)에서의 화상(700)과는 다르게 분할되었고, 새로운 타일 그룹(705)이 생성되었다. 비디오 블록(706)은 계속하여 온전히 타일 그룹(703) 내에 있다. 비디오 블록(708)은 이제 온전히 새로운 타일 그룹(705) 내에 있다. 이것은 상이한 시간 인스턴스에서 다른 형상의 타일 및 타일 그룹, 및 다른 수의 타일 그룹을 보이는 예이다. 여기에서 설명하는 타일 그룹 제약은 시간 인스턴스 (T+2) 및 (T+3) 동안에 비디오 블록(706)이 시간 인스턴스 T 및 (T+1)에서의 타일 그룹(703)으로부터 예측될 수 있다고 표시할 수 있다. 타일 그룹(703)이 시간 인스턴스 T 및 (T+1)에서 전체 화상을 덮고 있기 때문에, 모션 보상 예측에 대한 제한이 적을 수 있다(예를 들면, 일부 경계 조건을 제외하고). 타일 그룹(705)이 시간 인스턴스 T 및 (T+1)에서는 존재하지 않기 때문에, 시간 인스턴스 (T+2) 동안에, 비디오 블록(708)은 제약되지 않고 화상 내의 임의 위치로부터 예측될 수 있다. 시간 인스턴스 (T+3) 동안에, 비디오 블록(708)은 시간 인스턴스 T 및 (T+1)에서의 화상 내의 임의 위치로부터 예측될 수 있고(즉, 어떠한 제약도 없이), 또는 시간 인스턴스 (T+2)에서의 타일 그룹(705) 내로부터 예측될 수 있다.
비록 도 4 내지 도 7에 도시되어 있지 않지만, 타일 그룹들은 공간적으로 인접해 있거나 인접해 있지 않은 타일들로 구성될 수 있다.
타일 그룹들은 표 2의 구문(syntax)을 이용하여 시그널링될 수 있다. 화상 내의 타일 그룹의 수가 먼저 시그널링될 수 있다. 각 타일 그룹에 있어서, 화상 내에 포함된 타일들의 수가 시그널링될 수 있다. 그룹 내 타일들의 각 인덱스가 시그널링될 수 있다. 래스터 주사 순서(raster scan order)를 이용하여 화상 내 타일들을 인덱싱할 수 있다. 타일 그룹 내 타일들은 분리된 인덱스를 가질 수 있고, 및/또는 공간적으로 분리될 수 있다. 구문 요소의 값들을 코딩하기 위해 각종의 코딩 구현 예를 적용할 수 있다(예를 들면, 표 2에 나타낸 것처럼). 예를 들면, ue(v)(지수 골롬 코드(Exponential Golomb code)) 및/또는 u(v)(고정 길이 코딩)를 사용할 수 있다. 예를 들면 표 2에 나타낸 바와 같은 구문 요소의 값은 화상 내 타일들의 수에 의해 묶여질 수 있다. 비트의 수는 만일 u(v)를 사용하면 그에 따라서 결정될 수 있다.
Figure pat00002
비디오 스트림에 타일 그룹 구문 요소를 통합하기 위해 다른 구현 예를 사용할 수 있다. 타일 관련 파라미터는 PPS로 시그널링될 수 있다(예를 들면, 표 1에 나타낸 바와 같이). 타일 그룹 파라미터(예를 들면, 표 2에 나타낸 것)는 PPS로 시그널링될 수 있다(예를 들면, 타일 파라미터가 전송된 후에).
타일 그룹은 비디오 유저빌리티 정보(VUI)로 시그널링될 수 있다. VUI는 시퀀스 파라미터 집합(SPS)의 일부로서 제시될 수 있다. VUI는 비제한적인 예를 들자면 비트스트림 일치성, 색 공간 정보 및 비트스트림 제약과 같은 소정 범위의 정보를 수신기에게 전달하기 위해 사용될 수 있다. VUI는 비트스트림에서 타일의 사용에 제한을 두기 위해 사용되는 구문 요소를 포함할 수 있다. 예를 들면, tiles_fixed_structure_flag가 VUI에서 사용될 수 있다. tiles_fixed_structure_flag는 타일의 구성이 동일한 비디오 시퀀스에서 화상들 간에 변경될 수 있는지를 표시할 수 있다. tiles_fixed_structure_flag는 동일한 시퀀스 내의 하나 이상의 활성 PPS가 상이한 타일 파라미터를 가질 수 있는지를 표시할 수 있다. 도 6 및 도 7에서 제공된 예들은 tiles_fixed_structure_flag가 0으로 설정된 경우에 존재할 수 있다. 타일 그룹 파라미터는 예를 들면 표 3에 나타낸 것처럼 VUI의 일부로서 시그널링될 수 있다.
Figure pat00003
타일 그룹 시그널링은 SEI 메시지를 통해 제공될 수 있다. HEVC는 각종 목적으로 보충 정보를 전달하기 위해 일련의 보충 강화 정보(SEI) 메시지를 규정할 수 있다. SEI 메시지는 수신기 측에서 소정의 동작을 촉진하기 위해 비디오에 대한 유용한 정보를 제공할 수 있다. 그러나, 메시지는 디코딩 처리 자체에 필수적인 것이 아닐 수 있다. 예를 들면, 디스플레이 방위 SEI 메시지(예를 들면, SEI 페이로드 유형 47)는 비디오 시퀀스 내 하나 이상의 화상의 방위에 대하여 디코더에게 통보하기 위해 사용될 수 있다(예를 들면, HEVC에서). 클라이언트 장치는 방위 SEI 메시지를 이용하여 필요할 때 화상을 회전시켜서 사용자가 정확한 방위에서 비디오를 보게 할 수 있다. 만일 방위 SEI 메시지를 사용하지 않으면, 비트스트림은 여전히 정확하게 디코딩될 수 있지만, 시퀀스 내의 하나 이상의 화상은 부정확하게 디스플레이될 수 있다(예를 들면, 하나 이상의 화상이 거꾸로 될 수 있고, 90도만큼 시계 방향으로 또는 반시계 방향으로 회전될 수 있다). 만일 타일 그룹이 SEI 메시지로서 시그널링되면, SEI 페이로드 유형이 예를 들면 타일 그룹에 지정되고, 그 다음에 구문 요소에 지정될 수 있다(예를 들면, 표 2에 나타낸 것처럼).
디코딩 복잡성을 감소시키기 위해 타일 그룹 및 ROI 코딩을 활용하는 구현 예가 여기에서 설명될 수 있다. 구현 예들은 타일 그룹 및 ROI 코딩을 활용하여 ROI와 중첩하지 않는 하나 이상의 타일 그룹의 디코딩을 건너뛸 수 있다. 타일 그룹들은 더 미세한 입도로 병렬 디코딩을 더욱 가속화하기 위해 사용될 수 있다. 예를 들면, 타일 그룹 없이 타일들을 이용하여 다중 스레드 디코딩을 수행하는 경우, 참조 화상 디코딩은 상이한 타일들 간의 화상 레벨로 동기화될 수 있다. 그 이유는 후속 화상에서 타일의 디코딩이 전체 참조 화상을 참조할 필요가 있기 때문이다. 만일 타일 그룹이 인에이블되면, 참조 화상 디코딩은 (예를 들면, 부화상 레벨과 동일할 수 있는) 타일 그룹 레벨에서 동기화될 수 있다. 이것에 의해 디코더는 스레드들 간의 디코딩 부하를 더 잘 조정할 수 있다.
도 8a는 하나 이상의 본 발명의 실시형태를 구현할 수 있는 예시적인 통신 시스템(800)을 보인 도이다. 통신 시스템(800)은 복수의 무선 사용자에게 음성, 데이터, 비디오, 메시지, 방송 등의 콘텐츠를 제공하는 다중 접속 시스템일 수 있다. 통신 시스템(800)은 복수의 무선 사용자들이 무선 대역폭을 포함한 시스템 자원을 공유함으로써 상기 콘텐츠에 접근할 수 있게 한다. 예를 들면, 통신 시스템(800)은 코드 분할 다중 접속(CDMA), 시분할 다중 접속(TDMA), 주파수 분할 다중 접속(FDMA), 직교 FDMA(OFDMA), 단일 캐리어 FDMA(SC-FDMA) 등과 같은 하나 이상의 채널 접속 방법을 이용할 수 있다.
도 8a에 도시된 것처럼, 통신 시스템(800)은 무선 송수신 유닛(WTRU)(802a, 802b, 802c, 802d), 무선 접근 네트워크(radio access network; RAN)(803/804/805), 코어 네트워크(806/807/809), 공중 교환식 전화망(public switched telephone network; PSTN)(808), 인터넷(810) 및 기타의 네트워크(812)를 포함하고 있지만, 본 발명의 실시형태는 임의 수의 WTRU, 기지국, 네트워크 및/또는 네트워크 요소를 포함할 수 있다는 것을 이해할 것이다. 각각의 WTRU(802a, 802b, 802c, 802d)는 무선 환경에서 동작 및/또는 통신하도록 구성된 임의 유형의 장치일 수 있다. 예를 들면, WTRU(802a, 802b, 802c, 802d)는 무선 신호를 송신 및/또는 수신하도록 구성될 수 있고, 사용자 장비(UE), 이동국, 고정식 또는 이동식 가입자 유닛, 페이저, 셀룰러 전화기, 개인 정보 단말기(personal digital assistant; PDA), 스마트폰, 랩톱, 넷북, 퍼스널 컴퓨터, 무선 센서, 가전제품, 또는 압축 비디오 통신을 수신 및 처리할 수 있는 임의의 다른 단말을 포함할 수 있다.
통신 시스템(800)은 기지국(814a)과 기지국(814b)을 또한 포함할 수 있다. 각각의 기지국(814a, 814b)은 적어도 하나의 WTRU(802a, 802b, 802c, 802d)와 무선으로 인터페이스 접속하여 코어 네트워크(806/807/809), 인터넷(810) 및/또는 네트워크(812)와 같은 하나 이상의 통신 네트워크에 접근하도록 구성된 임의 유형의 장치일 수 있다. 예를 들면, 기지국(814a, 814b)은 기지국 송수신기(base transceiver station; BTS), 노드-B, e노드 B, 홈 노드 B, 홈 e노드 B, 사이트 제어기, 접근점(access point; AP), 무선 라우터 등일 수 있다. 비록 기지국(814a, 814b)이 각각 단일 요소로서 도시되어 있지만, 기지국(814a, 814b)은 임의 수의 상호접속된 기지국 및/또는 네트워크 요소를 포함할 수 있다는 것을 이해할 것이다.
기지국(814a)은 RAN(803/804/805)의 일부일 수 있고, RAN(803/804/805)은 기지국 제어기(base station controller; BSC), 라디오 네트워크 제어기(radio network controller; RNC), 릴레이 노드 등과 같은 다른 기지국 및/또는 네트워크 요소(도시 생략됨)를 또한 포함할 수 있다. 기지국(814a) 및/또는 기지국(814b)은 셀(도시 생략됨)이라고도 부르는 특정의 지리적 영역 내에서 무선 신호를 송신 및/또는 수신하도록 구성될 수 있다. 셀은 복수의 셀 섹터로 세분될 수 있다. 예를 들면, 기지국(814a)과 관련된 셀은 3개의 섹터로 나누어질 수 있다. 따라서, 일 실시형태에 있어서, 기지국(814a)은 셀의 각 섹터마다 하나씩 3개의 송수신기를 포함할 수 있다. 다른 실시형태에 있어서, 기지국(814a)은 다중입력 다중출력(MIMO) 기술을 사용할 수 있고, 따라서 셀의 각 섹터마다 복수의 송수신기를 사용할 수 있다.
기지국(814a, 814b)은 임의의 적당한 무선 통신 링크(예를 들면, 라디오 주파수(RF), 마이크로파, 적외선(IR), 자외선(UV), 가시광선 등)일 수 있는 무선 인터페이스(815/816/817)를 통하여 하나 이상의 WTRU(802a, 802b, 802c, 802d)와 통신할 수 있다. 무선 인터페이스(815/816/817)는 임의의 적당한 무선 접근 기술(radio access technology; RAT)을 이용하여 확립될 수 있다.
더 구체적으로, 위에서 언급한 것처럼, 통신 시스템(800)은 다중 접근 시스템일 수 있고, CDMA, TDMA, FDMA, OFDMA, SC-FDMA 등과 같은 하나 이상의 채널 접근 방식을 이용할 수 있다. 예를 들면, RAN(803/804/805) 내의 기지국(814a)과 WTRU(802a, 802b, 802c)는 광대역 CDMA(WCDMA)를 이용하여 무선 인터페이스(815/816/817)를 확립하는 범용 이동통신 시스템(UMTS) 지상 라디오 액세스(UTRA)와 같은 무선 기술을 구현할 수 있다. WCDMA는 고속 패킷 액세스(HSPA) 및/또는 진화형 HSPA(HSPA+)와 같은 통신 프로토콜을 포함할 수 있다. HSPA는 고속 다운링크 패킷 액세스(HSDPA) 및/또는 고속 업링크 패킷 액세스(HSUPA)를 포함할 수 있다.
다른 실시형태에 있어서, 기지국(814a)과 WTRU(802a, 802b, 802c)는 롱텀 에볼루션(LTE) 및/또는 LTE-어드반스드(LTE-A)를 이용하여 무선 인터페이스(815/816/817)를 확립하는 진화형 UMTS 지상 라디오 액세스(E-UTRA)와 같은 무선 기술을 구현할 수 있다.
다른 실시형태에 있어서, 기지국(814a)과 WTRU(802a, 802b, 802c)는 IEEE 802.16(즉, WiMAX(Worldwide Interoperability for Microwave Access)), CDMA2000, CDMA2000 1X, CDMA2000 EV-DO, 잠정 표준 2000(IS-2000), 잠정 표준 95(IS-95), 잠정 표준 856(IS-856), 글로벌 이동통신 시스템(GSM), EDGE(Enhanced Data rates for GSM Evolution), GSM EDGE(GERAN) 등과 같은 무선 기술을 구현할 수 있다.
도 8a의 기지국(814b)은 예를 들면 무선 라우터, 홈 노드 B, 홈 e노드 B, 또는 접근점일 수 있고, 사업장, 홈, 자동차, 캠퍼스 등과 같은 국소 지역에서 무선 접속을 가능하게 하는 임의의 적당한 RAT를 이용할 수 있다. 일 실시형태에 있어서, 기지국(814b)과 WTRU(802c, 802d)는 IEEE 802.11과 같은 무선 기술을 구현하여 무선 근거리 통신망(WLAN)을 확립할 수 있다. 다른 실시형태에 있어서, 기지국(814b)과 WTRU(802c, 802d)는 IEEE 802.15와 같은 무선 기술을 구현하여 무선 개인 통신망(WPAN)을 확립할 수 있다. 또 다른 실시형태에 있어서, 기지국(814b)과 WTRU(802c, 802d)는 셀룰러 기반 RAT(예를 들면, WCDMA, CDMA2000, GSM, LTE, LTE-A 등)를 이용하여 피코셀 또는 펨토셀을 확립할 수 있다. 도 8a에 도시된 바와 같이, 기지국(814b)은 인터넷(810)에 직접 접속될 수 있다. 그러므로, 기지국(814b)은 코어 네트워크(806/807/809)를 통해 인터넷(810)에 접속할 필요가 없다.
RAN(803/804/805)은 코어 네트워크(806/807/809)와 통신하고, 코어 네트워크(806/807/809)는 하나 이상의 WTRU(802a, 802b, 802c, 802d)에게 음성, 데이터, 애플리케이션 및/또는 인터넷을 통한 음성 프로토콜(voice over internet protocol; VoIP) 서비스를 제공하도록 구성된 임의 유형의 네트워크일 수 있다. 예를 들면, 코어 네트워크(806/807/809)는 호출 제어, 빌링(billing) 서비스, 모바일 위치 기반 서비스, 선불 통화, 인터넷 접속, 비디오 분배 등을 제공할 수 있고, 및/또는 사용자 인증과 같은 고급 보안 기능을 수행할 수 있다. 비록 도 8a에 도시되어 있지 않지만, RAN(803/804/805) 및/또는 코어 네트워크(806/807/809)는 RAN(803/804/805)과 동일한 RAT 또는 다른 RAT를 이용하는 다른 RAN과 직접 또는 간접 통신을 할 수 있다는 것을 이해할 것이다. 예를 들면, E-UTRA 무선 기술을 이용하여 RAN(803/804/805)에 접속하는 것 외에, 코어 네트워크(806/807/809)는 GSM 무선 기술을 이용하여 다른 RAN(도시 생략됨)과도 또한 통신할 수 있다.
코어 네트워크(806/807/809)는 WTRU(802a, 802b, 802c, 802d)가 PSTN(808), 인터넷(810) 및/또는 기타 네트워크(812)에 접속하게 하는 게이트웨이로서 또한 기능할 수 있다. PSTN(808)은 재래식 전화 서비스(plain old telephone service; POTS)를 제공하는 회선 교환식 전화망을 포함할 수 있다. 인터넷(810)은 TCP/IP 인터넷 프로토콜 스위트(suite)에서 전송 제어 프로토콜(TCP), 사용자 데이터그램 프로토콜(UDP) 및 인터넷 프로토콜(IP)과 같은 공통의 통신 프로토콜을 이용하는 상호접속된 컴퓨터 네트워크 및 장치의 글로벌 시스템을 포함할 수 있다. 네트워크(812)는 다른 서비스 공급자에 의해 소유 및/또는 운용되는 유선 또는 무선 통신 네트워크를 포함할 수 있다. 예를 들면, 네트워크(812)는 RAN(803/804/805)과 동일한 RAT 또는 다른 RAT를 이용하여 하나 이상의 RAN에 접속된 다른 코어 네트워크를 포함할 수 있다.
통신 시스템(800)의 WTRU(802a, 802b, 802c, 802d)의 일부 또는 전부는 다중 모드 능력을 구비할 수 있다. 예를 들면, WTRU(802a, 802b, 802c, 802d)는 다른 무선 링크를 통하여 다른 무선 네트워크와 통신하기 위한 복수의 송수신기를 포함할 수 있다. 예를 들면, 도 8a에 도시된 WTRU(802c)는 셀룰러 기반 무선 기술을 이용하여 기지국(814a)과 통신하고, IEEE 802 무선 기술을 이용하여 기지국(814b)과 통신하도록 구성될 수 있다.
도 8b는 예시적인 WTRU(802)의 계통도이다. 도 8b에 도시된 바와 같이, WTRU(802)는 프로세서(818), 송수신기(820), 송수신 엘리멘트(822), 스피커/마이크로폰(824), 키패드(826), 디스플레이/터치패드(828), 비분리형 메모리(830), 분리형 메모리(832), 전원(834), 글로벌 위치확인 시스템(GPS) 칩세트(836) 및 기타 주변장치(838)를 포함할 수 있다. WTRU(802)는 실시형태의 일관성을 유지하면서 전술한 요소들의 임의의 부조합(sub-combination)을 포함할 수 있다는 것을 이해할 것이다. 또한, 실시형태는 기지국(814a, 814b), 및/또는 기지국(814a, 814b)이 비제한적인 예로서, 다른 무엇보다도 특히, 기지국 송수신기(BTS), 노드-B, 사이트 제어기, 접근점(AP), 홈 노드-B, 진화형 홈 노드-B(e노드B), 홈 e노드-B(HeNB), 홈 e노드-B 게이트웨이, 및 프록시 노드를 대표할 수 있는 노드들이 도 8b에 도시되고 여기에서 설명하는 요소들의 일부 또는 전부를 포함하는 것을 예상한다.
프로세서(818)는 범용 프로세서, 특수 용도 프로세서, 전통적 프로세서, 디지털 신호 프로세서(DSP), 그래픽 처리 유닛(GPU), 복수의 마이크로프로세서, DSP 코어와 연합하는 하나 이상의 마이크로프로세서, 컨트롤러, 마이크로컨트롤러, 용도 지정 집적회로(ASIC), 현장 프로그램가능 게이트 어레이(FPGA) 회로, 임의의 다른 유형의 집적회로(IC), 상태 기계 등일 수 있다. 프로세서(818)는 신호 코딩, 데이터 처리, 전력 제어, 입력/출력 처리, 및/또는 WTRU(802)가 무선 환경에서 동작하게 하는 임의의 다른 기능을 수행할 수 있다. 프로세서(818)는 송수신기(820)에 결합되고, 송수신기(820)는 송수신 엘리멘트(822)에 결합될 수 있다. 비록 도 8b에서는 프로세서(818)와 송수신기(820)가 별도의 구성요소로서 도시되어 있지만, 프로세서(818)와 송수신기(820)는 전자 패키지 또는 칩으로 함께 통합될 수 있음을 이해할 것이다.
송수신 엘리멘트(822)는 무선 인터페이스(815/816/817)를 통하여 기지국(예를 들면 기지국(814a))에 신호를 송신하거나 기지국으로부터 신호를 수신하도록 구성될 수 있다. 예를 들면, 일 실시형태에 있어서, 송수신 엘리멘트(822)는 RF 신호를 송신 및/또는 수신하도록 구성된 안테나일 수 있다. 다른 실시형태에 있어서, 송수신 엘리멘트(822)는 예를 들면, IR, UV 또는 가시광 신호를 송신 및/또는 수신하도록 구성된 에미터/검지기일 수 있다. 또 다른 실시형태에 있어서, 송수신 엘리멘트(822)는 RF 신호와 광신호 둘 다를 송신 및 수신하도록 구성될 수 있다. 송수신 엘리멘트(822)는 임의의 무선 신호 조합을 송신 및/또는 수신하도록 구성될 수 있다는 것을 이해할 것이다.
또한, 비록 송수신 엘리멘트(822)가 도 8b에서 단일 엘리멘트로서 도시되어 있지만, WTRU(802)는 임의 수의 송수신 엘리멘트(822)를 포함할 수 있다. 더 구체적으로, WTRU(802)는 MIMO 기술을 이용할 수 있다. 따라서, 일 실시형태에 있어서, WTRU(802)는 무선 인터페이스(815/816/817)를 통해 무선 신호를 송신 및 수신하기 위해 2개 이상의 송수신 엘리멘트(822)(예를 들면, 다중 안테나)를 포함할 수 있다.
송수신기(820)는 송수신 엘리멘트(822)에 의해 송신할 신호들을 변조하고 송수신 엘리멘트(822)에 의해 수신된 신호를 복조하도록 구성될 수 있다. 전술한 바와 같이, WTRU(802)는 다중 모드 능력을 구비할 수 있다. 따라서, 송수신기(820)는 WTRU(802)가 예를 들면 UTRA 및 IEEE 802.11과 같은 복수의 RAT를 통하여 통신하게 하는 복수의 송수신기를 포함할 수 있다.
WTRU(802)의 프로세서(818)는 스피커/마이크로폰(824), 키패드(826), 및/또는 디스플레이/터치패드(828)(예를 들면, 액정 디스플레이(LCD) 표시 장치 또는 유기 발광 다이오드(OLED) 표시 장치)에 결합되어 이들로부터 사용자 입력 데이터를 수신할 수 있다. 프로세서(818)는 또한 스피커/마이크로폰(824), 키패드(826), 및/또는 디스플레이/터치패드(828)에 사용자 데이터를 출력할 수 있다. 또한, 프로세서(818)는 비분리형 메모리(830) 및/또는 분리형 메모리(832)와 같은 임의 유형의 적당한 메모리로부터의 정보에 접근하고 상기 적당한 메모리에 데이터를 저장할 수 있다. 비분리형 메모리(830)는 랜덤 액세스 메모리(RAM), 읽기 전용 메모리(ROM), 하드 디스크 또는 임의의 다른 유형의 메모리 기억장치를 포함할 수 있다. 분리형 메모리(832)는 가입자 식별 모듈(SIM) 카드, 메모리 스틱, 보안 디지털(SD) 메모리 카드 등을 포함할 수 있다. 다른 실시형태에 있어서, 프로세서(818)는 서버 또는 홈 컴퓨터(도시 생략됨)와 같이 WTRU(802)에 물리적으로 위치되어 있지 않은 메모리로부터의 정보에 접근하고 그러한 메모리에 데이터를 저장할 수 있다.
프로세서(818)는 전원(834)으로부터 전력을 수신하고, WTRU(802)의 각종 구성요소에 대하여 전력을 분배 및/또는 제어하도록 구성될 수 있다. 전원(834)은 WTRU(802)에 전력을 공급하는 임의의 적당한 장치일 수 있다. 예를 들면, 전원(834)은 하나 이상의 건전지 배터리(예를 들면, 니켈-카드뮴(NiCd), 니켈-아연(NiZn), 니켈 금속 하이드라이드(NiMH), 리튬-이온(Li-ion) 등), 태양 전지, 연료 전지 등을 포함할 수 있다.
프로세서(818)는 WTRU(802)의 현재 위치에 관한 위치 정보(예를 들면, 경도 및 위도)를 제공하도록 구성된 GPS 칩세트(836)에 또한 결합될 수 있다. GPS 칩세트(836)로부터의 정보에 추가해서 또는 그 대신으로, WTRU(802)는 기지국(예를 들면 기지국(814a, 814b))으로부터 무선 인터페이스(815/816/817)를 통해 위치 정보를 수신하고, 및/또는 2개 이상의 인근 기지국으로부터 신호가 수신되는 타이밍에 기초하여 그 위치를 결정할 수 있다. WTRU(802)는 실시형태의 일관성을 유지하면서 임의의 적당한 위치 결정 방법에 의해 위치 정보를 획득할 수 있다는 것을 이해할 것이다.
프로세서(818)는 추가의 특징, 기능 및/또는 유선 또는 무선 접속을 제공하는 하나 이상의 소프트웨어 및/또는 하드웨어 모듈을 포함한 기타 주변 장치(838)에 또한 결합될 수 있다. 예를 들면, 주변 장치(838)는 가속도계, e-콤파스, 위성 송수신기, 디지털 카메라(사진용 또는 비디오용), 범용 직렬 버스(USB) 포트, 진동 장치, 텔레비전 송수신기, 핸즈프리 헤드셋, 블루투스® 모듈, 주파수 변조(FM) 라디오 장치, 디지털 뮤직 플레이어, 미디어 플레이어, 비디오 게임 플레이어 모듈, 인터넷 브라우저 등을 포함할 수 있다.
도 8c는 일 실시형태에 따른 RAN(803) 및 코어 네트워크(806)의 계통도이다. 전술한 바와 같이, RAN(803)은 UTRA 무선 기술을 이용하여 무선 인터페이스(815)를 통해 WTRU(802a, 802b, 802c)와 통신할 수 있다. RAN(803)은 코어 네트워크(806)와 또한 통신할 수 있다. 도 8c에 도시된 것처럼, RAN(803)은 노드-B(840a, 840b, 840c)를 포함하고, 노드-B(840a, 840b, 840c)는 무선 인터페이스(815)를 통하여 WTRU(802a, 802b, 802c)와 통신하는 하나 이상의 송수신기를 각각 포함할 수 있다. 노드-B(840a, 840b, 840c)는 RAN(803) 내의 특정 셀(도시 생략됨)과 각각 연합될 수 있다. RAN(803)은 또한 RNC(842a, 842b)를 포함할 수 있다. RAN(803)은 실시형태의 일관성을 유지하면서 임의 수의 노드-B 및 RNC를 포함할 수 있다는 것을 이해할 것이다.
도 8c에 도시된 것처럼, 노드-B(840a, 840b)는 RNC(842a)와 통신할 수 있다. 또한, 노드-B(840c)는 RNC(842b)와 통신할 수 있다. 노드-B(840a, 840b, 840c)는 Iub 인터페이스를 통해 각각의 RNC(842a, 842b)와 통신할 수 있다. RNC(842a, 842b)는 Iur 인터페이스를 통해 서로 통신할 수 있다. 각각의 RNC(842a, 842b)는 이들이 접속된 각각의 노드-B(840a, 840b, 840c)를 제어하도록 구성될 수 있다. 또한 각각의 RNC(842a, 842b)는 외부 루프 전력 제어, 부하 제어, 허가 제어, 패킷 스케줄링, 핸드오버 제어, 매크로다이버시티, 보안 기능, 데이터 암호화 등과 같은 다른 기능을 실행 또는 지원하도록 구성될 수 있다.
도 8c에 도시된 코어 네트워크(806)는 미디어 게이트웨이(MGW)(844), 모바일 스위칭 센터(MSC)(846), 서빙 GPRS 지원 노드(SGSN)(848) 및/또는 게이트웨이 GPRS 지원 노드(GGSN)(850)를 포함할 수 있다. 전술한 요소들이 각각 코어 네트워크(806)의 일부로서 도시되어 있지만, 이 요소들 중 임의의 요소는 코어 네트워크 운용자가 아닌 다른 엔티티에 의해 소유 및/또는 운용될 수 있다는 것을 이해할 것이다.
RAN(803)에 있는 RNC(842a)는 IuCS 인터페이스를 통해 코어 네트워크(806) 내의 MSC(846)에 접속될 수 있다. MSC(846)는 MGW(844)에 접속될 수 있다. MSC(846)와 MGW(844)는 PSTN(808)과 같은 회선 교환식 네트워크에 대한 액세스를 WTRU(802a, 802b, 802c)에게 제공하여 WTRU(802a, 802b, 802c)와 전통적인 지상선 통신 장치 간의 통신을 가능하게 한다.
RAN(803)에 있는 RNC(842a)는 IuPS 인터페이스를 통해 코어 네트워크(806) 내의 SGSN(848)에 또한 접속될 수 있다. SGSN(848)은 GGSN(850)에 접속될 수 있다. SGSN(848)과 GGSN(850)은 인터넷(810)과 같은 패킷 교환식 네트워크에 대한 액세스를 WTRU(802a, 802b, 802c)에게 제공하여 WTRU(802a, 802b, 802c)와 IP-인에이블 장치 간의 통신을 가능하게 한다.
전술한 바와 같이, 코어 네트워크(806)는 다른 서비스 공급자에 의해 소유 및/또는 운용되는 다른 유선 또는 무선 네트워크를 포함하는 네트워크(812)에 또한 접속될 수 있다.
도 8d는 일 실시형태에 따른 RAN(804) 및 코어 네트워크(807)의 계통도이다. 전술한 바와 같이, RAN(804)은 E-UTRA 무선 기술을 이용하여 무선 인터페이스(816)를 통해 WTRU(802a, 802b, 802c)와 통신할 수 있다. RAN(804)은 코어 네트워크(807)와 또한 통신할 수 있다.
RAN(804)이 e노드-B(860a, 860b, 860c)를 포함하고 있지만, RAN(804)은 실시형태의 일관성을 유지하면서 임의 수의 e노드-B를 포함할 수 있다는 것을 이해할 것이다. e노드-B(860a, 860b, 860c)는 무선 인터페이스(816)를 통하여 WTRU(802a, 802b, 802c)와 통신하는 하나 이상의 송수신기를 각각 포함할 수 있다. 일 실시형태에 있어서, e노드-B(860a, 860b, 860c)는 MIMO 기술을 구현할 수 있다. 따라서, 예를 들면 e노드-B(860a)는 복수의 안테나를 사용하여 WTRU(802a)에게 무선 신호를 송신하고 WTRU(802a)로부터 무선 신호를 수신할 수 있다.
각각의 e노드-B(860a, 860b, 860c)는 특정 셀(도시 생략됨)과 연합될 수 있고, 무선 자원 관리 결정, 핸드오버 결정, 업링크 및/또는 다운링크에서 사용자의 스케줄링 등을 취급하도록 구성될 수 있다. 도 8d에 도시된 바와 같이, e노드-B(860a, 860b, 860c)는 X2 인터페이스를 통해 서로 통신할 수 있다.
도 8d에 도시된 코어 네트워크(807)는 이동성 관리 게이트웨이(MME)(862), 서빙 게이트웨이(864) 및 패킷 데이터 네트워크(PDN) 게이트웨이(866)를 포함할 수 있다. 전술한 요소들이 각각 코어 네트워크(807)의 일부로서 도시되어 있지만, 이 요소들 중 임의의 요소는 코어 네트워크 운용자가 아닌 다른 엔티티에 의해 소유 및/또는 운용될 수 있다는 것을 이해할 것이다.
MME(862)는 S1 인터페이스를 통해 RAN(804) 내의 각각의 e노드-B(860a, 860b, 860c)에 접속될 수 있고, 제어 노드로서 기능할 수 있다. 예를 들면, MME(862)는 WTRU(802a, 802b, 802c)의 사용자를 인증하고, 베어러를 활성화/비활성화하고, WTRU(802a, 802b, 802c)의 초기 부착 중에 특정의 서빙 게이트웨이를 선택하는 등의 임무를 수행할 수 있다. MME(862)는 또한 GSM 또는 WCDMA와 같은 다른 무선 기술을 이용하는 다른 RAN(도시 생략됨)과 RAN(804) 간의 전환을 위한 제어 평면 기능(control plane function)을 또한 제공할 수 있다.
서빙 게이트웨이(864)는 RAN(804) 내의 각각의 e노드-B(860a, 860b, 860c)에 S1 인터페이스를 통해 접속될 수 있다. 서빙 게이트웨이(864)는 일반적으로 WTRU(802a, 802b, 802c)로/로부터 사용자 데이터 패킷을 라우트 및 회송할 수 있다. 서빙 게이트웨이(864)는 또한 e노드-B 간의 핸드오버 중에 사용자 평면(user plane)을 앵커링(anchoring)하는 것, 다운링크 데이터가 WTRU(802a, 802b, 802c)에 이용할 수 있을 때 페이징을 트리거하는 것, WTRU(802a, 802b, 802c)의 콘텍스트를 관리 및 저장하는 것 등의 다른 기능을 수행할 수 있다.
서빙 게이트웨이(864)는 PDN 게이트웨이(866)에 또한 접속될 수 있고, PDN 게이트웨이(866)는 WTRU(802a, 802b, 802c)와 IP-인에이블 장치 간의 통신을 돕도록 인터넷(810) 등의 패킷 교환식 네트워크에 대한 액세스를 WTRU(802a, 802b, 802c)에게 제공할 수 있다.
코어 네트워크(807)는 다른 네트워크와의 통신을 가능하게 한다. 예를 들면, 코어 네트워크(807)는 WTRU(802a, 802b, 802c)와 전통적인 지상선(land-line) 통신 장치 간의 통신이 가능하도록, PSTN(808) 등의 회선 교환식 네트워크에 대한 액세스를 WTRU(802a, 802b, 802c)에게 제공할 수 있다. 예를 들면, 코어 네트워크(807)는 코어 네트워크(807)와 PSTN(808) 간의 인터페이스로서 기능하는 IP 게이트웨이(예를 들면, IP 멀티미디어 서브시스템(IMS) 서버)를 포함하거나 그러한 IP 게이트웨이와 통신할 수 있다. 또한, 코어 네트워크(807)는 다른 서비스 공급자에 의해 소유 및/또는 운용되는 다른 유선 또는 무선 네트워크를 포함하는 네트워크(812)에 대한 액세스를 WTRU(802a, 802b, 802c)에게 제공할 수 있다.
도 8e는 다른 실시형태에 따른 RAN(805) 및 코어 네트워크(809)의 계통도이다. RAN(805)은 IEEE 802.16 무선 기술을 이용하여 무선 인터페이스(817)를 통해 WTRU(802a, 802b, 802c)와 통신하는 액세스 서비스 네트워크(ASN)일 수 있다. 뒤에서 더 자세히 설명하는 것처럼, WTRU(802a, 802b, 802c)의 다른 기능 엔티티, RAN(805) 및 코어 네트워크(809) 간의 통신 링크는 기준점으로서 정의될 수 있다.
도 8e에 도시된 것처럼, RAN(805)이 기지국(880a, 880b, 880c)과 ASN 게이트웨이(882)를 포함하고 있지만, RAN(805)은 실시형태의 일관성을 유지하면서 임의 수의 기지국 및 ASN 게이트웨이를 포함할 수 있다는 것을 이해할 것이다. 기지국(880a, 880b, 880c)은 RAN(805) 내의 특정 셀(도시 생략됨)과 각각 연합될 수 있고, 무선 인터페이스(817)를 통하여 WTRU(802a, 802b, 802c)와 통신하는 하나 이상의 송수신기를 각각 포함할 수 있다. 일 실시형태에 있어서, 기지국(880a, 880b, 880c)은 MIMO 기술을 구현할 수 있다. 따라서, 예를 들면 기지국(880a)은 복수의 안테나를 사용하여 WTRU(802a)에게 무선 신호를 송신하고 WTRU(802a)로부터 무선 신호를 수신할 수 있다. 기지국(880a, 880b, 880c)은 핸드오프 트리거링, 터널 확립, 무선 자원 관리, 트래픽 분류, 서비스 품질(QoS) 정책 강화 등과 같은 이동성 관리 기능을 또한 제공할 수 있다. ASN 게이트웨이(882)는 트래픽 집성점으로서 기능할 수 있고, 페이징, 가입자 프로필의 캐싱, 코어 네트워크(809)로의 라우팅 등의 임무를 수행할 수 있다.
WTRU(802a, 802b, 802c)와 RAN(805) 간의 무선 인터페이스(817)는 IEEE 802.16 명세서를 구현하는 R1 기준점으로서 규정될 수 있다. 또한 각각의 WTRU(802a, 802b, 802c)는 코어 네트워크(809)와 논리 인터페이스(도시 생략됨)를 확립할 수 있다. WTRU(802a, 802b, 802c)와 코어 네트워크(809) 간의 논리 인터페이스는 R2 기준점으로서 규정될 수 있고, 이것은 인증(authentication), 권한부여(authorization), IP 호스트 구성 관리, 및/또는 이동성 관리를 위해 사용될 수 있다.
각각의 기지국(880a, 880b, 880c)들 간의 통신 링크는 WTRU 핸드오버 및 기지국들 간의 데이터 전송을 가능하게 하는 프로토콜을 포함한 R8 기준점으로서 규정될 수 있다. 기지국(880a, 880b, 880c)과 ASN 게이트웨이(882) 간의 통신 링크는 R6 기준점으로서 규정될 수 있다. R6 기준점은 각각의 WTRU(802a, 802b, 802c)와 연합된 이동성 이벤트에 기초하여 이동성 관리를 가능하게 하는 프로토콜을 포함할 수 있다.
도 8e에 도시된 것처럼, RAN(805)은 코어 네트워크(809)에 접속될 수 있다. RAN(805)과 코어 네트워크(809) 간의 통신 링크는 예를 들면 데이터 전송 및 이동성 관리 능력을 가능하게 하는 프로토콜을 포함한 R3 기준점으로서 규정될 수 있다. 코어 네트워크(809)는 모바일 IP 홈 에이전트(MIP-HA)(884), 인증, 권한부여, 계정(AAA) 서버(886), 및 게이트웨이(888)를 포함할 수 있다. 비록 전술한 요소들이 각각 코어 네트워크(809)의 일부로서 도시되어 있지만, 이 요소들 중 임의의 요소는 코어 네트워크 운용자자가 아닌 다른 엔티티에 의해 소유 및/또는 운용될 수 있다는 것을 이해할 것이다.
MIP-HA(884)는 IP 어드레스 관리의 임무를 가질 수 있고, WTRU(802a, 802b, 802c)가 다른 ASN 및/또는 다른 코어 네트워크들 사이에서 로밍하게 할 수 있다. MIP-HA(884)는 인터넷(810)과 같은 패킷 교환식 네트워크에 대한 액세스를 WTRU(802a, 802b, 802c)에게 제공하여 WTRU(802a, 802b, 802c)와 IP-인에이블 장치 간의 통신을 가능하게 한다. AAA 서버(886)는 사용자 인증 및 사용자 서비스 지원의 임무를 가질 수 있다. 게이트웨이(888)는 다른 네트워크들과의 상호연동을 가능하게 한다. 예를 들면, 게이트웨이(888)는 PSTN(808)과 같은 회선 교환식 네트워크에 대한 액세스를 WTRU(802a, 802b, 802c)에게 제공하여 WTRU(802a, 802b, 802c)와 전통적인 지상선 통신 장치 간의 통신을 가능하게 한다. 또한, 게이트웨이(888)는 다른 서비스 공급자에 의해 소유 및/또는 운용되는 다른 유선 또는 무선 네트워크를 포함한 네트워크(812)에 대한 액세스를 WTRU(802a, 802b, 802c)에게 제공할 수 있다.
비록 도 8e에는 도시되지 않았지만, RAN(805)은 다른 ASN에 접속될 수 있고 코어 네트워크(809)는 다른 코어 네트워크에 접속될 수 있다는 것을 이해할 것이다. RAN(805)과 다른 ASN 간의 통신 링크는 R4 기준점으로서 규정될 수 있고, R4 기준점은 RAN(805)과 다른 ASN 사이에서 WTRU(802a, 802b, 802c)의 이동성을 조정하는 프로토콜을 포함할 수 있다. 코어 네트워크(809)와 다른 코어 네트워크 간의 통신 링크는 R5 기준점으로서 규정될 수 있고, R5 기준점은 홈 코어 네트워크와 방문 코어 네트워크 간의 상호연동을 가능하게 하는 프로토콜을 포함할 수 있다.
위에서 설명한 방법들은 컴퓨터 및/또는 프로세서에 의해 실행되는 컴퓨터 판독가능 매체에 통합된 컴퓨터 프로그램, 소프트웨어 및/또는 펌웨어로 구현될 수 있다. 컴퓨터 판독가능 매체의 비제한적인 예로는 전자 신호(유선 또는 무선 접속을 통해 전송된 것) 및/또는 컴퓨터 판독가능 기억 매체가 있다. 컴퓨터 판독가능 기억 매체의 비제한적인 예로는 읽기 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 레지스터, 캐시 메모리, 반도체 메모리 소자, 비제한적인 예로서 내부 하드 디스크 및 착탈식 디스크와 같은 자기 매체, 자기 광학 매체, 및/또는 CD-ROM 디스크 및/또는 디지털 다기능 디스크(DVD)와 같은 광학 매체가 있다. 프로세서는 소프트웨어와 연합해서 WTRU, UE, 단말기, 기지국, RNC 및/또는 임의의 호스트 컴퓨터에서 사용되는 라디오 주파수 송수신기를 구현하기 위해 사용될 수 있다.

Claims (20)

  1. 비디오 코딩 디바이스에 있어서,
    프로세서를 포함하고, 상기 프로세서는
    타일 그룹을 포함하는 인코딩된 비디오 시퀀스를 수신하고;
    상기 인코딩된 비디오 시퀀스와 연관된 타일 그룹 파라미터들을 수신하고;
    상기 타일 그룹 파라미터들을 이용하여 상기 타일 그룹의 경계를 결정하고;
    상기 인코딩된 비디오 시퀀스의 제1 화상(picture)의 상기 타일 그룹의 경계 내의 블록을 시간 모션 보상 예측(temporal motion compensated prediction)을 이용하여 예측하도록 구성되고,
    상기 시간 모션 보상 예측은 상기 인코딩된 비디오 시퀀스의 제2 화상의 상기 타일 그룹의 경계 내에 있는 참조 픽셀들을 이용하는 것으로 제한되는 것인, 비디오 코딩 디바이스.
  2. 제1항에 있어서,
    상기 프로세서는 또한,
    상기 인코딩된 비디오 시퀀스의 상기 제1 화상의 관심 영역(region of interest, ROI)을 결정하고;
    상기 타일 그룹이 상기 ROI과 중첩(overlap)한다고 결정하고;
    상기 ROI와 중첩하지 않는 하나 이상의 타일 그룹들의 디코딩은 스킵하면서 상기 제1 화상의 상기 ROI와 충접하는 상기 타일 그룹을 디코딩하도록 구성되는 것인, 비디오 코딩 디바이스.
  3. 제2항에 있어서,
    상기 ROI는 사용자로부터의 입력에 기초하여 결정되는 것인, 비디오 코딩 디바이스.
  4. 제2항에 있어서,
    상기 타일 그룹은 제1 타일 그룹이고,
    상기 프로세서는 또한,
    상기 ROI가 상기 제1 화상의 제1 위치로부터 상기 인코딩된 비디오 시퀀스의 제3 화상의 제2 위치로 이동하여 상기 제1 타일 그룹이 상기 ROI와 중첩하지 않는다고 결정하고;
    제2 타일 그룹이 상기 ROI와 중첩한다고 결정하고;
    상기 ROI와 중첩하지 않는 하나 이상의 타일 그룹의 디코딩을 스킵하면서 상기 제3 화상의 상기 ROI와 중첩하는 상기 제2 타일 그룹을 디코딩하도록 구성되는 것인, 비디오 코딩 디바이스.
  5. 제1항에 있어서, 상기 타일 그룹 파라미터들은 복수의 타일 그룹들, 상기 복수의 타일 그룹들 각각의 복수의 타일들, 및 하나 이상의 타일 인덱스들을 표시하는 것인, 비디오 코딩 디바이스.
  6. 제5항에 있어서, 상기 하나 이상의 타일 인덱스들은 래스터 주사 순서(raster scan order)에 기초하고, 상기 타일 그룹의 복수의 타일들 중 타일의 위치를 표시하는 것인, 비디오 코딩 디바이스.
  7. 제1항에 있어서, 상기 타일 그룹 파라미터들은 보충 강화 정보(supplemental enhancement information, SEI) 메시지 또는 비디오 유저빌리티 정보(video usability information, VUI) 메시지를 통해 수신되는 것인, 비디오 코딩 디바이스.
  8. 제1항에 있어서, 상기 프로세는 또한 상기 타일 그룹의 상기 예측된 블록을 이용하여 상기 제1 화상을 디코딩하도록 구성되는 것인, 비디오 코딩 디바이스.
  9. 제1항에 있어서, 상기 제2 화상은 상기 참조 픽셀들을 포함하는 참조 화상인 것인, 비디오 코딩 디바이스.
  10. 제1항에 있어서, 상기 타일 그룹은 제1 타일 그룹이고, 상기 블록은 제1 블록이고, 상기 인코딩된 비디오 시퀀스는 또한 제2 타일 그룹을 포함하고, 상기 프로세서는 또한, 상기 시간 모션 보상 예측을 이용하여 상기 제1 화상의 상기 제2 타일 그룹의 경계 내의 제2 블록을 예측하도록 구성되고,
    상기 시간 모션 보상 예측은 상기 인코딩된 비디오 시퀀스의 상기 제2 화상의 상기 제2 타일 그룹의 경계 내에 있는 참조 픽셀들을 이용하는 것으로 제한되는 것인, 비디오 코딩 디바이스.
  11. 비디오 코딩 방법에 있어서,
    타일 그룹을 포함하는 인코딩된 비디오 시퀀스를 수신하는 단계;
    상기 인코딩된 비디오 시퀀스와 연관된 타일 그룹 파라미터들을 수신하는 단계;
    상기 타일 그룹 파라미터들을 이용하여 상기 타일 그룹의 경계를 결정하는 단계;
    상기 인코딩된 비디오 시퀀스의 제1 화상(picture)의 상기 타일 그룹의 경계 내의 블록을 시간 모션 보상 예측(temporal motion compensated prediction)을 이용하여 예측하는 단계를 포함하고,
    상기 시간 모션 보상 예측은 상기 인코딩된 비디오 시퀀스의 제2 화상의 상기 타일 그룹의 경계 내에 있는 참조 픽셀들을 이용하는 것으로 제한되는 것인, 비디오 코딩 방법.
  12. 제11항에 있어서,
    상기 인코딩된 비디오 시퀀스의 상기 제1 화상의 관심 영역(region of interest, ROI)을 결정하는 단계;
    상기 타일 그룹이 상기 ROI과 중첩(overlap)한다고 결정하는 단계;
    상기 ROI와 중첩하지 않는 하나 이상의 타일 그룹들의 디코딩은 스킵하면서 상기 제1 화상의 상기 ROI와 충접하는 상기 타일 그룹을 디코딩하는 단계를 더 포함하는 비디오 코딩 방법.
  13. 제12항에 있어서,
    상기 ROI는 사용자로부터의 입력에 기초하여 결정되는 것인, 비디오 코딩 방법.
  14. 제12항에 있어서,
    상기 타일 그룹은 제1 타일 그룹이고,
    상기 방법은,
    상기 ROI가 상기 제1 화상의 제1 위치로부터 상기 인코딩된 비디오 시퀀스의 제3 화상의 제2 위치로 이동하여 상기 제1 타일 그룹이 상기 ROI와 중첩하지 않는다고 결정하는 단계;
    제2 타일 그룹이 상기 ROI와 중첩한다고 결정하는 단계;
    상기 ROI와 중첩하지 않는 하나 이상의 타일 그룹의 디코딩을 스킵하면서 상기 제3 화상의 상기 ROI와 중첩하는 상기 제2 타일 그룹을 디코딩하는 단계를 더 포함하는 것인, 비디오 코딩 방법.
  15. 제11항에 있어서, 상기 타일 그룹 파라미터들은 복수의 타일 그룹들, 상기 복수의 타일 그룹들 각각의 복수의 타일들, 및 하나 이상의 타일 인덱스들을 표시하는 것인, 비디오 코딩 방법.
  16. 제15항에 있어서, 상기 하나 이상의 타일 인덱스들은 래스터 주사 순서(raster scan order)에 기초하고, 상기 타일 그룹의 복수의 타일들 중 타일의 위치를 표시하는 것인, 비디오 코딩 방법.
  17. 제11항에 있어서, 상기 타일 그룹 파라미터들은 보충 강화 정보(supplemental enhancement information, SEI) 메시지 또는 비디오 유저빌리티 정보(video usability information, VUI) 메시지를 통해 수신되는 것인, 비디오 코딩 방법.
  18. 제11항에 있어서, 상기 타일 그룹의 상기 예측된 블록을 이용하여 상기 제1 화상을 디코딩하는 단계를 더 포함하는, 비디오 코딩 방법.
  19. 제11항에 있어서, 상기 제2 화상은 상기 참조 픽셀들을 포함하는 참조 화상인 것인, 비디오 코딩 방법.
  20. 제11항에 있어서,
    상기 타일 그룹은 제1 타일 그룹이고, 상기 블록은 제1 블록이고, 상기 인코딩된 비디오 시퀀스는 또한 제2 타일 그룹을 포함하고,
    상기 방법은 상기 시간 모션 보상 예측을 이용하여 상기 제1 화상의 상기 제2 타일 그룹의 경계 내의 제2 블록을 예측하는 단계를 더 포함하고,
    상기 시간 모션 보상 예측은 상기 인코딩된 비디오 시퀀스의 상기 제2 화상의 상기 제2 타일 그룹의 경계 내에 있는 참조 픽셀들을 이용하는 것으로 제한되는 것인, 비디오 코딩 방법.
KR1020187006055A 2012-09-18 2013-09-18 타일 및 타일 그룹을 이용한 관심 영역 비디오 코딩 Ceased KR20180026803A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261702676P 2012-09-18 2012-09-18
US61/702,676 2012-09-18
PCT/US2013/060339 WO2014047134A1 (en) 2012-09-18 2013-09-18 Region of interest video coding using tiles and tile groups

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020157010011A Division KR101835802B1 (ko) 2012-09-18 2013-09-18 타일 및 타일 그룹을 이용한 관심 영역 비디오 코딩

Publications (1)

Publication Number Publication Date
KR20180026803A true KR20180026803A (ko) 2018-03-13

Family

ID=49263476

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020157010011A Active KR101835802B1 (ko) 2012-09-18 2013-09-18 타일 및 타일 그룹을 이용한 관심 영역 비디오 코딩
KR1020187006055A Ceased KR20180026803A (ko) 2012-09-18 2013-09-18 타일 및 타일 그룹을 이용한 관심 영역 비디오 코딩

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020157010011A Active KR101835802B1 (ko) 2012-09-18 2013-09-18 타일 및 타일 그룹을 이용한 관심 영역 비디오 코딩

Country Status (7)

Country Link
US (2) US9554133B2 (ko)
EP (1) EP2898695A1 (ko)
JP (2) JP2015533051A (ko)
KR (2) KR101835802B1 (ko)
CN (1) CN104885456A (ko)
TW (2) TWI620435B (ko)
WO (1) WO2014047134A1 (ko)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9584819B2 (en) * 2011-10-24 2017-02-28 Qualcomm Incorporated Grouping of tiles for video coding
US9621905B2 (en) * 2012-06-29 2017-04-11 Qualcomm Incorporated Tiles and wavefront parallel processing
HK1204515A1 (en) * 2012-07-09 2015-11-20 Vid Scale, Inc. Codec architecture for multiple layer video coding
JP2015533051A (ja) * 2012-09-18 2015-11-16 ヴィド スケール インコーポレイテッド タイルおよびタイル群を使用した関心領域ビデオ符号化
KR101661436B1 (ko) * 2012-09-29 2016-09-29 후아웨이 테크놀러지 컴퍼니 리미티드 비디오 인코딩 및 디코딩 방법, 장치 및 시스템
GB2509954B (en) * 2013-01-18 2016-03-23 Canon Kk Method of displaying a region of interest in a video stream
CN105359512B (zh) * 2013-07-15 2019-05-28 索尼公司 用于交互性的运动约束贴片集合sei消息的扩展
RU2650181C2 (ru) * 2013-07-22 2018-04-11 Сони Корпорейшн Устройство обработки информации и способ
WO2015014773A1 (en) 2013-07-29 2015-02-05 Koninklijke Kpn N.V. Providing tile video streams to a client
JP6209026B2 (ja) * 2013-08-30 2017-10-04 キヤノン株式会社 画像符号化装置及びその制御方法
GB2519746B (en) * 2013-10-22 2016-12-14 Canon Kk Method, device and computer program for encapsulating scalable partitioned timed media data
JP6692087B2 (ja) * 2013-12-27 2020-05-13 サン パテント トラスト 配信方法、およびシステム
US9386275B2 (en) 2014-01-06 2016-07-05 Intel IP Corporation Interactive video conferencing
EP3092815B1 (en) * 2014-01-10 2019-02-27 Sony Corporation Method for improving the power consumption of a mobile device during video streaming
US10567765B2 (en) * 2014-01-15 2020-02-18 Avigilon Corporation Streaming multiple encodings with virtual stream identifiers
US10694192B2 (en) 2014-06-27 2020-06-23 Koninklijke Kpn N.V. HEVC-tiled video streaming
JP6440747B2 (ja) * 2014-06-27 2018-12-19 コニンクリーケ・ケイピーエヌ・ナムローゼ・フェンノートシャップ Hevcでタイル化されたビデオ・ストリームに基づく関心領域の決定
EP2961182A1 (en) * 2014-06-27 2015-12-30 Alcatel Lucent Method, system and device for navigating in ultra high resolution video content by a client device
US9516220B2 (en) 2014-10-02 2016-12-06 Intel Corporation Interactive video conferencing
US10021161B2 (en) * 2014-11-05 2018-07-10 Qualcomm Incorporated Compression of graphical commands for remote display
US10021346B2 (en) 2014-12-05 2018-07-10 Intel IP Corporation Interactive video conferencing
EP3338454A1 (en) 2015-08-20 2018-06-27 Koninklijke KPN N.V. Forming one or more tile streams on the basis of one or more video streams
KR102551239B1 (ko) 2015-09-02 2023-07-05 인터디지털 씨이 페이튼트 홀딩스, 에스에이에스 확장된 장면에서의 내비게이션을 용이하게 하기 위한 방법, 장치 및 시스템
JP6589526B2 (ja) * 2015-09-30 2019-10-16 ブラザー工業株式会社 ビットレート決定装置、サーバ装置、ビットレート決定方法、及びプログラム
KR20170042431A (ko) * 2015-10-08 2017-04-19 삼성전자주식회사 디스플레이 모양에 따라 영상 데이터를 불균일하게 인코딩/디코딩하도록 구성되는 전자 장치
EP3360330B1 (en) 2015-10-08 2021-03-24 Koninklijke KPN N.V. Enhancing a region of interest in video frames of a video stream
JP6587539B2 (ja) * 2015-12-28 2019-10-09 キヤノン株式会社 送信装置、情報処理方法及びプログラム
WO2017134110A1 (en) * 2016-02-02 2017-08-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scene section and region of interest handling in video streaming
EP3226561A1 (en) * 2016-03-31 2017-10-04 Thomson Licensing Method and apparatus for coding a video into a bitstream carrying region-based post processing parameters into an sei nesting message
US10565463B2 (en) * 2016-05-24 2020-02-18 Qualcomm Incorporated Advanced signaling of a most-interested region in an image
US10917564B2 (en) * 2016-10-12 2021-02-09 Qualcomm Incorporated Systems and methods of generating and processing files for partial decoding and most interested regions
EP3334164B1 (en) 2016-12-09 2019-08-21 Nokia Technologies Oy A method and an apparatus and a computer program product for video encoding and decoding
WO2018155939A1 (ko) * 2017-02-22 2018-08-30 에스케이텔레콤 주식회사 영상 복호화 방법 및 장치
KR102424829B1 (ko) 2017-02-22 2022-07-25 에스케이텔레콤 주식회사 비디오 데이터가 부호화된 비트스트림을 처리하는 방법
KR102390413B1 (ko) * 2017-03-03 2022-04-25 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
US11139000B2 (en) 2017-03-07 2021-10-05 Mediatek Inc. Method and apparatus for signaling spatial region information
WO2018169139A1 (ko) * 2017-03-17 2018-09-20 엘지전자 주식회사 360도 비디오의 영역 정보 전달 방법 및 장치
WO2018186646A1 (ko) * 2017-04-03 2018-10-11 한국전자통신연구원 고화질 360도 vr 영상 처리 장치 및 방법
KR20200005539A (ko) * 2017-04-11 2020-01-15 브이아이디 스케일, 인크. 면 연속성을 사용하는 360 도 비디오 코딩
BR112019025471A2 (pt) * 2017-06-09 2020-06-23 Sony Semiconductor Solutions Corporation Dispositivo de transmissão de figura, e, dispositivo de recepção de figura
JP6907079B2 (ja) * 2017-09-14 2021-07-21 キヤノン株式会社 撮像装置、撮像装置の制御方法及びプログラム
WO2019103126A1 (en) * 2017-11-22 2019-05-31 Sharp Kabushiki Kaisha Systems and methods for signaling tile structures for pictures of coded video
CN109996072B (zh) 2018-01-03 2021-10-15 华为技术有限公司 视频图像的处理方法及装置
GB2570498A (en) * 2018-01-29 2019-07-31 Canon Kk A method and user device for displaying video data, a method and apparatus for streaming video data and a video surveillance system
US11037019B2 (en) 2018-02-27 2021-06-15 Adobe Inc. Generating modified digital images by identifying digital image patch matches utilizing a Gaussian mixture model
WO2019189890A1 (en) * 2018-03-30 2019-10-03 Sharp Kabushiki Kaisha Systems and methods for signaling tile structures for pictures of coded video
WO2019195037A1 (en) 2018-04-03 2019-10-10 Futurewei Technologies, Inc. Bitstream signaling of error mitigation in sub-picture bitstream based viewport dependent video coding
GB2572770B (en) * 2018-04-09 2022-11-02 Canon Kk Method and apparatus for encoding or decoding video data with frame portions
WO2019199024A1 (ko) * 2018-04-10 2019-10-17 엘지전자 주식회사 360 영상 데이터의 서브픽처 기반 처리 방법 및 그 장치
EP4451681A3 (en) * 2018-06-15 2025-01-15 LG Electronics Inc. Method and apparatus for cabac-based entropy coding
JP7437374B2 (ja) 2018-07-02 2024-02-22 ノキア テクノロジーズ オーユー ビデオコーディングでのタイル関連アドレス指定のための方法および装置
US20200014740A1 (en) * 2018-07-06 2020-01-09 Avigilon Corporation Tile stream selection for mobile bandwith optimization
US10841602B2 (en) * 2018-07-16 2020-11-17 Tencent America LLC Hierarchical tiles
US10798389B2 (en) * 2018-10-02 2020-10-06 Tencent America LLC Method and apparatus for content-aware point cloud compression using HEVC tiles
US10944991B2 (en) * 2018-10-03 2021-03-09 Samsung Electronics Co., Ltd. Prediction for matched patch index coding
US10779014B2 (en) 2018-10-18 2020-09-15 At&T Intellectual Property I, L.P. Tile scheduler for viewport-adaptive panoramic video streaming
WO2020089823A1 (en) 2018-10-31 2020-05-07 Beijing Bytedance Network Technology Co., Ltd. Overlapped block motion compensation with adaptive sub-block size
CN113170201B (zh) * 2018-11-30 2024-04-12 夏普株式会社 用于对视频数据进行解码的方法和设备
US12047571B2 (en) 2018-12-04 2024-07-23 Vid Scale, Inc. Tile group partitioning
EP3668096B1 (en) * 2018-12-11 2025-05-14 Axis AB Method and device for encoding a sequence of image frames using a first and a second encoder
ES3021282T3 (en) * 2018-12-17 2025-05-26 Huawei Tech Co Ltd Tile group assignment for raster scan and rectangular tile groups in video coding
EP3766245A4 (en) * 2018-12-20 2021-01-27 Telefonaktiebolaget Lm Ericsson (Publ) IMPROVED SIGNAGE OF PAVERS ADDRESSES IN VIDEO ENCODING AND DECODING
EP3902260A4 (en) 2018-12-21 2022-08-31 Sharp Kabushiki Kaisha VIDEO CODING DEVICE AND VIDEO DECODING DEVICE
US11477445B2 (en) * 2018-12-28 2022-10-18 Hfi Innovation Inc. Methods and apparatuses of video data coding with tile grouping
US12113997B2 (en) * 2019-01-22 2024-10-08 Tencent America LLC Method for tile group identification
WO2020175908A1 (ko) * 2019-02-26 2020-09-03 엘지전자 주식회사 시그널링된 정보에 기반한 픽처 파티셔닝 방법 및 장치
KR20210135292A (ko) * 2019-03-06 2021-11-12 샤프 가부시키가이샤 비디오 코딩에서 타일 그룹 정보를 시그널링하기 위한 시스템들 및 방법들
KR20240142576A (ko) * 2019-03-11 2024-09-30 텐센트 아메리카 엘엘씨 타일 및 서브-픽처 파티셔닝
US10762680B1 (en) 2019-03-25 2020-09-01 Adobe Inc. Generating deterministic digital image matching patches utilizing a parallel wavefront search approach and hashed random number
US11606574B2 (en) * 2019-05-31 2023-03-14 Apple Inc. Efficient coding of source video sequences partitioned into tiles
US11523185B2 (en) 2019-06-19 2022-12-06 Koninklijke Kpn N.V. Rendering video stream in sub-area of visible display area
WO2021033853A1 (en) * 2019-08-21 2021-02-25 Samsung Electronics Co., Ltd. Method and system for processing content having sensitive portion
CN110636294B (zh) * 2019-09-27 2024-04-09 腾讯科技(深圳)有限公司 视频解码方法及装置,视频编码方法及装置
WO2021058878A2 (en) * 2019-09-27 2021-04-01 Nokia Technologies Oy Fractional/arbitrary tile grouping
JP7389602B2 (ja) 2019-09-30 2023-11-30 株式会社ソニー・インタラクティブエンタテインメント 画像表示システム、画像処理装置、および動画配信方法
JP2021057770A (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置および画像圧縮方法
US11449974B2 (en) 2019-11-08 2022-09-20 Adobe Inc. Generating modified digital images utilizing nearest neighbor fields from patch matching operations of alternate digital images
CN115280774A (zh) 2019-12-02 2022-11-01 抖音视界有限公司 在仿射模式下与运动向量差分merge
CN114885165B (zh) * 2022-06-30 2023-04-04 深圳比特微电子科技有限公司 图像帧的环路滤波方法、装置及电子设备和存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3952459B2 (ja) * 2002-11-15 2007-08-01 株式会社リコー 画像処理装置、プログラム、記憶媒体及び画像処理方法
KR100543700B1 (ko) 2003-01-30 2006-01-20 삼성전자주식회사 영상의 중복 부호화 및 복호화 방법 및 장치
US8494052B2 (en) * 2006-04-07 2013-07-23 Microsoft Corporation Dynamic selection of motion estimation search ranges and extended motion vector ranges
TW200840368A (en) * 2006-12-22 2008-10-01 Qualcomm Inc Techniques for content adaptive video frame slicing and non-uniform access unit coding
US8630355B2 (en) * 2006-12-22 2014-01-14 Qualcomm Incorporated Multimedia data reorganization between base layer and enhancement layer
US8428125B2 (en) 2006-12-22 2013-04-23 Qualcomm Incorporated Techniques for content adaptive video frame slicing and non-uniform access unit coding
US20100232504A1 (en) 2009-03-13 2010-09-16 The State of Oregon acting by and through the State Board of Higher Education on behalf of the Supporting region-of-interest cropping through constrained compression
US9113169B2 (en) * 2009-05-07 2015-08-18 Qualcomm Incorporated Video encoding with temporally constrained spatial dependency for localized decoding
US8806050B2 (en) * 2010-08-10 2014-08-12 Qualcomm Incorporated Manifest file updates for network streaming of coded multimedia data
US10244239B2 (en) * 2010-12-28 2019-03-26 Dolby Laboratories Licensing Corporation Parameter set for picture segmentation
US20120170648A1 (en) * 2011-01-05 2012-07-05 Qualcomm Incorporated Frame splitting in video coding
US9584819B2 (en) 2011-10-24 2017-02-28 Qualcomm Incorporated Grouping of tiles for video coding
JP2015533051A (ja) * 2012-09-18 2015-11-16 ヴィド スケール インコーポレイテッド タイルおよびタイル群を使用した関心領域ビデオ符号化

Also Published As

Publication number Publication date
TW201824871A (zh) 2018-07-01
US9554133B2 (en) 2017-01-24
US20140079126A1 (en) 2014-03-20
US10057570B2 (en) 2018-08-21
TWI620435B (zh) 2018-04-01
KR20150058428A (ko) 2015-05-28
TWI669952B (zh) 2019-08-21
TW201436535A (zh) 2014-09-16
US20170094269A1 (en) 2017-03-30
CN104885456A (zh) 2015-09-02
JP2017092976A (ja) 2017-05-25
KR101835802B1 (ko) 2018-03-08
WO2014047134A1 (en) 2014-03-27
JP2015533051A (ja) 2015-11-16
EP2898695A1 (en) 2015-07-29

Similar Documents

Publication Publication Date Title
KR101835802B1 (ko) 타일 및 타일 그룹을 이용한 관심 영역 비디오 코딩
JP7553671B2 (ja) 360度ビデオ符号化におけるフェイス不連続の処理
CN113396591B (zh) 针对用于基于模板的视频译码的改进的线性模型估计的方法、架构、装置和系统
JP7169988B2 (ja) 面連続性を使用する360度ビデオコーディング
US10917660B2 (en) Prediction approaches for intra planar coding
JP6420429B2 (ja) Hevc拡張のためのレイヤ間パラメータセット
JP6401161B2 (ja) マルチレイヤビデオコーディングにおける空間レイヤのためのサンプリンググリッド情報
CN112740701A (zh) 用于360度视频译码的样本导出
CN111602401B (zh) 用于360度视频译码的自适应帧封装
CN107646195A (zh) 用于屏幕内容编码的帧内块复制模式
JP7518230B2 (ja) ジオメトリパディングに基づいた360度ビデオのための予測符号化
US20220377344A1 (en) Systems and methods for versatile video coding
WO2023194556A1 (en) Implicit intra mode for combined inter merge/intra prediction and geometric partitioning mode intra/inter prediction
WO2025012060A1 (en) Intra block copy variant tools and deblocking filtering
WO2025002873A1 (en) Bi-predictive merge list for intra block copy coding

Legal Events

Date Code Title Description
A107 Divisional application of patent
PA0104 Divisional application for international application

Comment text: Divisional Application for International Patent

Patent event code: PA01041R01D

Patent event date: 20180228

Application number text: 1020157010011

Filing date: 20150417

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20180918

Comment text: Request for Examination of Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20181205

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20190424

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20181205

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I