RU2493602C1 - Method and system for selecting key frames from video sequences - Google Patents
Method and system for selecting key frames from video sequences Download PDFInfo
- Publication number
- RU2493602C1 RU2493602C1 RU2012134258/08A RU2012134258A RU2493602C1 RU 2493602 C1 RU2493602 C1 RU 2493602C1 RU 2012134258/08 A RU2012134258/08 A RU 2012134258/08A RU 2012134258 A RU2012134258 A RU 2012134258A RU 2493602 C1 RU2493602 C1 RU 2493602C1
- Authority
- RU
- Russia
- Prior art keywords
- video
- data
- frames
- frame
- scene
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000004458 analytical method Methods 0.000 claims abstract description 67
- 238000007405 data analysis Methods 0.000 claims abstract description 11
- 230000000694 effects Effects 0.000 claims abstract description 11
- 238000006073 displacement reaction Methods 0.000 claims description 5
- 230000003068 static effect Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 3
- 101100001671 Emericella variicolor andF gene Proteins 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 3
- 239000000126 substance Substances 0.000 abstract 1
- 230000001502 supplementing effect Effects 0.000 abstract 1
- 238000006243 chemical reaction Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 4
- 238000007792 addition Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012300 Sequence Analysis Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
Заявляемое изобретение относится к технологии обработки видео, а более конкретно - к устройствам и способам для автоматического извлечения ключевых кадров из видео для дополнения видео с помощью оператора такой информацией, как назначение глубины для последующего преобразования монокулярной видео последовательности в стерео последовательность или для назначения цветовой информации для последующего преобразования черно-белой видео последовательности в цветную видео последовательность. The claimed invention relates to video processing technology, and more particularly, to devices and methods for automatically extracting key frames from a video to complement the video using an operator with information such as assigning depth for the subsequent conversion of a monocular video sequence into a stereo sequence or for assigning color information for subsequent conversion of the black and white video sequence into a color video sequence.
В последние годы разные производители активно разрабатывали стереоскопические устройства отображения (дисплеи), способные воспроизводить стерео изображения. Для получения ощущения трехмерности (стерео), требуется применение видео последовательности в особом формате. Этот формат включает видео, записанное с разных ракурсов, отдельно для левого и правого глаза. Для формирования изображений с различных ракурсов применяют большое число способов. Например, может использоваться съемка несколькими камерами, или видео на основе трехмерной модели.In recent years, various manufacturers have been actively developing stereoscopic display devices (displays) capable of reproducing stereo images. To get the feeling of three-dimensionality (stereo), the use of video sequences in a special format is required. This format includes video recorded from different angles, separately for the left and right eye. A large number of methods are used to form images from various angles. For example, shooting with multiple cameras, or video based on a three-dimensional model, can be used.
Большинство видео изображений, полученных в эпоху синематографа, предназначены для обычных монодисплеев. Чтобы получить ощущение трехмерности на основе старых кинопленок, необходимо преобразовать эти видео изображения в стереоскопическое видео. Это достигается за счет назначения карты глубины для каждого видео кадра, и получения левого и правого ракурсов на основе использования видео кадров и карты глубины.Most video images obtained in the era of cinematography are intended for ordinary monodisplays. To get a sense of three-dimensionality based on old films, you need to convert these video images into stereoscopic video. This is achieved by assigning a depth map for each video frame, and obtaining left and right angles based on the use of video frames and a depth map.
Системы для преобразования видео могут быть или полностью автоматическими, действующими без вмешательства оператора, или полуавтоматическими, где преобразование выполняется с участием оператора. В последнем варианте, оператор, как правило, выбирает ключевые кадры видео последовательности и вручную назначает (рисует) карты глубины, в ряде случаев используя некоторые специальные вспомогательные способы (см., например, патентную заявку США 2002/0048395)[1]. Такие карты глубины распространяют на остальные части видео кадров (такими, например, способами, как в американских патентных заявках 2010/0194856 [2] и 2009/0116732 [3]). Полуавтоматические системы обеспечивают намного более высокое качество, чем полностью автоматизированные системы.Systems for video conversion can be either fully automatic, operating without operator intervention, or semi-automatic, where the conversion is performed with the participation of the operator. In the latter case, the operator, as a rule, selects the key frames of the video sequence and manually assigns (draws) depth maps, in some cases using some special auxiliary methods (see, for example, US patent application 2002/0048395) [1]. Such depth maps extend to the rest of the video frames (for example, by methods such as in US patent applications 2010/0194856 [2] and 2009/0116732 [3]). Semi-automatic systems provide much higher quality than fully automated systems.
В последние годы многие старые черно-белые кинофильмы были преобразованы в цветные. В настоящее время потребителю хочется более полных ощущений от просмотра кинофильма, в том числе получения полноценной цветовой видео информации. Однако большое число кино шедевров записывались на черно-белой пленке, в связи с чем была утрачена цветовая информация. Восстановление такого драгоценного наследия в цвете является утомительной и дорогостоящей процедурой. Обычно пленку обрабатывают следующим образом: одному из кадров (ключевому кадру) в видео последовательности добавляют (назначают) информацию, касающуюся цвета (раскрашивание), и эту информацию далее распространяют на соседние кадры, как это описано, например, в патенте США 4755870 [4]. В этом изобретении, однако, такие ключевые кадры выбираются вручную.In recent years, many old black and white movies have been converted to color. Currently, consumers want a more complete sensation from watching a movie, including getting full color video information. However, a large number of cinema masterpieces were recorded on black and white film, in connection with which color information was lost. Restoring such a precious heritage in color is a tedious and expensive procedure. Typically, a film is processed as follows: color information (coloring) is added (assigned) to one of the frames (key frame) in the video sequence, and this information is then distributed to adjacent frames, as described, for example, in US Pat. No. 4,755,870 [4] . In this invention, however, such keyframes are manually selected.
Способ выбора ключевых кадров играет важную роль в конвертации видео последовательностей. The way key frames are selected plays an important role in converting video sequences.
В американской патентной заявке 2011/0110649 [5] ключевые кадры выбираются автоматически, но они скорее предназначены для видео резюмирования, то есть для выбора наиболее визуально представительных видео кадров. В американском патенте 7046731 [6] ключевые кадры выбирают автоматически на основе определения направления глобального движения и кластеризации глобального движения, но этот способ выбора ключевых кадров предназначен для эффективного представления и резюмирования видео. В американской патентной заявке 2007/0263128 [7] представлены методики, которые позволяют осуществлять адаптивный процесс извлечения ключевых кадров из видео. Процесс выбора включает оценку качества кадров для отбора кадров с наивысшим качеством на роль ключевых кадров. Ключевые кадры выбираются на основе значений энтропии, четкости и контрастности кадров. Однако в этом подходе рассматривается кадр в целом, т. е. не принимаются во внимание объекты в кадре. В американском патенте 7843512 [8] определяют скорость изменения содержимого кадра (по сравнению со смежным видео кадром), и выбирают видео кадр в качестве ключевого видео кадра, если скорость превышает некое пороговое значение. В американской патентной заявке [3] ключевые кадры выбираются автоматически на основе анализа поля движения объектов. В американском патенте 7158676 [9] ключевые кадры и объекты, представляющих интерес, выбираются вручную. Данные интерактивного содержимого встраиваются вместе с объектом, и объект отслеживается через всю последовательность кадров, и данные интерактивного содержимого встраиваются в каждый из кадров. В целом, современные технологии для выбора ключевых кадров предназначены для визуального резюмирования видео последовательностей, для лучшего визуального понимания. In U.S. Patent Application 2011/0110649 [5], keyframes are selected automatically, but rather, they are intended for video summarization, that is, for selecting the most visually representative video frames. In US patent 7046731 [6] key frames are selected automatically based on the determination of the direction of global movement and the clustering of global movement, but this method of selecting key frames is designed to effectively present and summarize the video. US Patent Application 2007/0263128 [7] provides techniques that allow for the adaptive process of extracting key frames from a video. The selection process includes evaluating the quality of personnel for selecting personnel with the highest quality for the role of key personnel. Key frames are selected based on the values of entropy, clarity and contrast of frames. However, in this approach, the frame as a whole is considered, i.e., objects in the frame are not taken into account. In US patent 7843512 [8] determine the rate of change of the contents of the frame (compared with the adjacent video frame), and select the video frame as a key video frame if the speed exceeds a certain threshold value. In the US patent application [3] key frames are selected automatically based on the analysis of the field of motion of objects. In US Pat. No. 7,158,676 [9], key frames and objects of interest are manually selected. Interactive content data is embedded with the object, and the object is tracked through the entire sequence of frames, and interactive content data is embedded in each of the frames. In general, modern technologies for choosing key frames are intended for visual summarization of video sequences, for better visual understanding.
Американский патент [9] и американскую патентную заявку [3] можно рассматривать в качестве прототипов.The American patent [9] and the American patent application [3] can be considered as prototypes.
Заявляемый способ предназначен для решения конкретной задачи преобразования видео из монокулярного в стереоскопическое и из черно-белого - в цветное в полуавтоматическом режиме. Заявляемый способ учитывает конкретные характеристики видео последовательностей, такие, как данные о главных персонажах (ключевых кадрах) видеопоследовательности. Это позволяет добиться более целенаправленного выбора видео кадров. The inventive method is intended to solve the specific problem of converting video from monocular to stereoscopic and from black and white to color in semi-automatic mode. The inventive method takes into account the specific characteristics of the video sequences, such as data on the main characters (key frames) of the video sequence. This allows for a more focused selection of video frames.
Технический результат достигается за счет разработки усовершенствованного способа выделения ключевого кадра в процессе полуавтоматического дополнения видео последовательности информацией о глубине или цвете, причем заявленный способ предусматривает выполнение следующих операций:The technical result is achieved through the development of an improved method for highlighting a key frame during the semi-automatic completion of a video sequence with information about depth or color, and the claimed method involves the following operations:
• выявляют смены сцены во входной видео последовательности и осуществляют разбиение видео последовательности на сцены; • identify scene changes in the input video sequence and split the video sequence into scenes;
• для каждой сцены на модуль анализа видеоданных подают данные об инициализации объектов, выявляют действия каждого объекта и данные GM (глобального движения) на всех кадрах сцены и записывают в накопителе результаты видеоанализа;• for each scene, the video analysis module provides data on the initialization of objects, reveals the actions of each object and GM (global motion) data on all frames of the scene and records the results of the video analysis in the drive;
• после обработки всех кадров видео сцены с помощью модуля анализа видеоданных сначала анализируют сохраненные данные о деятельности каждого объекта, извлекают ключевые кадры объекта, затем анализируют данные GM и ключевые кадры объекта, извлекают и выводят ключевые кадры; после чего накопитель результатов видеоанализа очищают и загружают модуль анализа видеоданных следующей сценой входной видео последовательности. • after processing all the frames of the video scene using the video analysis module, first analyze the stored data on the activity of each object, extract the key frames of the object, then analyze the GM data and key frames of the object, extract and output key frames; then the video analysis results accumulator is cleaned and the video data analysis module is loaded with the next scene of the input video sequence.
Как правило, ключевые кадры выбирают для резюмирования видео визуальной информации. Новизна заявляемого изобретения подтверждается следующими отличительными признаками:Typically, key frames are selected to summarize video visual information. The novelty of the claimed invention is confirmed by the following distinctive features:
• ключевые кадры выбирают на основе вводимой пользователем информации о содержимом сцены;• key frames are selected based on information entered by the user about the contents of the scene;
• каждый ключевой объект выбирают на одном или нескольких кадрах;• each key object is selected on one or more frames;
• каждый ключевой объект отслеживают во всех кадрах в вырезанной сцене;• each key object is tracked in all frames in the cut scene;
• оценивают качество участков кадра, содержащих ключевой объект;• evaluate the quality of frame sections containing a key object;
• анализируют траекторию движения каждого ключевого объекта;• analyze the trajectory of each key object;
• выбирают ключевые кадры на основе анализа участков кадров и/или точек качества траектории. • select key frames based on the analysis of frame sections and / or path quality points.
В заявляемом способе данные для инициализации объекта включают в себя координаты RBB, а именно координаты {x, y} левого верхнего угла, ширина и высота, кадр для этого RBB f 0 и два кадра f begin и f end для отслеживания промежутка RBB между ними таким образом, что и .In the inventive method, the data for initializing the object includes the coordinates of the RBB, namely the coordinates {x, y} of the upper left corner, width and height, a frame for this RBB f 0 and two frames f begin and f end for tracking the gap RBB between them so way that and .
В заявляемом способе для выявления действий объекта RBB объекта отслеживают по всем кадрам в видео сцене, а именно, определяют координаты RBB в видео кадре таким образом, чтобы сравнение областей видео кадров, содержащихся внутри RBB, на текущем и на следующем кадре, давало максимальное значение в терминах предопределенных метрик, и вычисляют параметры объекта, представляющие собой особенности изображения области видео кадра, содержащейся внутри RBB.In the inventive method for detecting the actions of an object, the RBB object is monitored for all frames in the video scene, namely, the coordinates of the RBB in the video frame are determined so that the comparison of the areas of the video frames contained inside the RBB on the current and the next frame gives the maximum value in in terms of predetermined metrics, and object parameters are calculated, which are image features of the video frame region contained within the RBB.
В заявляемом способе дополнительные ключевые кадры выбирают в промежутке между ключевыми кадрами объектов, основываясь на анализе данных глобального движения (GM).In the inventive method, additional key frames are selected in the interval between key frames of objects, based on the analysis of global motion data (GM).
В заявляемом способе отслеживают RBB из кадра f 0 инициализации объекта вперед, из кадра f 0 до кадра f end , после чего в обратном направлении, из кадра f 0 до кадра f begin , для получения отслеженных координат RBB.In the inventive method, the RBB is monitored from the object initialization frame f 0 forward, from the f 0 frame to the f end frame, and then in the opposite direction, from the f 0 frame to the f begin frame, to obtain tracked RBB coordinates.
В заявляемом способе в модуле обработки результатов видеоанализа сравнивают аккумулированные координаты RBB и параметры объекта и выводят ряд ключевых кадров KFo:In the claimed method, the accumulated RBB coordinates and object parameters are compared in the video analysis results processing module and a number of key frames KFo are output:
, ,
где f start и f finish - последовательные кадры сцены, для которой вычисляют данные о действиях объекта, where f start and f finish are sequential frames of the scene for which data on the actions of the object are calculated,
где ƒ1 = max(ƒ-T, ƒstart), ƒ2 = min (ƒ+T, ƒfinish), T - предопределенный порог,where ƒ 1 = max (ƒ-T, ƒ start ), ƒ 2 = min (ƒ + T, ƒ finish ), T is a predefined threshold,
. .
В заявляемом способе в модуле обработки результатов видеоанализа анализируют кривизну траектории объекта в видео кадрах и получают на выходе ряд ключевых кадров KFoIn the inventive method in the module for processing the results of the video analysis analyze the curvature of the trajectory of the object in video frames and get a number of key frames KFo
где ƒ1 = max(ƒ-T, ƒstart+1), ƒ2 = min(ƒ+T, ƒfinish-1), T - предопределенный порог, .Where ƒone = max (ƒ-T, ƒstart+1), ƒ2 = min (ƒ + T, ƒfinish-1), T is a predetermined threshold,.
В заявляемом способе параметры объектов включают оценку резкости и контрастности.In the inventive method, the parameters of the objects include an assessment of sharpness and contrast.
В заявляемом способе анализируют параметры объекта, такие как контраст C и резкость S, вычисляют функции F и F' C, и S, а T1 и T2 являются предопределенными реальными значениями:In the inventive method, the parameters of the object are analyzed, such as contrast C and sharpness S , the functions F and F 'C , and S are calculated, and T 1 and T 2 are predefined real values:
, ,
где ƒ1 = max(ƒ-T, ƒstart+1), ƒ2 = min(ƒ+T, ƒfinish-1), T - предопределенный порогWhere ƒone = max (ƒ-T, ƒstart+1), ƒ2 = min (ƒ + T, ƒfinish-1), T - predefined threshold
. .
Кроме того, в заявленном изобретении предлагается система для реализации способа выделения ключевых кадров в процессе полуавтоматического дополнения видео последовательности информацией о глубине или цвете, отличающаяся тем, что состоит из трех основных частей: In addition, the claimed invention proposes a system for implementing the method of highlighting key frames in the process of semi-automatic addition of a video sequence with information about depth or color, characterized in that it consists of three main parts:
модуля анализа видеоданных, выполненного с возможностью извлечения данных из входного видео потока и получения множества инициализационных данных для ключевых объектов в видео через устройство разметки видео;a video data analysis module configured to extract data from the input video stream and obtain a plurality of initialization data for key objects in the video through the video marking device;
накопителя результатов видеоанализа, выполненного с возможностью запоминания аккумулированных данных видеоанализа, обнаруженных модулем анализа; a video analysis result storage device configured to store accumulated video analysis data detected by the analysis module;
и модуля обработки результатов видеоанализа, выполненного с возможностью проведения анализа аккумулированных данных.and a video analysis result processing module configured to analyze accumulated data.
В заявляемой системе модуль анализа видеоданных выполнен с возможностью получения множества координат прямоугольных рамок (RBB), индексов кадра и числа кадров, через устройство разметки видео.In the inventive system, the video data analysis module is configured to obtain a plurality of coordinates of rectangular frames (RBB), frame indices and number of frames through a video marking device.
В заявляемой системе модуль анализа видеоданных включает детектор смены кадров, детектор данных глобального движения, детектор действий объекта. In the inventive system, the video analysis module includes a frame change detector, a global motion data detector, an object action detector.
В заявляемой системе накопитель результатов видеоанализа состоит из аккумулятора данных о действиях объекта, запоминающего аккумулированные данные о действиях объекта, и аккумулятора данных глобального движения, запоминающего параметры, описывающие относительное смещение статичных объектов в двух последовательных видео кадрах.In the inventive system, the video analysis result storage device consists of an accumulator of data on the actions of an object storing accumulated data on the actions of an object and a data accumulator of global motion data storing parameters describing the relative displacement of static objects in two consecutive video frames.
В заявляемой системе модуль обработки результатов видеоанализа включает в себя выделитель данных, детектор ключевых кадров объекта и детектор ключевых кадров.In the inventive system, the video analysis result processing module includes a data extractor, a key frame detector of an object, and a key frame detector.
Для лучшего понимания сущности заявляемого изобретения ниже приводится подробное описание с чертежами. For a better understanding of the essence of the claimed invention, the following is a detailed description with drawings.
Фиг. 1. Описывает основные части системы, с помощью которой реализуется способ для выделения ключевых кадров. FIG. 1. Describes the main parts of the system with which a method is implemented for highlighting key frames.
Фиг. 2. Иллюстрирует основные шаги видео анализа для выбора ключевых кадров. FIG. 2. Illustrates the basic steps of video analysis for selecting key frames.
Фиг. 3. Объясняет в подробностях этап 203, касающийся обнаружения данных видео анализа в видео сцене. FIG. 3. Explains in
Фиг. 4. Иллюстрирует процесс выполнения анализа видео последовательности. FIG. 4. Illustrates the process of performing video sequence analysis.
Фиг. 5. Объясняет в подробностях этап 303, касающийся обработки конкретного видео кадра и извлечения данных о действиях объекта во время прохождения через видео кадр «вперед». FIG. 5. Explains in
Фиг. 6. Объясняет в подробностях этап 308, касающийся обработки конкретного видео кадра и извлечения данных о действиях объекта во время прохода через видео кадр «назад». FIG. 6. Explains in
Фиг. 7. Объясняет в подробностях этап 204, касающийся обработки данных видео анализа, извлечения ключевых кадров и очистки накопителя. FIG. 7. Explains in
Система, реализующая способ для выделения ключевых кадров в процессе дополнения монокулярного видео глубиной (преобразование из 2D в 3D) или черно-белого видео цветом состоит из трех основных частей: модуль анализа видеоданных, который извлекает данные из входного видео потока и который может получить множество данных для инициализации для ключевых объектов в видео через устройство разметки видео; накопитель результатов видеоанализа, который запоминает аккумулированные данные видеоанализа, обнаруженные модулем анализа; и модуль обработки результатов видеоанализа, который выполняет анализ аккумулированных данных. A system that implements a method for highlighting key frames in the process of complementing a monocular video with depth (conversion from 2D to 3D) or black and white video with color consists of three main parts: a video data analysis module that extracts data from an input video stream and which can receive a lot of data to initialize for key objects in a video through a video markup device; a video analysis result storage device that stores accumulated video analysis data detected by the analysis module; and a video analysis result processing module that analyzes the accumulated data.
Модуль анализа видеоданных может получать множество координат прямоугольных рамок (RBB) и кадров от устройства разметки видео. Накопитель результатов видеоанализа сохраняет данные о деятельности объекта в аккумуляторе данных о деятельности объекта, сохраняет данные глобального движения (GM данные) (параметры, описывающие относительное смещение неподвижных объектов в двух последовательных видео кадрах) в аккумуляторе данных глобального движения. Модуль обработки результатов видеоанализа анализирует аккумулированные данные и выделяет ключевые кадры для дальнейшего дополнения видео с помощью оператора.The video analysis module may receive a plurality of rectangular frame coordinates (RBBs) and frames from the video marking device. The video analysis results accumulator stores data on the object’s activity in the object’s activity data accumulator, stores global motion data (GM data) (parameters describing the relative displacement of stationary objects in two consecutive video frames) in the global motion data accumulator. The video analysis results processing module analyzes the accumulated data and selects key frames for further video additions using the operator.
Способ выделения ключевых кадров в процессе полуавтоматического дополнения видео включает следующие шаги:The way to highlight key frames in the process of semi-automatic video addition includes the following steps:
получают данные для инициализации объектов каждого ключевого объекта в каждом кадре;receive data to initialize the objects of each key object in each frame;
выявляют смены сцен во входной видео последовательности и разбивают видео последовательность на сцены; detecting scene changes in the input video sequence and breaking the video sequence into scenes;
для каждой сцены выявляют данные о деятельности каждого объекта посредством модуля анализа видеоданных и данных GM по всем кадрам сцены и сохраняют эти данные в накопителе результатов видеоанализа;for each scene, data on the activity of each object is detected by means of the video and GM data analysis module for all frames of the scene and these data are stored in the video analysis results store;
после обработки видео сцены, сначала анализируют сохраненные данные о деятельности каждого объекта, выделяют ключевые кадры, затем анализируют данные GM и ключевых кадров объекта, и извлекают и выводят ключевые кадры посредством модуля анализа видеоданных; после чего очищают накопитель результатов видеоанализа и переходят к следующей сцене входной видео последовательности до достижения конца видео последовательности. after processing the video scene, first, the stored data on the activity of each object is analyzed, key frames are extracted, then the data of GM and key frames of the object are analyzed, and key frames are extracted and output via the video analysis module; after which they clear the video analysis results store and go to the next scene of the input video sequence until the end of the video sequence is reached.
Фиг. 1 показывает схему функционирования основных компонентов системы, которая осуществляет заявляемый способ. Входное видео обрабатывается Модулем 101 анализа видеоданных, который получает данные для инициализации каждого объекта, который необходимо принять во внимание. FIG. 1 shows a diagram of the functioning of the main components of a system that implements the inventive method. The input video is processed by the
Данные для инициализации (идентификатор) конкретного объекта k даны для одного или нескольких видео кадров как {k, RBB, ƒ0, ƒbegin, ƒend}, где: The initialization data (identifier) of a specific object k is given for one or several video frames as { k , RBB, ƒ 0 , ƒ begin , ƒ end }, where:
k - индекс объекта, k is the index of the object,
RBB - прямоугольная рамка, отмечающая позицию объекта в видео кадре,RBB - a rectangular frame marking the position of an object in a video frame,
ƒ0 - кадр, в котором объект отмечен,ƒ 0 - the frame in which the object is marked,
ƒbegin - кадр, от которого начинают вычислять данные о действиях объекта (отслеживание объекта), ƒ begin - a frame from which they begin to calculate data about the actions of the object (tracking the object),
ƒend - кадр, на котором заканчивают вычисление данных о действиях объекта (отслеживание объекта).ƒ end - the frame on which the calculation of data on the actions of the object (tracking of the object) is completed.
Такая информация предоставляется оператором вместе с видео последовательностью посредством устройства 100 разметки видео, который может включать, по меньшей мере, устройство отображения (дисплей) и манипулятор, такой как компьютерная мышь. Число объектов оставляют на усмотрение оператора. Модуль 101 анализа видеоданных в процессе обработки видео последовательности дает на выходе данные видеоанализа, такие как действия объекта и данные о глобальном движении (GM). Данные GM включают параметры, описывающие относительное смещение неподвижных (статичных) объектов в двух последовательных видео кадрах. Данные видео анализа аккумулируются в накопителе 102 результатов видеоанализа. Когда модуль 101 анализа видеоданных обнаруживает смену сцены, модуль 108 обработки результатов видеоанализа выделяет и анализирует аккумулированные данные и дает на выходе выявленные ключевые кадры. Модуль 101 анализа видеоданных включает детектор 103 смены кадров, детектор 104 данных GM и детектор 105 действий объекта. Накопитель 102 результатов видеоанализа сохраняет данные о действиях объекта в аккумуляторе 107 данных о действиях объекта и данные GM в аккумуляторе 106 данных глобального движения. Модуль 108 обработки результатов видеоанализа включает в себя выделитель 111 данных, детектор 110 ключевых кадров объекта и детектор 109 ключевых кадров. Such information is provided by the operator along with the video sequence through the
Все компоненты данной системы могут быть изготовлены путем применения современных систем проектирования электрических цепей, дополненных исполняемыми программами. All components of this system can be manufactured by using modern systems for designing electrical circuits, supplemented by executable programs.
Фиг. 2 описывает основные шаги заявляемого способа. На шаге 201 данные для инициализации вводят для всех объектов. Видео обработка начинается с анализа видео сцена за сценой начиная с первого кадра 202. В каждой видео сцене выявляют данные видеоанализа и заносят их в накопитель результатов видеоанализа, шаг 203. После завершения анализа сцены данные видеоанализа обрабатываются, выделяются ключевые кадры и накопитель результатов видеоанализа очищается, шаг 204. Затем, проверяют выполнение условия 206, в случае если последний обработанный кадр не был последним кадром видео последовательности, процесс переходит к следующему видео кадру, шаг 205. В ином случае обработка продолжается до завершения на шаге 207. FIG. 2 describes the main steps of the proposed method. At
Фиг. 3 объясняет в подробностях процесс обнаружения данных видеоанализа во время обработки сцены, шаг 203. Начиная с первого кадра сцены (CSFI, т. е. кадр текущей сцены, = 0), сцена обрабатывается кадр за кадром, шаг 301. Два прохода выполняют по сцене (см. также Фиг. 4). Сначала сцена обрабатывается в прямом направлении («вперед»), то есть с увеличением CSFI. После достижения конца сцены кадры обрабатываются в обратном порядке («назад»), то есть с CSFI. В каждом кадре извлекаются данные GM, шаг 302. Как было упомянуто выше, данные GM включают параметры, описывающие относительное смещение неподвижных (статичных) объектов в двух последовательных видео кадрах. Есть много способов, известных из уровня техники, для обнаружения такого смещения, например, в американском патенте 7312819 [10]. На шаге 303 данные о действиях объекта извлекают из видео кадра, подробности этого процесса объяснены ниже, на Фиг. 5. На шаге 305 CSFI увеличивается на 1. В случае если условие 306 не выполняется, процесс продолжается в отношении следующего кадра, шаг 304. Условие 306 проверяют с помощью детектора смены сцен, то есть сравнивая текущий кадр со следующим кадром. Есть много способов, известных из уровня техники, для выявления смены сцен, например, в американском патенте 7123769 [11]. В случае если обнаружена смена сцены, текущий кадр определяют как последний кадр сцены. Потом данная сцена анализируется в обратном направлении («назад») начиная с последнего кадра сцены, шаг 307. На шаге 308 извлекают данные о действиях объекта из видео кадра, подробности этого процесса объяснены ниже, на Фиг. 6. Затем CSFI уменьшают на 1, шаг 309. Когда достигается первый кадр сцены, CSFI = 0, то есть тот же самый кадр в видео, как на шаге 301, и обработка видео последовательности продолжается с последнего кадра сцены, как на шаге 307. В ином случае, если условие на шаге 311 не соблюдено, обрабатывают следующий кадр, шаг 310. На шаге 312 индекс текущего видео кадра устанавливается на последнем кадре сцены для того, чтобы начать обработку следующей сцены (шаги 205 и далее). FIG. 3 explains in detail the process of detecting video analysis data during scene processing,
Фиг. 5 описывает процесс обнаружения данных о действиях объекта. Процесс выполняется в отношении конкретного кадра в сцене, с индексом CSFI, индексом кадра текущей сцены, шаг 501, для всех объектов начиная с объекта с индексом k=0, шаг 502. Данные о действиях объекта могут состоять из, но не ограничиваются, {k, {RBB f }|ƒ, ƒ0, ƒbegin, ƒend, {featuresƒ}}, где: FIG. 5 describes a process for detecting activity data of an object. The process is performed on a specific frame in the scene, with the CSFI index, the frame index of the current scene,
k - индекс объекта, k is the index of the object,
{RBBƒ} - множество прямоугольных рамок, отмечающих положение (позицию) объекта в видео кадре с индексом ƒ, 0 <ƒ <N, где N - индекс последнего кадра в сцене.{RBB ƒ } - a set of rectangular frames marking the position (position) of the object in the video frame with the index ƒ, 0 <ƒ <N, where N is the index of the last frame in the scene.
ƒ0 - кадр, в котором отмечен объект,ƒ 0 - the frame in which the object is marked,
ƒbegin - кадр, с которого начинают вычисление данных о действиях объекта (отслеживание объекта), ƒ begin - the frame from which the calculation of data on the actions of the object begins (tracking the object),
ƒend - кадр, в котором завершают вычисление данных о действиях объекта (отслеживание объекта),ƒ end - a frame in which the calculation of data on the actions of the object is completed (object tracking),
{featuresƒ} - набор параметров, связанных с кадром ƒ и RBBƒ, таких как особенности изображения, вычисленного для заплаты изображения, содержавшейся в соответствующей RBBƒ. Параметры изображения могут включать резкость, контраст, или тому подобные.{features ƒ } - a set of parameters associated with frame ƒ and RBB ƒ , such as features of the image calculated to patch the image contained in the corresponding RBB ƒ . Image options may include sharpness, contrast, or the like.
RBB = {x, y, w, h}, где {x, y} - координаты верхнего левого угла, w и h - ширина и высота соответственно.RBB = {x, y, w, h}, where {x, y} are the coordinates of the upper left corner, w and h are the width and height, respectively.
На шаге 503 инициализационные данные (ID) анализируют на предмет того, присутствуют ли там данные с ƒ0, равным CSFI, и индексом объекта, равным k. В случае если эти данные присутствуют, объект инициализируют, то есть его RBB инициализируют на основе RBB данных для инициализации, шаг 504, и затем параметры объекта вычисляются, шаг 505 (будет объяснено ниже). В случае если условие 503 не выполняется, шаги 504 и 505 пропускают. На шаге 506 проверяют выполнение условия, находится ли кадр текущей сцены (CSFI) между ƒ0 объекта и ƒend объекта. В случае положительного результата на шаге 507 вычисляют координаты объекта RBB, используя координаты этого RBB на предыдущем кадре, CSFI-1. Есть много способов, известных из уровня техники, для вычисления таких координат, например, американские патенты 5099324 [12] и 7620204 [13]. На шаге 505 вычисляют параметры области изображения, содержащей объект, для оценки параметров объекта. На шаге 508 проверяют, имеются ли еще необработанные объекты. В случае если таких объектов больше нет, процесс завершают, шаг 510. В ином случае индекс k объекта увеличивают на 1 (шаг 509) и шаги 503 и последующие повторяют. At
Следующие параметры вычисляют на шаге 505: контраст и резкость. Контраст вычисляют как разность между максимальными и минимальными значениями в области изображения, содержащейся в RBB:The following parameters are calculated in step 505 : contrast and sharpness. The contrast is calculated as the difference between the maximum and minimum values in the image area contained in the RBB:
Резкость S вычисляют, например, так, как это описано в статье Safonov, I. V.; Rychagov, М. N.; Kang, KiMin; Ким, Sang Ho; “Adaptive sharpening of photos”, Proceedings of the SPIE, Volume 6807, pp. 68070U-68070U-12 (2008) [14].The sharpness S is calculated, for example, as described in the article Safonov, I. V .; Rychagov, M. N .; Kang, KiMin; Kim, Sang Ho; “Adaptive sharpening of photos”, Proceedings of the SPIE, Volume 6807, pp. 68070U-68070U-12 (2008) [14].
Фиг. 6 описывает в подробностях процесс выявления данных о действиях объекта во время обратного прохода («назад») через кадр, шаг 308. Процесс выполняют для конкретного кадра в сцене, с индексом CSFI, индекс кадра текущей сцены, шаг 601, для всех объектов начиная с объекта с индексом k=0, шаг 602. Если CSFI оказывается между ƒbegin текущего объекта и ƒ0 текущего объекта, то координаты RBB объекта вычисляют используя координаты этого RBB на предыдущем обработанном кадре, CSFI+1 (поскольку это обратный проход) таким же способом, как это было сделано на шаге 507. На шаге 605 параметры объекта вычисляют тем же способом, как это было сделано на шаге 505. В случае если текущий объект является последним (условие 606), процесс заканчивается, в ином случае он продолжается в отношении следующего объекта, шаг 607, и индекс объекта увеличивают на 1. FIG. 6 describes in detail the process of identifying data about the actions of an object during a return pass ("backward") through the frame, step308. The process is performed for a specific frame in the scene, with a CSFI index, the frame index of the current scene, step601, for all objects starting with an object with an indexk= 0, step602. If CSFI is between ƒbegin current object and ƒ0 of the current object, then the coordinates of the RBB of the object are calculated using the coordinates of this RBB on the previous processed frame, CSFI + 1 (since this is a return pass) in the same way as it was done in step507. On the step605 object parameters are calculated in the same way as in step505. If the current object is the last (condition606), the process ends, otherwise it continues with respect to the next object, step607, and the index of the object is increased by 1.
Фиг. 7 объясняет более детально шаг 204, касающийся обработки данных видеоанализа, выделения ключевых кадров и очистки накопителя. На шаге 701 выбирают набор ключевых кадров KFo исходя из выявленных данных о действиях объекта, подробности этого процесса объяснены далее. На шаге 702 вводят дополнительные ключевые кадры, если необходимо, между кадрами, которые присутствуют в наборе KFo. Из уровня техники известны способы для этого, например, S. V. Porter, M. Mirmehdi, and B. T. Thomas. A shortest path representation for video summarization. In Proc. of 12th ICIAP, pp. 460-465. IEEE Comp. Soc., Sept. 2003 [15], где данные глобального движения используют для выявления ключевых кадров. Полученный набор ключевых кадров подается на выход, и накопитель результатов видеоанализа очищают для использования при дальнейшей обработке следующей видео сцены, шаг 703. Набор ключевых кадров KFo выбирают на основе данных о действиях обнаруженного объекта, шаг 701, следующим образом. В одном из предложенных вариантов реализации заявляемого изобретения ключевые кадры выбирают на основе скорости движения объекта. Модуль обработки результатов видеоанализа сравнивает аккумулированные координаты RBB и параметры объекта. FIG. 7 explains in
, ,
где ƒstart и ƒfinish - последовательные кадры сцены, для которых вычисляют данные о действиях объекта. Пусть T является заранее заданным порогом,where ƒ start and ƒ finish are sequential scene frames for which data on the actions of the object are calculated. Let T be a predetermined threshold,
0<T< 0 <T <
где ƒ1 = max(ƒ-T, ƒstart), ƒ2 = min(ƒ+T, ƒfinish) Where ƒone = max (ƒ-T, ƒstart), ƒ2 = min (ƒ + T, ƒfinish)
В другом варианте реализации заявляемого изобретения выполняют анализ кривизны траектории объекта в видео кадрах.In another embodiment, the implementation of the claimed invention perform an analysis of the curvature of the trajectory of the object in video frames.
где ƒ1 = max(ƒ-T, ƒstart+1), ƒ2 = min(ƒ+T, ƒfinish-1) Where ƒone = max (ƒ-T, ƒstart+1), ƒ2 = min (ƒ + T, ƒfinish-one)
В еще одном варианте реализации заявленного изобретения проводят анализ параметров изображения, таких, как контраст C и резкость S. Пусть F является функцией C и S, а T1 и T2 являются предопределенными реальными значениями.In yet another embodiment of the claimed invention, image parameters are analyzed, such as contrast C and sharpness S. Let F be a function of C and S, and T 1 and T 2 are predefined real values.
, ,
где ƒ1 = max(ƒ-T, ƒstart+1), ƒ2 = min(ƒ+T, ƒfinish-1), Where ƒone = max (ƒ-T, ƒstart+1), ƒ2 = min (ƒ + T, ƒfinish-one),
Специалист в данной области техники поймет, что возможны также и другие варианты реализации данного изобретения и что элементы изобретения могут быть изменены различным образом не выходя за рамки концепции данного изобретения. Поэтому чертежи и описание следует рассматривать лишь в качестве иллюстрации, которая не имеет ограничительного характера.One skilled in the art will recognize that other embodiments of the invention are also possible and that the elements of the invention can be modified in various ways without departing from the concept of the present invention. Therefore, the drawings and description should be considered only as an illustration, which is not restrictive.
Заявляемый способ предназначен для реализации в программном обеспечении полуавтоматических систем преобразования "моно-в-стерео" или «черно/белое-в-цветное», используя современное вычислительное оборудование (персональные компьютеры, рабочие станции, компьютерные кластеры или тому подобное). Способ применим для систем преобразования видео "моно-в-стерео" или «черно/белое-в-цветное», оборудованных процессором, памятью, устройствами ввода - вывода и шиной передачи данных.The inventive method is intended for implementation in the software of semi-automatic conversion systems "mono-in-stereo" or "black / white-in-color" using modern computing equipment (personal computers, workstations, computer clusters or the like). With the manual, it is applicable for “mono-in-stereo” or “black / white-in-color” video conversion systems equipped with a processor, memory, input / output devices and a data bus.
Claims (21)
получают данные для инициализации объектов каждого ключевого объекта в каждом кадре;
выявляют смены сцен во входной видео последовательности и разбивают видео последовательность на сцены;
для каждой сцены выявляют данные о деятельности каждого объекта посредством модуля анализа видеоданных и данных глобального движения (GM) по всем кадрам сцены и сохраняют эти данные в накопителе результатов видеоанализа;
причем после обработки видео сцены, сначала анализируют сохраненные данные о деятельности каждого объекта, выделяют ключевые кадры, затем анализируют данные глобального движения (GM) и ключевых кадров объекта, извлекают и выводят ключевые кадры посредством модуля анализа видеоданных; после чего очищают накопитель результатов видеоанализа и переходят к следующей сцене входной видео последовательности до достижения конца видео последовательности.1. The method of highlighting key frames in the process of semi-automatic addition of a video sequence with information about depth or color, characterized in that it includes the following operations:
receive data to initialize the objects of each key object in each frame;
detecting scene changes in the input video sequence and breaking the video sequence into scenes;
for each scene, data on the activity of each object is detected by means of the video data analysis module and global motion data (GM) for all frames of the scene and save these data in the video analysis results store;
moreover, after processing the video scene, first, the stored data on the activity of each object is analyzed, key frames are extracted, then the global motion (GM) data and key frames of the object are analyzed, key frames are extracted and output via the video analysis module; after which they clear the video analysis results store and go to the next scene of the input video sequence until the end of the video sequence is reached.
,
где f start и f finish - последовательные кадры сцены, для которой вычисляют данные о действиях объекта,
где f 1 = max(f-T, f start), f 2 = min (f+T, f finish), T - предопределенный порог,
KFo = {f: D ' f = D f } 13. The method according to claim 1, characterized in that the accumulated RBB coordinates and object parameters are compared in the video analysis results processing module and a number of key frames KFo are output:
,
where f start and f finish are sequential frames of the scene for which data on the actions of the object are calculated,
where f 1 = max ( f -T, f start ), f 2 = min ( f + T, f finish ), T is a predetermined threshold,
KFo = {f: D ' f = D f }
где f 1 = max(f-T, f start+1), f 2 = min(f+T, f finish-1), T - предопределенный порог,
KFo = {f: k ' f = k f } 14. The method according to p. 1, characterized in that in the module for processing the results of the video analysis analyze the curvature of the trajectory of the object in video frames and get a number of key frames KFo
Wheref one = max (f-T,f start+1)f 2 = min (f+ T,f finish-1), T is a predetermined threshold,
KFo = {f: k '' f = k f }
,
где f 1 = max(f-T, f start+1), f 2 = min(f+T, f finish-1), T - предопределенный порог
KFo = {f: F ' f = F f } 16. The method according to p. 15, characterized in that analyze the parameters of the object, such as contrastC and sharpnessS, calculate the functions F andF 'c, andS, and Tone and T2 are predefined real values:
,
Wheref one = max (f-T,f start+1)f 2 = min (f+ T,f finish-1), T - predefined threshold
KFo = {f: F '' f = F f }
модуля анализа видеоданных, выполненного с возможностью извлечения данных из входного видео потока и получения множества инициализационных данных для ключевых объектов в видео через устройство разметки видео;
накопителя результатов видеоанализа, выполненного с возможностью запоминания аккумулированных данных видеоанализа, обнаруженных модулем анализа;
и модуля обработки результатов видеоанализа, выполненного с возможностью проведения анализа аккумулированных данных.17. The system for implementing the method of highlighting key frames in the process of semi-automatic addition of a video sequence with information about depth or color, characterized in that it consists of three main parts:
a video data analysis module configured to extract data from the input video stream and obtain a plurality of initialization data for key objects in the video through the video marking device;
a video analysis result storage device configured to store accumulated video analysis data detected by the analysis module;
and a video analysis result processing module configured to analyze accumulated data.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| RU2012134258/08A RU2493602C1 (en) | 2012-08-10 | 2012-08-10 | Method and system for selecting key frames from video sequences |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| RU2012134258/08A RU2493602C1 (en) | 2012-08-10 | 2012-08-10 | Method and system for selecting key frames from video sequences |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| RU2493602C1 true RU2493602C1 (en) | 2013-09-20 |
Family
ID=49183550
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| RU2012134258/08A RU2493602C1 (en) | 2012-08-10 | 2012-08-10 | Method and system for selecting key frames from video sequences |
Country Status (1)
| Country | Link |
|---|---|
| RU (1) | RU2493602C1 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| RU2577486C2 (en) * | 2014-07-10 | 2016-03-20 | Самсунг Электроникс Ко., Лтд. | Method for automatic retrieval of key frame indices for video data extension |
| RU2693994C1 (en) * | 2018-11-06 | 2019-07-08 | Сергей Юрьевич Подлесный | Video processing method for visual search purposes |
| CN115134656A (en) * | 2021-03-26 | 2022-09-30 | 腾讯科技(深圳)有限公司 | A video data processing method, apparatus, device and medium |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH01229583A (en) * | 1988-02-29 | 1989-09-13 | Colorisation Inc | Method of converting black and white signal into color signal by detecting movement |
| WO2002013141A1 (en) * | 2000-08-09 | 2002-02-14 | Dynamic Digital Depth Research Pty Ltd | Image conversion and encoding techniques |
| RU2193798C2 (en) * | 1997-05-06 | 2002-11-27 | Дименсионс Ас | Image processing method |
| AU762791B2 (en) * | 2000-01-31 | 2003-07-03 | Canon Kabushiki Kaisha | Extracting key frames from a video sequence |
| RU2003104786A (en) * | 2000-07-13 | 2004-06-10 | Орэси Корп. (Us) | SYSTEM OF MULTIDIMENSIONAL IMAGES, PROVIDING INPUT AND OUTPUT OF DIGITAL IMAGE |
| US7158676B1 (en) * | 1999-02-01 | 2007-01-02 | Emuse Media Limited | Interactive system |
| RU2007128309A (en) * | 2007-07-24 | 2009-01-27 | Корпораци "Самсунг Электроникс Ко., Лтд." (KR) | METHOD FOR FORMING VIDEO IMAGE DEPTH FEELING |
| US20090116732A1 (en) * | 2006-06-23 | 2009-05-07 | Samuel Zhou | Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition |
| EP2174511A2 (en) * | 2007-07-26 | 2010-04-14 | Koninklijke Philips Electronics N.V. | Method and apparatus for depth-related information propagation |
| RU2423018C2 (en) * | 2009-08-04 | 2011-06-27 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Method and system to convert stereo content |
-
2012
- 2012-08-10 RU RU2012134258/08A patent/RU2493602C1/en not_active IP Right Cessation
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH01229583A (en) * | 1988-02-29 | 1989-09-13 | Colorisation Inc | Method of converting black and white signal into color signal by detecting movement |
| RU2193798C2 (en) * | 1997-05-06 | 2002-11-27 | Дименсионс Ас | Image processing method |
| US7158676B1 (en) * | 1999-02-01 | 2007-01-02 | Emuse Media Limited | Interactive system |
| AU762791B2 (en) * | 2000-01-31 | 2003-07-03 | Canon Kabushiki Kaisha | Extracting key frames from a video sequence |
| RU2003104786A (en) * | 2000-07-13 | 2004-06-10 | Орэси Корп. (Us) | SYSTEM OF MULTIDIMENSIONAL IMAGES, PROVIDING INPUT AND OUTPUT OF DIGITAL IMAGE |
| WO2002013141A1 (en) * | 2000-08-09 | 2002-02-14 | Dynamic Digital Depth Research Pty Ltd | Image conversion and encoding techniques |
| US20090116732A1 (en) * | 2006-06-23 | 2009-05-07 | Samuel Zhou | Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition |
| RU2007128309A (en) * | 2007-07-24 | 2009-01-27 | Корпораци "Самсунг Электроникс Ко., Лтд." (KR) | METHOD FOR FORMING VIDEO IMAGE DEPTH FEELING |
| EP2174511A2 (en) * | 2007-07-26 | 2010-04-14 | Koninklijke Philips Electronics N.V. | Method and apparatus for depth-related information propagation |
| RU2423018C2 (en) * | 2009-08-04 | 2011-06-27 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Method and system to convert stereo content |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| RU2577486C2 (en) * | 2014-07-10 | 2016-03-20 | Самсунг Электроникс Ко., Лтд. | Method for automatic retrieval of key frame indices for video data extension |
| RU2693994C1 (en) * | 2018-11-06 | 2019-07-08 | Сергей Юрьевич Подлесный | Video processing method for visual search purposes |
| CN115134656A (en) * | 2021-03-26 | 2022-09-30 | 腾讯科技(深圳)有限公司 | A video data processing method, apparatus, device and medium |
| CN115134656B (en) * | 2021-03-26 | 2024-11-22 | 腾讯科技(深圳)有限公司 | A video data processing method, device, equipment and medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12243170B2 (en) | Live in-camera overlays | |
| US20200234397A1 (en) | Automatic view mapping for single-image and multi-view captures | |
| US8953024B2 (en) | 3D scene model from collection of images | |
| JP5355422B2 (en) | Method and system for video indexing and video synopsis | |
| EP3989158A1 (en) | Method, apparatus and device for video similarity detection | |
| JP5634111B2 (en) | Video editing apparatus, video editing method and program | |
| US20130215239A1 (en) | 3d scene model from video | |
| Ullah et al. | Crowd motion segmentation and anomaly detection via multi-label optimization | |
| CN105243395B (en) | A kind of human body image comparison method and device | |
| US20130215221A1 (en) | Key video frame selection method | |
| Rani et al. | Social media video summarization using multi-Visual features and Kohnen's Self Organizing Map | |
| US20160048978A1 (en) | Method and apparatus for automatic keyframe extraction | |
| KR20170038040A (en) | Computerized prominent person recognition in videos | |
| US12217470B2 (en) | System and method for automatic video reconstruction with dynamic point of interest | |
| US9171357B2 (en) | Method, apparatus and computer-readable recording medium for refocusing photographed image | |
| RU2493602C1 (en) | Method and system for selecting key frames from video sequences | |
| JP5192437B2 (en) | Object region detection apparatus, object region detection method, and object region detection program | |
| US9971951B2 (en) | Method and apparatus for generating superpixel clusters | |
| CN108780576B (en) | System and method for ghost removal in video clips using object bounding boxes | |
| EP3043316A1 (en) | Method and apparatus for generating superpixels for multi-view images | |
| CN114693918B (en) | Image recognition method and device and computer readable storage medium | |
| JP5516444B2 (en) | Thumbnail extraction program and thumbnail extraction method | |
| Yeh | Selecting interesting image regions to automatically create cinemagraphs | |
| Wang et al. | Visual saliency based aerial video summarization by online scene classification | |
| CN115116031B (en) | Information determining method of object and storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20190811 |
