[go: up one dir, main page]

RU2329535C2 - Method of automatic photograph framing - Google Patents

Method of automatic photograph framing Download PDF

Info

Publication number
RU2329535C2
RU2329535C2 RU2006117835/09A RU2006117835A RU2329535C2 RU 2329535 C2 RU2329535 C2 RU 2329535C2 RU 2006117835/09 A RU2006117835/09 A RU 2006117835/09A RU 2006117835 A RU2006117835 A RU 2006117835A RU 2329535 C2 RU2329535 C2 RU 2329535C2
Authority
RU
Russia
Prior art keywords
image
cropping
analysis
uniformity
line
Prior art date
Application number
RU2006117835/09A
Other languages
Russian (ru)
Inventor
Алексей Валентинович Нефедов (RU)
Алексей Валентинович Нефедов
Сергей Викентьевич Ефимов (RU)
Сергей Викентьевич Ефимов
Адильбек Кобланович Шакенов (RU)
Адильбек Кобланович Шакенов
Original Assignee
Самсунг Электроникс Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Priority to RU2006117835/09A priority Critical patent/RU2329535C2/en
Priority to KR1020070016214A priority patent/KR101315464B1/en
Application granted granted Critical
Publication of RU2329535C2 publication Critical patent/RU2329535C2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • H04N1/3873Repositioning or masking defined only by a limited number of coordinate points or parameters, e.g. corners, centre; for trimming
    • H04N1/3875Repositioning or masking defined only by a limited number of coordinate points or parameters, e.g. corners, centre; for trimming combined with enlarging or reducing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

FIELD: digital photography.
SUBSTANCE: automatic photograph framing method is suggested. In case of the album orientation of the image, the image horizontal line uniformity analysis is performed, whereas in case of the portrait orientation of the image, the image vertical line uniformity analysis is performed. The analysis is based on the line fragment clustering with the use of their texture attributes. Based on the analysis results, the number g(i) of different clusters including rectangular fragments covering the line, is determined. The g(i) number is used for estimating uniformity of the image line. Based on this estimation, the preliminary location of the image cutting frame is defined for the image. Then, the location of faces on the image is defined, and the position of the frame is corrected by finding the maximal y-coordinate yt and the minimal y-coordinate yb of the rectangles circumscribed around the defined faces with consecutive straightening of the image cutting frame with the centre of the vertical interval with its ends at the points yt and yb.
EFFECT: creating the modernized method of intellectual framing and cutting of digital images to be used in automatic devices of image processing and printing.
6 cl, 14 dwg

Description

Заявляемое изобретение относится к области цифровой фотографии и может найти применение в проектировании автоматических устройств для печати качественных цифровых фотографий.The claimed invention relates to the field of digital photography and may find application in the design of automatic devices for printing high-quality digital photographs.

В настоящее время широко применяются два основных подхода к решению задачи обрезки фотографии, не связанных с анализом ее содержания. Первый подход заключается в обрезке верхнего и нижнего краев фотографии в отношении 50% на 50%, или 20% на 80%, соответственно. Это означает, что если высота фотографии должна быть уменьшена на 1 см, то сверху и снизу будут отрезаны горизонтальные полосы высотой, соответственно, 5 и 5 мм, или 2 и 8 мм. Во многих случаях этот подход не приводит к обрезке важных объектов на фотографии, расположенных в центре снимка. Однако в тех нередких случаях, когда объект съемки, например человек, находится близко к краю фотографии, этот подход может приводить к обрезке частей лица, головы или других частей человека.Currently, two main approaches are widely used to solve the problem of cropping photographs, not related to the analysis of its content. The first approach is to crop the upper and lower edges of the photo in a ratio of 50% to 50%, or 20% to 80%, respectively. This means that if the height of the photograph should be reduced by 1 cm, then horizontal and vertical stripes with a height of 5 and 5 mm, or 2 and 8 mm, respectively, will be cut off from above and below. In many cases, this approach does not crop important objects in the photograph located in the center of the picture. However, in those frequent cases where the subject, such as a person, is close to the edge of the photograph, this approach may result in cropping of parts of the face, head, or other parts of the person.

Другой известный подход заключается в том, чтобы не обрезать фотографию, а распечатать ее на листе, сделав отступы слева и справа. Недостатком здесь является то, что площадь листа фотобумаги используется не полностью.Another well-known approach is not to crop the photo, but to print it on a sheet, indenting left and right. The disadvantage here is that the area of the sheet of photo paper is not fully used.

Менее известны, так называемые, методы интеллектуальной обрезки или кадрирования изображения, в частности фотографии. Эти методы предназначены для изменения соотношения геометрических размеров сторон изображения, т.е. отношения его ширины к высоте, путем обрезки нижней и/или верхней, а также левой и/или правой части изображения. Термин «интеллектуальная» означает, что обрезка фотографии производится на основе анализа ее содержания с целью исключить обрезку важных объектов, запечатленных на фотографии.Less well-known are the so-called intellectual cropping or cropping methods, in particular photographs. These methods are designed to change the aspect ratio of the image sides, i.e. the ratio of its width to height, by cropping the bottom and / or top, as well as the left and / or right side of the image. The term “intelligent” means that cropping a photograph is based on an analysis of its contents in order to exclude cropping of important objects captured in the photograph.

Потребность в изменении соотношения сторон фотографии возникает, например, у пользователей цифровых фотокамер, желающих распечатать свои цифровые снимки: обычная цифровая фотография имеет соотношение сторон 4:3, тогда как стандартные листы фотобумаги в автоматических лабораториях печати имеют соотношение сторон 3:2.The need to change the aspect ratio of a photograph arises, for example, for users of digital cameras who want to print their digital photographs: ordinary digital photographs have an aspect ratio of 4: 3, whereas standard sheets of photo paper in automatic printing laboratories have an aspect ratio of 3: 2.

Основная проблема в задаче автоматической обрезки заключается в определении и сегментации главного объекта или объектов на изображении. Теоретические методы определения главного объекта можно разделить на две категории. Методы, основанные на обработке пикселов, выделяют отдельные пикселы или небольшие группы пикселов, которые, как правило, соответствуют частям объектов, запечатленных на фотографии. К числу таких методов относятся, например, методы выделения краев. Методы, основанные на обработке областей, выделяют области, соответствующие целым семантически значимым объектам на изображении.The main problem in the task of automatic cropping is to identify and segment the main object or objects in the image. Theoretical methods for determining the main object can be divided into two categories. Methods based on processing pixels separate individual pixels or small groups of pixels, which, as a rule, correspond to parts of objects captured in a photograph. Such methods include, for example, edge extraction methods. Methods based on the processing of regions select regions corresponding to entire semantically significant objects in the image.

К настоящему времени теория автоматической обрезки исследована лишь поверхностно. Авторам не известны пакеты программ обработки изображений, в которых функция кадрирования фотографии явно основывалась бы на выделении главных объектов съемки.To date, the theory of automatic trimming has been studied only superficially. The authors are not aware of image processing software packages in which the photo cropping function would clearly be based on highlighting the main objects of shooting.

Частичное использование интеллектуального способа кадрирования и обрезки цифровых изображений встречается в некоторых новейших публикациях. Например, программа XV (см. www.trilon.com/xv [1]) имеет функцию автоматического обрезания изображений, работающую следующим образом.Partial use of the smart method of cropping and cropping digital images is found in some recent publications. For example, program XV (see www.trilon.com/xv [1]) has the function of automatic cropping of images, which works as follows.

- Выделяют граничные строки и столбцы изображения, в частности, верхнюю и нижнюю строки, крайние столбцы слева и справа.- Select the boundary lines and columns of the image, in particular, the upper and lower rows, the extreme columns on the left and right.

- Определяют вариации яркости в выделенных строках и столбцах. В полутоновых изображениях обрезают полностью однородные строки и столбцы. В цветных изображениях обрезают строки и столбцы с низкими значениями пространственной и спектральной корреляции.- Determine the brightness variations in the selected rows and columns. In grayscale images, completely uniform rows and columns are cropped. In color images, rows and columns with low spatial and spectral correlation are cropped.

- Две предыдущие операции повторяют необходимое число раз.- The two previous operations are repeated as many times as necessary.

Таким образом, программа удаляет относительно однородные области по краям изображения. Она не определяет содержание изображения в целом. На практике эффективно удаляются темные края отсканированных изображений, возникающие из-за неточного выравнивания оригинала перед сканированием. Часто получаются неудовлетворительные результаты из-за недостаточного анализа содержания сцены.Thus, the program removes relatively uniform areas along the edges of the image. It does not determine the content of the image as a whole. In practice, dark edges of scanned images resulting from inaccurate alignment of the original before scanning are effectively removed. Often, unsatisfactory results are obtained due to insufficient analysis of the contents of the scene.

В заявке на патент США №5978519 [2] рассматривается способ обрезки изображений, основанный на различии уровней интенсивности. Типичное изображение содержит как области однородной интенсивности и цвета, так и области, где интенсивность и цвет значительно меняются. Например, портрет обычно содержит резкие яркостные переходы от главного объекта к фону. В описываемом способе размер изображения уменьшается, и изображение делят на не перекрывающиеся блоки. Для каждого блока вычисляют среднее и дисперсию интенсивности. На основе распределения дисперсии в блоках выбирают порог и все блоки с дисперсией выше пороговой отмечают как области интереса. Области интереса затем вырезают ограничивающим прямоугольником.In the application for US patent No. 59978519 [2] describes a method of cropping images based on the difference in intensity levels. A typical image contains both areas of uniform intensity and color, and areas where the intensity and color change significantly. For example, a portrait usually contains sharp brightness transitions from the main subject to the background. In the described method, the image size is reduced, and the image is divided into non-overlapping blocks. For each block, the mean and variance of the intensity are calculated. Based on the dispersion distribution in the blocks, a threshold is selected and all blocks with a dispersion above the threshold are marked as areas of interest. Areas of interest are then cut out with a bounding box.

Необходимо отметить, что этот способ эффективен только в случае, когда исходные изображения содержат как области, где уровни интенсивности постоянны, так и области, где уровни интенсивности значительно изменяются. Ожидается, что эффективность метода будет сравнима с [1]. Различие между [1] и [2] заключается в том, что [1] анализирует однородность изображения построчно, в то время как [2] анализирует изображение поблочно. Оба метода, однако, плохо работают с изображениями, имеющими неоднородный фон.It should be noted that this method is effective only when the original images contain both areas where the intensity levels are constant, and areas where the intensity levels vary significantly. It is expected that the effectiveness of the method will be comparable to [1]. The difference between [1] and [2] is that [1] analyzes the uniformity of the image line by line, while [2] analyzes the image block by block. Both methods, however, do not work well with images that have a heterogeneous background.

Функция интеллектуального обрезания пакета Microsoft Digital Image Suite 2006 [3] обладает возможностью определения лиц на портретах или семейных фотографиях. Программа предлагает некоторый вариант обрезки, после чего пользователь может выбрать нужное соотношение сторон из списка стандартных форматов печати. Кроме того, пользователь может задать размеры изображения в пикселах.The smart cropping feature of Microsoft Digital Image Suite 2006 [3] has the ability to detect faces in portraits or family photographs. The program offers some cropping option, after which the user can select the desired aspect ratio from the list of standard print formats. In addition, the user can set the image size in pixels.

В работе V.D.Gesu et al. in "Local operators to detect regions of interest,"Pattem Recognition Letters, vol.18, pp.1077-1081, 1997 [4] для измерения локальных центральных моментов и локальной радиальной симметрии используют дискретное преобразование момента (ДПМ) и дискретное преобразования симметрии (ДПС). Для исключения случаев тривиальной симметрии необходим выбор неоднородной области. Оператор ДПМ действует как детектор резких границ, а оператор ДПС - как детектор симметричных областей. Результаты действия двух операторов объединяются посредством логической операции "И". Используются морфологические операции для дилатации карты контуров, генерируемой оператором ДПМ.In the work of V. D. Gesu et al. in "Local operators to detect regions of interest," Pattem Recognition Letters, vol. 18, pp.1077-1081, 1997 [4] to measure local central moments and local radial symmetry, use the discrete momentum transformation (PDM) and the discrete symmetry transformation ( DPS). To exclude cases of trivial symmetry, the choice of an inhomogeneous region is necessary. The DPS operator acts as a detector of sharp boundaries, and the DPS operator acts as a detector of symmetric regions. The results of the two operators are combined using the logical AND operation. Morphological operations are used to dilate the contour map generated by the PDM operator.

В работе R. Milanese in "Detecting salient regions in an image: From biology to implementation", PhD thesis. University of Geneva, Switzerland, 1993 [5] разработана численная модель зрительного внимания, которая объединяет знание о зрительной системе человека с методами компьютерного зрения. Модель состоит из трех основных уровней. Вначале на основе исходного изображения создаются многомерные карты признаков (ориентация, кривизна, цветовой контраст и т.д.). Затем с использованием производной модели Гаусса, выделяющей области интереса на каждой карте признаков, строятся карты «видимости». Наконец, построенные карты объединяются при помощи метода нелинейной релаксации.In R. Milanese in "Detecting salient regions in an image: From biology to implementation", PhD thesis. University of Geneva, Switzerland, 1993 [5] developed a numerical model of visual attention, which combines knowledge of the human visual system with computer vision methods. The model consists of three main levels. First, based on the original image, multidimensional feature maps are created (orientation, curvature, color contrast, etc.). Then, using a derivative Gaussian model that identifies areas of interest on each feature map, “visibility” maps are constructed. Finally, the constructed maps are combined using the nonlinear relaxation method.

В работе Q. Huang et al. in "Foreground/background segmentation of color images by integration of multiple cues," in Proc. IEEE Int. Conf. Image Process., 1995 [6] рассмотрена автоматическая сегментация цветных изображений по переднему и заднему планам с использованием многоуровневой схемы сегментации, включающей цветовую кластеризацию, автоматическую сегментацию, основанную на принципе минимальной длины описания (МДО), выделении переднего/заднего планов посредством анализа границ и объединенной сегментации на основе границ и областей. Алгоритм сегментации на основе МДО используется для дальнейшего группирования областей после начальной цветовой кластеризации.In the work of Q. Huang et al. in "Foreground / background segmentation of color images by integration of multiple cues," in Proc. IEEE Int. Conf. Image Process., 1995 [6] considered automatic segmentation of color images in the foreground and background using a multi-level segmentation scheme, including color clustering, automatic segmentation based on the principle of minimum description length (MDO), highlighting foreground / background by analyzing borders and joint segmentation based on boundaries and areas. The MAO-based segmentation algorithm is used to further group regions after the initial color clustering.

В работе Т.F.Syeda-Mahmood in "Data and model-driven selection using color regions," Int. J. Comput. Vision, vol.21, no.1, pp.9-36, 1997 [7] предложен метод выбора областей с использованием цветовой сегментации и измерения важности области. Набор из 220 основных цветовых категорий преобразуется в форму таблицы преобразования цветов. Пиксели, относящиеся к одной из цветовых категорий, группируются посредством анализа связных компонент и далее объединяются в соответствующие цветовые категории. Для определения суммарной важности области используются два типа мер важности - абсолютная и относительная, - которые объединяются с использованием эвристически выбранных весов. Абсолютная важность области включает цветовую насыщенность, яркость и размер, в то время как относительная важность включает цветовой контраст и соотношение размеров между рассматриваемой областью и ее окружением.In T.F.Syeda-Mahmood in "Data and model-driven selection using color regions," Int. J. Comput. Vision, vol.21, no.1, pp.9-36, 1997 [7] proposed a method for selecting areas using color segmentation and measuring the importance of the area. A set of 220 basic color categories is converted to a color conversion table form. Pixels belonging to one of the color categories are grouped by analysis of connected components and then combined into the corresponding color categories. To determine the total importance of an area, two types of importance measures are used - absolute and relative - which are combined using heuristically selected weights. The absolute importance of an area includes color saturation, brightness, and size, while the relative importance includes color contrast and the aspect ratio between the area in question and its surroundings.

В целом, почти все существующие методы обрезки разработаны для определенных типов изображений: фотографий людей на относительно простом фоне; музейных фотографий, на которых выделяющийся объект съемки находится в центре изображения с однородным фоном; изображений модельных сцен с несколькими главными предметами различной окраски и формы. Некоторые из этих методов изначально не предназначены для обработки произвольных изображений, эффективность же других методов, разработанных с использованием слишком общих принципов, показана лишь на простых изображениях.In general, almost all existing cropping methods are designed for certain types of images: photographs of people against a relatively simple background; museum photographs, in which the distinguished subject is in the center of the image with a uniform background; images of model scenes with several main objects of various colors and shapes. Some of these methods were not originally intended for processing arbitrary images, while the effectiveness of other methods developed using too general principles is shown only in simple images.

Патент США №6282317 [8] описывает метод обнаружения главного объекта на изображении. Метод включает в себя получение цифрового изображения; извлечение областей произвольной формы и размера, соответствующих присутствующим на изображении объектам; группирование областей в более крупные области, соответствующие физически связанным объектам; извлечение для каждой области как минимум одной структурно-выделяемой особенности и как минимум одной семантически выделяемой особенности; оценку для каждой выделенной области вероятности того, что эта область соответствует главному объекту.US patent No. 6282317 [8] describes a method for detecting the main object in the image. The method includes obtaining a digital image; extracting areas of arbitrary shape and size corresponding to the objects present in the image; grouping areas into larger areas corresponding to physically connected objects; extracting for each area at least one structurally distinguishable feature and at least one semantically distinguishable feature; an estimate for each selected area of the probability that this area corresponds to the main object.

Патент США №665450 [9] описывает метод кадрирования цифровых изображений, который включает ввод доверительной карты изображения, значение в каждой точке которой описывает важность информации в соответствующей точке изображения; выбор масштабирующего коэффициента и окна обрезки; кластеризацию областей доверительной карты для определения областей фона, вторичных областей и областей главного объекта; позиционирование окна обрезки в области главного объекта так, чтобы сумма значений доверия внутри окна была максимальной; и обрезку изображения по границам окна обрезки.US patent No. 665450 [9] describes a method of cropping digital images, which includes entering a trusted image map, the value at each point of which describes the importance of information at the corresponding point in the image; selection of scaling factor and cropping window; clustering areas of the trust card to determine areas of the background, secondary areas, and areas of the main object; positioning the cropping window in the region of the main object so that the sum of the confidence values inside the window is maximum; and crop the image to the borders of the crop window.

Выложенная заявка на патент США №2002/0191861 [10] описывает автоматическое и полуавтоматическое кадрирование изображений, и, в частности, аппарат и метод использования электронной камеры для захвата и кадрирования изображений. Электронное устройство для кадрирования изображений включает средства обработки изображения, в частности, электронный процессор и программируемое оборудование и/или программное обеспечение для обработки изображений. Устройство идентифицирует особенности композиции изображения и для каждой выделенной особенности находит похожую в некотором смысле особенность из числа предопределенных особенностей, хранимых в устройстве. Затем выбирается одно или несколько предопределенных композиционных правил, связанных с хранимыми особенностями. Устройство определяет одну или несколько подходящих границ кадрирования, применяя одно или несколько выбранных композиционных правил.U.S. Patent Application Laid-Open No. 2002/0191861 [10] describes automatic and semi-automatic image cropping, and in particular, an apparatus and method for using an electronic camera to capture and crop images. An electronic device for cropping images includes image processing means, in particular, an electronic processor and programmable equipment and / or image processing software. The device identifies the features of the image composition and for each highlighted feature finds in a certain way a similar feature from among the predefined features stored in the device. Then one or more predefined compositional rules associated with the stored features are selected. A device determines one or more suitable framing boundaries by applying one or more selected compositional rules.

Решение [10] является наиболее близким из всех известных решений к заявляемому изобретению и выбрано в качестве прототипа. При анализе недостатков прототипа основное внимание уделялось вопросам композиционного построения кадра. Как известно, при композиционном построении кадра фотограф выделяет главные объекты, учитывая и определяя следующие факторы:Solution [10] is the closest of all known solutions to the claimed invention and is selected as a prototype. In the analysis of the disadvantages of the prototype, the main focus was on the compositional composition of the frame. As you know, in the compositional composition of the frame, the photographer identifies the main objects, taking into account and determining the following factors:

- расположение объектов в границах кадра,- the location of objects within the frame,

- цветовой, тоновый и текстурный контраст между главными объектами и фоном,- color, tone and texture contrast between the main objects and the background,

- освещение главных объектов.- lighting of the main objects.

Если фотограф умело использует эти факторы, независимые эксперты в большинстве случаев приходят к согласию относительно того, какие из запечатленных на фотографии объектов являются главными. Это позволяет надеяться на то, что в принципе возможно создание автоматической системы обнаружения главных объектов на фотографии, которая использовала бы только информацию, имеющуюся на фотографии, без учета информации об объектах и условиях съемки, которая имелась у фотографа.If the photographer skillfully uses these factors, independent experts in most cases agree on which of the objects captured in the photograph are the main ones. This allows us to hope that, in principle, it is possible to create an automatic system for detecting the main objects in a photograph, which would use only the information available in the photograph, without taking into account the information about the objects and shooting conditions that the photographer had.

Анализ базы фотографических изображений, содержащей более 2000 изображений, показал, что более 70% фотографий содержат изображение человека, и примерно такой же процент изображений содержит лица достаточно крупного размера (см. S.Li, A.Jain "Handbook of Face Recognition", 2005 [11]). Поэтому в идентификации на изображении главных объектов полезен алгоритм, который мог бы эффективно обнаруживать человеческие лица. Хотя исследования по распознаванию лиц были начаты очень давно, до недавнего времени этой задаче не уделялось большого внимания. В последние десять лет распознаванию лиц уделяется больше внимания; наблюдается рост числа и разнообразия методов обнаружения лиц. Проблема состоит в том, чтобы на данном изображении произвольного размера определить лица и их расположение. Эта проблема является весьма непростой в силу того, что лица могут иметь разный размер и ориентацию. Кроме того, ситуацию усложняют такие факторы, как условия освещения, изменчивость формы и выражений лиц, присутствие дополнительных предметов или цветов (очки, косметика, борода).An analysis of the photographic image database containing more than 2000 images showed that more than 70% of photographs contain an image of a person, and approximately the same percentage of images contain faces of a rather large size (see S. Li, A.Jain "Handbook of Face Recognition", 2005 [eleven]). Therefore, in identifying the image of the main objects, an algorithm is useful that could effectively detect human faces. Although facial recognition studies were started a long time ago, until recently, this task has not received much attention. Over the past ten years, more attention has been paid to face recognition; there is an increase in the number and variety of face detection methods. The problem is that in this image of arbitrary size to determine the faces and their location. This problem is very difficult due to the fact that people can have different sizes and orientations. In addition, factors such as lighting conditions, the variability of form and facial expressions, the presence of additional objects or colors (glasses, cosmetics, beard) complicate the situation.

В литературе описано большое количество методов обнаружения лиц. В работе [11] дается всесторонний обзор существующих методов. Согласно этому обзору, методы обнаружения лиц могут быть разделены, главным образом, на две категории: методы, основанные на анализе лица в целом, и методы, основанные на анализе отдельных структурных элементов лица. Методы последней группы выявляют отдельные особенности лица и затем сопоставляют эти особенности с моделью лица, тогда как методы первый группы основаны на анализе интенсивности писелов. Методы, основанные на анализе отдельных структурных элементов, нуждаются в априорной информации о лице (форма головы, форма и положение глаз и рта, цвет лица, текстура и трехмерная модель лица). Напротив, методы, основанные на анализе лица в целом, не нуждаются ни в каких предварительных знаниях. Известно, что эти методы лучше подходят для обнаружения лиц не во фронтальном ракурсе, а также для анализа сложных сцен. Однако при обработке простых сцен методы, основанные на анализе отдельных структурных элементов, дают лучшие результаты.The literature describes a large number of methods for detecting faces. A comprehensive review of existing methods is given in [11]. According to this review, methods for detecting faces can be divided mainly into two categories: methods based on the analysis of the face as a whole, and methods based on the analysis of individual structural elements of the face. The methods of the last group reveal individual features of the face and then compare these features with the model of the face, while the methods of the first group are based on the analysis of the intensity of the writers. Methods based on the analysis of individual structural elements need a priori information about the face (head shape, shape and position of the eyes and mouth, complexion, texture and three-dimensional model of the face). On the contrary, methods based on the analysis of the face as a whole do not need any prior knowledge. It is known that these methods are better suited for detecting faces not from the front view, as well as for analyzing complex scenes. However, when processing simple scenes, methods based on the analysis of individual structural elements give better results.

Задача, на решение которой направлено заявляемое изобретение, заключается в разработке усовершенствованного способа интеллектуального кадрирования и обрезки цифровых изображений, пригодного для использования в автоматических устройствах обработки и печати.The problem to which the invention is directed, is to develop an improved method of intelligent cropping and cropping of digital images, suitable for use in automatic processing and printing devices.

Технический результат достигается за счет того, что в заявляемом способе автоматического кадрирования фотографий осуществляютThe technical result is achieved due to the fact that in the inventive method of automatically cropping photographs

- анализ однородности горизонтальных, преимущественно в случае альбомной ориентации изображения, и вертикальных, преимущественно в случае портретной ориентации, полос изображения на основе кластеризации фрагментов полос с использованием их текстурных признаков;- analysis of the homogeneity of horizontal, mainly in the case of landscape orientation of the image, and vertical, mainly in the case of portrait orientation, image strips based on the clustering of fragments of strips using their texture features;

- обнаружение лиц;- face detection;

- корректировку положения линий обрезки с учетом информации об обнаруженных на изображении лицах.- Correction of the position of the cropping lines taking into account information about the faces detected in the image.

Анализ однородности предлагается выполнять параллельно с обнаружением лиц. Способ применим как к цветным, так и монохромным изображениям альбомной или портретной ориентации.Uniformity analysis is proposed to be performed in parallel with face detection. The method is applicable to both color and monochrome images in landscape or portrait orientation.

Отличительные признаки заявляемого способа заключаются в использовании кластеризации областей изображения для оценки однородности полос изображения и определения положений линий обрезки, а также в усовершенствованной методике обнаружения лиц для корректировки линий обрезки.Distinctive features of the proposed method are the use of clustering image areas to assess the uniformity of the image strips and determine the position of the cropping lines, as well as an improved method for detecting faces to adjust the cropping lines.

Существо заявляемого изобретения излагается далее с привлечением графических материалов.The essence of the claimed invention is set forth below with the involvement of graphic materials.

Фиг.1. Схема взаимодействия основных компонентов системы, реализующей заявляемый способ.Figure 1. The interaction scheme of the main components of the system that implements the inventive method.

Фиг.2. Блок-схема реализации заявляемого способа кадрирования.Figure 2. The block diagram of the implementation of the proposed method of cropping.

Фиг.3. Иллюстрация к шагу 201 заявляемого способа кадрирования.Figure 3. Illustration for step 201 of the inventive framing method.

Фиг.4. Блок-схема шага 201 заявляемого способа кадрирования.Figure 4. A block diagram of step 201 of the inventive framing method.

Фиг.5. Блок-схема используемого детектора лиц.Figure 5. Block diagram of a face detector used.

Фиг.6. Иллюстрация к шагу 503 методики обнаружения лиц.6. Illustration for step 503 of the face detection technique.

Фиг.7. Блок-схема проверки условия "Глаза и рот".7. Flow chart for checking Eyes and Mouth conditions.

Фиг.8. Иллюстрация к шагу 703 проверки условия "Глаза и рот".Fig. 8. The illustration for step 703 for checking the Eye and Mouth condition.

Фиг.9. Иллюстрация к шагу 705 проверки условия "Глаза и рот".Fig.9. The illustration for step 705 for checking the Eye and Mouth condition.

Фиг.10. Иллюстрация коррекции положения рамки обрезки на основе информации о лицах, обнаруженных на изображении.Figure 10. Illustration of the correction of the position of the cropping frame based on information about the faces detected in the image.

Фиг.11-14. Примеры изображений, обрезанных с помощью заявляемого способа кадрирования.11-14. Examples of images cropped using the proposed method of cropping.

На Фиг.1 изображены основные компоненты системы, реализующей заявляемый способ. Процессор 101 управляет работой системы и исполняет программный код, хранящийся в памяти 104. Изображение, подлежащее обработке, также хранится в памяти 104.Figure 1 shows the main components of a system that implements the inventive method. A processor 101 controls the operation of the system and executes program code stored in the memory 104. The image to be processed is also stored in the memory 104.

После обрезки изображение передается на устройство 106 отображения. При помощи устройства 102 ввода пользователь системы принимает или отклоняет полученный вариант обрезки фотографии. Обрезанное изображение передается на устройство 105 печати. Обмен данными осуществляется при помощи шины 103 данных.After cropping, the image is transmitted to the display device 106. Using the input device 102, the user of the system accepts or rejects the received crop photo option. The cropped image is transmitted to the printing device 105. Data is exchanged using the data bus 103.

Блок-схема описываемого способа представлена на Фиг.2. Шаг 201 схемы иллюстрируется Фиг.3. Чтобы изменить соотношение сторон изображения с 4:3 на 3:2, необходимо уменьшить его высоту на

Figure 00000002
. Для этого необходимо разместить на исходном изображении размера 4l×3l пикселов (где l - некоторое целое число) рамку обрезки высотой
Figure 00000003
.The block diagram of the described method is presented in figure 2. Step 201 of the circuit is illustrated in FIG. 3. To change the aspect ratio of an image from 4: 3 to 3: 2, you must reduce its height by
Figure 00000002
. For this, it is necessary to place a cropping frame with a height of 4l × 3l pixels (where l is an integer)
Figure 00000003
.

На Фиг.3 пунктирными горизонтальными линиями A, D показана рамка обрезки, центрированная на изображении по вертикали. Пунктирная линия В показывает верхний край рамки при ее крайнем нижнем положении на изображении, линия С - нижний край рамки при ее крайнем верхнем положении.3, the cropped frame centered vertically in the image is shown by dashed horizontal lines A, D. Dotted line B shows the upper edge of the frame at its extreme lower position in the image, line C the lower edge of the frame at its extreme upper position.

Блок-схема шага 201 представлена на Фиг.4. На шаге 401 заданное цветное изображение преобразуется в монохромное с 256 уровнями яркости и разбивается на P×Q смежных прямоугольных фрагментов (изображенных серыми линиями на Фиг.3).A block diagram of step 201 is shown in FIG. 4. At step 401, the specified color image is converted to monochrome with 256 brightness levels and is divided into P × Q adjacent rectangular fragments (shown by gray lines in FIG. 3).

На шаге 402 для каждого прямоугольного фрагмента вычисляют текстурные признаки. В предпочтительном варианте реализации метода используют следующие шесть признаков:At 402, texture attributes are computed for each rectangular fragment. In a preferred embodiment of the method, the following six features are used:

- средняя яркость;- average brightness;

- дисперсия яркости σ2;- brightness variance σ 2 ;

-

Figure 00000004
;-
Figure 00000004
;

-

Figure 00000005
, где h1 есть доля пикселов фрагмента, имеющих яркость не более 128, h2=1-h1.-
Figure 00000005
, where h 1 is the fraction of the pixels of the fragment having a brightness of not more than 128, h 2 = 1-h 1 .

- e=-h1 log2 h1-h2 log2 h2;- e = -h 1 log 2 h 1 -h 2 log 2 h 2 ;

-

Figure 00000006
-
Figure 00000006

На шаге 403 проводят кластеризацию P·Q прямоугольных фрагментов изображения на k кластеров по вычисленным признакам. В предпочтительном варианте реализации метода используют алгоритм древовидной кластеризации. Таким образом, выделяют группы фрагментов, имеющих сходные текстурные признаки.At step 403, P · Q clustering of rectangular image fragments into k clusters is performed according to the calculated features. In a preferred embodiment of the method, a tree clustering algorithm is used. Thus, groups of fragments having similar texture features are distinguished.

На шаге 404 для каждой строки i изображения вычисляют число g(i) различных кластеров, в которые попали прямоугольные фрагменты, покрывающие эту строку (Фиг.3). Это число является оценкой однородности строки изображения. Строки с малыми значениями g считаются более однородными, а строки с высокими значениями g - менее однородными и содержащими большее количество информации о сцене.At step 404, for each row i of the image, the number g (i) of the various clusters into which the rectangular fragments covering this row fell is calculated (FIG. 3). This number is an estimate of the uniformity of the image line. Lines with small g values are considered more homogeneous, and lines with high g values are considered less homogeneous and contain more information about the scene.

На шагах 406, 408, 410 и 411 вычисляют предварительное положение рамки обрезки в соответствии с условиями 405, 407, 409.At steps 406, 408, 410 and 411, the preliminary position of the cropping frame is calculated in accordance with conditions 405, 407, 409.

Числа Р, Q, и k являются настроечными параметрами метода. В экспериментах с изображениями размера 1024×768 пикселов наилучшие результаты дали следующие значения параметров: Р=32, Q=32, k=50.The numbers P, Q, and k are tuning parameters of the method. In experiments with images of size 1024 × 768 pixels, the following parameters gave the best results: P = 32, Q = 32, k = 50.

На шаге 202 блок-схемы, изображенной на Фиг.2, выполняют обнаружение лиц. Существует большое количество алгоритмов обнаружения лиц, которые могут быть использованы на этом шаге. В предпочтительном варианте реализации метода используют алгоритм обнаружения лиц, работающий в соответствии с блок-схемой, изображенной на Фиг.5 (см. Commonly-assigned RU Laid-Open Patent Application "Method for automatic face detection in ready-for-print digital images" by A.Shakenov [12]). На шаге 501 осуществляют обнаружение лиц при помощи каскада классификаторов с использованием признаков Хаара. Строят множество прямоугольных фрагментов различного размера, соответствующих обнаруженным лицам. Каждый фрагмент этого множества далее проходит проверку на выполнение трех условий: «Размер», «Кожа», «Глаза и рот».In step 202 of the flowchart of FIG. 2, face detection is performed. There are a large number of face detection algorithms that can be used in this step. In a preferred embodiment of the method, a face detection algorithm is used that operates in accordance with the flowchart shown in FIG. 5 (see Commonly-assigned RU Laid-Open Patent Application "Method for automatic face detection in ready-for-print digital images" by A.Shakenov [12]). At step 501, faces are detected using a cascade of classifiers using Haar signs. Many rectangular fragments of various sizes are constructed corresponding to the detected faces. Each fragment of this set is further tested for the fulfillment of three conditions: “Size”, “Skin”, “Eyes and mouth”.

На шаге 502 проверяют условия «Размер». Фрагмент шириной w и высотой h пикселов изображения шириной v и высотой u пикселов удовлетворяет этому условию, если выполнено одно из двух неравенств:At step 502, the “Size” conditions are checked. A fragment of width w and height h pixels of an image of width v and height u of pixels satisfies this condition if one of the two inequalities holds:

Figure 00000007
Figure 00000007

Figure 00000008
Figure 00000008

На шаге 503 проверяют условие «Кожа». Фрагмент удовлетворяет этому условию, если выполнено неравенство:

Figure 00000009
,At step 503, the condition “Skin” is checked. A fragment satisfies this condition if the inequality holds:
Figure 00000009
,

где N - число всех пикселов подобласти фрагмента, показанной на Фиг.6 серым цветом, a Ns - число пикселов этой подобласти, которые в цветовом пространстве RGB имеют значение красной компоненты, которая превосходит значение зеленой и голубой компоненты, и имеет в пять раз меньшее значение, чем синяя компонента.where N is the number of all pixels of the subregion of the fragment shown in FIG. 6 in gray, and N s is the number of pixels of this subregion, which in the RGB color space have the value of the red component, which exceeds the value of the green and blue components, and is five times smaller value than the blue component.

На шаге 504 проверяется условие «Глаза и рот» в соответствии с блок-схемой, показанной на Фиг.7. На шаге 701 по правилу, описанному выше, происходит выделение пикселов кожи. На шаге 702 вокруг выделенных пикселов методом наименьших квадратов описывается эллипс. На следующих шагах рассматривается только область внутри этого эллипса.At step 504, the condition “Eyes and mouth” is checked in accordance with the flowchart shown in FIG. 7. At step 701, according to the rule described above, skin pixels are extracted. In step 702, an ellipse is described using the least squares method around the selected pixels. In the following steps, only the area inside this ellipse is considered.

На шаге 703 производят фильтрацию глаз и рта при помощи сверки с маской, показанной на Фиг.8. Маска имеет размер R1×R2, где R1=0,09h, R2=0,02w. На шаге 704 полученное после фильтрации изображение бинаризуют по порогу t=m+2σ, где m есть средняя яркость полученного изображения, а σ - среднеквадратичное отклонение яркости.At step 703, the eyes and mouth are filtered by reconciliation with the mask shown in FIG. The mask has a size of R 1 × R 2 , where R 1 = 0.09h, R 2 = 0.02w. At step 704, the image obtained after filtering is binarized by the threshold t = m + 2σ, where m is the average brightness of the resulting image, and σ is the standard deviation of the brightness.

На шаге 705 происходит выделение связных компонент. В областях, соответствующих кругам А, В и С, показанным на Фиг.9, из выделенных компонент выбирают одну, имеющую максимальную площадь.At step 705, the isolation of the connected components occurs. In the areas corresponding to circles A, B and C shown in Fig. 9, one of the selected components with the maximum area is selected.

Наконец, на шаге 706 проверяют следующие условия:Finally, at step 706, the following conditions are checked:

- каждый круг должен содержать одну компоненту,- each circle must contain one component,

- х - координата центра компоненты, лежащей в круге С, должна принадлежать отрезку [хA+0,2D, хB-0,2D], где ХA и XB - х - координаты компонент, лежащих в кругах А и В, соответственно, a D - расстояние между этими компонентами.- x - the coordinate of the center of the component lying in the circle C should belong to the segment [x A + 0,2D, x B -0,2D], where X A and X B - x are the coordinates of the components lying in the circles A and B, accordingly, a D is the distance between these components.

Условие «Глаза и рот» считается выполненным, если выполнены последние два условия.The condition “Eyes and mouth” is considered fulfilled if the last two conditions are met.

Продолжим рассмотрение блок-схемы на Фиг.2. Если на шаге 202 были найдены лица, на последнем шаге 204 производят корректировку положения рамки обрезки. Эта корректировка может быть выполнена, например, следующим способом (Фиг.10).Continue the consideration of the flowchart in figure 2. If faces were found in step 202, in the last step 204, the position of the cropping frame is adjusted. This adjustment can be performed, for example, in the following way (Figure 10).

- Находят минимальную у-координату yt и максимальную у-координату уb прямоугольников, описанных вокруг обнаруженных лиц.- Find the minimum y-coordinate y t and the maximum y-coordinate for b rectangles described around the detected faces.

- Центр рамки обрезки выравнивают по центру вертикального отрезка с концами в точках yt и уb.- The center of the cropping frame is aligned to the center of the vertical line with the ends at points y t and y b .

В заключении этого раздела сделаем несколько замечаний.To conclude this section, we make a few comments.

- Из блок-схемы на Фиг.2 следует, что процедура обнаружения лиц может применяться к входному изображению параллельно с процедурой, выполняемой на шаге 201. Кроме того, в описанной блок-схеме могут использоваться процедуры обнаружения других семантически значимых объектов для предотвращения обрезки частей человеческого тела, памятников и т.п.- It follows from the flowchart of FIG. 2 that the face detection procedure can be applied to the input image in parallel with the procedure performed at step 201. In addition, the described flowchart can use the detection procedures for other semantically significant objects to prevent cropping of parts of the human bodies, monuments, etc.

- Для способа кадрирования, реализованного во встроенном программном обеспечении принтера, время работы около одной минуты является допустимым, поскольку в настоящее время печать одной цветной страницы занимает примерно одну минуту. Таким образом, в то время, пока печатается одна фотография, процессор принтера может производить кадрирование следующей фотографии.- For the framing method implemented in the printer firmware, a runtime of about one minute is acceptable, since currently printing a single color page takes about one minute. Thus, while one photograph is being printed, the printer processor can crop the next photograph.

В изложенном варианте выполнения изобретения возможны различные модификации, добавления и замены, не изменяющие объема и смысла изобретения, которое описывается прилагаемой формулой изобретения.In the described embodiment of the invention, various modifications, additions and substitutions are possible without changing the scope and meaning of the invention, which is described by the attached claims.

На Фиг.11 показаны примеры изображений, откадрированных описанным способом.11 shows examples of images cropped in the described manner.

Способ может быть реализован в пакетах программ обработки изображений, во встроенном программном обеспечении принтеров, цифровых камер и других устройств, подключаемых к устройствам печати цифровых изображений.The method can be implemented in image processing software packages, in the embedded software of printers, digital cameras and other devices connected to digital image printing devices.

При реализации способа в программном обеспечении, встраиваемом в принтеры с ЖК-дисплеем, для пользователя может быть добавлена возможность изменения положения рамки обрезки клавишами «вверх», «вниз».When implementing the method in the software embedded in printers with an LCD display, the user can be added the ability to change the position of the cropping frame with the keys "up", "down".

Claims (6)

1. Способ автоматического кадрирования фотографий, заключающийся в том, что в случае альбомной ориентации изображения осуществляют анализ однородности горизонтальных строк изображения, а в случае портретной ориентации осуществляют анализ однородности вертикальных строк изображения, при этом анализ осуществляют на основе кластеризации фрагментов строк с использованием их текстурных признаков; по результату анализа определяют число g(i) различных кластеров, в которые попали прямоугольные фрагменты, покрывающие данную строку, при этом число g(i) используют для оценки однородности строки изображения, и по результатам оценок для изображения определяют предварительное положение рамки обрезки фотографий, далее осуществляют обнаружение лиц на изображении и производят корректировку положения рамки посредством нахождения максимальной у-координаты уt и минимальной у-координаты уb прямоугольников, описанных вокруг обнаруженных лиц и последующим выравниванием рамки обрезки с центром вертикального отрезка с концами в точках уt и уb.1. The method of automatic cropping of photographs, which consists in the fact that in the case of landscape orientation of the image analyze the uniformity of the horizontal lines of the image, and in the case of portrait orientation analyze the uniformity of the vertical lines of the image, the analysis is carried out on the basis of clustering of fragments of lines using their texture features ; the result of the analysis determines the number g (i) of various clusters that have rectangular fragments covering this row, the number g (i) is used to assess the uniformity of the image line, and the preliminary position of the cropping frame for the photos is determined by the results of the estimates, then detecting faces in the image and adjusting the position of the frame by finding the maximum y-coordinate at t and the minimum y-coordinate at b rectangles described around the detected faces and the subsequent alignment of the cropping frame with the center of the vertical line with the ends at points y t and y b . 2. Способ по п.1, в котором используют метод древовидной кластеризации.2. The method according to claim 1, in which the tree clustering method is used. 3. Способ по п.1, в котором используют метод кластеризации k-ближайших соседей.3. The method according to claim 1, in which the method of clustering k-nearest neighbors is used. 4. Способ по п.1, в котором используют следующие текстурные признаки:4. The method according to claim 1, in which the following texture features are used: средняя яркость;average brightness; дисперсия яркости σ2;variance of brightness σ 2 ;
Figure 00000010
Figure 00000010
Figure 00000011
где h1 есть доля пикселов фрагмента, имеющих яркость не более 128, h2=1-h1.
Figure 00000011
where h 1 is the fraction of the pixels of the fragment having a brightness of not more than 128, h 2 = 1-h 1 .
e=-h1 log2 h1-h2 log2 h2;e = -h 1 log 2 h 1 -h 2 log 2 h 2 ;
Figure 00000012
Figure 00000012
5. Способ по п.4, в котором используют дополнительные текстурные признаки, основанные на преобразовании Фурье.5. The method according to claim 4, in which additional texture features based on the Fourier transform are used. 6. Способ по п.1, в котором используют процедуру обнаружения других семантически-значимых объектов.6. The method according to claim 1, wherein a procedure for detecting other semantically significant objects is used.
RU2006117835/09A 2006-05-24 2006-05-24 Method of automatic photograph framing RU2329535C2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
RU2006117835/09A RU2329535C2 (en) 2006-05-24 2006-05-24 Method of automatic photograph framing
KR1020070016214A KR101315464B1 (en) 2006-05-24 2007-02-15 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2006117835/09A RU2329535C2 (en) 2006-05-24 2006-05-24 Method of automatic photograph framing

Publications (1)

Publication Number Publication Date
RU2329535C2 true RU2329535C2 (en) 2008-07-20

Family

ID=39091119

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2006117835/09A RU2329535C2 (en) 2006-05-24 2006-05-24 Method of automatic photograph framing

Country Status (2)

Country Link
KR (1) KR101315464B1 (en)
RU (1) RU2329535C2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2542928C2 (en) * 2010-09-30 2015-02-27 Эппл Инк. System and method for processing image data using image signal processor having final processing logic
RU2635873C2 (en) * 2015-03-31 2017-11-16 Сяоми Инк. Method and device for displaying framing information
RU2642404C2 (en) * 2015-10-30 2018-01-24 Сяоми Инк. Method and device for extracting image area

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682591B (en) * 2016-12-08 2020-04-07 广州视源电子科技股份有限公司 Face recognition method and device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3462420B2 (en) * 1999-03-12 2003-11-05 日本電信電話株式会社 Video trimming method and apparatus, and storage medium storing program describing this method
US7454707B2 (en) * 2002-09-30 2008-11-18 Canon Kabushiki Kaisha Image editing method, image editing apparatus, program for implementing image editing method, and recording medium recording program
JP2004289706A (en) * 2003-03-25 2004-10-14 Fuji Photo Film Co Ltd Image processing method, image processing apparatus and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ШАПИРО Л., СТОКМАН ДЖ. Компьютерное зрение. - М.: БИНОМ Лаборатория знаний, подписано в печать 04.03.2005, с.313-318, 382-386. ROTHER С. et al, Grabcut - interactive foreground extraction using iterated graph cuts. Proc. ACM Siggraph 2004. *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2542928C2 (en) * 2010-09-30 2015-02-27 Эппл Инк. System and method for processing image data using image signal processor having final processing logic
RU2635873C2 (en) * 2015-03-31 2017-11-16 Сяоми Инк. Method and device for displaying framing information
RU2642404C2 (en) * 2015-10-30 2018-01-24 Сяоми Инк. Method and device for extracting image area
US10127471B2 (en) 2015-10-30 2018-11-13 Xiaomi Inc. Method, device, and computer-readable storage medium for area extraction

Also Published As

Publication number Publication date
KR20070113099A (en) 2007-11-28
KR101315464B1 (en) 2013-10-04

Similar Documents

Publication Publication Date Title
EP1810245B1 (en) Detecting irises and pupils in human images
US10304166B2 (en) Eye beautification under inaccurate localization
US7171044B2 (en) Red-eye detection based on red region detection with eye confirmation
US7035461B2 (en) Method for detecting objects in digital images
US7860280B2 (en) Facial feature detection method and device
EP1215626B1 (en) Automatically producing an image of a portion of a photographic image
JP4351911B2 (en) Method and apparatus for evaluating photographic quality of captured images in a digital still camera
EP1762981B1 (en) Correction of redeye in images of humans
EP1229493A2 (en) Multi-mode digital image processing method for detecting eyes
EP1120742A2 (en) Method for automatically creating cropped and zoomed versions of digital photographic images
EP1918872A2 (en) Image segmentation method and system
EP1255225A2 (en) Method for detecting eye and mouth positions in a digital image
US20060082849A1 (en) Image processing apparatus
US7460705B2 (en) Head-top detecting method, head-top detecting system and a head-top detecting program for a human face
RU2329535C2 (en) Method of automatic photograph framing
US20030012435A1 (en) Apparatus and method for machine vision
JP2007219899A (en) Personal identification device, personal identification method, and personal identification program
US20060010582A1 (en) Chin detecting method, chin detecting system and chin detecting program for a chin of a human face
EP1865443A2 (en) Facial feature detection method and device
JP2004152087A (en) Method and apparatus for extracting feature vector of image
JP2005141523A (en) Image processing method
Rahman et al. Real-time face-based auto-focus for digital still and cell-phone cameras
KR101308656B1 (en) A detection method of face candidate region or skin region for color identification photographs
Safonov et al. Changing the Aspect Ratio for Borderless Printing
JPH02268082A (en) Picture segmenting method

Legal Events

Date Code Title Description
PD4A Correction of name of patent owner
PC41 Official registration of the transfer of exclusive right

Effective date: 20170921

PD4A Correction of name of patent owner
MM4A The patent is invalid due to non-payment of fees

Effective date: 20200525