RU2791810C2 - Method, equipment and device for image processing - Google Patents
Method, equipment and device for image processing Download PDFInfo
- Publication number
- RU2791810C2 RU2791810C2 RU2021113673A RU2021113673A RU2791810C2 RU 2791810 C2 RU2791810 C2 RU 2791810C2 RU 2021113673 A RU2021113673 A RU 2021113673A RU 2021113673 A RU2021113673 A RU 2021113673A RU 2791810 C2 RU2791810 C2 RU 2791810C2
- Authority
- RU
- Russia
- Prior art keywords
- area
- image
- masks
- mask
- background
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 226
- 238000000034 method Methods 0.000 title claims description 201
- 230000011218 segmentation Effects 0.000 claims abstract description 29
- 238000004891 communication Methods 0.000 claims description 58
- 238000003672 processing method Methods 0.000 claims description 40
- 230000008569 process Effects 0.000 claims description 36
- 238000013528 artificial neural network Methods 0.000 claims description 29
- 238000001914 filtration Methods 0.000 claims description 22
- 238000003709 image segmentation Methods 0.000 claims description 22
- 241001465754 Metazoa Species 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 15
- 239000003086 colorant Substances 0.000 claims description 11
- 238000010295 mobile communication Methods 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 5
- IRLPACMLTUPBCL-KQYNXXCUSA-N 5'-adenylyl sulfate Chemical compound C1=NC=2C(N)=NC=NC=2N1[C@@H]1O[C@H](COP(O)(=O)OS(O)(=O)=O)[C@@H](O)[C@H]1O IRLPACMLTUPBCL-KQYNXXCUSA-N 0.000 claims description 4
- 230000008030 elimination Effects 0.000 claims description 4
- 238000003379 elimination reaction Methods 0.000 claims description 4
- 238000004321 preservation Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 14
- 239000000126 substance Substances 0.000 abstract 1
- 230000006870 function Effects 0.000 description 31
- 238000010586 diagram Methods 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 12
- 230000002708 enhancing effect Effects 0.000 description 6
- 238000002372 labelling Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282693 Cercopithecidae Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000035764 nutrition Effects 0.000 description 1
- 235000016709 nutrition Nutrition 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Abstract
Description
Область техники, к которой относится изобретениеThe technical field to which the invention belongs
Настоящее изобретение относится к области технологий, применяемых в терминалах, и в частности, к способу, аппаратуре и устройству для обработки изображений.The present invention relates to the field of technologies used in terminals, and in particular, to a method, apparatus and apparatus for image processing.
Уровень техникиState of the art
Фотографирование представляет собой использование фото или видеокамеры, либо видеомагнитофона для записи изображения человека или объекта. Для различных сцен применяются разные способы фотографирования, такие как ночное фотографирование, фотографирования при дожде, фотографирование в здании и портретное фотографирование. Динамическое фотографирование для съемки движущихся объектов также является одним из видов фотографирования, но должно соответствовать конкретному, специальному принципу. По мере продвижения и развития науки фотографирование становилось проще и более популярным.Photography is the use of a photo or video camera or video recorder to record an image of a person or object. For different scenes, different photography methods are applied, such as night photography, rain photography, building photography, and portrait photography. Dynamic photography for shooting moving objects is also a type of photography, but must comply with a specific, special principle. As science advanced and developed, photography became easier and more popular.
В связи с расширением полосы пропускания сети связи и увеличением процессорных возможностей терминала фотографирование и совместное использование видео и изображений стало более удобным, а потребление видео стало новым образом жизни для всех людей. Видео быстро стало сервисом, требующим передачи больших объемов трафика в сети связи, и ожидается, что в следующие несколько лет трафик видео составит от 80% до 90% общего трафика в сети.With the expansion of the bandwidth of the communication network and the increase in the processing capacity of the terminal, taking pictures and sharing videos and images has become more convenient, and video consumption has become a new way of life for all people. Video has quickly become a traffic-intensive service on a communications network, and video traffic is expected to account for 80% to 90% of total network traffic over the next few years.
В повседневной жизни фотографирование стало основным способом для людей показать себя и выявлять красоту вещей. Люди хотят фотографировать более интересными способами. Например, во время фотографирования осуществляются специальные эффекты обработки изображений или видео, чтобы добиться такого восприятия фотографии, когда «что Вы видите, то и получаете». Поэтому, для непрофессионала, в терминал необходимо интегрировать все больше новых технологий обработки изображения.In daily life, photography has become the main way for people to show themselves and bring out the beauty of things. People want to take pictures in more interesting ways. For example, when photographing, special image or video processing effects are applied to achieve a “what you see is what you get” experience. Therefore, for the layman, more and more new image processing technologies need to be integrated into the terminal.
На текущий момент, функция видеозаписи в аппаратуре терминала является монотонной. На сегодня, может осуществляться только обычное фотографирование видео, без некоторых персонализированных эффектов.At present, the video recording function in the terminal equipment is monotonous. Today, only ordinary video photography can be carried out, without some personalized effects.
Сущность изобретенияThe essence of the invention
Настоящее изобретение предлагает способ обработки изображения. На изображении определяют целевую область и фоновую область путем осуществления сегментации изображения с применением маски (шаблона). К этим целевой области и фоновой области применяют различные режимы обработки цвета, так что яркость целевой области становится больше яркости фоновой области, либо насыщенность цвета в целевой области становится больше насыщенности цвета в фоновой области, так что главный объект, соответствующий целевой области, оказывается сильнее выделен. Это позволяет пользователю иметь специальные эффекты движущегося изображения в процессе фотографирования или видео фотографирования (видео съемки) и улучшить результаты фотографирования для пользователя.The present invention provides an image processing method. The target area and the background area are determined on the image by performing image segmentation using a mask (template). Different color processing modes are applied to these target area and background area, so that the brightness of the target area becomes larger than the brightness of the background area, or the color saturation in the target area becomes larger than the color saturation in the background area, so that the main object corresponding to the target area is more highlighted. . This allows the user to have special moving image effects in the process of taking a photo or a video of taking a photo (movie shooting) and improve the result of taking a photo for the user.
В вариантах настоящего изобретения предложены следующие технические решения.In the embodiments of the present invention, the following technical solutions are proposed.
Согласно первому аспекту один из вариантов настоящего изобретения предлагает способ обработки изображения. Это способ применяется к процедуре видеозаписи и содержит: получение N изображений; и осуществление этапа 1 и этапа 2 применительно к каждому из N изображений для получения целевого видео:According to a first aspect, one embodiment of the present invention provides an image processing method. This method is applied to the video recording procedure and includes: taking N images; and performing
этап 1: определение целевой области и фоновой области изображения на основе категории объекта на изображении, где фоновая область является областью изображения, отличной от целевой области; иstep 1: determining the target area and the background area of the image based on the category of the object in the image, where the background area is an image area different from the target area; And
этап 2: обработка целевой области и фоновой области в разных режимах обработки цвета для получения целевого изображения, где насыщенность цвета в целевой области в целевом изображении выше насыщенности цвета в фоновой области в этом целевом изображении, либо яркость целевой области в целевом изображении выше яркости фоновой области в этом целевом изображении.step 2: processing the target area and the background area in different color processing modes to obtain a target image where the color saturation in the target area in the target image is higher than the color saturation in the background area in this target image, or the brightness of the target area in the target image is higher than the brightness of the background area in this target image.
Согласно второму аспекту, один из вариантов настоящего изобретения предлагает аппаратуру для обработки изображения. Эта аппаратура применяется к процедуре видео фотографирования и содержит: фотографический модуль, конфигурированный для получения N изображений; решающий модуль, конфигурированный для определения целевой области и фоновой области в каждом из N изображений на основе категории объекта в этом изображении, где фоновая область является областью изображения, отличной от целевой области; и модуль цветовой обработки, конфигурированный для обработки целевой области и фоновой области в различных режимах цветовой обработки с целью получения целевого изображения, где насыщенность цвета в целевой области на целевом изображении больше насыщенности цвета в фоновой области в целевом изображении, или яркость целевой области в целевом изображении больше яркости фоновой области в целевом изображении.According to a second aspect, one embodiment of the present invention provides an image processing apparatus. This apparatus is applied to a video photographing procedure and includes: a photographic module configured to take N images; a decision module configured to determine a target area and a background area in each of the N images based on the category of an object in that image, where the background area is an image area different from the target area; and a color processing unit configured to process the target area and the background area in different color processing modes to obtain a target image, where the color saturation in the target area in the target image is greater than the color saturation in the background area in the target image, or the brightness of the target area in the target image more brightness of the background area in the target image.
Согласно третьему аспекту, один из вариантов настоящего изобретения предлагает способ обработки изображения. Этот способ применяется к процессу фотографирования и содержит:According to a third aspect, one embodiment of the present invention provides an image processing method. This method applies to the process of photographing and contains:
получение изображения; определение целевой области и фоновой области в этом изображении на основе категории объекта, имеющегося на изображении, где фоновая область представляет собой область изображения, отличную от целевой области; и обработку найденных целевой области и фоновой области с применением разных режимов цветовой обработки для получения целевого изображения, где насыщенность цвета в целевой области целевого изображения больше насыщенности цвета в фоновой области этого целевого изображения, либо яркость целевой области целевого изображения больше яркости фоновой области этого целевого изображения.getting an image; determining a target area and a background area in the image based on the category of the object present in the image, where the background area is an area of the image other than the target area; and processing the found target area and background area using different color processing modes to obtain a target image, where the color saturation in the target area of the target image is greater than the color saturation in the background area of this target image, or the brightness of the target area of the target image is greater than the brightness of the background area of this target image .
Согласно четвертому аспекту, один из вариантов настоящего изобретения предлагает аппаратуру для обработки изображения. Аппаратура содержит:According to a fourth aspect, one embodiment of the present invention provides an image processing apparatus. The equipment contains:
фотографический модуль, конфигурированный для получения изображения; решающий модуль, конфигурированный для определения целевой области и фоновой области рассматриваемого изображения на основе категории объекта на этом изображении, где фоновая область представляет собой область изображения, отличную от целевой области; и модуль цветовой обработки, конфигурированный для обработки целевой области и фоновой области с применением разных режимов цветовой обработки для получения целевого изображения, где насыщенность цвета в целевой области целевого изображения больше насыщенности цвета в фоновой области этого целевого изображения, либо яркость целевой области целевого изображения больше яркости фоновой области этого целевого изображения.a photographic module configured to acquire an image; a decision module configured to determine the target area and the background area of the considered image based on the category of the object in this image, where the background area is an image area different from the target area; and a color processing unit configured to process the target area and the background area using different color processing modes to obtain a target image, where the color saturation in the target area of the target image is greater than the color saturation in the background area of this target image, or the brightness of the target area of the target image is greater than the brightness the background area of this target image.
Согласно первому аспекту, второму аспекту, третьему аспекту или четвертому аспекту в одном из возможных вариантов, процедура определения целевой области и фоновой области в изображении на основе категории объекта на этом изображении содержит: осуществление семантической сегментации изображения для получения k масок, где эти k масок соответствует различным категориям объектов; иAccording to the first aspect, the second aspect, the third aspect or the fourth aspect in one of the possible options, the procedure for determining the target area and the background area in the image based on the category of the object in this image contains: performing semantic segmentation of the image to obtain k masks, where these k masks correspond to various categories of objects; And
если k = 2 и совокупность этих двух масок содержит одну маску для главного объекта и одну фоновую маску, определяют область изображения, соответствующую маске для главного объекта, в качестве целевой области, и определяют область, соответствующую фоновой маске, в качестве фоновой области;if k = 2 and the combination of these two masks contains one mask for the main object and one background mask, determine the area of the image corresponding to the mask for the main object as the target area, and determine the area corresponding to the background mask as the background area;
если k больше 2 и количество пикселей, входящих в k0 масок для главных объектов из совокупности указанных k масок, больше заданной пороговой величины, определяют область изображения, соответствующую этим k0 маскам для главных объектов, в качестве целевой области, и определяют область изображения, соответствующую одной из остальных масок, в качестве фоновой области, где k0 является неотрицательным целым числом меньше k;if k is greater than 2 and the number of pixels included in the k0 masks for the main objects from the set of the specified k masks is greater than a predetermined threshold value, determine the image area corresponding to these k0 masks for the main objects as the target area, and determine the image area corresponding to one from the remaining masks, as a background region, where k0 is a non-negative integer less than k;
если k больше 2, определяют, в качестве целевой области, область изображения, соответствующую маске, содержащей наибольшее количество пикселей и входящей в указанную совокупность k масок, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области;if k is greater than 2, determine, as the target area, the area of the image corresponding to the mask containing the largest number of pixels and included in the specified set of k masks, and determine the area of the image corresponding to the rest of the masks, as the background area;
если k больше 2, определяют целевую маску из совокупности k масок на основе заданных приоритетов категорий объектов, и определяют область изображения, соответствующую целевой маске, в качестве целевой области и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области; илиif k is greater than 2, determining a target mask from a plurality of k masks based on predetermined object category priorities, and determining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the rest of the masks as a background area; or
если k больше 2, определяют целевую маску из совокупности k масок в соответствии с командой выбора от пользователя; и определяют область изображения, соответствующую целевой маске, в качестве целевой области, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области. Этот способ может быть конкретно выполнен решающим модулем.if k is greater than 2, determining a target mask from the set of k masks in accordance with a selection command from the user; and determining an image area corresponding to the target mask as the target area, and determining an image area corresponding to the rest of the masks as the background area. This method can be specifically performed by the solver.
Согласно первому аспекту, второму аспекту, третьему аспекту или четвертому аспекту в одном из возможных вариантов, процедура обработки целевой области и фоновой области с применением разных режимов цветовой обработки содержит, но не ограничивается этим:According to the first aspect, the second aspect, the third aspect, or the fourth aspect in one possible embodiment, the procedure for processing the target area and the background area using different color processing modes includes, but is not limited to:
сохранение цвета целевой области, и осуществление черно-белой обработки фоновой области;preserving the color of the target area, and performing black and white processing of the background area;
сохранение цвета целевой области, и осуществление затемняющей обработки фоновой области;maintaining the color of the target area, and performing darkening processing of the background area;
сохранение цвета целевой области, и осуществление «размывающей» обработки фоновой области;preserving the color of the target area, and performing "blurring" processing of the background area;
усиление цвета целевой области, и осуществление черно-белой обработки фоновой области;enhancing the color of the target area, and performing black and white processing of the background area;
усиление цвета целевой области, и осуществление затемняющей обработки фоновой области; илиenhancing the color of the target area, and performing darkening processing of the background area; or
усиление цвета целевой области, и осуществление «размывающей» обработки фоновой области.enhancing the color of the target area, and performing a "blurring" treatment on the background area.
В дополнение к этому, способ обработки фоновой области может далее содержать способ фильтрации темных тонов, например, способ ретро фильтрации или способ пленочной фильтрации. Этот способ, в частности, осуществляется модулем цветовой обработки.In addition, the background area processing method may further comprise a dark tone filtering method such as a retro filtering method or a film filtering method. This method, in particular, is carried out by the color processing module.
Согласно первому аспекту, второму аспекту, третьему аспекту или четвертому аспекту в одном из возможных вариантов, категория объекта может представлять собой по меньшей мере одно из списка – человек, животное, растительность, заданный объект или фон.According to the first aspect, the second aspect, the third aspect or the fourth aspect in one of the options, the category of the object may be at least one of the list - a person, an animal, vegetation, a given object or background.
Более конкретно, в упомянутых выше возможных вариантах технической реализации, процессор может вызвать программу и команду из запоминающего устройства для осуществления соответствующей обработки данных, такой как реализация алгоритмов и/или получение сигналов.More specifically, in the technical implementation options mentioned above, the processor may call a program and instruction from a storage device to perform appropriate data processing, such as implementing algorithms and/or receiving signals.
Согласно пятому аспекту, один из вариантов настоящего изобретения предлагает способ обработки изображения. Этот способ применяется к процедуре видеозаписи и, в частности, содержит: определение категории объекта, входящего в каждое полученное изображение; если в первых N0 изображениях относительно текущего изображения число групп соседних изображений с одним и тем же объектом, определяемых как разные категории объектов, не больше заданной пороговой величины, определение целевой области и фоновой области в текущем изображении на основе категории указанного объекта на изображении, где фоновая область представляет собой область текущего изобретения, отличную от целевой области; и обработку целевой области и фоновой области в первом режиме цветовой обработки и во втором режиме цветовой обработки, соответственно, для получения целевого изображения, где насыщенность цвета в целевой области целевого изображения больше насыщенности цвета в фоновой области этого целевого изображения, либо яркость целевой области целевого изображения больше яркости фоновой области этого целевого изображения; или если в первых N0 изображениях текущей съемки (текущего изображения), число групп соседних изображений с одним и тем же объектом, определяемых как разные категории объектов, больше заданной пороговой величины, обработку этого текущего изображения в первом режиме цветовой обработки или во втором режиме цветовой обработки для получения целевого изображения.According to a fifth aspect, one embodiment of the present invention provides an image processing method. This method is applied to the video recording procedure and, in particular, contains: determining the category of the object included in each received image; if in the first N0 images relative to the current image, the number of groups of neighboring images with the same object, defined as different categories of objects, is not more than a given threshold value, the determination of the target area and the background area in the current image based on the category of the specified object in the image, where the background the area is the area of the current invention, different from the target area; and processing the target area and the background area in the first color processing mode and the second color processing mode, respectively, to obtain a target image, where the color saturation in the target area of the target image is greater than the color saturation in the background area of this target image, or the brightness of the target area of the target image more brightness of the background area of this target image; or if in the first N0 images of the current shooting (current image), the number of groups of neighboring images with the same object, defined as different categories of objects, is greater than a predetermined threshold, processing this current image in the first color processing mode or in the second color processing mode to get the target image.
Согласно шестому аспекту, один из вариантов настоящего изобретения предлагает аппаратуру для обработки изображения. Эта аппаратура для обработки изображения используется в процессе видеозаписи и, в частности, содержит: фотографический модуль, конфигурированный для получения изображения; решающий модуль, конфигурированный для определения категории объекта, входящего в каждое полученное изображение; оценочный модуль, конфигурированный для того, чтобы: если в первых N0 изображениях относительно текущего изображения число групп соседних изображений с одним и тем же объектом, определяемых как разные категории объектов, не больше заданной пороговой величины, управлять решающим модулем для определения целевой области и фоновой области в текущем изображении на основе категории указанного объекта на изображении, где фоновая область представляет собой область текущего изображения, отличную от целевой области; и управлять модулем цветовой обработки для обработки целевой области и фоновой области в первом режиме цветовой обработки и во втором режиме цветовой обработки, соответственно, для получения целевого изображения, где насыщенность цвета в целевой области целевого изображения становится больше насыщенности цвета в фоновой области этого целевого изображения, либо яркость целевой области целевого изображения становится больше яркости фоновой области этого целевого изображения; или если в первых N0 изображениях относительно текущего изображения, число групп соседних изображений с одним и тем же объектом, определяемых как разные категории объектов, больше заданной пороговой величины, управлять модулем устранения мерцания с целью обработки текущего изображения в первом режиме цветовой обработки или во втором режиме цветовой обработки для получения целевого изображения.According to a sixth aspect, one embodiment of the present invention provides an image processing apparatus. This image processing apparatus is used in a video recording process and specifically comprises: a photographic module configured to acquire an image; a decision module configured to determine the category of the object included in each received image; an evaluation module configured to: if in the first N0 images relative to the current image, the number of groups of neighboring images with the same object, defined as different categories of objects, is not greater than a given threshold, control the decision module to determine the target area and the background area in the current image based on the category of the specified object in the image, where the background area is an area of the current image, different from the target area; and controlling the color processing unit to process the target area and the background area in the first color processing mode and the second color processing mode, respectively, to obtain a target image where the color saturation in the target area of the target image becomes greater than the color saturation in the background area of this target image, or the brightness of the target area of the target image becomes greater than the brightness of the background area of this target image; or if in the first N0 images relative to the current image, the number of groups of neighboring images with the same object, defined as different categories of objects, is greater than a predetermined threshold, control the flicker elimination unit to process the current image in the first color processing mode or in the second mode color processing to obtain the target image.
Следует понимать, что текущее видео изображение может рассматриваться как изображение, записываемое в некоторый момент времени. В некоторых сценариях этот момент может считаться некоторым обобщенным моментом, либо в некоторых других сценариях это может быть какой-то конкретный момент, например, самый последний по времени момент, либо момент, которым интересуется пользователь.It should be understood that the current video image can be considered as an image being recorded at some point in time. In some scenarios, this moment may be considered as some generalized moment, or in some other scenarios, it may be a specific moment, for example, the most recent moment, or the moment in which the user is interested.
Согласно пятому аспекту или шестому аспекту, в одном из возможных вариантов, процедура определения целевой области и фоновой области в текущем изображении на основе категории объекта в этом изображении содержит: осуществление семантической сегментации изображения с целью получения k масок, где эти k масок соответствуют разным категориям объектов; иAccording to the fifth aspect or the sixth aspect, in one of the possible options, the procedure for determining the target area and the background area in the current image based on the category of the object in this image contains: performing semantic segmentation of the image in order to obtain k masks, where these k masks correspond to different categories of objects ; And
если k = 2 и совокупность этих двух масок содержит одну маску для главного объекта и одну фоновую маску, определяют область изображения, соответствующую маске для главного объекта, в качестве целевой области, и определяют область, соответствующую фоновой маске, в качестве фоновой области;if k = 2 and the combination of these two masks contains one mask for the main object and one background mask, determine the area of the image corresponding to the mask for the main object as the target area, and determine the area corresponding to the background mask as the background area;
если k больше 2 и количество пикселей, входящих в k0 масок для главных объектов из совокупности указанных k масок, больше заданной пороговой величины, определяют область изображения, соответствующую этим k0 маскам для главных объектов, в качестве целевой области, и определяют область изображения, соответствующую одной из остальных масок, в качестве фоновой области, где k0 является неотрицательным целым числом меньше k;if k is greater than 2 and the number of pixels included in the k0 masks for the main objects from the set of the specified k masks is greater than the predetermined threshold value, the image area corresponding to these k0 masks for the main objects is determined as the target area, and the image area corresponding to one from the remaining masks, as a background region, where k0 is a non-negative integer less than k;
если k больше 2, определяют, в качестве целевой области, область изображения, соответствующую маске, содержащей наибольшее количество пикселей и входящей в указанную совокупность k масок, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области;if k is greater than 2, determine, as the target area, the area of the image corresponding to the mask containing the largest number of pixels and included in the specified set of k masks, and determine the area of the image corresponding to the rest of the masks, as the background area;
если k больше 2, определяют целевую маску из совокупности k масок на основе заданных приоритетов категорий объектов, и определяют область изображения, соответствующую целевой маске, в качестве целевой области и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области; илиif k is greater than 2, determining a target mask from a plurality of k masks based on predetermined object category priorities, and determining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the rest of the masks as a background area; or
если k больше 2, определяют целевую маску из совокупности k масок в соответствии с командой выбора от пользователя; и определяют область изображения, соответствующую целевой маске, в качестве целевой области, и определяют область изображения, соответствующую остальным маскам, в качестве фоновой области. Этот способ может быть, в частности, выполнен решающим модулем.if k is greater than 2, determining the target mask from the set of k masks in accordance with a selection command from the user; and determining an image area corresponding to the target mask as a target area, and determining an image area corresponding to the rest of the masks as a background area. This method can in particular be carried out by a solver.
Согласно пятому аспекту или шестому аспекту, в одном из возможных вариантов, процедура обработки целевой области и фоновой области в разных режимах цветовой обработки содержит, но не ограничивается этим:According to the fifth aspect or the sixth aspect, in one possible embodiment, the procedure for processing the target area and the background area in different color processing modes includes, but is not limited to:
сохранение цвета целевой области, и осуществление черно-белой обработки фоновой области;preserving the color of the target area, and performing black and white processing of the background area;
сохранение цвета целевой области, и осуществление затемняющей обработки фоновой области;maintaining the color of the target area, and performing darkening processing of the background area;
сохранение цвета целевой области, и осуществление «размывающей» обработки фоновой области;preserving the color of the target area, and performing "blurring" processing of the background area;
усиление цвета целевой области, и осуществление черно-белой обработки фоновой области;enhancing the color of the target area, and performing black and white processing of the background area;
усиление цвета целевой области, и осуществление затемняющей обработки фоновой области; илиenhancing the color of the target area, and performing darkening processing of the background area; or
усиление цвета целевой области, и осуществление «размывающей» обработки фоновой области.enhancing the color of the target area, and performing a "blurring" treatment on the background area.
В дополнение к этому, способ обработки фоновой области может далее содержать способ фильтрации темных тонов, например, способ ретро фильтрации или способ пленочной фильтрации. Этот способ, в частности, осуществляется модулем цветовой обработки.In addition, the background area processing method may further comprise a dark tone filtering method such as a retro filtering method or a film filtering method. This method, in particular, is carried out by the color processing module.
Согласно пятому аспекту или шестому аспекту, в одном из возможных вариантов, категория объекта может представлять собой по меньшей мере одно из списка – человек, животное, растительность, заданный объект или фон.According to the fifth aspect or the sixth aspect, in one of the possible options, the category of the object may be at least one of the list - a person, an animal, vegetation, a given object or background.
Более конкретно, в перечисленных выше возможных вариантах технической реализации в упомянутых выше возможных вариантах технической реализации, процессор может вызвать программу и команду из запоминающего устройства для осуществления соответствующей обработки данных, такой как реализация алгоритмов и/или получение сигналов.More specifically, in the technical implementation options listed above, in the above technical implementation options, the processor can call a program and instruction from a storage device to perform appropriate data processing, such as implementing algorithms and/or receiving signals.
Согласно седьмому аспекту, один из вариантов настоящего изобретения предлагает терминал, содержащий видеокамеру, запоминающее устройство, процессор и шину. Эти видеокамера, запоминающее устройство и процессор соединены одно с другим посредством шины. Видеокамера конфигурирована для захвата изображения, а запоминающее устройство конфигурировано для сохранения компьютерной программы и команд. Процессор конфигурирован для вызова компьютерной программы, команд и захваченного изображения, сохраняемых в запоминающем устройстве, и далее специально конфигурирован с целью позволить терминалу осуществить какой-либо один из указанных выше возможных вариантов способов.According to a seventh aspect, one embodiment of the present invention provides a terminal including a video camera, a storage device, a processor, and a bus. These video camera, storage device and processor are connected to each other via a bus. The video camera is configured to capture an image and the storage device is configured to store the computer program and instructions. The processor is configured to call the computer program, instructions, and the captured image stored in the storage device, and further specifically configured to allow the terminal to perform any one of the above options.
Согласно седьмому аспекту, в одном из возможных вариантов этот терминал дополнительно содержит антенную систему. Эта антенная система принимает/передает сигнал радиосвязи под управлением процессора с целью осуществления радиосвязи с сетью мобильной связи. Сеть мобильной связи может представлять собой одну или более из следующих сетей: сеть GSM, сеть CDMA, сеть 3G, сеть 4G, сеть 5G, сеть FDMA, сеть TDMA, сеть PDC, сеть TACS, сеть AMPS, сеть WCDMA, сеть TDSCDMA, сеть Wi-Fi и сеть LTE.According to the seventh aspect, in one possible embodiment, this terminal further comprises an antenna system. This antenna system receives/transmits a radio communication signal under the control of the processor for the purpose of radio communication with a mobile communication network. The mobile communication network may be one or more of the following networks: GSM network, CDMA network, 3G network, 4G network, 5G network, FDMA network, TDMA network, PDC network, TACS network, AMPS network, WCDMA network, TDSCDMA network, Wi-Fi and LTE network.
Технические решения приведенных выше возможных вариантов могут быть скомбинированы, не вступая в противоречия с природой настоящего изобретения.The technical solutions of the above possible options can be combined without conflicting with the nature of the present invention.
При использовании обычной технологии при фотографировании видео или изображений специальные эффекты оказываются недостаточно богатыми без различения между индивидуальными объектами или цветами в любом изображении. Согласно настоящему изобретению разные области изображения можно отличать одну от другой с использованием цветов, так что специальные эффекты фото или видео съемки оказываются усилены, вследствие чего главный объект и цель могут быть лучше выделены на изображении. Таким образом, главные роли становятся более заметными.When using conventional technology when photographing video or images, the special effects are not rich enough without distinguishing between individual objects or colors in any image. According to the present invention, different areas of an image can be distinguished from one another using colors, so that the special effects of a photo or video are enhanced, so that the main subject and target can be better distinguished in the image. Thus, the main roles become more visible.
Краткое описание чертежейBrief description of the drawings
Фиг. 1 представляет упрощенную схему структуры терминала согласно одному из вариантов настоящего изобретения;Fig. 1 is a simplified diagram of the structure of a terminal according to one embodiment of the present invention;
Фиг. 2 представляет логическую схему способа обработки изображения согласно одному из вариантов настоящего изобретения;Fig. 2 is a logic diagram of an image processing method according to one embodiment of the present invention;
Фиг. 3 показывает пример идентификатора маски согласно одному из вариантов настоящего изобретения; Fig. 3 shows an example of a mask identifier according to one embodiment of the present invention;
Фиг. 4 показывает другой пример идентификатора маски согласно одному из вариантов настоящего изобретения;Fig. 4 shows another example of a mask identifier according to one embodiment of the present invention;
Фиг. 5 показывает упрощенную схему определения целевой маски согласно одному из вариантов настоящего изобретения;Fig. 5 shows a simplified scheme for determining a target mask according to one embodiment of the present invention;
Фиг. 6 показывает другую упрощенную схему определения целевой маски согласно одному из вариантов настоящего изобретения;Fig. 6 shows another simplified scheme for determining the target mask according to one embodiment of the present invention;
Фиг. 7 показывает другую упрощенную схему определения целевой маски согласно одному из вариантов настоящего изобретения;Fig. 7 shows another simplified scheme for determining the target mask according to one embodiment of the present invention;
Фиг. 8 показывает другую упрощенную схему определения целевой маски согласно одному из вариантов настоящего изобретения;Fig. 8 shows another simplified scheme for determining the target mask according to one embodiment of the present invention;
Фиг. 9 представляет упрощенную схему аппаратуры для обработки изображения согласно одному из вариантов настоящего изобретения; иFig. 9 is a simplified diagram of an image processing apparatus according to one embodiment of the present invention; And
Фиг. 10 представляет другую упрощенную схему аппаратуры для обработки изображения согласно одному из вариантов настоящего изобретения.Fig. 10 is another simplified diagram of an image processing apparatus according to an embodiment of the present invention.
Описание вариантовDescription of options
Последующее четко и полностью описывает технические решения настоящего изобретения со ссылками на прилагаемые чертежи этих вариантов настоящего изобретения. Очевидно, что описываемые варианты представляют всего лишь некоторые, но не все, варианты настоящего изобретения. Все другие варианты, получаемые даже рядовыми специалистами в рассматриваемой области на основе представленных здесь вариантов настоящего изобретения без каких-либо особых творческих усилий, попадают в объем защиты настоящего изобретения.The following clearly and completely describes the technical solutions of the present invention with reference to the accompanying drawings of these embodiments of the present invention. Obviously, the described options represent only some, but not all, options for the present invention. All other variants obtained even by ordinary specialists in the considered area on the basis of the variants of the present invention presented here without any special creative efforts, fall within the protection scope of the present invention.
В одном из вариантов настоящего изобретения терминал может представлять собой устройство, предоставляющее пользователю возможности для фотографирования и видеосъемки и/или соединение для передачи данных, ручное устройство, имеющее функцию беспроводного (радио) соединения, либо другое процессорное устройство, соединенное с беспроводным (радио) модемом, например, цифровую видеокамеру, зеркальную видеокамеру с одним объективом, мобильный телефон (или называемый также «сотовым телефоном») или смартфон. Терминал может представлять собой портативное, карманное, ручное или носимое устройство (например, интеллектуальные наручные часы), планшетный компьютер, персональный компьютер (personal computer (PC)), персональный цифровой помощник (PDA (Personal Digital Assistant)), автомобильный компьютер, дрон (беспилотный летательный аппарат), летательный аппарат или другой подобный объект.In one embodiment of the present invention, the terminal may be a device that provides the user with photo and video capabilities and/or a data connection, a hand-held device having a wireless (radio) connection function, or another processing device connected to a wireless (radio) modem. , such as a digital video camera, a single lens reflex camera, a mobile phone (or also called a "cell phone"), or a smartphone. The terminal may be a handheld, handheld, handheld or wearable device (e.g., smart wristwatch), tablet computer, personal computer (PC), personal digital assistant (PDA (Personal Digital Assistant)), car computer, drone ( unmanned aerial vehicle), aircraft or other similar object.
Фиг. 1 представляет упрощенную схему одного из вариантов структуры аппаратуры терминала 100.Fig. 1 is a simplified diagram of one of the options for the hardware structure of the terminal 100.
Как показано на Фиг. 1, терминал 100 может содержать компоненты, такие как высокочастотный модуль 110, запоминающее устройство 120, модуль 130 ввода, дисплейный модуль 140, видеокамеру 150, аудио схему 160 (содержащую громкоговоритель 161 и микрофон 162), процессор 170, внешний интерфейс 180 и источник 190 питания. Специалист в рассматриваемой области может понять, что на Фиг. 1 представлен всего лишь пример интеллектуального терминала или многофункционального устройства, который не накладывает каких-либо ограничений на интеллектуальный терминал или на многофункциональное устройство. Такой интеллектуальный терминал или многофункциональное устройство может содержать больше или меньше компонентов, чем показано на чертеже, либо комбинации таких компонентов, либо содержать другие компоненты. Например, такой интеллектуальный терминал или многофункциональное устройство содержит по меньшей мере запоминающее устройство 120, процессор 170 и видеокамеру 150.As shown in FIG. 1, terminal 100 may include components such as a
Видеокамера 150 конфигурирована для захвата изображения или видео и может быть включена в работу в соответствии с командой от прикладной программы для осуществления функции фотографирования или функции фотографирования (съемки) видео. Видеокамера может содержать такие компоненты, как видео объектив, светофильтр и формирователь сигналов изображения. Световые лучи, испускаемые или отраженные объектом, входят в объектив, проходят сквозь светофильтр и, в конечном итоге, сходятся на формирователе сигналов изображения. Объектив конфигурирован главным образом для сведения, в изображение, света, излученного или отраженного всеми объектами (которые могут также называться сценарием, подлежащим фотографированию, объектами, подлежащими фотографированию, целевым сценарием или целевыми объектами и могут также рассматриваться как изображение сценария, которые пользователь желает фотографировать) в пределах угла зрения для фотографирования. Светофильтр конфигурирован главным образом для отфильтровывания избыточных световых волн (например, световых волн, отличных от видимого света, например, инфракрасного излучения) из световых лучей. Формирователь сигналов изображения конфигурирован главным образом для того, чтобы: осуществлять оптоэлектрическое преобразование принимаемого оптического сигнала, преобразование этого оптического сигнала в электрический сигнал и ввод полученного электрического сигнала в процессор 170 для последующей обработки. Видеокамера может быть расположена на передней стороне терминала или на задней стороне терминала. Конкретное число и конкретное расположение видеокамер можно определять гибко на основе требований конструктора или политики поставщика. В настоящей заявке это никак не ограничено.The
Модуль 130 ввода может быть конфигурирован для приема вводимой цифровой или символьной информации и генерации введенного клавишами сигнала, относящегося к установкам пользователя и управлению функциями многофункциональной аппаратуры. В частности, модуль 130 ввода может содержать сенсорный экран 131 и/или другое устройство 132 ввода. Сенсорный экран 131 может собирать операцию прикосновения (например, операцию, осуществляемую пользователем на сенсорном экране или поблизости от сенсорного экрана с использованием какого-либо подходящего объекта, например, пальца, шарнира или стилуса) и управлять работой соответствующей аппаратуры связи на основе заданной программы. Сенсорный экран может обнаружить прикосновение пользователя к этому сенсорному экрану, преобразовать это прикосновение в соответствующий сигнал касания, передать этот сигнал касания процессору 170, а также может принять и выполнить команду, переданную процессором 170. Сигнал касания содержит по меньшей мере информацию о координатах точки контакта. Этот сенсорный экран 131 может создать интерфейс ввода и интерфейс вывода между терминалом 100 и пользователем. В дополнение к этому, сенсорный экран может быть реализован в виде устройств различного типа, таких как экраны резистивного типа, емкостного типа, инфракрасного типа или экраны с использованием поверхностной акустической волны. В дополнение к сенсорному экрану 131 модуль 130 ввода может также содержать другое устройство ввода. В частности, это другое устройство 132 ввода может представлять собой, без ограничений, одно или несколько из следующих устройств – физическую клавиатуру, функциональную клавишу (например, клавишу регулировки громкости и/или клавишу 133 включения/выключения), трекбол, мышь, джойстик или другое подобное устройство.The
Дисплейный модуль 140 может быть конфигурирован для представления на дисплее информации, вводимой пользователем, или информации, предназначенной для пользователя, различных меню, используемых терминалом 100, интерактивного интерфейса, файла и/или воспроизведения какого-либо мультимедийного файла. В этом варианте настоящего изобретения дисплейный модуль дополнительно конфигурирован для представления изображения/видео, получаемого терминалом с использованием видеокамеры 150. Это изображение/видео может представлять собой изображение/видео для предварительного просмотра в некоторых режимах фотографирования, сфотографированное первоначальное изображение/видео и целевое изображение/видео к которому была применена обработка в соответствии со специальным алгоритмом после фотографирования.The
Далее, сенсорный экран 131 может закрывать панель 141 дисплея. После обнаружения операции прикосновения на поверхности сенсорного экрана 131 или рядом с ним этот сенсорный экран 131 передает обнаруженную операцию прикосновения процессору 170 для определения типа события прикосновения. Затем процессор 170 создает соответствующий визуальный выходной сигнал на панели 141 дисплея на основе найденного типа события прикосновения. В этом варианте сенсорный экран и дисплейный модуль могут быть интегрированы в одном компоненте для осуществления функций ввода, вывода и дисплейных функций терминала 100. Для простоты описания, в этом варианте настоящего изобретения, сенсорный экран дисплея представляет множество функций сенсорного экрана и дисплейного модуля. В некоторых вариантах сенсорный экран и дисплейный модуль могут, в качестве альтернативы, использоваться как два независимых компонента.Further, the
Запоминающее устройство 120 может быть конфигурировано для сохранения команд и данных. Это запоминающее устройство 120 может в основном содержать область для хранения команд и область для хранения данных. Область для хранения данных может сохранять данные, такие как мультимедийный файл и текст. Область для хранения команд может содержать блоки программного обеспечения, такие как операционная система, приложение и команда, требуемая по меньшей мере для одной функции, подмножества функций или расширенного множества функций. Запоминающее устройство 120 может далее содержать энергонезависимое запоминающее устройство с произвольной выборкой и предоставлять процессору 170 ряд функций, включая, в том числе, управление аппаратурой, программным обеспечением и ресурсами данных в компьютерном процессорном устройстве и поддержку управления программным обеспечением и приложением. Запоминающее устройство 120 далее конфигурировано для хранения мультимедийного файла и хранения выполняемой программы и приложения.
Процессор 170 представляет собой центр управления терминалом 100 и соединен с разными частями всего терминала через различные интерфейсы и линии. Этот процессор 170 осуществляет различные функции терминала 100 и обрабатывает данные посредством выполнения команд, сохраняемых в запоминающем устройстве 120, и вызова данных, сохраняемых в этом запоминающем устройстве 120, с целью осуществления общего управления терминалом. В качестве опции, процессор 170 может содержать один или несколько процессорных модулей. Предпочтительно, этот процессор 170 может быть интегрирован с процессором приложений и процессором модема. Процессор приложений главным образом исполняет операционную систему, выполняет функции интерфейса пользователя, выполняет программу приложения и другие подобные программы. Процессор модема главным образом обрабатывает функции радиосвязи. Можно понять, что в альтернативном варианте процессор модема может не быть интегрирован в процессор 170. В некоторых вариантах процессор и запоминающее устройство могут быть, в качестве альтернативы, реализованы в одном кристалле интегральной схемы. В некоторых вариантах, процессор и запоминающее устройство могут быть, соответственно, реализованы на независимых кристаллах интегральных схем. Процессор 170 может быть далее конфигурирован для того, чтобы: генерировать соответствующий сигнал управления работой, передавать этот сигнал управления работой соответствующему компоненту в компьютерном процессорном устройстве и считывать и обрабатывать данные посредством программного обеспечения, и, в частности, считывать и обрабатывать данные и программы в запоминающем устройстве 120, так что функциональные модули в процессоре 170 осуществляют соответствующие функции для управления соответствующими компонентами с целью выполнения действий, как этого требуют команды.The
Высокочастотный модуль 110 может быть конфигурирован для приема и передачи информации или для приема и передачи сигнала в процессе вызова. Например, высокочастотный модуль 110 принимает информацию нисходящей линии от базовой станции, затем передает эту информацию нисходящей линии процессору 170 для обработки и передает соответствующие данные восходящей линии в адрес базовой станции. Обычно, высокочастотный модуль содержит, не ограничиваясь этим, антенну, по меньшей мере один усилитель, приемопередатчик, направленный ответвитель (элемент связи), малошумящий усилитель (МШУ (Low Noise Amplifier, LNA)), дуплексер и другие подобные компоненты. В дополнение к этому, высокочастотный модуль 110 может далее осуществлять связь с сетевым устройством и с другим устройством посредством радиосвязи. Такая радиосвязь может использовать какой-либо стандарт или протокол связи, включая без ограничений, стандарт глобальной системы мобильной связи (Global System for Mobile Communications, GSM), стандарт системы пакетной радиосвязи общего пользования (General Packet Radio Service, GPRS), стандарт многостанционного доступа с кодовым уплотнением (Code Division Multiple Access, CDMA), стандарт широкополосного многостанционного доступа с кодовым уплотнением (Wideband Code Division Multiple Access, WCDMA), стандарт долговременной эволюции (Long Term Evolution, LTE), электронную почту, сервис коротких сообщений (Short Message Service, SMS) и другие подобные стандарты.
Аудио схема 160, громкоговоритель 161 и микрофон 162 могут создать аудио интерфейс между пользователем и терминалом 100. Аудио схема 160 может передавать громкоговорителю 161 электрический сигнал, преобразованный из принятых аудиоданных, а громкоговоритель 161 преобразует этот электрический сигнал в звуковой сигнал для излучения звука. В дополнение к этому, микрофон 162 конфигурирован для сбора звукового сигнала и может далее преобразовывать собранный звуковой сигнал в электрический сигнал. Аудио схема 160 принимает этот электрический сигнал, преобразует электрический сигнал в аудиоданные, передает эти аудиоданные процессору r 170 для обработки и затем передает обработанные аудиоданные, например, другому терминалу через высокочастотный модуль 110 или передает эти обработанные аудиоданные в запоминающее устройство 120 для дальнейшей обработки. Аудио схема может содержать гнездо 163 для подключения наушников (головных телефонов), конфигурированное для создания соединительного интерфейса между аудио схемой и наушниками. Конкретное количество и конкретные схемы расположения громкоговорителей и микрофонов можно гибко определять на основе требований конструктора или политики поставщика. В настоящей заявке это никак не ограничено.
Терминал 100 далее содержит источник 190 питания (например, аккумулятор), который обеспечивает энергией каждый компонент. Предпочтительно, этот источник питания может быть логически соединен с процессором 170 с использованием системы управления питанием для реализации таких функций, как заряд, разряд и управление потреблением энергии с применением этой системы управления питания.Terminal 100 further includes a power source (eg, battery) 190 that powers each component. Preferably, this power supply may be logically connected to the
Терминал 100 далее содержит внешний интерфейс 180. Этот внешний интерфейс может представлять собой стандартный микро-USB порт, либо может быть выполнен в виде многоштырькового разъема. Этот внешний интерфейс может быть конфигурирован для соединения терминала 100 с другой аппаратурой для связи, либо может быть конфигурирован для присоединения к зарядному устройству с целью заряда аккумулятора терминала 100.Terminal 100 further includes an
Хотя это не показано, терминал 100 может далее содержать лампу-вспышку, модуль «беспроводной достоверности» (wireless fidelity, Wi-Fi), модуль Bluetooth, датчики с различными функциями и другие подобные компоненты. Подробности здесь не описаны. К терминалу, показанному на Фиг. 1, могут быть применены некоторые или все способы, описываемые ниже.Although not shown, terminal 100 may further include a flash lamp, a "wireless fidelity" (Wi-Fi) module, a Bluetooth module, sensors with various functions, and other such components. Details are not described here. To the terminal shown in Fig. 1, some or all of the methods described below may be applied.
Настоящее изобретение может быть применено к терминалу, имеющему функцию фотографирования (включая по меньшей мере одну из функций – функцию обычного фотографирования или функцию фотографирования видео), так что реализованный продукт может иметь форму интеллектуального терминала, например, это может быть продукт, в котором установлена видеокамера, например, мобильный телефон, планшет, камера прямого видения (DV), видеокамера, фотокамера, портативный компьютер, компьютер ноутбук, интеллектуальный робот, телевизор, система обеспечения безопасности или дрон (беспилотный летательный аппарат). В частности, функциональные модули настоящего изобретения могут быть развернуты на кристалле интегральной схемы цифрового процессора сигнала (DSP) соответствующего устройства и могут, в частности, представлять собой прикладную программу или программное обеспечение кристалла процессора DSP. Согласно настоящему изобретению эти функциональные модули развернуты в терминале для реализации функции обработки изображения посредством инсталлированного или обновленного программного обеспечения во взаимодействии с соответствующей аппаратурой.The present invention can be applied to a terminal having a photographing function (including at least one of a normal photographing function or a video photographing function), so that the realized product may be in the form of an intelligent terminal, for example, it may be a product in which a video camera is installed. , such as a mobile phone, tablet, direct vision (DV) camera, camcorder, camera, laptop computer, laptop computer, intelligent robot, TV, security system or drone (unmanned aerial vehicle). In particular, the functional modules of the present invention may be deployed on a digital signal processor (DSP) integrated circuit chip of an appropriate device, and may in particular be an application program or software of a DSP chip. According to the present invention, these functional modules are deployed in the terminal to implement the image processing function by means of installed or updated software in cooperation with the corresponding hardware.
Настоящее изобретение применяется главным образом к сценарию, в котором фотографирование изображения или видео осуществляется с использованием терминала. Люди имеют все более и более высокие требования к фотографированию видео и ожидают достижения полного спектра специальных эффектов при обработке видео в процессе фотографирования для получения при фотографировании видео типа «что Вы видите, то и получаете». Согласно настоящему изобретению, применительно к изображению или видео может быть осуществлено сегментирование главного объекта, а также могут быть скорректированы цвета различных областей для реализации специальных эффектов изображения в реальном времени.The present invention is mainly applied to a scenario in which photographing of an image or video is performed using a terminal. People have higher and higher requirements for video photography and expect to achieve a full range of special effects in video processing in the process of taking photos to achieve "what you see is what you get" video in photography. According to the present invention, segmentation of the main object can be performed on an image or video, and the colors of various areas can also be corrected to realize real-time image special effects.
Подробнее см. Фиг. 2. На Фиг. 2 представлена логическая схема способа обработки изображения согласно одному из вариантов настоящего изобретения. Способ этот может быть осуществлен в процессе фотографирования или видео. В последующем настоящее изобретение будет описано с использованием примеров.See FIG. 2. In FIG. 2 is a flow diagram of an image processing method according to one embodiment of the present invention. This method can be carried out in the process of photographing or video. In the following, the present invention will be described using examples.
Пример 1: фотографирование изображения (режим фотографирования)Example 1: Taking a photo of an image (photo mode)
Для этого примера, в процессе конкретной реализации, терминал может конфигурировать режим фотографирования. В этом режиме фотографирования способ может содержать следующие этапы.For this example, during a specific implementation, the terminal may configure the photographing mode. In this photographing mode, the method may include the following steps.
Этап 21: Получение (что также можно понимать как фотографирование или захват) изображения.Step 21: Taking (which can also be understood as photographing or capturing) an image.
В частности, когда пользователь осуществляет съемку изображения, на экране дисплея также представляется соответствующий поток предварительного просмотра. Термин «изображение для предварительного просмотра» в общем случае относится к одному из изображений в потоке для предварительного просмотра. Когда пользователь нажимает на спуск затвора, получается фотографическое изображение. Сфотографированное изображение имеет размер, например, но не ограничиваясь этим, 1920 x 1080.In particular, when the user captures an image, the corresponding preview stream is also displayed on the display screen. The term "preview image" generally refers to one of the images in the preview stream. When the user presses the shutter release, a photographic image is obtained. The photographed image has a size such as but not limited to 1920 x 1080.
Этап 22: Определение целевой области и фоновой области в изображении на основе контента (что можно понимать как семантику сцены) сфотографированного изображения. Более конкретно, целевая область и фоновая область в изображении могут быть определены на основе категории объекта на этом изображении. Фоновая область представляет собой область изображения, отличную от целевой области. Целевая область соответствует целевому объекту или целевому телу на изображении, а именно, объекту, который пользователь ожидает выделить (подчеркнуть) на изображении и который может быть связан с интерактивным выбором пользователя или с настройками системы. В частности, этап 22 может содержать шаги с S221 по S224.Step 22: Determining the target area and the background area in the image based on the content (which can be understood as scene semantics) of the photographed image. More specifically, a target area and a background area in an image may be determined based on the category of an object in that image. The background area is an area of the image that is different from the target area. The target area corresponds to the target object or target body in the image, namely, the object that the user expects to highlight (underline) in the image and which may be associated with an interactive user selection or with system settings. In particular, step 22 may include steps S221 to S224.
S221: Предварительная обработка изображения.S221: Image pre-processing.
Сфотографированное изображение первоначального размера подвергают понижающей дискретизации (субдискретизации) и преобразуют в изображение с меньшим разрешением. Объем вычислений может быть уменьшен, когда вычисления осуществляются на основе небольшого изображения. В процессе конкретной реализации первоначальный размер (например, m0 x n0) может быть подвергнут понижающей дискретизации до размера m x n. Меньшие величины m и n указывают на меньший объем последующих вычислений. Однако если величины m и n будут слишком маленькими, разрешение пикселей в последующем уменьшается. Эксперименты показали, что подходящими диапазонами значений m и n являются [128, 512], и более конкретно [256, 300]. В дополнение к этому, величины m и n могут быть равны или неравны одна к другой. Например, изображение 1920 x 1080 может посредством понижающей дискретизации быть преобразовано к размеру 256 x 256.The photographed image of the original size is downsampled (subsampled) and converted to an image with a lower resolution. The amount of calculation can be reduced when calculations are performed based on a small image. During a particular implementation, the original size (eg, m0 x n0) may be downsampled to a size of m x n. Smaller values of m and n indicate a smaller amount of subsequent calculations. However, if the m and n values are too small, the pixel resolution is subsequently reduced. Experiments have shown that suitable ranges for m and n are [128, 512], and more specifically [256, 300]. In addition, the values m and n may or may not be equal to one another. For example, a 1920 x 1080 image can be downsampled to 256 x 256.
S222: Ввод подвергнутого понижающей дискретизации изображения размером m x n в нейронную сеть для осуществления семантической сегментации с целью определения маски изображения (Mask).S222: Inputting a downsampled m x n image into a neural network to perform semantic segmentation to determine an image mask (Mask).
Под семантической сегментацией понимают сегментацию на уровне пикселей, осуществляемую применительно к объекту на изображении, и маркируют категорию объекта для каждого пикселя. Область, которая не маркирована категорией объекта, маркируется как «фон».Semantic segmentation is understood as segmentation at the pixel level, carried out in relation to an object in the image, and the category of the object is marked for each pixel. An area that is not labeled with an object category is labeled as "background".
В частности, семантическая сегментация может использовать алгоритм глубокого обучения на основе сверточной нейронной сети (CNN (Convolutional Neural Network)). В частности, модель сети на основе CNN описана следующим образом:In particular, semantic segmentation can use a deep learning algorithm based on a convolutional neural network (CNN (Convolutional Neural Network)). In particular, the CNN-based network model is described as follows:
(1) Осуществляются понижающая дискретизация и свертка применительно к изображению размером m x n для получения изображения m1 x n1, изображения m2 x n2, ..., и изображения mz x nz, и затем выделяют семантические признаки изображения слой за слоем для получения карты признаков m1 x n1, карты признаков m2 x n2, ..., и карты признаков mz x nz, а именно многоуровневые семантические признаки, где m1, m2, ..., и mz находятся в кратном соотношении с числом m и меньше этого числа, и где n1, n2, ..., nz находятся в кратном соотношении с числом n и меньше этого числа. Например, m = 2m1 = 4m2 =, ..., = x mz, и n = 2n1 = 4n2 =, ..., = x nz. Величина z и соотношение кратности могут быть определены на основе характеристик алгоритма и проектных требований.(1) Downsampling and convolution are performed on an mxn image to obtain an m1 x n1 image, an m2 x n2 image, ..., and an mz x nz image, and then extract the semantic features of the image layer by layer to obtain an m1 x feature map n1, feature maps m2 x n2, ..., and feature maps mz x nz, namely multi-level semantic features, where m1, m2, ..., and mz are in a multiple ratio with the number m and less than this number, and where n1, n2, ..., nz are in multiple ratio with the number n and less than this number. For example, m = 2m1 = 4m2 =, ..., = x mz, and n = 2n1 = 4n2 =, ..., = x nz. The z value and the multiplicity ratio can be determined based on the characteristics of the algorithm and the design requirements.
(2) К карте признаков m1 x n1, карте признаков m2 x n2, ..., и карте признаков mz x nz применяют повышающую дискретизацию (передискретизацию) и свертку для слияния многоуровневых семантических признаков.(2) The m1 x n1 feature map, the m2 x n2 feature map, ..., and the mz x nz feature map are upsampled (resampled) and convolved to merge the multilevel semantic features.
Способы свертки, понижающей дискретизации и повышающей дискретизации, упомянутые выше, могут использовать технологии, которые хорошо известны в промышленности и не исчерпываются тем, что перечислено в настоящем описании.The convolution, downsampling, and upsampling methods mentioned above may use techniques that are well known in the industry and are not limited to those listed herein.
(3) Определяют категорию объекта, которую нужно идентифицировать в изображении, вычисляют балл для каждой категории объекта на каждом пикселе, категорию объекта (которая может для краткости называться «категорией») с наивысшим баллом используют в качестве результата классификации для рассматриваемого пикселя, и в конечном итоге получают граф маски, а именно маску.(3) The object category to be identified in the image is determined, a score is calculated for each object category at each pixel, the object category (which may be called “category” for short) with the highest score is used as the classification result for the pixel under consideration, and finally As a result, a mask graph is obtained, namely a mask.
Например, если терминал может идентифицировать k категорий объектов (например, по меньшей мере одну категорию из списка – человек, животное, растительность, другой заданный объект или фон), можно получить k изображений. Каждый пиксель изображения получает балл, принадлежащий какой-либо категории объекта. Более высокий балл обозначает более высокую вероятность, что пиксель принадлежит соответствующей категории объекта.For example, if the terminal can identify k categories of objects (eg, at least one category from a list - person, animal, vegetation, other specified object, or background), k images can be obtained. Each pixel in the image receives a score that belongs to some category of the object. A higher score indicates a higher probability that the pixel belongs to the corresponding object category.
После того, как будет определена категория объекта для какого-либо пикселя, этот пиксель может быть идентифицирован. Например, 1 используется для обозначения человека, 2 используется для обозначения транспортного средства (автомобиля), 3 используется для обозначения животного, 4 используется для обозначения растительности, и 0 используется для обозначения фона. Это всего лишь пример и не составляет каких-либо ограничений. Пользователь может случайным образом установить число категорий, сами категории и способ идентификации на основе проектных требований. Конкретный пример может быть показан на Фиг. 3. Нейронная сеть классифицирует все области пикселей, где находится автомобиль, в качестве автомобиля и присваивает им идентификатор 1. Все области пикселей в окружающей фоновой части нейронная сеть классифицирует в качестве фона и присваивает им идентификатор 0. Для другого примера, в маске, передаваемой нейронной сетью на выход, области объектов одинаковой категории имеют одинаковую маркировку. Например, маркер для фона равен 0, маркер для кошки равен 1 и маркер для скейтборда равен 2. В маске, показанной на Фиг. 4, один и тот же цвет может быть далее использован для представления маркеров объектов одинаковой категории. Например, человека, лошадь и фон соответственно идентифицируют с использованием различных цветов.Once the object category for a pixel is determined, that pixel can be identified. For example, 1 is used to represent a person, 2 is used to represent a vehicle (car), 3 is used to represent an animal, 4 is used to represent vegetation, and 0 is used to represent a background. This is just an example and does not constitute any limitation. The user can randomly set the number of categories, the categories themselves, and the identification method based on design requirements. A specific example can be shown in FIG. 3. The neural network classifies all pixel areas where the car is located as a car and assigns them an ID of 1. All the pixel areas in the surrounding background part are classified by the neural network as backgrounds and assigns them an ID of 0. For another example, in the mask passed by the neural network to the exit, areas of objects of the same category have the same marking. For example, the background marker is 0, the cat marker is 1, and the skateboard marker is 2. In the mask shown in FIG. 4, the same color can be further used to represent object markers of the same category. For example, a person, a horse, and a background are respectively identified using different colors.
Маска является результатом работы алгоритма семантической сегментации. На изображении, все пиксели, принадлежащие какой-либо категории объекта, маркированы цветом или идентификатором, и фон также маркируют цветом или идентификатором. Изображение, полученное после обработки, называют маской, так что результат сегментации представляют на дисплее интуитивно.The mask is the result of the semantic segmentation algorithm. In an image, all pixels belonging to any object category are labeled with a color or ID, and the background is also labeled with a color or ID. The image obtained after processing is called a mask, so that the segmentation result is presented on the display intuitively.
Контент изображения может содержать главный объект и фон. Для простоты описания, соответственно, маска изображения может представлять собой маску для главного объекта или фоновую маску. Маска для главного объекта может соответствовать главному объекту, идентифицированному с использованием способа сегментации, включая индивидуальные объекты, которые пользователь ожидает увидеть выделенными («подчеркнутыми») на изображении или на сфотографированном изображении, например, человека, животное, растительность или конкретный объект (чашку, стол, одежду, декорацию…). Фоновая маска соответствует другой области, которая имеется на изображении и которая не идентифицирован в качестве маски для главного объекта. Маска изображения соответствует полному изображению. Способность идентификации маски для главного объекта связана с характеристиками нейронной сети. Например, некоторые нейронные сети могут идентифицировать только человека и фон. Некоторые нейронные сети могут идентифицировать человека, автомобиль и фон. Некоторые нейронные сети могут идентифицировать человека, животное и фон. Некоторые нейронные сети могут идентифицировать только животное и фон. Некоторые нейронные сети могут идентифицировать животное, растительность и фон...Image content can contain a main subject and a background. For ease of description, respectively, the image mask may be a mask for the main object or a background mask. The mask for the main object may correspond to the main object identified using the segmentation method, including individual objects that the user expects to see highlighted ("underlined") in the image or in the photographed image, for example, a person, animal, vegetation, or a specific object (cup, table , clothes, decorations ...). The background mask corresponds to another area in the image that is not identified as a mask for the main object. The image mask corresponds to the full image. The ability to identify the mask for the main object is related to the characteristics of the neural network. For example, some neural networks can only identify a person and a background. Some neural networks can identify a person, a car, and a background. Some neural networks can identify a person, an animal, and a background. Some neural networks can only identify the animal and the background. Some neural networks can identify animal, vegetation and background...
Следует понимать, что изображение может, в качестве альтернативы, содержать только главный объект или может содержать только фон. Когда изображение содержит только главный объект, этот главный объект может быть идентифицирован в качестве фона. Эти настройки относительно главного объекта и фона в изображении могут быть гибко сконструированы и определены проектировщиком.It should be understood that the image may alternatively contain only the main subject, or may contain only the background. When the image contains only the main object, this main object can be identified as the background. These settings regarding the main subject and background in the image can be flexibly constructed and defined by the designer.
Для обучения глубокой нейронной сети может потребоваться большой объем настроечных данных сегментации, где множество настроечных данных содержит большое число изображений, включая категории сегментации объектов, входные изображения и графы масок. Множество настроечных данных может охватывать разнообразные типовые сценарии приложений для сегментации объекта и содержать разнообразные данные. Входные изображения и графы масок в составе множества настроечных данных используются для обучения (настройки) сети с целью получения превосходного параметра сети, другими словами, получения характеристик сегментации, удовлетворяющих пользователя. Полученный параметр сети применяется в качестве окончательно используемого вычислительного параметра для нейронной сети.To train a deep neural network, a large amount of segmentation training data may be required, where the training data set contains a large number of images, including object segmentation categories, input images, and mask graphs. The set of tuning data can cover a variety of typical application scenarios for object segmentation and contain a variety of data. The input images and mask graphs in the training data set are used to train (tuning) the network in order to obtain an excellent network parameter, in other words, to obtain segmentation characteristics that satisfy the user. The resulting network parameter is used as the final computational parameter for the neural network.
S223: Определение целевой маски на основе совокупности масок.S223: Determination of the target mask based on the plurality of masks.
Для различных изображений и нейронных сетей с различными возможностями могут быть получены разнообразные маски. Терминал может далее определить из совокупности масок одну маску, соответствующую объекту, который в наибольшей степени необходимо выделить и сделать заметным на дисплее. Иными словами, нужно определить целевую маску. Процедура определения целевой маски содержит, не ограничиваясь этим, следующие несколько способов.For different images and neural networks with different capabilities, different masks can be obtained. The terminal may then determine from the set of masks one mask corresponding to the object that most needs to be highlighted and made visible on the display. In other words, you need to define the target mask. The procedure for determining the target mask includes, but is not limited to, the following several methods.
Способ 1: Если совокупность масок содержит только одну маску для главного объекта и одну фоновую маску, маску для главного объекта определяют в качестве целевой маски. Method 1: If the mask collection contains only one mask for the main object and one background mask, the mask for the main object is determined as the target mask.
В частности, предположим, что на изображении осуществляется семантическая сегментация для получения k масок. Эти k масок соответствуют различным категориям объектов. Если k = 2 и совокупность этих двух масок содержит одну маску для главного объекта и одну фоновую маску, определяют область изображения, соответствующую маске для главного объекта, в качестве целевой области, и определяют область, соответствующую фоновой маске, в качестве фоновой области;In particular, suppose that semantic segmentation is performed on the image to obtain k masks. These k masks correspond to different categories of objects. If k = 2 and the combination of these two masks contains one mask for the main object and one background mask, determine the area of the image corresponding to the mask for the main object as the target area, and determine the area corresponding to the background mask as the background area;
Как показано на Фиг. 5, совокупность масок для изображения на выходе нейронной сети содержит только одну маску A1 для главного объекта и одну фоновую маску. В этом случае, маска A1 может быть определена в качестве целевой маски.As shown in FIG. 5, the set of masks for the image at the output of the neural network contains only one mask A1 for the main object and one background mask. In this case, mask A1 can be defined as the target mask.
Способ 2: Когда совокупность масок содержит несколько масок для главных объектов и одну фоновую маску, если количество пикселей, входящих в какую-либо маску для главного объекта, больше конкретной пороговой величины, эту маску для главного объекта определяют в качестве маски для целевого главного объекта; или если количество пикселей, входящих в какую-либо маску для главного объекта, меньше конкретной пороговой величины, изменяют маркировку этой маски для главного объекта и также маркируют ее в качестве фона. Количество пикселей, входящих в маску для главного объекта, может представлять собой количество пикселей, входящих в область индивидуального объекта на изображении.Method 2: When the mask pool contains multiple main object masks and one background mask, if the number of pixels included in any main object mask is greater than a specific threshold, that main object mask is determined as the target main object mask; or if the number of pixels included in any mask for the main object is less than a specific threshold value, change the labeling of this mask for the main object and also mark it as a background. The number of pixels included in the mask for the main object may be the number of pixels included in the area of the individual object in the image.
В частности, предположим, что на изображении осуществляется семантическая сегментация для получения k масок. Эти k масок соответствуют различным категориям объектов. Если k больше 2 и количество пикселей, входящих в k0 масок для главных объектов из совокупности k масок, больше заданной пороговой величины, область изображения, соответствующую этим k0 маскам для главных объектов, определяют в качестве целевой области, а область изображения, соответствующую остальным маскам, определяют в качестве фоновой области, где k0 представляет собой неотрицательное целое число меньше k.In particular, suppose that semantic segmentation is performed on the image to obtain k masks. These k masks correspond to different categories of objects. If k is greater than 2 and the number of pixels included in the k0 masks for the main objects from the set of k masks is greater than a predetermined threshold value, the image area corresponding to these k0 masks for the main objects is determined as the target area, and the image area corresponding to the remaining masks, is defined as the background region, where k0 is a non-negative integer less than k.
Как показано на Фиг. 6, совокупность масок для изображения на выходе нейронной сети содержит маску A1 для главного объекта, маску A2 для главного объекта, и фоновую маску. Если количество пикселей, входящих в маску A1, больше заданной пороговой величины и количество пикселей, входящих в маску A2, не больше заданной пороговой величины, маску A1 определяют в качестве целевой маски, а маркировку маски A2 для главного объекта изменяют и заново маркируют ее в качестве фоновой маски. Маска с измененной маркировкой может быть показана на Фиг. 5. Если количество пикселей, входящих в маску A1, больше заданной пороговой величины и количество пикселей, входящих в маску A2, также больше заданной пороговой величины, обе маски A1 и A2 определяют в качестве целевых масок. Если ни количество пикселей, входящих в маску A1, ни количество пикселей, входящих в маску A2, не больше заданной пороговой величины, эти маски A1 и A2 заново идентифицируют в качестве фоновых масок. Другими словами, рассматриваемое изображение не содержит маски для главного объекта.As shown in FIG. 6, the set of masks for the output image of the neural network contains a mask A1 for the main object, a mask A2 for the main object, and a background mask. If the number of pixels included in the mask A1 is greater than the predetermined threshold and the number of pixels included in the mask A2 is not greater than the predetermined threshold, the mask A1 is determined as the target mask, and the marking of the mask A2 for the main object is changed and re-marked as background mask. The relabeled mask can be shown in FIG. 5. If the number of pixels included in the mask A1 is greater than the predetermined threshold and the number of pixels included in the mask A2 is also greater than the predetermined threshold, both masks A1 and A2 are determined as target masks. If neither the number of pixels included in mask A1 nor the number of pixels included in mask A2 is greater than a predetermined threshold value, these masks A1 and A2 are re-identified as background masks. In other words, the image in question does not contain a mask for the main object.
Должно быть понятно, что в какой-либо конкретной процедуре реализации обе маски A1 и A2 могут быть отнесены к одной и той же категории объекта или к разным категориям объектов.It should be understood that in any particular implementation procedure, both masks A1 and A2 may be assigned to the same object category or to different object categories.
Способ 3: Когда совокупность масок содержит несколько масок для главных объектов и одну фоновую маску, маску для главного объекта, содержащую наибольшее количество пикселей, выбирают в качестве целевой маски, маркировку других масок для главных объектов изменяют и заново маркируют их в качестве фоновых масок.Method 3: When the mask collection contains multiple main object masks and one background mask, the main object mask containing the largest number of pixels is selected as the target mask, the labeling of the other main object masks is changed and re-labeled as background masks.
В частности, предположим, что на изображении осуществляется семантическая сегментация для получения k масок. Эти k масок соответствуют различным категориям объектов. Если k больше 2, область изображения, соответствующую маске для главного объекта, содержащей наибольшее количество пикселей и входящей в совокупность k масок, определяют в качестве целевой области, а область изображения, соответствующую остальным маскам, определяют в качестве фоновой области.In particular, suppose that semantic segmentation is performed on the image to obtain k masks. These k masks correspond to different categories of objects. If k is greater than 2, the image area corresponding to the mask for the main object containing the largest number of pixels and included in the set of k masks is determined as the target area, and the image area corresponding to the rest of the masks is determined as the background area.
Как показано на Фиг. 6, совокупность масок для изображения на выходе нейронной сети содержит маску A1 для главного объекта, маску A2 для главного объекта и фоновую маску. Маску A1, содержащую наибольшее количество пикселей, определяют в качестве целевой маска, а маркировку маски A2 для главного объекта изменяют и заново маркируют ее в качестве фоновой маски. Эта заново маркированная маска может быть показана на Фиг. 5.As shown in FIG. 6, the set of masks for the output of the neural network contains a mask A1 for the main object, a mask A2 for the main object, and a background mask. The mask A1 containing the largest number of pixels is determined as the target mask, and the labeling of the mask A2 for the main object is changed and re-labeled as the background mask. This newly labeled mask can be shown in FIG. 5.
Должно быть понятно, что в какой-либо конкретной процедуре реализации обе маски A1 и A2 могут быть отнесены к одной и той же категории объекта или к разным категориям объектов.It should be understood that in any particular implementation procedure, both masks A1 and A2 may be assigned to the same object category or to different object categories.
Способ 4: Когда совокупность масок содержит несколько масок для главных объектов и одну фоновую маску, а в число нескольких масок для главных объектов входят маски для нескольких категорий объектов, целевую маску определяют на основе приоритетов этих категорий объектов. Например, если приоритет маски для человека выше приоритета маски для автомобиля, маска для человека является целевой маской, а маркировка маски для автомобиля может быть изменена и эта маска может быть заново маркирована в качестве фона. Например, если приоритет маски для человека выше приоритета маски для животного и выше приоритета маски для растительности, а система установила приоритеты таким образом, что все маски с приоритетами выше приоритета маски для растительности являются масками для главных объектов, обе маски – и маска для человека, и маска для животного, считаются целевыми масками, а маркировка маски для растительности может быть изменена, и эта маска может быть маркирована заново в качестве фона. Должно быть понятно, что один или несколько индивидуальных объектов могут принадлежать к одной и той же категории объектов.Method 4: When the mask collection contains several main object masks and one background mask, and the several main object masks include masks for several object categories, the target mask is determined based on the priorities of these object categories. For example, if the priority of the human mask is higher than the priority of the car mask, the human mask is the target mask, and the marking of the car mask can be changed and this mask can be re-tagged as a background. For example, if the priority of a human mask is higher than the priority of an animal mask and higher than the priority of a vegetation mask, and the system has set priorities in such a way that all masks with priorities higher than the vegetation mask priority are masks for the main objects, both masks and the human mask, and an animal mask are considered target masks, and the marking of the vegetation mask can be changed and this mask can be re-labelled as a background. It should be understood that one or more individual objects may belong to the same category of objects.
В частности, предположим, что на изображении осуществляется семантическая сегментация для получения k масок. Эти k масок соответствуют различным категориям объектов. Если k больше 2, целевую маску определяют из этих k масок на основе заданных приоритетов категорий объектов. Область изображения, соответствующую целевой маске, определяют в качестве целевой области, а область изображения, соответствующую остальным маскам определяют в качестве фоновой области.In particular, suppose that semantic segmentation is performed on the image to obtain k masks. These k masks correspond to different categories of objects. If k is greater than 2, the target mask is determined from these k masks based on the given object category priorities. The area of the image corresponding to the target mask is defined as the target area, and the area of the image corresponding to the rest of the masks is defined as the background area.
Как показано на Фиг. 7, совокупность масок для изображения на выходе нейронной сети содержит маску A1 для главного объекта, маску B1 для главного объекта и фоновую маску. Маски A1 и B1 относятся к различным категориям объектов, причем приоритет маски A1 выше приоритета маски B1. Если система устанавливает, что любая маска для главного объекта, приоритет которой не ниже приоритета маски B1, может быть использована в качестве целевой маски, обе маски A1 и B1 являются целевыми масками. Если система устанавливает, что маска для главного объекта, приоритет которой выше приоритета маски B1, может быть использована в качестве целевой маски, маску A1 определяют в качестве целевой маски, а маркировку маски B1 изменяют и заново маркируют эту маску в качестве фоновой маски.As shown in FIG. 7, the set of masks for the output image of the neural network contains a mask A1 for the main object, a mask B1 for the main object, and a background mask. Masks A1 and B1 belong to different categories of objects, and the priority of mask A1 is higher than the priority of mask B1. If the system determines that any mask for the main object whose priority is not lower than the priority of mask B1 can be used as the target mask, both masks A1 and B1 are target masks. If the system determines that the mask for the main object, whose priority is higher than the priority of mask B1, can be used as the target mask, the mask A1 is determined as the target mask, and the labeling of the mask B1 is changed and re-labeled this mask as the background mask.
Способ 5: Если совокупность масок содержит несколько масок для главных объектов и одну фоновую маску, целевая маска может быть определена в соответствии с введенной пользователем операцией выбора. Режим ввода содержит, не ограничиваясь, команду выбора, такую как прикосновение к экрану или голосовая команда. Маска для главного объекта, соответствующая индивидуальному объекту, выбранному пользователем, является целевой маской.Method 5: If the mask collection contains multiple masks for the main objects and one background mask, the target mask can be determined according to the selection operation entered by the user. The input mode includes, but is not limited to, a selection command such as a screen touch or a voice command. The mask for the main object corresponding to the individual object selected by the user is the target mask.
В частности, предположим, что на изображении осуществляется семантическая сегментация для получения k масок. Эти k масок соответствуют различным категориям объектов. Если k больше 2, целевую маску определяют из совокупности k масок в соответствии с командой выбора от пользователя. Область изображения, соответствующую целевой маске, определяют в качестве целевой области, а область изображения, соответствующую остальным маскам, определяют в качестве фоновой области.In particular, suppose that semantic segmentation is performed on the image to obtain k masks. These k masks correspond to different categories of objects. If k is greater than 2, the target mask is determined from the plurality of k masks according to the selection command from the user. The area of the image corresponding to the target mask is defined as the target area, and the area of the image corresponding to the rest of the masks is defined as the background area.
Как показано на Фиг. 7, совокупность масок для изображения на выходе нейронной сети содержит маску A1 для главного объекта, маску B1 для главного объекта и фоновую маску. Если пользователь нажмет, в процессе фотографирования, на индивидуальный объект, соответствующий маске A1, на сенсорном экране, эту маску A1 определяют в качестве целевой маски, и изменяют маркировку маски B1, заново маркируя ее в качестве фоновой маски. Если пользователь нажмет, в процессе фотографирования, на индивидуальный объект, соответствующий маске B1 на сенсорном экране, эту маску B1 определяют в качестве целевой маски, и изменяют маркировку маски A1, заново маркируя ее в качестве фоновой маски.As shown in FIG. 7, the set of masks for the output image of the neural network contains a mask A1 for the main object, a mask B1 for the main object, and a background mask. If the user presses, in the process of photographing, an individual object corresponding to the mask A1 on the touch screen, this mask A1 is determined as the target mask, and the labeling of the mask B1 is re-labeled as the background mask. If the user presses, in the process of photographing, an individual object corresponding to the mask B1 on the touch screen, this mask B1 is determined as the target mask, and the marking of the mask A1 is re-marked as the background mask.
Способ 6: Если совокупность масок содержит несколько масок для главных объектов и одну фоновую маску, а в число нескольких масок для главных объектов входят маски для нескольких категорий объектов, целевая маска может быть определена на основе введенной пользователем операции выбора. Режим ввода содержит, не ограничиваясь, команду выбора, такую как прикосновение к экрану или голосовая команда. Все маски для главных объектов, имеющие категорию объекта, соответствующую индивидуальному объекту, выбранному пользователем, являются целевыми масками.Method 6: If the mask collection contains multiple masks for main objects and one background mask, and the multiple masks for main objects include masks for several categories of objects, the target mask can be determined based on the selection operation entered by the user. The input mode includes, but is not limited to, a selection command such as a screen touch or a voice command. All master object masks that have an object category corresponding to an individual object selected by the user are target masks.
В частности, предположим, что на изображении осуществляется семантическая сегментация для получения k масок. Эти k масок соответствуют различным категориям объектов. Если k больше 2, целевую маску определяют из совокупности этих k масок в соответствии с командой выбора от пользователя. Область изображения, соответствующую целевой маске, определяют в качестве целевой области, а область изображения, соответствующую остальным маскам, определяют в качестве фоновой области.In particular, suppose that semantic segmentation is performed on the image to obtain k masks. These k masks correspond to different categories of objects. If k is greater than 2, the target mask is determined from the totality of these k masks in accordance with a selection command from the user. The area of the image corresponding to the target mask is defined as the target area, and the area of the image corresponding to the rest of the masks is defined as the background area.
Как показано на Фиг. 8, совокупность масок для изображения на выходе нейронной сети содержит маски A1, A2, B1 и B2 для главных объектов и одну фоновую маску. Маски A1 и A2 относятся к одной и той же категории объектов, и маски B1 и B2 также относятся к одной и той же категории объектов. Если пользователь нажмет, в процессе фотографирования, на индивидуальный объект, соответствующий маске A1, на сенсорном экране, маски A1 и A2, относящиеся к одной и той же категории объектов, определяют в качестве целевых масок, а маркировку масок B1 и B2 изменяют и заново маркируют эти маски в качестве фоновых масок. Если пользователь нажмет, в процессе фотографирования, на индивидуальный объект, соответствующий маске B2, на сенсорном экране, маски B1 и B2, относящиеся к одной и той же категории объектов, определяют в качестве целевых масок, а маркировку масок A1 и A2 изменяют и заново маркируют эти маски в качестве фоновых масок.As shown in FIG. 8, the set of masks for the output of the neural network contains masks A1, A2, B1 and B2 for the main objects and one background mask. Masks A1 and A2 belong to the same object category, and masks B1 and B2 also belong to the same object category. If the user presses, in the process of photographing, an individual object corresponding to mask A1 on the touch screen, masks A1 and A2 belonging to the same category of objects are determined as target masks, and the marking of masks B1 and B2 is changed and re-marked these masks as background masks. If the user presses, in the process of photographing, an individual object corresponding to mask B2 on the touch screen, masks B1 and B2 belonging to the same category of objects are determined as target masks, and the labeling of masks A1 and A2 is changed and re-labeled these masks as background masks.
Следует понимать, что приведенные выше конкретные варианты реализации изобретения являются всего лишь примерами и не должны составлять ограничения. Эти приведенные выше конкретные варианты реализации изобретения можно свободно комбинировать, не нарушая логики изобретения. Поэтому, после осуществления сегментации масок применительно к изображению могут быть получены несколько целевых масок. Эти целевые маски могут относиться к одной или нескольким категориям объектов, и каждая категория объектов для этих целевых масок может далее охватывать один или несколько индивидуальных объектов. Представленный на дисплее результат относится к правилу, которое устанавливается в системе терминала и которое предназначено для определения целевой маски и для ввода от пользователя. В некоторых сценариях изображение может, в качестве альтернативы, содержать только одну фоновую маску.It should be understood that the above specific embodiments of the invention are merely examples and should not be limiting. These specific embodiments of the invention described above can be freely combined without violating the logic of the invention. Therefore, after mask segmentation is performed on an image, multiple target masks can be obtained. These target masks may refer to one or more object categories, and each object category for these target masks may further span one or more individual objects. The result shown on the display refers to a rule that is set in the terminal system and that is for determining the target mask and for input from the user. In some scenarios, an image may alternatively contain only one background mask.
s224: Определение целевой области и фоновой области в первоначальном изображении.s224: Determination of the target area and the background area in the original image.
Первоначальный размер сфотографированного изображения получают из совокупности масок, при этом целевую маску и фоновую маску из этой совокупности масок также подвергают повышающей дискретизации. Область, составленная всеми пикселями подвергнутой повышающей дискретизации целевой маски и соответствующая первоначальному изображению, является целевой областью, а область, составленная всеми пикселями подвергнутой повышающей дискретизации фоновой маски и соответствующая первоначальному изображению, является фоновой областью.The original size of the photographed image is derived from the mask pool, with the target mask and the background mask from the mask pool also upsampled. The area composed by all pixels of the upsampled target mask and corresponding to the original image is the target area, and the area composed by all the pixels of the upsampled background mask and corresponding to the original image is the background area.
Этап 23: Обработка целевой области и фоновой области в изображении в разных режимах цветовой обработки с целью получения целевого изображения. Для обработки используются разные режимы цветовой обработки, так что насыщенность цвета в целевой области оказывается больше насыщенности цвета в фоновой области, либо яркость в целевой области становится больше яркости в фоновой области. Другими словами, насыщенность цвета в целевой области целевого изображения больше насыщенности цвета в фоновой области, либо яркость в целевой области целевого изображения, больше яркости в фоновой области целевого изображения.Step 23: Processing the target area and the background area in the image in different color processing modes to obtain the target image. The processing uses different color processing modes so that the color saturation in the target area becomes greater than the color saturation in the background area, or the brightness in the target area becomes greater than the brightness in the background area. In other words, the color saturation in the target area of the target image is greater than the color saturation in the background area, or the brightness in the target area of the target image is greater than the brightness in the background area of the target image.
В частности, первый режим цветовой обработки и второй режим цветовой обработки используются соответственно для целевой области и фоновой области в изображении. Эти первый режим цветовой обработки и второй режим цветовой обработки содержат, не ограничиваясь этим, следующие способы.In particular, the first color processing mode and the second color processing mode are used for the target area and the background area in the image, respectively. These first color processing mode and the second color processing mode include, but are not limited to, the following methods.
Способ 1: Первый режим цветовой обработки сохраняет цвет, а второй режим цветовой обработки использует фильтр, например, преобразующий цвет фоновой области в черно-белую окраску. К типовым фильтрам относятся черно-белый фильтр, затемняющий фильтр, ретро фильтр, пленочный фильтр, фильтр размытости, фильтр бликов (фильтр боке) и другие подобные фильтры.Method 1: The first color processing mode preserves the color, and the second color processing mode uses a filter, for example, converting the color of the background area to black and white. Typical filters include black and white filter, darkening filter, retro filter, film filter, blur filter, highlight filter (bokeh filter), and other similar filters.
Например, черно-белый фильтр предназначен для отображения каждой величины пикселя в полутоновую величину с целью реализации эффекта черно-белого фильтра. В качестве другого примера, затемняющий фильтр предназначен для снижения яркости величины каждого пикселя с целью достижения специального затемняющего эффекта.For example, the black and white filter is designed to map each pixel value to a grayscale value in order to realize the black and white filter effect. As another example, the dimming filter is for reducing the brightness of each pixel value in order to achieve a special dimming effect.
Способ 2: Первый режим цветовой обработки представляет собой первый способ фильтрации, второй режим цветовой обработки представляет собой второй способ фильтрации, причем первый способ фильтрации отличается от второго способа фильтрации. Для одного и того же изображения, насыщенность цвета изображения, полученного с использованием первого способа фильтрации, больше насыщенности цвета изображения, полученного с использованием второго способа фильтрации.Method 2: The first color processing mode is the first filtering method, the second color processing mode is the second filtering method, and the first filtering method is different from the second filtering method. For the same image, the color saturation of the image obtained using the first filtering method is greater than the color saturation of the image obtained using the second filtering method.
Способ 3: Первый режим цветовой обработки представляет собой третий способ фильтрации, второй режим цветовой обработки представляет собой четвертый способ фильтрации. Для одного и того же изображения, насыщенность цвета изображения, полученного с использованием третьего способа фильтрации, больше насыщенности цвета изображения, полученного с использованием четвертого способа фильтрации.Method 3: The first color processing mode is the third filtering method, the second color processing mode is the fourth filtering method. For the same image, the color saturation of the image obtained using the third filtering method is greater than the color saturation of the image obtained using the fourth filtering method.
Должно быть понятно, что цвет представлен обоими параметрами – яркостью и насыщенностью цвета. Насыщенность цвета представляет собой свойство цвета, которое не охватывает яркость, а отражает тон и собственно насыщенность цвета, а яркостью называется свечение или степень светлоты цвета. Поэтому, цветовая обработка содержит обработку яркости и/или обработку насыщенности цвета.It should be clear that color is represented by both parameters - brightness and color saturation. Color saturation is a color property that does not cover brightness, but reflects the tone and saturation of the color itself, and brightness is the luminosity or degree of lightness of a color. Therefore, color processing comprises luminance processing and/or chroma processing.
В частности, фильтрация может содержать регулирование насыщенности цвета, яркости и цветового тона и может далее содержать наложенную текстуру и другие подобные факторы. Цветовую систему можно регулировать целевым образом путем регулирования насыщенности цвета и цветового тона, так что цветовая система становится более плотной или более светлой, либо изменяется цветовой тон, а другая цветовая система остается неизменной. Процесс фильтрации можно также понимать как отображения пикселя-в-пиксель. Величину пикселя входного изображения отображают в величину целевого пикселя с использованием заданной таблицы отображения с целью достижения специального эффекта. Следует понимать, что фильтр может представлять собой заданную параметрическую маску. Такими относящимися к цвету параметрами могут быть параметры фильтрующей маски, хорошо известные в промышленности, либо это могут быть параметры, независимо назначаемые пользователем.In particular, filtering may include adjusting color saturation, brightness, and hue, and may further include texture mapping and other such factors. The color system can be purposefully adjusted by adjusting the color saturation and hue so that the color system becomes denser or lighter, or the hue changes while the other color system remains unchanged. The filtering process can also be understood as pixel-to-pixel mapping. The input image pixel value is mapped to the target pixel value using a predetermined mapping table to achieve a special effect. It should be understood that the filter may be a given parametric mask. Such color-related parameters may be filter mask parameters well known in the industry, or may be parameters independently assigned by the user.
В дополнение к этому, после этапа 23, способ далее содержит этап 24 для сохранения изображения, обработанного на этапе 23.In addition, after step 23, the method further comprises step 24 for saving the image processed in step 23.
Согласно настоящему изобретению, в процессе фотографирования, терминал может определить целевой индивидуальный объект и фон на основе содержания изображения и осуществить различную цветовую обработку применительно к целевому индивидуальному объекту и к фону, так что главный объект на изображении, сфотографированном пользователем, может быть более выделенным, а само сфотографированное изображение выглядит как пленка.According to the present invention, in the photographing process, the terminal can determine the target div and the background based on the content of the image, and perform different color processing on the target div and the background, so that the main object in the image photographed by the user can be more prominent, and the photographed image itself looks like film.
Пример 2: фотографирование видео (режим видеозаписи) Example 2: Taking a photo of a video (movie recording mode)
В частности, согласно настоящему изобретению, способ обработки изображения для видеозаписи аналогичен способу обработки изображения для фотографирования, а разница состоит в том, что объект, обрабатываемый при фотографировании, представляет собой одно изображение, тогда как объект, обрабатываемый при видеозаписи, представляет собой последовательные видео кадры, а именно несколько последовательных изображений. Объект, обрабатываемый при видеозаписи, может представлять собой полное видео или сегмент полного видео, либо определяемый пользователем видео клип в пределах некоторого периода времени. Для информации о процедуре обработки каждого изображения в составе видео или видео клипа можно обратиться к способу обработки согласно Примеру 1.In particular, according to the present invention, the image processing method for video recording is similar to the image processing method for taking photographs, and the difference is that the object processed in photographing is a single image, while the object processed in video recording is successive video frames. , namely several consecutive images. The object processed during video recording may be a full video or a segment of a full video, or a user-defined video clip within a certain period of time. For information about the processing procedure for each image in a video or video clip, refer to the processing method according to Example 1.
В частности, способ обработки изображения для фотографирования видео может содержать следующие этапы.Specifically, the image processing method for photographing a video may include the following steps.
Этап 31: Получение N сфотографированных изображений, где N – положительное целое число; и осуществление операций этапа 32 и 33 применительно к каждому изображению, где эти N изображений могут представлять собой соседние видео кадры, так что сумму этих N изображений можно рассматривать в качестве видео. В альтернативном варианте, эти N изображений могут быть несоседними.Step 31: Obtaining N photographed images, where N is a positive integer; and performing steps 32 and 33 on each picture, where the N pictures may be adjacent video frames such that the sum of the N pictures can be considered as video. Alternatively, these N pictures may not be adjacent.
Одна из опций реализации этапа 32 может быть такой же, как этап 22.One of the options for implementing step 32 may be the same as step 22.
Одна из опций реализации этапа 33 может быть такой же, как этап 23.One of the options for implementing step 33 may be the same as step 23.
В качестве дополнения, поскольку видео содержит последовательные изображения, способ определения индивидуального объекта также относится к временной последовательности. Поэтому, в дополнение к этапу 23, могут быть больше вариантов реализации на этапе 33. В качестве опции, любой способ определения главного объекта на шаге S223 может иметь задержку. Например, в L1-ом кадре определены человек и фон, и они могут быть по-прежнему определены в кадрах от (L1 + 1)-го кадра по (L1 + L0)-ый кадр изображения посредством маркировки пикселей и сравнения масок, при этом человек на этих изображениях является главным объектом, а область, соответствующая этому человеку на рассматриваемых изображениях, является целевой областью 0. Нет необходимости определять главный объект и фон для каждого кадра. Момент, в который определяют главный объект, может быть каждый раз задан пользователем, либо главный объект можно определять периодически, например, не ограничиваясь этим, каждые 2 с или каждые 10 с. Метод определения главного объекта на шаге S223 содержит, но не ограничивается этим, до шести способов.In addition, since the video contains consecutive images, the method of determining the individual object also applies to the temporal sequence. Therefore, in addition to step 23, there may be more implementations in step 33. As an option, any method of determining the main object in step S223 may have a delay. For example, in the L1-th frame, a person and a background are defined, and they can still be defined in frames from the (L1 + 1)-th frame to the (L1 + L0)-th frame of the image by pixel marking and mask comparison, while the person in these images is the main subject, and the area corresponding to this person in the considered images is the
Этап 34: Сохранение видео, составленного из N изображений, к которым применена цветовая обработка.Step 34: Saving a video composed of N images to which color processing has been applied.
Согласно настоящему изобретению, в процессе записи видео пользователем терминал может определить целевой индивидуальный объект и фон на основе контента видео, и осуществить различную цветовую обработку применительно к целевому индивидуальному объекту и к фону, так что главный объект на видео, сфотографированном пользователем, может быть более выделенным, само сфотографированное видео может быть таким же «крутым», как и кинофильм, а впечатление для пользователя может быть улучшено.According to the present invention, in the process of recording a video by a user, the terminal can determine the target div and the background based on the content of the video, and perform different color processing on the target div and the background, so that the main object in the video photographed by the user can be more highlighted. , the captured video itself can be as "cool" as a movie, and the user experience can be improved.
Пример 3: фотографирование видео (режим видеозаписи)Example 3: Taking a photo of a video (movie recording mode)
Согласно настоящему изобретению, способ обработки изображения для видеозаписи аналогичен способу обработки изображения для фотографирования, а разница состоит в том, что объект, обрабатываемый при фотографировании, представляет собой одно изображение, тогда как объект, обрабатываемый при видеозаписи, представляет собой последовательные видео кадры, а именно несколько последовательных изображений. Поэтому, для информации о процедуре обработки каждого изображения в составе видео или видео клипа можно обратиться к способу обработки согласно Примеру 1. В некоторых сложных сценариях фотографирования видео, некоторые области изображения могут быть приняты неправильно. Если одна и та же область по отдельности маркирована в соседних кадрах в качестве целевой области и фона, эту одну и ту же область обрабатывают в разных цветах в соответствии с приведенным выше способом цветовой обработки, а изменения цветов одной и той же области в соседних кадрах вызывает «сенсорное мерцание». Поэтому, такое мерцание необходимо обнаружить и исключить в процессе обработки. Это мерцание можно понимать в качестве ошибки определения категории объекта.According to the present invention, the image processing method for video recording is similar to the image processing method for photographing, and the difference is that the object processed in photographing is a single image, while the object processed in video recording is successive video frames, namely multiple consecutive images. Therefore, for information on the processing procedure for each image in a video or video clip, the processing method according to Example 1 can be referred to. In some complex video photographing scenarios, some areas of the image may not be received correctly. If the same area is separately marked in adjacent frames as the target area and background, this same area is processed in different colors in accordance with the above color processing method, and changing the colors of the same area in adjacent frames causes "touch flicker". Therefore, such flicker must be detected and eliminated during processing. This flickering can be understood as an error in determining the category of the object.
Согласно способу определения факта мерцания видео, маску для предшествующего кадра можно обрабатывать на основе оптического потока для получения маски на основе оптического потока и сравнивать маску на основе оптического потока с маской текущего кадра. Когда степень совпадения или степень подобия превосходит заданную конкретную пропорцию, определяют, что мерцание не возникает. Когда степень совпадения или степень подобия не превосходит заданную конкретную пропорцию, определяют, что возникло мерцание. В дополнение к этому, следует понимать, что определение мерцания является непрерывным процессом. В качестве опции, конкретный способ для определения, присутствует ли мерцание, выглядит следующим образом:According to the video flicker detection method, the mask for the previous frame can be processed based on the optical flow to obtain the mask based on the optical flow, and the mask based on the optical flow can be compared with the mask of the current frame. When the degree of coincidence or degree of similarity exceeds a predetermined specific proportion, it is determined that no flicker occurs. When the degree of coincidence or degree of similarity does not exceed a predetermined specific proportion, it is determined that flicker has occurred. In addition, it should be understood that flicker detection is a continuous process. As an option, a specific method for determining if flicker is present is as follows:
(1) Сначала вычисляют оптический поток соседних кадров, где оптический поток служит индикатором соотношения смещения между пикселями в соседних кадрах (в (t – 1)-ом кадре и в t-ом кадре).(1) First, the optical flow of adjacent frames is calculated, where the optical flow serves as an indicator of the offset ratio between pixels in adjacent frames (in the (t - 1)th frame and in the tth frame).
(2) Получают маску для (t – 1)-го кадра и вычисляют маску F для оптического потока для t-го кадра на основе маски для (t – 1)-го кадра и информации об оптическом потоке для (t – 1)-го кадра и t-го кадра, где маску для оптического потока получают посредством вычислений на основе оптического потока.(2) Obtain a mask for the (t - 1)th frame and calculate the mask F for the optical flow for the tth frame based on the mask for the (t - 1)th frame and the optical flow information for (t - 1)- the th frame and the t-th frame, where the mask for the optical flow is obtained through calculations based on the optical flow.
(3) Получают маску S для t-го кадра.(3) Get the mask S for the t-th frame.
(4) Подсчитывают множество SF пикселей главного объекта в маске F для оптического потока, и подсчитывают множество SS пикселей главного объекта в маске S. Количества пикселей в объединенном множестве и во множестве пересечения масок SF и SS обозначены соответственно Nu и Ni. Когда (Nu – Ni)/Nu больше заданной пороговой величины, считается, что имеет место относительно большая разница между масками соседних кадров (t – 1)-го и t-го, и определяют, что возникает мерцание между (t – 1)-ым кадров и t-ым кадром, либо можно понять, что t-ом кадре возникает мерцание. Относительно большая разность обозначает, что один и тот же объект может быть ошибочно отнесен к разным категориям объектов. Например, один и тот же индивидуальный объект в (t – 1)-ом кадре и t-ом кадре может быть по отдельности определен как человек и как обезьяна.(4) The pixel set SF of the main object in the mask F for the optical flow is counted, and the pixel set SS of the main object in the mask S is counted. When (Nu - Ni)/Nu is greater than a predetermined threshold value, it is considered that there is a relatively large difference between the masks of neighboring frames of the (t - 1)th and tth, and it is determined that flicker occurs between (t - 1) - th frame and t-th frame, or it can be understood that the t-th frame flicker occurs. A relatively large difference means that the same object can be erroneously assigned to different categories of objects. For example, the same individual object in the (t - 1)-th frame and the t-th frame can be separately defined as a human and as a monkey.
В качестве опции, если в первых N0 (положительное целое число больше 2) изображениях текущей съемки (текущего изображения), число групп соседних изображений с одним и тем же объектом, определяемым на этих изображениях как относящийся к разным категориям объектов, больше заданной пороговой величины, может быть установлено, что необходимо выполнить процедуру устранения мерцания применительно к текущему кадру. Если установлено, что число групп соседних изображений, в которых один и тот же объект определен как относящийся к разным категориям объектов, не превышает заданной пороговой величины, может быть решено, что нет необходимости выполнять процедуру устранения мерцания применительно к текущему кадру.As an option, if in the first N0 (positive integer greater than 2) images of the current shooting (current image), the number of groups of neighboring images with the same object defined in these images as belonging to different categories of objects is greater than the specified threshold value, it may be determined that it is necessary to perform a de-flickering procedure on the current frame. If it is determined that the number of neighboring picture groups in which the same object is determined to belong to different object categories does not exceed a predetermined threshold, it may be decided that it is not necessary to perform the flicker removal procedure on the current frame.
В качестве опции, например, для заданного количества исторически соседних кадров или заданного количества исторических кадров, если определено, что мерцание возникает более чем в половине этих кадров, (например, если определено, что мерцание возникает в трех видео кадрах из первых пяти соседних кадров относительно текущего видео кадра) может быть установлено, что необходимо выполнить процедуру устранения мерцания применительно к текущему кадру. Если же определено, что мерцание возникает менее чем в половине этих кадров, (например, если определено, что мерцание возникает в одном из первых пяти соседних кадров относительно текущего видео кадра) может быть установлено, что нет необходимости выполнять процедуру устранения мерцания применительно к текущему кадру.Optionally, for example, for a given number of historically adjacent frames or a given number of historical frames, if it is determined that flicker occurs in more than half of these frames, (for example, if it is determined that flicker occurs in three video frames out of the first five adjacent frames relative to current video frame) can be set to perform a flicker removal procedure on the current frame. If it is determined that the flicker occurs in less than half of these frames (for example, if it is determined that the flicker occurs in one of the first five adjacent frames relative to the current video frame), it can be determined that it is not necessary to perform the de-flicker procedure on the current frame. .
Должно быть понятно, что текущее видео изображение можно рассматривать как изображение, записанное в некий момент времени. Под этим моментом можно понимать некий обобщенный момент в некоторых сценариях, либо можно понимать некий конкретный момент в некоторых сценариях, например, самый последний момент или момент, который интересует пользователя.It should be clear that the current video image can be considered as an image recorded at some point in time. This moment can be understood as a generalized moment in some scenarios, or it can be understood as a specific moment in some scenarios, for example, the most recent moment or the moment that the user is interested in.
В частности, способ обработки изображения для фотографирования видео в этом примере может содержать следующие этапы.Specifically, the image processing method for photographing a video in this example may include the following steps.
Этап 41: Получение N сфотографированных изображений, где N представляет собой положительное целое число; и осуществление операций этапов 32 и 33 применительно к каждому изображению, где эти N изображений могут быть соседними видео кадрами, и тогда сумму этих N изображений можно рассматривать в качестве видео; либо эти N изображений могут быть не соседними.Step 41: Obtaining N photographed images, where N is a positive integer; and carrying out the operations of steps 32 and 33 for each picture, where the N pictures can be adjacent video frames, and then the sum of these N pictures can be considered as video; or these N images may not be adjacent.
Этап 42: Определение, является ли число групп соседних изображений, в которых возникает мерцание, в первых N0 кадрах относительно текущего кадра (текущего изображения) больше заданной пороговой величины. Здесь, число N0 и пороговая величина могут быть заданы пользователем. Например, число N0 представляет выбранное число отсчетов исторических видео кадров, а пороговая величина может составлять 1/2, 2/3 или другую подобную долю от числа N0. Это представляет собой всего лишь пример и не является ограничением.Step 42: Determining whether the number of adjacent picture groups in which flickering occurs in the first N0 frames relative to the current frame (current picture) is greater than a predetermined threshold. Here, the number N0 and the threshold value can be set by the user. For example, the number N0 represents a selected number of samples of historical video frames, and the threshold value may be 1/2, 2/3, or another similar fraction of the number N0. This is just an example and is not a limitation.
Если результат такого определения не больше заданной пороговой величины, выполняют операции этапов 42 и 43 применительно к сфотографированному или захваченному в текущий момент изображению.If the result of such a determination is not greater than a predetermined threshold value, the operations of steps 42 and 43 are performed with respect to the photographed or currently captured image.
Один из вариантов реализации этапа 43 может быть таким же, как этап 32.One implementation of step 43 may be the same as step 32.
Один из вариантов реализации этапа 44 может быть таким же, как этап 33.One implementation of step 44 may be the same as step 33.
Если результат определения больше заданной пороговой величины, выполняют операцию этапа 44 применительно к сфотографированному или захваченному в текущий момент изображению.If the determination result is greater than the predetermined threshold, the operation of step 44 is performed on the currently photographed or currently captured image.
Этап 45: Обработка всех областей изображения в текущем кадре с использованием одного и того же способа цветовой обработки для получения целевого изображения. Этот один и тот же способ цветовой обработки может быть таким же, как способ цветовой обработки фоновой области в предшествующем кадре, или может быть таким же, как способ цветовой обработки целевой области в предшествующем кадре, или может быть таким же, как способ цветовой обработки всего изображения в предшествующем кадре. Например, способ цветовой обработки, который является таким же, как способ, использованный для фоновой области на этапе 33 (23), может быть применен ко всему изображению. В альтернативном варианте, способ цветовой обработки, который является таким же, как способ, использованный для целевой области на этапе 33 (23), может быть использован для всего изображения. Например, все изображение остается цветным, либо все изображение являет черно-белым, либо первый или второй режим цветовой обработки (включая, но не ограничиваясь, режимами цветовой обработки, указанными в Примере 1) используется для всего изображения.Step 45: Processing all image areas in the current frame using the same color processing method to obtain the target image. This same color processing method may be the same as the color processing method of the background area in the previous frame, or may be the same as the color processing method of the target area in the previous frame, or may be the same as the color processing method of the entire images in the previous frame. For example, a color processing method that is the same as that used for the background area in step 33 (23) can be applied to the entire image. Alternatively, a color processing method that is the same as the method used for the target area in step 33(23) may be used for the entire image. For example, the entire image remains in color, or the entire image is black and white, or the first or second color processing mode (including but not limited to the color processing modes specified in Example 1) is used for the entire image.
В таком случае, для текущего кадра, может быть осуществлена или может быть исключена процедура сегментации маски, аналогичная процедуре, применяемой на этапе 22. В рассматриваемом примере это никак не ограничено.In such a case, for the current frame, a mask segmentation procedure similar to that used in step 22 may be performed or omitted. In the present example, this is not limited in any way.
После этапа 45, осуществляется этап 46 сохранения видео, состоящего из N изображений, к которым применена цветовая обработка. Здесь N представляет собой положительное целое число.After step 45, step 46 is performed to save a video consisting of N images to which color processing has been applied. Here N is a positive integer.
Согласно настоящему изобретению в ходе процедуры записи видео пользователем терминал может определить целевой индивидуальный объект и фон на основе контента этого видео и осуществить различную цветовую обработку целевого индивидуального объекта и фона таким образом, чтобы главный объект на видео, сфотографированном пользователем, мог быть более выделенным, само сфотографированное видео могло быть таким же «крутым», как и кинофильм, а впечатление для пользователя могло быть улучшено.According to the present invention, during a video recording procedure by a user, the terminal can determine the target div and background based on the content of that video, and perform different color processing on the target div and the background so that the main object in the video photographed by the user can be more highlighted, itself the photographed video could be as "cool" as the movie, and the user experience could be improved.
Пример 4: фотографирование видео (режим видеозаписи)Example 4: Taking a picture of a video (movie recording mode)
В некоторых сценариях приложений контент изображения, сфотографированного пользователем, обычно изменяется. Поэтому обычно изменяется главный объект изображения. Пользователь также ожидает возможности свободного выбора режима цветовой обработки главного объекта в различных изображениях, чтобы независимо управлять стилем видео.In some application scenarios, the content of the image taken by the user is usually changed. Therefore, the main object of the image usually changes. The user also expects to be able to freely select the color processing mode of the main object in different images in order to independently control the style of the video.
Способ обработки изображения в процессе фотографирования видео может содержать следующие этапы.The image processing method in the video photographing process may include the following steps.
Этап 51: Терминал получает видео кадр.Step 51: The terminal receives a video frame.
Этап 52: Терминал определяет область главного объекта и фоновую область в каком-либо видео кадре, полученном из видео.Step 52: The terminal determines the main object area and the background area in any video frame obtained from the video.
Этап 53: Терминал использует какой-либо режим цветовой обработки в какой-либо момент времени для области главного объекта, и этот терминал использует какой-либо режим цветовой обработки в какой-либо момент времени для фоновой области. Однако необходимо быть уверенным, что для любого изображения яркость или насыщенность цвета области главного объекта после цветовой обработки будет больше яркости или насыщенности цвета фоновой области после цветовой обработки. В качестве альтернативы, для любого изображения, насыщенность цвета или яркость изображения, получаемого в режиме цветовой обработки, используемом для области главного объекта, больше насыщенности цвета или яркости изображения, получаемого в режиме цветовой обработки, используемом для фоновой области.Step 53: The terminal uses any color processing mode at any time for the main object area, and this terminal uses any color processing mode at any time for the background area. However, you must be sure that for any image, the brightness or color saturation of the main object area after color processing will be greater than the brightness or color saturation of the background area after color processing. Alternatively, for any image, the color saturation or brightness of the image produced in the color processing mode used for the main subject area is greater than the color saturation or brightness of the image produced in the color processing mode used for the background region.
Пример 5: фотографирование видео (режим видеозаписи)Example 5: Taking a photo of a video (movie recording mode)
В некоторых сценариях приложений контент изображения, сфотографированного пользователем, обычно изменяется. Поэтому обычно изменяется главный объект изображения. Пользователь также ожидает возможности свободного выбора режима цветовой обработки главного объекта в различных изображениях, чтобы независимо управлять стилем видео. В частности, цвет, изменяется по истечении периода времени.In some application scenarios, the content of the image taken by the user is usually changed. Therefore, the main object of the image usually changes. The user also expects to be able to freely select the color processing mode of the main object in different images in order to independently control the style of the video. In particular, the color changes after a period of time.
Способ обработки изображения в процессе фотографирования видео может содержать следующие этапы. The image processing method in the video photographing process may include the following steps.
Этап 61: Захват N1 изображений в течение первого периода времени и захват N2 изображений в течение второго периода времени, где эти первый период времени и второй период времени представляют собой соседние периоды времени, и оба числа N1 и N2 представляют собой положительные целые числа, эти первый период времени и второй период времени могут иметь такую продолжительность, чтобы пользователь мог идентифицировать изменения изображения невооруженным глазом, и числа N1 и N2 определены частотами кадров и продолжительностями периодов времени в процессе видеозаписи. В рассматриваемом примере это никак не ограничено.Step 61: Capturing N1 images during the first time period and capturing N2 images during the second time period, where the first time period and the second time period are adjacent time periods, and both N1 and N2 are positive integers, these first the time period and the second time period may be of such duration that the user can identify image changes with the naked eye, and the numbers N1 and N2 are determined by frame rates and lengths of time periods during video recording. In this example, this is not limited in any way.
Этап 62: Определение первой целевой области и первой фоновой области в каждом из N1 изображений, где первая фоновая область представляет собой область изображения, отличную от первой целевой области, и первая целевая область в каждом из N1 изображений соответствует первому объекту (который может представлять собой по меньшей мере один объект); и определение второй целевой области и второй фоновой области в каждом из N2 изображений, где вторая фоновая область представляет собой область изображения, отличную от второй целевой области, и вторая целевая область в каждом из N2 изображений соответствует второму объекту (который может представлять собой по меньшей мере один объект).Step 62: Determining the first target area and the first background area in each of the N1 images, where the first background area is an image area different from the first target area, and the first target area in each of the N1 images corresponds to the first object (which may be at least one object) and defining a second target area and a second background area in each of the N2 images, where the second background area is an image area different from the second target area, and the second target area in each of the N2 images corresponds to a second object (which may be at least one object).
Этап 63: Обработка первой целевой области в первом режиме цветовой обработки, обработка первой фоновой области во втором режиме цветовой обработки, обработка второй целевой области в третьем режиме цветовой обработки, и обработка второй фоновой области в четвертом режиме цветовой обработки, для получения целевого видео, где в этом целевом видео насыщенность цвета в первой целевой области больше насыщенности цвета в первой фоновой области, или яркость первой целевой области больше яркости первой фоновой области; и насыщенность цвета во второй целевой области больше насыщенности цвета во второй фоновой области или яркость второй целевой области больше яркости второй фоновой области.Step 63: Processing the first target region in the first color processing mode, processing the first background region in the second color processing mode, processing the second target region in the third color processing mode, and processing the second background region in the fourth color processing mode, to obtain a target video, where in this target video, the color saturation in the first target area is greater than the color saturation in the first background area, or the brightness of the first target area is greater than the brightness of the first background area; and the color saturation in the second target area is greater than the color saturation in the second background area, or the brightness of the second target area is greater than the brightness of the second background area.
Пример 6: фотографирование видео (режим видеозаписи)Example 6: Taking a photo of a video (movie recording mode)
В некоторых сценариях приложений контент изображения, сфотографированного пользователем, обычно изменяется. Поэтому обычно изменяется главный объект изображения. Пользователь также ожидает возможности свободного выбора целевого главного объекта, который пользователь ожидает выделить на разных изображениях. Например, область изображения, соответствующую первому объекту, определяют в качестве целевой области в первый период времени, область изображения, соответствующую второму объекту, определяют в качестве целевой области во второй период времени, при этом первый объект и второй объект представляют собой различные объекты, различные индивидуальные объекты или относятся к разным категориям объектов.In some application scenarios, the content of the image taken by the user is usually changed. Therefore, the main object of the image usually changes. The user also expects to be able to freely select the target main object that the user expects to highlight in different images. For example, the image area corresponding to the first object is determined as the target area in the first time period, the image area corresponding to the second object is determined as the target area in the second time period, while the first object and the second object are different objects, different individual objects or belong to different categories of objects.
В этом сценарии, способ обработки изображения в процессе фотографирования видео может содержать следующие этапы.In this scenario, the image processing method in the video photographing process may include the following steps.
Один из вариантов реализации этапа 71 может быть таким же, как этап 61.One implementation of step 71 may be the same as step 61.
Этап 72: Определение первой целевой области и первой фоновой области в каком-либо одном из N1 изображений на основе контента этого изображения и определение второй целевой области и второй фоновой области в каком-либо одном из N2 изображений на основе контента этого изображения, где объект или категория объекта, соответствующая второй целевой области, отличается от объекта или категории объекта, соответствующей первой целевой области, так что система и пользователь могут независимо выбрать целевой главный объект и целевую область изображения. Изображение содержит главный объект и фон, и соответственно, это изображение содержит целевую область и фоновую область.Step 72: Determining a first target area and a first background area in any one of the N1 images based on the content of that image, and determining a second target area and a second background area in any one of the N2 images based on the content of that image, where the object or the object category corresponding to the second target area is different from the object or object category corresponding to the first target area, so that the system and the user can independently select the target main object and the target image area. The image contains the main object and the background, and accordingly, this image contains the target area and the background area.
Например, первый объект является человеком, а второй объект является животным. Например, первый объект является человеком A, а второй объект является человеком B. Например, первый объект представляет собой двух человек, а второй объект представляет собой собаку и двух кошек. Остальную область, которая не была идентифицирована, маркируют в качестве фона.For example, the first object is a human and the second object is an animal. For example, the first object is person A and the second object is person B. For example, the first object represents two people and the second object represents a dog and two cats. The rest of the area that has not been identified is marked as background.
В этом способе, маска для изображения может быть определена с использованием подходов, описанных выше для шагов S221 и S222. Однако последующий способ не ограничивается определением целевого объекта в маске для каждого изображения.In this method, the mask for the image may be determined using the approaches described above for steps S221 and S222. However, the following method is not limited to defining the target in the mask for each image.
В качестве опции, в маску изображения пользователь может свободно ввести первый объект и второй объект, где эти первый объект и второй объект определяют в соответствии с командой выбора, введенной пользователем. Например, если пользователь выбрал индивидуальный объект, система идентифицирует пиксель, соответствующий введенной пользователем команде, затем идентифицирует конкретный (/некоторые) индивидуальный объект (/индивидуальные объекты) (/может быть по меньшей мере один индивидуальный объект) или конкретную (/некоторые) категорию объекта (/категории) (/может быть по меньшей мере одна категория объекта) для маски, выбранной пользователем, далее определяет конкретный (/некоторые) индивидуальный объект (/индивидуальные объекты) или все индивидуальные объекты, которые относятся к конкретной (/некоторым) категории объекта (/категориям объектов), в качестве первого объекта, и определяет этот первый объект или область изображения, соответствующую этому первому объекту, в качестве первой целевой области. Такая ситуация может поддерживаться в течение некоторого периода времени. Другими словами, в последующих нескольких кадрах область, соответствующая маске, соответствующей первому объекту, является первой целевой областью до тех пор, пока пользователь не выберет другой индивидуальный объект в следующий момент времени, а область, соответствующую новому индивидуальному объекту, определяют в качестве второй целевой области в соответствии со способом, аналогичным изложенному выше способу. В любом изображении, область изображения, отличная от первой целевой области или второй целевой области, является фоновой областью. Более конкретно, область, соответствующая маске, соответствующей первому объекту, в течение первого периода времени, является первой целевой областью, а область, соответствующая маске, соответствующей второму объекту, в течение второго периода времени, является второй целевой областью.As an option, in the image mask, the user can freely enter the first object and the second object, where these first object and the second object are determined in accordance with the selection command entered by the user. For example, if the user has selected an individual object, the system identifies the pixel corresponding to the command entered by the user, then identifies the particular (/some) individual object(s) (/there may be at least one individual object) or the specific (/some) category of the object. (/categories) (/can be at least one object category) for the mask selected by the user, further defines the specific (/some) individual object(s) or all individual objects that belong to the specific (/some) object category (/categories of objects) as the first object, and defines this first object or an area of the image corresponding to this first object as the first target area. This situation can be maintained for some period of time. In other words, in the next few frames, the area corresponding to the mask corresponding to the first object is the first target area until the user selects another individual object at the next time, and the area corresponding to the new individual object is determined as the second target area. in accordance with a method similar to the method described above. In any image, an area of the image other than the first target area or the second target area is the background area. More specifically, the area corresponding to the mask corresponding to the first object during the first time period is the first target area, and the area corresponding to the mask corresponding to the second object during the second time period is the second target area.
В качестве опции, в совокупности масок для изображения, система может определить целевую маску для изображения в течение некоторого периода времени в совокупности масок для изображения на основе заданного промежутка времени (например, но не ограничиваясь этим, 1 с или 2 с) или заданного количества кадров (например, но не ограничиваясь этим, 50 кадров или 100 кадров). Например, первую целевую маску определяют в 101-ом кадре, и маску, имеющую такую же категорию объекта или индивидуальный объект, как и первая целевая маска, используют в качестве первой целевой маски для каждого из последующих кадров от 102 кадра до 200 кадра до тех пор, пока вторая целевая маска не будет определена в 201-ом кадре. Для каждого из последующих кадров от 202 до 200 кадров, маска, имеющая такую же категорию объекта или такой же индивидуальный объект, как и указанная вторая целевая маска, используется в качестве второй целевой маски. Следует понимать, что номера в приведенном выше примере могут быть предварительно заданы пользователем или системой.Optionally, in the image mask pool, the system may determine the target image mask over a period of time in the image mask pool based on a given amount of time (for example, but not limited to 1 s or 2 s) or a given number of frames. (for example, but not limited to 50 frames or 100 frames). For example, the first target mask is determined in the 101st frame, and a mask having the same object category or individual object as the first target mask is used as the first target mask for each of the subsequent frames from frame 102 to frame 200 until until the second target mask is determined in the 201st frame. For each of the subsequent frames from 202 to 200 frames, a mask having the same object category or the same individual object as the specified second target mask is used as the second target mask. It should be understood that the numbers in the above example may be predefined by the user or the system.
Для получения информации о способе определения первой целевой маски и второй целевой маски, можно обратиться, но не ограничиваясь этим, к любому из шести способов, описанных на шаге S223. Поэтому, первая целевая маска и вторая целевая маска могут относиться к одной и той же категории объекта или одному и тому же индивидуальному объекту, либо они могут относиться к разным категориям объектов или к разным индивидуальным объектам. Это относится к способности идентификации сети связи, изменения изображения сцены или вводимой пользователем команды.For information on the method for determining the first target mask and the second target mask, one can refer to, but not limited to, any of the six methods described in step S223. Therefore, the first target mask and the second target mask may refer to the same object category or the same individual object, or they may refer to different object categories or different individual objects. This refers to the ability to identify a communication network, change the image of a scene, or a user-entered command.
Конкретнее, определяют в некоторый момент времени целевую маску и затем непрерывно используют маску этого типа или маску для этого индивидуального объекта в течение некоторого периода времени.More specifically, a target mask is determined at some point in time, and then a mask of that type, or a mask for that individual object, is continuously used for a period of time.
В дополнение к этому, затем определяют первую целевую область, первую фоновую область, вторую целевую область и вторую фоновую область в соответствии со способом, описанном на шаге s224.In addition, the first target area, the first background area, the second target area, and the second background area are then determined according to the method described in step s224.
Один из вариантов реализации этапа 73 может быть таким же, как этап 63.One implementation of step 73 may be the same as step 63.
В дополнение к этому, поскольку этот пример может варьироваться в зависимости от периода времени, возможны несколько комбинаций способов цветовой обработки.In addition, since this example may vary depending on the time period, several combinations of color processing methods are possible.
Например, первый режим цветовой обработки является таким же, как третий режим цветовой обработки, и второй режим цветовой обработки является таким же, как четвертый режим цветовой обработки. Этот режим цветовой обработки имеет хорошую согласованность.For example, the first color processing mode is the same as the third color processing mode, and the second color processing mode is the same as the fourth color processing mode. This color processing mode has good consistency.
Например, первый режим цветовой обработки является таким же, как третий режим цветовой обработки, и второй режим цветовой обработки отличается от четвертого режима цветовой обработки. В этом примере режимов цветовой обработки, цвета целевого главного объекта согласованы, а цвета фона изменяются, так что общий визуальный эффект являет более блестящим.For example, the first color processing mode is the same as the third color processing mode, and the second color processing mode is different from the fourth color processing mode. In this example of color processing modes, the colors of the target main object are matched, and the background colors are changed so that the overall visual effect is more brilliant.
Например, первый режим цветовой обработки отличается от третьего режима цветовой обработки, и второй режим цветовой обработки является таким же, как четвертый режим цветовой обработки. В этом примере режимов цветовой обработки, цвета фона согласованы, а цвета целевого главного объекта изменяются так, что этот целевой главный объект является более выделенным.For example, the first color processing mode is different from the third color processing mode, and the second color processing mode is the same as the fourth color processing mode. In this example of color rendering modes, the background colors are matched, and the colors of the target main object are changed so that the target main object is more prominent.
Например, первый режим цветовой обработки отличается от третьего режима цветовой обработки, и второй режим цветовой обработки отличается от четвертого режима цветовой обработки. В этом примере режимов цветовой обработки, могут быть реализованы больше способов цветового преобразования, и может быть осуществлено больше цветовой кооперации на основе требований различных сценариев.For example, the first color processing mode is different from the third color processing mode, and the second color processing mode is different from the fourth color processing mode. In this example of color processing modes, more color conversion methods can be implemented, and more color cooperation can be implemented based on the requirements of different scenarios.
Первый режим цветовой обработки или третий режим цветовой обработки содержит фильтр, например, для сохранения цвета или усиления цвета. Второй режим цветовой обработки или четвертый режим цветовой обработки содержит фильтры, такие как черно-белый фильтр, затемняющий фильтр, ретро фильтр, пленочный фильтр, фильтр размытости и фильтр бликов (фильтр боке).The first color processing mode or the third color processing mode contains a filter, for example, to preserve color or enhance color. The second color processing mode or the fourth color processing mode contains filters such as a black and white filter, a darkening filter, a retro filter, a film filter, a blur filter, and a flare filter (bokeh filter).
Конкретнее, за информацией о способах цветовой обработки для целевой области и фоновой области одного и того же изображения следует обратиться к этапу 23. Для указанных N2 изображений, третий режим цветовой обработки и четвертый режим цветовой обработки соответственно аналогичны первому режиму цветовой обработки и второму режиму цветовой обработки.More specifically, for information on the color processing methods for the target area and the background area of the same image, refer to step 23. For these N2 images, the third color processing mode and the fourth color processing mode are respectively the same as the first color processing mode and the second color processing mode. .
Согласно приведенным выше техническим решениям, в некоторых примерах, пользователь может свободно выбирать режим цветовой обработки фона в различных изображениях, чтобы подчеркнуть, выделить различный фон. В некоторых сценариях, пользователь может свободно выбирать режим цветовой обработки главного объекта в различных изображениях, чтобы подчеркнуть, выделить главный объект в разных степенях или формах.According to the above technical solutions, in some examples, the user can freely select the background color processing mode in different images to highlight different backgrounds. In some scenarios, the user can freely select the color mode of the main object in different images to emphasize, highlight the main object in different degrees or forms.
Следует понимать, что в различных примерах настоящего изобретения, сигналы, обозначенные одной и той же меткой, могут иметь различные источники или могут быть получены различными способами. Это не является ограничением. В дополнение к этому, при ссылках на этапы из различных примеров, на «то же самое, как на этапе xx» больше фокусируются на том, что логические схемы обработки сигналов на этих двух этапах аналогичны. Это не исчерпывается тем, что входные и выходные сигналы двух типов должны быть полностью одинаковыми и что процедуры указанных двух способов полностью эквивалентны. Соответствующие ссылки и вариации, которые могут быть сделаны специалистом в рассматриваемой области, попадут в объем защиты от настоящего изобретения.It should be understood that in different examples of the present invention, signals designated by the same label may have different sources or may be obtained in different ways. This is not a limitation. In addition, when referring to steps from various examples, "same as step xx" is more focused on the fact that the signal processing logic of the two steps are similar. It is not limited to the fact that the input and output signals of the two types must be exactly the same and that the procedures of these two methods are completely equivalent. Appropriate references and variations, which may be made by a person skilled in the art, fall within the protection scope of the present invention.
Настоящее изобретение предлагает способ обработки изображения. В изображении определяют целевую область и фоновую область посредством осуществления сегментации маски для этого изображения. К целевой области и к фоновой области применяют разные режимы цветовой обработки, так что яркость целевой области становится больше яркости фоновой области, или насыщенность цвета в целевой области становится выше насыщенности цвета в фоновой области, вследствие чего главный объект оказывается более выделенным. Этим реализуется специальный эффект кино.The present invention provides an image processing method. In an image, a target area and a background area are determined by performing mask segmentation for that image. Different color processing modes are applied to the target area and the background area, so that the brightness of the target area becomes larger than the brightness of the background area, or the color saturation of the target area becomes higher than the color saturation of the background area, so that the main object is more highlighted. This realizes the special effect of cinema.
На основе способа обработки изображения, рассматриваемого в приведенном выше варианте, один из вариантов настоящего изобретения предлагает аппаратуру 900 для обработки изображения. Эта аппаратура может быть использована в нескольких терминалах и может быть применена в любой форме реализации терминала 100, например, в терминале, имеющем функцию фотографирования видео. Как показано на Фиг. 9, аппаратура содержит:Based on the image processing method discussed in the above embodiment, one embodiment of the present invention provides an
фотографический модуль 901, конфигурированный для получения изображения, которое может представлять собой результат фотографирования или фотографирования видео, где этот модуль в частности конфигурирован для осуществления способа согласно этапу 21, этапу 31, этапу 51, этапу 61 или этапу 71 из приведенного выше примера или какого-либо способа, эквивалентного этому способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из запоминающего устройства с целью управления видеокамерой для захвата изображения;
решающий модуль 902, конфигурированный для определения целевой области и фоновой области в изображении на основе контента этого изображения, где этот модуль в частности конфигурирован для осуществления способа согласно этапу 22, этапу 32, этапу 52, этапу 62 или этапу 72 из приведенного выше примера или какого-либо способа, эквивалентного этому способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из запоминающего устройства для выполнения соответствующего алгоритма; иa
модуль 903 цветовой обработки, конфигурированный для использования различных режимов цветовой обработки для целевой области и для фоновой области в изображении для получения целевого изображения или целевого видео, так что насыщенность цвета в целевой области становится больше насыщенности цвета в фоновой области, или яркость в целевой области становится выше яркости в фоновой области, где этот модуль в частности конфигурирован для осуществления способа согласно этапу 23, этапу 33, этапу 53, этапу 63 или этапу 73 из приведенного выше примера или какого-либо способа, эквивалентного этому способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из a запоминающего устройства с использованием специального алгоритма.a
В дополнение к этому, аппаратура может далее содержать модуль 904 для хранения данных, конфигурированный для сохранения изображения или видео, применительно к которому выполнена цветовая обработка.In addition, the apparatus may further comprise a data storage module 904 configured to store an image or video that has been color processed.
Приведенные выше конкретные примеры способа, пояснения и описания технических признаков вариантов и расширений нескольких форм реализации также применимы к выполнению этого способа в рассматриваемой аппаратуре, так что подробности применительно к этой аппаратуре описаны не будут.The above specific examples of the method, explanations and descriptions of the technical features of variants and extensions of several forms of implementation also apply to the implementation of this method in the considered equipment, so details in relation to this equipment will not be described.
Настоящее изобретение предлагает аппаратуру для обработки изображения. Применительно к изображению осуществляют сегментацию маски с целью определения целевой области и фоновой области изображения на основе контента этого изображения. К целевой области и к фоновой области применяют различные режимы цветовой обработки, так что яркость целевой области становится выше яркости фоновой области, либо насыщенность цвета в целевой области становится больше насыщенности цвета в фоновой области, вследствие чего главный объект, соответствующий целевой области оказывается более выделенным. Этим реализуется специальный эффект кино.The present invention provides an image processing apparatus. With regard to the image, segmentation of the mask is performed to determine the target area and the background area of the image based on the content of this image. Different color processing modes are applied to the target area and the background area, so that the brightness of the target area becomes higher than the brightness of the background area, or the color saturation in the target area becomes greater than the color saturation in the background area, so that the main object corresponding to the target area is more highlighted. This realizes the special effect of cinema.
На основе способа обработки изображения, рассматриваемого в приведенном выше варианте, один из вариантов настоящего изобретения предлагает аппаратуру 1000 для обработки изображения. Эта аппаратура может быть использована в нескольких терминалах и может быть применена в любой форме реализации терминала 100, например, в терминале, имеющем функцию фотографирования видео. Как показано на Фиг. 10, аппаратура содержит:Based on the image processing method discussed in the above embodiment, one embodiment of the present invention provides an
фотографический модуль 1001, конфигурированный для получения изображения, которое может представлять собой результат фотографирования или фотографирования видео, где этот модуль в частности конфигурирован для осуществления способа согласно этапу 21, этапу 31, этапу 51, этапу 61 или этапу 71 из приведенного выше примера или какого-либо способа, эквивалентного этому способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из запоминающего устройства с целью управления видеокамерой для захвата изображения;
оценочный модуль 1002, конфигурированный для того, чтобы: определить, является ли число мерцающих кадров в совокупности первых N0 кадров относительно текущего кадра больше заданной пороговой величины; и если согласно результату определения число мерцающих кадров не больше заданной пороговой величины, продолжить путем запуска решающего модуля 1003 и модуля 1004 цветовой обработки для осуществления соответствующих функций; или если согласно результату определения число мерцающих кадров больше заданной пороговой величины, продолжить путем запуска модуля 1005 устранения мерцания для осуществления соответствующей функции; и модуль 1002 в частности конфигурирован для осуществления способа согласно этапу 42 в приведенном выше примере и какого-либо способа, который может быть эквивалентен этому указанному способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из запоминающего устройства для выполнения соответствующего алгоритма;an
решающий модуль 1003, конфигурированный для того, чтобы: когда оценочный модуль 1002 определит, что число мерцающих кадров из совокупности первых N0 кадров относительно текущего кадра не больше заданной пороговой величины, определить целевую область и фоновую область в изображении на основе контента этого изображения, где этот модуль в частности конфигурирован для осуществления способа согласно этапу 22, этапу 32, этапу 43, этапу 52, этапу 62 или этапу 72 из приведенного выше примера или какого-либо способа, эквивалентного этому способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из запоминающего устройства для выполнения соответствующего алгоритма; иa
модуль 1004 цветовой обработки, конфигурированный для использования различных режимов цветовой обработки для целевой области и для фоновой области в изображении, так что насыщенность цвета в целевой области становится больше насыщенности цвета в фоновой области, или яркость в целевой области становится выше яркости в фоновой области, где этот модуль в частности конфигурирован для осуществления способа согласно этапу 23, этапу 33, этапу 44, этапу 53, этапу 63 или этапу 73 из приведенного выше примера или какого-либо способа, эквивалентного этому способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из a запоминающего устройства с использованием специального алгоритма; иa
модуль 1005 устранения мерцания, конфигурированный для того, чтобы: когда оценочный модуль 1002 определит, что число мерцающих кадров в совокупности из первых N0 кадров относительно текущего кадра больше заданной пороговой величины, использования одного и того же способа цветовой обработки для всех областей изображения в текущем кадре, где этот один и тот же способ цветовой обработки может быть таким же, как способ цветовой обработки фоновой области в предшествующем кадре, либо может быть таким же, как способ цветовой обработки целевой области в предшествующем кадре, а рассматриваемый модуль специально конфигурирован для осуществления способа согласно этапу 45 из приведенного выше примера или какого-либо способа, эквивалентного этому способу, и этот модуль может быть реализован посредством процессора путем вызова соответствующих программных команд из a запоминающего устройства с использованием специального алгоритма.a
В дополнение к этому, аппаратура 100 может далее содержать модуль 1006 для хранения данных, конфигурированный для сохранения изображения или видео, применительно к которому выполнена цветовая обработка.In addition, apparatus 100 may further comprise a data storage module 1006 configured to store an image or video that has been color processed.
Приведенные выше конкретные примеры способа, пояснения и описания технических признаков вариантов и расширений нескольких форм реализации также применимы к выполнению этого способа в рассматриваемой аппаратуре, так что подробности применительно к этой аппаратуре описаны не будут.The above specific examples of the method, explanations and descriptions of the technical features of variants and extensions of several forms of implementation also apply to the implementation of this method in the considered equipment, so details in relation to this equipment will not be described.
Настоящее изобретение предлагает аппаратуру для обработки изображения. Применительно к изображению осуществляют сегментацию маски с целью определения целевой области и фоновой области изображения на основе контента этого изображения. К целевой области и к фоновой области применяют различные режимы цветовой обработки, так что яркость целевой области становится выше яркости фоновой области, либо насыщенность цвета в целевой области становится больше насыщенности цвета в фоновой области, вследствие чего главный объект, соответствующий целевой области оказывается более выделенным. Этим реализуется специальный эффект кино.The present invention provides an image processing apparatus. With regard to the image, segmentation of the mask is performed to determine the target area and the background area of the image based on the content of this image. Different color processing modes are applied to the target area and the background area, so that the brightness of the target area becomes higher than the brightness of the background area, or the color saturation in the target area becomes greater than the color saturation in the background area, so that the main object corresponding to the target area is more highlighted. This realizes the special effect of cinema.
Следует понимать, что разбиение рассмотренной выше аппаратуры на модули является всего лишь разбиением логических функций. В фактическом варианте реализации некоторые или все модули могут быть интегрированы в одном физическом объекте, либо могут быть выполнены физически раздельно. Например, каждый из упомянутых выше модулей может представлять собой отдельный процессорный элемент, либо он может быть интегрирован на кристалле интегральной схемы в аппаратуре терминала или может быть сохранен в запоминающем элементе контроллера в форме программного кода. Процессорный элемент процессора вызывает и выполняет функцию каждого из упомянутых выше модулей. В дополнение к этому, перечисленные модули могут быть интегрированы, либо могут быть реализованы независимо. Здесь процессорный элемент может представлять собой кристалл интегральной схемы и обладать способностью обработки сигналов. В процессе реализации этапы приведенных выше способов или перечисленные выше модули могут быть осуществлены с использованием аппаратных интегральных логических схем в процессорном элементе, либо с применением команд в форме программного обеспечения. Процессорный элемент может представлять собой процессор общего назначения, например, центральный процессор (English: central processing unit, сокращенно CPU), или может быть выполнен в виде одной или нескольких интегральных схем, конфигурированных для осуществления приведенных выше способов, например, одной или нескольких специализированных интегральных схем (English: application-specific integrated circuit, сокращенно ASIC), или одного или нескольких микропроцессоров или цифровых процессоров сигнала (English: digital signal processor, сокращенно DSP), или одной или нескольких программируемых пользователем вентильных матриц (English: field-programmable gate array, сокращенно FPGA).It should be understood that the division of the equipment discussed above into modules is only a division of logical functions. In an actual implementation, some or all of the modules may be integrated in a single physical entity, or may be physically separate. For example, each of the modules mentioned above may be a separate processing element, or it may be integrated on an integrated circuit chip in the terminal hardware, or may be stored in a memory element of the controller in the form of program code. The processing element of the processor calls and executes the function of each of the modules mentioned above. In addition, the listed modules may be integrated or may be implemented independently. Here, the processing element may be an integrated circuit chip and have signal processing capability. During implementation, the steps of the above methods or the above modules may be implemented using hardware integrated logic circuits in the processing element, or using instructions in the form of software. The processing element may be a general purpose processor, such as a central processing unit (CPU), or may be one or more integrated circuits configured to implement the above methods, such as one or more application specific integrated circuits. circuits (English: application-specific integrated circuit, abbreviated ASIC), or one or more microprocessors or digital signal processors (English: digital signal processor, abbreviated DSP), or one or more field-programmable gate arrays (English: field-programmable gate array , FPGA for short).
Следует понимать, что в описании, Формуле изобретения и на прилагаемых чертежах настоящего изобретения термины «первый», «второй» и другие подобные термины предназначены для различения между аналогичными объектами, но не обязательно обозначают конкретный порядок или последовательность. Следует понимать, что данные, обозначенные таким способом, являются взаимозаменяемыми в соответствующих обстоятельствах, так что описываемые здесь варианты могут быть реализованы в другом порядке, отличном от порядка, иллюстрируемого или описываемого здесь. В дополнение к этому, термины «включает (в себя)», «содержит» и какие-либо другие варианты предназначены для охвата неисключительного включения, например, процесс, способ, система, продукт или устройство, имеющие некоторый перечень этапов или модулей, не обязательно ограничиваются только явно перечисленными в этом перечне этапами или модулями, а могут содержать также другие этапы или модули, которые не были явно перечислены или которые по природе присущи такому процессу, способу, продукту или устройству.It should be understood that in the description, the Claims and the accompanying drawings of the present invention, the terms "first", "second" and other similar terms are intended to distinguish between like objects, but do not necessarily indicate a specific order or sequence. It should be understood that data so designated are interchangeable in appropriate circumstances, so that the options described here may be implemented in a different order than the order illustrated or described here. In addition, the terms "includes", "comprises" and any other variations are intended to cover a non-exclusive inclusion, for example, a process, method, system, product or device having some list of steps or modules, not necessarily are limited only to the steps or modules explicitly listed in this list, and may also contain other steps or modules that have not been explicitly listed or that are inherent in such a process, method, product or device.
Специалист в рассматриваемой области должен понимать, что варианты настоящего изобретения могут быть реализованы в виде способа, системы или компьютерного программного продукта. Поэтому настоящее изобретение может использовать форму чисто аппаратных вариантов, чисто программных вариантов или вариантов, представляющих собой комбинацию аппаратуры с программным обеспечением. Более того, настоящее изобретение может использовать форму компьютерного программного продукта, реализованного на одном или нескольких используемых компьютером носителей для хранения информации (включая, но не ограничиваясь, дисковое запоминающее устройство, CD-ROM, оптическое запоминающее устройство и другие подобные устройства), содержащих используемых компьютером программный код.One skilled in the art will understand that embodiments of the present invention may be implemented as a method, system, or computer program product. Therefore, the present invention may take the form of purely hardware variants, purely software variants, or variants that are a combination of hardware and software. Moreover, the present invention may take the form of a computer program product embodied on one or more computer-usable storage media (including, but not limited to, disk storage, CD-ROM, optical storage, and the like) containing computer-usable program code.
Настоящее изобретение описано со ссылками на логические схемы и/или блок-схемы способа, устройства (системы) и компьютерного программного продукта согласно вариантам настоящего изобретения. Следует понимать, что компьютерные программные команды могут быть использованы для реализации каждого процесса и/или каждого блока в логических схемах и/или в блок-схемах и комбинации процесса и/или блока на логических схемах и/или блок-схемах. Эти компьютерные программные команды могут быть предназначены для компьютера общего назначения, компьютера специального назначения, встроенного процессора или процессора другого программируемого устройства обработки данных для генерации машины, так что эти команды при выполнении компьютером или процессором другого программируемого устройства обработки данных генерируют аппаратуру для осуществления конкретной функции в одном или нескольких процессах из логических схем и/или в одном или нескольких блоках из блок-схем.The present invention has been described with reference to logic diagrams and/or flowcharts of a method, apparatus (system), and computer program product according to embodiments of the present invention. It should be understood that computer program instructions may be used to implement each process and/or each block in logic diagrams and/or block diagrams, and the combination of the process and/or block in logic diagrams and/or block diagrams. These computer program instructions may be intended for a general purpose computer, a special purpose computer, an embedded processor, or a processor of another programmable data processing device to generate a machine such that these instructions, when executed by a computer or processor of another programmable data processing device, generate hardware to perform a particular function in one or more processes from the logic diagrams and/or in one or more blocks from the block diagrams.
Эти компьютерные программные команды могут быть сохранены в читаемом компьютером запоминающем устройстве и могут инструктировать компьютер или другое программируемое устройство обработки данных работать конкретным образом, так что команды, сохраняемые в читаемом компьютером запоминающем устройстве, генерируют артефакт, содержащий командную аппаратуру. Эта командная аппаратура реализует конкретную функцию в одном или нескольких процессах из логических схем и/или в одном или нескольких блоках из блок-схем.These computer program instructions may be stored in a computer readable storage device and may instruct a computer or other programmable processing device to operate in a particular manner such that the instructions stored in the computer readable storage device generate an artifact containing the command hardware. This command hardware implements a specific function in one or more of the processes from the logic diagrams and/or in one or more blocks from the block diagrams.
Эти компьютерные программные команды могут быть, в качестве альтернативы, загружены в компьютер или в другое программируемое устройство обработки данных, так что этот компьютер или это программируемое устройство обработки данных осуществляет последовательность операций и этапов, генерируя тем самым реализуемую компьютером обработку. Поэтому команды, выполняемые компьютером или другим программируемым устройством обработки данных, формируют этапы для реализации конкретной функции в одном или нескольких процессах из логических схем и/или в одном или нескольких блоках в логических схемах.These computer program instructions may alternatively be loaded into a computer or other programmable data processing device such that the computer or programmable data processing device performs a series of operations and steps, thereby generating computer-implemented processing. Therefore, instructions executed by a computer or other programmable data processing device form steps for implementing a particular function in one or more processes of the logic circuits and/or in one or more blocks in the logic circuits.
Хотя здесь были описаны некоторые варианты настоящего изобретения, специалисты в рассматриваемой области могут внести в эти варианты различные изменения и модификации после изучения базовых концепций изобретения. Поэтому прилагаемую Формулу изобретения следует толковать так, что она охватывает перечисленные варианты и что все изменения и модификации попадают в объем настоящего изобретения. Очевидно, что специалист в рассматриваемой области может внести разнообразные модификации и вариации в варианты настоящего изобретения, не отклоняясь от смысла и объема этих вариантов изобретения. Настоящее изобретение предназначено охватывать эти модификации и вариации в предположении, что они попадают в объем защиты, определяемый прилагаемой Формулой изобретения и эквивалентными ей технологиями.While some embodiments of the present invention have been described herein, various changes and modifications may be made to those variations by those skilled in the art after learning the basic concepts of the invention. Therefore, the appended claims are to be construed to cover the listed variations and that all changes and modifications fall within the scope of the present invention. Obviously, a person skilled in the art can make various modifications and variations in the embodiments of the present invention, without deviating from the meaning and scope of these embodiments of the invention. The present invention is intended to cover these modifications and variations on the assumption that they fall within the protection scope of the appended claims and equivalent technologies.
Claims (153)
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811199216.X | 2018-10-15 |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2021113673A RU2021113673A (en) | 2022-11-17 |
RU2791810C2 true RU2791810C2 (en) | 2023-03-13 |
Family
ID=
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2823046C1 (en) * | 2023-10-31 | 2024-07-17 | Мурат Юрьевич Шхануков | Complex for obtaining photo and video image using unmanned aerial vehicle |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2454043C2 (en) * | 2009-12-30 | 2012-06-20 | Юрий Алексеевич Громаков | Method for data transmission via cellular communication system and system for its implementation |
CN106407369A (en) * | 2016-09-09 | 2017-02-15 | 华南理工大学 | Photo management method and system based on deep learning face recognition |
CN107507214A (en) * | 2017-07-06 | 2017-12-22 | 北京华泰诺安探测技术有限公司 | The method and apparatus for obtaining goods image |
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2454043C2 (en) * | 2009-12-30 | 2012-06-20 | Юрий Алексеевич Громаков | Method for data transmission via cellular communication system and system for its implementation |
CN106407369A (en) * | 2016-09-09 | 2017-02-15 | 华南理工大学 | Photo management method and system based on deep learning face recognition |
CN107507214A (en) * | 2017-07-06 | 2017-12-22 | 北京华泰诺安探测技术有限公司 | The method and apparatus for obtaining goods image |
Non-Patent Citations (2)
Title |
---|
https://stackoverflow.com/questions/37949386/type-of-recognition-of-convolution-neural-network. https://www.rbc.ru/own_business/31/07/2017/5978ae349a7947f10c436ce2. http://winlined.ru/articles/Izmenenie_fonovogo_izobrazheniya_Launchpad_v_OS_X.php. https://alimero.ru/blog/hobby/effekt-razmitiya-fona-bokeh-v-photoshop.23558.html. * |
https://www.internet-technologies.ru/articles/kak-ispolzovat-instrument-tekst-v-photoshop.html. * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2823046C1 (en) * | 2023-10-31 | 2024-07-17 | Мурат Юрьевич Шхануков | Complex for obtaining photo and video image using unmanned aerial vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12026863B2 (en) | Image processing method and apparatus, and device | |
US12079974B2 (en) | Image processing method and apparatus, and device | |
WO2021036715A1 (en) | Image-text fusion method and apparatus, and electronic device | |
CN111669493A (en) | Shooting method, device and equipment | |
WO2020192692A1 (en) | Image processing method and related apparatus | |
WO2023015997A1 (en) | Video editing method and video editing apparatus | |
CN117745620B (en) | Image processing method and electronic equipment | |
CN108259771A (en) | Image processing method, image processing apparatus, storage medium, and electronic device | |
RU2791810C2 (en) | Method, equipment and device for image processing | |
RU2794062C2 (en) | Image processing device and method and equipment | |
CN116721257A (en) | Image processing method, electronic device and computer-readable storage medium | |
AU2019363031B9 (en) | Image processing method and apparatus, and device | |
CN119277194A (en) | Image processing method, electronic device, computer program product and storage medium | |
CN117135438A (en) | Image processing method and electronic equipment | |
CN115526788A (en) | Image processing method and device | |
CN116723417A (en) | An image processing method and electronic device |