[go: up one dir, main page]

KR102904535B1 - An electronic device for proccesing an image and a method thereof - Google Patents

An electronic device for proccesing an image and a method thereof

Info

Publication number
KR102904535B1
KR102904535B1 KR1020200016134A KR20200016134A KR102904535B1 KR 102904535 B1 KR102904535 B1 KR 102904535B1 KR 1020200016134 A KR1020200016134 A KR 1020200016134A KR 20200016134 A KR20200016134 A KR 20200016134A KR 102904535 B1 KR102904535 B1 KR 102904535B1
Authority
KR
South Korea
Prior art keywords
image processing
interest
region
image
processing model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020200016134A
Other languages
Korean (ko)
Other versions
KR20210101768A (en
Inventor
임성준
김영조
박현희
이아랑
전형주
최종범
한창수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200016134A priority Critical patent/KR102904535B1/en
Priority to PCT/KR2021/000914 priority patent/WO2021162273A1/en
Publication of KR20210101768A publication Critical patent/KR20210101768A/en
Application granted granted Critical
Publication of KR102904535B1 publication Critical patent/KR102904535B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

본 개시의 다양한 실시 예들은 딥-러닝을 기반으로 관심 영역의 이미지를 처리하기 위한 이미지 처리 모델을 선택적으로 적용하는 전자 장치 및 그 제어 방법에 관한 것이다.
이를 위해, 전자 장치는 입력 이미지로부터 딥-러닝을 기반으로 화질 처리할 관심 영역을 설정하고, 메모리의 사용량과 상기 관심 영역의 크기를 고려하여 서로 다른 배치 크기를 갖는 복수의 이미지 처리 모델들 중 하나를 선택 이미지 처리 모델로 지정할 수 있다. 상기 전자 장치에서는 상기 관심 영역의 이미지에 대하여 상기 선택 이미지 처리 모델을 적용한 딥-러닝을 기반으로 화질 처리를 수행하는 동작을 수행할 수 있다. 이외에 다양한 실시 예들이 가능할 수 있다.
Various embodiments of the present disclosure relate to an electronic device and a control method thereof that selectively applies an image processing model for processing an image of a region of interest based on deep learning.
To this end, the electronic device may set a region of interest to be image-quality processed based on deep learning from an input image, and designate one of a plurality of image processing models with different batch sizes as the selected image processing model, taking into account the memory usage and the size of the region of interest. The electronic device may perform an operation of performing image-quality processing based on deep learning by applying the selected image processing model to the image of the region of interest. In addition, various other embodiments may be possible.

Description

이미지 처리를 수행하는 전자 장치 및 그 방법{AN ELECTRONIC DEVICE FOR PROCCESING AN IMAGE AND A METHOD THEREOF}{AN ELECTRONIC DEVICE FOR PROCCESING AN IMAGE AND A METHOD THEREOF}

본 개시의 다양한 실시 예들은 딥-러닝(deep-learning)을 기반으로 관심 영역(region of interest, RoI)의 이미지를 처리하는 전자 장치 및 그 제어 방법에 관한 것이다.Various embodiments of the present disclosure relate to an electronic device for processing an image of a region of interest (RoI) based on deep learning and a control method thereof.

통신 기술은 시간적 또는 공간적인 제약없이 원하는 정보와 데이터를 얻을 수 있도록, 빠르게 발전하고 있다. 하나의 예로, 최근 상용화가 이루어진 새로운 무선(new radio, NR) 통신 시스템(예: 5th-generation 통신 시스템 또는 pre-5G 통신 시스템)이 있다. NR 통신 시스템은 그 이전 통신 시스템(예: 4G(4th-generation) 통신 시스템)에서 증가 추세에 있는 무선 트래픽 수요를 충족시키기 위하여 개발 및 상용화되었다. 이러한 이유로, NR 통신 시스템은 4G 네트워크 이후(beyond 4G network) 통신 시스템 또는 LTE 시스템 이후(post LTE)의 시스템이라 불리기도 한다.Communication technologies are rapidly evolving to enable the acquisition of desired information and data without temporal or spatial constraints. One example is the recently commercialized new radio (NR) communication system (e.g., 5th- generation, or pre-5G, communication system). NR communication systems were developed and commercialized to meet the increasing demand for wireless traffic compared to previous communication systems (e.g., 4th - generation, or 4G, communication systems). For this reason, NR communication systems are also referred to as "beyond 4G networks" or "post-LTE" systems.

통신 기술의 발전은 디지털 경제의 확산으로 수치, 문자, 영상과 같은 다양한 형태의 데이터를 포괄적으로 수집하여 '빅데이터(big data)' 환경을 기반을 만들 수 있게 되었다. 또한, 빅데이터 환경은 정보 또는 데이터의 가공 및 활용을 통한 인공 지능(artificial intelligence, AI) 또는 딥-러닝(deep-learning)이 가능할 수 있도록 하였다.Advances in communications technology, coupled with the proliferation of the digital economy, have enabled the comprehensive collection of diverse data formats, including numbers, text, and images, creating a foundation for a "big data" environment. Furthermore, this big data environment has enabled artificial intelligence (AI) and deep learning through the processing and utilization of information and data.

딥-러닝은 사물이나 데이터를 군집화하거나 분류하는 데 사용될 수 있다. 상기 딥-러닝은 이미지를 처리하는 기술에도 적용될 수 있다. 상기 딥-러닝을 기반으로 하는 이미지 처리 기술에서는 이미지 전체를 입력으로 사용하거나 고정된 크기의 블록을 입력으로 사용하여 결과물을 출력할 수 있다. 따라서 이미지를 처리하는 전자 장치에서는 하나의 이미지 처리 엔진 또는 두 개의 이미지 처리 엔진을 사용할 경우에 처리 속도 또는 메모리 사용에 있어 한계에 도달할 수도 있다.Deep learning can be used to cluster or classify objects or data. Deep learning can also be applied to image processing technologies. Image processing technologies based on deep learning can use either the entire image as input or fixed-size blocks to produce output. Therefore, electronic devices that process images may reach limits in processing speed or memory usage when using one or two image processing engines.

본 개시의 다양한 실시 예에 따르면, 딥-러닝을 기반으로 관심 영역의 이미지를 처리하기 위한 이미지 처리 모델을 선택적으로 적용하는 전자 장치 및 그 제어 방법을 제공할 수 있다.According to various embodiments of the present disclosure, an electronic device and a control method thereof can be provided that selectively applies an image processing model for processing an image of a region of interest based on deep learning.

본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 아래 기재에서 제안될 다양한 실시 예들이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 명확하게 이해될 수 있을 범위에서 다른 기술적 과제들이 예측될 수도 있을 것이다.The technical task to be achieved in this document is not limited to the technical task mentioned above, and other technical tasks may be anticipated within a scope that can be clearly understood by a person of ordinary skill in the technical field to which the various embodiments proposed in the description below belong.

본 개시의 다양한 실시 예에 따른 전자 장치는, 메모리, 카메라 모듈, 통신 모듈 및 상기 메모리, 상기 카메라 모듈 또는 상기 통신 모듈 중 적어도 하나로부터 제공된 입력 이미지에 대한 딥-러닝을 기반으로 화질 처리를 수행하는 적어도 하나의 프로세서를 포함하며, 여기서, 상기 메모리는, 실행 시에 상기 적어도 하나의 프로세서가, 상기 입력 이미지로부터 화질 조정을 위한 관심 영역을 설정하고, 상기 메모리의 사용량과 상기 관심 영역의 크기를 고려하여 서로 다른 배치 크기(batch size)를 갖는 복수의 이미지 처리 모델들 중 하나를 선택 이미지 처리 모델로 결정하며, 상기 관심 영역의 이미지에 대하여 상기 선택 이미지 처리 모델을 적용한 딥-러닝을 기반으로 화질 처리를 수행하도록 하는 인스트럭션들을 저장할 수 있다.According to various embodiments of the present disclosure, an electronic device includes a memory, a camera module, a communication module, and at least one processor that performs image quality processing based on deep learning on an input image provided from at least one of the memory, the camera module, or the communication module, wherein the memory may store instructions that, when executed, cause the at least one processor to set a region of interest for image quality adjustment from the input image, determine one of a plurality of image processing models having different batch sizes as a selected image processing model in consideration of the usage amount of the memory and the size of the region of interest, and perform image quality processing based on deep learning by applying the selected image processing model to an image of the region of interest.

본 개시의 다양한 실시 예에 따른, 전자 장치에서 딥-러닝을 기반으로 화질 처리를 수행하는 방법은, 입력 이미지로부터 상기 딥-러닝을 기반으로 화질 처리할 관심 영역을 설정하는 동작과, 메모리의 사용량과 상기 관심 영역의 크기를 고려하여 서로 다른 배치 크기(batch size)를 갖는 복수의 이미지 처리 모델들 중 하나를 선택 이미지 처리 모델로 결정하는 동작 및 상기 관심 영역의 이미지에 대하여 상기 선택 이미지 처리 모델을 적용한 딥-러닝을 기반으로 화질 처리를 수행하는 동작을 포함할 수 있다.According to various embodiments of the present disclosure, a method for performing image quality processing based on deep learning in an electronic device may include an operation of setting a region of interest to be image quality processed based on deep learning from an input image, an operation of determining one of a plurality of image processing models having different batch sizes as a selected image processing model by considering the amount of memory used and the size of the region of interest, and an operation of performing image quality processing based on deep learning by applying the selected image processing model to an image of the region of interest.

본 개시의 다양한 실시 예들에 따르면, 전자 장치에서 딥-러닝을 기반으로 이미지를 처리할 시, 관심 영역의 이미지에 대한 최적의 일괄 처리 영역에 해당하는 배치 크기(batch size)를 갖는 이미지 처리 모델을 적용함으로써, 이미지 처리를 위한 효율적인 메모리 사용 또는 이미지 처리 속도를 보장할 수 있도록 하였다.According to various embodiments of the present disclosure, when processing an image based on deep learning in an electronic device, an image processing model having a batch size corresponding to an optimal batch processing area for an image of a region of interest is applied, thereby ensuring efficient memory usage or image processing speed for image processing.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 아래 기재에서 제안될 다양한 실시 예들이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 명확하게 이해될 수 있을 범위에서 다른 효과들이 예측될 수도 있을 것이다.The effects that can be obtained from the present disclosure are not limited to the effects mentioned above, and other effects may be predicted within a range that can be clearly understood by a person having ordinary skill in the art to which the various embodiments proposed in the description below belong.

도 1은 본 개시의 다양한 실시 예들에 따른, 네트워크 환경 내의 전자 장치(101)의 블록 구성을 도시한 도면;
도 2는 본 개시의 다양한 실시예들에 따른, 카메라 모듈(180)을 예시하는 블록 구성(200)을 도시한 도면;
도 3은 본 개시의 다양한 실시 예들에 따라, 전자 장치(101)에서 딥-러닝을 기반으로 하는 이미지 처리에 적용 가능한 이미지 처리 모델들(300)의 예를 도시한 도면;
도 4는 본 개시의 다양한 실시 예들에 따라, 전자 장치(101)에서 딥-러닝을 기반으로 하는 이미지 처리에 적용될 이미지 처리 모델을 선택하는 예를 도시한 도면;
도 5는 본 개시의 다양한 실시 예들에 따른, 모델 선택 모듈(410)을 예시하는 블록 구성(500)을 도시한 도면;
도 6은 본 개시의 다양한 실시 예들에 따라, 전자 장치(101)에서 딥-러닝을 기반으로 이미지 처리를 수행하는 제어 흐름(600)을 도시한 도면;
도 7은 본 개시의 다양한 실시 예들에 따라, 전자 장치(101)에서 관심 영역에 대하여 이미지 처리를 수행하는 일 예를 도시한 도면;
도 8은 본 개시의 다양한 실시 예들에 따라, 전자 장치(101)에서 관심 영역에 대하여 이미지 처리를 수행하는 다른 예를 도시한 도면; 및
도 9는 본 개시의 다양한 실시 예들에 따라, 전자 장치(101)에서 관심 영역에 대하여 이미지 처리를 수행하는 또 다른 예를 도시한 도면이다.
FIG. 1 is a block diagram illustrating a configuration of an electronic device (101) within a network environment according to various embodiments of the present disclosure;
FIG. 2 is a block diagram illustrating a camera module (180) according to various embodiments of the present disclosure;
FIG. 3 is a diagram illustrating examples of image processing models (300) applicable to image processing based on deep learning in an electronic device (101), according to various embodiments of the present disclosure;
FIG. 4 is a diagram illustrating an example of selecting an image processing model to be applied to deep-learning-based image processing in an electronic device (101) according to various embodiments of the present disclosure;
FIG. 5 is a block diagram (500) illustrating a model selection module (410) according to various embodiments of the present disclosure;
FIG. 6 is a diagram illustrating a control flow (600) for performing image processing based on deep learning in an electronic device (101) according to various embodiments of the present disclosure;
FIG. 7 is a diagram illustrating an example of performing image processing on a region of interest in an electronic device (101) according to various embodiments of the present disclosure;
FIG. 8 is a diagram illustrating another example of performing image processing on a region of interest in an electronic device (101) according to various embodiments of the present disclosure; and
FIG. 9 is a diagram illustrating another example of performing image processing on a region of interest in an electronic device (101) according to various embodiments of the present disclosure.

이하, 첨부 도면을 참조하여, 본 개시에서 제안될 다양한 실시 예에 대해 상세히 설명하면 다음과 같다. 다만, 설명의 편의를 위하여 도면에서는 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타낸 것으로, 본 개시에서 제안될 다양한 실시 예가 반드시 도시된 바에 한정되지 않음을 유념하여야 할 것이다.Hereinafter, various embodiments proposed in the present disclosure will be described in detail with reference to the attached drawings. However, for convenience of explanation, the sizes of components in the drawings may be exaggerated or reduced. For example, the sizes and thicknesses of each component shown in the drawings are arbitrarily shown for convenience of explanation, and it should be noted that the various embodiments proposed in the present disclosure are not necessarily limited to those illustrated.

도 1은 본 개시의 다양한 실시 예들에 따른, 네트워크 환경 내의 전자 장치(101)의 블록 구성을 도시한 도면이다. FIG. 1 is a diagram illustrating a block configuration of an electronic device (101) within a network environment according to various embodiments of the present disclosure.

도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다.Referring to FIG. 1, in a network environment (100), an electronic device (101) may communicate with an electronic device (102) via a first network (198) (e.g., a short-range wireless communication network), or may communicate with an electronic device (104) or a server (108) via a second network (199) (e.g., a long-range wireless communication network). According to one embodiment, the electronic device (101) may communicate with the electronic device (104) via the server (108). According to one embodiment, the electronic device (101) may include a processor (120), a memory (130), an input device (150), an audio output device (155), a display device (160), an audio module (170), a sensor module (176), an interface (177), a haptic module (179), a camera module (180), a power management module (188), a battery (189), a communication module (190), a subscriber identification module (196), or an antenna module (197). In some embodiments, the electronic device (101) may omit at least one of these components (e.g., the display device (160) or the camera module (180)), or may have one or more other components added. In some embodiments, some of these components may be implemented as a single integrated circuit. For example, a sensor module (176) (e.g., a fingerprint sensor, an iris sensor, or an ambient light sensor) may be implemented embedded in a display device (160) (e.g., a display).

프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor (120) may control at least one other component (e.g., a hardware or software component) of the electronic device (101) connected to the processor (120) by executing, for example, software (e.g., a program (140)), and may perform various data processing or calculations. According to one embodiment, as at least a part of the data processing or calculation, the processor (120) may load a command or data received from another component (e.g., a sensor module (176) or a communication module (190)) into a volatile memory (132), process the command or data stored in the volatile memory (132), and store the resulting data in a non-volatile memory (134). According to one embodiment, the processor (120) may include a main processor (121) (e.g., a central processing unit or an application processor), and a secondary processor (123) (e.g., a graphics processing unit, an image signal processor, a sensor hub processor, or a communication processor) that may operate independently or together therewith. Additionally or alternatively, the auxiliary processor (123) may be configured to use less power than the main processor (121) or to be specialized for a given function. The auxiliary processor (123) may be implemented separately from the main processor (121) or as part of it.

보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. The auxiliary processor (123) may control at least a portion of functions or states associated with at least one component (e.g., a display device (160), a sensor module (176), or a communication module (190)) of the electronic device (101), for example, on behalf of the main processor (121) while the main processor (121) is in an inactive (e.g., sleep) state, or together with the main processor (121) while the main processor (121) is in an active (e.g., application execution) state. In one embodiment, the auxiliary processor (123) (e.g., an image signal processor or a communication processor) may be implemented as a part of another functionally related component (e.g., a camera module (180) or a communication module (190)).

메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory (130) can store various data used by at least one component (e.g., processor (120) or sensor module (176)) of the electronic device (101). The data can include, for example, software (e.g., program (140)) and input data or output data for commands related thereto. The memory (130) can include volatile memory (132) or non-volatile memory (134).

프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program (140) may be stored as software in memory (130) and may include, for example, an operating system (142), middleware (144), or an application (146).

입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input device (150) can receive commands or data to be used in a component of the electronic device (101) (e.g., a processor (120)) from an external source (e.g., a user) of the electronic device (101). The input device (150) can include, for example, a microphone, a mouse, a keyboard, or a digital pen (e.g., a stylus pen).

음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The audio output device (155) can output audio signals to the outside of the electronic device (101). The audio output device (155) can include, for example, a speaker or a receiver. The speaker can be used for general purposes, such as multimedia playback or recording playback, and the receiver can be used to receive incoming calls. According to one embodiment, the receiver can be implemented separately from the speaker or as part of the speaker.

표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다. A display device (160) can visually provide information to an external party (e.g., a user) of an electronic device (101). The display device (160) may include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device. According to one embodiment, the display device (160) may include touch circuitry configured to detect a touch, or a sensor circuit (e.g., a pressure sensor) configured to measure the intensity of a force generated by the touch.

오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.The audio module (170) can convert sound into an electrical signal, or vice versa, convert an electrical signal into sound. According to one embodiment, the audio module (170) can acquire sound through an input device (150), or output sound through an audio output device (155), or an external electronic device (e.g., an electronic device (102)) (e.g., a speaker or headphone)) directly or wirelessly connected to the electronic device (101).

센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module (176) can detect the operating status (e.g., power or temperature) of the electronic device (101) or the external environmental status (e.g., user status) and generate an electrical signal or data value corresponding to the detected status. According to one embodiment, the sensor module (176) can include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor.

인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD 카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface (177) may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device (101) with an external electronic device (e.g., the electronic device (102)). In one embodiment, the interface (177) may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal (178) may include a connector through which the electronic device (101) may be physically connected to an external electronic device (e.g., electronic device (102)). According to one embodiment, the connection terminal (178) may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (e.g., a headphone connector).

햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.A haptic module (179) can convert electrical signals into mechanical stimuli (e.g., vibration or movement) or electrical stimuli that a user can perceive through tactile or kinesthetic sensations. According to one embodiment, the haptic module (179) can include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module (180) can capture still images and videos. According to one embodiment, the camera module (180) may include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module (188) can manage power supplied to the electronic device (101). According to one embodiment, the power management module (188) can be implemented as, for example, at least a part of a power management integrated circuit (PMIC).

배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.A battery (189) may power at least one component of the electronic device (101). In one embodiment, the battery (189) may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.

통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104)), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다. The communication module (190) may support the establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (101) and an external electronic device (e.g., electronic device (102), electronic device (104)), or server (108), and the performance of communication through the established communication channel. The communication module (190) may operate independently from the processor (120) (e.g., application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module (190) may include a wireless communication module (192) (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module (194) (e.g., a local area network (LAN) communication module, or a power line communication module). Any of these communication modules may communicate with an external electronic device via a first network (198) (e.g., a short-range communication network such as Bluetooth, WiFi direct, or infrared data association (IrDA)) or a second network (199) (e.g., a long-range communication network such as a cellular network, the Internet, or a computer network (e.g., a LAN or WAN)). These various types of communication modules may be integrated into a single component (e.g., a single chip) or implemented as multiple separate components (e.g., multiple chips). The wireless communication module (192) may use subscriber information stored in the subscriber identification module (196) (e.g., an international mobile subscriber identity (IMSI)) to identify and authenticate the electronic device (101) within a communication network such as the first network (198) or the second network (199).

안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들 중에서 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: radio frequency integrated circuit(RFIC))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.The antenna module (197) can transmit or receive signals or power to or from an external device (e.g., an external electronic device). In one embodiment, the antenna module (197) may include one antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (e.g., a PCB). In one embodiment, the antenna module (197) may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network, such as the first network (198) or the second network (199), may be selected from among the plurality of antennas, for example, by the communication module (190). A signal or power may be transmitted or received between the communication module (190) and the external electronic device via the selected at least one antenna. In some embodiments, in addition to the radiator, another component (e.g., a radio frequency integrated circuit (RFIC)) may be additionally formed as a part of the antenna module (197).

상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the above components can be interconnected and exchange signals (e.g., commands or data) with each other via a communication method between peripheral devices (e.g., a bus, GPIO (general purpose input and output), SPI (serial peripheral interface), or MIPI (mobile industry processor interface)).

일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치는 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.According to one embodiment, commands or data may be transmitted or received between the electronic device (101) and an external electronic device (104) via a server (108) connected to a second network (199). Each of the electronic devices (102, 104) may be the same or a different type of device as the electronic device (101). According to one embodiment, all or part of the operations executed in the electronic device (101) may be executed in one or more of the external electronic devices (102, 104, or 108). For example, when the electronic device (101) is to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device (101) may, instead of or in addition to executing the function or service itself, request one or more external electronic devices to perform the function or at least a part of the service. One or more external electronic devices receiving the request may execute at least a portion of the requested function or service, or additional functions or services related to the request, and transmit the results of the execution to the electronic device (101). The electronic device (101) may process the results, either as is or additionally, and provide them as at least a portion of a response to the request. For this purpose, cloud computing, distributed computing, or client-server computing technologies may be utilized, for example.

도 2는, 본 개시의 다양한 실시 예들에 따른, 카메라 모듈(180)을 예시하는 블록 구성(200)을 도시한 도면이다. FIG. 2 is a diagram illustrating a block configuration (200) exemplifying a camera module (180) according to various embodiments of the present disclosure.

도 2를 참조하면, 카메라 모듈(180)은 렌즈 어셈블리(210), 플래쉬(220), 이미지 센서(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(260)를 포함할 수 있다. 렌즈 어셈블리(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 복수의 렌즈 어셈블리(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(180)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)를 형성할 수 있다. 복수의 렌즈 어셈블리(210)들 중 일부는 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리의 렌즈 속성들과 다른 하나 이상의 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다. Referring to FIG. 2, the camera module (180) may include a lens assembly (210), a flash (220), an image sensor (230), an image stabilizer (240), a memory (250) (e.g., a buffer memory), or an image signal processor (260). The lens assembly (210) may collect light emitted from a subject that is a target of image capturing. The lens assembly (210) may include one or more lenses. According to one embodiment, the camera module (180) may include a plurality of lens assemblies (210). In this case, the camera module (180) may form, for example, a dual camera, a 360-degree camera, or a spherical camera. Some of the plurality of lens assemblies (210) may have the same lens properties (e.g., angle of view, focal length, autofocus, f-number, or optical zoom), or at least one lens assembly may have one or more lens properties that are different from the lens properties of the other lens assemblies. A lens assembly (210) may include, for example, a wide-angle lens or a telephoto lens.

플래쉬(220)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 일실시예에 따르면, 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다. 이미지 센서(230)는 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(210)를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일실시예에 따르면, 이미지 센서(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서를 이용하여 구현될 수 있다.The flash (220) can emit light used to enhance light emitted or reflected from a subject. According to one embodiment, the flash (220) can include one or more light-emitting diodes (e.g., red-green-blue (RGB) LED, white LED, infrared LED, or ultraviolet LED), or a xenon lamp. The image sensor (230) can acquire an image corresponding to the subject by converting light emitted or reflected from the subject and transmitted through the lens assembly (210) into an electrical signal. According to one embodiment, the image sensor (230) can include one image sensor selected from among image sensors having different properties, such as an RGB sensor, a black and white (BW) sensor, an IR sensor, or a UV sensor, a plurality of image sensors having the same property, or a plurality of image sensors having different properties. Each image sensor included in the image sensor (230) can be implemented using, for example, a CCD (charged coupled device) sensor or a CMOS (complementary metal oxide semiconductor) sensor.

이미지 스태빌라이저(240)는 카메라 모듈(180) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 렌즈 어셈블리(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(230)를 특정한 방향으로 움직이거나 이미지 센서(230)의 동작 특성을 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 이는 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향의 적어도 일부를 보상하게 해 준다. 일실시예에 따르면, 이미지 스태빌라이저(240)는, 일실시예에 따르면, 이미지 스태빌라이저(240)은 카메라 모듈(180)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(180) 또는 전자 장치(101)의 그런 움직임을 감지할 수 있다. 일실시예에 따르면, 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있다. 메모리(250)는 이미지 센서(230)을 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: Bayer-patterned 이미지 또는 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 표시 장치(160)을 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(260)에 의해 획득되어 처리될 수 있다. 일실시예에 따르면, 메모리(250)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.The image stabilizer (240) can move at least one lens or image sensor (230) included in the lens assembly (210) in a specific direction or control the operating characteristics of the image sensor (230) (e.g., adjusting the read-out timing, etc.) in response to the movement of the camera module (180) or the electronic device (101) including the same. This allows compensating for at least some of the negative effects of the movement on the captured image. In one embodiment, the image stabilizer (240) can detect such movement of the camera module (180) or the electronic device (101) using a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module (180). In one embodiment, the image stabilizer (240) can be implemented as, for example, an optical image stabilizer. The memory (250) can temporarily store at least a portion of the image acquired through the image sensor (230) for the next image processing task. For example, when image acquisition is delayed due to the shutter, or when multiple images are acquired at high speed, the acquired original image (e.g., a Bayer-patterned image or a high-resolution image) is stored in the memory (250), and a corresponding copy image (e.g., a low-resolution image) can be previewed through the display device (160). Thereafter, when a specified condition is satisfied (e.g., a user input or a system command), at least a portion of the original image stored in the memory (250) can be acquired and processed, for example, by the image signal processor (260). According to one embodiment, the memory (250) can be configured as at least a portion of the memory (130) or as a separate memory that operates independently therefrom.

이미지 시그널 프로세서(260)는 이미지 센서(230)을 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 하나 이상의 이미지 처리들을 수행할 수 있다. 상기 하나 이상의 이미지 처리들은, 예를 들면, 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening)을 포함할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(260)는 카메라 모듈(180)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(260)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장되거나 카메라 모듈(180)의 외부 구성 요소(예: 메모리(130), 표시 장치(160), 전자 장치(102), 전자 장치(104), 또는 서버(108))로 제공될 수 있다. 일실시예에 따르면, 이미지 시그널 프로세서(260)는 프로세서(120)의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(260)이 프로세서(120)과 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(260)에 의해 처리된 적어도 하나의 이미지는 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 표시 장치(160)를 통해 표시될 수 있다.The image signal processor (260) can perform one or more image processing operations on an image acquired through an image sensor (230) or an image stored in a memory (250). The one or more image processing operations may include, for example, depth map generation, 3D modeling, panorama generation, feature point extraction, image synthesis, or image compensation (e.g., noise reduction, resolution adjustment, brightness adjustment, blurring, sharpening, or softening). Additionally or alternatively, the image signal processor (260) may perform control (e.g., exposure time control, read-out timing control, etc.) for at least one of the components included in the camera module (180) (e.g., image sensor (230)). An image processed by the image signal processor (260) may be stored back in the memory (250) for further processing or provided to an external component of the camera module (180) (e.g., memory (130), display device (160), electronic device (102), electronic device (104), or server (108)). According to one embodiment, the image signal processor (260) may include at least one of the processors (120). It may be configured as a separate processor that is configured as a part of the processor (120) or operates independently of the processor (120). If the image signal processor (260) is configured as a separate processor from the processor (120), at least one image processed by the image signal processor (260) may be displayed through the display device (160) as is or after undergoing additional image processing by the processor (120).

일실시예에 따르면, 전자 장치(101)는 각각 다른 속성 또는 기능을 가진 복수의 카메라 모듈(180)들을 포함할 수 있다. 이런 경우, 예를 들면, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다. 유사하게, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 전면 카메라이고, 적어도 다른 하나는 후면 카메라일 수 있다.According to one embodiment, the electronic device (101) may include a plurality of camera modules (180), each having different properties or functions. In this case, for example, at least one of the plurality of camera modules (180) may be a wide-angle camera, and at least another may be a telephoto camera. Similarly, at least one of the plurality of camera modules (180) may be a front camera, and at least another may be a rear camera.

도 3은 본 개시의 다양한 실시 예들에 따라, 전자 장치(101)(예: 도 1의 전자 장치(101))에서 딥-러닝을 기반으로 하는 이미지 처리에 적용 가능한 이미지 처리 모델들(300)의 예를 도시한 도면이다.FIG. 3 is a diagram illustrating examples of image processing models (300) applicable to image processing based on deep learning in an electronic device (101) (e.g., the electronic device (101) of FIG. 1), according to various embodiments of the present disclosure.

도 3을 참조하면, 하나의 실시 예로 딥-러닝을 기반으로 이미지 처리 시에 적용 가능한 이미지 처리 모델들(310, 320, 330, 340)은 일괄 처리 가능한 이미지 픽셀들의 수가 상이할 수 있다. 상기 일괄 처리 가능한 이미지 픽셀들의 수는, 예를 들어, 일괄 처리 가능한 이미지의 크기에 상응하 배치 크기(batch size)를 정의할 수 있다. 상기 배치 크기는 배치 영역(batch region)을 정의할 수 있다. 이미지 처리 모델의 이미지 픽셀들의 수는 가로와 세로의 픽셀 개수에 의해 정의될 수 있다. 상기 이미지 처리 모델들(310, 320, 330, 340)은, 예를 들어, 4032 3024 모델(310), 2016 1564 모델(320), 1008 782 모델(330), 252 189 모델(340)을 포함할 수 있다. 일 예로, 4032 3024 모델(310)은 배치 영역 내에서 픽셀들의 수가 4032 3024개(4032개의 가로 방향 픽셀들과 3024개의 세로 방향 픽셀들의 곱)인 배치 크기를 갖는 이미지 처리 모델일 수 있다. 다른 예로 252 189 모델(340)은 배치 영역 내에서 픽셀들의 수가 252 189개(252개의 가로 방향 픽셀들과 189개의 세로 방향 픽셀들의 곱)인 배치 크기를 갖는 이미지 처리 모델일 수 있다.Referring to FIG. 3, image processing models (310, 320, 330, 340) applicable to image processing based on deep learning as an example may have different numbers of image pixels that can be batch processed. The number of image pixels that can be batch processed may define a batch size corresponding to the size of the image that can be batch processed, for example. The batch size may define a batch region. The number of image pixels of the image processing model may be defined by the number of horizontal and vertical pixels. The image processing models (310, 320, 330, 340) may have, for example, 4032 3024 Model (310), 2016 1564 Model (320), 1008 782 Model (330), 252 It may include 189 models (340). For example, 4032 The 3024 model (310) has a number of pixels within the layout area of 4032. It could be an image processing model with a batch size of 3024 (4032 horizontal pixels multiplied by 3024 vertical pixels). Another example is 252 189 Model (340) has 252 pixels within the deployment area. It could be an image processing model with a batch size of 189 (252 horizontal pixels multiplied by 189 vertical pixels).

일 실시 예에 따르면, 전자 장치(101)에는 신호 처리 능력 또는 메모리 크기 등을 고려하여 다양한 배치 크기를 갖는 이미지 처리 모델들(310, 320, 330, 340) 전체 또는 일부 이미지 처리 모델들이 선택적으로 적용될 수 있다. 도 3에서는 세 가지 이미지 처리 모델들(예: 4032 3024 모델(350), 2016 1564 모델(360), 252 189 모델(340))(이하 '후보 이미지 처리 모델'이라 칭함)이 딥-러닝을 기반으로 하는 이미지 처리를 위해 전자 장치(101)에 적용된 예를 도시하고 있다. According to one embodiment, the electronic device (101) may selectively apply all or some of the image processing models (310, 320, 330, 340) having various batch sizes, taking into account signal processing capability or memory size, etc. In FIG. 3, three image processing models (e.g., 4032 3024 Model (350), 2016 1564 Model (360), 252 An example of a 189 model (340) (hereinafter referred to as a 'candidate image processing model') being applied to an electronic device (101) for image processing based on deep learning is shown.

일 실시 예에 따르면, 전자 장치(101)는 관심 영역, 전자 장치(101)에서 사용 중인 메모리 사용량) 또는 이미지 처리를 위해 사용 가능한 메모리 가용량 또는 신호 처리 속도 중 적어도 하나의 요소를 고려하여 후보 이미지 처리 모델들 4032 3024 모델(350), 2016 1564 모델(360), 252 189 모델(340) 중 최적의 이미지 처리 모델을 선택 이미지 처리 모델로 지정할 수 있다. 상기 관심 영역은, 예를 들어, 입력 이미지의 전체 영역 중에서 세밀한 화질 등의 변경을 수행할 일부 영역일 수 있다. 상기 전자 장치(101)는 선택 이미지 처리 모델이 적용된 딥-러닝을 사용하여 관심 영역에 포함된 이미지(이하 '관심 영역 이미지'라 칭함)를 처리할 수 있다. 상기 관심 영역 이미지의 처리는, 예를 들어, 해당 관심 영역 이미지의 화질을 조정하기 위한 이미지 처리일 수 있다. 상기 화질은, 예를 들어, 3대 속성(예: HSV(hue saturation value))인 색상(hue, 색의 특질), 채도(saturation, 색의 순수한 정도), 명도(value, 색의 밝은 정도) 중 적어도 하나에 의해 변경될 수 있다. 상기 화질은, 예를 들어, 간접적으로 밝기, 명암, 색온도 등을 변화시키는 것에 의해 조정될 수도 있다.According to one embodiment, the electronic device (101) considers at least one of the following factors: a region of interest, memory usage in use by the electronic device (101), available memory for image processing, or signal processing speed to select candidate image processing models 4032 3024 Model (350), 2016 1564 Model (360), 252 Among 189 models (340), the optimal image processing model can be designated as the selected image processing model. The region of interest may be, for example, a partial region in which detailed image quality, etc. is to be changed among the entire region of the input image. The electronic device (101) may process an image included in the region of interest (hereinafter referred to as a “region of interest image”) using deep learning to which the selected image processing model is applied. The processing of the region of interest image may be, for example, image processing for adjusting the image quality of the region of interest image. The image quality may be changed by at least one of the three major attributes (e.g., HSV (hue saturation value)): hue (a characteristic of color), saturation (a pure degree of color), and value (a degree of brightness of color). The image quality may also be adjusted by, for example, indirectly changing brightness, contrast, color temperature, etc.

일 실시 예에 따르면, 전자 장치(101)는 이미지 처리 모델의 배치 크기에 비례하여 딥-러닝을 기반으로 하는 이미지 처리 시간 또는 메모리 사용량이 증가 또는 감소할 수 있다. 즉, 이미지 처리 모델의 배치 크기가 커질수록, 한번의 이미지 처리에 의해 처리 가능한 이미지의 영역(예: 배치 영역)이 넓어지거나 또는 한번의 이미지 처리에 의해 처리할 픽셀들의 수가 많아질 수 있다. 하지만, 이미지 처리 모델의 배치 크기가 커질수록, 이미지 처리를 위해 소요되는 시간 또는 메모리의 사용량은 증가할 수 있다. 일 예로, 4032 3024 모델(350)을 사용한 이미지 처리 시의 소요 시간은 2016 1564 모델(360)을 사용한 이미지 처리 시의 소요 시간에 두 배가 될 수 있다. 따라서 전자 장치(101)는 관심 영역의 크기를 고려하여 소요 시간 또는 메모리 사용량을 최적화할 수 있을 것으로 예상되는 배치 크기를 갖는 이미지 처리 모델을 선택할 수 있어야 할 것이다.According to one embodiment, the electronic device (101) may increase or decrease the image processing time or memory usage based on deep learning in proportion to the batch size of the image processing model. That is, as the batch size of the image processing model increases, the area of the image that can be processed by a single image processing (e.g., the batch area) may expand or the number of pixels to be processed by a single image processing may increase. However, as the batch size of the image processing model increases, the time required for image processing or the memory usage may increase. For example, 4032 The time required for image processing using the 3024 model (350) is 2016 The time required for image processing using the 1564 model (360) may be doubled. Therefore, the electronic device (101) should be able to select an image processing model with a batch size that is expected to optimize the time required or memory usage, taking into account the size of the region of interest.

일 실시 예에 따르면, 이미지 시그널 프로세서(260)는 입력 이미지로부터 화질 조정을 위한 관심 영역을 설정하고, 관심 영역의 크기와 메모리의 사용량 또는 처리 속도 또는 이미지 처리 능력 중 적어도 하나를 고려하여 다양한 배치 크기를 갖는 복수의 이미지 처리 모델들(350, 360, 370) 중 하나를 선택 이미지 처리 모델로 지정할 수 있다. 상기 이미지 시그널 프로세서(260)는 선택 이미지 처리 모델을 적용한 딥-러닝을 기반으로 관심 영역의 이미지에 대한 화질 처리를 수행할 수 있다.According to one embodiment, the image signal processor (260) may set a region of interest for image quality adjustment from an input image, and designate one of a plurality of image processing models (350, 360, 370) having various batch sizes as a selected image processing model by considering at least one of the size of the region of interest, the amount of memory used, the processing speed, or the image processing capability. The image signal processor (260) may perform image quality processing on an image of the region of interest based on deep learning that applies the selected image processing model.

일 실시 예에 따르면, 이미지 시그널 프로세서(260)는 관심 영역의 크기와 동일 또는 유사한 배치 크기(batch size))를 갖는 하나의 이미지 처리 모델 또는 상기 관심 영역의 크기보다 큰 배치 크기를 갖는 하나의 이미지 처리 모델 또는 상기 관심 영역의 크기보다 작은 배치 크기를 갖는 하나 또는 복수의 이미지 처리 모델들을 선택 이미지 처리 모델로 결정할 수 있다. According to one embodiment, the image signal processor (260) may determine as the selected image processing model one image processing model having a batch size equal to or similar to the size of the region of interest, one image processing model having a batch size larger than the size of the region of interest, or one or more image processing models having a batch size smaller than the size of the region of interest.

일 실시 예에 따르면, 복수의 이미지 처리 모델들(350, 360, 370) 중 배치 크기가 관심 영역의 크기보다 큰 이미지 처리 모델이 복수인 경우, 이미지 시그널 프로세서(260)는 상기 큰 배치 크기를 갖는 이미지 처리 모델들 중에서 관심 영역의 크기와 가장 유사한 배치 크기를 갖는 하나의 이미지 처리 모델(예: 잉여 영역이 가장 작은 이미지 처리 모델)을 선택 이미지 처리 모델로 지정할 수 있다. 상기 관심 영역의 크기와 가장 유사한 하나의 이미지 처리 모델은, 예를 들어, 이미지 처리 모델이 갖는 배치 영역에서 관심 영역을 제외한 나머지 영역(예: 잉여 영역)이 최소인 이미지 처리 모델이 될 수 있다. 상기 관심 영역보다 큰 배치 크기를 갖는 이미지 처리 모델들 중에서 선택 이미지 처리 모델이 지정되면, 이미지 시그널 프로세서(260)는, 예를 들어, 관심 영역의 주변으로 잉여 영역이 균일하게 분포하도록 상기 선택 이미지 처리 모델의 배치 영역을 적용할 수 있다.According to one embodiment, when there are multiple image processing models among the plurality of image processing models (350, 360, 370) having a batch size larger than the size of the region of interest, the image signal processor (260) may designate one image processing model (e.g., an image processing model with the smallest residual area) having a batch size most similar to the size of the region of interest among the image processing models having the large batch sizes as the selected image processing model. The one image processing model most similar to the size of the region of interest may be, for example, an image processing model in which the remaining area (e.g., residual area) excluding the region of interest in the batch area of the image processing model is the smallest. When the selected image processing model is designated among the image processing models having a batch size larger than the region of interest, the image signal processor (260) may, for example, apply the batch area of the selected image processing model so that the residual area is uniformly distributed around the region of interest.

일 실시 예에 따르면, 복수의 이미지 처리 모델들(350, 360, 370) 중 배치 크기가 관심 영역의 크기보다 작은 크기를 갖는 이미지 처리 모델이 복수인 경우, 이미지 시그널 프로세서(260)는 사용 횟수 또는 오버랩 영역을 고려하여 복수의 작은 크기를 갖는 이미지 처리 모델들 중에서 선택 이미지 처리 모델을 지정할 수 있다. 일 예로 이미지 시그널 프로세서(260)는 작은 크기를 갖는 이미지 처리 모델들 중에서 관심 영역 이미지를 처리할 때, 최소 오버랩 영역이 발생하는 하나의 이미지 처리 모델을 선택 이미지 처리 모델로 지정할 수 있다. 다른 예로 이미지 시그널 프로세서(260)는 작은 크기를 갖는 이미지 처리 모델들 중에서 관심 영역의 이미지를 처리할 때, 최소 사용 횟수를 갖도록 하는 하나의 이미지 처리 모델을 선택 이미지 처리 모델로 결정할 수 있다.According to one embodiment, when there are multiple image processing models among the plurality of image processing models (350, 360, 370) having a batch size smaller than the size of the region of interest, the image signal processor (260) may designate a selected image processing model among the plurality of image processing models having smaller sizes by considering the number of uses or the overlapping area. For example, the image signal processor (260) may designate one image processing model that generates the minimum overlapping area as the selected image processing model when processing an image of the region of interest among the image processing models having smaller sizes. As another example, the image signal processor (260) may determine one image processing model that has the minimum number of uses as the selected image processing model when processing an image of the region of interest among the image processing models having smaller sizes.

도 4는 본 개시의 다양한 실시 예들에 따라, 전자 장치(101)(예: 도 1에서의 전자 장치(101))에서 딥-러닝을 기반으로 하는 이미지 처리에 적용될 이미지 처리 모델을 선택하는 예를 도시한 도면이다.FIG. 4 is a diagram illustrating an example of selecting an image processing model to be applied to image processing based on deep learning in an electronic device (101) (e.g., the electronic device (101) in FIG. 1) according to various embodiments of the present disclosure.

도 4를 참조하면, 일 실시 예에 따른 전자 장치(101)는 입력 이미지의 전체 영역(420)에서 줌-인(zoom-in), ROI(region of interest) 또는 크롭(crop)과 같은 기능에 의해 관심 영역을 설정할 수 있다. 일 예로, 사용자가 특정 기능을 사용하여 입력 이미지의 전체 영역(420) 중에서 일부 영역(421)을 선택하는 경우, 전자 장치(101)는 사용자에 의해 선택된 일부 영역(421)을 관심 영역으로 설정할 수 있다. 상기 관심 영역에 포함된 관심 영역 이미지는 딥-러닝을 기반으로 하는 이미지 처리를 위한 입력 이미지(430)로 사용될 수 있다.Referring to FIG. 4, an electronic device (101) according to an embodiment can set a region of interest by a function such as zoom-in, region of interest (ROI), or crop in the entire region (420) of an input image. For example, when a user selects a partial region (421) from the entire region (420) of an input image by using a specific function, the electronic device (101) can set the partial region (421) selected by the user as a region of interest. An image of the region of interest included in the region of interest can be used as an input image (430) for image processing based on deep learning.

일 실시 예에 따라, 딥-러닝을 기반으로 하는 이미지 처리를 위하여 관심 영역 이미지(430)가 입력되면, 전자 장치(101)에 포함된 모델 선택 모듈(410)(예: 도 2에서의 이미지 시그널 프로세서(260))은 복수의 후보 이미지 처리 모델들(예: 제1 모델(451), 제2 모델(453), 제3 모델(455)) 중에서 상기 관심 영역 이미지(430)를 효율적으로 처리할 수 있을 것으로 예측되는 배치 크기를 갖는 선택 이미지 처리 모델을 지정할 수 있다. 상기 복수의 후보 이미지 처리 모델들(예: 제1 모델(451), 제2 모델(453), 제3 모델(455))은 서로 다른 배치 크기를 가질 수 있다.According to one embodiment, when a region of interest image (430) is input for image processing based on deep learning, a model selection module (410) included in an electronic device (101) (e.g., an image signal processor (260) in FIG. 2) may designate a selected image processing model having a batch size that is predicted to be able to efficiently process the region of interest image (430) from among a plurality of candidate image processing models (e.g., a first model (451), a second model (453), a third model (455)). The plurality of candidate image processing models (e.g., a first model (451), a second model (453), a third model (455)) may have different batch sizes.

일 예로, 제1 모델(451)은 도 3에서의 4032 3024 모델(350)일 수 있고, 제2 모델(453)은 도 3에서의 2016 1564 모델(360)일 수 있으며, 제3 모델(455)은 도 3에서의 252 189 모델(340)일 수 있다. 상기 제1 모델(451)은, 예를 들어, 관심 영역 이미지(430)의 크기보다 큰 배치 크기를 가질 수 있고, 상기 제2 모델(453)은, 예를 들어, 관심 영역 이미지(430)의 크기와 유사한 배치 크기를 가질 수 있으며, 상기 제3 모델(455)는, 예를 들어, 관심 영역 이미지(430)의 크기보다 작은 배치 크기를 가질 수 있다.For example, the first model (451) is 4032 in Fig. 3 It may be the 3024 model (350), and the second model (453) may be the 2016 in FIG. 3 It may be the 1564 model (360), and the third model (455) may be the 252 in FIG. 3. It may be a 189 model (340). The first model (451) may have, for example, a batch size larger than the size of the region of interest image (430), the second model (453) may have, for example, a batch size similar to the size of the region of interest image (430), and the third model (455) may have, for example, a batch size smaller than the size of the region of interest image (430).

일 실시 예에 따르면, 모델 선택 모듈(410)은 관심 영역 이미지(430)에 관한 정보를 고려하여 최적화된 메모리 사용 또는 처리 속도를 보장할 수 있는 배치 크기를 갖는 이미지 처리 모델을 복수의 후보 이미지 처리 모델들(451, 453, 455) 중에서 선택함이 바람직할 것이다. 상기 관심 영역 이미지(430)에 관한 정보는, 예를 들어, 관심 영역 이미지(430)의 크기에 관한 정보일 수 있다. 예컨대, 모델 선택 모듈(410)은 전자 장치(101)에서의 처리 속도 또는 메모리 사용량 또는 메모리 가용량 중 적어도 하나에 대한 평가를 통하여 관심 영역 이미지(430)를 딥-러닝을 기반으로 처리하기에 적합한 배치 크기를 갖는 이미지 처리 모델을 선택 이미지 처리 모델(440)로 지정할 수 있다. 모델 선택 모듈(410)은, 예를 들어, 관심 영역의 크기와 유사한 배치 크기를 갖는 이미지 처리 모델(예: 제2 모델(453)), 관심 영역의 크기보다 작은 배치 크기를 갖으면서 적용 시에 최소 잉여 영역을 발생시키는 이미지 처리 모델(예: 제3 모델(455)) 또는 관심 영역의 크기보다 큰 배치 크기를 갖는 이미지 처리 모델(예: 제1 모델(451)) 중 하나를 선택 이미지 처리 모델(440)로 지정할 수 있다.According to one embodiment, the model selection module (410) may preferably select an image processing model having a batch size that can ensure optimized memory usage or processing speed from among a plurality of candidate image processing models (451, 453, 455) by considering information about the region of interest image (430). The information about the region of interest image (430) may be, for example, information about the size of the region of interest image (430). For example, the model selection module (410) may designate an image processing model having a batch size suitable for processing the region of interest image (430) based on deep learning as the selected image processing model (440) by evaluating at least one of the processing speed, memory usage, or memory availability in the electronic device (101). The model selection module (410) may, for example, designate as the selected image processing model (440) one of an image processing model having a batch size similar to the size of the region of interest (e.g., the second model (453)), an image processing model having a batch size smaller than the size of the region of interest but generating a minimum surplus area when applied (e.g., the third model (455)), or an image processing model having a batch size larger than the size of the region of interest (e.g., the first model (451)).

상기 선택 모델(440)은 딥-러닝을 기반으로 이미지 처리를 수행할 이미지 처리 모듈(도시하지 않음)로 제공될 수 있다. 상기 이미지 처리 모듈은, 예를 들어, 이미지 시그널 프로세서(260) 내에 구비될 수 있다.The above selection model (440) may be provided as an image processing module (not shown) that performs image processing based on deep learning. The image processing module may be provided, for example, within an image signal processor (260).

도 5는 본 개시의 다양한 실시 예들에 따른, 모델 선택 모듈(410)(예: 도 4에서의 모델 선택 모듈(410))을 예시하는 블록 구성(500)을 도시한 도면이다.FIG. 5 is a block diagram illustrating a configuration (500) of a model selection module (410) (e.g., the model selection module (410) in FIG. 4) according to various embodiments of the present disclosure.

도 5를 참조하면, 일 실시 예에 따른 모델 선택 모듈(410)은 저장 매체(520), 메모리 검사 모듈(530), 속도 검사 모듈(540) 또는 위치 정규화 모듈(550)을 포함할 수 있다. 상기 모델 선택 모듈(410)은, 예를 들어, 입력되는 관심 영역정보(510)를 기반으로 이미지 처리 모델을 선택하고, 상기 선택한 이미지 처리 모델(예: 도 4에서의 선택 모델(440))을 지시하는 모델 인덱스(560)를 출력할 수 있다. 상기 선택 이미지 처리 모델은, 예를 들어, 관심 영역 정보(510)가 지시하는 관심 영역에 포함된 이미지(도 4에서의 관심 영역 이미지(430))를 딥-러닝을 사용하여 처리하기에 최적 이미지 처리 모델일 수 있다. 상기 최적 이미지 처리 모델은, 예를 들어, 딥-러닝을 사용하여 처리 대상 이미지(예: 관심 영역에 포함된 이미지)를 처리하는 경우에 빠른 처리 및/또는 최소 메모리 사용량 및/또는 효율적인 메모리 사용이 예측되는 이미지 처리 모델일 수 있다. Referring to FIG. 5, a model selection module (410) according to an embodiment may include a storage medium (520), a memory inspection module (530), a speed inspection module (540), or a position normalization module (550). The model selection module (410) may, for example, select an image processing model based on input region of interest information (510) and output a model index (560) indicating the selected image processing model (e.g., the selected model (440) in FIG. 4). The selected image processing model may be, for example, an optimal image processing model for processing an image included in a region of interest indicated by the region of interest information (510) (a region of interest image (430) in FIG. 4) using deep learning. The optimal image processing model may be, for example, an image processing model that is predicted to have fast processing and/or minimal memory usage and/or efficient memory usage when processing a target image (e.g., an image included in a region of interest) using deep learning.

일 실시 예에 따르면, 저장 매체(520)는 딥-러닝을 기반으로 하는 이미지 처리 시에 적용될 수 있는 복수의 이미지 처리 모델에 관한 정보, 이미지 처리 모델 별 처리 속도 및/또는 이미지 처리 모델 별 메모리 사용량에 관한 정보를 저장할 수 있다. 상기 저장 매체(520)는, 예를 들어, 이미지 처리 모델 선택을 위하여, 복수의 이미지 처리 모델 중 하나에 관한 정보 및 처리 속도 및/또는 메모리 사용량에 관한 정보를 제공할 수 있다. 상기 처리 속도 및/또는 메모리 사용량에 관한 정보는, 예를 들어, 수행 시간(exec time) 또는 오픈 시간(open time) 등을 포함할 수 있다. 상기 처리 속도 및/또는 메모리 사용량에 관한 정보는, 예를 들어, 후보 이미지 처리 모델 별 메모리 사용량 및/또는 처리 속도에 관한 정보를 포함할 수 있다. 상기 후보 이미지 처리 모델 별 메모리 사용량 및/또는 처리 속도에 관한 정보는, 예를 들어, 후보 이미지 처리 모델 별로 이미지 처리를 수행하고, 상기 이미지 처리 시에 측정된 메모리 사용량 및/또는 처리 속도에 의해 획득될 수 있다. According to one embodiment, the storage medium (520) may store information about a plurality of image processing models that can be applied in image processing based on deep learning, information about processing speed for each image processing model, and/or information about memory usage for each image processing model. The storage medium (520) may provide, for example, information about one of the plurality of image processing models and information about processing speed and/or memory usage for selecting an image processing model. The information about the processing speed and/or memory usage may include, for example, an exec time or an open time. The information about the processing speed and/or memory usage may include, for example, information about memory usage and/or processing speed for each candidate image processing model. The information about the memory usage and/or processing speed for each candidate image processing model may be obtained, for example, by performing image processing for each candidate image processing model and measuring the memory usage and/or processing speed during the image processing.

일 실시 예에 따르면, 메모리 검사 모듈(530)은 관심 영역정보(510)에 의해 인지한 관심 영역에 대하여 이미지 처리 모델 별로 메모리 사용량에 대한 평가를 수행할 수 있다. 상기 메모리 검사 모듈(530)은, 예를 들어, 복수의 후보 이미지 처리 모델들(예: 도 4에서의 제1, 제2, 제3 모델(451, 453, 455)) 각각을 적용한 딥-러닝을 기반으로 관심 영역의 이미지를 처리할 경우에 이미지 처리 모델 별 메모리 사용량을 예측할 수 있다.According to one embodiment, the memory inspection module (530) may perform an evaluation of memory usage for each image processing model for a region of interest recognized by the region of interest information (510). The memory inspection module (530) may, for example, predict memory usage for each image processing model when processing an image of a region of interest based on deep learning that applies each of a plurality of candidate image processing models (e.g., the first, second, and third models (451, 453, 455) in FIG. 4).

일 실시 예에 따르면, 메모리 검사 모듈(530)은 메모리 사용량 또는 메모리 가용량을 고려할 때, 후보 이미지 처리 모델들 중에서 사용 가능한 적어도 하나의 이미지 처리 모델(예: 도 4에서의 선택 모델(440))을 분류할 수 있다. 상기 메모리 사용량 또는 상기 메모리 가용량은, 예를 들어, 전자 장치(101)에서 이미지 처리를 위해 사용할 수 있는 메모리 가용도(availability)를 결정하는 중요한 요건이 될 수 있다. 상기 메모리 가용도는 전자 장치(101)에 의해 구동되는 하나의 기능 또는 복수의 기능들에 의해 수시로 변화될 수 있다. 예컨대, 전자 장치(101)에 의해 구동되는 하나 또는 복수의 기능들에 의한 메모리 사용량이 증가하면, 이에 응답하여 이미지 처리를 위해 사용할 수 있는 메모리 가용량이 감소할 것이다. 상기 메모리 가용량이 감소하는 경우, 선택 이미지 처리 모델의 배치 크기 또한 감소할 것이다. According to one embodiment, the memory inspection module (530) may classify at least one usable image processing model (e.g., the selection model (440) in FIG. 4) among candidate image processing models, considering the memory usage or memory availability. The memory usage or the memory availability may be an important requirement for determining, for example, the memory availability that can be used for image processing in the electronic device (101). The memory availability may change from time to time depending on one or more functions driven by the electronic device (101). For example, if the memory usage by one or more functions driven by the electronic device (101) increases, the memory availability that can be used for image processing will decrease in response thereto. If the memory availability decreases, the batch size of the selected image processing model will also decrease.

일 실시 예에 따르면, 메모리 검사 모듈(530)은 후보 이미지 처리 모델들 중에서 하나의 이미지 처리 모델들이 메모리 가용도를 충족시키는 경우, 해당 이미지 처리 모델을 선택 이미지 처리 모델로 지정할 수 있다. 하지만 후보 이미지 처리 모델들 중에서 복수의 이미지 처리 모델들이 메모리 가용도를 충족시키는 경우, 메모리 검사 모듈(530)은 배치 영역 중에서 잉여 영역이 가장 작은 이미지 처리 모델을 선택 이미지 처리 모델로 지정할 수 있다. 예컨대, 선택 이미지 처리 모델은 메모리 가용도를 충족시키는 복수의 이미지 처리 모델들 중에서 관심 영역 이미지의 크기와 가장 유사한 이미지 처리 크기를 갖는 이미지 처리 모델을 선택 이미지 처리 모델로 지정할 수 있다. 상기 이미지 처리 크기는, 예를 들어, 하나의 이미지 처리 모델의 배치 크기(예: 도 7에 도시된 예 참조) 또는 하나의 이미지 처리 모델이 갖는 배치 영역을 여러 번 사용하여 관심 영역 이미지를 처리할 수 있는 영역에 해당하는 크기가 될 수 있다(예: 도 8에 도시된 예 참조).According to one embodiment, the memory inspection module (530) may designate an image processing model among candidate image processing models as the selected image processing model if one of the candidate image processing models satisfies the memory availability. However, if multiple image processing models among the candidate image processing models satisfy the memory availability, the memory inspection module (530) may designate an image processing model with the smallest surplus area among the batch areas as the selected image processing model. For example, the selected image processing model may designate an image processing model that has an image processing size most similar to the size of the region of interest image among the multiple image processing models that satisfy the memory availability as the selected image processing model. The image processing size may be, for example, a batch size of one image processing model (e.g., see the example illustrated in FIG. 7) or a size corresponding to an area in which a region of interest image can be processed by using the batch area of one image processing model multiple times (e.g., see the example illustrated in FIG. 8).

일 실시 예에 따르면, 속도 검사 모듈(540)은 선택 이미지 처리 모델을 지정하기 위해, 이미지 처리에 소요되는 시간을 결정할 수 있는 처리 속도를 더 고려할 수 있다. 상기 속도 검사 모듈(540)은, 예를 들어, 관심 영역정보(510)에 의해 인지한 관심 영역에 대하여 이미지 처리 모델 별로 처리 속도에 대한 평가를 수행할 수 있다. 상기 속도 검사 모듈(540)은, 예를 들어, 복수의 이미지 처리 모델 각각을 적용한 딥-러닝을 기반으로 관심 영역의 이미지를 처리할 경우에 이미지 처리 모델 별 처리 속도를 예측할 수 있다. 일 실시 예에 따르면, 속도 검사 모듈(540)은 메모리 검사 모듈(530)에서 관심 영역 이미지의 처리를 위해 적용 가능하다고 검사된 하나 또는 복수의 선택 이미지 처리 모델에 대하여 딥-러닝을 기반으로 관심 영역 이미지를 처리하기 위한 처리 속도를 검사할 수 있다. 상기 속도 검사 모듈(540)은, 예를 들어, 전자 장치(101)의 이미지 처리 능력을 고려하여 관심 영역 이미지의 처리를 위한 이미지 처리 모델을 선택할 수 있다.According to one embodiment, the speed test module (540) may further consider the processing speed that can determine the time required for image processing in order to designate the selected image processing model. The speed test module (540) may, for example, evaluate the processing speed for each image processing model for the region of interest recognized by the region of interest information (510). The speed test module (540) may, for example, predict the processing speed for each image processing model when processing the image of the region of interest based on deep learning that applies each of a plurality of image processing models. According to one embodiment, the speed test module (540) may test the processing speed for processing the region of interest image based on deep learning for one or more selected image processing models that are tested as being applicable for processing the region of interest image by the memory test module (530). The speed test module (540) may, for example, select an image processing model for processing the region of interest image by considering the image processing capability of the electronic device (101).

일 실시 예에 따르면, 속도 검사 모듈(540)은 후보 이미지 처리 모델 별 처리 속도를 검사할 때, 관심 영역 이미지의 회전을 추가로 고려할 수 있다. 상기 속도 검사 모듈(540)은, 예를 들어, 동일한 후보 이미지 처리 모델을 적용한 딥-러닝을 사용하여 회전하지 않은 관심 영역 이미지를 처리할 때의 처리 속도와 회전한 관심 영역 이미지를 처리할 때의 처리 속도를 비교하고, 그 비교 결과를 기반으로 관심 영역 이미지의 회전 여부를 지시하는 회전 정보를 생성할 수 있다. According to one embodiment, the speed inspection module (540) may additionally consider the rotation of the region of interest image when inspecting the processing speed for each candidate image processing model. The speed inspection module (540) may, for example, compare the processing speed when processing an unrotated region of interest image using deep learning that applies the same candidate image processing model with the processing speed when processing a rotated region of interest image, and generate rotation information indicating whether the region of interest image is rotated based on the comparison result.

일 실시 예에 따르면, 위치 정규화 모듈(550)은 후보 이미지 처리 모델 별로 예측된 처리 속도 및/또는 메모리 사용량 중 적어도 하나를 고려하여 복수의 후보 이미지 처리 모듈들 중 딥-러닝에 적용할 선택 이미지 처리 모델을 지정할 수 있다. 딥-러닝에 적용할 선택 이미지 처리 모델이 결정되면, 위치 정규화 모듈(550)은 상기 결정된 이미지 처리 모델을 지시하는 인덱스(560)를 출력할 수 있다.According to one embodiment, the position normalization module (550) may designate a selected image processing model to be applied to deep learning among a plurality of candidate image processing modules by considering at least one of the predicted processing speed and/or memory usage for each candidate image processing model. Once the selected image processing model to be applied to deep learning is determined, the position normalization module (550) may output an index (560) indicating the determined image processing model.

일 실시 예에 따르면, 위치 정규화 모듈(550)은 속도 검사 모듈(540)에 의해 관심 영역 이미지의 회전이 고려되었다면, 모델 인덱스 외에 회전 정보(560)를 더 출력할 수 있다. According to one embodiment, the position normalization module (550) may output rotation information (560) in addition to the model index if the rotation of the region of interest image has been taken into account by the velocity check module (540).

도 6은 본 개시의 다양한 실시 예들에 따라, 전자 장치(101)(예: 도 1에서의 전자 장치(101))에서 딥-러닝을 기반으로 이미지 처리를 수행하는 제어 흐름(600)을 도시한 도면이다. 도 6에 도시된 제어 흐름에 따른 동작은, 예를 들어, 적어도 하나의 프로세서(예: 도 1에서의 프로세서(120) 또는 도 2에서의 이미지 시그널 프로세서(260))에 의해 수행될 수도 있다.FIG. 6 is a diagram illustrating a control flow (600) for performing image processing based on deep learning in an electronic device (101) (e.g., the electronic device (101) in FIG. 1) according to various embodiments of the present disclosure. The operations according to the control flow illustrated in FIG. 6 may be performed, for example, by at least one processor (e.g., the processor (120) in FIG. 1 or the image signal processor (260) in FIG. 2).

도 6을 참조하면, 일 실시 예에 따른 동작 610에서 전자 장치(101)는 이미지 처리를 위해 입력 받은 대상 이미지(예: 도 4에서의 입력 이미지(420))로부터 ROI 영역 또는 줌 영역과 같은 관심 영역(예: 도 4에서의 관심 영역(421))을 결정할 수 있다. 상기 관심 영역은, 예를 들어, 입력 이미지로부터 딥-러닝을 기반으로 화질 처리할 영역으로, 사용자에 의해 대상 이미지로부터 지정 또는 선택될 수 있다.Referring to FIG. 6, in operation 610 according to an embodiment, the electronic device (101) may determine a region of interest (e.g., a region of interest (ROI) or a zoom region (e.g., a region of interest (421) in FIG. 4)) such as a ROI region or a zoom region from a target image (e.g., an input image (420) in FIG. 4) input for image processing. The region of interest may be, for example, a region to be image-quality-processed based on deep learning from an input image, and may be designated or selected by a user from the target image.

일 실시 예에 따른 동작 620에서 전자 장치(101)는 복수의 후보 이미지 처리 모델들 중에서 딥-러닝을 기반으로 하는 이미지 처리를 위해 적용될 하나 또는 복수의 선택 이미지 처리 모델을 지정할 수 있다. 상기 전자 장치(101)는, 예를 들어, 서로 다른 배치 크기를 갖는 복수의 후보 이미지 처리 모델 각각을 적용한 딥-러닝을 기반으로 하여 관심 영역 이미지에 대한 이미지 처리를 수행할 시의 메모리 사용량 및/또는 처리 속도를 예측하고, 상기 후보 이미지 처리 모델 별로 예측된 메모리 사용량 및/또는 처리 속도를 고려하여 딥-러닝에 적용할 선택 이미지 처리 모델을 지정할 수 있다. 상기 복수의 후보 이미지 처리 모델은 관심 영역 이미지와 크기가 유사하거나 크거나 또는 작은 이미지 처리 모델을 포함할 수 있다. In operation 620 according to an embodiment, the electronic device (101) may designate one or more selected image processing models to be applied for image processing based on deep learning among a plurality of candidate image processing models. The electronic device (101) may, for example, predict memory usage and/or processing speed when performing image processing on a region of interest image based on deep learning by applying each of the plurality of candidate image processing models having different batch sizes, and designate a selected image processing model to be applied to deep learning in consideration of the memory usage and/or processing speed predicted for each candidate image processing model. The plurality of candidate image processing models may include image processing models that are similar in size to, larger than, or smaller than the region of interest image.

일 실시 예에 따르면, 복수의 후보 이미지 처리 모델들(예: 도 3에서의 이미지 처리 모델들(350, 360, 370)) 중 배치 크기가 관심 영역의 크기보다 큰 이미지 처리 모델이 복수인 경우, 전자 장치(101)는 상기 큰 배치 크기를 갖는 이미지 처리 모델들 중에서 관심 영역의 크기와 가장 유사한 배치 크기를 갖는 하나의 이미지 처리 모델(예: 잉여 영역이 가장 작은 이미지 처리 모델)을 선택 이미지 처리 모델로 지정할 수 있다. 상기 관심 영역의 크기와 가장 유사한 하나의 이미지 처리 모델은, 예를 들어, 이미지 처리 모델이 갖는 배치 영역에서 관심 영역을 제외한 나머지 영역(예: 잉여 영역)이 최소인 이미지 처리 모델이 될 수 있다.According to one embodiment, when there are multiple image processing models among a plurality of candidate image processing models (e.g., image processing models 350, 360, 370 in FIG. 3) having a batch size larger than the size of the region of interest, the electronic device (101) may designate as a selected image processing model one image processing model among the image processing models having the large batch size a batch size most similar to the size of the region of interest (e.g., an image processing model having the smallest residual area). The one image processing model most similar to the size of the region of interest may be, for example, an image processing model having a batch area of the image processing model in which the remaining area excluding the region of interest (e.g., residual area) is the smallest.

일 실시 예에 따르면, 복수의 후보 이미지 처리 모델들 중 배치 크기가 관심 영역의 크기보다 작은 크기를 갖는 이미지 처리 모델이 복수인 경우, 전자 장치(101)는 사용 횟수 또는 오버랩 영역을 고려하여 복수의 작은 크기를 갖는 이미지 처리 모델들 중에서 선택 이미지 처리 모델을 지정할 수 있다. 일 예로 전자 장치(101)는 작은 크기를 갖는 이미지 처리 모델들 중에서 관심 영역 이미지를 처리할 때, 최소 오버랩 영역이 발생하는 하나의 이미지 처리 모델을 선택 이미지 처리 모델로 지정할 수 있다. 다른 예로 전자 장치(101)는 작은 크기를 갖는 이미지 처리 모델들 중에서 관심 영역의 이미지를 처리할 때, 최소 사용 횟수를 갖도록 하는 하나의 이미지 처리 모델을 선택 이미지 처리 모델로 결정할 수 있다.According to one embodiment, when there are multiple image processing models among a plurality of candidate image processing models having a batch size smaller than the size of the region of interest, the electronic device (101) may designate a selected image processing model among the plurality of image processing models having a smaller size by considering the number of uses or the overlapping area. For example, the electronic device (101) may designate one image processing model having a minimum overlapping area as the selected image processing model among the image processing models having a smaller size when processing an image of the region of interest. As another example, the electronic device (101) may determine one image processing model having a minimum number of uses as the selected image processing model among the image processing models having a smaller size when processing an image of the region of interest.

일 실시 예에 따르면, 전자 장치(101)는 이미지 처리 모델의 크기와 관심 영역의 크기 간에 상관 관계에 따라, 관심 영역에 대하여 이미지 처리 모델을 적용하는 방안을 달리할 수 있다. According to one embodiment, the electronic device (101) may vary the method of applying the image processing model to the region of interest depending on the correlation between the size of the image processing model and the size of the region of interest.

일 예로, 선택 이미지 처리 모델의 배치 크기가 관심 영역의 크기와 유사한 경우, 상기 관심 영역에 대하여 상기 선택 이미지 처리 모델을 적용할 수 있다(예: 도 7의 (a) 참조). 다른 예로, 선택 이미지 처리 모델의 크기가 관심 영역의 크기보다 작은 경우, 상기 관심 영역에 대하여 최소의 오버랩 영역이 발생하도록 상기 선택 이미지 처리 모델을 중첩하여 적용할 수 있다(예: 도 8의 (a) 참조). 상기 전자 장치(101)는, 예를 들어, 작은 크기를 갖는 선택 이미지 처리 모델을 사용하여 관심 영역 이미지를 처리할 때에 요구되는 오버랩 영역이 정해져 있는 경우, 상기 요구되는 오버랩 영역을 만족시키면서 관심 영역을 덮도록 상기 선택 이미지 처리 모델을 중첩하여 배치할 수 있다. 또 다른 예로, 선택 이미지 처리 모델의 배치 크기가 관심 영역의 크기보다 큰 경우, 관심 영역 이미지의 테두리 영역에 일정한 잉여 영역이 존재하도록 상기 선택 이미지 처리 모델을 적용할 수 있다(예: 도 9의 (a) 참조).For example, when the batch size of the selection image processing model is similar to the size of the region of interest, the selection image processing model can be applied to the region of interest (e.g., see (a) of FIG. 7). As another example, when the size of the selection image processing model is smaller than the size of the region of interest, the selection image processing models can be applied in an overlapping manner so that a minimum overlapping area occurs for the region of interest (e.g., see (a) of FIG. 8). When a required overlapping area is determined when processing a region of interest image using a selection image processing model having a small size, the electronic device (101) can arrange the selection image processing models in an overlapping manner so as to cover the region of interest while satisfying the required overlapping area. As another example, when the batch size of the selection image processing model is larger than the size of the region of interest, the selection image processing model can be applied so that a certain surplus area exists in the border area of the region of interest image (e.g., see (a) of FIG. 9).

일 실시 예에 따르면, 동작 630에서 전자 장치(101)는 앞서 결정된 이미지 처리 모델을 적용한 딥-러닝을 기반으로 관심 영역의 이미지에 대한 화질 처리를 수행할 수 있다. According to one embodiment, in operation 630, the electronic device (101) may perform image quality processing on an image of a region of interest based on deep learning by applying a previously determined image processing model.

일 예로, 이미지 처리 모델의 크기가 관심 영역의 이미지 크기와 유사한 경우, 전자 장치(101)는 관심 영역의 이미지가 이미지 처리 모델의 중앙에 위치하도록 배치하고, 이를 기반으로 상기 관심 영역의 이미지에 대한 이미지 처리 동작을 수행할 수 있다. 이 경우 이미지 처리된 결과는 도 7의 (b)에 도시된 바와 같을 수 있다. For example, if the size of the image processing model is similar to the size of the image of the region of interest, the electronic device (101) can position the image of the region of interest so that it is located at the center of the image processing model and perform an image processing operation on the image of the region of interest based on this. In this case, the image processing result may be as illustrated in (b) of Fig. 7.

다른 예로, 이미지 처리 모델의 크기가 관심 영역의 이미지 크기보다 작은 경우, 전자 장치(101)는 오버랩 되는 영역이 최소가 될 수 있도록 관심 영역의 이미지 위에 이미지 처리 모델을 배치할 수 있다(예: 도 8의 (a) 참조). 전자 장치(101)는 오버랩 영역이 발생하도록 배치된 이미지 처리 모델을 적용한 딥-러닝을 기반으로 관심 영역의 이미지에 대한 이미지 처리를 수행할 수 있다. 이 경우 이미지 처리된 결과는 도 8의 (b)에 도시된 바와 같을 수 있다. As another example, if the size of the image processing model is smaller than the image size of the region of interest, the electronic device (101) may place the image processing model on the image of the region of interest so that the overlapping area can be minimized (e.g., see (a) of FIG. 8). The electronic device (101) may perform image processing on the image of the region of interest based on deep learning by applying the image processing model placed so that the overlapping area occurs. In this case, the image processing result may be as illustrated in (b) of FIG. 8.

또 다른 예로, 이미지 처리 모델의 크기가 관심 영역의 이미지 크기보다 큰 경우, 전자 장치(101)는 관심 영역의 이미지 주변으로 잉여 영역이 균일하게 분포하도록, 이미지 처리 모델의 중앙에 상기 관심 영역의 이미지를 배치할 수 있다(예: 도 9의 (a) 참조). 전자 장치(101)는 관심 영역의 주변으로 잉여 영역이 균일하게 분포하도록 배치된 이미지 처리 모델을 적용한 딥-러닝을 기반으로 상기 관심 영역의 이미지에 대한 이미지 처리를 수행할 수 있다. 이 경우 이미지 처리된 결과는 도 9의 (b)에 도시된 바와 같을 수 있다. As another example, if the size of the image processing model is larger than the size of the image of the region of interest, the electronic device (101) may place the image of the region of interest at the center of the image processing model so that the surplus area is uniformly distributed around the image of the region of interest (e.g., see (a) of FIG. 9). The electronic device (101) may perform image processing on the image of the region of interest based on deep learning by applying the image processing model placed so that the surplus area is uniformly distributed around the region of interest. In this case, the image processing result may be as illustrated in (b) of FIG. 9.

도 7은 본 개시의 다양한 실시 예들에 따라, 전자 장치(101)(예: 도 1의 전자 장치(101))에서 관심 영역에 대하여 이미지 처리를 수행하는 일 예를 도시한 도면으로써, 이미지 처리 모델이 관심 영역의 이미지 크기와 유사한 크기를 가지는 경우를 가정하고 있다.FIG. 7 is a diagram illustrating an example of performing image processing on a region of interest in an electronic device (101) (e.g., the electronic device (101) of FIG. 1) according to various embodiments of the present disclosure, assuming that the image processing model has a size similar to the image size of the region of interest.

도 7을 참조하면, 일 실시 예에 따른 (a)에서는 관심 영역(720)에 대한 이미지 처리를 수행하기 전의 입력 이미지(710)를 보이고 있고, (b)에서는 관심 영역(720)과 유사한 크기의 배치 영역(730)을 갖는 이미지 처리 모델을 적용한 딥-러닝을 사용하여 이미지 처리를 수행한 후의 입력 이미지(750)를 보이고 있다. 따라서, (a)의 관심 영역(720)에 포함된 관심 영역 이미지(740)의 화질은 전체 영역(710)에서 관심 영역(720)을 제외한 나머지 영역의 이미지가 갖는 화질과 동일함을 확인할 수 있다. 하지만 관심 영역(720)을 포함하는 이미지 처리 모델의 배치 영역(730)에 대한 이미지 처리가 이루어진 (b)에서는 관심 영역 이미지(760)의 화질이 전체 영역(750)에서 관심 영역(720)을 제외한 나머지 영역의 이미지가 갖는 화질에 비해 개선되었음을 확인할 수 있다. 즉, (b)에서의 관심 영역 이미지(760)가 (a)에서의 관심 영역 이미지(740)에 비해 상대적으로 양호한 화질을 가지고 있다. Referring to FIG. 7, (a) shows an input image (710) before performing image processing on a region of interest (720) according to an embodiment, and (b) shows an input image (750) after performing image processing using deep learning with an image processing model that has a placement area (730) of a similar size to the region of interest (720). Therefore, it can be confirmed that the image quality of the region of interest image (740) included in the region of interest (720) of (a) is the same as the image quality of the image of the remaining region excluding the region of interest (720) from the entire region (710). However, in (b) where image processing is performed on the placement area (730) of the image processing model including the region of interest (720), it can be confirmed that the image quality of the region of interest image (760) is improved compared to the image quality of the image of the remaining region excluding the region of interest (720) from the entire region (750). That is, the region of interest image (760) in (b) has relatively good image quality compared to the region of interest image (740) in (a).

도 8은 본 개시의 다양한 실시 예들에 따라, 전자 장치(101)에서 관심 영역에 대하여 이미지 처리를 수행하는 다른 예를 도시한 도면이다.FIG. 8 is a diagram illustrating another example of performing image processing on a region of interest in an electronic device (101) according to various embodiments of the present disclosure.

도 8을 참조하면, 일 실시 예에 따른 (a)에서는 관심 영역(820)에 대한 이미지 처리를 수행하기 전의 입력 이미지(810)를 보이고 있고, (b)에서는 관심 영역(820)보다 작은 크기의 배치 영역(831, 832, 833, 834, 835, 836)을 갖는 이미지 처리 모델을 적용한 딥-러닝을 사용하여 여섯 번의 이미지 처리를 반복하여 수행한 후의 입력 이미지(860)를 보이고 있다. 따라서, (a)의 관심 영역(820)에 포함된 관심 영역 이미지(840)의 화질은 전체 영역(810)에서 관심 영역(820)을 제외한 나머지 영역의 이미지가 갖는 화질과 동일함을 확인할 수 있다. 하지만 관심 영역(820)을 포함하는 이미지 처리 모델의 배치 영역(830)을 고려하여 이미지 처리가 이루어진 (b)에서는 관심 영역 이미지(860)의 화질이 전체 영역(850)에서 관심 영역(820)을 제외한 나머지 영역의 이미지가 갖는 화질에 비해 개선되었음을 확인할 수 있다. 즉, (b)에서의 관심 영역 이미지(860)가 (a)에서의 관심 영역 이미지(840)에 비해 상대적으로 양호한 화질을 가지고 있다.Referring to FIG. 8, (a) shows an input image (810) before performing image processing on a region of interest (820) according to an embodiment, and (b) shows an input image (860) after performing six iterations of image processing using deep learning with an image processing model having placement areas (831, 832, 833, 834, 835, 836) smaller in size than the region of interest (820). Accordingly, it can be confirmed that the image quality of the region of interest image (840) included in the region of interest (820) of (a) is the same as the image quality of the remaining area in the entire area (810) excluding the region of interest (820). However, in (b), where image processing is performed by considering the placement area (830) of the image processing model including the area of interest (820), it can be confirmed that the image quality of the area of interest image (860) is improved compared to the image quality of the remaining area excluding the area of interest (820) in the entire area (850). That is, the area of interest image (860) in (b) has relatively better image quality than the area of interest image (840) in (a).

일 실시 예에 따른 (a)와 (b)에서는 입력 이미지의 전체 영역(810, 850) 중 일부 영역이 관심 영역(820)으로 설정되고, 상기 관심 영역(820)보다 작은 배치 크기를 갖는 이미지 처리 모델(812, 813, 814, 815, 816, 817)이 약간씩 오버랩 되도록 배치될 수 있다. In (a) and (b) according to one embodiment, a part of the entire area (810, 850) of the input image is set as the area of interest (820), and image processing models (812, 813, 814, 815, 816, 817) having a smaller batch size than the area of interest (820) can be arranged to slightly overlap.

일 실시 예에 따른 (c)에서는 관심 영역(820)보다 작은 배치 크기를 갖는 이미지 처리 모델(831, 832, 833, 834, 835, 836)이 서로 소정 영역들(a, b, c, d, e, f, g, h, i)에서 오버랩 되도록 배치된 예를 보이고 있다. 이 경우, 전자 장치(101)는 배치 영역이 오버랩 되도록 분포된 이미지 처리 모델들(822, 823, 824, 825, 826, 827) 각각을 적용한 딥-러닝을 기반으로 관심 영역(820)의 이미지(840)에 대하여 부분 별로 화질을 조정하는 이미지 처리를 수행할 수 있다. In (c) according to one embodiment, an example is shown in which image processing models (831, 832, 833, 834, 835, 836) having a batch size smaller than the region of interest (820) are arranged to overlap each other in predetermined regions (a, b, c, d, e, f, g, h, i). In this case, the electronic device (101) can perform image processing for adjusting the image quality of an image (840) of the region of interest (820) for each part based on deep learning applied to each of the image processing models (822, 823, 824, 825, 826, 827) distributed to overlap the batch areas.

일 실시 예에 따른 (d)에서는 관심 영역(820)에 비해 작은 배치 크기를 갖는 이미지 처리 모델을 적용한 딥-러닝을 사용하여 이미지를 처리할 시, 보더(border) 부분(예: 관심 영역(820)의 테두리 부분)(870)에 대한 처리로 인하여 관심 영역(820)과 유사한 크기를 갖는 이미지 처리 모델을 적용하여서는 안될 경우에 대하여 적용함이 바람직할 수 있다. 상기 보더 부분(870)은, 예를 들어, 관심 영역(820)에 비해 큰 처리 영역(830)으로 인하여, 상기 처리 영역(830) 중 상기 관심 영역(820)에 포함되지 않는 영역에 해당할 수 있다. In (d) according to one embodiment, when processing an image using deep learning that applies an image processing model having a smaller batch size than the region of interest (820), it may be preferable to apply it in cases where an image processing model having a similar size to the region of interest (820) should not be applied due to processing of a border portion (e.g., a border portion of the region of interest (820)) (870). The border portion (870) may correspond to, for example, an area of the processing region (830) that is not included in the region of interest (820) due to the processing region (830) being larger than the region of interest (820).

도 9는 본 개시의 다양한 실시 예들에 따라, 전자 장치(101)에서 관심 영역에 대하여 이미지 처리를 수행하는 또 다른 예를 도시한 도면이다.FIG. 9 is a diagram illustrating another example of performing image processing on a region of interest in an electronic device (101) according to various embodiments of the present disclosure.

도 9를 참조하면, 일 실시 예에 따른 (a)에서는 관심 영역(920)에 대한 이미지 처리를 수행하기 전의 입력 이미지(910)를 보이고 있고, (b)에서는 관심 영역(920)보다 큰 배치 영역(930)을 갖는 이미지 처리 모델을 적용한 딥-러닝을 사용하여 이미지 처리를 수행한 후의 입력 이미지(950)를 보이고 있다. 따라서, (a)의 관심 영역(920)에 포함된 관심 영역 이미지(940)의 화질은 전체 영역(910)에서 관심 영역(920)을 제외한 나머지 영역의 이미지가 갖는 화질과 동일함을 확인할 수 있다. 하지만 관심 영역(920)을 포함하는 이미지 처리 모델의 배치 영역(930)에 대한 이미지 처리가 이루어진 (b)에서는 관심 영역 이미지(960)의 화질이 전체 영역(950)에서 관심 영역(920)을 제외한 나머지 영역의 이미지가 갖는 화질에 비해 개선되었음을 확인할 수 있다. 즉, (b)에서의 관심 영역 이미지(960)가 (a)에서의 관심 영역 이미지(940)에 비해 상대적으로 양호한 화질을 가지고 있다.Referring to FIG. 9, (a) shows an input image (910) before performing image processing on a region of interest (920) according to an embodiment, and (b) shows an input image (950) after performing image processing using deep learning with an image processing model having a placement area (930) larger than the region of interest (920). Therefore, it can be confirmed that the image quality of the region of interest image (940) included in the region of interest (920) of (a) is the same as the image quality of the image of the remaining region excluding the region of interest (920) from the entire region (910). However, in (b) where image processing is performed on the placement area (930) of the image processing model including the region of interest (920), it can be confirmed that the image quality of the region of interest image (960) is improved compared to the image quality of the image of the remaining region excluding the region of interest (920) from the entire region (950). That is, the region of interest image (960) in (b) has relatively good image quality compared to the region of interest image (940) in (a).

일 실시 예에 따른 (c)에서는 관심 영역(920)에 비해 큰 배치 크기(930)를 갖는 이미지 처리 모델을 적용한 딥-러닝을 사용하여 이미지를 처리할 시, 보더(border) 부분(예: 관심 영역(920)의 테두리 부분)(970)에 대한 처리로 인하여 관심 영역(920)과 유사한 크기를 갖는 이미지 처리 모델을 적용하여서는 안될 경우에 대하여 적용함이 바람직할 수 있다. 상기 보더 부분(970)은, 예를 들어, 관심 영역(920)에 비해 큰 배치 영역(930)으로 인하여, 상기 처리 영역(930) 중 상기 관심 영역(920)에 포함되지 않는 영역에 해당할 수 있다.In (c) according to one embodiment, when processing an image using deep learning that applies an image processing model having a large batch size (930) compared to the region of interest (920), it may be desirable to apply it in cases where an image processing model having a similar size to the region of interest (920) should not be applied due to processing of a border portion (e.g., a border portion of the region of interest (920)) (970). The border portion (970) may correspond to an area of the processing region (930) that is not included in the region of interest (920), for example, due to a larger batch area (930) compared to the region of interest (920).

일 실시 예에 따르면, (c)에서의 보더 부분(970)이 관심 영역(920)의 테두리에서 일정하게 유지되도록, 이미지 처리 모델의 배치 영역(930)을 배치할 수 있다. 예컨대, 전자 장치(101)는 이미지 처리 모델의 배치 영역(930)이 관심 영역(920)보다 크다면, 상기 관심 영역(920)을 중심으로 좌측 상단 특정 픽셀을 지시할 수 있는 좌표 값(X, Y 좌표)보다 작도록, 상기 이미지 처리 모델의 배치 영역(930)에 들어갈 입력 좌표(input X, Y)를 설정할 수 있다. 그 이유는 딥-러닝을 기반으로 관심 영역(920)의 이미지를 처리할 때, 패딩(padding)이 요구될 경우에 0 혹은 주변 값으로 패딩 처리할 수 있기 때문이다. 이 경우에는 보드 부분(970)에서의 손실 또는 오류가 발생하는 것을 방지할 수 있다.According to one embodiment, the placement area (930) of the image processing model can be placed so that the border portion (970) in (c) is maintained constantly at the edge of the region of interest (920). For example, if the placement area (930) of the image processing model is larger than the region of interest (920), the electronic device (101) can set the input coordinates (input X, Y) to be entered into the placement area (930) of the image processing model to be smaller than the coordinate values (X, Y coordinates) that can indicate a specific pixel at the upper left corner centered on the region of interest (920). This is because, when processing the image of the region of interest (920) based on deep learning, padding can be processed with 0 or a surrounding value if padding is required. In this case, loss or error in the board portion (970) can be prevented.

다양한 실시 예들에 따르면, 전자 장치(예: 도 1의 전자 장치(101))는, 메모리; 카메라 모듈; 통신 모듈; 및 상기 메모리, 상기 카메라 모듈 또는 상기 통신 모듈 중 적어도 하나로부터 제공된 입력 이미지에 대한 딥-러닝을 기반으로 화질 처리를 수행하는 적어도 하나의 프로세서를 포함하며, 여기서, 상기 메모리는, 실행 시에 상기 적어도 하나의 프로세서가, 상기 입력 이미지로부터 화질 조정을 위한 관심 영역을 설정하고, 상기 메모리의 사용량과 상기 관심 영역의 크기를 고려하여 서로 다른 처리 크기를 갖는 복수의 이미지 처리 모델들 중 하나를 사용 이미지 처리 모델로 결정하며, 상기 관심 영역의 이미지에 대하여 상기 사용 이미지 처리 모델을 적용한 딥-러닝을 기반으로 화질 처리를 수행하도록 하는 인스트럭션들을 저장할 수 있다.According to various embodiments, an electronic device (e.g., the electronic device (101) of FIG. 1) includes: a memory; a camera module; a communication module; and at least one processor that performs image quality processing based on deep learning on an input image provided from at least one of the memory, the camera module, or the communication module, wherein the memory may store instructions that, when executed, cause the at least one processor to set a region of interest for image quality adjustment from the input image, determine one of a plurality of image processing models having different processing sizes as a used image processing model in consideration of the usage amount of the memory and the size of the region of interest, and perform image quality processing based on deep learning by applying the used image processing model to an image of the region of interest.

다양한 실시 예들에 따르면, 상기 인스트럭션들은 상기 적어도 하나의 프로세서가, 상기 관심 영역의 이미지에 대한 처리 속도를 더 고려하여 상기 복수의 이미지 처리 모델들 중 상기 하나의 이미지 처리 모델을 결정하도록 할 수 있다.According to various embodiments, the instructions may cause the at least one processor to determine the one image processing model among the plurality of image processing models by further considering the processing speed of the image of the region of interest.

다양한 실시 예들에 따르면, 상기 인스트럭션들은 상기 적어도 하나의 프로세서가, 상기 메모리의 사용량을 고려하여 이미지 처리를 위한 메모리 가용량을 결정하고, 복수의 이미지 처리 모델들 중 상기 결정된 메모리 가용량에 의해 처리 가능한 하나 또는 복수의 이미지 처리 모델을 분류하도록 할 수 있다.According to various embodiments, the instructions may cause the at least one processor to determine the memory availability for image processing by considering the usage of the memory, and classify one or more image processing models that can be processed by the determined memory availability among the plurality of image processing models.

다양한 실시 예들에 따르면, 상기 인스트럭션들은 상기 적어도 하나의 프로세서가, 상기 선택 이미지 처리 모델의 배치 영역이 상기 관심 영역보다 큰 경우, 상기 관심 영역의 보더 부분에 잉여 영역이 일정하게 존재하도록 상기 선택 이미지 처리 모델의 배치 영역을 위치시키도록 할 수 있다.According to various embodiments, the instructions may cause the at least one processor to position the placement area of the selected image processing model such that a surplus area is constantly present in a border portion of the area of interest when the placement area of the selected image processing model is larger than the area of interest.

다양한 실시 예들에 따르면, 상기 인스트럭션들은 상기 적어도 하나의 프로세서가, 상기 관심 영역보다 큰 배치 영역을 갖는 이미지 처리 모델이 복수인 경우, 상기 관심 영역보다 큰 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 관심 영역에 대하여 최소 잉여 영역을 갖는 이미지 처리 모델을 상기 선택 이미지 처리 모델로 지정하도록 할 수 있다.According to various embodiments, the instructions may cause the at least one processor to designate, when there are multiple image processing models having a layout area larger than the region of interest, an image processing model having a minimum surplus area with respect to the region of interest among the image processing models having a layout area larger than the region of interest as the selected image processing model.

다양한 실시 예들에 따르면, 상기 인스트럭션들은 상기 적어도 하나의 프로세서가, 상기 관심 영역보다 큰 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 선택 이미지 처리 모델이 결정되면, 상기 관심 영역의 보더 부분에 잉여 영역이 균일하게 분포하도록 상기 선택 이미지 처리 모델을 적용하도록 할 수 있다.According to various embodiments, the instructions may cause the at least one processor to apply the selected image processing model so that a surplus area is uniformly distributed in a border portion of the region of interest when the selected image processing model is determined from among image processing models having a placement area larger than the region of interest.

다양한 실시 예들에 따르면, 상기 인스트럭션들은 상기 적어도 하나의 프로세서가, 상기 선택 이미지 처리 모델의 배치 영역이 상기 관심 영역보다 작은 경우, 상기 관심 영역에서 오버랩 영역이 최소화되도록 상기 선택 이미지 처리 모델의 배치 영역을 위치시키도록 할 수 있다.According to various embodiments, the instructions may cause the at least one processor to position the placement area of the selected image processing model such that an overlapping area is minimized in the region of interest when the placement area of the selected image processing model is smaller than the region of interest.

다양한 실시 예들에 따르면, 상기 인스트럭션들은 상기 적어도 하나의 프로세서가, 상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델이 복수인 경우, 사용 횟수 또는 오버랩 영역을 고려하여 상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 선택 이미지 처리 모델을 지정하도록 할 수 있다.According to various embodiments, the instructions may cause the at least one processor to designate the selected image processing model from among the image processing models having a layout area smaller than the region of interest, taking into account the number of uses or the overlapping area, when there are multiple image processing models having a layout area smaller than the region of interest.

다양한 실시 예들에 따르면, 상기 인스트럭션들은 상기 적어도 하나의 프로세서가, 상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 관심 영역의 이미지를 처리할 때, 최소 오버랩 영역이 발생하는 하나의 이미지 처리 모델을 상기 선택 이미지 처리 모델로 결정하도록 할 수 있다.According to various embodiments, the instructions may cause the at least one processor to determine, as the selected image processing model, one image processing model having a minimum overlapping area when processing an image of the region of interest among image processing models having a layout area smaller than the region of interest.

다양한 실시 예들에 따르면, 상기 인스트럭션들은 상기 적어도 하나의 프로세서가, 상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 관심 영역의 이미지를 처리할 때, 최소 사용 횟수를 갖도록 하는 하나의 이미지 처리 모델을 상기 선택 이미지 처리 모델로 결정하도록 할 수 있다.According to various embodiments, the instructions may cause the at least one processor to determine, as the selected image processing model, one image processing model having a minimum number of uses when processing an image of the region of interest among image processing models having a layout area smaller than the region of interest.

다양한 실시 예들에 따르면, 전자 장치(예: 도 1의 전자 장치(101))에서 딥-러닝을 기반으로 화질 처리를 수행하는 방법은, 입력 이미지로부터 상기 딥-러닝을 기반으로 화질 처리할 관심 영역을 설정하는 동작; 메모리의 사용량과 상기 관심 영역의 크기를 고려하여 서로 다른 처리 크기를 갖는 복수의 이미지 처리 모델들 중 하나를 사용 이미지 처리 모델로 결정하는 동작; 및 상기 관심 영역의 이미지에 대하여 상기 사용 이미지 처리 모델을 적용한 딥-러닝을 기반으로 화질 처리를 수행하는 동작을 포함할 수 있다.According to various embodiments, a method for performing image quality processing based on deep learning in an electronic device (e.g., the electronic device (101) of FIG. 1) may include: setting a region of interest to be image quality processed based on the deep learning from an input image; determining one of a plurality of image processing models having different processing sizes as a used image processing model by considering the amount of memory used and the size of the region of interest; and performing image quality processing based on deep learning by applying the used image processing model to an image of the region of interest.

다양한 실시 예들에 따르면, 상기 사용 이미지 처리 모델로 결정하는 동작은, 상기 관심 영역의 이미지에 대한 처리 속도를 더 고려하여 상기 복수의 이미지 처리 모델들 중 상기 하나의 이미지 처리 모델을 결정하는 동작일 수 있다.According to various embodiments, the operation of determining the image processing model to be used may be an operation of determining one image processing model among the plurality of image processing models by further considering the processing speed of the image of the region of interest.

다양한 실시 예들에 따르면, 상기 선택 이미지 처리 모델로 결정하는 동작은, 상기 메모리의 사용량을 고려하여 이미지 처리를 위한 메모리 가용량을 결정하고, 복수의 이미지 처리 모델들 중 상기 결정된 메모리 가용량에 의해 처리 가능한 하나 또는 복수의 이미지 처리 모델을 분류하는 동작을 더 포함할 수 있다.According to various embodiments, the operation of determining the selected image processing model may further include an operation of determining the memory capacity for image processing by considering the memory usage, and classifying one or more image processing models that can be processed by the determined memory capacity among a plurality of image processing models.

다양한 실시 예들에 따르면, 상기 화질 처리를 수행하는 동작하는 동작은, 상기 선택 이미지 처리 모델의 배치 영역이 상기 관심 영역보다 큰 경우, 상기 관심 영역의 보더 부분에 잉여 영역이 일정하게 존재하도록 상기 선택 이미지 처리 모델의 배치 영역을 위치시키는 동작을 더 포함할 수 있다.According to various embodiments, the operation of performing the image quality processing may further include an operation of positioning the placement area of the selected image processing model so that a surplus area is constantly present in a border portion of the area of interest when the placement area of the selected image processing model is larger than the area of interest.

다양한 실시 예들에 따르면, 상기 사용 이미지 처리 모델로 결정하는 동작은, 상기 관심 영역보다 큰 배치 영역을 갖는 이미지 처리 모델이 복수인 경우, 상기 관심 영역보다 큰 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 관심 영역에 대하여 최소 잉여 영역을 갖는 이미지 처리 모델을 상기 선택 이미지 처리 모델로 지정하는 동작일 수 있다.According to various embodiments, the operation of determining the image processing model to be used may be an operation of designating, as the selected image processing model, an image processing model having a minimum surplus area for the area of interest among the image processing models having a layout area larger than the area of interest, when there are multiple image processing models having a layout area larger than the area of interest.

다양한 실시 예들에 따르면, 상기 관심 영역보다 큰 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 선택 이미지 처리 모델이 결정되면, 상기 관심 영역의 보더 부분에 잉여 영역이 균일하게 분포하도록 상기 선택 이미지 처리 모델을 적용할 수 있다.According to various embodiments, when the selected image processing model is determined from among image processing models having a placement area larger than the region of interest, the selected image processing model can be applied so that a surplus area is uniformly distributed in the border portion of the region of interest.

다양한 실시 예들에 따르면, 상기 선택 이미지 처리 모델의 배치 영역이 상기 관심 영역보다 작은 경우, 상기 관심 영역에서 오버랩 영역이 최소화되도록 상기 선택 이미지 처리 모델의 배치 영역을 위치시키는 동작을 더 포함할 수 있다.According to various embodiments, if the placement area of the selected image processing model is smaller than the region of interest, the method may further include positioning the placement area of the selected image processing model so that an overlapping area in the region of interest is minimized.

다양한 실시 예들에 따르면, 상기 사용 이미지 처리 모델로 결정하는 동작은, 상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델이 복수인 경우, 사용 횟수 또는 오버랩 영역을 고려하여 상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 선택 이미지 처리 모델을 지정하는 동작일 수 있다.According to various embodiments, the operation of determining the image processing model to be used may be an operation of designating the selected image processing model from among the image processing models having a placement area smaller than the region of interest, taking into account the number of uses or the overlapping area, when there are multiple image processing models having a placement area smaller than the region of interest.

다양한 실시 예들에 따르면, 상기 사용 이미지 처리 모델로 결정하는 동작은, 상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 관심 영역의 이미지를 처리할 때, 최소 오버랩 영역이 발생하는 하나의 이미지 처리 모델을 상기 선택 이미지 처리 모델로 결정할 수 있다.According to various embodiments, the operation of determining the image processing model to be used may determine, as the selected image processing model, one image processing model that produces the minimum overlapping area when processing an image of the region of interest among image processing models having a smaller layout area than the region of interest.

다양한 실시 예들에 따르면, 상기 사용 이미지 처리 모델로 결정하는 동작은, 상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 관심 영역의 이미지를 처리할 때, 최소 사용 횟수를 갖도록 하는 하나의 이미지 처리 모델을 상기 선택 이미지 처리 모델로 결정하는 동작일 수 있다.According to various embodiments, the operation of determining the image processing model to be used may be an operation of determining, as the selected image processing model, one image processing model that has a minimum number of uses when processing an image of the region of interest among image processing models having a smaller layout area than the region of interest.

본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 노트북, PDA, 휴대용 멀티미디어 장치, 휴대용 의료 기기를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to the various embodiments disclosed in this document may take various forms. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, laptops, PDAs, portable multimedia devices, and portable medical devices. Electronic devices according to the embodiments disclosed in this document are not limited to the aforementioned devices.

본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“또는 B 중 적어도 하나”, "A, B 또는 C", "A, B 및 C 중 적어도 하나” 및 “B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 어떤 구성요소가 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and the terminology used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, similar reference numerals may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more items, unless the context clearly indicates otherwise. In this document, phrases such as "A or B," "at least one of A and B," "or at least one of B," "A, B, or C," "at least one of A, B, and C," and "at least one of B or C" can each include any one of the items listed together in the corresponding phrase, or all possible combinations thereof. Terms such as "first," "second," or "first" or "second" may be used simply to distinguish the corresponding component from other corresponding components, and do not limit the corresponding components in any other respect (e.g., importance or order). When a component (e.g., a first component) is referred to as being “coupled” or “connected” to another component (e.g., a second component), with or without the terms “functionally” or “communicatively,” it means that the component can be connected to the other component directly (e.g., wired), wirelessly, or through a third component.

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" as used herein may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit. A module may be an integral component, or a minimum unit or part of a component that performs one or more functions. For example, according to one embodiment, a module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시 예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 적어도 하나의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document may be implemented as software (e.g., a program (140)) including at least one instruction stored in a storage medium (e.g., an internal memory (136) or an external memory (138)) readable by a machine (e.g., an electronic device (101)). For example, a processor (e.g., a processor (120)) of the machine (e.g., an electronic device (101)) may call at least one instruction among the one or more instructions stored from the storage medium and execute it. This enables the machine to operate to perform at least one function according to the at least one called instruction. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The machine-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' simply means that the storage medium is a tangible device and does not contain signals (e.g., electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently or temporarily on the storage medium.

일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: CD-ROM(compact disc read only memory))의 형태로 배포되거나, 또는 애플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 애플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to the various embodiments disclosed in the present document may be provided as included in a computer program product. The computer program product may be traded as a product between a seller and a buyer. The computer program product may be distributed in the form of a machine-readable storage medium (e.g., a compact disc read-only memory (CD-ROM)), or may be distributed online (e.g., downloaded or uploaded) via an application store (e.g., Play Store™) or directly between two user devices (e.g., smartphones). In the case of online distribution, at least a portion of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or an intermediary server.

다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱(heuristic)하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (e.g., a module or a program) of the above-described components may include a single or multiple entities. According to various embodiments, one or more components or operations of the aforementioned components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (e.g., a module or a program) may be integrated into a single component. In such a case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to integration. According to various embodiments, the operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added.

Claims (20)

전자 장치에 있어서,
메모리;
카메라 모듈; 및
상기 카메라 모듈로부터 제공된 입력 이미지에 대한 딥-러닝을 기반으로 화질 처리를 수행하는 적어도 하나의 프로세서를 포함하며,
여기서, 상기 메모리는, 실행 시에 상기 적어도 하나의 프로세서가,
상기 입력 이미지로부터 화질 조정을 위한 관심 영역을 설정하고,
상기 메모리의 사용량과 상기 관심 영역의 크기를 고려하여 서로 다른 배치 크기(batch size)를 갖는 복수의 이미지 처리 모델들 중 하나를 선택 이미지 처리 모델로 지정하며,
상기 관심 영역의 이미지에 대하여 상기 선택 이미지 처리 모델을 적용한 딥-러닝을 기반으로 화질 처리를 수행하고,
상기 선택 이미지 처리 모델의 배치 영역이 상기 관심 영역보다 큰 경우, 상기 관심 영역의 보더 부분에 잉여 영역이 일정하게 존재하도록 상기 선택 이미지 처리 모델의 배치 영역을 위치시키도록 하는 인스트럭션들을 저장하는, 전자 장치.

In electronic devices,
memory;
camera module; and
At least one processor that performs image quality processing based on deep learning on an input image provided from the camera module,
Here, the memory is such that, when executed, the at least one processor,
Set a region of interest for image quality adjustment from the above input image,
Considering the usage of the above memory and the size of the region of interest, one of the multiple image processing models having different batch sizes is designated as the selected image processing model.
Perform image quality processing based on deep learning by applying the above-mentioned selection image processing model to the image of the above-mentioned area of interest,
An electronic device storing instructions for positioning the placement area of the selected image processing model so that a surplus area is constantly present in the border portion of the area of interest when the placement area of the selected image processing model is larger than the area of interest.

제1항에 있어서,
상기 인스트럭션들은 상기 적어도 하나의 프로세서가,
상기 관심 영역의 이미지에 대한 처리 속도를 더 고려하여 상기 복수의 이미지 처리 모델들 중 상기 선택 이미지 처리 모델을 결정하도록 하는, 전자 장치.
In the first paragraph,
The above instructions cause at least one processor to:
An electronic device that determines the selected image processing model among the plurality of image processing models by further considering the processing speed of the image of the region of interest.
제1항에 있어서,
상기 인스트럭션들은 상기 적어도 하나의 프로세서가,
상기 메모리의 사용량을 고려하여 이미지 처리를 위한 메모리 가용량을 결정하고, 복수의 이미지 처리 모델들 중 상기 결정된 메모리 가용량에 의해 처리 가능한 하나 또는 복수의 이미지 처리 모델을 분류하도록 하는, 전자 장치.
In the first paragraph,
The above instructions cause at least one processor to:
An electronic device that determines the memory capacity for image processing by considering the usage of the above memory, and classifies one or more image processing models that can be processed by the determined memory capacity among a plurality of image processing models.
삭제delete 제1항에 있어서,
상기 인스트럭션들은 상기 적어도 하나의 프로세서가,
상기 관심 영역보다 큰 배치 영역을 갖는 이미지 처리 모델이 복수인 경우, 상기 관심 영역보다 큰 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 관심 영역에 대하여 최소 잉여 영역을 갖는 이미지 처리 모델을 상기 선택 이미지 처리 모델로 지정하도록 하는, 전자 장치.
In the first paragraph,
The above instructions cause at least one processor to:
An electronic device that, when there are multiple image processing models having a placement area larger than the region of interest, designates an image processing model having the smallest surplus area for the region of interest among the image processing models having a placement area larger than the region of interest as the selected image processing model.
제5항에 있어서,
상기 인스트럭션들은 상기 적어도 하나의 프로세서가,
상기 관심 영역보다 큰 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 선택 이미지 처리 모델이 결정되면, 상기 관심 영역의 보더 부분에 잉여 영역이 균일하게 분포하도록 상기 선택 이미지 처리 모델을 적용하도록 하는, 전자 장치.
In paragraph 5,
The above instructions cause at least one processor to:
An electronic device that, when the selected image processing model is determined from among image processing models having a placement area larger than the region of interest, applies the selected image processing model so that a surplus area is uniformly distributed in the border portion of the region of interest.
제1항에 있어서,
상기 인스트럭션들은 상기 적어도 하나의 프로세서가,
상기 선택 이미지 처리 모델의 배치 영역이 상기 관심 영역보다 작은 경우, 상기 관심 영역에서 오버랩 영역이 최소화되도록 상기 선택 이미지 처리 모델의 배치 영역을 위치시키도록 하는, 전자 장치.
In the first paragraph,
The above instructions cause at least one processor to:
An electronic device that positions the placement area of the selected image processing model so that the overlapping area in the area of interest is minimized when the placement area of the selected image processing model is smaller than the area of interest.
제1항에 있어서,
상기 인스트럭션들은 상기 적어도 하나의 프로세서가,
상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델이 복수인 경우, 사용 횟수 또는 오버랩 영역을 고려하여 상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 선택 이미지 처리 모델을 지정하도록 하는, 전자 장치.
In the first paragraph,
The above instructions cause at least one processor to:
An electronic device that, when there are multiple image processing models having a placement area smaller than the region of interest, designates the selected image processing model among the image processing models having a placement area smaller than the region of interest by considering the number of uses or the overlapping area.
제8항에 있어서,
상기 인스트럭션들은 상기 적어도 하나의 프로세서가,
상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 관심 영역의 이미지를 처리할 때, 최소 오버랩 영역이 발생하는 하나의 이미지 처리 모델을 상기 선택 이미지 처리 모델로 결정하도록 하는, 전자 장치.
In paragraph 8,
The above instructions cause at least one processor to:
An electronic device that determines, when processing an image of the region of interest among image processing models having a placement area smaller than the region of interest, one image processing model that produces a minimum overlapping area as the selected image processing model.
제8항에 있어서,
상기 인스트럭션들은 상기 적어도 하나의 프로세서가,
상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 관심 영역의 이미지를 처리할 때, 최소 사용 횟수를 갖도록 하는 하나의 이미지 처리 모델을 상기 선택 이미지 처리 모델로 결정하도록 하는, 전자 장치.
In paragraph 8,
The above instructions cause at least one processor to:
An electronic device that determines, as the selected image processing model, one image processing model that has a minimum number of uses when processing an image of the region of interest among image processing models having a smaller layout area than the region of interest.
전자 장치에서 딥-러닝을 기반으로 화질 처리를 수행하는 방법에 있어서,
입력 이미지로부터 상기 딥-러닝을 기반으로 화질 처리할 관심 영역을 설정하는 동작;
메모리의 사용량과 상기 관심 영역의 크기를 고려하여 서로 다른 배치 크기(batch size)를 갖는 복수의 이미지 처리 모델들 중 하나를 선택 이미지 처리 모델로 결정하는 동작;
상기 관심 영역의 이미지에 대하여 상기 선택 이미지 처리 모델을 적용한 딥-러닝을 기반으로 화질 처리를 수행하는 동작; 및
상기 선택 이미지 처리 모델의 배치 영역이 상기 관심 영역보다 큰 경우, 상기 관심 영역의 보더 부분에 잉여 영역이 일정하게 존재하도록 상기 선택 이미지 처리 모델의 배치 영역을 위치시키는 동작을 포함하는, 방법.

A method for performing image quality processing based on deep learning in an electronic device,
An operation of setting a region of interest for image quality processing based on the deep learning from an input image;
An operation of determining one of a plurality of image processing models having different batch sizes as a selected image processing model, taking into account the memory usage and the size of the region of interest;
An operation of performing image quality processing based on deep learning by applying the selected image processing model to the image of the above region of interest; and
A method comprising an operation of positioning the placement area of the selected image processing model so that a surplus area is constantly present in the border portion of the area of interest when the placement area of the selected image processing model is larger than the area of interest.

◈청구항 12은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 12 was waived upon payment of the registration fee.◈ 제11항에 있어서,
상기 선택 이미지 처리 모델로 결정하는 동작은,
상기 관심 영역의 이미지에 대한 처리 속도를 더 고려하여 상기 복수의 이미지 처리 모델들 중 상기 선택 이미지 처리 모델을 결정하는 동작인, 방법.
In Article 11,
The operation determined by the above selection image processing model is:
A method for determining the selected image processing model among the plurality of image processing models by further considering the processing speed of the image of the region of interest.
◈청구항 13은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 13 was waived upon payment of the registration fee.◈ 제11항에 있어서,
상기 선택 이미지 처리 모델로 결정하는 동작은,
상기 메모리의 사용량을 고려하여 이미지 처리를 위한 메모리 가용량을 결정하고, 복수의 이미지 처리 모델들 중 상기 결정된 메모리 가용량에 의해 처리 가능한 하나 또는 복수의 이미지 처리 모델을 분류하는 동작을 더 포함하는, 방법.
In Article 11,
The operation determined by the above selection image processing model is:
A method further comprising an operation of determining the memory capacity for image processing by considering the usage of the above memory, and classifying one or more image processing models that can be processed by the determined memory capacity among a plurality of image processing models.
삭제delete ◈청구항 15은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 15 was waived upon payment of the registration fee.◈ 제11항에 있어서,
상기 선택 이미지 처리 모델로 결정하는 동작은,
상기 관심 영역보다 큰 배치 영역을 갖는 이미지 처리 모델이 복수인 경우, 상기 관심 영역보다 큰 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 관심 영역에 대하여 최소 잉여 영역을 갖는 이미지 처리 모델을 상기 선택 이미지 처리 모델로 지정하는 동작인, 방법.
In Article 11,
The operation determined by the above selection image processing model is:
A method for designating, when there are multiple image processing models having a placement area larger than the region of interest, an image processing model having a minimum surplus area for the region of interest among the image processing models having a placement area larger than the region of interest as the selected image processing model.
◈청구항 16은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 16 was waived upon payment of the registration fee.◈ 제15항에 있어서,
상기 관심 영역보다 큰 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 선택 이미지 처리 모델이 결정되면, 상기 관심 영역의 보더 부분에 잉여 영역이 균일하게 분포하도록 상기 선택 이미지 처리 모델을 적용하는, 방법.
In Article 15,
A method in which, when the selected image processing model is determined from among image processing models having a placement area larger than the region of interest, the selected image processing model is applied so that a surplus area is uniformly distributed in the border portion of the region of interest.
◈청구항 17은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 17 was waived upon payment of the registration fee.◈ 제11항에 있어서,
상기 선택 이미지 처리 모델의 배치 영역이 상기 관심 영역보다 작은 경우, 상기 관심 영역에서 오버랩 영역이 최소화되도록 상기 선택 이미지 처리 모델의 배치 영역을 위치시키는 동작을 더 포함하는, 방법.
In Article 11,
A method further comprising an action of positioning the placement area of the selected image processing model so that an overlapping area in the area of interest is minimized when the placement area of the selected image processing model is smaller than the area of interest.
◈청구항 18은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 18 was waived upon payment of the registration fee.◈ 제11항에 있어서,
상기 선택 이미지 처리 모델로 결정하는 동작은,
상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델이 복수인 경우, 사용 횟수 또는 오버랩 영역을 고려하여 상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 선택 이미지 처리 모델을 지정하는 동작인, 방법.
In Article 11,
The operation determined by the above selection image processing model is:
A method for designating a selected image processing model among image processing models having a placement area smaller than the region of interest, taking into account the number of uses or the overlapping area, when there are multiple image processing models having a placement area smaller than the region of interest.
◈청구항 19은(는) 설정등록료 납부시 포기되었습니다.◈제18항에 있어서,
상기 선택 이미지 처리 모델로 결정하는 동작은,
상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 관심 영역의 이미지를 처리할 때, 최소 오버랩 영역이 발생하는 하나의 이미지 처리 모델을 상기 선택 이미지 처리 모델로 결정하는, 방법.
◈Claim 19 was waived upon payment of the registration fee.◈ In Article 18,
The operation determined by the above selection image processing model is:
A method for determining, as the selected image processing model, one image processing model that produces the minimum overlapping area when processing an image of the region of interest among image processing models having a smaller layout area than the region of interest.
◈청구항 20은(는) 설정등록료 납부시 포기되었습니다.◈제18항에 있어서,
상기 선택 이미지 처리 모델로 결정하는 동작은,
상기 관심 영역보다 작은 배치 영역을 갖는 이미지 처리 모델들 중에서 상기 관심 영역의 이미지를 처리할 때, 최소 사용 횟수를 갖도록 하는 하나의 이미지 처리 모델을 상기 선택 이미지 처리 모델로 결정하는 동작인, 방법.
◈Claim 20 was waived upon payment of the registration fee.◈ In Article 18,
The operation determined by the above selection image processing model is:
A method for determining, as the selected image processing model, one image processing model that has a minimum number of uses when processing an image of the region of interest among image processing models having a smaller layout area than the region of interest.
KR1020200016134A 2020-02-11 2020-02-11 An electronic device for proccesing an image and a method thereof Active KR102904535B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200016134A KR102904535B1 (en) 2020-02-11 2020-02-11 An electronic device for proccesing an image and a method thereof
PCT/KR2021/000914 WO2021162273A1 (en) 2020-02-11 2021-01-22 Electronic device and method for performing image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200016134A KR102904535B1 (en) 2020-02-11 2020-02-11 An electronic device for proccesing an image and a method thereof

Publications (2)

Publication Number Publication Date
KR20210101768A KR20210101768A (en) 2021-08-19
KR102904535B1 true KR102904535B1 (en) 2025-12-29

Family

ID=77292872

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200016134A Active KR102904535B1 (en) 2020-02-11 2020-02-11 An electronic device for proccesing an image and a method thereof

Country Status (2)

Country Link
KR (1) KR102904535B1 (en)
WO (1) WO2021162273A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116824342A (en) * 2022-03-16 2023-09-29 杭州海康威视数字技术股份有限公司 An image processing method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140197835A1 (en) 2011-09-29 2014-07-17 Hitachi Medical Corporation Magnetic resonance imaging apparatus and magnetic resonance imaging method
US20180330166A1 (en) 2017-05-09 2018-11-15 Blue River Technology Inc. Automated plant detection using image data
US20180365065A1 (en) * 2017-07-31 2018-12-20 Seematics Systems Ltd System and method for estimating required processing resources for machine learning tasks

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0787397A (en) * 1993-09-14 1995-03-31 Toshiba Corp X-ray fluoroscopic diagnostic device
US9864925B2 (en) * 2016-02-15 2018-01-09 Ebay Inc. Digital image presentation
KR102359391B1 (en) * 2016-11-08 2022-02-04 삼성전자주식회사 method and device for adjusting an image
KR102287043B1 (en) * 2017-05-22 2021-08-06 삼성전자주식회사 Electronic device for processing image acquired by using camera and method for operating thefeof
KR102463175B1 (en) * 2017-09-04 2022-11-04 삼성전자주식회사 Method and apparatus of recognizing object
CN108737750A (en) * 2018-06-07 2018-11-02 北京旷视科技有限公司 Image processing method, device and electronic equipment
KR20190110965A (en) * 2019-09-11 2019-10-01 엘지전자 주식회사 Method and apparatus for enhancing image resolution
KR20190119550A (en) * 2019-10-02 2019-10-22 엘지전자 주식회사 Method and apparatus for enhancing image resolution

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140197835A1 (en) 2011-09-29 2014-07-17 Hitachi Medical Corporation Magnetic resonance imaging apparatus and magnetic resonance imaging method
US20180330166A1 (en) 2017-05-09 2018-11-15 Blue River Technology Inc. Automated plant detection using image data
US20180365065A1 (en) * 2017-07-31 2018-12-20 Seematics Systems Ltd System and method for estimating required processing resources for machine learning tasks

Also Published As

Publication number Publication date
WO2021162273A1 (en) 2021-08-19
KR20210101768A (en) 2021-08-19

Similar Documents

Publication Publication Date Title
US11102409B2 (en) Electronic device and method for obtaining images
US11144197B2 (en) Electronic device performing function according to gesture input and operation method thereof
US11048923B2 (en) Electronic device and gesture recognition method thereof
US20220417446A1 (en) Electronic device for editing video using objects of interest and operating method thereof
KR102423295B1 (en) An apparatus for composing objects using depth map and a method thereof
US20240404287A1 (en) Electronic device and method for providing service corresponding to selection of object in image
US11467673B2 (en) Method for controlling camera and electronic device therefor
EP3718296B1 (en) Electronic device and method for controlling autofocus of camera
KR20200067027A (en) Electronic device for acquiring depth information using at least one of cameras or depth sensor
US12035053B2 (en) Method for processing photographed image and electronic device therefor
US12388944B2 (en) Electronic device and method for capturing image by using angle of view of camera module
US12501171B2 (en) Image capturing method and electronic device for capturing images using different light emissions
KR102745872B1 (en) Electronic device and method for generating images by performing auto white balance
US11601590B2 (en) Interface connected to image sensor and electronic device comprising interfaces connected among plurality of processors
US10970587B2 (en) Electronic device for notifying of update of image signal processing and method for operating the same
US11126322B2 (en) Electronic device and method for sharing image with external device using image link information
KR102904535B1 (en) An electronic device for proccesing an image and a method thereof
US11032462B2 (en) Method for adjusting focus based on spread-level of display object and electronic device supporting the same
CN113727013A (en) Method and apparatus for providing image capturing guide
KR20220016695A (en) Electronic device and method for image segmentation based on deep learning
US20210019869A1 (en) Method for synthesizing image on reflective object on basis of attribute of reflective object included in different image, and electronic device
KR102892004B1 (en) Photographing method of electronic apparatus and electronic apparatus thereof
US20220358776A1 (en) Electronic device and operating method thereof
KR102753923B1 (en) An electronic device for supporting image quality adjustment and a method thereof
KR20250148254A (en) Method for providing image using plurality of cameras and electronic device for supporting the same

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

A201 Request for examination
PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

D22 Grant of ip right intended

Free format text: ST27 STATUS EVENT CODE: A-1-2-D10-D22-EXM-PE0701 (AS PROVIDED BY THE NATIONAL OFFICE)

PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

F11 Ip right granted following substantive examination

Free format text: ST27 STATUS EVENT CODE: A-2-4-F10-F11-EXM-PR0701 (AS PROVIDED BY THE NATIONAL OFFICE)

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

U11 Full renewal or maintenance fee paid

Free format text: ST27 STATUS EVENT CODE: A-2-2-U10-U11-OTH-PR1002 (AS PROVIDED BY THE NATIONAL OFFICE)

Year of fee payment: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

Q13 Ip right document published

Free format text: ST27 STATUS EVENT CODE: A-4-4-Q10-Q13-NAP-PG1601 (AS PROVIDED BY THE NATIONAL OFFICE)