[go: up one dir, main page]

WO2023229136A1 - 렌즈 어셈블리 및 그를 포함하는 전자 장치 - Google Patents

렌즈 어셈블리 및 그를 포함하는 전자 장치 Download PDF

Info

Publication number
WO2023229136A1
WO2023229136A1 PCT/KR2023/000385 KR2023000385W WO2023229136A1 WO 2023229136 A1 WO2023229136 A1 WO 2023229136A1 KR 2023000385 W KR2023000385 W KR 2023000385W WO 2023229136 A1 WO2023229136 A1 WO 2023229136A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens assembly
lens
optical axis
optical member
electronic device
Prior art date
Application number
PCT/KR2023/000385
Other languages
English (en)
French (fr)
Inventor
이용재
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to CN202380037673.1A priority Critical patent/CN119278398A/zh
Priority to EP23811925.9A priority patent/EP4481460A4/en
Priority to US18/156,799 priority patent/US20230384566A1/en
Priority to US18/323,822 priority patent/US20230388616A1/en
Publication of WO2023229136A1 publication Critical patent/WO2023229136A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0015Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design
    • G02B13/002Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design having at least one aspherical surface
    • G02B13/0035Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras characterised by the lens design having at least one aspherical surface having three lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/02Telephoto objectives, i.e. systems of the type + - in which the distance from the front vertex to the image plane is less than the equivalent focal length
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/18Optical objectives specially designed for the purposes specified below with lenses having one or more non-spherical faces, e.g. for reducing geometrical aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B17/00Systems with reflecting surfaces, with or without refracting elements
    • G02B17/08Catadioptric systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/64Imaging systems using optical elements for stabilisation of the lateral and angular position of the image
    • G02B27/646Imaging systems using optical elements for stabilisation of the lateral and angular position of the image compensating for small deviations, e.g. due to vibration or shake
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/10Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B9/00Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or -
    • G02B9/64Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or - having more than six components

Definitions

  • the present disclosure relates to electronic devices, for example, a lens assembly and an electronic device including the same.
  • Electronic devices refer to devices designated according to the installed program, such as home appliances, electronic notebooks, portable multimedia players, mobile communication terminals, tablet PCs (personal computers), video/audio devices, desktop/laptop computers, and/or car navigation devices. It may refer to a device that performs a function. For example, these electronic devices can output stored information as sound or video.
  • various functions can be installed in a single electronic device such as a mobile communication terminal. For example, in addition to communication functions, entertainment functions such as games, multimedia functions such as music/video playback, communication and security functions for mobile banking, etc., and/or schedule management or electronic wallet functions can be integrated into one electronic device. It is being concentrated.
  • the electronic device may include, for example, a camera module including a wide-angle camera and a telephoto camera.
  • Electronic devices can acquire wide-angle images by photographing a wide range of scenes around the electronic device using a wide-angle camera, or acquire telephoto images by photographing a scene corresponding to a relatively distant location from the electronic device using a telephoto camera. You can.
  • miniaturized electronic devices such as smartphones are encroaching on the compact camera market by including multiple camera modules and/or lens assemblies, and are expected to replace high-performance cameras such as single-lens reflex cameras in the future. do.
  • one aspect of the present disclosure is to provide a lens assembly and an electronic device including the same.
  • a lens assembly includes at least two lenses arranged along a first optical axis direction from the object side, and an image sensor set to receive light guided and/or focused through the at least two lenses, with respect to the first optical axis.
  • a first optical member disposed between the image sensor, the at least two lenses, and the image sensor, including an image forming surface disposed at an angle, and receiving light incident through the at least two lenses in the first optical axis direction.
  • the first optical member emitting light along a second optical axis direction intersecting the first optical axis, and a second optical member disposed between the first optical member and the image sensor, wherein the first optical member emits light along a second optical axis direction intersecting the first optical axis. It may include a second optical member that receives light incident through the optical member and emits it to the image sensor along a third optical axis direction intersecting the second optical axis.
  • the lens assembly has a conditional expression regarding 'TTL', which is the length from the object-side surface of the first lens on the object side to the sensor-side surface of the first lens on the image sensor, and 'f', which is the focal length of the lens assembly.
  • an electronic device may include a lens assembly and a processor configured to acquire an image by receiving external light using the lens assembly.
  • the lens assembly includes at least two lenses arranged along a first optical axis direction from an object side, and an image sensor configured to receive light guided and/or focused through the at least two lenses,
  • the image sensor including an imaging surface disposed inclined with respect to the first optical axis, a first optical member disposed between the at least two lenses and the image sensor, the at least two lenses in the direction of the first optical axis a first optical member that receives light through and emits it along a second optical axis direction intersecting the first optical axis, and a second optical member disposed between the first optical member and the image sensor, wherein the second optical member It may include a second optical member that receives light through the first optical member in an optical axis direction and outputs the light to the image sensor along a third optical axis that intersects the second optical axis.
  • FIG. 1 is a block diagram showing an electronic device in a network environment, according to an embodiment of the present disclosure.
  • Figure 2 is a perspective view showing the front of an electronic device according to an embodiment of the present disclosure.
  • FIG. 3 is a perspective view showing the back of the electronic device shown in FIG. 2 according to an embodiment of the present disclosure.
  • FIG. 4 is an exploded perspective view of the electronic device shown in FIG. 2 according to an embodiment of the present disclosure.
  • Figure 5 is a plan view illustrating the rear of an electronic device according to an embodiment of the present disclosure.
  • FIG. 6 is a cross-sectional view showing a portion of an electronic device according to an embodiment of the present disclosure taken along line AA′ of FIG. 5 .
  • Figure 7 is a configuration diagram illustrating an optical path of a camera module in an electronic device according to an embodiment of the present disclosure.
  • Figure 8 is a diagram showing a lens assembly according to an embodiment of the present disclosure.
  • FIG. 9 is a diagram illustrating a second optical member of the lens assembly of FIG. 8 according to an embodiment of the present disclosure.
  • FIG. 10 is a graph showing spherical aberration of the lens assembly of FIG. 8 according to an embodiment of the present disclosure.
  • FIG. 11 is a graph showing astigmatism of the lens assembly of FIG. 8 according to an embodiment of the present disclosure.
  • FIG. 12 is a graph showing the distortion rate of the lens assembly of FIG. 8 according to an embodiment of the present disclosure.
  • Figure 13 is a diagram showing a lens assembly according to an embodiment of the present disclosure.
  • FIG. 14 is a graph showing spherical aberration of the lens assembly of FIG. 13 according to an embodiment of the present disclosure.
  • FIG. 15 is a graph showing astigmatism of the lens assembly of FIG. 13 according to an embodiment of the present disclosure.
  • FIG. 16 is a graph showing the distortion rate of the lens assembly of FIG. 13 according to an embodiment of the present disclosure.
  • Figure 17 is a diagram showing a lens assembly according to an embodiment of the present disclosure.
  • FIG. 18 is a graph showing spherical aberration of the lens assembly of FIG. 17 according to an embodiment of the present disclosure.
  • FIG. 19 is a graph showing astigmatism of the lens assembly of FIG. 17 according to an embodiment of the present disclosure.
  • FIG. 20 is a graph showing the distortion rate of the lens assembly of FIG. 17 according to an embodiment of the present disclosure.
  • Figure 21 is a diagram showing a lens assembly according to an embodiment of the present disclosure.
  • FIG. 22 is a graph showing spherical aberration of the lens assembly of FIG. 21 according to an embodiment of the present disclosure.
  • FIG. 23 is a graph showing astigmatism of the lens assembly of FIG. 21 according to an embodiment of the present disclosure.
  • FIG. 24 is a graph showing the distortion rate of the lens assembly of FIG. 21 according to an embodiment of the present disclosure.
  • Figure 25 is a diagram showing a lens assembly according to an embodiment of the present disclosure.
  • FIG. 26 is a graph showing spherical aberration of the lens assembly of FIG. 25 according to an embodiment of the present disclosure.
  • FIG. 27 is a graph showing astigmatism of the lens assembly of FIG. 25 according to an embodiment of the present disclosure.
  • FIG. 28 is a graph showing the distortion rate of the lens assembly of FIG. 25 according to an embodiment of the present disclosure.
  • Figure 29 is a diagram showing a lens assembly according to an embodiment of the present disclosure.
  • FIG. 30 is a graph showing spherical aberration of the lens assembly of FIG. 29 according to an embodiment of the present disclosure.
  • FIG. 31 is a graph showing astigmatism of the lens assembly of FIG. 29 according to an embodiment of the present disclosure.
  • FIG. 32 is a graph showing the distortion rate of the lens assembly of FIG. 29 according to an embodiment of the present disclosure.
  • component surface may be understood to include one or more of the surfaces of the component.
  • One embodiment of the present disclosure is intended to solve at least the above-described problems and/or disadvantages and provide at least the advantages described later, and can provide a lens assembly with improved design freedom and/or an electronic device including the same.
  • One embodiment of the present disclosure can provide a lens assembly and/or an electronic device including the same that can be easily placed in a narrow space.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • a first network 198 e.g., a short-range wireless communication network
  • a second network 199 e.g., a second network 199.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
  • at least one of these components eg, the connection terminal 178) may be omitted, or one or more other components may be added to the electronic device 101.
  • some of these components are integrated into one component (e.g., display module 160). It can be.
  • the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • software e.g., program 140
  • the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
  • the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • the processor 120 is a main processor 121 (e.g., a central processing unit or an application processor), or an auxiliary processor 123 (e.g., a graphics processing unit, a neural network processing unit) that can operate independently or together with the main processor 121. (NPU; neural processing unit), image signal processor, sensor hub processor, or communication processor).
  • main processor 121 e.g., a central processing unit or an application processor
  • auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit
  • the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
  • the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
  • the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
  • coprocessor 123 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
  • Memory 130 may include volatile memory 132 or non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
  • the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
  • the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101.
  • the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g. : Sound can be output through the electronic device 102 (e.g., speaker or headphone).
  • an external electronic device e.g. : Sound can be output through the electronic device 102 (e.g., speaker or headphone).
  • the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 to an external electronic device (eg, the electronic device 102) directly or wirelessly.
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture still images and moving images.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 can manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • the communication module 190 is a direct (e.g., wired) communication channel or wireless communication channel between the electronic device 101 and an external electronic device (e.g., the electronic device 102, the electronic device 104, or the server 108). can support the establishment of and communication through established communication channels.
  • Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It can communicate with external electronic devices through telecommunication networks such as cellular networks, 5G networks, next-generation communication networks, the Internet, or computer networks (e.g., LAN or WAN).
  • telecommunication networks such as cellular networks, 5G networks, next-generation communication networks, the Internet, or computer networks (e.g., LAN or WAN).
  • telecommunication networks such as cellular networks, 5G networks, next-generation communication networks, the Internet, or computer networks (e.g., LAN or WAN).
  • telecommunication networks such as cellular networks, 5G networks, next-generation communication networks, the Internet, or computer networks (e.g., LAN or WAN).
  • LAN or WAN wide area network
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 to communicate within a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
  • the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
  • the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
  • the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • Peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
  • the antenna module may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for the communication method used in the communication network, such as the first network 198 or the second network 199, is connected to the plurality of antennas by, for example, the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); and a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second surface (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); and a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second surface (e.g., top or side) of the printed circuit board
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
  • all or part of the operations executed in the electronic device 101 may be executed in one or more of the external electronic devices 102 and 104 or the server 108.
  • the electronic device 101 may perform the function or service instead of executing the function or service on its own.
  • one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of Things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199.
  • the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • Electronic devices may be of various types.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances.
  • portable communication devices e.g., smartphones
  • computer devices e.g., portable multimedia devices
  • portable medical devices e.g., cameras
  • wearable devices e.g., portable medical devices, cameras, wearable devices, or home appliances.
  • Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one element from another, and may be used to distinguish such elements in other respects, such as importance or order) is not limited.
  • One (e.g. first) component is said to be “coupled” or “connected” to another (e.g. second) component, with or without the terms “functionally” or “communicatively”.
  • any of the components may be connected to the other components directly (eg, wired), wirelessly, or through a third component.
  • module used in embodiments of the present disclosure may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. can be used
  • a module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Embodiments of the present disclosure are software that includes one or more instructions stored in a storage medium (e.g., internal memory 136 or external memory 138) that can be read by a machine (e.g., electronic device). It can be implemented as (e.g. a program).
  • a processor e.g, processor
  • a device e.g, electronic device
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.
  • the method according to the embodiment(s) of the present disclosure may be included and provided in a computer program product.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or via an application store (e.g. Play Store TM ) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online.
  • a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately arranged in other components.
  • one or more of the above-described corresponding components or operations may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or , or one or more other operations may be added.
  • the length direction, width direction and/or thickness direction of the electronic device may be mentioned, with the length direction being the 'Y-axis direction', the width direction being the 'X-axis direction', and/or the thickness direction. can be defined as 'Z-axis direction'.
  • the direction in which a component faces may be referred to as 'yin/yang (-/+)' in addition to the orthogonal coordinate system illustrated in the drawing.
  • the front of the electronic device and/or housing may be defined as a 'side facing the +Z direction', and the rear may be defined as a 'side facing the -Z direction'.
  • the electronic device and/or housing side may include an area facing the +X direction, an area facing the +Y direction, an area facing the -X direction, and/or an area facing the -Y direction.
  • 'X-axis direction' may mean including both '-X direction' and '+X direction'. Note that this is based on the Cartesian coordinate system described in the drawings for brevity of explanation, and that the description of directions or components does not limit the embodiment(s) of the present disclosure.
  • Figure 2 is a perspective view showing the front of an electronic device according to an embodiment of the present disclosure.
  • FIG. 3 is a perspective view showing the back of the electronic device shown in FIG. 2 according to an embodiment of the present disclosure.
  • the electronic device 200 includes a first side (or front) 210A, a second side (or back) 210B, and a first side 210A and It may include a housing 210 including a side surface 210C surrounding the space between the second surfaces 210B.
  • the housing may refer to a structure that forms some of the first side 210A, second side 210B, and side surface 210C of FIG. 2 .
  • the first surface 210A may be formed at least in part by a substantially transparent front plate 202 (eg, a glass plate including various coating layers, and/or a polymer plate).
  • the second surface 210B may be formed by a substantially opaque back plate 211.
  • the back plate 211 may be, for example, coated and/or colored glass, ceramic, polymer, metal (e.g., aluminum, stainless steel (STS), and/or magnesium), or at least two of the foregoing materials. Can be formed by combination.
  • the side 210C is joined to the front plate 202 and the back plate 211 and may be formed by a side structure (or “side bezel structure”) 218 including metal and/or polymer.
  • the back plate 211 and the side structure 218 may be formed as one piece and include the same material (eg, a metallic material such as aluminum).
  • the front plate 202 has two first regions 210D that are curved and extend seamlessly from the first surface 210A toward the rear plate 211. It can be included at both ends of the long edge of (202).
  • the rear plate 211 is curved from the second surface 210B toward the front plate 202 to form two second regions 210E that extend seamlessly and have long edges. It can be included at both ends.
  • the front plate 202 (or the rear plate 211) may include only one of the first areas 210D (or the second areas 210E). In one embodiment, some of the first areas 210D and/or the second areas 210E may not be included.
  • the side structure 218 when viewed from the side of the electronic device 200, is on the side that does not include the first regions 210D and/or second regions 210E. may have a first thickness (or width), and may have a second thickness thinner than the first thickness on the side including the first areas 210D and/or the second areas 210E.
  • the electronic device 200 includes a display 201, an audio module 203, 207, and 214, a sensor module 204, 216, and 219, a camera module 205, 212, and 213, and a key. It may include at least one of an input device 217, a light emitting element 206, and connector holes 208 and 209. In another embodiment, the electronic device 200 may omit at least one of the components (e.g., the key input device 217 and/or the light emitting device 206) or may additionally include other components. .
  • Display 201 may be visually exposed, for example, through a significant portion of front plate 202 .
  • at least a portion of the display 201 may be visually exposed through the front plate 202 forming the first areas 210D of the first surface 210A and the side surface 210C. You can.
  • the edges of the display 201 may be formed to be substantially the same as the adjacent outer shape of the front plate 202.
  • the distance between the outer edge of the display 201 and the outer edge of the front plate 202 may be formed to be substantially the same.
  • an audio module forms a recess and/or an opening in a portion of the screen display area of the display 201 and is aligned with the recess and/or the opening. It may include at least one of (214), a sensor module 204, a camera module 205, and a light emitting device 206. In one embodiment (not shown), an audio module 214, a sensor module 204, a camera module 205, and a fingerprint sensor 216 (e.g., a fourth sensor) are installed on the back of the screen display area of the display 201. module), and a light emitting device 206.
  • the display 201 is coupled to or adjacent to a touch detection circuit, a pressure sensor capable of measuring the intensity (pressure) of touch, and/or a digitizer that detects a magnetic field type stylus pen. can be placed.
  • a touch detection circuit a pressure sensor capable of measuring the intensity (pressure) of touch
  • a digitizer that detects a magnetic field type stylus pen.
  • at least a portion of the sensor modules 204, 219, and/or at least a portion of the key input device 217 are located in the first areas 210D and/or the second areas 210E. ) can be placed in .
  • the audio modules 203, 207, and 214 may include a microphone hole 203 and speaker holes 207 and 214.
  • a microphone for acquiring external sound may be placed inside the microphone hole 203, and in one embodiment, a plurality of microphones may be placed to detect the direction of the sound.
  • the speaker holes 207 and 214 may include an external speaker hole 207 and a call receiver hole 214 (eg, a speaker hole).
  • the speaker holes 207 and 214 and the microphone hole 203 may be implemented as one hole, or a speaker may be included without the speaker holes 207 and 214 (e.g., piezo speaker).
  • the sensor modules 204, 216, and 219 may generate electrical signals or data values corresponding to the internal operating state of the electronic device 200 and/or the external environmental state.
  • the sensor modules 204, 216, 219 may include, for example, a first sensor module 204 (e.g., a proximity sensor) and/or a second sensor module (e.g., a proximity sensor) disposed on the first side 210A of the housing 210. (not shown) (e.g., fingerprint sensor), and/or a third sensor module 219 (e.g., HRM sensor) and/or fourth sensor module 216 disposed on the second side 210B of the housing 210. ) (e.g., a fingerprint sensor) may be included.
  • a first sensor module 204 e.g., a proximity sensor
  • a second sensor module e.g., a proximity sensor
  • a third sensor module 219 e.g., HRM sensor
  • the fingerprint sensor may be disposed on the first side 210A (eg, display 201) as well as the second side 210B of the housing 210.
  • the electronic device 200 includes the sensor module 176 of FIG. 1, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may further include at least one of a temperature sensor, a humidity sensor, and/or an illumination sensor.
  • the camera modules 205, 212, and 213 include a first camera device 205 disposed on the first side 210A of the electronic device 200, and a second camera device 212 disposed on the second side 210B. ), and/or a flash 213.
  • the camera devices 205 and 212 may include one or more lenses, an image sensor, and/or an image signal processor.
  • Flash 213 may include, for example, a light emitting diode and/or a xenon lamp.
  • two or more lenses (an infrared camera, a wide-angle lens, and a telephoto lens) and image sensors may be disposed on one side of the electronic device 200.
  • the key input device 217 may be disposed on the side 210C of the housing 210.
  • the electronic device 200 may not include some or all of the key input devices 217 mentioned above, and the key input devices 217 not included may include soft keys, etc. on the display 201. It can be implemented in different forms.
  • the key input device may include a sensor module 216 disposed on the second surface 210B of the housing 210.
  • the light emitting device 206 may be disposed on the first side 210A of the housing 210.
  • the light emitting device 206 provides, for example, status information of the electronic device 200 in the form of light.
  • the light emitting device 206 provides, for example, the operation of the camera module 205 and Interlocking light sources can be provided.
  • the light emitting device 206 may include, for example, an LED, an IR LED, and a xenon lamp.
  • the connector holes 208 and 209 are a first connector hole 208 that can accommodate a connector (for example, a USB connector) for transmitting and receiving power and/or data with an external electronic device, and/or an external electronic device. and a second connector hole (eg, earphone jack) 209 that can accommodate a connector for transmitting and receiving audio signals.
  • a connector for example, a USB connector
  • a second connector hole eg, earphone jack
  • FIG. 4 is an exploded perspective view of the electronic device shown in FIG. 2 according to an embodiment of the present disclosure.
  • the electronic device 300 (e.g., the electronic device 200 of FIG. 2 or FIG. 3) includes a side structure 310 (e.g., the side structure 218 of FIG. 2) and a first support member. 311 (e.g. bracket), front plate 320 (e.g. front plate 202 in FIG. 2), display 330 (e.g. display 201 in FIG. 2), printed circuit board 340) (e.g., printed circuit board (PCB), printed board assembly (PBA), flexible PCB (FPCB), and/or rigid-flexible PCB (RFPCB)), battery 350, second support member 360 (e.g., rear case), an antenna 370, and a rear plate 380 (e.g., the rear plate 211 in FIG.
  • a side structure 310 e.g., the side structure 218 of FIG. 2
  • a first support member. 311 e.g. bracket
  • front plate 320 e.g. front plate 202 in FIG. 2
  • display 330 e.g.
  • the electronic device 300 may omit at least one of the components (e.g., the first support member 311 and/or the second support member 360) or additionally include another component. You can. At least one of the components of the electronic device 300 may be the same or similar to at least one of the components of the electronic device 200 of FIG. 2 or 3, and overlapping descriptions will be omitted below.
  • Memory may include, for example, volatile memory and/or non-volatile memory.
  • the interface may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, and/or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • the interface electrically and/or physically connects the electronic device 300 to an external electronic device and may include, for example, a USB connector, SD card/MMC connector, and/or audio connector.
  • Battery 350 is a device for supplying power to at least one component of electronic device 300, for example, a non-rechargeable primary battery, and/or a rechargeable secondary battery, and/or a fuel cell. It can be included. At least a portion of the battery 350 may be disposed, for example, on substantially the same plane as the printed circuit board 340 . The battery 350 may be placed integrally within the electronic device 300, or may be placed to be detachable from the electronic device 300.
  • the antenna 370 may be disposed between the rear plate 380 and the battery 350.
  • the antenna 370 may include, for example, a near field communication (NFC) antenna, a wireless charging antenna, and/or a magnetic secure transmission (MST) antenna.
  • NFC near field communication
  • MST magnetic secure transmission
  • the antenna 370 performs short-distance communication with an external device or wirelessly transmits and receives power required for charging.
  • an antenna structure may be formed by a portion or a combination of the side structure 310 and/or the first support member 311.
  • FIG. 5 is a plan view illustrating the rear of an electronic device (e.g., the electronic devices 101, 102, 104, 200, and 300 of FIGS. 1 to 4) according to an embodiment of the present disclosure.
  • an electronic device e.g., the electronic devices 101, 102, 104, 200, and 300 of FIGS. 1 to 4
  • FIG. 6 is a cross-sectional view showing a portion of an electronic device according to an embodiment of the present disclosure taken along line AA′ of FIG. 5 .
  • FIG. 7 is a configuration diagram illustrating an optical path of a lens assembly in an electronic device according to an embodiment of the present disclosure.
  • the electronic device 400 may include a camera window 385 disposed on one side (e.g., the second side 210B of FIG. 3). there is.
  • camera window 385 may be part of back plate 380.
  • the camera window 385 may be coupled to the back plate 380 through a decorative member 389, where, when viewed from the outside, the decorative member 389 extends around the perimeter of the camera window 385. It can be exposed in a wrapped form.
  • the camera window 385 may include a plurality of transparent areas 387, and the electronic device 400 may receive external light or external light through at least one of the transparent areas 387. Can emit light.
  • the electronic device 400 includes at least one lens assembly 500 (e.g., the camera modules 180, 205, 212 of FIGS. 1 to 3) disposed to correspond to at least some of the transparent areas 387. 213)) and at least one light source (eg, an infrared light source) disposed to correspond to another part of the transparent areas 387.
  • the lens assembly 500 and/or the light source may receive external light through one of the transparent areas 387 or radiate light to the outside of the electronic device 400.
  • the electronic device 400 and/or the lens assembly 500 may further include a camera support member 381.
  • the camera support member 381 includes at least one of the lens assembly 500 and/or other lens assemblies adjacent thereto (e.g., a wide-angle camera, an ultra-wide-angle camera, and/or a macro camera), a rear plate 380, and/or a camera. It can be placed or fixed inside the window 385. In another embodiment, the camera support member 381 may be substantially a part of the first support member 311 and/or the second support member 360 of FIG. 4 .
  • the electronic device 400 may include a lens assembly 500 and/or at least one of a wide-angle camera, an ultra-wide-angle camera, a macro camera, a telephoto camera, or an infrared photo diode as a light receiving element, and a light source and /Or it may include a flash (eg, flash 213 in FIG. 3) or an infrared laser diode as a light emitting device.
  • the electronic device 400 radiates an infrared laser toward a subject using an infrared laser diode and an infrared photo diode, and receives the infrared laser reflected by the subject to determine the distance and/or depth to the subject. can be detected.
  • the electronic device 400 can photograph a subject using any one or a combination of two or more cameras and, if necessary, provide illumination to the subject using a flash.
  • a wide-angle camera, an ultra-wide-angle camera, and/or a macro camera may have a smaller length in the optical axis direction of the lens(s) when compared to a telephoto camera (e.g., lens assembly 500).
  • a telephoto camera e.g., lens assembly 500
  • the 'total lens length' may be the distance from the object-side surface of the first lens on the object side to the imaging surface of the image sensor 411.
  • 'Total lens length' may be the distance from the object-side surface of the first lens on the object side to the sensor-side surface of the first lens on the image sensor side.
  • the wide-angle camera, ultra-wide-angle camera, and/or macro camera may arrange the lens(s) along the direction of the thickness of the electronic device 400 (e.g., thickness measured in the Z-axis direction of Figure 4 or Figure 6). In practice, the effect on the thickness of the electronic device 400 may be small.
  • a wide-angle camera, an ultra-wide-angle camera, and/or a macro camera may be placed in the electronic device 400 with the direction in which light is incident on the electronic device 400 from the outside and the optical axis direction of the lens(es) being substantially the same.
  • the lens assembly 500 e.g., a telephoto camera
  • the lens assembly 500 has a smaller field of view, but may be useful for photographing subjects at a greater distance; It may include more lenses (421a, 421b, 423a, 423b, 423c).
  • the lens assembly 500 may protrude to a significant extent outside the electronic device 400.
  • the lens assembly 500 may include at least one refractive member 413 and 415 that reflects and/or refracts the incident light IL in different directions.
  • the lenses 423a, 423b, and 423c may be arranged to be able to move forward and backward in the incident direction of light or the direction of travel of reflected and/or refracted light, thereby allowing the electronic device 400 to move forward and backward.
  • the increase in thickness can be suppressed or reduced.
  • a folded camera (e.g., lens assembly 500) includes a first refractive member 413, a second refractive member 415, an image sensor 411, and/or at least one lens system.
  • it may include a second lens group 423 including second lenses 423a, 423b, 423c and/or a dummy member 423d).
  • the at least one optical member may guide or focus the light RL1 reflected and/or refracted by the first refractive member 413 to the second refractive member 415.
  • the light RL1 reflected and/or refracted by the member 413 may be blocked from being directly incident on the image sensor 411 .
  • the first refractive member 413 may include, for example, a prism and/or a mirror.
  • the first refractive member 413 is comprised of a prism including at least one mirror.
  • the first refractive member 413 is composed of a prism whose at least one surface includes a mirror.
  • the first refractive member 413 reflects and/or refracts the light IL incident in the first direction D1 in the second direction D2 crossing the first direction D1. You can.
  • the first direction D1 refers to, for example, when photographing a subject, light is transmitted from the outside to the electronic device 400 and/or the lens assembly 500 through one of the transparent areas 387 of FIG. 5.
  • the first direction D1 may mean a shooting direction, a subject direction, a direction of orientation of the lens assembly 500, and/or a direction parallel thereto. In another embodiment, the first direction D1 may be parallel to the thickness direction and/or the Z-axis direction of the electronic device 400.
  • the second refractive member 415 may include, for example, a prism and/or a mirror.
  • the second refractive member 415 is comprised of a prism including at least one mirror.
  • the second refractive member 415 is composed of a prism whose at least one surface includes a mirror.
  • the second refractive member 415 is reflected and/or refracted by the first refractive member 413 and transmits the light RL1 incident along the second direction D2 to the second direction D2. It may be reflected and/or refracted in the third direction D3 that intersects.
  • the third direction D3 may be substantially perpendicular to the second direction D2.
  • the third direction D3 refers to a direction parallel to the Z-axis direction.
  • the third direction D3 may be directed to the second direction depending on the arrangement and specifications of the lens assembly 500 and/or the second refractive member 415 within the electronic device 400. It may be in the direction D2 and/or oblique with respect to the X-Y plane. In another embodiment, the third direction D3 may be substantially parallel to the first direction D1.
  • the image sensor 411 may be set to detect the light RL2 that is reflected and/or refracted by the second refractive member 415 and incident along the third direction D3. For example, light IL incident from the outside is detected by the image sensor 411 via the first refractive member 413 and the second refractive member 415, and the electronic device 400 and/or the lens assembly 500 ) may acquire an image of the subject based on signals and/or information detected through the image sensor 411.
  • the image sensor 411 may be disposed substantially parallel to the X-Y plane. For example, when the lens assembly 500 has an image stabilization function that shifts the image sensor 411, the image sensor 411 is perpendicular to the first direction D1 and/or the third direction D3. moves horizontally in the plane.
  • the image sensor 411 when performing an image stabilization operation, shifts the electronic device 400 in the longitudinal direction (e.g., Y-axis direction) and/or the width direction (e.g., X-axis direction). It can be.
  • the image sensor 411 is disposed on a plane perpendicular to the first direction D1 and/or the third direction D3, so that in an electronic device with a small thickness (e.g., a thickness of approximately 10 mm or less), the image sensor ( 411), it is easy to expand the size, and/or it is easy to secure space for hand shake correction operation.
  • the lens assembly 500 when the lens assembly 500 is used as a telephoto camera, the quality of captured images can be further improved by incorporating an image stabilization function.
  • the performance of the lens assembly 500 when the image sensor 411 is enlarged, the performance of the lens assembly 500 can be further improved.
  • the lens assembly 500 includes a lens system (e.g., at least one refractive element) that guides and/or focuses the light IL incident from the first direction D1 to the first refractive member 413. It may further include a first lens group 421 including one lens 421a and 421b. In another embodiment, the first lens group 421 and/or the first lens (eg, first lens 421a) disposed on the object side in the lens assembly 500 may have positive refractive power.
  • the first lens 421a is configured to focus and/or align light IL incident from the outside to the first refractive member 413, so that the light IL 421a is transmitted from the first lens 421a to the image sensor 411.
  • the optical system leading to this is miniaturized.
  • the first lens group 421 may further include additional first lenses 421b (s) to focus and/or align light incident from the outside.
  • the second lens group 423 may include a dummy member 423d and a light blocking member 425.
  • the dummy member 423d may be disposed inside the lens assembly 500 and/or the electronic device 400 and may have a cylindrical shape extending along the second direction D2. The light RL1 traveling along can be transmitted.
  • the dummy member 423d may be one of lenses with positive and/or negative refractive power.
  • the dummy member 423d may be a component formed integrally with any one of the second lenses 423a, 423b, and 423c and/or the second refractive member 415.
  • the light blocking member 425 may be formed and/or disposed on at least a portion of the outer peripheral surface of the dummy member 423d and may absorb, scatter, or reflect light.
  • the light blocking member 425 may be formed, for example, by corroding or black lacquering at least a portion of the outer peripheral surface of the dummy member 423d, and/or printing and/or depositing a reflective layer.
  • a portion of the light reflected and/or refracted by the first refractive member 413 may be absorbed, scattered, and/or reflected by the light blocking member 425 .
  • the light blocking member 425 prevents the light reflected and/or refracted by the first refractive member 413 from passing through the second lens group 423 and/or the second refractive member 415.
  • Direct incident light on the image sensor 411 can be substantially blocked.
  • light sequentially passing through the first direction (D1), the second direction (D2), and/or the third direction (D3) in the lens assembly 500 e.g., 'IL, 'RL1', 'in FIG. 7).
  • Light following a path indicated by RL2' may be incident on the image sensor 411, and light following a different path may be substantially blocked from being incident on the image sensor 411.
  • At least one of the second lenses 423a, 423b, and 423c has an axis substantially the same as the second direction D2 between the first refractive member 413 and the second refractive member 415.
  • the electronic device 400 and/or the lens assembly 500 moves the at least one second lens 423a, 423b, and 423c forward and backward about an axis substantially the same as the second direction D2, thereby maintaining focus.
  • Miniaturized electronic devices such as smart phones may have a thickness of approximately 10 mm, and in this case, the range in which the lens can move forward and backward in the thickness direction may be limited.
  • the second direction D2 may be substantially parallel to the longitudinal direction (e.g., Y-axis direction in FIG. 4), the width direction (e.g., X-axis direction in FIG. 4), and/or the X-Y plane.
  • the range in which at least one second lens 423a, 423b, and 423c can advance and retreat may be large.
  • at least one of the second lenses 423a, 423b, and 423c moves forward and backward along substantially the same axis as the second direction D2, thereby improving telephoto performance in the lens assembly 500 and controlling the focal length and/or focus. Design freedom is improved in securing space for forward and backward movement for adjustment.
  • the electronic device 400 and/or the lens assembly 500 may further include an infrared cut-off filter 419.
  • the infrared cut-off filter 419 may suppress or substantially block light in the infrared and/or near-infrared wavelength band from being incident on the image sensor 411, and may block the image sensor from the first lens 421a ( 411) may be placed at any position in the optical path.
  • the infrared cut-off filter 419 is disposed at a location close to the image sensor 411 (e.g., between the image sensor 411 and the second refractive member 415), so that the infrared cut-off filter 419 Visual exposure to the outside can be suppressed and/or prevented.
  • the first refractive member 413, the second refractive member 415, and/or at least one optical member may include an infrared blocking coating layer, In this case, the infrared cut-off filter 419 may be omitted.
  • an infrared blocking coating layer may be provided on at least one of the image sensor side surface and the object side surface of the dummy member 423d and/or the second refractive member 415.
  • the image sensor 411 can substantially detect light that has passed through the infrared blocking filter 419 (or infrared blocking coating layer).
  • the refractive members 413 and 415 of the present disclosure may be selectively designed according to the structure of the lens assembly 500.
  • the refractive member (eg, the second refractive member 415 in FIG. 6) has a triangular pillar shape.
  • the refractive member (eg, the second refractive member 415 in FIG. 7) may have a trapezoidal pillar shape.
  • the shape of the refractive members 413 and 415 is not limited to the structure shown in this disclosure. For example, if the refractive members 413 and 415 reflect, refract or transmit light, the refractive members 413 and 415 may have a shape other than a triangular or trapezoidal pillar.
  • the types of refractive members 413 and 415 to be disposed may be determined in various ways.
  • the refractive member to be disposed is a prism.
  • the refractive member to be disposed is a mirror.
  • refractive members 413 and 415 include substantially transparent materials.
  • the refractive members 413 and 415 are manufactured using glass.
  • FIG. 8 is a diagram illustrating a lens assembly 600 (e.g., the camera modules 180, 205, 212, and 213 of FIGS. 1 to 3 or the lens assembly 500 of FIG. 6) according to an embodiment of the present disclosure. .
  • a lens assembly 600 e.g., the camera modules 180, 205, 212, and 213 of FIGS. 1 to 3 or the lens assembly 500 of FIG. 6 according to an embodiment of the present disclosure. .
  • FIG. 9 is a diagram illustrating the second optical member R2 of the lens assembly of FIG. 8 according to an embodiment of the present disclosure.
  • FIG. 10 is a graph showing spherical aberration of the lens assembly of FIG. 8 according to an embodiment of the present disclosure.
  • FIG. 11 is a graph showing astigmatism of the lens assembly of FIG. 8 according to an embodiment of the present disclosure.
  • FIG. 12 is a graph showing the distortion rate of the lens assembly of FIG. 8 according to an embodiment of the present disclosure.
  • Figure 10 is a graph showing the spherical aberration of the lens assembly 600 according to an embodiment of the present disclosure, where the horizontal axis represents the coefficient of longitudinal spherical aberration and the vertical axis represents the normalization of the distance from the optical axis. ), showing the change in longitudinal spherical aberration depending on the wavelength of light.
  • Longitudinal spherical aberration is, for example, expressed for light with wavelengths of 656.3000 (NM, nanometer), 587.6000 (NM), 546.1000 (NM), 536.1000 (NM), and 435.8000 (NM), respectively.
  • Figure 11 is a graph showing astigmatic field curves of the lens assembly 600 according to one embodiment of the disclosure, for light with a wavelength of 546.1000 (NM), and 'x' is the spherical surface ( sagittal plane), and 'y' illustrates the tangential plane (meridional plane).
  • FIG. 12 is a graph showing the distortion of the lens assembly 600 according to an embodiment of the disclosure, for light with a wavelength of 546.1000 (NM).
  • the lens assembly (600) (s) includes optical members (R1, R2) (s) disposed between the lenses (L1, L2, L3, L4) (s) and the image sensor (I).
  • optical data such as 'lens total length' or 'focal distance' may exemplify values that do not include the optical members R1 and R2.
  • the first optical member R1 and/or the second optical member R2 may change the path of light by performing reflection and/or refraction, and may change the optical performance of the lens assembly 600 (e.g., focal length). , F-number and/or angle of view) may not be substantially affected.
  • the lens assembly 600 (e.g., the camera modules 180, 205, 212, 213 of FIGS. 1 to 3 and/or the lens assembly 500 of FIG. 6) includes at least Two lenses (L1, L2, L3, L4), image sensor (I), between the image sensor (I) and at least two lenses (hereinafter referred to as ‘lenses (L1, L2, L3, L4)’) It may include a plurality of optical members (R1, R2) arranged.
  • 'S2' may be the object-side surface of the first lens (L1) among the lenses (L1, L2, L3, and L4)
  • 'S3' may be the sensor-side surface of the first lens (L1).
  • 'sto' in the reference number indicating the lens surface may indicate that the aperture is implemented on the corresponding lens surface.
  • an aperture is disposed on the object-side surface of the first lens L1.
  • 'S4' may be the object-side surface of the second lens (L2) among the lenses (L1, L2, L3, and L4)
  • 'S5' may be the sensor-side surface of the second lens (L2).
  • 'S6' may be the object side of the third lens (L3) among the lenses (L1, L2, L3, and L4)
  • 'S7' may be the sensor side of the third lens (L3).
  • 'S8' may be the object side of the fourth lens (L4) among the lenses (L1, L2, L3, and L4)
  • 'S9' may be the sensor side of the fourth lens (L4).
  • the plurality of optical members R1 and R2 reflect light incident from one direction (e.g., the second optical axis O2 direction) in another direction (e.g., the third optical axis O3 direction). , can refract and/or guide.
  • the first optical member R1 e.g., first reflective surface RF
  • the second optical member R2 may guide light incident through the first optical member R1 to the image sensor I.
  • the lens assembly 600 may further include an infrared blocking layer (IFL).
  • the infrared blocking layer (IFL) is disposed on one of the incident surface (F1) and the emission surface (F2) of the second optical member (R2).
  • the infrared blocking layer (IFL) may be provided on one of the surfaces of the first optical member (R1) or one of the lenses (L1, L2, L3, and L4).
  • the infrared cut filter (IF) is different from the lenses (L1, L2, L3, L4) or optical members (R1, R2). May be provided separately.
  • the infrared cut-off filter (IF) is provided separately, the infrared cut-off layer (IFL) is not disposed on the lenses (L1, L2, L3, L4) and/or optical members (R1, R2). You can.
  • At least two (for example, four) lenses L1, L2, L3, and L4 may be sequentially arranged along the first optical axis O1 from the object OB.
  • the first optical axis O1 is located on the front side (e.g., the first side 210A of FIG. 2) of the electronic device (e.g., the electronic device 101, 200, 300, and 400 of FIGS. 1 to 6). ) and/or may be disposed substantially parallel to the rear side (e.g., the second side 210B of FIG. 3).
  • the front side e.g., the first side 210A of FIG. 2
  • the electronic device e.g., the electronic device 101, 200, 300, and 400 of FIGS. 1 to 6
  • the rear side e.g., the second side 210B of FIG. 3
  • the electronic device 400 aligns at least one of the lenses (L1, L2, L3, and L4) with the first optical axis. It can be moved forward and backward along the (O1) direction. For example, by moving at least one of the lenses L1, L2, L3, and L4 along the first optical axis O1 direction, focal distance adjustment and/or focus adjustment operations are performed.
  • the electronic device 400 e.g., the processor 120 of FIG. 1 and/or the lens assembly 600 aligns at least one of the lenses (L1, L2, L3, and L4) with the first optical axis ( By moving in a plane perpendicular to O1), hand shake correction operation can be performed.
  • “Movement in a plane perpendicular to the first optical axis O1” means, for example, lens(s) (L1, L2, L3, L4) along at least two directions perpendicular to the first optical axis O1. ) can be understood as moving. “At least two directions” may be, for example, directions perpendicular to each other.
  • the image sensor I receives guided and/or focused light through the lenses L1, L2, L3, and L4, thereby forming the lens assembly 600 and/or the electronic device including the same. 400 may be configured to acquire an image of a subject.
  • the second optical axis O2 is the front side (e.g., the first side 210A of FIG. 2) of the electronic device (e.g., the electronic devices 101, 200, 300, and 400 of FIGS. 1 to 6) and /or disposed substantially parallel to the rear side (eg, the second side 210B in FIG. 3).
  • the imaging surface (img) of the image sensor (I) may be arranged in a direction crossing the first optical axis (O1).
  • the imaging surface (img) of the image sensor (I) may form an acute angle and/or an obtuse angle with the first optical axis (O1).
  • “the imaging surface (img) is disposed in a direction intersecting the first optical axis O1” means that the imaging surface (img) is located along the Alternatively, it may be understood as being arranged at an angle with respect to the Z axis.
  • the image sensor I may be arranged in various directions with respect to the alignment direction of the lenses L1, L2, L3, and L4, so that the lens assembly 600 and/or the electronic device including it ( 400) Design freedom can be increased in manufacturing.
  • the optical members R1 and R2 may change the direction of light by reflecting and/or refracting incident light.
  • the optical members (R1, R2) are disposed between the lenses (L1, L2, L3, L4) and the image sensor (I), thereby forming the lenses (L1, L2, L3, L4) and the image sensor (I).
  • the degree of freedom in layout design can be increased.
  • the first optical member R1 is disposed between the lenses L1, L2, L3, and L4 and the image sensor I, and is disposed between the lenses in the direction of the first optical axis O1. Light can be received through (L1, L2, L3, L4).
  • the first optical member (R1) reflects and/or refracts light incident through the lenses (L1, L2, L3, and L4) in the direction of the first optical axis (O1). ) can be emitted along the direction of the second optical axis (O2) that intersects.
  • the second optical axis O2 is illustrated for convenience of explanation, and the embodiment(s) of the present disclosure are not limited thereto, and the lens assembly 600 to be manufactured according to the embodiment and/or actually manufactured Please note that it may be defined differently depending on its structure.
  • the first optical member R1 may include a mirror and/or a prism.
  • first optical member R1 and the second optical member R2 are illustrated as independent configurations in the disclosed embodiment, the embodiment(s) of the present disclosure are not limited thereto.
  • the first optical member R1 and the second optical member R2 may be formed integrally.
  • the emission surface of the first optical member R1 and the incident surface F1 of the second optical member R2 may be formed in a combined form.
  • an integrally formed optical member includes a mirror and/or a prism.
  • an integrally formed optical member (not shown) consists of a prism including at least one mirror.
  • an integrally formed optical member (not shown) is composed of a prism with one side having a mirror and the other side including at least a portion of the mirror.
  • the first optical member R1 may be disposed between the lenses L1, L2, L3, and L4 and the second optical member R2. there is.
  • the first optical member (R1) reflects and/or refracts light incident through the lenses (L1, L2, L3, and L4) in the direction of the first optical axis (O1). ) may be emitted along the direction of the second optical axis (O2), which is substantially perpendicular to the direction.
  • the inclined angle of the second optical axis O2 with respect to the first optical axis O1 may be implemented to be approximately 80 degrees or more and approximately 100 degrees or less.
  • the second optical member R2 may be disposed between the first optical member R1 and the image sensor I.
  • the second optical member (R2) receives light through the first optical member (R1) in the direction of the second optical axis (O2) and in the direction of the third optical axis (O3) intersecting the second optical axis (O2). It can be output to the image sensor (I) according to .
  • the third optical axis O3 may be arranged to be inclined at an angle other than perpendicular to the first optical axis O1.
  • the third optical axis O3 may be arranged to be inclined at an angle other than perpendicular to the second optical axis O2.
  • the third optical axis O3 may be disposed substantially parallel to the first optical axis O1 and inclined at an angle other than perpendicular to the second optical axis O2.
  • the angle at which the optical axes O1, O2, and O3 are inclined with respect to each other may be designed in various ways depending on the embodiment.
  • the relative arrangement of the optical axes O1, O2, and O3 may be determined by the relative arrangement of the imaging surface img with respect to the first optical axis O1, the lens assembly 600 and/or the electronic device to be actually manufactured ( 400) may vary depending on the structure.
  • the second optical member R2 may include a prism.
  • the second optical member R2 may include a first surface (eg, entrance surface F1) facing the first optical member R1.
  • the incident surface F1 is, for example, perpendicular to the second optical axis O2.
  • the second optical member R2 may include a second surface (eg, emission surface F2) facing the image sensor I.
  • the emission surface (F2) is connected to the incident surface (F1) in a state inclined to form a first angle (Ang-p1) with respect to the incident surface (F1).
  • the emission surface F2 may provide a total reflection environment for incident light (eg, light incident on the incident surface F1 along the direction of the second optical axis O2).
  • the emission surface F2 may reflect (or refract) incident light by being inclined at a specified angle with respect to the second optical axis O2.
  • the condition for the inclination angle of the emission surface (F2) with respect to the second optical axis (O2) will be examined through [Equation 2], which will be described later.
  • the emission surface F2 may function at least partially as a reflector within the second optical member.
  • the second optical member R2 may include a second reflection surface F3 connecting the emission surface F2 and the incident surface F1.
  • the second reflection surface (F3) is connected to the emission surface (F2) at a second angle (Ang-p2), and the incident surface (F1) at a third angle (Ang-p3). ) can be connected to.
  • the second reflection surface (F3) is disposed substantially parallel to the second optical axis (O2)
  • the inclination angle of the emission surface (F2) with respect to the second optical axis (O2) is the second angle (Ang -p2).
  • the light reflected by the emitting surface (F2) inside the second optical member (R2) is reflected (or refracted) again by the second reflecting surface (F3) and then returned to the emitting surface (F2). It can be released to the outside through .
  • the exit surface (F2) provides a total reflection environment, and when the incident angle is larger than the specified angle, the exit surface (F2) can transmit light. In this way, the light incident on the second optical member R2 may be reflected at least twice and be emitted to the image sensor I through the emission surface F2.
  • the infrared blocking layer (IFL) is on the surface of the second optical member R2 (e.g., the entrance surface F1 and /or may be disposed on at least a portion of the emission surface (F2).
  • the location and size of the infrared blocking layer (IFL) may be selected in various ways considering the path of light passing through the second optical member R2.
  • the infrared blocking layer (IFL) may be disposed on at least one of the entrance surface (F1) and the emission surface (F2).
  • the electronic device 400 e.g., the processor 120 of FIG. 1 and/or the lens assembly 600 may include at least one of the optical members R1 and R2 (e.g., the first optical member).
  • Hand shake correction can be performed by rotating or tilting (R1)) with respect to the first optical axis (O1).
  • the “tilt operation” may include, for example, an operation in which the first optical member R1 rotates about an arbitrary axis intersecting the first optical axis O1.
  • the central axis of the tilt operation may be set in various ways depending on the structure of the lens assembly 600 and/or the electronic device 400 to be actually manufactured.
  • the lens assembly 600 includes another optical member (e.g., the first refractive member 413 in FIG. 6) disposed closer to the object OB than the lenses L1, L2, L3, and L4. ) may further be included.
  • another optical member e.g., the first refractive member 413 in FIG. 6
  • the direction in which light is incident on the electronic device 400 and/or the lens assembly 600 is different from the first optical axis O1.
  • other configurations of the embodiments disclosed in this document e.g., the first lens group 421 of FIG. 6, the first The refractive member 413, the dummy member 423d, and/or the light blocking member 425) may be selectively combined to implement additional embodiments.
  • a lens assembly as described above and/or described below can satisfy the conditions of the following [Equation 1].
  • 'TTL' refers to the object-side surface (S2) of the first lens (e.g., first lens (L1)) on the object (OB) side among the lenses (L1, L2, L3, L4) and the first lens ( Example: This is the length up to the sensor side (S9) of the fourth lens (L4), and can be understood as the 'total lens length'.
  • the optical members (R1, R2) that convert the path of light between the lenses (L1, L2, L3, L4) and the image sensor (I) are not arranged, the 'lens total length' is the object (OB). ) side can be understood as the distance from the object side of the first lens to the imaging surface of the image sensor.
  • 'f' may be the focal length (eg, effective focal length) of the lens assembly 600.
  • the focal length eg, effective focal length
  • the overall lens length becomes smaller, affecting the arrangement of the lenses (L1, L2, L3, and L4). There may be difficulties and it may be difficult to secure good optical performance.
  • the value of [Equation 1] is greater than 0.35, the overall lens length increases, making it difficult for the lens assembly 600 to be mounted on a miniaturized electronic device.
  • the lens assemblies 600, 700, 800, 900, 1000, and 1100 described above and/or described below may satisfy the conditions of the following [Equation 2].
  • 'Ang-min' refers to the angles formed by two adjacent surfaces of the second optical member (R2) (e.g., the first angle (Ang-p1), the second angle (Ang-p2), and/or the third As the minimum angle among the angles (Ang-p3), in the embodiment of Figures 8 and/or 9, the second angle (Ang-p2) may be 'Ang-min' in [Equation 2].
  • [Equation 2] When the angle value of ] becomes smaller than 15 degrees, the size of the second optical member R2 increases, which may make miniaturization difficult. In one embodiment, when the value of [Equation 2] becomes larger than 40 degrees, The reflection performance of the emission surface F2 may be lowered inside the second optical member R2.
  • the emission surface F2 inside the second optical member R2 (F2) totally reflects the incident light along the direction of the second optical axis O2.
  • the third angle (Ang-p3) is a right angle structure.
  • the second angle (Ang-p2) may be implemented as approximately 25 degrees or more and approximately 35 degrees or less.
  • the second optical The third angle (Ang-p3) in the member R2 may be implemented as approximately 75 degrees or more and approximately 105 degrees or less.
  • the lens assemblies 600, 700, 800, 900, 1000, and 1100 described above and/or described below may satisfy the conditions of the following [Equation 3].
  • 'f1' is the focal length (e.g., effective focal length) of the first lens (e.g., first lens (L1)) on the object (OB) side
  • 'f2' is the second lens (e.g., first lens (L1)) on the object (OB) side. 2 It may be the focal length of the lens (L2).
  • [Equation 3] When the conditions of [Equation 3] are satisfied, aberration correction in the lens assembly 600 can be easily and miniaturized. For example, when the value of [Equation 3] is greater than -0.1, there may be difficulty in correcting chromatic aberration or spherical aberration. In another embodiment, when the value of [Equation 3] becomes less than -2, the power of the first lens L1 may be lowered and the overall lens length may be increased.
  • the lens assemblies 600, 700, 800, 900, 1000, and 1100 as described above and/or described below have an Abbe number of the first lens (e.g., the first lens L1) on the object OB,
  • the conditions of the following [Equation 4] regarding Vd-1 can be satisfied.
  • the lens assemblies 600, 700, 800, 900, 1000, and 1100 described above and/or described below may satisfy the conditions of the following [Equation 5].
  • 't-L1' is the thickness of the first lens (e.g., first lens (L1)) on the object (OB) side
  • 'TTL' is the object-side surface (S2) of the first lens (L1) and the image sensor ( It may be the length up to the sensor side surface (S9) of the first lens (e.g., fourth lens (L4)) on the I) side.
  • the value of [Equation 5] is greater than 0.5
  • the thickness of the first lens (L1) increases to secure the thickness of the remaining lenses (L2, L3, L4) or the gap between the lenses (L1, L2, L3, L4). It may be difficult to secure good performance of the lens assembly 600.
  • the value of [Equation 5] is less than 0.1, the thickness of the first lens L1 becomes small, which may lead to difficulties in securing appropriate refractive power or manufacturing it in the designed shape.
  • the lens assemblies 600, 700, 800, 900, 1000, and 1100 described above and/or described below satisfy the following conditions of [Equation 6] regarding the angle of view and field of view (FoV): can be satisfied.
  • the lens assembly 600 can be easily miniaturized while providing a space for arranging the plurality of optical members R1 and R2.
  • the focal length of the lens assembly 600 becomes longer, which may make miniaturization difficult.
  • the gap between the lens(s) (L1, L2, L3, L4) and the image sensor (I) becomes smaller so that the first optical member (R1) and/or the second optical member (R1) Placing the optical member R2 may be difficult.
  • the lens assemblies (600, 700, 800, 900, 1000, 1100) of the above-mentioned or later-described embodiments satisfy the condition(s) presented through the above [mathematical equations], as shown in [Table 1] below. You can.
  • the minimum angle of [Equation 2], Ang-min may be exemplified as the second angle (Ang-p2) in the second optical member (R2) of each embodiment.
  • the lens assembly 600 has a focal length of approximately 9.73 mm, an F-number of 3.475, an overall lens length of 2.6 mm, an image height of 2.28 mm, and/or a field of view (FoV) of 25.96 degrees. view).
  • the overall lens length can be understood as, for example, the distance from the object-side surface (S2) of the first lens (L1) to the sensor-side surface (S9) of the fourth lens (L4), and the image height is the optical axis (O3). ) as the maximum distance from the edge of the imaging surface (img), for example, it can be understood as half the diagonal length of the imaging surface (img).
  • the lens assembly 600 can satisfy at least some of the conditions presented through the above-mentioned [mathematical equations], and can be manufactured with the specifications shown in the following [Table 2].
  • the lens surface with 'sto' can function as an aperture, and the aspherical lens surface can be with the symbol '*'.
  • the surface described in [Table 2] is, for example, located on the path through which external light reaches the image sensor I, but does not substantially affect the optical performance of the lens assembly 600. You can.
  • the refraction mode in Table 2 illustrates whether the ray propagation is refraction, reflection, or total internal reflection (TIR). will be. Since the direction of light travel changes when reflection occurs by the optical members R1 and R2, in the graphs of FIGS. 10 and 11 regarding spherical aberration and/or astigmatism depending on the number of reflections, '+'/'-' can be reversed.
  • 'z' is the distance from the vertex of the lens(s) (L1, L2, L3, L4) in the direction of the optical axis (e.g., the first optical axis O1), and 'y' is the distance to the first optical axis (O1).
  • 'c' is the distance in the vertical direction
  • 'c' is the reciprocal of the radius of curvature from the vertex of the lens(s) (L1, L2, L3, L4)
  • 'K' is the Conic constant
  • 'A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', and 'J' may each mean an aspherical coefficient.
  • the radius of curvature may represent a value indicating the degree of curvature at each point of a curved surface or curve.
  • reference numbers for optical axis(s), lens(s), and/or lens surface(s) may be omitted from the drawings for the sake of brevity of the drawings. Reference numbers omitted from the drawings can be easily understood by those skilled in the art by further referring to FIG. 8 or through the lens data and drawings presented in each embodiment.
  • FIG. 13 is a diagram illustrating a lens assembly (e.g., the camera modules 180, 205, 212, and 213 of FIGS. 1 to 3 or the lens assembly 500 of FIG. 6) according to an embodiment of the present disclosure.
  • a lens assembly e.g., the camera modules 180, 205, 212, and 213 of FIGS. 1 to 3 or the lens assembly 500 of FIG. 6 according to an embodiment of the present disclosure.
  • FIG. 14 is a graph showing spherical aberration of the lens assembly of FIG. 13 according to an embodiment of the present disclosure.
  • FIG. 15 is a graph showing astigmatism of the lens assembly of FIG. 13 according to an embodiment of the present disclosure.
  • FIG. 16 is a graph showing the distortion rate of the lens assembly of FIG. 13 according to an embodiment of the present disclosure.
  • the lens assembly 700 has a focal length of approximately 9.73 mm, an F-number of 3.475, an overall lens length of 2.6 mm, an image height of 2.28 mm, and/or an angle of view of 26.01 degrees. there is.
  • the overall lens length can be understood as, for example, the distance from the object-side surface (S2) of the first lens (L1) to the sensor-side surface (S9) of the fourth lens (L4), and the image height is the optical axis (O3). ) as the maximum distance from the edge of the imaging surface (img), for example, it can be understood as half the diagonal length of the imaging surface (img).
  • the lens assembly 700 can be manufactured with the specifications shown in the following [Table 5] while satisfying at least some of the conditions presented through the above-mentioned [mathematical equations], and the aspherical coefficients in [Table 6] and [Table 7] You can have
  • the lens assembly 700 may further include an infrared cut-off filter (IF) disposed between the image sensor (I) and the second optical member (R2).
  • IF infrared cut-off filter
  • the lens assembly 700 includes an infrared cut-off filter (IF) disposed separately from the lenses (L1, L2, L3, L4) or the optical members (R1, R2), the lenses (L1, L2, L3, L4) ) or the infrared blocking layer (e.g., the infrared blocking layer (IFL) in FIG. 9) on the surfaces of the optical members R1 and R2 may be omitted.
  • FIG. 17 is a diagram illustrating a lens assembly (e.g., the camera modules 180, 205, 212, and 213 of FIGS. 1 to 3 and/or the lens assembly 500 of FIG. 6) according to an embodiment of the present disclosure.
  • a lens assembly e.g., the camera modules 180, 205, 212, and 213 of FIGS. 1 to 3 and/or the lens assembly 500 of FIG. 6 according to an embodiment of the present disclosure.
  • FIG. 18 is a graph showing spherical aberration of the lens assembly of FIG. 17 according to an embodiment of the present disclosure.
  • FIG. 19 is a graph showing astigmatism of the lens assembly of FIG. 17 according to an embodiment of the present disclosure.
  • FIG. 20 is a graph showing the distortion rate of the lens assembly of FIG. 17 according to an embodiment of the present disclosure.
  • the lens assembly 800 has a focal length of approximately 9.75 mm, an F-number of 3.533, an overall lens length of 2.6 mm, an image height of 2.28 mm, and/or an angle of view of 26.01 degrees. there is.
  • the overall lens length can be understood as, for example, the distance from the object-side surface (S2) of the first lens (L1) to the sensor-side surface (S9) of the fourth lens (L4), and the image height is the optical axis (O3). ) as the maximum distance from the edge of the imaging surface (img), for example, it can be understood as half the diagonal length of the imaging surface (img).
  • the lens assembly 800 can be manufactured with the specifications shown in the following [Table 8] while satisfying at least some of the conditions presented through the above-mentioned [mathematical equations], and the aspherical coefficients in [Table 9] and [Table 10] You can have
  • FIG. 21 is a diagram illustrating a lens assembly (e.g., the camera modules 180, 205, 212, and 213 of FIGS. 1 to 3 or the lens assembly 500 of FIG. 6) according to an embodiment of the present disclosure.
  • a lens assembly e.g., the camera modules 180, 205, 212, and 213 of FIGS. 1 to 3 or the lens assembly 500 of FIG. 6 according to an embodiment of the present disclosure.
  • FIG. 22 is a graph showing spherical aberration of the lens assembly of FIG. 21 according to an embodiment of the present disclosure.
  • FIG. 23 is a graph showing astigmatism of the lens assembly of FIG. 21 according to an embodiment of the present disclosure.
  • FIG. 24 is a graph showing the distortion rate of the lens assembly of FIG. 21 according to an embodiment of the present disclosure.
  • the lens assembly 900 has a focal length of approximately 9.68 mm, an F-number of 2.881, an overall lens length of 2.66 mm, an image height of 2.28 mm, and/or an angle of view of 26.29 degrees. there is.
  • the total lens length can be understood as, for example, the distance from the object-side surface (S2) of the first lens (L1) to the sensor-side surface (S9) of the fourth lens (L4), and the image height is the optical axis (O3). ) as the maximum distance from the edge of the imaging surface (img), for example, it can be understood as half the diagonal length of the imaging surface (img).
  • the lens assembly 900 can be manufactured with the specifications shown in the following [Table 11] while satisfying at least some of the conditions presented through the above-mentioned [mathematical equations], and the aspherical coefficients in [Table 12] and [Table 13] You can have
  • FIG. 25 is a diagram illustrating a lens assembly (e.g., the camera modules 180, 205, 212, and 213 of FIGS. 1 to 3 or the lens assembly 500 of FIG. 6) according to an embodiment of the present disclosure.
  • a lens assembly e.g., the camera modules 180, 205, 212, and 213 of FIGS. 1 to 3 or the lens assembly 500 of FIG. 6 according to an embodiment of the present disclosure.
  • FIG. 26 is a graph showing spherical aberration of the lens assembly of FIG. 25 according to an embodiment of the present disclosure.
  • FIG. 27 is a graph showing astigmatism of the lens assembly of FIG. 25 according to an embodiment of the present disclosure.
  • FIG. 28 is a graph showing the distortion rate of the lens assembly of FIG. 25 according to an embodiment of the present disclosure.
  • the lens assembly 1000 has a focal length of approximately 9.68 mm, an F-number of 2.847, an overall lens length of 2.587 mm, an image height of 2.28 mm, and/or an angle of view of 26.39 degrees. there is.
  • the overall lens length can be understood as, for example, the distance from the object-side surface (S2) of the first lens (L1) to the sensor-side surface (S9) of the fourth lens (L4), and the image height is the optical axis (O3). ) as the maximum distance from the edge of the imaging surface (img), for example, it can be understood as half the diagonal length of the imaging surface (img).
  • the lens assembly 1000 can be manufactured with the specifications shown in the following [Table 14] while satisfying at least some of the conditions presented through the above-mentioned [mathematical equations], and the aspherical coefficients in [Table 15] and [Table 16] You can have
  • FIG. 29 is a diagram illustrating a lens assembly 1100 (e.g., the camera modules 180, 205, 212, and 213 of FIGS. 1 to 3 or the lens assembly 500 of FIG. 6) according to an embodiment of the present disclosure. .
  • a lens assembly 1100 e.g., the camera modules 180, 205, 212, and 213 of FIGS. 1 to 3 or the lens assembly 500 of FIG. 6
  • FIG. 30 is a graph showing spherical aberration of the lens assembly 1100 of FIG. 29 according to an embodiment of the present disclosure.
  • FIG. 31 is a graph showing astigmatism of the lens assembly 1100 of FIG. 29 according to an embodiment of the present disclosure.
  • FIG. 32 is a graph showing the distortion rate of the lens assembly 1100 of FIG. 29 according to an embodiment of the present disclosure.
  • the lens assembly 1100 has a focal length of approximately 16.79 mm, an F-number of 2.872, an overall lens length of 3.700 mm, an image height of 2.8 mm, and/or an angle of view of 18.79 degrees. there is.
  • the total lens length can be understood as, for example, the distance from the object-side surface (S2) of the first lens (L1) to the sensor-side surface (S9) of the fourth lens (L4), and the image height is the optical axis (O3). ) as the maximum distance from the edge of the imaging surface (img), for example, it can be understood as half the diagonal length of the imaging surface (img).
  • the lens assembly 1100 may be manufactured with the specifications shown in the following [Table 17] while satisfying at least some of the conditions presented through the above-mentioned [mathematical equations], and may have the aspheric coefficient shown in [Table 18].
  • Lens assembly according to an embodiment of the present disclosure (e.g., the camera modules 180, 205, 212, and 213 of FIGS. 1 to 3, or the camera modules 180, 205, 212, and 213 of FIGS. 6, 8, 13, 17, 21, and 25)
  • the lens assemblies include optical members (e.g., optical members R1 and R2 in FIG. 8) that reflect and/or refract incident light, thereby forming an image sensor.
  • optical members e.g., optical members R1 and R2 in FIG. 8 that reflect and/or refract incident light, thereby forming an image sensor.
  • the image sensor (I) in FIG. 8) can be freely designed.
  • the arrangement of the imaging surface e.g., the imaging surface (img) in FIG.
  • an additional optical member e.g., the first refractive member 413 in FIG. 6 is disposed in front of the array of lenses, so that the longitudinal direction (e.g., Y-axis direction in FIG.
  • the lenses may be arranged in the width direction (e.g., the X-axis direction in FIG. 5).
  • design freedom in miniaturized electronic devices can be increased in terms of the number and arrangement of lenses.
  • space for forward and backward movement of the lenses can be easily secured in the optical axis direction (e.g., the first optical axis O1 in FIG. 8). there is.
  • a lens assembly e.g., the camera modules 180, 205, 212, and 213 of FIGS. 1 to 3, or FIGS. 6, 8, 13, and 17,
  • the lens assemblies 500, 600, 700, 800, 900, 1000, and 1100 of FIGS. 21 and 25 are positioned along a first optical axis (e.g., the first optical axis of FIG. 8) from the object (e.g., the object OB of FIG. 8).
  • 1 At least two lenses (e.g., lenses (L1, L2, L3, L4) of FIGS. 8, 13, 17, 21, and 25) arranged along the optical axis (O1) direction, the at least 2
  • An image sensor e.g., image sensor (I) of FIGS.
  • the image sensor including an inclined imaging surface (e.g., the imaging surface (img) of FIG. 8), and a first optical member disposed between the at least two lenses and the image sensor (e.g., FIGS. 8 and 13) , the first optical member (R1) in FIGS. 17, 21, and 25), which receives light through the at least two lenses in the direction of the first optical axis and intersects the first optical axis (e.g. : The first optical member emitting along the second optical axis (O2) direction of FIG. 8, and the second optical member disposed between the first optical member and the image sensor (e.g., FIGS.
  • the lens assembly is an object-side surface (e.g., 'of FIG. 8) of the object-side first lens (e.g., the first lens (L1) of FIGS. 8, 13, 17, 21, and 25). From the surface indicated as 'S2') to the sensor side of the first lens (e.g., the fourth lens (L4) in FIGS.
  • the lens assembly includes two adjacent surfaces of the second optical member (e.g., the entrance surface (F1), the exit surface (F2) and/or the second reflection surface (F3) of FIG. 9.
  • the above lens assembly includes 'f1', which is the focal length of the first lens on the object side, and the second lens on the object side (e.g., the 2
  • 'f2' which is the focal length of the lens (L2)
  • the first optical member may include a mirror and/or a prism
  • the second optical member may include a prism
  • the lens assembly as described above may be configured to perform focal length adjustment and/or focus adjustment by moving at least one of the at least two lenses along the first optical axis direction.
  • the lens assembly as described above may be configured to perform camera shake correction by moving at least one of the at least two lenses in a plane perpendicular to the first optical axis.
  • the lens assembly as described above may be configured to perform hand shake correction by rotating and/or tilting the first optical member with respect to the first optical axis.
  • the third optical axis may intersect and/or be parallel to the first optical axis.
  • the second optical member has an incident surface facing the first optical member (e.g., the incident surface F1 in FIG. 9) and an exit surface facing the image sensor (e.g., the emission surface in FIG. 9). (F2)), and the second optical member between the incident surface and the exit surface may be configured to reflect and/or refract light incident on the incident surface at least twice.
  • the lens assembly as described above may further include an infrared blocking layer (e.g., an infrared blocking layer (IFL) in FIG. 9) disposed on at least one of the entrance surface and/or the exit surface.
  • IFL infrared blocking layer
  • the second optical member further includes a reflective surface (e.g., the second reflective surface F3 in FIG. 9) disposed at an angle with respect to the emission surface, and the interior of the second optical member
  • a reflective surface e.g., the second reflective surface F3 in FIG. 9
  • the emission surface and the reflection surface reflect and/or refract light incident on the incident surface, and the light reflected and/or refracted at least twice inside the second optical member is transmitted through the emission surface into the image. It can be guided or emitted by a sensor.
  • a first angle between the incident surface and the emitting surface e.g., the first angle (Ang-p1) in FIG. 9
  • a second angle between the emitting surface and the reflecting surface e.g., : Among the second angle (Ang-p2) in FIG. 9) and the third angle between the reflection surface and the incident surface (e.g., the third angle (Ang-p3) in FIG. 9
  • the second angle is the minimum. It may be between 15 degrees and 40 degrees.
  • an electronic device e.g., the electronic devices 101, 102, 104, 200, 300, and 400 of FIGS. 1 to 6) includes a lens assembly (e.g., the electronic devices 101, 102, 104, 200, 300, and 400 of FIGS. 1 to 3).
  • Camera modules 180, 205, 212, 213), or lens assemblies (500, 600, 700, 800, 900, 1000, 1100) of FIGS. 6, 8, 13, 17, 21, and 25,
  • it may include a processor (eg, processor 120 in FIG. 1) configured to acquire an image by receiving external light using the lens assembly.
  • the lens assembly includes at least two elements arranged along a first optical axis (e.g., first optical axis O1 in FIG. 8) from the object (e.g., object OB in FIG. 8).
  • Lenses e.g., lenses (L1, L2, L3, L4) of FIGS. 8, 13, 17, 21, and 25), to receive guided and/or focused light through the at least two lenses.
  • a set image sensor e.g., the image sensor (I) of FIGS. 8, 13, 17, 21, and 25
  • an imaging surface disposed obliquely with respect to the first optical axis e.g., an imaging surface (img) of FIG.
  • a first optical member disposed between the image sensor, the at least two lenses, and the image sensor e.g., the first optical member of FIGS. 8, 13, 17, 21, and 25) As R1
  • light is incident on the first optical axis through the at least two lenses and is emitted along a second optical axis (e.g., the second optical axis O2 in FIG. 8) intersecting the first optical axis.
  • the first optical member, and a second optical member disposed between the first optical member and the image sensor e.g., the second optical member (R2) in FIGS.
  • the lens assembly is an object-side surface (e.g., 'of FIG. 8) of the object-side first lens (e.g., the first lens (L1) of FIGS. 8, 13, 17, 21, and 25). From the surface indicated as 'S2') to the sensor side of the first lens (e.g., the fourth lens (L4) in FIGS.
  • the second optical member has an incident surface facing the first optical member (e.g., the incident surface F1 in FIG. 9) and an exit surface facing the image sensor (e.g., the emission surface in FIG. 9). (F2)) and a reflective surface disposed at an angle with respect to the emission surface (e.g., the second reflective surface (F3) in FIG. 9), and the second optical member is between the incident surface and the emission surface. It may be configured to reflect and/or refract light incident on the surface at least twice.
  • a first angle between the incident surface and the emitting surface e.g., the first angle (Ang-p1) in FIG. 9
  • a second angle between the emitting surface and the reflecting surface e.g., : Among the second angle (Ang-p2) in FIG. 9) and the third angle between the reflection surface and the incident surface (e.g., the third angle (Ang-p3) in FIG. 9
  • the second angle is the minimum. It may be between 15 degrees and 40 degrees.
  • the lens assembly includes 'f1', which is the focal length of the first lens on the object side, and the second lens on the object side (e.g., the second lens in FIGS. 8, 13, 17, 21, and 25)
  • 'f2' the focal length of L2

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)

Abstract

렌즈 어셈블리가 제공된다. 렌즈 어셈블리는, 물체측으로부터 제1 광축 방향을 따라 배열된 렌즈들, 상기 렌즈들을 통해 안내된 빛을 수신하는 이미지 센서로서, 상기 제1 광축에 대하여 경사진 결상면을 포함하는 상기 이미지 센서, 상기 렌즈들과 상기 이미지 센서 사이에 배치된 제1 광학 부재로서, 상기 제1 광축 방향에서 상기 렌즈를 통해 빛을 입사받아 상기 제1 광축에 교차하는 제2 광축 방향을 따라 출사하는 상기 제1 광학 부재, 및 상기 제1 광학 부재와 상기 이미지 센서 사이에 배치된 제2 광학 부재로서, 상기 제2 광축 방향에서 상기 제1 광학 부재를 통해 빛을 입사받아 상기 제2 광축에 교차하는 제3 광축 방향을 따라 상기 이미지 센서로 출사하는 상기 제2 광학 부재를 포함할 수 있다.

Description

렌즈 어셈블리 및 그를 포함하는 전자 장치
본 개시는 전자 장치에 관한 것으로, 예를 들면, 렌즈 어셈블리 및 그를 포함하는 전자 장치에 관한 것이다.
전자 장치라 함은, 가전제품으로부터, 전자 수첩, 휴대용 멀티미디어 재생기, 이동통신 단말기, 태블릿 PC(personal computer), 영상/음향 장치, 데스크톱/랩톱 컴퓨터 및/또는 차량용 내비게이션과 같이 탑재된 프로그램에 따라 지정된 기능을 수행하는 장치를 의미할 수 있다. 예를 들면, 이러한 전자 장치들은 저장된 정보를 음향이나 영상으로 출력할 수 있다. 전자 장치의 집적도가 높아지고, 초고속, 대용량 무선통신이 보편화되면서, 최근에는, 이동통신 단말기와 같은 하나의 전자 장치에 다양한 기능이 탑재될 수 있다. 예를 들면, 통신 기능뿐만 아니라, 게임과 같은 엔터테인먼트 기능, 음악/동영상 재생과 같은 멀티미디어 기능, 모바일 뱅킹 등을 위한 통신 및 보안 기능, 및/또는 일정 관리나 전자 지갑의 기능이 하나의 전자 장치에 집약되고 있다.
디지털 카메라의 제작 기술이 발달하면서, 소형, 경량화된 카메라 모듈을 장착한 전자 장치가 상용화되었다. 항상 휴대하는 것이 일반적인 전자 장치(예: 이동통신 단말기)에 카메라 모듈이 탑재되면서, 사용자는 사진이나 동영상 촬영은 물론, 영상 통화 및/또는 증강 현실과 같은 다양한 기능을 간편하게 활용할 수 있게 되었다.
근래에는, 복수 개의 카메라들을 포함하는 전자 장치가 보급되고 있다. 전자 장치는, 예를 들어 광각 카메라 및 망원 카메라를 포함하는 카메라 모듈을 포함할 수 있다. 전자 장치는 광각 카메라를 이용하여 전자 장치 주변의 넓은 범위의 신(scene)을 촬영하여 광각 이미지를 획득하거나 망원 카메라를 이용하여 전자 장치로부터 상대적으로 먼 위치에 대응하는 신을 촬영하여 망원 이미지를 획득할 수 있다. 이와 같이, 스마트 폰과 같은 소형화된 전자 장치는 복수의 카메라 모듈들 및/또는 렌즈 어셈블리를 포함함으로써 콤팩트 카메라 시장을 잠식하고 있으며, 향후에는 일안 반사식 카메라와 같은 고성능 카메라를 대체할 수 있을 것으로 예상된다.
상술한 정보는 단지 본 개시에 대한 이해를 돕기 위한 배경 정보로 제공될 수 있다. 상술한 내용 중 어느 것도 본 개시와 관련하여 종래 기술(prior art)로서 적용될 수 있는지에 관해서는 어떠한 주장이나 결정이 제기되지 않는다.
본 개시의 양태들(aspects)은, 상술한 문제점 및/또는 단점을 적어도 해소하고 후술하는 장점을 적어도 제공하기 위한 것이다. 따라서 본 개시의 한 양태는 렌즈 어셈블리 및 그를 포함하는 전자 장치를 제공하기 위한 것이다.
추가적인 측면들은 다음의 설명에서 부분적으로 설명될 것이고, 부분적으로, 설명으로부터 명백할 것이거나, 또는 제시된 실시예들의 실천에 의해 학습될 수 있다.
본 개시의 일 실시예에 따르면, 렌즈 어셈블리가 제공된다. 렌즈 어셈블리는, 물체측으로부터 제1 광축 방향을 따라 배열된 적어도 2매의 렌즈, 상기 적어도 2매의 렌즈를 통해 안내 및/또는 집속된 빛을 수신하도록 설정된 이미지 센서로서, 상기 제1 광축에 대하여 경사지게 배치된 결상면을 포함하는 상기 이미지 센서, 상기 적어도 2매의 렌즈와 상기 이미지 센서 사이에 배치된 제1 광학 부재로서, 상기 제1 광축 방향에서 상기 적어도 2매의 렌즈를 통해 빛을 입사받아 상기 제1 광축에 교차하는 제2 광축 방향을 따라 출사하는 상기 제1 광학 부재, 및 상기 제1 광학 부재와 상기 이미지 센서 사이에 배치된 제2 광학 부재로서, 상기 제2 광축 방향에서 상기 제1 광학 부재를 통해 빛을 입사받아 상기 제2 광축에 교차하는 제3 광축 방향을 따라 상기 이미지 센서로 출사하는 상기 제2 광학 부재를 포함할 수 있다. 일 실시예에서, 상기 렌즈 어셈블리는, 물체측 첫번째 렌즈의 물체측 면으로부터 이미지 센서측 첫번째 렌즈의 센서측 면까지의 길이인 'TTL'과, 상기 렌즈 어셈블리의 초점거리인 'f'에 관한 조건식, "0.1 <= TTL/f <= 0.35"을 만족할 수 있다. 일 실시예에서, 상기 렌즈 어셈블리는, 상기 제2 광학 부재의 인접하는 두 면(surface)이 이루는 각도들 중 최소 각도인 'Ang-min'에 관한 조건식, "15 <= Ang-min <= 40"을 만족할 수 있다.
본 개시의 다른 일 실시예에 따르면, 전자 장치가 제공된다. 전자 장치는, 렌즈 어셈블리, 및 상기 렌즈 어셈블리를 이용하여 외부의 빛을 수신함으로써 이미지를 획득하도록 설정된 프로세서를 포함할 수 있다. 일 실시예에서, 상기 렌즈 어셈블리는, 물체측으로부터 제1 광축 방향을 따라 배열된 적어도 2매의 렌즈, 상기 적어도 2매의 렌즈를 통해 안내 및/또는 집속된 빛을 수신하도록 설정된 이미지 센서로서, 상기 제1 광축에 대하여 경사지게 배치된 결상면을 포함하는 상기 이미지 센서, 상기 적어도 2매의 렌즈와 상기 이미지 센서 사이에 배치된 제1 광학 부재로서, 상기 제1 광축 방향에서 상기 적어도 2매의 렌즈를 통해 빛을 입사받아 상기 제1 광축에 교차하는 제2 광축 방향을 따라 출사하는 상기 제1 광학 부재, 및 상기 제1 광학 부재와 상기 이미지 센서 사이에 배치된 제2 광학 부재로서, 상기 제2 광축 방향에서 상기 제1 광학 부재를 통해 빛을 입사받아 상기 제2 광축에 교차하는 제3 광축 방향을 따라 상기 이미지 센서로 출사하는 상기 제2 광학 부재를 포함할 수 있다. 일 실시예에서, 상기 렌즈 어셈블리는 물체측 첫번째 렌즈의 물체측 면으로부터 이미지 센서측 첫번째 렌즈의 센서측 면까지의 길이인 'TTL'과, 상기 렌즈 어셈블리의 초점거리인 'f'에 관한 조건식, "0.1 <= TTL/f <= 0.35"을 만족할 수 있다. 일 실시예에서, 상기 렌즈 어셈블리는 상기 렌즈 어셈블리의 화각(field of view)인 'FoV'에 관한 조건식, "5 <= FoV <= 35"을 만족할 수 있다.
본 개시의 다른 측면, 장점 및 두드러진 특징들은 첨부된 도면들과 함께 본 개시의 다양한 실시예들을 개시하는 하기의 상세한 설명으로부터 당업자들에게 명백해질 것이다.
본 개시의 실시예들에 관해 상술한 측면 및/또는 다른 측면, 구성 및/또는 장점은 첨부된 도면을 참조하는 다음의 설명을 통해 더욱 명확해질 수 있다.
도 1은 본 개시의 일 실시예에 따른, 네트워크 환경 내의 전자 장치를 나타내는 블록도이다.
도 2는 본 개시의 일 실시예에 따른 전자 장치의 전면을 나타내는 사시도이다.
도 3은 본 개시의 일 실시예에 따른, 도 2에 도시된 전자 장치의 후면을 나타내는 사시도이다.
도 4는 본 개시의 일 실시예에 따른, 도 2에 도시된 전자 장치를 나타내는 분리 사시도이다.
도 5는 본 개시의 일 실시예에 따른 전자 장치의 후면을 예시하는 평면도이다.
도 6은 도 5의 A-A'를 따라 본 개시의 일 실시예에 따른 전자 장치의 일부분을 절개하여 나타내는 단면도이다.
도 7은 본 개시의 일 실시예에 따른 전자 장치에서, 카메라 모듈의 광학 경로를 예시하는 구성도이다.
도 8은 본 개시의 일 실시예에 따른 렌즈 어셈블리를 나타내는 도면이다.
도 9는 본 개시의 일 실시예에 따른, 도 8의 렌즈 어셈블리의 제2 광학 부재를 나타내는 도면이다.
도 10은 본 개시의 일 실시예에 따른, 도 8의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 11은 본 개시의 일 실시예에 따른, 도 8의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 12는 본 개시의 일 실시예에 따른, 도 8의 렌즈 어셈블리의 왜곡율을 나타내는 그래프이다.
도 13은 본 개시의 일 실시예에 따른 렌즈 어셈블리를 나타내는 도면이다.
도 14는 본 개시의 일 실시예에 따른, 도 13의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 15는 본 개시의 일 실시예에 따른, 도 13의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 16은 본 개시의 일 실시예에 따른, 도 13의 렌즈 어셈블리의 왜곡율을 나타내는 그래프이다.
도 17은 본 개시의 일 실시예에 따른 렌즈 어셈블리를 나타내는 도면이다.
도 18은 본 개시의 일 실시예에 따른, 도 17의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 19는 본 개시의 일 실시예에 따른, 도 17의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 20은 본 개시의 일 실시예에 따른, 도 17의 렌즈 어셈블리의 왜곡율을 나타내는 그래프이다.
도 21은 본 개시의 일 실시예에 따른 렌즈 어셈블리를 나타내는 도면이다.
도 22는 본 개시의 일 실시예에 따른, 도 21의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 23은 본 개시의 일 실시예에 따른, 도 21의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 24는 본 개시의 일 실시예에 따른, 도 21의 렌즈 어셈블리의 왜곡율을 나타내는 그래프이다.
도 25는 본 개시의 일 실시예에 따른 렌즈 어셈블리를 나타내는 도면이다.
도 26은 본 개시의 일 실시예에 따른, 도 25의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 27은 본 개시의 일 실시예에 따른, 도 25의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 28은 본 개시의 일 실시예에 따른, 도 25의 렌즈 어셈블리의 왜곡율을 나타내는 그래프이다.
도 29는 본 개시의 일 실시예에 따른 렌즈 어셈블리를 나타내는 도면이다.
도 30은 본 개시의 일 실시예에 따른, 도 29의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 31은 본 개시의 일 실시예에 따른, 도 29의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 32는 본 개시의 일 실시예에 따른, 도 29의 렌즈 어셈블리의 왜곡율을 나타내는 그래프이다.
도면의 전반에서, 유사한 참조 번호는 유사한 부품, 구성 및/또는 구조를 언급한 것으로 이해될 것이다.
첨부된 도면에 관한 다음 설명은 청구항 및 이에 상응하는 내용을 포함하는 본 개시의 다양한 실시예에 대한 이해를 돕기 위해 제공될 수 있다. 다음의 설명은 이해를 돕기 위한 다양한 구체적인 세부사항들을 포함하고 있지만 이는 다양한 예시적인 것으로 간주된다. 따라서, 일반 기술자는 본 문서에 기술된 다양한 구현의 다양한 변경과 수정이 공개의 범위와 기술적 사상에서 벗어나지 않고 이루어질 수 있음을 이해할 것이다. 또한 명확성과 간결성을 위해 잘 알려진 기능 및 구성의 설명은 생략될 수 있다.
다음 설명과 청구에 사용된 용어와 단어는 참고 문헌적 의미에 국한되지 않고, 본 개시를 명확하고 일관되게 설명하기 위해 발명자에 의해 사용될 수 있다. 따라서, 기술분야에 통상의 기술자에게, 공시의 다양한 구현에 대한 다음의 설명은 단지 예시적인 목적으로만 제공되며, 첨부된 청구항들 및 이의 균등물들에 의해 정의된 본 발명을 제한하는 목적으로 제공되지 않는다는 것이 당업자들에게 명백하다 할 것이다.
문맥이 다르게 명확하게 지시하지 않는 한, "a", "an", 그리고 "the"의 단수형식은 복수의 의미를 포함한다는 것을 이해해야 한다. 따라서 예를 들어 "구성 요소 표면"이라 함은 구성 요소의 표면 중 하나 또는 그 이상을 포함하는 것으로 이해될 수 있다.
전자 장치가 소형화, 경량화됨으로써, 휴대가 더욱 편리할 수 있다. 휴대용 전자 장치에서도 더 큰 화면을 즐길 수 있도록 디스플레이가 대형화되는 환경에서는, 두께를 줄임으로써 전자 장치가 소형화, 경량화될 수 있다. 소형화된 전자 장치에서는 양호한 광학적 성능을 가진 렌즈 어셈블리의 탑재에 어려움이 있을 수 있다. 예를 들어, 렌즈의 수나 크기가 클수록 렌즈 어셈블리의 광학적 성능의 확보가 용이할 수 있지만, 소형화된 전자 장치에서는 렌즈(들)나 이미지 센서의 배열에 있어 설계 자유도가 낮아질 수 있다.
본 개시의 일 실시예는, 상술한 문제점 및/또는 단점을 적어도 해소하고 후술하는 장점을 적어도 제공하기 위한 것으로서, 향상된 설계 자유도를 가진 렌즈 어셈블리 및/또는 그를 포함하는 전자 장치를 제공할 수 있다.
본 개시의 일 실시예는, 협소한 공간에 용이하게 배치될 수 있는 렌즈 어셈블리 및/또는 그를 포함하는 전자 장치를 제공할 수 있다.
본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은, 본 개시의 일 실시예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 일 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 일 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU; neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼) 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부의 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부의 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부의 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부의 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부의 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 일 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
일 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗면 또는 측면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들 간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104) 간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104) 또는 서버(108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC; mobile edge computing) 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 일 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
본 개시의 실시예(들)에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 개시의 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“A 또는 B 중 적어도 하나”, "A, B 또는 C", "A, B 및 C 중 적어도 하나”, 및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것으로 이해될 수 있다.
본 개시의 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 개시의 실시예들은 기기(machine)(예: 전자 장치) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치)의 프로세서(예: 프로세서)는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 개시의 실시예(들)에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
일 실시예에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수 있다. 일 실시예에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 일 실시예에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
이하의 상세한 설명에서, 전자 장치의 길이 방향, 폭 방향 및/또는 두께 방향이 언급될 수 있으며, 길이 방향은 'Y축 방향'으로, 폭 방향은 'X축 방향'으로, 및/또는 두께 방향은 'Z축 방향'으로 정의될 수 있다. 일 실시예에서, 구성요소가 지향하는 방향에 관해서는 도면에 예시된 직교 좌표계와 아울러, '음/양(-/+)'이 함께 언급될 수 있다. 예를 들어, 전자 장치 및/또는 하우징의 전면은 '+Z 방향을 향하는 면'으로, 후면은 '-Z 방향을 향하는 면'으로 정의될 수 있다. 일 실시예에서, 전자 장치 및/또는 하우징 측면은, +X 방향을 향하는 영역, +Y 방향을 향하는 영역, -X 방향을 향하는 영역 및/또는 -Y 방향을 향하는 영역을 포함할 수 있다. 일 실시예에서, 'X축 방향'은 '-X 방향'과 '+X 방향'을 모두 포함하는 의미일 수 있다. 이는 설명의 간결함을 위해 도면에 기재된 직교 좌표계를 기준으로 한 것으로, 이러한 방향이나 구성요소들에 대한 설명이 본 개시의 실시예(들)를 한정하지 않음에 유의한다.
도 2는 본 개시의 일 실시예에 따른 전자 장치의 전면을 나타내는 사시도이다.
도 3은 본 개시의 일 실시예에 따른, 도 2에 도시된 전자 장치의 후면을 나타내는 사시도이다.
도 2 및 3을 참조하면, 일 실시예에 따른 전자 장치(200)는, 제1 면(또는 전면)(210A), 제2 면(또는 후면)(210B), 및 제1 면(210A) 및 제2 면(210B) 사이의 공간을 둘러싸는 측면(210C)을 포함하는 하우징(210)을 포함할 수 있다. 다른 한 실시예(미도시)에서는, 하우징은, 도 2의 제1 면(210A), 제2 면(210B) 및 측면(210C)들 중 일부를 형성하는 구조를 지칭할 수도 있다. 다른 한 실시예에 따르면, 제1 면(210A)은 적어도 일부분이 실질적으로 투명한 전면 플레이트(202)(예: 다양한 코팅 레이어들을 포함하는 글라스 플레이트, 및/또는 폴리머 플레이트)에 의하여 형성될 수 있다. 제2 면(210B)은 실질적으로 불투명한 후면 플레이트(211)에 의하여 형성될 수 있다. 상기 후면 플레이트(211)는, 예를 들어, 코팅 및/또는 착색된 유리, 세라믹, 폴리머, 금속(예: 알루미늄, 스테인레스 스틸(STS), 및/또는 마그네슘), 또는 상기 물질들 중 적어도 둘의 조합에 의하여 형성될 수 있다. 상기 측면(210C)은, 전면 플레이트(202) 및 후면 플레이트(211)와 결합하며, 금속 및/또는 폴리머를 포함하는 측면 구조 (또는 "측면 베젤 구조")(218)에 의하여 형성될 수 있다. 다른 한 실시예에서는, 후면 플레이트(211) 및 측면 구조(218)는 일체로 형성되고 동일한 물질(예: 알루미늄과 같은 금속 물질)을 포함할 수 있다.
도시된 실시예에서는, 상기 전면 플레이트(202)는, 상기 제1 면(210A)으로부터 상기 후면 플레이트(211) 쪽으로 휘어져 심리스하게(seamless) 연장된 2개의 제1 영역(210D)들을, 상기 전면 플레이트(202)의 긴 엣지(long edge) 양단에 포함할 수 있다. 도시된 실시예(도 3 참조)에서, 상기 후면 플레이트(211)는, 상기 제2 면(210B)으로부터 상기 전면 플레이트(202) 쪽으로 휘어져 심리스하게 연장된 2개의 제2 영역(210E)들을 긴 엣지 양단에 포함할 수 있다. 일 실시예에서는, 상기 전면 플레이트(202)(또는 상기 후면 플레이트(211))가 상기 제1 영역(210D)들(또는 상기 제2 영역(210E)들) 중 하나만을 포함할 수 있다. 일 실시예에서는, 상기 제1 영역(210D)들 및/또는 제2 영역(210E)들 중 일부가 포함되지 않을 수 있다. 상기 실시예들에서, 상기 전자 장치(200)의 측면에서 볼 때, 측면 구조(218)는, 상기와 같은 제1 영역(210D)들 및/또는 제2 영역(210E)들이 포함되지 않는 측면 쪽에서는 제1 두께(또는 폭)를 가지고, 상기 제1 영역(210D)들 및/또는 제2 영역(210E)들을 포함한 측면 쪽에서는 상기 제1 두께보다 얇은 제2 두께를 가질 수 있다.
다른 한 실시예에 따르면, 전자 장치(200)는, 디스플레이(201), 오디오 모듈(203, 207, 214), 센서 모듈(204, 216, 219), 카메라 모듈(205, 212, 213), 키 입력 장치(217), 발광 소자(206), 및 커넥터 홀(208, 209) 중 적어도 하나 이상을 포함할 수 있다. 다른 한 실시예에서는, 전자 장치(200)는, 구성요소들 중 적어도 하나(예: 키 입력 장치(217), 및/또는 발광 소자(206))를 생략하거나 다른 구성요소를 추가적으로 포함할 수 있다.
디스플레이(201)는, 예를 들어, 전면 플레이트(202)의 상당 부분을 통하여 시각적으로 노출될 수 있다. 다른 한 실시예에서는, 상기 제1 면(210A), 및 상기 측면(210C)의 제1 영역(210D)들을 형성하는 전면 플레이트(202)를 통하여 상기 디스플레이(201)의 적어도 일부가 시각적으로 노출될 수 있다. 다른 한 실시예에서는, 디스플레이(201)의 모서리를 상기 전면 플레이트(202)의 인접한 외곽 형상과 대체로 동일하게 형성할 수 있다. 다른 한 실시예(미도시)에서는, 디스플레이(201)가 시각적으로 노출되는 면적을 확장하기 위하여, 디스플레이(201)의 외곽과 전면 플레이트(202)의 외곽간의 간격이 대체로 동일하게 형성될 수 있다.
다른 한 실시예(미도시)에서는, 디스플레이(201)의 화면 표시 영역의 일부에 리세스 및/또는 개구부(opening)를 형성하고, 상기 리세스 및/또는 상기 개구부(opening)와 정렬되는 오디오 모듈(214), 센서 모듈(204), 카메라 모듈(205), 및 발광 소자(206) 중 적어도 하나 이상을 포함할 수 있다. 일 실시예(미도시)에서는, 디스플레이(201)의 화면 표시 영역의 배면에, 오디오 모듈(214), 센서 모듈(204), 카메라 모듈(205), 지문 센서(216)(예: 제4 센서 모듈), 및 발광 소자(206) 중 적어도 하나 이상을 포함할 수 있다. 일 실시예(미도시)에서는, 디스플레이(201)는, 터치 감지 회로, 터치의 세기(압력)를 측정할 수 있는 압력 센서, 및/또는 자기장 방식의 스타일러스 펜을 검출하는 디지타이저와 결합되거나 인접하여 배치될 수 있다. 다른 한 실시예에서는, 상기 센서 모듈(204, 219)의 적어도 일부, 및/또는 키 입력 장치(217)의 적어도 일부가, 상기 제1 영역(210D)들, 및/또는 상기 제2 영역(210E)들에 배치될 수 있다.
오디오 모듈(203, 207, 214)은, 마이크 홀(203) 및 스피커 홀(207, 214)을 포함할 수 있다. 마이크 홀(203)은 외부의 소리를 획득하기 위한 마이크가 내부에 배치될 수 있고, 일 실시예에서는 소리의 방향을 감지할 수 있도록 복수개의 마이크가 배치될 수 있다. 스피커 홀(207, 214)은, 외부 스피커 홀(207) 및 통화용 리시버 홀(214)(예: 스피커 홀)을 포함할 수 있다. 다른 한 실시예에서는 스피커 홀(207, 214)과 마이크 홀(203)이 하나의 홀로 구현되거나, 스피커 홀(207, 214) 없이 스피커가 포함될 수 있다(예: 피에조 스피커).
센서 모듈(204, 216, 219)은, 전자 장치(200)의 내부의 작동 상태, 및/또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(204, 216, 219)은, 예를 들어, 하우징(210)의 제1 면(210A)에 배치된 제1 센서 모듈(204)(예: 근접 센서) 및/또는 제2 센서 모듈(미도시)(예: 지문 센서), 및/또는 상기 하우징(210)의 제2 면(210B)에 배치된 제3 센서 모듈(219)(예: HRM 센서) 및/또는 제4 센서 모듈(216) (예: 지문 센서)을 포함할 수 있다. 상기 지문 센서는 하우징(210)의 제1면(210A)(예: 디스플레이(201))뿐만 아니라 제2면(210B)에 배치될 수 있다. 전자 장치(200)는, 도 1의 센서 모듈(176), 예를 들어, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 및/또는 조도 센서 중 적어도 하나를 더 포함할 수 있다.
카메라 모듈(205, 212, 213)은, 전자 장치(200)의 제1 면(210A)에 배치된 제1 카메라 장치(205), 및 제2 면(210B)에 배치된 제2 카메라 장치(212), 및/또는 플래시(213)를 포함할 수 있다. 상기 카메라 장치들(205, 212)은, 하나 또는 복수의 렌즈들, 이미지 센서, 및/또는 이미지 시그널 프로세서를 포함할 수 있다. 플래시(213)는, 예를 들어, 발광 다이오드 및/또는 제논 램프(xenon lamp)를 포함할 수 있다. 다른 한 실시예에서는, 2개 이상의 렌즈들(적외선 카메라, 광각 및 망원 렌즈) 및 이미지 센서들이 전자 장치(200)의 한 면에 배치될 수 있다.
키 입력 장치(217)는, 하우징(210)의 측면(210C)에 배치될 수 있다. 다른 한 실시예에서는, 전자 장치(200)는 상기 언급된 키 입력 장치(217) 중 일부 또는 전부를 포함하지 않을 수 있고 포함되지 않은 키 입력 장치(217)는 디스플레이(201) 상에 소프트 키 등 다른 형태로 구현될 수 있다. 다른 한 실시예에서, 키 입력 장치는 하우징(210)의 제2면(210B)에 배치된 센서 모듈(216)을 포함할 수 있다.
발광 소자(206)는, 예를 들어, 하우징(210)의 제1 면(210A)에 배치될 수 있다. 발광 소자(206)는, 예를 들어, 전자 장치(200)의 상태 정보를 광 형태로 제공한다.일 실시예에서는, 발광 소자(206)는, 예를 들어, 카메라 모듈(205)의 동작과 연동되는 광원을 제공할 수 있다. 발광 소자(206)는, 예를 들어, LED, IR LED 및 제논 램프를 포함할 수 있다.
커넥터 홀(208, 209)은, 외부 전자 장치와 전력 및/또는 데이터를 송수신하기 위한 커넥터(예를 들어, USB 커넥터)를 수용할 수 있는 제1 커넥터 홀(208), 및/또는 외부 전자 장치와 오디오 신호를 송수신하기 위한 커넥터를 수용할 수 있는 제2 커넥터 홀(예를 들어, 이어폰 잭)(209)을 포함할 수 있다.
도 4는 본 개시의 일 실시예에 따른, 도 2에 도시된 전자 장치를 나타내는 분리 사시도이다.
도 4를 참조하면, 전자 장치(300)(예: 도 2 또는 도 3의 전자 장치(200))는, 측면 구조(310)(예: 도 2의 측면 구조(218)), 제1 지지 부재(311)(예: 브라켓), 전면 플레이트(320)(예: 도 2의 전면 플레이트(202)), 디스플레이(330)(예: 도 2의 디스플레이(201)), 인쇄 회로 기판(340))(예: PCB(printed circuit board), PBA(printed board assembly), FPCB(flexible PCB) 및/또는 RFPCB(rigid-flexible PCB)), 배터리(350), 제2 지지 부재(360)(예: 리어 케이스), 안테나(370) 및 후면 플레이트(380)(예: 도 3의 후면 플레이트(211))를 포함할 수 있다. 일 실시예에서는, 전자 장치(300)는, 구성요소들 중 적어도 하나(예: 제1 지지 부재(311), 및/또는 제2 지지 부재(360))를 생략하거나 다른 구성요소를 추가적으로 포함할 수 있다. 전자 장치(300)의 구성요소들 중 적어도 하나는, 도 2 또는 도 3의 전자 장치(200)의 구성요소들 중 적어도 하나와 동일 또는 유사할 수 있으며, 중복되는 설명은 이하 생략한다.
제1 지지 부재(311)는, 전자 장치(300) 내부에 배치되어 측면 구조(310)와 연결될 수 있거나, 측면 구조(310)와 일체로 형성될 수 있다. 제1 지지 부재(311)는, 예를 들어, 금속 재질 및/또는 비금속 (예: 폴리머) 재질로 형성될 수 있다. 제1 지지 부재(311)는, 일면에 디스플레이(330)가 결합되고 타면에 인쇄 회로 기판(340)이 결합될 수 있다. 인쇄 회로 기판(340)에는, 프로세서, 메모리, 및/또는 인터페이스가 장착될 수 있다. 프로세서는, 예를 들어, 중앙처리장치, 어플리케이션 프로세서, 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서 중 하나 또는 그 이상을 포함할 수 있다.
메모리는, 예를 들어, 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다.
인터페이스는, 예를 들어, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 및/또는 오디오 인터페이스를 포함할 수 있다. 인터페이스는, 예를 들어, 전자 장치(300)를 외부 전자 장치와 전기적 및/또는 물리적으로 연결시키며, USB 커넥터, SD 카드/MMC 커넥터, 및/또는 오디오 커넥터를 포함할 수 있다.
배터리(350)는 전자 장치(300)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 및/또는 재충전 가능한 2차 전지, 및/또는 연료 전지를 포함할 수 있다. 배터리(350)의 적어도 일부는, 예를 들어, 인쇄 회로 기판(340)과 실질적으로 동일 평면 상에 배치될 수 있다. 배터리(350)는 전자 장치(300) 내부에 일체로 배치될 수 있고, 전자 장치(300)와 탈부착 가능하게 배치될 수도 있다.
안테나(370)는, 후면 플레이트(380)와 배터리(350) 사이에 배치될 수 있다. 안테나(370)는, 예를 들어, NFC(near field communication) 안테나, 무선 충전 안테나, 및/또는 MST(magnetic secure transmission) 안테나를 포함할 수 있다. 안테나(370)는, 예를 들어, 외부 장치와 근거리 통신을 하거나, 충전에 필요한 전력을 무선으로 송수신을 수행한다. 다른 한 실시예에서는, 측면 구조(310) 및/또는 상기 제1 지지 부재(311)의 일부 또는 그 조합에 의하여 안테나 구조가 형성될 수 있다.
이하의 상세한 설명에서는, 선행 실시예의 전자 장치(101, 102, 104, 200, 300)가 참조될 수 있으며, 선행 실시예를 통해 용이하게 이해될 수 있는 구성에 대해서는 도면의 참조번호를 동일하게 부여하거나 생략하고, 그 상세한 설명 또한 생략될 수 있음에 유의한다.
도 5는 본 개시의 일 실시예에 따른 전자 장치(예: 도 1 내지 도 4의 전자 장치(101, 102, 104, 200, 300))의 후면을 예시하는 평면도이다.
도 6은 도 5의 A-A'를 따라 본 개시의 일 실시예에 따른 전자 장치의 일부분을 절개하여 나타내는 단면도이다.
도 7은 본 개시의 일 실시예에 따른 전자 장치에서, 렌즈 어셈블리의 광학 경로를 예시하는 구성도이다.
도 5와 도 6을 참조하면, 본 개시의 일 실시예에 따른 전자 장치(400)는, 일면(예: 도 3의 제2 면(210B))에 배치된 카메라 윈도우(385)를 포함할 수 있다. 일 실시예에서, 카메라 윈도우(385)는 후면 플레이트(380)의 일부일 수 있다. 다른 한 실시예에서, 카메라 윈도우(385)는 장식 부재(389)를 통해 후면 플레이트(380)에 결합될 수 있으며, 외부에서 바라볼 때, 장식 부재(389)는 카메라 윈도우(385)의 둘레를 감싸는 형태로 노출될 수 있다. 다른 한 실시예에 따르면, 카메라 윈도우(385)는 복수의 투명 영역(387)들을 포함할 수 있으며, 전자 장치(400)는 투명 영역(387)들 중 적어도 하나를 통해 외부의 빛을 수신하거나 외부로 빛을 방사할 수 있다. 예를 들어, 전자 장치(400)는 투명 영역(387)들 중 적어도 일부에 대응하게 배치된 적어도 하나의 렌즈 어셈블리(500)(예: 도 1 내지 도 3의 카메라 모듈(180, 205, 212, 213))와, 투명 영역(387)들 중 다른 일부에 대응하게 배치된 적어도 하나의 광원(예: 적외선 광원)을 포함할 수 있다. 일 실시예에서, 렌즈 어셈블리(500) 및/또는 광원은 투명 영역(387)들 중 어느 하나를 통해 외부의 빛을 수신하거나 전자 장치(400)의 외부로 빛을 방사할 수 있다. 다른 한 실시예에서, 전자 장치(400) 및/또는 렌즈 어셈블리(500)는 카메라 지지 부재(381)를 더 포함할 수 있다. 카메라 지지 부재(381)는 렌즈 어셈블리(500) 및/또는 그에 인접하는 다른 렌즈 어셈블리(예: 광각 카메라, 초광각 카메라 및/또는 접사 카메라) 중 중 적어도 하나를, 후면 플레이트(380) 및/또는 카메라 윈도우(385)의 내측에 배치 또는 고정할 수 있다. 다른 한 실시예에서, 카메라 지지 부재(381)는 실질적으로 도 4의 제1 지지 부재(311) 및/또는 제2 지지 부재(360)의 일부일 수 있다.
다른 한 실시예에 따르면, 전자 장치(400)는 렌즈 어셈블리(500) 및/또는 수광 소자로서의 광각 카메라, 초광각 카메라, 접사 카메라, 망원 카메라 또는 적외선 포토 다이오드 중 적어도 하나를 포함할 수 있으며, 광원 및/또는 발광 소자로서의 플래시(예: 도 3의 플래시(213))나 적외선 레이저 다이오드를 포함할 수 있다. 다른 한 실시예에서, 전자 장치(400)는 적외선 레이저 다이오드와 적외선 포토 다이오드를 이용하여, 피사체를 향해 적외선 레이저를 방사하고, 피사체에 의해 반사된 적외선 레이저를 수신함으로써 피사체까지의 거리 및/또는 심도를 검출할 수 있다. 다른 한 실시예에서, 전자 장치(400)는 카메라들 중 어느 하나 또는 둘 이상을 조합하여 피사체를 촬영할 수 있으며, 필요에 따라 플래시를 이용하여 피사체를 향해 조명을 제공할 수 있다.
다른 한 실시예에 따르면, 카메라들 중, 광각 카메라, 초광각 카메라 및/또는 접사 카메라는 망원 카메라(예: 렌즈 어셈블리(500))와 대비할 때, 렌즈(들)의 광축 방향에서 더 작은 길이를 가질 수 있다. 예컨대, 초점 거리가 상대적으로 큰 망원 카메라(예: 렌즈 어셈블리(500))는 렌즈(423a, 423b, 423c)(들)의 렌즈 전장이 다른 카메라보다 크다. '렌즈 전장'이라 함은, 물체측 첫번째 렌즈의 물체측 면으로부터 이미지 센서(411)의 결상면까지의 거리일 수 있다. 후술되는 다른 한 실시예(예: 도 8의 렌즈 어셈블리(600))에서와 같이, 렌즈(들)와 이미지 센서 사이에 다른 광학 부재(예: 미러 및/또는 프리즘)(들)이 배치된 경우, '렌즈 전장'은 물체측 첫번째 렌즈의 물체측 면으로부터 이미지 센서측 첫번째 렌즈의 센서측 면까지의 거리일 수 있다. 한 실시예에서, 광각 카메라, 초광각 카메라 및/또는 접사 카메라는 전자 장치(400)의 두께(예: 도 4 또는 도 6의 Z축 방향으로 측정되는 두께) 방향을 따라 렌즈(들)를 배열하더라도 실질적으로 전자 장치(400)의 두께에 미치는 영향이 작을 수 있다. 예컨대, 외부에서 전자 장치(400)로 빛이 입사되는 방향과 렌즈(들)의 광축 방향이 실질적으로 동일한 상태로 광각 카메라, 초광각 카메라 및/또는 접사 카메라가 전자 장치(400)에 배치될 수 있다. 다른 한 실시예에서, 광각 카메라, 초광각 카메라 및/또는 접사 카메라와 비교할 때, 렌즈 어셈블리(500)(예: 망원 카메라)은 작은 화각을 가지지만, 더 먼 거리의 피사체 촬영에 유용할 수 있으며, 더 많은 렌즈(421a, 421b, 423a, 423b, 423c)를 포함할 수 있다. 예컨대, 렌즈 어셈블리(500)의 렌즈(423a, 423b, 423c)(들)가 전자 장치(400)의 두께 방향(예: Z축 방향)으로 배열되는 경우, 전자 장치(400)의 두께가 증가하거나, 렌즈 어셈블리(500)가 전자 장치(400)의 외부로 상당 부분 돌출될 수 있다. 본 개시의 다른 한 실시예에서, 렌즈 어셈블리(500)는 입사된 광(IL)을 다른 방향으로 반사 및/또는 굴절시키는 적어도 하나의 굴절 부재(413, 415)를 포함할 수 있다. 망원 기능을 구현함에 있어, 광의 입사 방향이나, 반사 및/또는 굴절된 광의 진행 방향에서 렌즈(423a, 423b, 423c)(들)를 진퇴운동 가능하게 배치될 수 있으며, 이로써 전자 장치(400)의 두께가 증가하는 것을 억제하거나 감소시킬 수 있다.
도 6과 도 7을 참조하면, 폴디드 카메라(예: 렌즈 어셈블리(500))는 제1 굴절 부재(413), 제2 굴절 부재(415), 이미지 센서(411) 및/또는 적어도 하나의 렌즈계(예: 제2 렌즈(423a, 423b, 423c) 및/또는 더미 부재(423d)를 포함하는 제2 렌즈군(423))를 포함할 수 있다. 다른 한 실시예에서, 적어도 하나의 광학 부재는 제1 굴절 부재(413)에 의해 반사 및/또는 굴절된 광(RL1)을 제2 굴절 부재(415)로 안내 또는 집속할 수 있으며, 제1 굴절 부재(413)에 의해 반사 및/또는 굴절된 광(RL1)이 이미지 센서(411)로 직접 입사되는 것을 차단할 수 있다.
다른 한 실시예에 따르면, 제1 굴절 부재(413)는, 예를 들면, 프리즘 및/또는 미러를 포함할 수 있다. 예를 들어, 제1 굴절 부재(413)는 적어도 하나의 미러를 포함하는 프리즘으로 구성된다. 예를 들어, 제1 굴절 부재(413)는 적어도 하나의 면이 미러를 포함하는 프리즘으로 구성된다. 다른 한 실시예에서, 제1 굴절 부재(413)는 제1 방향(D1)에서 입사된 광(IL)을 제1 방향(D1)에 교차하는 제2 방향(D2)으로 반사 및/또는 굴절시킬 수 있다. 제1 방향(D1)이라 함은, 예를 들면, 피사체를 촬영할 때 도 5의 투명 영역(387)들 중 어느 하나를 통해 전자 장치(400) 및/또는 렌즈 어셈블리(500)로 외부에서 광(IL)이 입사되는 방향을 의미할 수 있다. 다른 한 실시예에서, 제1 방향(D1)은, 촬영 방향, 피사체 방향, 렌즈 어셈블리(500)의 지향 방향 및/또는 그와 평행한 방향을 의미할 수 있다. 다른 한 실시예에서, 제1 방향(D1)은 전자 장치(400)의 두께 방향 및/또는 Z축 방향에 평행할 수 있다.
다른 한 실시예에 따르면, 제2 굴절 부재(415)는, 예를 들면, 프리즘 및/또는 미러를 포함할 수 있다. 예를 들어, 제2 굴절 부재(415)는 적어도 하나의 미러를 포함하는 프리즘으로 구성된다. 예를 들어, 제2 굴절 부재(415)는 적어도 하나의 면이 미러를 포함하는 프리즘으로 구성딘다. 다른 한 실시예에서, 제2 굴절 부재(415)는 제1 굴절 부재(413)에 의해 반사 및/또는 굴절되어 제2 방향(D2)을 따라 입사된 광(RL1)을 제2 방향(D2)에 교차하는 제3 방향(D3)으로 반사 및/또는 굴절시킬 수 있다. 다른 한 실시예에서, 제3 방향(D3)은 실질적으로 제2 방향(D2)에 수직할 수 있다. 예를 들어, 제3 방향(D3)은 Z축 방향과 평행한 방향을 의미한다. 하지만 본 개시의 일 실시예가 이에 한정되지 않으며, 전자 장치(400) 내에서 렌즈 어셈블리(500) 및/또는 제2 굴절 부재(415)의 배치와 그 사양에 따라 제3 방향(D3)은 제2 방향(D2) 및/또는 X-Y 평면에 대하여 경사진 방향일 수 있다. 다른 한 실시예에서, 제3 방향(D3)은 제1 방향(D1)과 실질적으로 평행할 수 있다.
다른 한 실시예에 따르면, 이미지 센서(411)는 제2 굴절 부재(415)에 의해 반사 및/또는 굴절되어 제3 방향(D3)을 따라 입사되는 광(RL2)을 검출하도록 설정될 수 있다. 예컨대, 외부에서 입사된 광(IL)이 제1 굴절 부재(413)와 제2 굴절 부재(415)를 경유하여 이미지 센서(411)에서 검출되며, 전자 장치(400) 및/또는 렌즈 어셈블리(500)는 이미지 센서(411)를 통해 검출된 신호 및/또는 정보에 기반하여 피사체 이미지를 획득할 수 있다. 다른 한 실시예에서, 이미지 센서(411)는 실질적으로 X-Y 평면에 평행한 상태로 배치될 수 있다. 예를 들어, 렌즈 어셈블리(500)이 이미지 센서(411)를 쉬프트시키는 구조의 손떨림 보정 기능을 가질 때, 이미지 센서(411)는 제1 방향(D1) 및/또는 제3 방향(D3)에 수직인 평면에서 수평이동한다.
다른 한 실시예에 따르면, 손떨림 보정 동작을 수행함에 있어, 이미지 센서(411)는 전자 장치(400)의 길이 방향(예: Y축 방향) 및/또는 폭 방향(예: X축 방향)으로 쉬프트될 수 있다. 예컨대, 이미지 센서(411)는 제1 방향(D1) 및/또는 제3 방향(D3)에 수직인 평면에 배치됨으로써, 두께가 작은(예: 대략 10mm 이내의 두께) 전자 장치에서, 이미지 센서(411)의 크기를 확장하기 용이하며, 및/또는 손떨림 보정 동작을 위한 공간의 확보가 용이하다. 다른 한 실시예에서, 렌즈 어셈블리(500)가 망원 카메라로서 활용될 때, 손떨림 보정 기능이 탑재됨으로써 촬영 이미지의 품질이 더욱 고도화될 수 있다. 다른 한 실시예에서, 이미지 센서(411)가 대형화될 때, 렌즈 어셈블리(500)의 성능이 더욱 높아질 수 있다.
다른 한 실시예에 따르면, 렌즈 어셈블리(500)는, 제1 방향(D1)에서 입사되는 광(IL)을 제1 굴절 부재(413)로 안내 및/또는 집속하는 렌즈계(예: 적어도 하나의 제1 렌즈(421a, 421b)를 포함하는 제1 렌즈군(421))를 더 포함할 수 있다. 다른 한 실시예에서, 제1 렌즈군(421) 및/또는, 렌즈 어셈블리(500)에서 물체측에 배치된 첫 번째 렌즈(예: 제1 렌즈(421a))는 정의 굴절력을 가질 수 있다. 예를 들어, 제1 렌즈(421a)가 외부에서 입사되는 광(IL)을 제1 굴절 부재(413)로 집속 및/또는 정렬하도록 구성됨으로써, 제1 렌즈(421a)로부터 이미지 센서(411)에 이르는 광학계가 소형화된다. 다른 한 실시예에 따라 제1 렌즈군(421)은 외부에서 입사되는 광의 집속 및/또는 정렬을 위해 추가의 제1 렌즈(421b)(들)를 더 포함할 수 있다.
다른 한 실시예에 따르면, 제2 렌즈군(423)은, 더미 부재(423d)와 차광 부재(425)를 포함할 수 있다. 더미 부재(423d)는 예를 들면, 렌즈 어셈블리(500) 및/또는 전자 장치(400)의 내부에 배치되며 제2 방향(D2)을 따라 연장된 실린더 형상일 수 있고, 제2 방향(D2)을 따라 진행하는 광(RL1)을 투과시킬 수 있다. 다른 한 실시예에서, 더미 부재(423d)는 정 및/또는 부의 굴절력을 가진 렌즈의 하나일 수 있다. 다른 한 실시예에서, 더미 부재(423d)는 제2 렌즈(423a, 423b, 423c)들 중 어느 하나 및/또는 제2 굴절 부재(415)와 일체로(integrally) 형성된 구성품일 수 있다.
다른 한 실시예에 따르면, 차광 부재(425)는 더미 부재(423d)의 외주면 적어도 일부에 형성 및/또는 배치될 수 있으며, 광을 흡수, 산란 또는 반사시킬 수 있다. 차광 부재(425)는, 예를 들면, 더미 부재(423d)의 외주면 중 적어도 일부에서 부식 처리, 흑칠(black lacquer) 처리하거나, 및/또는 반사층을 인쇄 및/또는 증착함으로써 형성될 수 있다. 다른 한 실시예에서, 제1 굴절 부재(413)에 의해 반사 및/또는 굴절된 광의 일부가 차광 부재(425)에 의해 흡수, 산란 및/또는 반사될 수 있다. 다른 한 실시예에서, 차광 부재(425)는 제1 굴절 부재(413)에 의해 반사 및/또는 굴절된 광이 제2 렌즈군(423) 및/또는 제2 굴절 부재(415)를 경유하지 않고 이미지 센서(411)로 직접 입사되는 것을 실질적으로 차단할 수 있다. 예컨대, 렌즈 어셈블리(500)에서 제1 방향(D1), 제2 방향(D2) 및/또는 제3 방향(D3)을 순차적으로 경유한 광(예: 도 7의 'IL, 'RL1', 'RL2'로 지시된 경로를 따르는 광)이 이미지 센서(411)로 입사되고, 다른 경로를 진행한 광이 이미지 센서(411)로 입사되는 것은 실질적으로 차단될 수 있다.
다른 한 실시예에 따르면, 제2 렌즈(423a, 423b, 423c) 중 적어도 하나는, 제1 굴절 부재(413)와 제2 굴절 부재(415) 사이에서 제2 방향(D2)과 실질적으로 동일한 축을 따라 진퇴운동할 수 있다. 예를 들어, 전자 장치(400) 및/또는 렌즈 어셈블리(500)는 적어도 하나의 제2 렌즈(423a, 423b, 423c)를 제2 방향(D2)과 실질적으로 동일한 축을 기준으로 진퇴운동시킴으로써, 초점 거리 조절 및/또는 초점 조절을 수행한다. 스마트 폰과 같은 소형화된 전자 장치는 대략 10mm 내외의 두께를 가질 수 있으며, 이 경우, 렌즈가 두께 방향으로 진퇴운동할 수 있는 범위가 제한될 수 있다.
일 실시예에 따르면, 제2 방향(D2)은 실질적으로 길이 방향(예: 도 4의 Y축 방향), 폭 방향(예: 도 4의 X축 방향) 및/또는 X-Y 평면에 평행할 수 있으며, 초점 조절을 위해 Z축 방향으로 진퇴운동하는 일반적인 광각 카메라와 비교할 때, 적어도 하나의 제2 렌즈(423a, 423b, 423c)가 진퇴운동할 수 있는 범위가 클 수 있다. 예컨대, 적어도 하나의 제2 렌즈(423a, 423b, 423c)가 제2 방향(D2)과 실질적으로 동일한 축을 따라 진퇴운동함으로써, 렌즈 어셈블리(500)에서 망원 성능이 향상되면서 초점 거리 조절 및/또는 초점 조절을 위한 진퇴운동 공간의 확보에 있어 설계 자유도가 향상된다.
일 실시예에 따르면, 전자 장치(400) 및/또는 렌즈 어셈블리(500)은 적외선 차단 필터(419)를 더 포함할 수 있다. 다른 한 실시예에서, 적외선 차단 필터(419)는 적외선 및/또는 근적외선 파장 대역의 빛이 이미지 센서(411)로 입사되는 것을 억제하거나 실질적으로 차단할 수 있으며, 제1 렌즈(421a)로부터 이미지 센서(411) 사이의 광학 경로에서 임의의 위치에 배치될 수 있다. 다른 한 실시예에서, 적외선 차단 필터(419)는 이미지 센서(411)와 가까운 위치(예: 이미지 센서(411)와 제2 굴절 부재(415) 사이)에 배치됨으로써, 적외선 차단 필터(419)가 외부에 시각적으로 노출되는 것을 억제 및/또는 방지할 수 있다. 다른 한 실시예에서, 제1 굴절 부재(413), 제2 굴절 부재(415) 및/또는 적어도 하나의 광학 부재(예: 제2 렌즈군(423))가 적외선 차단 코팅층을 포함할 수 있으며, 이 경우, 적외선 차단 필터(419)는 생략될 수 있다. 다른 한 실시예에서, 적외선 차단 코팅층은 더미 부재(423d)의 이미지 센서측 면과 물체측 면 중 적어도 하나 및/또는 제2 굴절 부재(415)에 제공될 수 있다. 이로써, 이미지 센서(411)는 실질적으로 적외선 차단 필터(419)(또는 적외선 차단 코팅층)을 투과한 광을 검출할 수 있다. 본 개시의 굴절 부재(413, 415)는 렌즈 어셈블리(500)의 구조에 따라 선택적으로 설계될 수 있다. 예를 들어, 일 실시예에서 굴절 부재(예: 도 6의 제2 굴절 부재(415))는 삼각 기둥 형상을 가진다. 다른 한 실시예에서, 굴절 부재(예: 도 7의 제2 굴절 부재(415))는 사다리꼴 기둥 형상일 수 있다. 굴절 부재(413, 415)의 형상은 본 개시에 도시된 구조에 한정되지 않는다. 예를 들어, 굴절 부재(413, 415)가 광을 반사, 굴절 또는 투과시킨다면, 굴절 부재(413, 415)는 삼각 기둥 또는 사다리꼴 기둥이 아닌 다른 형상을 가질 수 있다. 다른 한 실시예에서, 배치될 굴절 부재(413, 415)의 종류는 다양하게 결정될 수 있다. 예를 들면, 배치될 굴절 부재(예: 도 6의 제2 굴절 부재(415))는 프리즘이다. 예를 들면, 배치될 굴절 부재(예: 도 7의 제2 굴절 부재(415))는 미러이다. 예를 들면, 굴절 부재(413, 415)는 실질적으로 투명한 재료를 포함한다. 예를 들면, 굴절 부재(413, 415)는 글라스를 이용하여 제작된다.
도 8은 본 개시의 일 실시예에 따른 렌즈 어셈블리(600)(예: 도 1 내지 도 3의 카메라 모듈(180, 205, 212, 213) 또는 도 6의 렌즈 어셈블리(500))를 나타내는 도면이다.
도 9는 본 개시의 일 실시예에 따른, 도 8의 렌즈 어셈블리의 제2 광학 부재(R2)를 나타내는 도면이다.
도 10은 본 개시의 일 실시예에 따른, 도 8의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 11은 본 개시의 일 실시예에 따른, 도 8의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 12는 본 개시의 일 실시예에 따른, 도 8의 렌즈 어셈블리의 왜곡율을 나타내는 그래프이다.
도 10은 본 개시의 일 실시예에 따른 렌즈 어셈블리(600)의 구면수차를 나타내는 그래프로서, 가로축은 종방향 구면수차(longitudinal spherical aberration)의 계수를 나타내고, 세로축은 광축으로부터의 거리를 규격화(normalization)하여 나타낸 것으로서, 빛의 파장에 따른 종방향 구면수차의 변화가 도시된다. 종방향 구면수차는, 예를 들면, 파장이 656.3000(NM, nanometer), 587.6000(NM), 546.1000(NM), 536.1000(NM), 435.8000(NM)인 광에 대해 각각 나타낸다. 도 11은 개시의 일 실시예 중 하나에 따른 렌즈 어셈블리(600)의 비점수차(astigmatic field curves)를 나타내는 그래프로서, 파장이 546.1000(NM)인 광에 대해 나타낸 것이며, 'x'는 구결면(sagittal plane)을 예시하고, 'y'는 자오면(tangential plane, meridional plane)을 예시하고 있다. 도 12는 개시의 일 실시예에 따른 렌즈 어셈블리(600)의 왜곡율(distortion)을 나타내는 그래프로서, 파장이 546.1000(NM)인 광에 대해 나타낸 것이다. 이하의 설명에서, 렌즈 어셈블리(600)(들)는 렌즈(L1, L2, L3, L4)(들)와 이미지 센서(I) 사이에 배치된 광학 부재(R1, R2)(들)를 포함하는 구조로서, 광학 부재(R1, R2)(들)에 의해 빛이 반사 및/또는 굴절되는 횟수에 따라, 구면수차, 비점수차 및/또는 왜곡율에 관한 그래프에서, 음(negative)/양(positive)이 반전될 수 있음에 유의한다. 본 개시의 실시예(들)를 설명함에 있어, '렌즈 전장'이나 '초점 거리'와 같은 광학적인 데이터는 광학 부재(R1, R2)들을 포함하지 않은 상태의 값을 예시한 것일 수 있다. 예컨대, 제1 광학 부재(R1) 및/또는 제2 광학 부재(R2)는 반사 및/또는 굴절을 수행함으로써 빛의 진행 경로를 변경할 수 있으며, 렌즈 어셈블리(600)의 광학 성능(예: 초점 거리, F-수 및/또는 화각)에는 실질적으로 영향을 미치지 않을 수 있다.
도 8과 도 9를 참조하면, 렌즈 어셈블리(600)(예: 예: 도 1 내지 도 3의 카메라 모듈(180, 205, 212, 213) 및/또는 도 6의 렌즈 어셈블리(500))는 적어도 2매의 렌즈(L1, L2, L3, L4), 이미지 센서(I), 이미지 센서(I)와 적어도 2매의 렌즈(이하, '렌즈들(L1, L2, L3, L4)') 사이에 배치된 복수의 광학 부재(R1, R2)를 포함할 수 있다. 도 8에서, 'S2'는 렌즈들(L1, L2, L3, L4) 중 제1 렌즈(L1)의 물체측 면이고, 'S3'는 제1 렌즈(L1)의 센서측 면일 수 있다. 렌즈면을 지시하는 참조번호에 'sto'가 병기된 것은 조리개가 해당 렌즈면에서 구현되었음을 언급한 것일 수 있다. 예를 들어, 도 8의 렌즈 어셈블리(600)에서는 제1 렌즈(L1)의 물체측 면에 조리개가 배치된다. 일 실시예에서, 'S4'는 렌즈들(L1, L2, L3, L4) 중 제2 렌즈(L2)의 물체측 면이고, 'S5'는 제2 렌즈(L2)의 센서측 면일 수 있다. 다른 한 실시예에서, 'S6'는 렌즈들(L1, L2, L3, L4) 중 제3 렌즈(L3)의 물체측 면이고, 'S7'은 제3 렌즈(L3)의 센서측 면일 수 있다. 다른 한 실시예에서, 'S8'은 렌즈들(L1, L2, L3, L4) 중 제4 렌즈(L4)의 물체측 면이고, 'S9'은 제4 렌즈(L4)의 센서측 면일 수 있다. 아래에서 렌즈 데이터에 관한 [표 2], [표 5], [표 8], [표 11] 및 [표 14]를 참조하여 살펴보겠지만 도면에 도시되지 않은 렌즈면의 참조번호가 제시될 수 있으며, 렌즈 데이터에 관한 [표]들의 참조번호 'S10 ~ S15'는 제1 광학 부재(R1) 및/또는 제2 광학 부재(R2)의 면(들)을 언급한 것일 수 있다.
다른 한 실시예에 따르면, 복수의 광학 부재(R1, R2)는 일 방향(예: 제2 광축(O2) 방향)에서 입사된 빛을 다른 방향(예: 제3 광축(O3) 방향)으로 반사, 굴절 및/또는 안내할 수 있다. 예를 들어, 복수의 광학 부재(R1, R2) 중 제1 광학 부재(R1)(예: 제1 반사면(RF))는 렌즈들(L1, L2, L3, L4)을 통해 입사된 빛을 제2 광학 부재(R2)로 반사, 굴절 및/또는 안내한다. 다른 한 실시예에서, 제2 광학 부재(R2)는 제1 광학 부재(R1)를 통해 입사된 빛을 이미지 센서(I)로 안내할 수 있다. 다른 한 실시예에 따르면, 렌즈 어셈블리(600)는 적외선 차단층(IFL)을 더 포함할 수 있다. 예를 들어, 적외선 차단층(IFL)은 제2 광학 부재(R2)의 입사면(F1)과 출사면(F2) 중 어느 하나에 배치된다. 일 실시예에서, 적외선 차단층(IFL)은 제1 광학 부재(R1)의 표면 중 어느 하나에 제공되거나 렌즈들(L1, L2, L3, L4) 중 어느 하나의 표면에 제공될 수 있다. 다른 한 실시예에 따르면, 도 13의 렌즈 어셈블리(700)에서 예시된 바와 같이, 적외선 차단 필터(IF)가 렌즈들(L1, L2, L3, L4)이나 광학 부재들(R1, R2)과는 별도로 제공될 수 있다. 다른 한 실시예에서, 적외선 차단 필터(IF)가 별도로 제공된 경우, 렌즈들(L1, L2, L3, L4) 및/또는 광학 부재들(R1, R2)에는 적외선 차단층(IFL)이 배치되지 않을 수 있다.
다른 한 실시예에 따르면, 적어도 2매(예: 4매)의 렌즈(L1, L2, L3, L4)는 물체(OB)측으로부터 제1 광축(O1) 방향을 따라 순차적으로 배열될 수 있다. 다른 한 실시예에서, 제1 광축(O1)은 전자 장치(예: 도 1 내지 도 6의 전자 장치(101, 200, 300, 400))의 전면(예: 도 2의 제1 면(210A)) 및/또는 후면(예: 도 3의 제2 면(210B))에 실질적으로 평행하게 배치될 수 있다. 예를 들어, 전자 장치(400)의 두께가 작아지더라도 렌즈들(L1, L2, L3, L4)의 수와 배열에 있어 설계 자유도가 높아진다. 다른 한 실시예에 따르면, 전자 장치(400)(예: 도 1의 프로세서(120)) 및/또는 렌즈 어셈블리(600)는 렌즈들(L1, L2, L3, L4) 중 적어도 하나를 제1 광축(O1) 방향을 따라 진퇴운동시킬 수 있다. 예를 들어, 렌즈들(L1, L2, L3, L4) 중 적어도 하나가 제1 광축(O1) 방향을 따라 이동함으로써, 초점 거리 조절 및/또는 초점 조절 동작이 수행된다. 다른 한 실시예에서, 전자 장치(400)(예: 도 1의 프로세서(120)) 및/또는 렌즈 어셈블리(600)는 렌즈들(L1, L2, L3, L4) 중 적어도 하나를 제1 광축(O1)에 수직인 평면에서 이동시킴으로써, 손떨림 보정 동작을 수행할 수 있다. "제1 광축(O1)에 수직인 평면에서의 이동"이라 함은, 예를 들면, 제1 광축(O1)에 수직인 적어도 2개의 방향을 따라 렌즈(들)(L1, L2, L3, L4)가 이동하는 것으로 이해될 수 있다. "적어도 2개의 방향"은 예를 들어, 서로에 대하여 수직인 방향일 수 있다.
다른 한 실시예에 따르면, 이미지 센서(I)는 렌즈들(L1, L2, L3, L4)을 통해 안내 및/또는 집속된 빛을 수신함으로써, 렌즈 어셈블리(600) 및/또는 그를 포함하는 전자 장치(400)로 하여금 피사체 이미지를 획득하도록 구성될 수 있다. 예를 들면, 제2 광축(O2)은 전자 장치(예: 도 1 내지 도 6의 전자 장치(101, 200, 300, 400))의 전면(예: 도 2의 제1 면(210A)) 및/또는 후면(예: 도 3의 제2 면(210B))에 실질적으로 평행하게 배치된다. 다른 한 실시예에서, 이미지 센서(I)의 결상면(img)은 제1 광축(O1)에 교차하는 방향으로 배치될 수 있다. 예를 들어, 이미지 센서(I)의 결상면(img)은 제1 광축(O1)과 예각 및/또는 둔각을 이룰 수 있다. 다른 한 실시예에서, "결상면(img)은 제1 광축(O1)에 교차하는 방향으로 배치된다"라 함은, 결상면(img)이 도 2 내지 도 6의 X축, Y축 및/또는 Z축에 대하여 경사지게 배치된 것으로 이해될 수 있다. 다른 한 실시예에서, 렌즈들(L1, L2, L3, L4)의 정렬 방향에 대하여, 이미지 센서(I)가 다양한 방향으로 배치될 수 있으므로 렌즈 어셈블리(600) 및/또는 그를 포함하는 전자 장치(400) 제작에 있어 설계 자유도가 높아질 수 있다.
다른 한 실시예에 따르면, 광학 부재들(R1, R2)은 입사된 빛을 반사 및/또는 굴절시킴으로써, 빛의 진행 방향을 변환할 수 있다. 예를 들어, 렌즈들(L1, L2, L3, L4)과 이미지 센서(I) 사이에 광학 부재들(R1, R2)이 배치됨으로써 렌즈들(L1, L2, L3, L4)과 이미지 센서(I) 배치의 설계 자유도가 높아질 수 있다. 광학 부재들(R1, R2) 중, 제1 광학 부재(R1)는 렌즈들(L1, L2, L3, L4)과 이미지 센서(I) 사이에 배치되며, 제1 광축(O1) 방향에서 렌즈들(L1, L2, L3, L4)을 통해 빛을 입사받을 수 있다. 다른 한 실시예에서, 제1 광학 부재(R1)는 제1 광축(O1) 방향에서 렌즈들(L1, L2, L3, L4)을 통해 입사된 빛을 반사 및/또는 굴절시킴으로써 제1 광축(O1)에 교차하는 제2 광축(O2) 방향을 따라 출사할 수 있다. 도시된 실시예에서, 제2 광축(O2)은 설명의 편의를 위해 예시한 것으로서, 본 개시의 실시예(들)가 이에 한정되지 않으며 실시예에 따라 및/또는 실제 제작될 렌즈 어셈블리(600)의 구조에 따라 다르게 정의될 수 있음에 유의한다. 다른 한 실시예에서, 제1 광학 부재(R1)는 미러(mirror) 및/또는 프리즘(prism)을 포함할 수 있다.
개시된 실시예에서 제1 광학 부재(R1)와 제2 광학 부재(R2)가 독립된 구성으로서 예시되지만, 본 개시의 실시예(들)가 이에 한정되지 않음에 유의한다. 예를 들어, 제1 광학 부재(R1) 및 제2 광학 부재(R2)는 일체로 형성될 수 있다. 일 실시예에서, 제1 광학 부재(R1)의 출사면 및 제2 광학 부재(R2)의 입사면(F1)이 결합된 형태로 형성될 수 있다. 예를 들어, 일체로 형성된 광학 부재(미도시)는 미러 및/또는 프리즘을 포함한다. 예를 들어, 일체로 형성된 광학 부재(미도시)는 적어도 하나 이상의 미러를 포함하는 프리즘으로 구성된다. 예를 들어, 일체로 형성된 광학 부재(미도시)는 한 면은 미러, 다른 한 면은 적어도 일부가 미러를 포함하는 프리즘으로 구성된다.
다른 한 실시예에 따르면, 복수의 광학 부재(R1, R2) 중, 제1 광학 부재(R1)는 렌즈들(L1, L2, L3, L4)과 제2 광학 부재(R2) 사이에 배치될 수 있다. 다른 한 실시예에서, 제1 광학 부재(R1)는 제1 광축(O1) 방향에서 렌즈들(L1, L2, L3, L4)을 통해 입사된 빛을 반사 및/또는 굴절시킴으로써 제1 광축(O1)에 실질적으로 수직한 제2 광축(O2) 방향을 따라 출사할 수 있다. 다른 한 실시예에 따르면, 제2 광축(O2)이 제1 광축(O1)에 대해서 경사진 각도는 대략 80도 이상 대략 100도 이하로 구현될 수 있다.
다른 한 실시예에 따르면, 복수의 광학 부재(R1, R2) 중, 제2 광학 부재(R2)는 제1 광학 부재(R1)와 이미지 센서(I) 사이에 배치될 수 있다. 예를 들어, 제2 광학 부재(R2)는 제2 광축(O2) 방향에서 제1 광학 부재(R1)를 통해 빛을 입사받고, 제2 광축(O2)에 교차하는 제3 광축(O3) 방향을 따라 이미지 센서(I)로 출사할 수 있다. 다른 한 실시예에서, 제3 광축(O3)은 제1 광축(O1)에 대하여 수직이 아닌 각도로 경사지게 배치될 수 있다. 다른 한 실시예에서, 제3 광축(O3)은 제2 광축(O2)에 대하여 수직이 아닌 각도로 경사지게 배치될 수 있다. 다른 한 실시예에서, 제3 광축(O3)은 제1 광축(O1)에 실질적으로 평행하면서 제2 광축(O2)에 대하여 수직이 아닌 각도로 경사지게 배치될 수 있다. 이와 같이, 광축들(O1, O2, O3)이 서로에 대하여 경사진 각도는 실시예에 따라 다양하게 설계될 수 있다. 예를 들어, 광축들(O1, O2, O3)의 상대적인 배치는, 제1 광축(O1)에 대한 결상면(img)의 상대적인 배치나, 실제 제작될 렌즈 어셈블리(600) 및/또는 전자 장치(400)의 구조에 따라 다를 수 있다.
다른 한 실시예에 따르면, 제2 광학 부재(R2)는 프리즘을 포함할 수 있다. 일 실시예에서, 제2 광학 부재(R2)는 제1 광학 부재(R1)와 마주보는 제1 면(예: 입사면(F1))을 포함할 수 있다. 입사면(F1)은, 예를 들어, 제2 광축(O2)에 수직이다. 하지만 본 개시의 실시예(들)이 이에 한정되지 않음에 유의한다. 다른 한 실시예에서, 제2 광학 부재(R2)는 이미지 센서(I)와 마주보는 제2 면(예: 출사면(F2))을 포함할 수 있다. 출사면(F2)은 예를 들어, 입사면(F1)에 대하여 제1 각도(Ang-p1)를 이루게 경사진 상태로 입사면(F1)과 연결된다. 다른 한 실시예에서, 출사면(F2)은 입사광(예: 제2 광축(O2) 방향을 따라 입사면(F1)으로 입사된 광)에 대하여 전반사 환경을 제공할 수 있다. 예를 들어, 출사면(F2)은 제2 광축(O2)에 대하여 지정된 각도로 경사지게 배치됨으로써 입사광을 반사(또는 굴절)시킬 수 있다. 제2 광축(O2)에 대한 출사면(F2)의 경사각에 대한 조건은 후술되는 [수학식 2]를 통해 살펴보게 될 것이다. 이와 같이, 출사면(F2)은 제2 광학 부재의 내부에서 적어도 부분적으로 반사기(reflector)로서 기능할 수 있다. 다른 한 실시예에서, 제2 광학 부재(R2)는 출사면(F2)과 입사면(F1)을 연결하는 제2 반사면(F3)을 포함할 수 있다. 제2 반사면(F3)은, 예를 들어, 제2 각도(Ang-p2)를 이루는 상태로 출사면(F2)과 연결되고, 제3 각도(Ang-p3)를 이루는 상태로 입사면(F1)과 연결될 수 있다. 다른 한 실시예에서, 제2 반사면(F3)은 제2 광축(O2)에 실질적으로 평행하게 배치된 때, 제2 광축(O2)에 대한 출사면(F2)의 경사각은 제2 각도(Ang-p2)로 정의될 수 있다.
다른 한 실시예에 따르면, 제2 광학 부재(R2)의 내부에서 출사면(F2)에 의해 반사된 빛은 제2 반사면(F3)에 의해 다시 반사(또는 굴절)된 후 출사면(F2)을 통해 외부로 출사될 수 있다. 예컨대, 입사각이 지정된 각도보다 작을 때 출사면(F2)은 전반사 환경을 제공하며, 입사각이 지정된 각도보다 클 때 출사면(F2)은 빛을 투과시킬 수 있다. 이와 같이, 제2 광학 부재(R2)로 입사된 빛은 적어도 2회 반사되어 출사면(F2)을 통해 이미지 센서(I)로 출사될 수 있다. 다른 한 실시예에서, 렌즈 어셈블리(600)가 적외선 차단층(IFL)을 포함하는 구조일 때, 적외선 차단층(IFL)은 제2 광학 부재(R2)의 표면(예: 입사면(F1) 및/또는 출사면(F2))의 적어도 일부에 배치될 수 있다. 적외선 차단층(IFL)이 배치되는 위치와 그 크기는 제2 광학 부재(R2)를 통과하는 빛의 경로를 고려하여 다양하게 선택될 수 있다. 다른 한 실시예에서, 적외선 차단층(IFL)은 입사면(F1)과 출사면(F2) 중 적어도 하나에 배치될 수 있다.
다른 한 실시예에 따르면, 전자 장치(400)(예: 도 1의 프로세서(120)) 및/또는 렌즈 어셈블리(600)는 광학 부재들(R1, R2) 중 적어도 하나(예: 제1 광학 부재(R1))를 제1 광축(O1)에 대하여 회전시키거나 틸트(tilt)시킴으로써 손떨림 보정을 수행할 수 있다. "틸트 동작"은 예를 들면, 제1 광축(O1)에 교차하는 임의의 축을 중심으로 제1 광학 부재(R1)가 회전하는 동작을 포함할 수 있다. 틸트 동작의 중심 축은, 실제 제작될 렌즈 어셈블리(600) 및/또는 전자 장치(400)의 구조에 따라 다양하게 설정될 수 있다.
다른 한 실시예에 따르면, 렌즈 어셈블리(600)는 렌즈들(L1, L2, L3, L4)보다 물체(OB)측에 배치된 또 다른 광학 부재(예: 도 6의 제1 굴절 부재(413))를 더 포함할 수 있다. 예를 들어, 전자 장치(400) 및/또는 렌즈 어셈블리(600)로 빛이 입사되는 방향은 제1 광축(O1)과 다르다. 이와 같이, 도 8의 렌즈 어셈블리(600)에 관한 상술한 및/또는 후술되는 구성을 만족할 때, 본 문서에 개시된 실시예들의 다른 구성(예: 도 6의 제1 렌즈군(421), 제1 굴절 부재(413), 더미 부재(423d) 및/또는 차광 부재(425))이 선택적으로 조합되어 추가의 실시예를 구현할 수 있다.
다른 한 실시예에 따르면, 상기와 같은 및/또는 후술되는 렌즈 어셈블리(예: 도 8, 도 13, 도 17, 도 21 및/또는 도 25의 렌즈 어셈블리(600, 700, 800, 900, 1000, 1100))는 다음의 [수학식 1]의 조건을 만족할 수 있다.
Figure PCTKR2023000385-appb-img-000001
'TTL'은 렌즈들(L1, L2, L3, L4) 중 물체(OB)측 첫번째 렌즈(예: 제1 렌즈(L1))의 물체측 면(S2)과 이미지 센서(I)측 첫번째 렌즈(예: 제4 렌즈(L4))의 센서측 면(S9)까지의 길이로서, '렌즈 전장'이라 이해될 수 있다. 렌즈들(L1, L2, L3, L4)과 이미지 센서(I) 사이에서 빛의 진행 경로를 변환하는 광학 부재들(R1, R2)이 배치되지 않은 구조일 때, '렌즈 전장'은 물체(OB)측 첫번째 렌즈의 물체측 면으로부터 이미지 센서의 결상면까지의 거리로 이해될 수 있다. [수학식 1]에서 'f'는 렌즈 어셈블리(600)의 초점 거리(예: 유효 초점 거리)일 수 있다. [수학식 1]의 조건을 만족하지 못할 때, 예를 들어, [수학식 1]의 값이 0.1보다 작아질 때, 렌즈 전장이 작아져 렌즈들(L1, L2, L3, L4)의 배치에 어려움이 있을 수 있고 양호한 광학적 성능의 확보가 어려울 수 있다. [수학식 1]의 값이 0.35보다 커질 때, 렌즈 전장이 커져 렌즈 어셈블리(600)가 소형화된 전자 장치에 탑재되기 어려울 수 있다.
다른 한 실시예에 따르면, 상기와 같은 및/또는 후술되는 렌즈 어셈블리(600, 700, 800, 900, 1000, 1100)는 다음의 [수학식 2]의 조건을 만족할 수 있다.
Figure PCTKR2023000385-appb-img-000002
'Ang-min'는 제2 광학 부재(R2)의 인접하는 두 면(surface)이 이루는 각도들(예: 제1 각도(Ang-p1), 제2 각도(Ang-p2) 및/또는 제3 각도(Ang-p3) 중 최소 각도로서, 도 8 및/또는 도 9의 실시예에서는 제2 각도(Ang-p2)가 [수학식 2]의 'Ang-min'일 수 있다. [수학식 2]의 각도 값이 15도보다 작아질 때, 제2 광학 부재(R2)의 크기가 커져 소형화에 어려움이 있을 수 있다. 일 실시예에서, [수학식 2]의 값이 40도보다 커질 때, 제2 광학 부재(R2)의 내부에서 출사면(F2)의 반사 성능이 낮아질 수 있다. 예를 들어, [수학식 2]의 조건을 만족할 때, 제2 광학 부재(R2)의 내부에서 출사면(F2)은, 제2 광축(O2) 방향을 따라 입사된 빛을 전반사한다. 다른 한 실시예에 따르면, 제2 광학 부재(R2)에서, 제3 각도(Ang-p3)가 직각인 구조이고 제2 각도(Ang-p2)가 'Ang-min'일 때, 제2 각도(Ang-p2)는 대략 25도 이상 대략 35도 이하로 구현될 수 있다. 다른 한 실시예에 따르면, 제2 광학 부재(R2)에서 제3 각도(Ang-p3)는 대략 75도 이상 대략 105도 이하로 구현될 수 있다.
다른 한 실시예에 따르면, 상기와 같은 및/또는 후술되는 렌즈 어셈블리(600, 700, 800, 900, 1000, 1100)는 다음의 [수학식 3]의 조건을 만족할 수 있다.
Figure PCTKR2023000385-appb-img-000003
여기서, 'f1'은 물체(OB)측 첫번째 렌즈(예: 제1 렌즈(L1))의 초점 거리(예: 유효 초점 거리)이고, 'f2'는 물체(OB)측 두번째 렌즈(예: 제2 렌즈(L2))의 초점 거리일 수 있다. [수학식 3]의 조건을 만족할 때 렌즈 어셈블리(600)에서 수차 보정이 용이하고 소형화될 수 있다. 예를 들어, [수학식 3]의 값이 -0.1보다 커질 때 색수차 보정이나 구면수차의 보정에 어려움이 있을 수 있다. 다른 한 실시예에서, [수학식 3]의 값이 -2보다 작아질 때 제1 렌즈(L1)의 파워가 낮아져 렌즈 전장이 커질 수 있다.
다른 한 실시예에 따르면, 상기와 같은 및/또는 후술되는 렌즈 어셈블리(600, 700,800, 900, 1000, 1100)는 물체(OB)측 첫번째 렌즈(예: 제1 렌즈(L1))의 아베수, Vd-1에 관한 다음의 [수학식 4]의 조건을 만족할 수 있다.
Figure PCTKR2023000385-appb-img-000004
[수학식 4]의 값이 95보다 커질 때, 제1 렌즈(L1)가 외부 충격이나 긁힘으로 인한 손상 가능성이 높아지고, 25보다 작을 때 색수차 보정에 어려움이 있을 수 있다.
다른 한 실시예에 따르면, 상기와 같은 및/또는 후술되는 렌즈 어셈블리(600, 700, 800, 900, 1000, 1100)는 다음의 [수학식 5]의 조건을 만족할 수 있다.
Figure PCTKR2023000385-appb-img-000005
여기서, 't-L1'은 물체(OB)측 첫번째 렌즈(예: 제1 렌즈(L1))의 두께이고, 'TTL'은 제1 렌즈(L1)의 물체측 면(S2)과 이미지 센서(I)측 첫번째 렌즈(예: 제4 렌즈(L4))의 센서측 면(S9)까지의 길이일 수 있다. [수학식 5]의 값이 0.5보다 클 때, 제1 렌즈(L1)의 두께가 커지면서 나머지 렌즈(L2, L3, L4)의 두께나 렌즈들(L1, L2, L3, L4) 사이의 간격 확보가 어려워 렌즈 어셈블리(600)의 양호한 성능 확보에 어려움이 있을 수 있다. 다른 한 실시예에서, [수학식 5]의 값이 0.1보다 작을 때, 제1 렌즈(L1)의 두께가 작아져 적합한 굴절력의 확보나 설계 형상으로의 제작에 있어 어려움이 있을 수 있다.
다른 한 실시예에 따르면, 상기와 같은 및/또는 후술되는 렌즈 어셈블리(600, 700, 800, 900, 1000, 1100)는 화각, FoV(field of view)에 관한 다음의 [수학식 6]의 조건을 만족할 수 있다.
Figure PCTKR2023000385-appb-img-000006
[수학식 6]의 조건을 만족할 때, 렌즈 어셈블리(600)는 복수의 광학 부재(R1, R2) 배치를 위한 공간을 제공하면서 소형화가 용이할 수 있다. 예를 들어, 화각이 5도보다 작아질 때 렌즈 어셈블리(600)의 초점 거리가 길어져 소형화에 어려움이 있을 수 있다. 일 실시예에서, 화각이 35도보다 커질 때, 렌즈(들)(L1, L2, L3, L4)와 이미지 센서(I) 사이의 간격이 작아져 제1 광학 부재(R1) 및/또는 제2 광학 부재(R2)의 배치가 어려울 수 있다.
상술한 또는 후술되는 실시예의 렌즈 어셈블리(600, 700, 800, 900, 1000, 1100)는 다음의 [표 1]에 기재된 바와 같이, 상기와 같은 [수학식]들을 통해 제시된 조건(들)을 만족할 수 있다. [표 1]에서 [수학식 2]의 최소 각도, Ang-min은 각 실시예의 제2 광학 부재(R2)에서 제2 각도(Ang-p2)로 예시될 수 있다.
수학식 1 수학식 2 수학식 3 수학식 4 수학식 5 수학식 6
실시예1
(도 8)
0.267 30 -0.659 37.4 0.369 25.96
실시예2
(도 13)
0.267 30 -1.145 56.09 0.393 26.01
실시예3
(도 17)
0.267 30 -0.633 37.4 0.333 26.01
실시예4
(도 21)
0.275 30 -0.753 37.4 0.263 26.29
실시예5
(도 25)
0.267 30 -0.312 55.71 0.259 26.39
실시예6
(도 29)
0.220 30 -0.635 44.9 0.386 18.79
다른 한 실시예에 따르면, 렌즈 어셈블리(600)는 대략 9.73mm의 초점 거리를 가지며, 3.475의 F-수, 2.6mm의 렌즈 전장, 2.28mm의 이미지 상고 및/또는 25.96도의 화각(FoV; field of view)을 가질 수 있다. 렌즈 전장은, 예를 들면, 제1 렌즈(L1)의 물체측 면(S2)으로부터 제4 렌즈(L4)의 센서측 면(S9)까지의 거리로 이해될 수 있으며, 이미지 상고는 광축(O3)으로부터 결상면(img) 가장자리까지의 최대 거리로서, 예를 들면, 결상면(img) 대각선 길이의 절반으로 이해될 수 있다. 렌즈 어셈블리(600)는 상술한 [수학식]들을 통해 제시된 조건을 적어도 일부 만족할 수 있으며, 다음의 [표 2]에 예시된 사양으로 제작될 수 있다.
렌즈면
(Surf)
곡률반경
(Radius)
두께
(Thick)
유효초점거리
(EFL)
굴절률
(nd)
아베수
(vd)
굴절 모드
obj infinity infinity
S1 infinity 0.00000
S2*(sto) 2.39198 0.96020 4.050 1.56717 37.4 굴절
S3* -58.85040 0.05000 굴절
S4* 3.46210 0.41168 -6.147 1.67074 19.24 굴절
S5* 1.80126 0.35095 굴절
S6* -13.72389 0.37625 6.457 1.67074 19.24 굴절
S7* -3.35921 0.10092 굴절
S8* -6.44467 0.35000 -4.751 1.67074 19.24 굴절
S9* 6.59759 0.50000 굴절
S10 infinity 1.20000 infinity 1.94593 17.98 굴절
S11 infinity -1.20000 infinity -1.94593 17.98 전반사
S12 infinity -0.60000 굴절
S13 infinity -2.20000 infinity -1.51680 64.17 굴절
S14 infinity 1.80000 infinity 1.51680 64.17 전반사
S15 infinity -0.90000 infinity -1.51680 64.17 반사
S16 infinity 0 굴절
S17 infinity 0 굴절
S18 infinity -0.42119 굴절
img infinity -0.0115 굴절
[표 2]에서, 'sto'가 병기된 렌즈면은 조리개로서 기능할 수 있으며, 비구면인 렌즈면에는 기호 '*'가 병기될 수 있다. 'S1' 및/또는 'S10 ~ S18'과 같이, [표 2]에서는 기재되지만 도면에 기재되지 않은 면(surface)은 커버 윈도우(예: 도 5 또는 도 6의 카메라 윈도우(385)), 렌즈들(L1, L2, L3, L4)이나 광학 부재들(R1, R2)의 배치 설계에 있어 참조되는 기계적인 구조물, 및/또는 광학 부재들(R1, R2)의 표면일 수 있다. 도면에 직접 기재되지 않지만 [표 2]에서 기재된 면은, 예를 들어, 외부의 빛이 이미지 센서(I)에 이르는 경로 상에 위치되지만 렌즈 어셈블리(600)의 광학적 성능에는 실질적으로 영향을 미치지 않을 수 있다. 개시된 실시예(들)에서, [표 2]의 굴절 모드(refraction mode)는 광선 진행이 굴절(refraction)인지 반사(reflectron)인지, 혹은 전반사에 의한 반사(TIR; total internal reflection)인지를 예시한 것이다. 광학 부재들(R1, R2)에 의해 반사가 일어날 경우 광선 진행 방향이 바뀌기 때문에, 반사 횟수에 따라 구면수차 및/또는 비점수차에 관한 도 10과 도 11의 그래프에서, '+'/'-'가 반전될 수 있다.
하기의 [표 3]과 [표 4]는 제1 내지 제4 렌즈(L1, L2, L3, L4)의 비구면 계수를 기재한 것으로서, 비구면의 정의는 다음의 [수학식 7]을 통해 산출될 수 있다.
Figure PCTKR2023000385-appb-img-000007
여기서, 'z'는 렌즈(들)(L1, L2, L3, L4)의 정점으로부터 광축(예: 제1 광축(O1)) 방향으로의 거리를, 'y'는 제1 광축(O1)에 수직인 방향으로의 거리를, 'c''은 렌즈(들)(L1, L2, L3, L4)의 정점에서 곡률 반경의 역수를, 'K'는 코닉(Conic) 상수를, 'A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', 'J'는 각각 비구면 계수를 의미할 수 있다. 곡률 반경(Radius)은, 예를 들면, 곡면이나 곡선의 각 점에 있어서의 만곡의 정도를 표시하는 값을 나타낼 수 있다.
렌즈면
(Surf)
S2* S3* S4* S5*
Radius 2.39198E+00 -5.88504E+01 3.46210E+00 1.80126E+00
K(Conic) 4.50896E-02 -1.38710E+01 -3.96270E+01 -1.03648E+01
A(4th)/C4 5.47440E-03 -7.37513E-02 -5.96554E-02 -3.67511E-02
B(6th)/C5 -1.66325E-02 3.77928E-01 4.35788E-01 5.13135E-01
C(8th)/C6 3.80893E-02 -8.53122E-01 -9.40087E-01 -1.26182E+00
D(10th)/C7 -5.05520E-02 1.09324E+00 9.11147E-01 1.72628E+00
E(12th)/C8 3.80753E-02 -7.88205E-01 -4.38248E-02 -7.31648E-01
F(14th)/C9 -1.40990E-02 2.78636E-01 -7.71345E-01 -1.38027E+00
G(16th)/C10 9.79239E-04 -1.40389E-02 7.30864E-01 2.11749E+00
H(18th)/C11 8.32481E-04 -1.87788E-02 -2.83478E-01 -1.11001E+00
J(20th)/C12 -1.75300E-04 3.86649E-03 4.12930E-02 2.07291E-01
렌즈면
(Surf)
S6* S7* S8* S9*
Radius -1.37239E+01 -3.35921E+00 -6.44467E+00 6.59759E+00
K(Conic) 2.24390E+01 -2.23591E+01 -9.90000E+01 3.12155E+01
A(4th)/C4 -3.16984E-01 -4.79497E-01 -2.99946E-01 -3.06924E-02
B(6th)/C5 1.03310E+00 1.66934E+00 1.03750E+00 -6.18859E-02
C(8th)/C6 -2.04524E+00 -3.11570E+00 -1.26376E+00 6.18913E-01
D(10th)/C7 4.13370E+00 4.87427E+00 -7.69160E-01 -2.42981E+00
E(12th)/C8 -7.41189E+00 -7.82473E+00 3.38959E+00 4.86338E+00
F(14th)/C9 8.99547E+00 1.00064E+01 -2.76255E+00 -5.50440E+00
G(16th)/C10 -6.62762E+00 -7.85074E+00 5.85461E-02 3.52201E+00
H(18th)/C11 2.68492E+00 3.21812E+00 8.56664E-01 -1.17108E+00
J(20th)/C12 -4.59202E-01 -5.16612E-01 -2.86224E-01 1.52382E-01
후술되는 실시예에서는, 도면의 간결함을 위해 광축(들), 렌즈(들) 및/또는 렌즈 면(들)에 대한 참조번호가 도면에서 생략될 수 있다. 도면에서 생략된 참조번호는 도 8을 더 참조하여, 또는 각 실시예에서 제시되는 렌즈 데이터와 도면을 통해 당업자라면 용이해할 수 있을 것이다.
도 13은 본 개시의 일 실시예에 따른 렌즈 어셈블리(예: 도 1 내지 도 3의 카메라 모듈(180, 205, 212, 213) 또는 도 6의 렌즈 어셈블리(500))를 나타내는 도면이다.
도 14는 본 개시의 일 실시예에 따른, 도 13의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 15는 본 개시의 일 실시예에 따른, 도 13의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 16은 본 개시의 일 실시예에 따른, 도 13의 렌즈 어셈블리의 왜곡율을 나타내는 그래프이다.
도 13 내지 도 16을 참조하면, 렌즈 어셈블리(700)는 대략 9.73mm의 초점 거리를 가지며, 3.475의 F-수, 2.6mm의 렌즈 전장, 2.28mm의 이미지 상고 및/또는 26.01도의 화각을 가질 수 있다. 렌즈 전장은, 예를 들면, 제1 렌즈(L1)의 물체측 면(S2)으로부터 제4 렌즈(L4)의 센서측 면(S9)까지의 거리로 이해될 수 있으며, 이미지 상고는 광축(O3)으로부터 결상면(img) 가장자리까지의 최대 거리로서, 예를 들면, 결상면(img) 대각선 길이의 절반으로 이해될 수 있다. 렌즈 어셈블리(700)는 상술한 [수학식]들을 통해 제시된 조건을 적어도 일부 만족하면서, 다음의 [표 5]에 예시된 사양으로 제작될 수 있고, [표 6]과 [표 7]의 비구면 계수를 가질 수 있다.
일 실시예에 따르면, 렌즈 어셈블리(700)는 이미지 센서(I)와 제2 광학 부재(R2) 사이에 배치된 적외선 차단 필터(IF)를 더 포함할 수 있다. 렌즈 어셈블리(700)가 렌즈들(L1, L2, L3, L4)이나 광학 부재(R1, R2)들과는 별도로 배치된 적외선 차단 필터(IF)를 포함할 때, 렌즈들(L1, L2, L3, L4)이나 광학 부재들(R1, R2)의 표면에서 적외선 차단층(예: 도 9의 적외선 차단층(IFL))은 생략될 수 있다.
렌즈면
(Surf)
곡률반경
(Radius)
두께
(Thick)
유효초점거리
(EFL)
굴절률
(nd)
아베수
(vd)
굴절 모드
obj infinity infinity
S1 infinity 0.00000
S2* 2.89245 1.02176 2.353 1.54410 56.09 굴절
S3* -2.02593 0.19824 굴절
S4* -3.11610 0.35000 -2.055 1.56717 37.4 굴절
S5* 1.95734 0.30000 굴절
S6* -89.71509 0.35000 28.764 1.61554 25.8 굴절
S7* -14.92158 0.03000 굴절
S8* 10.00486 0.35000 69.146 1.66074 20.38 굴절
S9*(sto) 12.59048 0.50000 굴절
S10 infinity 1.10000 infinity 1.71736 29.5 굴절
S11 infinity -1.10000 infinity -1.71736 29.5 전반사
S12 infinity -0.50000 굴절
S13 infinity -2.45000 infinity -1.49700 81.61 굴절
S14 infinity 1.50000 infinity 1.49700 81.61 전반사
S15 infinity -1.50000 infinity -1.49700 81.61 반사
S16 infinity 0 굴절
S17 infinity -0.53621 굴절
img infinity -0.0095 굴절
렌즈면
(Surf)
S2* S3* S4* S5*
Radius 2.89245E+00 -2.02593E+00 -3.11610E+00 1.95734E+00
K(Conic) -5.15677E-02 -2.65980E+01 -9.90000E+01 -1.31788E+01
A(4th)/C4 -4.46070E-03 -5.68160E-02 2.16330E-01 5.80100E-01
B(6th)/C5 -1.27769E-04 4.51103E-02 -1.19656E+00 -2.16169E+00
C(8th)/C6 -7.99375E-03 4.75279E-02 3.20456E+00 3.99256E+00
D(10th)/C7 1.85932E-02 -7.51864E-02 -4.96843E+00 -3.62159E+00
E(12th)/C8 -1.63235E-02 3.06638E-02 4.93761E+00 -4.52961E-01
F(14th)/C9 7.48600E-03 9.61607E-03 -3.19916E+00 4.90387E+00
G(16th)/C10 -1.46028E-03 -1.19814E-02 1.31020E+00 -5.21051E+00
H(18th)/C11 -4.05371E-05 3.39415E-03 -3.08938E-01 2.42985E+00
J(20th)/C12 4.21895E-05 -2.42152E-04 3.21118E-02 -4.37654E-01
렌즈면
(Surf)
S6* S7* S8* S9*
Radius -8.97151E+01 -1.49216E+01 1.00049E+01 1.25905E+01
K(Conic) 9.90000E+01 -9.90000E+01 6.98064E+01 6.45717E+01
A(4th)/C4 1.35468E-01 -8.05339E-01 -8.60973E-01 -7.66905E-02
B(6th)/C5 1.88585E-01 5.91813E+00 5.35525E+00 2.41507E-01
C(8th)/C6 -3.06198E+00 -2.30189E+01 -1.94061E+01 -3.74020E-01
D(10th)/C7 7.40884E+00 5.35609E+01 4.48818E+01 4.49977E-01
E(12th)/C8 -8.97750E+00 -7.89370E+01 -6.71722E+01 -5.91390E-01
F(14th)/C9 6.67993E+00 7.56148E+01 6.50696E+01 7.09221E-01
G(16th)/C10 -3.31559E+00 -4.61193E+01 -3.96161E+01 -5.85907E-01
H(18th)/C11 1.06438E+00 1.63701E+01 1.38395E+01 2.75422E-01
J(20th)/C12 -1.66404E-01 -2.57932E+00 -2.12182E+00 -5.49111E-02
도 17은 본 개시의 일 실시예에 따른 렌즈 어셈블리(예: 도 1 내지 도 3의 카메라 모듈(180, 205, 212, 213) 및/또는 도 6의 렌즈 어셈블리(500))를 나타내는 도면이다.
도 18은 본 개시의 일 실시예에 따른, 도 17의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 19는 본 개시의 일 실시예에 따른, 도 17의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 20은 본 개시의 일 실시예에 따른, 도 17의 렌즈 어셈블리의 왜곡율을 나타내는 그래프이다.
도 17 내지 도 20을 참조하면, 렌즈 어셈블리(800)는 대략 9.75mm의 초점 거리를 가지며, 3.533의 F-수, 2.6mm의 렌즈 전장, 2.28mm의 이미지 상고 및/또는 26.01도의 화각을 가질 수 있다. 렌즈 전장은, 예를 들면, 제1 렌즈(L1)의 물체측 면(S2)으로부터 제4 렌즈(L4)의 센서측 면(S9)까지의 거리로 이해될 수 있으며, 이미지 상고는 광축(O3)으로부터 결상면(img) 가장자리까지의 최대 거리로서, 예를 들면, 결상면(img) 대각선 길이의 절반으로 이해될 수 있다. 렌즈 어셈블리(800)는 상술한 [수학식]들을 통해 제시된 조건을 적어도 일부 만족하면서, 다음의 [표 8]에 예시된 사양으로 제작될 수 있고, [표 9]와 [표 10]의 비구면 계수를 가질 수 있다.
렌즈면
(Surf)
곡률반경
(Radius)
두께
(Thick)
유효초점거리
(EFL)
굴절률
(nd)
아베수
(vd)
굴절 모드
obj infinity infinity
S1 infinity 0.00000
S2*(sto) 2.77006 0.86599 4.031 1.56717 37.4 굴절
S3* -12.03790 0.06160 굴절
S4* 2.88557 0.37205 -6.369 1.65035 21.53 굴절
S5* 1.62093 0.43149 굴절
S6* -3.83961 0.40769 3.844 1.65035 21.53 굴절
S7* -1.58818 0.11118 굴절
S8* -2.94631 0.35000 -3.253 1.67074 19.24 굴절
S9* 9.24009 0.70000 굴절
S10 infinity 1.25000 infinity 1.94593 17.98 굴절
S11 infinity -1.25000 infinity -1.94593 17.98 전반사
S12 infinity -0.40000 굴절
S13 infinity -2.20000 infinity -1.51680 64.17 굴절
S14 infinity 2.00000 infinity 1.51680 64.17 전반사
S15 infinity -1.00000 infinity -1.51680 64.17 반사
S16 infinity 0 굴절
S17 infinity 0 굴절
S18 infinity -0.4879 굴절
img infinity -0.0115 굴절
렌즈면
(Surf)
S2* S3* S4* S5*
Radius 2.77006E+00 -1.20379E+01 2.88557E+00 1.62093E+00
K(Conic) -8.10478E-02 -1.07329E+01 -3.52748E+01 -1.23794E+01
A(4th)/C4 3.89242E-03 -1.22249E-03 6.63243E-02 1.58664E-01
B(6th)/C5 2.12816E-03 7.89209E-02 -1.44481E-01 -4.40392E-01
C(8th)/C6 -2.36071E-02 -2.30898E-01 3.86720E-01 1.44789E+00
D(10th)/C7 5.43328E-02 3.80458E-01 -8.75872E-01 -3.49196E+00
E(12th)/C8 -6.93422E-02 -3.95273E-01 1.24937E+00 5.11237E+00
F(14th)/C9 5.39312E-02 2.69230E-01 -1.06110E+00 -4.32867E+00
G(16th)/C10 -2.52394E-02 -1.18898E-01 5.12826E-01 1.90746E+00
H(18th)/C11 6.50235E-03 3.10830E-02 -1.27018E-01 -3.12209E-01
J(20th)/C12 -7.06822E-04 -3.63698E-03 1.19052E-02 -1.48722E-02
렌즈면
(Surf)
S6* S7* S8* S9*
Radius -3.83961E+00 -1.58818E+00 -2.94631E+00 9.24009E+00
K(Conic) -1.84495E+01 3.92612E-02 -6.39361E+01 5.58050E+01
A(4th)/C4 -1.69007E-01 1.11348E-01 -1.13976E-01 2.54008E-02
B(6th)/C5 3.19143E-01 2.47133E-01 8.97714E-01 -9.51414E-02
C(8th)/C6 5.07715E-01 1.51521E-01 -2.78258E+00 1.17247E-01
D(10th)/C7 -3.29326E+00 -2.83173E+00 4.75363E+00 -2.00145E-01
E(12th)/C8 6.64886E+00 7.24173E+00 -4.98512E+00 3.37174E-01
F(14th)/C9 -7.13404E+00 -9.33951E+00 3.10410E+00 -4.00681E-01
G(16th)/C10 4.25874E+00 6.79319E+00 -9.67449E-01 2.92626E-01
H(18th)/C11 -1.30636E+00 -2.65449E+00 4.06789E-02 -1.18844E-01
J(20th)/C12 1.55300E-01 4.34723E-01 3.73469E-02 2.05172E-02
도 21은 본 개시의 일 실시예에 따른 렌즈 어셈블리(예: 도 1 내지 도 3의 카메라 모듈(180, 205, 212, 213) 또는 도 6의 렌즈 어셈블리(500))를 나타내는 도면이다.
도 22는 본 개시의 일 실시예에 따른, 도 21의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 23은 본 개시의 일 실시예에 따른, 도 21의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 24는 본 개시의 일 실시예에 따른, 도 21의 렌즈 어셈블리의 왜곡율을 나타내는 그래프이다.
도 21 내지 도 24를 참조하면, 렌즈 어셈블리(900)는 대략 9.68mm의 초점 거리를 가지며, 2.881의 F-수, 2.66mm의 렌즈 전장, 2.28mm의 이미지 상고 및/또는 26.29도의 화각을 가질 수 있다. 렌즈 전장은, 예를 들면, 제1 렌즈(L1)의 물체측 면(S2)으로부터 제4 렌즈(L4)의 센서측 면(S9)까지의 거리로 이해될 수 있으며, 이미지 상고는 광축(O3)으로부터 결상면(img) 가장자리까지의 최대 거리로서, 예를 들면, 결상면(img) 대각선 길이의 절반으로 이해될 수 있다. 렌즈 어셈블리(900)는 상술한 [수학식]들을 통해 제시된 조건을 적어도 일부 만족하면서, 다음의 [표 11]에 예시된 사양으로 제작될 수 있고, [표 12]와 [표 13]의 비구면 계수를 가질 수 있다.
렌즈면
(Surf)
곡률반경
(Radius)
두께
(Thick)
유효초점거리
(EFL)
굴절률
(nd)
아베수
(vd)
굴절 모드
obj infinity infinity
S1 infinity 0.00000
S2* 10.23859 0.69844 4.830 1.56717 37.4 굴절
S3* -3.67904 0.03000 굴절
S4* 2.44406 0.55983 -6.415 1.67074 19.24 굴절
S5* 1.42049 0.54467 굴절
S6* -4.25861 0.49706 3.975 1.63491 23.98 굴절
S7* -1.66696 0.03000 굴절
S8* -1.76751 0.30000 -4.788 1.67074 19.24 굴절
S9*(sto) -4.13991 0.70654 굴절
S10 infinity 1.25000 굴절
S11 infinity -1.25000 전반사
S12 infinity -0.40000 굴절
S13 infinity -2.11200 infinity -1.51680 64.17 굴절
S14 infinity 1.92000 infinity 1.51680 64.17 전반사
S15 infinity -0.96000 infinity -1.51680 64.17 반사
S16 infinity 0 굴절
S17 infinity -0.51558 굴절
img infinity 0.0121 굴절
렌즈면
(Surf)
S2* S3* S4* S5*
Radius 1.02386E+01 -3.67904E+00 2.44406E+00 1.42049E+00
K(Conic) 4.81667E+00 -7.67180E+00 -1.27930E+01 -3.65531E+00
A(4th)/C4 -5.69341E-03 -1.41529E-02 6.40785E-02 1.03174E-01
B(6th)/C5 1.09285E-02 3.11212E-02 -1.45066E-01 -3.28039E-01
C(8th)/C6 -1.42841E-02 -3.52427E-02 1.78679E-01 5.34709E-01
D(10th)/C7 8.19285E-03 2.12171E-02 -1.58613E-01 -5.65257E-01
E(12th)/C8 -2.45082E-03 -6.70839E-03 9.69236E-02 3.91252E-01
F(14th)/C9 3.86474E-04 1.03371E-03 -3.74055E-02 -1.71139E-01
G(16th)/C10 -2.11244E-05 -4.89217E-05 8.10136E-03 4.31012E-02
H(18th)/C11 0.00000E+00 0.00000E+00 -7.44946E-04 -4.76448E-03
J(20th)/C12 0.00000E+00 0.00000E+00 0.00000E+00 0.00000E+00
렌즈면
(Surf)
S6* S7* S8* S9*
Radius -4.25861E+00 -1.66696E+00 -1.76751E+00 -4.13991E+00
K(Conic) -3.54859E+01 1.07597E-02 -1.14768E+01 -1.62287E+00
A(4th)/C4 9.73396E-02 4.31057E-01 6.76674E-02 -1.20789E-02
B(6th)/C5 -3.06865E-01 -3.53551E-01 4.28382E-01 2.74527E-01
C(8th)/C6 5.45067E-01 -1.27186E+00 -2.83510E+00 -8.86537E-01
D(10th)/C7 -5.16128E-01 4.85328E+00 7.09720E+00 1.64961E+00
E(12th)/C8 2.71914E-01 -7.23925E+00 -9.50850E+00 -1.88424E+00
F(14th)/C9 -7.42660E-02 5.84400E+00 7.40401E+00 1.33871E+00
G(16th)/C10 8.14168E-03 -2.67247E+00 -3.35737E+00 -5.74932E-01
H(18th)/C11 0.00000E+00 6.51585E-01 8.22811E-01 1.36345E-01
J(20th)/C12 0.00000E+00 -6.58923E-02 -8.43020E-02 -1.36861E-02
도 25는 본 개시의 일 실시예에 따른 렌즈 어셈블리(예: 도 1 내지 도 3의 카메라 모듈(180, 205, 212, 213) 또는 도 6의 렌즈 어셈블리(500))를 나타내는 도면이다.
도 26은 본 개시의 일 실시예에 따른, 도 25의 렌즈 어셈블리의 구면수차를 나타내는 그래프이다.
도 27은 본 개시의 일 실시예에 따른, 도 25의 렌즈 어셈블리의 비점수차를 나타내는 그래프이다.
도 28은 본 개시의 일 실시예에 따른, 도 25의 렌즈 어셈블리의 왜곡율을 나타내는 그래프이다.
도 25 내지 도 28을 참조하면, 렌즈 어셈블리(1000)는 대략 9.68mm의 초점 거리를 가지며, 2.847의 F-수, 2.587mm의 렌즈 전장, 2.28mm의 이미지 상고 및/또는 26.39도의 화각을 가질 수 있다. 렌즈 전장은, 예를 들면, 제1 렌즈(L1)의 물체측 면(S2)으로부터 제4 렌즈(L4)의 센서측 면(S9)까지의 거리로 이해될 수 있으며, 이미지 상고는 광축(O3)으로부터 결상면(img) 가장자리까지의 최대 거리로서, 예를 들면, 결상면(img) 대각선 길이의 절반으로 이해될 수 있다. 렌즈 어셈블리(1000)는 상술한 [수학식]들을 통해 제시된 조건을 적어도 일부 만족하면서, 다음의 [표 14]에 예시된 사양으로 제작될 수 있고, [표 15]와 [표 16]의 비구면 계수를 가질 수 있다.
렌즈면
(Surf)
곡률반경
(Radius)
두께
(Thick)
유효초점거리
(EFL)
굴절률
(nd)
아베수
(vd)
굴절 모드
obj infinity infinity
S1 infinity 0.00000
S2*(sto) 4.81438 0.66890 6.322 1.53480 55.71 굴절
S3* -10.96359 0.05000 굴절
S4* 1.88189 0.30999 -20.242 1.63491 23.98 굴절
S5* 1.53779 0.08692 굴절
S6* 1.79756 0.30000 -5.347 1.63915 23.52 굴절
S7* 1.10464 0.54671 굴절
S8* 3.66400 0.62402 6.277 1.56717 37.4 굴절
S9* -151.66280 0.50000 굴절
S10 infinity 1.25000 굴절
S11 infinity -1.25000 전반사
S12 infinity -0.40000 굴절
S13 infinity -2.20000 infinity -1.51680 64.17 굴절
S14 infinity 2.00000 infinity 1.51680 64.17 전반사
S15 infinity -1.00000 infinity -1.51680 64.17 반사
S16 infinity 0 굴절
S17 infinity 0 굴절
S18 infinity -0.29628 굴절
img infinity -0.0145 굴절
렌즈면
(Surf)
S2* S3* S4* S5*
Radius 4.81438E+00 -1.09636E+01 1.88189E+00 1.53779E+00
K(Conic) 3.54569E+00 -8.81750E+01 -1.11753E+00 -2.97857E+00
A(4th)/C4 1.10535E-02 3.75683E-02 -6.77231E-02 -8.04691E-02
B(6th)/C5 -2.37619E-02 6.00630E-02 3.05337E-01 6.04620E-01
C(8th)/C6 5.51038E-02 -1.72126E-01 -6.18872E-01 -1.59535E+00
D(10th)/C7 -7.31852E-02 1.93129E-01 6.59582E-01 2.32597E+00
E(12th)/C8 5.71269E-02 -1.21215E-01 -4.20411E-01 -2.06428E+00
F(14th)/C9 -2.70837E-02 4.55352E-02 1.63641E-01 1.13397E+00
G(16th)/C10 7.67817E-03 -1.01392E-02 -3.76324E-02 -3.75594E-01
H(18th)/C11 -1.20040E-03 1.22357E-03 4.60537E-03 6.86622E-02
J(20th)/C12 7.97410E-05 -6.04962E-05 -2.21886E-04 -5.31537E-03
렌즈면
(Surf)
S6* S7* S8* S9*
Radius 1.79756E+00 1.10464E+00 3.66400E+00 -1.51663E+02
K(Conic) -4.28944E+00 -6.17228E-01 -1.33453E+01 9.90000E+01
A(4th)/C4 -1.20176E-02 -9.32545E-02 6.15451E-02 1.80431E-02
B(6th)/C5 1.11064E-01 -2.50681E-01 -5.88048E-02 -4.91700E-03
C(8th)/C6 -5.07951E-01 6.81713E-01 6.94644E-02 -1.15032E-02
D(10th)/C7 1.04700E+00 -9.18078E-01 -5.28833E-02 4.47342E-02
E(12th)/C8 -1.14248E+00 7.54505E-01 1.41760E-02 -6.67360E-02
F(14th)/C9 7.21138E-01 -3.83446E-01 1.25406E-02 5.43212E-02
G(16th)/C10 -2.65043E-01 1.14335E-01 -1.25307E-02 -2.48871E-02
H(18th)/C11 5.27410E-02 -1.76176E-02 4.17500E-03 5.96954E-03
J(20th)/C12 -4.39872E-03 9.87459E-04 -4.95931E-04 -5.77902E-04
도 29는 본 개시의 일 실시예에 따른 렌즈 어셈블리(1100)(예: 도 1 내지 도 3의 카메라 모듈(180, 205, 212, 213) 또는 도 6의 렌즈 어셈블리(500))를 나타내는 도면이다.
도 30은 본 개시의 일 실시예에 따른, 도 29의 렌즈 어셈블리(1100)의 구면수차를 나타내는 그래프이다.
도 31은 본 개시의 일 실시예에 따른, 도 29의 렌즈 어셈블리(1100)의 비점수차를 나타내는 그래프이다.
도 32는 본 개시의 일 실시예에 따른, 도 29의 렌즈 어셈블리(1100)의 왜곡율을 나타내는 그래프이다.
도 29 내지 도 32를 참조하면, 렌즈 어셈블리(1100)는 대략 16.79mm의 초점 거리를 가지며, 2.872의 F-수, 3.700mm의 렌즈 전장, 2.8mm의 이미지 상고 및/또는 18.79도의 화각을 가질 수 있다. 렌즈 전장은, 예를 들면, 제1 렌즈(L1)의 물체측 면(S2)으로부터 제4 렌즈(L4)의 센서측 면(S9)까지의 거리로 이해될 수 있으며, 이미지 상고는 광축(O3)으로부터 결상면(img) 가장자리까지의 최대 거리로서, 예를 들면, 결상면(img) 대각선 길이의 절반으로 이해될 수 있다. 렌즈 어셈블리(1100)는 상술한 [수학식]들을 통해 제시된 조건을 적어도 일부 만족하면서, 다음의 [표 17]에 예시된 사양으로 제작될 수 있고, [표 18]의 비구면 계수를 가질 수 있다.
렌즈면
(Surf)
곡률반경
(Radius)
두께
(Thick)
유효초점거리
(EFL)
굴절률
(nd)
아베수
(vd)
굴절 모드
obj infinity infinity
S1 infinity 0.00000
S2 4.46972 1.42806 6.981 1.74400 44.9 굴절
S3 26.81334 0.16532 굴절
S4 11.69539 0.69575 -10.994 1.94593 17.98 굴절
S5 5.38100 0.30000 굴절
S6* 13.14997 0.65009 11.471 1.67074 19.24 굴절
S7* -18.71445 0.11079 굴절
S8*(sto) -17.60577 0.35000 -8.261 1.61444 25.94 굴절
S9* 7.27892 1.50000 굴절
S10 infinity 1.80000 infinity 1.80610 40.73 굴절
S11 infinity -1.80000 infinity -1.80610 40.73 전반사
S12 infinity -0.40000 굴절
S13 infinity -3.60000 infinity -1.51680 64.17 굴절
S14 infinity 2.80000 infinity 1.51680 64.17 전반사
S15 infinity -1.40000 infinity -1.51680 64.17 반사
S16 infinity -2.0044 굴절
img infinity 0.0015 굴절
렌즈면
(Surf)
S6* S7* S8* S9*
Radius 1.31500E+01 -1.87144E+01 -1.76058E+01 7.27892E+00
K(Conic) 2.96540E+01 1.04376E+01 -4.33088E-01 9.83118E+00
A(4th)/C4 1.71245E-03 -7.02775E-03 -2.27348E-02 -9.98966E-03
B(6th)/C5 -7.10760E-03 2.47936E-03 3.19183E-02 1.94378E-02
C(8th)/C6 7.93882E-03 6.54277E-03 -2.66369E-02 -2.27085E-02
D(10th)/C7 -4.94674E-03 -8.03284E-03 1.42199E-02 1.59888E-02
E(12th)/C8 1.88412E-03 4.31713E-03 -5.21168E-03 -7.26017E-03
F(14th)/C9 -4.55793E-04 -1.34264E-03 1.30264E-03 2.15560E-03
G(16th)/C10 6.87166E-05 2.53302E-04 -2.07019E-04 -4.05645E-04
H(18th)/C11 -5.88568E-06 -2.70550E-05 1.83835E-05 4.38516E-05
J(20th)/C12 2.16835E-07 1.25311E-06 -6.80453E-07 -2.07809E-06
본 개시의 일 실시예에 따른 렌즈 어셈블리(예: 도 1 내지 도 3의 카메라 모듈(180, 205, 212, 213), 또는 도 6, 도 8, 도 13, 도 17, 도 21, 도 25의 렌즈 어셈블리(500, 600, 700, 800, 900, 1000, 1100))는, 입사광을 반사 및/또는 굴절시키는 광학 부재(예: 도 8의 광학 부재(R1, R2))를 포함함으로써, 이미지 센서(예: 도 8의 이미지 센서(I))에 이르는 빛의 진행 경로의 설계가 자유로울 수 있다. 예를 들어, 렌즈들(예: 도 8의 렌즈들(L1, L2, L3, L4))의 배열에 대하여 이미지 센서(I)의 결상면(예: 도 8의 결상면(img))의 배치 방향이 다양하게 설계될 수 있다. 이로써, 스마트 폰과 같이 소형화, 경량화된 전자 장치(예: 도 1 내지 도 6의 전자 장치(101, 102, 104, 200, 300, 400))에서 높은 광학 성능을 가진 렌즈 어셈블리의 탑재가 용이할 수 있다. 일 실시예에서, 렌즈들 배열의 전방에 추가의 광학 부재(예: 도 6의 제1 굴절 부재(413))가 배치됨으로써, 전자 장치의 길이 방향(예: 도 5의 Y축 방향) 및/또는 폭 방향(예: 도 5의 X축 방향)으로 렌즈들을 배열할 수 있다. 예컨대, 렌즈들의 수와 배치에 있어 소형화된 전자 장치에서 설계 자유도가 높아질 수 있다. 일 실시예에서, 렌즈들이 전자 장치의 길이 방향이나 폭 방향으로 배열될 때, 광축 방향(예: 도 8의 제1 광축(O1)) 방향에서 렌즈들의 진퇴운동을 위한 공간을 용이하게 확보할 수 있다. 예컨대, 초점 거리 조절 동작 및/또는 초점 조절 동작을 구현할 수 있는 환경이 확보됨으로써, 렌즈 어셈블리의 광학 성능(예: 망원 성능)을 향상시키기 용이할 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상술한 바와 같이, 본 개시의 일 실시예에 따르면, 렌즈 어셈블리(예: 도 1 내지 도 3의 카메라 모듈(180, 205, 212, 213), 또는 도 6, 도 8, 도 13, 도 17, 도 21, 도 25의 렌즈 어셈블리(500, 600, 700, 800, 900, 1000, 1100))는, 물체(예: 도 8의 물체(OB))측으로부터 제1 광축(예: 도 8의 제1 광축(O1)) 방향을 따라 배열된 적어도 2매의 렌즈(예: 도 8, 도 13, 도 17, 도 21, 도 25의 렌즈들(L1, L2, L3, L4)), 상기 적어도 2매의 렌즈를 통해 안내 및/또는 집속된 빛을 수신하도록 설정된 이미지 센서(예: 도 8, 도 13, 도 17, 도 21, 도 25의 이미지 센서(I))로서, 상기 제1 광축에 대하여 경사지게 배치된 결상면(예: 도 8의 결상면(img))을 포함하는 상기 이미지 센서, 상기 적어도 2매의 렌즈와 상기 이미지 센서 사이에 배치된 제1 광학 부재(예: 도 8, 도 13, 도 17, 도 21, 도 25의 제1 광학 부재(R1))로서, 상기 제1 광축 방향에서 상기 적어도 2매의 렌즈를 통해 빛을 입사받아 상기 제1 광축에 교차하는 제2 광축(예: 도 8의 제2 광축(O2)) 방향을 따라 출사하는 상기 제1 광학 부재, 및 상기 제1 광학 부재와 상기 이미지 센서 사이에 배치된 제2 광학 부재(예: 도 8, 도 13, 도 17, 도 21, 도 25의 제2 광학 부재(R2))로서, 상기 제2 광축 방향에서 상기 제1 광학 부재를 통해 빛을 입사받아 상기 제2 광축에 교차하는 제3 광축(예: 도 8의 제3 광축(O3)) 방향을 따라 상기 이미지 센서로 출사하는 상기 제2 광학 부재를 포함할 수 있다. 일 실시예에서, 상기 렌즈 어셈블리는, 물체측 첫번째 렌즈(예: 도 8, 도 13, 도 17, 도 21, 도 25의 제1 렌즈(L1))의 물체측 면(예: 도 8의 'S2'로 지시된 면)으로부터 이미지 센서측 첫번째 렌즈(예: 도 8, 도 13, 도 17, 도 21, 도 25의 제4 렌즈(L4))의 센서측 면(예: 도 8의 'S9'으로 지시된 면)까지의 길이인 'TTL'과, 상기 렌즈 어셈블리의 초점거리인 'f'에 관한 조건식, "0.1 <= TTL/f <= 0.35"을 만족할 수 있다. 일 실시예에서, 상기 렌즈 어셈블리는, 상기 제2 광학 부재의 인접하는 두 면(surface)(예: 도 9의 입사면(F1), 출사면(F2) 및/또는 제2 반사면(F3) 중 서로 인접하는 두 면)이 이루는 각도들 중 최소 각도인 'Ang-min'에 관한 조건식, "15 <= Ang-min <= 40"을 만족할 수 있다.
다른 한 실시예에 따르면, 상기와 같은 렌즈 어셈블리는, 물체측 첫번째 렌즈의 초점거리인 'f1'과, 물체측 두번째 렌즈(예: 도 8, 도 13, 도 17, 도 21, 도 25의 제2 렌즈(L2))의 초점거리인 'f2'에 관한 조건식, "-2 <= f1/f2 <= -0.1"을 만족할 수 있다.
다른 한 실시예에 따르면, 상기와 같은 렌즈 어셈블리는, 물체측 첫번째 렌즈의 아베수인 'Vd-1'에 관한 조건식, "25 <= Vd-1 <= 95"을 만족할 수 있다.
다른 한 실시예에 따르면, 상기와 같은 렌즈 어셈블리는, 물체측 첫번째 렌즈의 두께인't-L1'에 관한 조건식, "0.1 <= t-L1/TTL <= 0.5"을 만족할 수 있다.
다른 한 실시예에 따르면, 상기와 같은 렌즈 어셈블리는, 상기 렌즈 어셈블리의 화각(field of view)인 'FoV'에 관한 조건식, "5 <= FoV <= 35"을 만족할 수 있다.
다른 한 실시예에 따르면, 상기 제1 광학 부재는 미러 및/또는 프리즘을 포함하고, 상기 제2 광학 부재는 프리즘을 포함할 수 있다.
다른 한 실시예에 따르면, 상기와 같은 렌즈 어셈블리는, 상기 적어도 2매의 렌즈 중 적어도 하나를 상기 제1 광축 방향을 따라 이동시킴으로써 초점 거리 조절 및/또는 초점 조절을 수행하도록 구성될 수 있다.
다른 한 실시예에 따르면, 상기와 같은 렌즈 어셈블리는, 상기 적어도 2매의 렌즈 중 적어도 하나를 상기 제1 광축에 수직인 평면에서 이동시킴으로써 손떨림 보정을 수행하도록 구성될 수 있다.
다른 한 실시예에 따르면, 상기와 같은 렌즈 어셈블리는, 상기 제1 광학 부재를 상기 제1 광축에 대하여 회전 및/또는 틸트(tilt)시킴으로써 손떨림 보정을 수행하도록 구성될 수 있다.
다른 한 실시예에 따르면, 상기 제3 광축은 상기 제1 광축에 교차 및/또는 평행할 수 있다.
다른 한 실시예에 따르면, 상기 제2 광학 부재는 상기 제1 광학 부재를 향하는 입사면(예: 도 9의 입사면(F1))과 상기 이미지 센서를 향하는 출사면(예: 도 9의 출사면(F2))을 포함하고, 상기 입사면과 상기 출사면 사이에서 상기 제2 광학 부재는 상기 입사면으로 입사된 빛을 적어도 2회 반사 및/또는 굴절시키도록 구성될 수 있다.
다른 한 실시예에 따르면, 상기와 같은 렌즈 어셈블리는, 상기 입사면 및/또는 상기 출사면 중 적어도 하나에 배치된 적외선 차단층(예: 도 9의 적외선 차단층(IFL))을 더 포함할 수 있다.
다른 한 실시예에 따르면, 상기 제2 광학 부재는, 상기 출사면에 대하여 경사지게 배치된 반사면(예: 도 9의 제2 반사면(F3))을 더 포함하고, 상기 제2 광학 부재의 내부에서 상기 출사면과 상기 반사면이 상기 입사면으로 입사된 빛을 반사 및/또는 굴절시키고, 상기 제2 광학 부재의 내부에서 적어도 2회 반사 및/또는 굴절된 빛은 상기 출사면을 통해 상기 이미지 센서로 안내 또는 출사될 수 있다.
다른 한 실시예에 따르면, 상기 입사면과 상기 출사면 사이의 제1 각도(예: 도 9의 제1 각도(Ang-p1))와, 상기 출사면과 상기 반사면 사이의 제2 각도(예: 도 9의 제2 각도(Ang-p2))와, 상기 반사면과 상기 입사면 사이의 제3 각도(예: 도 9의 제3 각도(Ang-p3)) 중 상기 제2 각도가 최소이며 15도 이상 40도 이하일 수 있다.
본 개시의 다른 한 실시예에 따르면, 전자 장치(예: 도 1 내지 도 6의 전자 장치(101, 102, 104, 200, 300, 400))는, 렌즈 어셈블리(예: 도 1 내지 도 3의 카메라 모듈(180, 205, 212, 213), 또는 도 6, 도 8, 도 13, 도 17, 도 21, 도 25의 렌즈 어셈블리(500, 600, 700, 800, 900, 1000, 1100)), 및 상기 렌즈 어셈블리를 이용하여 외부의 빛을 수신함으로써 이미지를 획득하도록 설정된 프로세서(예: 도 1의 프로세서(120))를 포함할 수 있다. 다른 한 실시예에서, 상기 렌즈 어셈블리는, 물체(예: 도 8의 물체(OB))측으로부터 제1 광축(예: 도 8의 제1 광축(O1)) 방향을 따라 배열된 적어도 2매의 렌즈(예: 도 8, 도 13, 도 17, 도 21, 도 25의 렌즈들(L1, L2, L3, L4)), 상기 적어도 2매의 렌즈를 통해 안내 및/또는 집속된 빛을 수신하도록 설정된 이미지 센서(예: 도 8, 도 13, 도 17, 도 21, 도 25의 이미지 센서(I))로서, 상기 제1 광축에 대하여 경사지게 배치된 결상면(예: 도 8의 결상면(img))을 포함하는 상기 이미지 센서, 상기 적어도 2매의 렌즈와 상기 이미지 센서 사이에 배치된 제1 광학 부재(예: 도 8, 도 13, 도 17, 도 21, 도 25의 제1 광학 부재(R1))로서, 상기 제1 광축 방향에서 상기 적어도 2매의 렌즈를 통해 빛을 입사받아 상기 제1 광축에 교차하는 제2 광축(예: 도 8의 제2 광축(O2)) 방향을 따라 출사하는 상기 제1 광학 부재, 및 상기 제1 광학 부재와 상기 이미지 센서 사이에 배치된 제2 광학 부재(예: 도 8, 도 13, 도 17, 도 21, 도 25의 제2 광학 부재(R2))로서, 상기 제2 광축 방향에서 상기 제1 광학 부재를 통해 빛을 입사받아 상기 제2 광축에 교차하는 제3 광축(예: 도 8의 제3 광축(O3)) 방향을 따라 상기 이미지 센서로 출사하는 상기 제2 광학 부재를 포함할 수 있다. 다른 한 실시예에서, 상기 렌즈 어셈블리는 물체측 첫번째 렌즈(예: 도 8, 도 13, 도 17, 도 21, 도 25의 제1 렌즈(L1))의 물체측 면(예: 도 8의 'S2'로 지시된 면)으로부터 이미지 센서측 첫번째 렌즈(예: 도 8, 도 13, 도 17, 도 21, 도 25의 제4 렌즈(L4))의 센서측 면(예: 도 8의 'S9'으로 지시된 면)까지의 길이인 'TTL'과, 상기 렌즈 어셈블리의 초점거리인 'f'에 관한 조건식, "0.1 <= TTL/f <= 0.35"을 만족할 수 있다. 다른 한 실시예에서, 상기 렌즈 어셈블리는 상기 렌즈 어셈블리의 화각(field of view)인 'FoV'에 관한 조건식, "5 <= FoV <= 35"을 만족할 수 있다.
다른 한 실시예에 따르면, 상기 제2 광학 부재는 상기 제1 광학 부재를 향하는 입사면(예: 도 9의 입사면(F1))과 상기 이미지 센서를 향하는 출사면(예: 도 9의 출사면(F2))과 상기 출사면에 대하여 경사지게 배치된 반사면(예: 도 9의 제2 반사면(F3))을 포함하고, 상기 입사면과 상기 출사면 사이에서 상기 제2 광학 부재는 상기 입사면으로 입사된 빛을 적어도 2회 반사 및/또는 굴절시키도록 구성될 수 있다.
다른 한 실시예에 따르면, 상기 입사면과 상기 출사면 사이의 제1 각도(예: 도 9의 제1 각도(Ang-p1))와, 상기 출사면과 상기 반사면 사이의 제2 각도(예: 도 9의 제2 각도(Ang-p2))와, 상기 반사면과 상기 입사면 사이의 제3 각도(예: 도 9의 제3 각도(Ang-p3)) 중 상기 제2 각도가 최소이며 15도 이상 40도 이하일 수 있다.
다른 한 실시예에 따르면, 상기 렌즈 어셈블리는 물체측 첫번째 렌즈의 초점거리인 'f1'과, 물체측 두번째 렌즈(예: 도 8, 도 13, 도 17, 도 21, 도 25의 제2 렌즈(L2))의 초점거리인 'f2'에 관한 조건식, "-2 <= f1/f2 <= -0.1"을 만족할 수 있다.
다른 한 실시예에 따르면, 상기 렌즈 어셈블리는 물체측 첫번째 렌즈의 아베수인 'Vd-1'에 관한 조건식, "25 <= Vd-1 <= 95"을 만족할 수 있다.
다른 한 실시예에 따르면, 상기 렌즈 어셈블리는 물체측 첫번째 렌즈의 두께인't-L1'에 관한 조건식, "0.1 <= t-L1/TTL <= 0.5"을 만족할 수 있다.
본 개시는 그의 다양한 실시예들을 참조하여 도시되고 설명되었지만, 첨부된 청구항들 및 그 균등물들에 의해 정의되는 본 개시의 사상(spirit)과 관점을 벗어나지 않는 범위에서 다양한 형태 및 세부사항의 변경이 이루어질 수 있다는 것은 당업자들에게 자명하다 할 것이다.

Claims (15)

  1. 렌즈 어셈블리(180; 205; 212; 213; 500; 600; 700; 800; 900; 1000; 1100)에 있어서,
    물체(OB)측으로부터 제1 광축(O1) 방향을 따라 배열된 적어도 2매의 렌즈(L1, L2, L3, L4);
    상기 적어도 2매의 렌즈를 통해 안내 또는 집속된 빛을 수신하도록 설정된 이미지 센서(I)로서, 상기 제1 광축에 대하여 경사지게 배치된 결상면(img)을 포함하는 상기 이미지 센서;
    상기 적어도 2매의 렌즈와 상기 이미지 센서 사이에 배치된 제1 광학 부재(R1)로서, 상기 제1 광축 방향에서 상기 적어도 2매의 렌즈를 통해 빛을 입사받아 상기 제1 광축에 교차하는 제2 광축(O2) 방향을 따라 출사하는 상기 제1 광학 부재; 및
    상기 제1 광학 부재와 상기 이미지 센서 사이에 배치된 제2 광학 부재(R2)로서, 상기 제2 광축 방향에서 상기 제1 광학 부재를 통해 빛을 입사받아 상기 제2 광축에 교차하는 제3 광축(O3) 방향을 따라 상기 이미지 센서로 출사하는 상기 제2 광학 부재를 포함하고,
    다음의 [조건식1] 및 [조건식2]를 만족하는 렌즈 어셈블리.
    [조건식1]
    0.1 <= TTL/f <= 0.35
    [조건식2]
    15 <= Ang-min <= 40
    여기서, 'TTL'은 물체측 첫번째 렌즈(L1)의 물체측 면(S2)으로부터 이미지 센서측 첫번째 렌즈(L4)의 센서측 면(S9)까지의 길이이고, 'f'는 상기 렌즈 어셈블리의 초점거리이며, 'Ang-min'는 상기 제2 광학 부재의 인접하는 두 면(surface)이 이루는 각도들 중 최소 각도임.
  2. 제1 항에 있어서, 다음의 [조건식3]을 만족하는 렌즈 어셈블리.
    [조건식3]
    -2 <= f1/f2 <= -0.1
    여기서, 'f1'은 물체측 첫번째 렌즈의 초점거리이고, 'f2'은 물체측 두번째 렌즈(L2)의 초점거리임.
  3. 제1 항 내지 제2 항 중 어느 한 항에 있어서, 다음의 [조건식4]를 만족하는 렌즈 어셈블리.
    [조건식4]
    25 <= Vd-1 <= 95
    여기서, 'Vd-1'은 물체측 첫번째 렌즈의 아베수임.
  4. 제1 항 내지 제3 항 중 어느 한 항에 있어서, 다음의 [조건식5]를 만족하는 렌즈 어셈블리.
    [조건식5]
    0.1 <= t-L1/TTL <= 0.5
    여기서, 't-L1'은 물체측 첫번째 렌즈의 두께임.
  5. 제1 항 내지 제4 항 중 어느 한 항에 있어서, 다음의 [조건식6]을 만족하는 렌즈 어셈블리.
    [조건식6]
    5 <= FoV <= 35
    여기서, 'FoV'는 상기 렌즈 어셈블리의 화각(field of view)임.
  6. 제1 항 내지 제5 항 중 어느 한 항에 있어서, 상기 제1 광학 부재는 미러 또는 프리즘을 포함하고, 상기 제2 광학 부재는 프리즘을 포함하는 렌즈 어셈블리.
  7. 제1 항 내지 제6 항 중 어느 한 항에 있어서, 상기 적어도 2매의 렌즈 중 적어도 하나를 상기 제1 광축 방향을 따라 이동시킴으로써 초점 거리 조절 또는 초점 조절을 수행하도록 구성된 렌즈 어셈블리.
  8. 제1 항 내지 제7 항 중 어느 한 항에 있어서, 상기 적어도 2매의 렌즈 중 적어도 하나를 상기 제1 광축에 수직인 평면에서 이동시킴으로써 손떨림 보정을 수행하도록 구성된 렌즈 어셈블리.
  9. 제1 항 내지 제8 항 중 어느 한 항에 있어서, 상기 제1 광학 부재를 상기 제1 광축에 대하여 회전 또는 틸트(tilt)시킴으로써 손떨림 보정을 수행하도록 구성된 렌즈 어셈블리.
  10. 제1 항 내지 제9 항 중 어느 한 항에 있어서, 상기 제3 광축은 상기 제1 광축에 교차 또는 평행한 렌즈 어셈블리.
  11. 제1 항 내지 제10 항 중 어느 한 항에 있어서, 상기 제2 광학 부재는, 상기 제1 광학 부재를 향하는 입사면(F1)과, 상기 이미지 센서를 향하는 출사면(F2)을 포함하고,
    상기 입사면과 상기 출사면 사이에서, 상기 제2 광학 부재는 상기 입사면으로 입사된 빛을 적어도 2회 반사 또는 굴절시키도록 구성된 렌즈 어셈블리.
  12. 제11 항에 있어서,
    상기 입사면 또는 상기 출사면 중 적어도 하나에 배치된 적외선 차단층(IFL)을 더 포함하는 렌즈 어셈블리.
  13. 제11 항 내지 제12 항 중 어느 한 항에 있어서, 상기 제2 광학 부재는, 상기 출사면에 대하여 경사지게 배치된 반사면(F3)을 더 포함하고,
    상기 제2 광학 부재의 내부에서, 상기 출사면과 상기 반사면이 상기 입사면으로 입사된 빛을 반사 또는 굴절시키고,
    상기 제2 광학 부재의 내부에서 적어도 2회 반사 또는 굴절된 빛은, 상기 출사면을 통해 상기 이미지 센서로 안내 또는 출사되는 렌즈 어셈블리.
  14. 제13 항에 있어서, 상기 입사면과 상기 출사면 사이의 제1 각도(Ang-p1)와, 상기 출사면과 상기 반사면 사이의 제2 각도(Ang-p2)와, 상기 반사면과 상기 입사면 사이의 제3 각도(Ang-p3) 중 상기 제2 각도가 최소이며 15도 이상 40도 이하인 렌즈 어셈블리.
  15. 전자 장치(101; 102; 104; 200; 300; 400)에 있어서,
    제1 항 내지 제14 항 중 어느 한 항에 따른 렌즈 어셈블리(180; 205; 212; 213; 500; 600; 700; 800; 900; 1000; 1100); 및
    상기 렌즈 어셈블리를 이용하여 외부의 빛을 수신함으로써 이미지를 획득하도록 설정된 적어도 하나의 프로세서(120)를 포함하는 전자 장치.
PCT/KR2023/000385 2022-05-26 2023-01-09 렌즈 어셈블리 및 그를 포함하는 전자 장치 WO2023229136A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202380037673.1A CN119278398A (zh) 2022-05-26 2023-01-09 镜头组件和包括该镜头组件的电子设备
EP23811925.9A EP4481460A4 (en) 2022-05-26 2023-01-09 LENS ARRANGEMENT AND ELECTRONIC DEVICE THEREOF
US18/156,799 US20230384566A1 (en) 2022-05-26 2023-01-19 Lens assembly and electronic device including same
US18/323,822 US20230388616A1 (en) 2022-05-26 2023-05-25 Image-capturing device and electronic device including same

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0064897 2022-05-26
KR20220064897 2022-05-26
KR20220117071 2022-09-16
KR10-2022-0117071 2022-09-16

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US18/156,799 Continuation US20230384566A1 (en) 2022-05-26 2023-01-19 Lens assembly and electronic device including same
US18/323,822 Continuation-In-Part US20230388616A1 (en) 2022-05-26 2023-05-25 Image-capturing device and electronic device including same

Publications (1)

Publication Number Publication Date
WO2023229136A1 true WO2023229136A1 (ko) 2023-11-30

Family

ID=88919418

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/000385 WO2023229136A1 (ko) 2022-05-26 2023-01-09 렌즈 어셈블리 및 그를 포함하는 전자 장치

Country Status (2)

Country Link
KR (1) KR102746331B1 (ko)
WO (1) WO2023229136A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000016001U (ko) * 1999-01-21 2000-08-16 이중구 대물부에 편차 프리즘을 구비한 실상식 파인더
KR100626551B1 (ko) * 2001-12-04 2006-09-22 펜탁스 가부시키가이샤 정립 관찰 광학계
KR20170056255A (ko) * 2015-11-13 2017-05-23 삼성전자주식회사 망원렌즈 및 촬상장치
KR20200087214A (ko) * 2017-12-21 2020-07-20 애플 인크. 접이식 렌즈 시스템
US20210048628A1 (en) * 2017-07-23 2021-02-18 Corephotonics Ltd. Compact folded lenses with large apertures

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5482785B2 (ja) * 2009-03-10 2014-05-07 コニカミノルタ株式会社 撮像光学系,撮像光学装置及びデジタル機器
EP3696587B1 (en) * 2015-04-16 2023-09-20 Corephotonics Ltd. Auto focus and optical image stabilization in a compact folded camera
KR20200143920A (ko) * 2019-06-17 2020-12-28 엘지이노텍 주식회사 렌즈 모듈 및 이를 포함하는 카메라 장치
US11933949B2 (en) * 2019-09-27 2024-03-19 Apple Inc. Freeform folded optical system
US11762174B2 (en) * 2020-09-24 2023-09-19 Apple Inc. Optical system including lenses and prism for telephoto cameras

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000016001U (ko) * 1999-01-21 2000-08-16 이중구 대물부에 편차 프리즘을 구비한 실상식 파인더
KR100626551B1 (ko) * 2001-12-04 2006-09-22 펜탁스 가부시키가이샤 정립 관찰 광학계
KR20170056255A (ko) * 2015-11-13 2017-05-23 삼성전자주식회사 망원렌즈 및 촬상장치
US20210048628A1 (en) * 2017-07-23 2021-02-18 Corephotonics Ltd. Compact folded lenses with large apertures
KR20200087214A (ko) * 2017-12-21 2020-07-20 애플 인크. 접이식 렌즈 시스템

Also Published As

Publication number Publication date
KR20230165147A (ko) 2023-12-05
KR102746331B1 (ko) 2024-12-26

Similar Documents

Publication Publication Date Title
WO2022092517A1 (ko) 디스플레이를 포함하는 웨어러블 전자 장치, 그 디스플레이를 제어하는 방법, 및 그 웨어러블 전자 장치 및 케이스를 포함하는 시스템
WO2022169332A1 (ko) 렌즈 어셈블리 및 이를 포함한 전자 장치
WO2023136427A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2023013846A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2022270734A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2023018092A1 (ko) 카메라 모듈을 포함하는 전자 장치
WO2023017955A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2022114619A1 (ko) 렌즈 어셈블리를 포함하는 전자 장치
WO2023075067A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2023022438A1 (ko) 폴디드 광학계를 포함하는 카메라 모듈
WO2022260238A1 (ko) 카메라 모듈 및 카메라 모듈을 포함하는 전자 장치
WO2023229136A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2024258064A1 (ko) 촬상 장치 및 그를 포함하는 전자 장치
WO2023229150A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2025048176A1 (ko) 카메라 모듈 및 그를 포함하는 전자 장치
WO2022250474A1 (ko) 렌즈 어셈블리 및 이를 포함한 전자 장치
WO2023243861A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2023229174A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2023085574A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2023158081A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2025105866A1 (ko) 렌즈 어셈블리 및 이를 포함한 전자 장치
WO2024205355A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2024085609A1 (ko) 렌즈 어셈블리 및 그를 포함하는 전자 장치
WO2025095763A1 (ko) 카메라 모듈 및 그를 포함하는 전자 장치
WO2024076081A1 (ko) 렌즈 어셈블리 및 이를 포함한 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23811925

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 23811925.9

Country of ref document: EP

Ref document number: 2023811925

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2023811925

Country of ref document: EP

Effective date: 20240916

WWE Wipo information: entry into national phase

Ref document number: 202417090757

Country of ref document: IN

NENP Non-entry into the national phase

Ref country code: DE