CN113542580B - 去除眼镜光斑的方法、装置及电子设备 - Google Patents
去除眼镜光斑的方法、装置及电子设备 Download PDFInfo
- Publication number
- CN113542580B CN113542580B CN202010323054.7A CN202010323054A CN113542580B CN 113542580 B CN113542580 B CN 113542580B CN 202010323054 A CN202010323054 A CN 202010323054A CN 113542580 B CN113542580 B CN 113542580B
- Authority
- CN
- China
- Prior art keywords
- image
- glasses
- preview image
- shooting
- marking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Controls And Circuits For Display Device (AREA)
- Studio Devices (AREA)
Abstract
本申请实施例提供一种去除眼镜光斑的方法、装置及电子设备,该方法包括:在接收到快门指令之前,获取拍摄对象的预览图像;根据所述预览图像中的目标特征信息,标记所述预览图像中的光斑区域;接收所述快门指令,获取待处理图像,所述待处理图像为标记所述光斑区域的图像;去除所述待处理图像中的所述光斑区域,得到目标图像。本申请实施例,可以很好的预测图像中的眼镜光斑的分布,从而提高了后期处理的效率,降低了处理成本,改善了戴眼镜的用户在通过屏幕补光进行拍摄时的照片质量。
Description
技术领域
本申请属于信息处理技术领域,尤其涉及去除眼镜光斑的方法、装置及电子设备。
背景技术
随着电子设备的发展与普及,电子设备的照相功能也越来越强大。手机的便携性,使其成为人们日常拍照的首要选择,以随时随地记录人们的生活。
目前,在夜晚或者光线较弱的情况下,进行人像拍照过程中,会通过屏幕拍照瞬间全白或者预览界面屏幕四周高亮进行补光,照亮环境后,改善暗光下的拍摄效果。然而,对于戴眼镜的用户在通过屏幕补光进行拍摄时,尤其在自拍过程中,会在镜片上出现带有颜色的光斑,造成眼部细节丢失,严重影响了拍摄效果;由于眼镜反射光斑的复杂性,无法很好的预测光斑的分布,使得后期处理效率较低、成本较高,导致拍摄照片质量下降。
发明内容
本申请公开了一种去除眼镜光斑的方法、装置及电子设备,可以很好的预测图像中光斑的分布,提高后期的图像处理效率及戴眼镜的用户在通过屏幕补光进行拍摄时的照片质量。
第一方面,本申请实施例提供一种去除眼镜光斑的方法,该方法包括在接收到快门指令之前,获取拍摄对象的预览图像;根据所述预览图像中的目标特征信息,标记所述预览图像中的光斑区域;接收所述快门指令,获取待处理图像,所述待处理图像为标记所述光斑区域的图像;去除所述待处理图像中的所述光斑区域,得到目标图像。
通过本申请实施例,拍照过程中,电子设备通过对预览图像中的眼镜光斑区域进行标记,在采集到标记眼镜光斑的待处理图像后,去除待处理图像中的眼镜光斑区域,得到保留对应光斑区域拍摄对象的细节特征的目标图像;通过预测图像中光斑的分布与对光斑的标记,以及去除图像中的光斑区域,提高了后期图像处理效率;同时,提高了戴眼镜的用户在通过屏幕补光进行拍摄时的照片质量。
结合第一方面,在一些实施例中,所述根据所述预览图像中的目标特征信息,标记所述预览图像中的光斑区域,包括:
根据所述预览图像中的目标特征信息,确定拍摄装置与拍摄对象的轴向距离,其中所述目标特征信息包括预览图像中的眼镜区域;根据所述轴向距离及所述拍摄装置的屏幕尺寸信息,确定所述拍摄装置的屏幕在所述拍摄对象的眼镜上的投影信息;根据所述投影信息及拍摄装置的焦距,确定在所述预览图像中的眼镜区域的光斑区域。
上述的识别眼镜光斑区域的方法中,电子设备在拍照过程中,接收到快门指令之前,通过对预览图像的处理,确定拍摄装置的屏幕在拍摄对象的眼镜上的投影信息,进一步根据投影信息确定预览图像中的光斑信息,可以很好的预测并确定光斑在图像中的分布及大小,为拍照后期图像处理提供了更加准确、可靠的参考,提高了后期对图像处理的效率,降低了图像处理的成本,进一步提高了戴眼镜的用户在通过屏幕补光进行拍摄时的拍照效果以及照片质量。
结合第一方面,在一些实施例中,在所述根据所述预览图像中的目标特征信息,确定拍摄装置与拍摄对象的轴向距离之前,包括:
提取所述预览图像中,人脸区域的面部特征点;根据所述面部特征点,标记所述预览图像中的所述目标特征信息。
示例性的,通过提取预览图像中人脸区域的面部特征点,可以定位人脸轮廓及面部五官分别所在预览图像中的区域信息。从而可以根据人脸轮廓及面部五官分别所在预览图像中的区域信息标记所需要的目标特征信息,例如预览图像中的瞳距信息、根据五官中眼睛区域确定的眼镜区域等;从而实现对预览图像中的可能出现光斑区域的预测及定位,为后续处理提供可靠的数据基础及运算依据。
结合第一方面,在一些实施例中,所述面部特征点包括眼部特征点;
所述根据所述面部特征点,标记所述预览图像中的所述目标特征信息,包括:
根据所述眼部特征点的坐标,标记所述预览图像中的第一瞳孔距离。
可以理解的,根据眼部特征点可以确定眼部区域,从而可以根据眼部区域的坐标信息确定在预览图像中的第一瞳孔距离,即实际瞳孔距离所对应的成像中的瞳孔距离。
结合第一方面,在一些实施例中,所述根据所述预览图像中的目标特征信息,确定拍摄装置与拍摄对象的轴向距离,包括:
根据所述预览图像中的所述第一瞳孔距离、预设的第二瞳孔距离以及所述拍摄装置的焦距,计算拍摄装置与拍摄对象的眼镜的轴向距离。
通过上述实施例,电子设备存储预设的第二瞳孔距离,第二瞳孔距离可以为人们常规的瞳孔距离,例如人眼一般的瞳孔距离为63毫米;电子设备可以通过检测到人脸进行自动对焦,在对焦后,可以确定焦距;根据相机成像原理,以及第一瞳孔距离、第二瞳孔距离、焦距,可以计算得到拍摄装置与拍摄对象中的眼镜的轴向距离,或者x轴方向的距离,进而可以确定拍摄对象的位置信息。
结合第一方面,在一些实施例中,所述根据所述轴向距离及所述拍摄装置的屏幕尺寸信息,确定所述拍摄装置的屏幕在所述拍摄对象的眼镜上的投影信息,包括:
根据所述预览图像中的目标特征信息,确定所述拍摄对象的第一角度信息;通过所述拍摄装置的方向传感器,获取所述拍摄装置的第二角度信息;根据所述第一角度信息、所述第二角度信息、所述轴向距离及所述拍摄装置的屏幕尺寸,确定所述拍摄装置的屏幕在所述拍摄对象的眼镜上的投影位置及投影大小。
通过上述实施例,电子设备可以根据标记眼镜区域的图像,确定拍摄对象在三维空间坐标系中的第一角度信息;根据方向传感器确定拍摄装置在三维空间坐标系中的第二角度信息,根据所述第一角度信息、所述第二角度信息、所述轴向距离及所述拍摄装置的屏幕尺寸,计算拍摄装置的屏幕在拍摄对象的眼镜上的投影信息,从而初步确定在拍摄对象上可以产生反光的区域。克服了拍照过程中确定反光区域的复杂性的问题,在接收到快门指令之前可以根据角度信息及距离信息预测拍摄对象的眼镜可以产生反光的区域,为后续图像处理提供可靠的依据,并提高图像处理效率。
结合第一方面,在一些实施例中,所述投影信息包括投影位置和投影大小;
所述根据所述投影信息及拍摄装置的焦距,确定在所述预览图像中的眼镜区域的光斑区域,包括:
根据所述拍摄装置的屏幕在所述拍摄对象的眼镜上的投影位置及所述拍摄装置的焦距,计算所述光斑区域在所述预览图像中的眼镜区域的位置;根据所述拍摄装置的屏幕在所述拍摄对象的眼镜上的投影大小及所述拍摄装置的焦距,计算所述光斑区域在所述预览图像中的眼镜区域的大小。
结合第一方面,在一些实施例中,所述面部特征点包括眼部特征点;
所述根据所述面部特征点,标记所述预览图像中的所述目标特征信息,包括:
根据所述眼部特征点的坐标,标记所述预览图像中的眼部区域;将标记所述眼部区域的图像输入至图像识别模型,得到所述图像识别模型输出的标记所述眼镜区域的图像;其中,所述图像识别模型为通过第一图像训练集和第二图像训练集训练得到的,所述第一图像训练集为有眼镜的图像训练集,第二图像训练集为无眼镜的图像训练集。
可理解的,所述图像识别模型可以为对抗性的神经网络模型,通过第一图像训练集和第二图像训练集对对抗性的神经网络模型进行迭代训练,得到可以更加准确的、可识别出预览图像中眼镜区域的图像识别模型,从而得到标记所述眼镜区域的图像。
结合第一方面,在一些实施例中,所述将标记所述眼部区域的图像输入至图像识别模型,得到所述图像识别模型输出的标记所述眼镜区域的图像之后,包括:
将标记所述眼镜区域的图像输入至神经网络模型,得到神经网络模型输出的标记光斑区域的图像;
其中,所述神经网络模型为标记所述预览图像中的光斑区域的模型,所述神经网络模型根据光斑图像训练集训练得到。
示例性的,在通过屏幕补光进行多人拍摄时,电子设备进行人脸检测,提取多人的面部特征点,通过上述实施方式,判断是否有人戴眼镜以及标记戴眼镜的区域,实现对预览图像中多人的目标特征信息的快速标记。
结合第一方面,在一些实施例中,所述去除所述待处理图像中的所述光斑区域,得到目标图像,包括:
根据预设控制参数,调节所述待处理图像中的所述光斑区域的亮度值与灰度值,得到所述目标图像。
通过上述实施例,电子设备在接收到快门指令后,采集标记光斑区域的待处理图像,通过调整光斑区域的像素的亮度值及灰度值,保留光斑区域的细节信息,得到去除光斑区域的目标图像。
第二方面,本申请实施例提供一种去除眼镜光斑的装置,该装置包括:
获取单元,用于在接收到快门指令之前,获取拍摄对象的预览图像;
计算单元,用于根据所述预览图像中的目标特征信息,标记所述预览图像中的光斑区域;
采集单元,用于接收所述快门指令,获取待处理图像,所述待处理图像为标记所述光斑区域的图像;
处理单元,用于去除所述待处理图像中的所述光斑区域,得到目标图像。
第三方面,本申请实施例提供一种电子设备,包括:一个或多个处理器、存储器、显示屏及拍摄装置;所述存储器、所述显示屏、所述拍摄装置与所述一个或多个处理器耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令;当所述一个或多个处理器执行所述计算机指令时,使得所述电子设备执行如第一方面及第一方面任一种可能的实施方式提供的方法。
第四方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括指令,所述指令在电子设备上运行时,使得所述电子设备执行如第一方面及第一方面任一种可能的实施方式提供的方法。
第五方面,本申请实施例提供一种包含指令的计算机程序产品,所述计算机程序产品在电子设备上运行时,使得电子设备执行如第一方面及第一方面任一种可能的实施方式提供的方法。
可以理解地,上述提供的第二方面所述的去除眼镜光斑的装置、第三方面所述的电子设备、第四方面所述的计算机可读存储介质或者第五方面所述的包含指令的计算机程序产品均用于执行第一方面中任一所提供的方法。因此,其所能达到的有益效果可参考对应方法中的有益效果,此处不再赘述。
附图说明
下面对本申请实施例用到的附图进行介绍。
图1是本申请实施例提供的电子设备100的结构示意图;
图2是本申请实施例的电子设备100的软件结构框图;
图3中的(A)是本申请实施例提供的一种拍照场景示意图;
图3中的(B)是本申请实施例提供的另一种拍照场景示意图;
图4是本申请实施例提供的相机成像的原理的示意图;
图5是本申请实施例提供的确定拍摄装置与拍摄对象的轴向距离的示意图;
图6是本申请实施例提供的投影原理示意图;
图7是本申请实施例提供的在拍摄对象的眼镜上确定反光区域的示意图;
图8是本申请实施例提供的标记光斑区域的待处理图像的示意图;
图9是本申请实施例提供的多人拍摄场景的光斑标记的示意图;
图10是本申请实施例提供的对光斑区域处理后输出的目标图像的示意图;
图11是本申请实施例提供的一种拍照过程识别眼镜光斑区域的方法的流程示意图;
图12是本申请实施例提供的拍照过程识别眼镜光斑区域的装置的结构示意图。
具体实施方式
下面结合本申请实施例中的附图对本申请实施例进行描述。本申请实施例的实施方式部分使用的术语仅用于对本申请的具体实施例进行解释,而非旨在限定本申请。
首先介绍本申请实施例涉及的电子设备。请参阅图1,图1是本申请实施例提供的电子设备100的结构示意图。
电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本发明实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是电子设备100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头193等。例如:处理器110可以通过I2C接口耦合触摸传感器180K,使处理器110与触摸传感器180K通过I2C总线接口通信,实现电子设备100的触摸功能。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一些实施例中,音频模块170可以通过I2S接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。在一些实施例中,音频模块170也可以通过PCM接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过UART接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块170可以通过UART接口向无线通信模块160传递音频信号,实现通过蓝牙耳机播放音乐的功能。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现电子设备100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现电子设备100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为电子设备100充电,也可以用于电子设备100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备100的结构限定。在本申请另一些实施例中,电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过电子设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,外部存储器,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
电子设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在电子设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在电子设备100上的包括无线局域网(wirelesslocal areanetworks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,电子设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得电子设备100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code division multipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidounavigation satellite system,BDS),准天顶卫星系统(quasi-zenith satellitesystem,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
电子设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantumdot lightemitting diodes,QLED)等。在一些实施例中,电子设备100可以包括1个或N个显示屏194,N为大于1的正整数。
电子设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现电子设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行电子设备100的各种功能应用以及数据处理。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
电子设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。电子设备100可以设置至少一个麦克风170C。在另一些实施例中,电子设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。电子设备100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,电子设备100根据压力传感器180A检测所述触摸操作强度。电子设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定电子设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测电子设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
气压传感器180C用于测量气压。在一些实施例中,电子设备100通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。电子设备100可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当电子设备100是翻盖机时,电子设备100可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器180E可检测电子设备100在各个方向上(一般为三轴)加速度的大小。当电子设备100静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。电子设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,电子设备100可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。电子设备100通过发光二极管向外发射红外光。电子设备100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定电子设备100附近有物体。当检测到不充分的反射光时,电子设备100可以确定电子设备100附近没有物体。电子设备100可以利用接近光传感器180G检测用户手持电子设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器180L用于感知环境光亮度。电子设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测电子设备100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。电子设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,电子设备100利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,电子设备100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,电子设备100对电池142加热,以避免低温导致电子设备100异常关机。在其他一些实施例中,当温度低于又一阈值时,电子设备100对电池142的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180K,也称“触控面板”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。电子设备100可以接收按键输入,产生与电子设备100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和电子设备100的接触和分离。电子设备100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。电子设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,电子设备100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在电子设备100中,不能和电子设备100分离。
电子设备100的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本发明实施例以分层架构的Android系统为例,示例性说明电子设备100的软件结构。
图2是本申请实施例的电子设备100的软件结构框图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。
应用程序层可以包括一系列应用程序包。
如图2所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
如图2所示,应用程序框架层可以包括窗口管理器,内容提供器,视图系统,电话管理器,资源管理器,通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供电子设备100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
下面结合捕获拍照场景,示例性说明电子设备100软件以及硬件的工作流程。
当触摸传感器180K接收到触摸操作,相应的硬件中断被发给内核层。内核层将触摸操作加工成原始输入事件(包括触摸坐标,触摸操作的时间戳等信息)。原始输入事件被存储在内核层。应用程序框架层从内核层获取原始输入事件,识别该输入事件所对应的控件。以该触摸操作是触摸单击操作,该单击操作所对应的控件为相机应用图标的控件为例,相机应用调用应用框架层的接口,启动相机应用,进而通过调用内核层启动摄像头驱动,通过摄像头193捕获静态图像或视频。
目前,随着科技的进步,电子设备的照相功能越来越强大,拍摄装置的像素数也越来越高,图像越来越清晰。以手机终端为例,拍摄功能越来越全面,加之其便携的特性,手机拍照成为人们日常拍摄的首选。在夜晚或者光线较弱的环境下,进行人像自拍时,通常会通过屏幕补光进行拍摄,改善暗光下的拍摄效果;而对于戴眼镜的用户在通过屏幕补光进行人像拍摄时,由于眼镜的反光,电子设备采集到的图像中,会在镜片上出现带有颜色的光斑,呈现局部过曝的状态,造成眼部细节丢失,影响照片的拍摄质量。
本申请实施例提供的去除眼镜光斑的方法适用于通过电子设别的屏幕补光的拍摄场景。参见图3中的(A),是本申请实施例提供的一种拍照场景示意图;当拍摄环境光线较弱时,电子设备在预览界面,通过提高屏幕边框区域的亮度进行补光拍摄。参见图3中的(B),是本申请实施例提供的另一种拍照场景示意图;当拍摄环境光线较弱时,电子设备接收到快门指令时,屏幕瞬间全白(或者屏幕自动曝光Automatic Exposure,AE)照亮用户的脸部,通过提高全屏区域的亮度进行补光拍摄。另外,在屏幕处于高亮度状态进行人像拍摄时,眼镜也可能会产生反光,本申请实施例提供的去除眼镜光斑的方法同样适用于屏幕亮度较高时的人像自拍场景。
本申请实施例提供的去除眼镜光斑的方法,在通过屏幕补光进行人像拍摄时,可以在预览界面获取拍摄对象的预览图像,对预览图像中的光斑区域进行标记,当拍摄装置的传感器采集到带有光斑的图像后,对标记的光斑区域进行去除,得到去除光斑、保留眼部细节的目标图像。
其中,对预览图像中的光斑区域进行标记的方式包括:第一、将预览图像输入至训练好的光斑标记算法模型,得到光斑标记算法模型输出的标记出眼镜光斑区域的图像,光斑标记算法模型可以为神经网络模型,通过带有光斑的图像训练集以及无光斑的图像训练集训练得到;第二、通过投影计算方式确定拍摄装置的屏幕在眼镜上的投影区域,进一步根据投影区域确定预览图像中眼镜上的光斑区域。
通过上述标记方式,可以更加准确的预测图像中光斑的分布,通过对光斑区域的标记,为后期图像处理提供可靠的参考依据,提高后期图像处理的效率,进而提高戴眼镜的用户在通过屏幕补光进行拍摄时的照片质量。
另外,针对标记的光斑区域进行去除的方式包括:调整光斑区域的像素点的亮度值和灰度值,并实现光斑区域的像素点的亮度值及灰度值与相邻区域的平滑过渡;去除光斑区域的方式还包括:直接将标记出的光斑区域的像素点的信息删除,通过训练好的细节回填算法,将对应光斑区域进行眼部细节的补充;从而得到去除光斑、保留眼部细节的目标图像。
下面结合图示,对标记预览图像中光斑区域的第二种标记方式进行详细介绍。
参见图4,是本申请实施例提供的相机成像的原理的示意图,如图4所示,拍摄装置获取拍摄对象P在物理成像平面的图像P',拍摄装置设置有相机坐标系O-x-y-z,物理成像平面设置有图像坐标系O'-x'-y'-z',以及位于物理成像平面的像素平面设置有像素坐标系o-u-v。通过成像原理,在确定拍摄装置的焦距EFL、拍摄对象的物高以及成像的像高,可以计算拍摄装置与拍摄对象的轴向距离(物距),即x轴方向的距离。
其中,物理成像平面的图像坐标系O'-x'-y'-z'和像素平面的像素坐标系o-u-v可以通过预设的坐标关系进行转换。
在本申请的一些实施例中,电子设备在接收到快门指令之前,获取拍摄对象的预览图像,对预览图像进行人脸检测,提取预览图像中人脸区域的面部特征点。面部特征点包括五官区域的特征点及人脸轮廓的特征点。根据预览图像中提取出的面部特征点,标记预览图像中的目标特征信息;其中,目标特征信息包括第一瞳孔距离。
参见图5,是本申请实施例提供的确定拍摄装置与拍摄对象的轴向距离的示意图。面部特征点包括眼部特征点,依据图4中的相机成像原理,得到预览图像中的眼部特征信息。通过提取预览图像中的眼部特征点,获取眼部特征点的坐标,根据眼部特征点的像素坐标或图像坐标,确定预览图像中的第一瞳孔距离,如图5所示的,物理成像平面中的a;其中第一瞳孔距离可以通过像素点表示,还可以通过长度单位直接表示。
在本申请的一些实施例中,电子设备存储有预设的第二瞳孔距离,第二瞳孔距离为常规的人眼瞳距,一般为63毫米左右,如图5中所示的第二瞳孔距离A。根据成像原理,可以计算出拍摄对象的眼镜与拍摄装置的轴向距离,即x轴方向的距离,计算公式如下:
轴向距离D=A/a*OO' (1);
其中,A为第二瞳孔距离,a为预览图像中的第一瞳孔距离,OO'为相机的焦距;电子设备进行预览时,检测到人脸图像时可实现自动对焦,从而确定焦距。
在一些实施例中,通过三维几何投影计算的方式,确定拍摄装置的屏幕在拍摄对象的眼镜上的投影区域。
参见图6,是本申请实施例提供的投影原理示意图。图6所示的投影原理仅作示例性说明,并不仅限于图中所示的投影方式。如图6所示,该投影方式包括斜投影和基于中心点的投影。其中,如图6所示,斜投影中图形ABC通过投射线的投射方向,投影至投影面,得到投影图形abc;投射方向还可以是正投影。基于中心点的投影,以摄像装置的屏幕中心为中心点,眼镜区域为投影面,拍摄装置可以按投射线的投射方向在投影面形成投影区域。在确定拍摄装置的角度信息、拍摄对象的角度信息,以及拍摄装置与拍摄对象的轴向距离,可以在三维坐标系中,计算投影区域的坐标,以确定拍摄装置的屏幕在眼镜区域的投影位置及投影大小。
在一些实施例中,根据拍摄装置的角度信息、拍摄对象的角度信息以及拍摄装置与拍摄对象的距离,可以确定拍摄装置在拍摄对象的眼镜上的投影区域。
参见图7,是本申请实施例提供的在拍摄对象的眼镜上确定反光区域的示意图。通过预览图像中的目标特征信息,确定拍摄对象的第一角度信息。例如通过预览图像中的左眼与右眼的大小比值,确定拍摄对象的转头角度;通过预览图像中人脸轮廓的长和宽的比值,可以确定拍摄对象抬头或者低头的角度,从而确定拍摄对象在三维坐标系中的第一角度信息,如图7所示的,根据预览图像中的目标特征信息确定的拍摄对象的实际角度信息(α1,β1,γ1)。
另外,还可以通过角度算法模型确定拍摄对象的实际角度信息,角度算法模型可以为经过多角度图像训练集训练得到的神经网络模型;将预览图像输入至角度算法模型,角度算法模型可以根据预览图像的特征信息输出拍摄对象的三维角度信息。
在一些实施例中,通过拍摄装置的方向传感器或陀螺仪,可以获取拍摄装置当前状态的三维坐标系中的第二角度信息,如图7中所示的,获取的拍摄装置的角度信息(α2,β2,γ2)。
如表1所示的陀螺仪采集的拍摄装置在三维坐标系中的对应某一时间1.585E+18的数值:
时间 | gyr_x | gyr_y | gyr_z |
1.585E+18 | 0.091752 | 0.175842 | -0.055501 |
表1
通过陀螺仪测量数值与角度的积分换算关系,确定拍摄装置当前时间的在三维坐标系中的角度信息。
其中,拍摄对象的第一角度信息与拍摄装置的第二角度信息属于同一参考坐标系中的角度信息,可以通过变换坐标系原点,进行角度信息的统一;结合拍摄装置与拍摄对象的轴向距离D,以及拍摄装置的屏幕大小(拍摄装置的屏幕尺寸已知),经过投影计算,可以确定拍摄装置的屏幕在拍摄对象的眼镜上的投影信息。如图7中所示的,眼镜上的反光区域即为拍摄装置的屏幕在眼镜上的投影区域。投影信息包括投影区域的投影位置及投影大小。
在一些实施例中,依据相机的成像原理,根据拍摄装置的屏幕在拍摄对象的眼镜上的投影位置及拍摄装置的焦距,计算光斑区域在预览图像中的眼镜区域的位置;根据拍摄装置的屏幕在拍摄对象的眼镜上的投影大小及拍摄装置的焦距,计算光斑区域在预览图像中的眼镜区域的大小;从而确定并标记光斑在预览图像中的分布信息(如图8中所示的标记光斑区域对应的图像示例)。
通过上述实施例,电子设备可以根据预览图像中的目标特征信息,确定拍摄对象在三维空间坐标系中的第一角度信息;根据方向传感器确定拍摄装置在三维空间坐标系中的第二角度信息;根据所述第一角度信息、所述第二角度信息、所述轴向距离及所述拍摄装置的屏幕尺寸,计算拍摄装置的屏幕在拍摄对象的眼镜上的投影信息,从而初步确定在拍摄对象上可以产生反光的区域。克服了拍照过程中确定反光区域的复杂性的问题,在接收到快门指令之前可以根据角度信息及距离信息预测拍摄对象的眼镜可以产生反光的区域,为后续图像处理提供可靠的数据依据,并提高图像处理效率。
通过本申请实施例,电子设备在拍照过程中,接收到快门指令之前,通过对预览图像的处理,确定拍摄装置的屏幕在拍摄对象的眼镜上的投影信息,进一步根据投影信息确定预览图像中的光斑信息,可以很好的预测并确定光斑在图像中的分布及大小,为拍照后期图像处理提供了更加准确、可靠的参考依据,提高了后期对图像处理的效率,降低了图像处理的成本,进一步提高了戴眼镜的用户在通过屏幕补光进行拍摄时的拍照效果以及照片质量。
参见图8,是本申请实施例提供的标记光斑区域的待处理图像的示意图。
在一些实施例中,面部特征点包括眼部特征点;根据眼部特征点的坐标,标记预览图像中的眼部区域;将标记眼部区域的图像输入至图像识别模型,得到图像识别模型输出的标记眼镜区域的图像(如图8中所示的标记眼镜区域对应的图像示例);其中,图像识别模型为通过第一图像训练集和第二图像训练集训练得到的,第一图像训练集为有眼镜的图像训练集,第二图像训练集为无眼镜的图像训练集。
可理解的,图像识别模型可以为对抗神经网络模型,通过第一图像训练集和第二图像训练集对对抗神经网络模型进行迭代训练,得到可以更加准确的识别出预览图像中眼镜区域的图像识别模型,从而得到标记眼镜区域的图像(如图8中所示的标记眼镜区域对应的图像示例)。
在一些实施例中,将标记所述眼镜区域的图像输入至神经网络模型,得到神经网络模型输出的标记光斑区域的图像(如图8中所示的标记光斑区域对应的图像示例);其中,神经网络模型为标记预览图像中的光斑区域的模型,神经网络模型根据光斑图像训练集训练得到。
参见图9,是本申请实施例提供的多人拍摄场景的光斑标记的示意图,在通过屏幕补光进行多人拍摄时,电子设备进行人脸检测,提取多人的面部特征点,获取预览图像中的多个对象的目标特征信息;通过上述实施方式,判断是否有人戴眼镜以及标记眼镜区域。通过提取面部特征点,确定多人的眼部特征点,根据多人的眼部特征点确定分别对应的眼部区域,根据眼部区域预估并标记眼镜区域;或者将标记多个眼部区域的图像输入至图像识别模型,得到图像识别模型输出的标记至少一个眼镜区域的图像(如图9中所示的标记眼镜区域对应的图像示例)。通过获取拍摄装置在多个拍摄对象的眼镜上的投影区域,依据相机成像原理,确定并标记预览图像中,眼镜区域上的与投影区域对应的光斑区域;或者将标记多个眼镜区域的图像输入至神经网络模型,得到神经网络模型输出的标记多个光斑区域的图像(如图9中所示的标记光斑区域对应的图像示例)。从而实现对预览图像中多个眼镜区域及多个光斑区域的快速标记。
通过本申请实施例,电子设备在拍照过程中,接收到快门指令之前,通过对预览图像的处理,确定拍摄装置的屏幕在拍摄对象的眼镜上的投影信息,进一步根据投影信息确定预览图像中的光斑信息,可以很好的预测并确定光斑在图像中的分布及大小,为拍照后期图像处理提供了更加准确、可靠的参考依据,提高了后期对图像处理的效率,降低了图像处理的成本,进一步提高了戴眼镜的用户在通过屏幕补光进行拍摄时的拍照效果以及照片质量。
参见图10,是本申请实施例提供的对光斑区域处理后输出的目标图像的示意图。如图所示,经过标记流程后获取待处理图像,待处理图像包括标记出的光斑区域,经过后期图像处理,去除掉光斑区域,得到无光斑区域、保留图像细节的目标图像。
在一些实施例中,去除所述待处理图像中的所述光斑区域,得到目标图像,包括:根据预设控制参数,调节所述待处理图像中的所述光斑区域的亮度值与灰度值,得到所述目标图像。
其中,控制参数包括光斑区域与相邻的阈值范围内的像素点的灰阶过度参数等,保证光斑区域与周边相邻的图像区域形成平滑的过度,避免画面的突变。
另外,摄像装置通过传感器可以采集到高动态范围图像(High-Dynamic Range,HDR),可以提供更多的动态范围和图像细节,根据不同的曝光时间的动态范围图像,并利用每个曝光时间相对应最佳细节的低动态范围图像,合成最终的HDR图像;便于在后期通过调整光斑区域的亮度值及灰度值处理时,保留更多的图像的细节信息。
在一些实施例中,通过预制的带有眼镜的图像训练集、无眼镜的图像训练集,对神经网络模型进行训练,通过机器学习确定眼镜区域;通过带有光斑的图像训练集及无光斑的图像训练集,训练神经网络模型,通过机器学习获取眼镜上光斑区域;利用多帧曝光的策略,在采集最后一帧时,获取不带屏幕补光的图像,直接获取没有反光的照片,与现有反光照片进行高频分量的对比,标记出反光区域;利用单帧降噪,提亮无反光照片中眼镜的区域,同时利用该图像去除眼镜上的光斑区域以及对眼部细节进行回填。
参见图11,是本申请实施例提供的一种去除眼镜光斑的方法的流程示意图。如图11所示,该方法包括以下步骤:
步骤S1101,在接收到快门指令之前,获取拍摄对象的预览图像;
步骤S1102,根据所述预览图像中的目标特征信息,标记所述预览图像中的光斑区域;
步骤S1103,接收所述快门指令,获取待处理图像,所述待处理图像为标记所述光斑区域的图像;
步骤S1104,去除所述待处理图像中的所述光斑区域,得到目标图像。
通过本申请实施例,拍照过程中,电子设备通过对预览图像中的眼镜光斑区域进行标记,在采集到标记眼镜光斑的待处理图像后,去除待处理图像中的眼镜光斑区域,得到保留对应光斑区域拍摄对象的细节特征的目标图像;通过预测图像中光斑的分布与对光斑的标记,以及去除图像中的光斑区域,提高了后期图像处理效率;同时,提高了戴眼镜的用户在通过屏幕补光进行拍摄时的照片质量。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的去除眼镜光斑的方法以及应用场景的实施例,图12示出了本申请另一实施例提供的去除眼镜光斑的装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图12,该装置包括获取单元1201,计算单元1202、采集单元1203以及处理单元1204。其中,各单元功能如下:
获取单元,用于在接收到快门指令之前,获取拍摄对象的预览图像;
计算单元,用于根据所述预览图像中的目标特征信息,标记所述预览图像中的光斑区域;
采集单元,用于接收所述快门指令,获取待处理图像,所述待处理图像为标记所述光斑区域的图像;
处理单元,用于去除所述待处理图像中的所述光斑区域,得到目标图像。
通过本申请实施例,电子设备在拍照过程中,接收到快门指令之前,通过对预览图像的处理,确定拍摄装置的屏幕在拍摄对象的眼镜上的投影信息,进一步根据投影信息确定预览图像中的光斑信息,可以很好的预测并确定光斑在图像中的分布及大小,为拍照后期处理提供了更加准确、可靠的参考依据,提高了后期对图像处理的效率,降低了图像处理的成本,进一步提高了戴眼镜的用户在通过屏幕补光进行拍摄时的拍照效果以及照片质量。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供了一种电子设备,所述电子设备包括一个或多个处理器、存储器、显示屏及拍摄装置;所述存储器、所述显示屏、所述拍摄装置与所述一个或多个处理器耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令;当所述一个或多个处理器执行所述计算机指令时,使得所述电子设备执行任一项去除眼镜光斑的方法。所述电子设备可以为手机、平板、智能手表等终端设备。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括指令,所述指令在电子设备上运行时,使得计算机或处理器执行上述任一个方法中的一个或多个步骤。
本申请实施例还提供了一种包含指令的计算机程序产品。当该计算机程序产品在电子设备上或处理器上运行时,使得计算机或处理器执行上述任一个方法中的一个或多个步骤。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者通过所述计算机可读存储介质进行传输。所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如,固态硬盘(solid state disk,SSD))等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,该流程可以由计算机程序来指令相关的硬件完成,该程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。而前述的存储介质包括:ROM或随机存储记忆体RAM、磁碟或者光盘等各种可存储程序代码的介质。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读存储介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random AccessMemory,RAM)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
Claims (12)
1.一种去除眼镜光斑的方法,其特征在于,包括:
在接收到快门指令之前,获取拍摄对象的预览图像;
根据所述预览图像中的目标特征信息,标记所述预览图像中的光斑区域;
接收所述快门指令,获取待处理图像,所述待处理图像为标记所述光斑区域的图像;
去除所述待处理图像中的所述光斑区域,得到目标图像;
所述根据所述预览图像中的目标特征信息,标记所述预览图像中的光斑区域,包括:
根据所述预览图像中的目标特征信息,确定拍摄装置与拍摄对象的轴向距离,其中所述目标特征信息包括预览图像中的眼镜区域;
根据所述轴向距离及所述拍摄装置的屏幕尺寸信息,确定所述拍摄装置的屏幕在所述拍摄对象的眼镜上的投影信息;
根据所述投影信息及拍摄装置的焦距,确定在所述预览图像中的眼镜区域的光斑区域。
2.根据权利要求1所述的方法,其特征在于,在所述根据所述预览图像中的目标特征信息,确定拍摄装置与拍摄对象的轴向距离之前,包括:
提取所述预览图像中,人脸区域的面部特征点;
根据所述面部特征点,标记所述预览图像中的所述目标特征信息。
3.根据权利要求2所述的方法,其特征在于,所述面部特征点包括眼部特征点;
所述根据所述面部特征点,标记所述预览图像中的所述目标特征信息,包括:
根据所述眼部特征点的坐标,标记所述预览图像中的第一瞳孔距离。
4.根据权利要求3所述的方法,其特征在于,所述根据所述预览图像中的目标特征信息,确定拍摄装置与拍摄对象的轴向距离,包括:
根据所述预览图像中的所述第一瞳孔距离、预设的第二瞳孔距离以及所述拍摄装置的焦距,计算拍摄装置与拍摄对象的眼镜的轴向距离。
5.根据权利要求1所述的方法,其特征在于,所述根据所述轴向距离及所述拍摄装置的屏幕尺寸信息,确定所述拍摄装置的屏幕在所述拍摄对象的眼镜上的投影信息,包括:
根据所述预览图像中的目标特征信息,确定所述拍摄对象的第一角度信息;
通过所述拍摄装置的方向传感器,获取所述拍摄装置的第二角度信息;
根据所述第一角度信息、所述第二角度信息、所述轴向距离及所述拍摄装置的屏幕尺寸,确定所述拍摄装置的屏幕在所述拍摄对象的眼镜上的投影位置及投影大小。
6.根据权利要求1所述的方法,其特征在于,所述投影信息包括投影位置和投影大小;
所述根据所述投影信息及拍摄装置的焦距,确定在所述预览图像中的眼镜区域的光斑区域,包括:
根据所述拍摄装置的屏幕在所述拍摄对象的眼镜上的投影位置及所述拍摄装置的焦距,计算所述光斑区域在所述预览图像中的眼镜区域的位置;
根据所述拍摄装置的屏幕在所述拍摄对象的眼镜上的投影大小及所述拍摄装置的焦距,计算所述光斑区域在所述预览图像中的眼镜区域的大小。
7.根据权利要求2所述的方法,其特征在于,所述面部特征点包括眼部特征点;
所述根据所述面部特征点,标记所述预览图像中的所述目标特征信息,包括:
根据所述眼部特征点的坐标,标记所述预览图像中的眼部区域;
将标记所述眼部区域的图像输入至图像识别模型,得到所述图像识别模型输出的标记所述眼镜区域的图像;
其中,所述图像识别模型为通过第一图像训练集和第二图像训练集训练得到的,所述第一图像训练集为有眼镜的图像训练集,第二图像训练集为无眼镜的图像训练集。
8.根据权利要求7所述的方法,其特征在于,在所述将标记所述眼部区域的图像输入至图像识别模型,得到所述图像识别模型输出的标记所述眼镜区域的图像之后,包括:
将标记所述眼镜区域的图像输入至神经网络模型,得到神经网络模型输出的标记光斑区域的图像;
其中,所述神经网络模型为标记所述预览图像中的光斑区域的模型,所述神经网络模型根据光斑图像训练集训练得到。
9.根据权利要求1所述的方法,其特征在于,所述去除所述待处理图像中的所述光斑区域,得到目标图像,包括:
根据预设控制参数,调节所述待处理图像中的所述光斑区域的亮度值与灰度值,得到所述目标图像。
10.一种去除眼镜光斑的装置,其特征在于,包括:
获取单元,用于在接收到快门指令之前,获取拍摄对象的预览图像;
计算单元,用于根据所述预览图像中的目标特征信息,标记所述预览图像中的光斑区域,所述光斑区域在所述预览图像中的眼镜区域中;
采集单元,用于接收所述快门指令,获取待处理图像,所述待处理图像为标记所述光斑区域的图像;
处理单元,用于去除所述待处理图像中的所述光斑区域,得到目标图像;
所述计算单元,具体用于:
根据所述预览图像中的目标特征信息,确定拍摄装置与拍摄对象的轴向距离,其中所述目标特征信息包括预览图像中的眼镜区域;
根据所述轴向距离及所述拍摄装置的屏幕尺寸信息,确定所述拍摄装置的屏幕在所述拍摄对象的眼镜上的投影信息;
根据所述投影信息及拍摄装置的焦距,确定在所述预览图像中的眼镜区域的光斑区域。
11.一种电子设备,其特征在于,所述电子设备包括一个或多个处理器、存储器、显示屏及拍摄装置;
所述存储器、所述显示屏、所述拍摄装置与所述一个或多个处理器耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令;
当所述一个或多个处理器执行所述计算机指令时,使得所述电子设备执行如权利要求1-9中任一项所述的去除眼镜光斑的方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括指令,所述指令在电子设备上运行时,使得所述电子设备执行如权利要求1至9任一项所述去除眼镜光斑的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010323054.7A CN113542580B (zh) | 2020-04-22 | 2020-04-22 | 去除眼镜光斑的方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010323054.7A CN113542580B (zh) | 2020-04-22 | 2020-04-22 | 去除眼镜光斑的方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113542580A CN113542580A (zh) | 2021-10-22 |
CN113542580B true CN113542580B (zh) | 2022-10-28 |
Family
ID=78124099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010323054.7A Active CN113542580B (zh) | 2020-04-22 | 2020-04-22 | 去除眼镜光斑的方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113542580B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115580690B (zh) * | 2022-01-24 | 2023-10-20 | 荣耀终端有限公司 | 图像处理的方法和电子设备 |
CN117541478B (zh) * | 2022-02-28 | 2025-01-07 | 荣耀终端有限公司 | 图像处理方法及其相关设备 |
CN114418897B (zh) * | 2022-03-10 | 2022-07-19 | 深圳市一心视觉科技有限公司 | 眼部光斑图像的修复方法、装置、终端设备及存储介质 |
CN117078558B (zh) * | 2023-09-22 | 2024-08-23 | 荣耀终端有限公司 | 图像处理的方法及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103793719A (zh) * | 2014-01-26 | 2014-05-14 | 深圳大学 | 一种基于人眼定位的单目测距方法和系统 |
CN108093170A (zh) * | 2017-11-30 | 2018-05-29 | 广东欧珀移动通信有限公司 | 用户拍照方法、装置及设备 |
CN108564540A (zh) * | 2018-03-05 | 2018-09-21 | 广东欧珀移动通信有限公司 | 去除图像中镜片反光的图像处理方法、装置和终端设备 |
CN110223237A (zh) * | 2019-04-23 | 2019-09-10 | 维沃移动通信有限公司 | 调节图像参数的方法及终端设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3048788B1 (fr) * | 2016-03-11 | 2019-04-05 | Valeo Vision | Projecteur d'image par ecran avec source lumineuse a batonnets electroluminescents |
-
2020
- 2020-04-22 CN CN202010323054.7A patent/CN113542580B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103793719A (zh) * | 2014-01-26 | 2014-05-14 | 深圳大学 | 一种基于人眼定位的单目测距方法和系统 |
CN108093170A (zh) * | 2017-11-30 | 2018-05-29 | 广东欧珀移动通信有限公司 | 用户拍照方法、装置及设备 |
CN108564540A (zh) * | 2018-03-05 | 2018-09-21 | 广东欧珀移动通信有限公司 | 去除图像中镜片反光的图像处理方法、装置和终端设备 |
CN110223237A (zh) * | 2019-04-23 | 2019-09-10 | 维沃移动通信有限公司 | 调节图像参数的方法及终端设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113542580A (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112130742B (zh) | 一种移动终端的全屏显示方法及设备 | |
CN113132620B (zh) | 一种图像拍摄方法及相关装置 | |
CN110506416B (zh) | 一种终端切换摄像头的方法及终端 | |
CN109951633B (zh) | 一种拍摄月亮的方法和电子设备 | |
CN112887583B (zh) | 一种拍摄方法及电子设备 | |
WO2020029306A1 (zh) | 一种图像拍摄方法及电子设备 | |
CN114650363B (zh) | 一种图像显示的方法及电子设备 | |
CN111510626B (zh) | 图像合成方法及相关装置 | |
CN113542580B (zh) | 去除眼镜光斑的方法、装置及电子设备 | |
CN114365482A (zh) | 一种基于Dual Camera+TOF的大光圈虚化方法 | |
CN114095666A (zh) | 拍照方法、电子设备和计算机可读存储介质 | |
CN110138999B (zh) | 一种用于移动终端的证件扫描方法及装置 | |
CN113467735A (zh) | 图像调整方法、电子设备及存储介质 | |
CN113573390A (zh) | 天线功率调节方法、终端设备及存储介质 | |
CN113810603B (zh) | 点光源图像检测方法和电子设备 | |
CN111741284A (zh) | 图像处理的装置和方法 | |
CN110286975B (zh) | 一种前景元素的显示方法和电子设备 | |
CN112150499B (zh) | 图像处理方法及相关装置 | |
CN113837984A (zh) | 播放异常检测方法、电子设备和计算机可读存储介质 | |
CN114283195B (zh) | 生成动态图像的方法、电子设备及可读存储介质 | |
CN113542574A (zh) | 变焦下的拍摄预览方法、终端、存储介质及电子设备 | |
CN116389884B (zh) | 缩略图显示方法及终端设备 | |
CN115150543B (zh) | 拍摄方法、装置、电子设备及可读存储介质 | |
CN114079725B (zh) | 视频防抖方法、终端设备和计算机可读存储介质 | |
CN117880645A (zh) | 一种图像处理的方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |