[go: up one dir, main page]

CN118592036A - 信息处理装置 - Google Patents

信息处理装置 Download PDF

Info

Publication number
CN118592036A
CN118592036A CN202380019972.2A CN202380019972A CN118592036A CN 118592036 A CN118592036 A CN 118592036A CN 202380019972 A CN202380019972 A CN 202380019972A CN 118592036 A CN118592036 A CN 118592036A
Authority
CN
China
Prior art keywords
sensor
sensing information
information
sensing
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202380019972.2A
Other languages
English (en)
Inventor
武居雅晓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of CN118592036A publication Critical patent/CN118592036A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • H04N23/651Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Measurement Of Optical Distance (AREA)
  • Cameras In General (AREA)
  • Studio Devices (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

该信息处理装置包括:指定处理单元,基于从多个传感器的至少一部分获取的感测信息指定将被感测的对象;以及控制单元,从多个传感器中选择用于根据所指定的对象来获取新的感测信息的传感器。

Description

信息处理装置
技术领域
本技术涉及信息处理装置,具体地,涉及用于通过使用多个传感器执行感测的信息处理装置的技术。
背景技术
在诸如包括多个传感器的成像装置的信息处理装置中,多个传感器的同时驱动造成各种问题,诸如感测信息中的数据量增加和功耗增加。特别地,对于作为便携式终端装置的信息处理装置,功耗的降低等被认为是要解决的主要问题。
以下列出的专利文献1公开了用于通过基于来自第一照相机的图像捕获结果对第二和后续照相机执行操作模式控制来降低功耗的技术。
[引用列表]
[专利文献]
专利文献1
日本专利公开第2001-093616号
发明内容
[技术问题]
然而,该方法无法基于来自第二照相机和后续照相机的图像捕获结果对第一照相机执行操作模式控制。
本技术被设计为解决上述问题,并且本技术的目的是在使用多个传感器的情况下降低功耗。
[问题的解决方案]
根据本技术的信息处理装置包括:识别处理部,该识别处理部基于从多个传感器中的至少一部分传感器中获得的感测信息来识别感测的目标;以及控制部,该控制部根据所识别的目标,从多个传感器中选择用于获得新的感测信息的传感器。
对象的识别不仅包括对对象的类型(诸如,人、动物或车辆)的识别,还包括获得关于对象的感测信息的场景。例如,白天的人、夜间的人、白天的场景、夜间的场景等被识别为用于感测的对象。
附图说明
[图1]是示出本技术的实施方式中的成像装置的配置的框图。
[图2]是示出RGB传感器中的简化感测信息的示图。
[图3]是示出光谱传感器中的简化感测信息的示图。
[图4]是示出测距传感器中的简化感测信息的示图。
[图5]是示出估计的对象与选择的传感器之间的对应关系的实施例的示图。
[图6]是示出估计的对象与选择的传感器之间的对应关系的另一个实施例的示图。
[图7]是示出估计的对象与选择的传感器之间的对应关系的又一个实施例的示图。
[图8]是示出在预测量阶段中驱动的传感器与在实际测量阶段中选择的传感器之间的对应关系的实施例的示图。
[图9]是示出在预测量阶段中驱动的传感器与在实际测量阶段中选择的传感器之间的对应关系的另一个实施例的示图。
[图10]是示出具有LiDAR传感器的成像装置的配置的框图。
[图11]是示出在预测量阶段中驱动的传感器与在实际测量阶段中选择的传感器之间的对应关系的又一个实施例的示图。
[图12]是示出由成像装置的每个部分执行的处理的流程的示图。
[图13]是示出根据第二实施方式的以预测量阶段与实际测量阶段之间的预定间隔获取预测量阶段中的感测信息和随后获取实际测量阶段中的感测信息的示图。
[图14]是示出由根据第二实施方式的成像装置的每个部分执行的处理的流程的示图。
[图15]是示出根据第二实施方式的其中间隔在实际测量阶段中变化的实施例的示图。
[图16]是示出由根据第三实施方式的成像装置执行的传感器间插值和帧间插值的处理的示图。
[图17]是示出由根据第三实施方式的成像装置的每个部分执行的处理的流程的示图。
[图18]是示出第四实施方式的第一实施例中的成像装置的配置的框图。
[图19]是示出第四实施方式的第一实施例中的像素布置的实施例的框图。
[图20]是示出第四实施方式的第二实施例中的成像装置的配置的框图。
[图21]是示出第四实施方式的第二实施例中的像素配置的实施例的框图。
[图22]是示出从利用神经网络的传感器进行选择的示图。
具体实施方式
以下将按照以下顺序描述实施方式。
<1. 信息处理装置的配置>
<2. 处理流程>
<3. 第二实施方式>
<4. 第三实施方式>
<5. 第四实施方式>
<6. 传感器选择>
<7. 结论>
<8. 本技术>
<1. 信息处理装置的配置>
本技术的第一实施方式中的信息处理装置是对所获取的感测信息执行各种类型的处理的终端装置,并且具有各种可能的方面。例如,信息处理装置可以是便携式终端装置(诸如蜂窝电话或平板终端)或者相机装置(诸如数码相机)。可替换地,信息处理装置可以是连接至具有相机功能的智能电话或者相机装置并且对诸如从智能电话等获取的捕捉图像的感测信息执行预定处理的装置。
在下面描述的实施例中,信息处理装置是具有相机功能的成像装置1。
图1示出了成像装置1的配置的实施例。
成像装置1包括作为多个感测部的第一感测部2A、第二感测部2B以及第三感测部2C。当不彼此区分时,第一感测部2A、第二感测部2B以及第三感测部2C被简单描述为感测部2。
成像装置1进一步包括信号处理部3和控制部4。
第一感测部2A包括RGB传感器作为第一传感器5A。RGB传感器包括像素阵列部,该像素阵列部包括对R光敏感的R(红色)像素、对G光敏感的G(绿色)像素以及对B光敏感的B(蓝色)像素,R、G和B像素以预定顺序二维布置。
RGB传感器将根据在R像素、G像素以及B像素中通过光电转换所获得的电荷的像素信号输出至下面的信号处理部3。
第二感测部2B包括作为第二传感器5B的光谱传感器。通过经由分割入射光的分光元件接收来自对象的反射光,光谱传感器输出每个波长带的光强度数据到下面的信号处理部3。
第三感测部2C包括执行iToF(间接飞行时间)测距的测距传感器作为第三传感器5C。执行iToF测距的第三感测部2C进一步包括发光部(未示出)。在第三传感器5C接收与从发光部发射并被对象反射的脉冲光对应的反射光的情况下,第三感测部2C将检测信号输出至下一信号处理部3。更具体地,第三传感器5C采用其中具有发光元件的像素被二维布置的配置。第三传感器5C快速地将由每个发光元件接收的光转换为的电荷分类为针对每个像素设置的两个电荷积累部(接点(tap)A和接点B),以针对每个像素获得参照在各个电荷积累部中积累的电荷量的检测信号。
应注意,当不彼此区分时,第一传感器5A、第二传感器5B和第三传感器5C被简称为“传感器5”。
信号处理部3对从第一传感器5A、第二传感器5B和第三传感器5C输出的数字信号执行各种类型的信号处理。为此,信号处理部3包括第一处理部6A、第二处理部6B以及第三处理部6C。应注意,当不彼此区分时,第一处理部6A、第二处理部6B以及第三处理部6C被简称为“处理部6”。
信号处理部3的第一处理部6A对从作为第一传感器5A的RGB传感器输出的图像信号(RAW图像数据)执行例如镜头校正、降噪、同时处理、YC生成处理、颜色再现/锐度处理等。
同时处理包括执行颜色分离处理,以使得各像素的图像数据具有全部R、G和B颜色分量。例如,对于使用具有拜耳布置的滤色器的传感器,执行去马赛克处理作为颜色分离处理。
YC生成处理包括从R、G和B图像数据生成(分离)亮度(Y)信号和颜色(C)信号。
颜色再现/锐度处理包括执行调整灰度、饱和度、色调、对比度等的处理,如所谓的图像制作。
第一处理部6A执行通常被称为显影处理的上述信号处理以生成预定格式的图像数据。
在这种情况下,可以执行分辨率转换或文件形成处理。文件形成处理包括对图像数据执行例如用于记录或通信的压缩编码、格式化、元数据生成或添加等,以生成用于记录或通信的文件。
例如,作为静止图像文件,生成具有诸如JPEG(联合图像专家组)格式、TIFF(标记图像文件格式)、GIF(图形交换格式)或HEIF(高效率图像文件格式)的格式的图像文件。此外,图像文件可以被生成为用于记录符合MPEG-4等的视频和声音的MP4格式。
应注意,第一处理部6A可以生成未经受显影处理的RAW图像数据的图像文件。
第二处理部6B执行校正光电流相对于入射光强度的非线性等的处理,以使得从作为第二传感器5B的光谱传感器输出的每个波长带的光强度数据(光谱信息)能够例如针对每个波长带进行比较。
第三处理部6C对从作为第三传感器5C的测距传感器输出的检测信号执行与iToF方式相应的距离计算处理等各种信号处理。作为用于根据从两个相应的电荷累积部输出的检测信号计算根据iToF方案的距离信息的技术,可以使用公知技术,并且这里省略该技术的描述。
信号处理部3包括推断处理部7。
通过基于从第一处理部6A、第二处理部6B以及第三处理部6C输出的各条感测信息(RGB图像、光谱信息以及距离图像)使用AI(人工智能)模型来执行推断处理,推断处理部7作为识别感测对象的识别处理部而发挥功能。
对象的识别不仅包括对对象的类型(诸如人、动物或车辆)的识别,而且还包括对获得关于对象的感测信息的场景的识别。例如,白天的人、夜间的人、白天的场景、夜间的场景等被识别为用于感测的对象。
推断处理部7可以基于从第一传感器5A、第二传感器5B和第三传感器5C输出的所有感测信息来识别对象,或者可以基于从被驱动的传感器5中的一部分传感器输出的感测信息来识别对象。
注意,通过基于所有感测信息识别对象,能够提高估计信息的准确度。
在本实施方式中,与静止图像的情况一样,推断处理部7进行推断以执行获取感测信息(目标感测信息)的一个操作。对象的推断结果被输出到控制部4。
控制部4执行从多个传感器5中选择用于获得关于所识别对象的适当感测信息的传感器5的处理。该选择处理可以利用AI模型。
控制部4例如根据针对对象的推断结果来选择用于获得静止图像的适当的传感器5。
通过将控制信号供应至第一感测部2A、第二感测部2B以及第三感测部2C,控制部4驱动每个感测部2。此时,通过以防止一些感测部2被驱动的方式馈送控制信号,控制部4降低功耗。
通过向第一处理部6A、第二处理部6B以及第三处理部6C提供控制信号,控制部4使各处理部执行所需的信号处理。此时,通过以防止对应于未被驱动的感测部2的处理部6执行不必要的信号处理的方式馈送控制信号,可以实现功耗等降低。
控制部4提供用于使推断处理部7执行推断处理的控制信号。
注意,适当地利用关于对象的估计信息,以允许控制部4适当地选择用于获得关于对象的目标感测信息的预定传感器5。即,控制部4期望根据估计出的对象的种类来选择适当的传感器5。
这里,用于获得目标感测信息的阶段被指定为“实际测量阶段”。用于获得用于识别对象的感测信息的阶段被指定为“预测量阶段”。推断处理部7基于在预测量阶段中获取的感测信息来识别对象,并且控制部4根据所识别的对象来选择适当的传感器5并且获取针对实际测量阶段的适当的感测信息。
然而,为了在实际测量阶段中获得适当的感测信息,在预测量阶段中最大程度地驱动所有传感器5以获得感测信息在功耗等方面是低效的。
因此,在本实施方式中的控制部4以简化的方式驱动所有传感器5以获得多条简化的感测信息,以便在实际测量阶段中获得合适的感测信息。
在能够充分减少在预测量阶段驱动的每个传感器5的功耗的情况下,通过防止在实际测量阶段驱动一部分传感器5而获得的功耗的减少可超过通过使用所有传感器5以获得多条简化的感测信息而获得的功耗的增加。
这里,将描述在预测量阶段中获取的简化的感测信息的具体实施例。
对于作为第一传感器5A的RGB传感器,简化的感测信息是从少于有效像素的一组像素中获得的感测信息。例如,通过仅对由水平方向和垂直方向上的适当抽取产生的像素执行读出处理,与读出相关的功耗和与像素信号的输出相关的功耗减少。
例如,如图2中的阴影所示,在水平方向和垂直方向上仅对四个像素中的一个执行读出处理。
对于作为第二传感器5B的光谱传感器,简化的感测信息是仅使用测量的波长的一部分获取的感测信息。例如,通过使用比可以由光谱传感器测量的波长信道少的一组信道测量光强度以减少的功耗来获取简化的感测信息(参见图3)。
对于如第三传感器5C的测距传感器,通过将接点切换操作的数量减少到适当测距所需的接点切换操作的数量(预定数量的操作)以下,获取适当的距离信息作为具有降低的功耗的简化感测信息(见图4)。
通过如上所述在预测量阶段中执行简化的感测,在实际测量阶段中驱动的传感器5可以在降低功耗的情况下被适当地选择。此外,限制被驱动传感器5允许减小电磁噪声、产生的热量、数据量等。允许减少电磁噪声使得能够减少用于电磁噪声预防的部件的数量和成本、用于实施的人工小时和用于测试的人员小时。此外,允许减少产生的热量使得能够减少辐射分量的数量。此外,允许减少数据量使得能够减少存储消耗,并且因此减少存储器组件的数量。这些还使得能够降低成本、实现人工小时和测试人工小时。
此外,部件数量的减少使得能够减少用于设计的工时并且增加用于设计成像装置1的自由度。
控制部4根据基于如上所述获得的简化的感测信息所估计的对象来选择要在实际测量阶段中驱动的传感器5。
说明估计对象与所选择的传感器5的对应关系的实施例。
例如,在对象被估计为诸如蔬菜的植物的情况下,控制部4选择第一传感器5A作为RGB传感器并且选择第二传感器5B作为光谱传感器(参见图5)以获得关于对象的新鲜度的信息。
通过在实际测量阶段中使用第一传感器5A和第二传感器5B获取各条感测信息,控制部4可以获得植物的静止图像(RGB图像)和关于其新鲜度的感测信息(光谱信息)。不驱动作为测距传感器的第三传感器5C,因此,可以实现功耗等的降低。
说明估计对象与所选择的传感器5的对应关系的其他例。
例如,在估计对象是风景的情况下,控制部4识别不需要获取对象的距离和波长的感测信息,并且选择第一传感器5A作为RGB传感器(见图6)。
通过在实际测量阶段使用第一传感器5A获取感测信息,可获得风景的静止图像作为感测信息。不驱动作为光谱传感器的第二传感器5B和作为测距传感器的第三传感器5C,因此,可以实现功耗等的降低。
接着,说明估计对象与所选择的传感器5之间的对应关系的另一例。
例如,在到对象的距离小于预定距离的情况下,控制部4选择除了作为RGB传感器的第一传感器5A之外的第三传感器5C作为测距传感器(见图7),以便更精确地测量到对象的距离。
在实际测量阶段不执行使用第二传感器5B的感测,因此,可实现功耗等的减少。
注意,可以通过在预测量阶段中驱动第一传感器5A、第二传感器5B和第三传感器5C中的一些来获取多条简化的感测信息。
例如,将描述通过驱动作为RGB传感器的第一传感器5A和作为光谱传感器的第二传感器5B在预测量阶段获取多条简化的感测信息的情况,并且作为对象的估计的结果,对象被估计为人的面部,如图8中所示。
此时,控制部4选择第三传感器5C作为测距传感器,作为在实际测量阶段中要驱动的传感器5。即,在基于RGB传感器和光谱传感器检测被被塑造为人的面部的活体时,控制部4进一步选择测距传感器以获取关于对象的凹凸形状的感测信息,并且更适当地识别对象实际上是否是人的面部。
这种处理可以用于个人认证。即,在将活体对象检测为对象的情况下,获取距离信息(不平坦信息)以识别活体对象是否是特定人。
此外,将参考图9描述另一实施例。
假定通过在预测量阶段中驱动作为RGB传感器的第一传感器5A和作为测距传感器的第三传感器5C来获得多条简化的感测信息。然后,作为基于多条简化的感测信息的估计的结果,假设检测被塑造为人的面部的对象。
在这种情况下,控制部4选择第二传感器5B作为光谱传感器并且在实际测量阶段执行处理。因此,控制部4能够适当地判定脸状的对象是否为活体。
要注意的是,已经描述了成像装置1包括RGB传感器作为第一传感器5A、光谱传感器作为第二传感器5B以及测距传感器作为第三传感器5C的实施例,但是成像装置1可包括任何其他传感器5。
作为实施例,成像装置1包括第四感测部2D,并且第四感测部2D包括LiDAR(光探测和测距)传感器作为第四传感器5D(见图10)。
信号处理部3包括第四处理部6D,并且第四处理部6D执行各种类型的信号处理,用于从由作为第四传感器5D的LiDAR传感器输出的感测信息中生成云数据。
图10中示出的配置是例如作为车载成像装置1的方面的实施例。
假定控制部4通过在预测量阶段中驱动作为RGB传感器的第一传感器5A、作为光谱传感器的第二传感器5B和作为测距传感器的第三传感器5C来获得多条简化的感测信息。然后,作为基于多条简化的感测信息的估计的结果,假设检测诸如前方车辆(移动体)的移动对象。
在这种情况下,控制部4选择第四传感器5D作为LiDAR传感器,作为在实际测量阶段中要驱动的传感器5,用于详细识别移动体是什么(见图11)。
通过基于在实际测量阶段中获得的感测信息来分析作为另一车辆的对象,可以适当地限制与其他车辆的位置关系。在实际测量阶段中,不驱动第一传感器5A、第二传感器5B和第三传感器5C,并且因此,可以实现功耗等的降低。
<2. 处理流程>
参考图12,将给出由上述成像装置1的信号处理部3、控制部4等执行的处理流程的描述。
为了获取关于对象的感测信息,在步骤S101中,控制部4首先将用于预测量的命令发送至每个感测部2。
当接收到命令时,在步骤S102中,每个感测部2(第一感测部2A、第二感测部2B、...、第N感测部2N)获取简化的感测信息并且将简化的感测信息输出至信号处理部3(步骤S102-1、S102-2、...、S102-N)。
信号处理部3根据各种传感器5的类型执行信号处理(步骤S103)并且对对象执行推断处理(步骤S104)。
推断结果的信息被输出到控制部4。
在步骤S105中,控制部4根据推断结果执行在实际测量阶段中选择要驱动的传感器5的处理,并且在步骤S106中,向所选择的感测部分2发送用于获得作为实际测量的感测信息的命令。
已接收命令的感测部分2(图12中的第二感测部分2B)在步骤S107中的实际测量阶段中获取感测信息(步骤S107-2),并且将感测信息发送至信号处理部3。
在步骤S108中,信号处理部3对感测信息执行信号处理并且将处理结果发送至控制部4。
随后,控制部4将数据提提供利用经受信号处理等的感测信息的每个应用程序。
<3. 第二实施方式>
第一实施方式包括与静止图像的情况一样的感测信息的适当的一次获取。第二实施方式包括如在视频的情况下用于获取感测信息的多个适当操作。
成像装置1的配置实施例与在图1中所示的配置实施例相似。与第一实施方式的不同之处在于,控制部4不仅基于简化的感测信息选择在实际测量阶段中要驱动的传感器5,而且执行在实际测量阶段中识别用于获取感测信息的定时的处理。
将参考图13描述第二实施方式中的预测量阶段和实际测量阶段。
每个感测部分2在预测量阶段中获取简化的感测信息。简化的感测信息由信号处理部3的每个处理部进行信号处理,并且处理后的简化的感测信息被输出至控制部4。
基于经受信号处理的简化感测信息,控制部4选择在实际测量阶段中驱动的传感器5(在图13中示出的实施例中为RGB传感器的第一传感器5A)并且识别在驱动传感器5之前的间隔T1。
随后,在预测量阶段中再次获取简化的感测信息,并且基于简化的感测信息,控制部4选择在实际测量阶段中待驱动的传感器5(在图13中示出的实施例中,第一传感器5A作为RGB传感器并且第二传感器5B作为光谱传感器)并且识别间隔T2。
这样,通过识别间隔T1、T2,能够防止用于获取传感信息的传感器5的驱动量过大,能够抑制消耗电力等。
将参考图14描述第二实施方式中各部分的处理流程。要注意的是,与在图12中的处理相似的处理由相同的步骤号表示,并且适当地省略步骤的描述。
首先,在步骤S101中,控制部4将预测量命令发送至各检测部2。
当接收到命令时,在步骤S102中,每个感测部2(第一感测部2A、第二感测部2B、...、第N感测部2N)获取简化的感测信息并且将简化的感测信息输出至信号处理部3(步骤S102-1、S102-2、...、S102-N)。
信号处理部3根据各种传感器5的类型执行信号处理(步骤S103)并且对对象执行推断处理(步骤S104)。
推断结果的信息被输出到控制部4。
在步骤S105中,控制部4根据推断结果执行在实际测量阶段中选择要驱动的传感器5的处理,并且在步骤S121中,计算在实际测量阶段中用于获得感测信息的间隔。
在步骤S122中,控制部4花费与计算出的间隔对应的等待时间,在步骤S106中,将获取感测信息的命令发送到所选择的感测部2来作为实际测量。
接收到命令的感测部2在步骤S107中在实际测量阶段中获取感测信息,并且将感测信息发送至信号处理部3。
在步骤S108中,信号处理部3对感测信息执行信号处理并且将处理结果发送至控制部4。
控制部4在步骤S123中判断是否结束检测信息的获取。例如,识别处理可以基于用户的操作或者用于获取感测信息的预定数量的操作是否完成。
在识别不结束感测信息的获取的情况下,控制部4返回到步骤S101。另一方面,在识别结束获取感测信息的情况下,控制部4和每个部分结束图14中所示的一系列处理操作。
注意,除了预测量阶段和实际测量阶段的交替重复之外的方法是可能的。例如,在预测量阶段之后连续地跟随实际测量阶段以用于采集的方法是可能的。然后,在实际测量阶段被重复预定次数或预定时间段之后,可以再次执行预测量阶段。
将参考图15提供具体描述。
每个感测部分2在预测量阶段中获取简化的感测信息。简化的感测信息通过信号处理部3的每个处理部经受信号处理,并且处理的简化的感测信息输出至控制部4。
基于经受信号处理的简化感测信息,控制部4选择在实际测量阶段中待驱动的传感器5(在图15中示出的实施例中为RGB传感器的第一传感器5A)并且识别在驱动传感器5之前的间隔T1。
一旦识别了要驱动的传感器5和间隔T1,则具有所选择的传感器5的感测部2在每个间隔T1之后执行感测信息的获取作为实际测量阶段。每次由信号处理部3对所获取的感测信息进行所需的信号处理。
在经过了比间隔T1长的特定时间段或者完成了作为预定数量的实际测量阶段的感测信息的获取之后,在预测量阶段再次获取简化的感测信息。基于简化的感测信息,控制部4选择在实际测量阶段中被驱动的传感器5(在图15中示出的实施例中第一传感器5A作为RGB传感器并且第二传感器5B作为光谱传感器)并且识别间隔T2。
在识别传感器5和间隔T2之后,经由间隔T2作为实际测量阶段继续执行用于获取感测信息的操作。
如上所述,无需在帧之间插入预测量阶段,可以适当地获取一定程度上期望的感测信息。
注意,在作为实际测量阶段多次获取感测信息的情况下,可以通过允许每个传感器5传递最大性能而不是获取预测量阶段中的简化感测信息来获取精确的感测信息。
即,在实际测量阶段中识别不被驱动的传感器5不用于获取感测信息或者不被驱动达某个后续时间段,因此,能够发挥显著的功耗降低效果。
<4. 第三实施方式>
在第三实施方式中,成像装置1旨在在获取感测信息的每个时刻按顺序驱动感测部2。
成像装置1的配置实施例与在图1中所示的配置实施例相似。与第一实施方式的不同之处在于,信号处理部3执行作为传感器间插值和帧间插值的估计处理,并且控制部4不执行为实际测量阶段选择传感器5的处理。
注意,在第三实施方式中,不存在预测量阶段,而仅存在实际测量阶段。可替换地,通过预测量阶段首先执行简化的感测信息的获取,并且作为简化的感测信息的分析结果,根据第三实施方式,感测信息的获取可以被识别为仅在实际测量阶段中执行。
将参考图16描述第三实施方式中的实际测量阶段。
注意,对于用于获取感测信息的定时,相应的时间点被描述为获取定时Ti1、Ti2、...。
通过驱动这些感测部2中的所选感测部的传感器5(第一传感器5A,如图16中的RGB传感器),在获取定时Ti1下获得了感测信息(在图16的实施例中的RGB图像)。
该感测信息由信号处理部3的第一处理部6A进行信号处理,处理后的简易感测信息被输出到推断处理部7。
通过使用AI模型执行估计处理,推断处理部7基于RGB图像的输入来执行传感器间插值。传感器间插值生成将在获取定时Ti1通过作为光谱传感器的第二传感器5B获得的光谱信息,并且生成将由作为测距传感器的第三传感器5C获得的距离图像。
应注意,此时,推断处理部7可执行基于RGB图像识别对象的处理。可根据对象执行传感器间插值的处理。即,可考虑对象的类型等执行传感器间插值。
在用于获取感测信息的下一个获取定时Ti2,控制部4驱动作为光谱传感器的第二传感器5B。
这允许获得关于受试者的光谱信息。
光谱信息通过信号处理部3的第一处理部6B进行信号处理,并且处理的简化感测信息被输出至推断处理部7。
推断处理部7基于光谱信息的输入使用推断处理来执行传感器间插值,以获得RGB图像和在获取定时Ti2要获得的距离图像。
此外,通过执行帧间插值作为利用AI模型的推断处理,推断处理部7使用在获取定时Til处从第一传感器5A获得的RGB图像作为RGB传感器以获得在获取定时Ti2处的RGB图像和距离图像作为输入。
即,基于在获取定时Ti1获得的RGB图像和在获取定时Ti2获得的光谱信息,执行在获取定时Ti2处的RGB图像的估计。
类似地,基于在获取定时Ti1获得的RGB图像和在获取定时Ti2获得的光谱信息,执行在获取定时Ti2的距离图像的估计。
注意,如图16中的虚线箭头所示,估计要在获取定时Ti1获得的距离图像可用于在获取定时Ti2估计距离图像。
注意,此时,根据对象,可以执行推断处理部7的诸如传感器间插值和帧间插值等的处理。即,可考虑对象的类型等执行传感器间插值和帧间插值。
在获取定时Ti3,控制部4驱动作为测距传感器的第三传感器5C。这允许获得对象的距离图像。
基于在获取定时Ti3获取的距离图像和在获取定时Ti2获取的光谱信息估计在获取定时Ti3获取的RGB图像。该估计可以使用在获取定时Ti2估计的RGB图像。
此外,基于在获取定时Ti3获取的距离图像和在获取定时Ti2获取的光谱信息,估计在获取定时Ti3获取的光谱信息。
在成像装置1包括三种类型的传感器5的情况下,控制部4在获取定时Ti4再次驱动作为RGB传感器的第一传感器5A,因为在获取定时Ti1、Ti2和Ti3期间完成用于获取感测信息的一系列操作。
如上所述,控制部4在每个获取定时Ti在多个传感器5之间依次切换要驱动的传感器5的处理。
将参考图17描述第三实施方式中的每个部分的处理流程。类似于图12或图14中的处理由相同的步骤号表示,并且适当地省略步骤的描述。
首先,在步骤S106中,控制部4发送实际测量的指令。要发送命令的传感器5是第一感测部2A的第一传感器5A。
当接收到命令时,第一感测部2A获取感测信息并且在步骤S107中将获取的结果输出至信号处理部3。
在步骤S108中,信号处理部3根据传感器5的类型执行需要的信号处理。
随后,在步骤S104中,信号处理部3执行推断处理。推断处理包括执行传感器间插值或帧间插值以推断关于未被驱动的传感器5的感测信息。
对各传感器5重复执行步骤S106、S107、S108、S104的处理。
控制部4变更处理对象的传感器5,结束一系列的处理操作,在步骤S123中判断是否结束检测信息的获取。
在识别不结束感测信息的获取时,控制部4前进到步骤106中的处理(紧接在图17中的流程的开始之后),以第一感测部分2A为目标。
另一方面,在识别结束获取感测信息时,每个部分结束图17中所示的一系列处理操作。
如上所述,基于从一部分传感器5获得的感测信息,估计另一条感测信息。由此,能够减少实际驱动的传感器5的数量。
因此,可以降低功耗。另外,通过限制被驱动的传感器5,能够减少电磁噪声、发热量、数据量等。然后,允许减少电磁噪声使得能够减少用于电磁噪声预防的部件的数量和成本、用于实施的人时和用于测试的人时。此外,允许减少产生的热量使得能够减少辐射分量的数量。此外,允许减少数据量使得能够减少存储消耗,并且因此减少存储器组件的数量。这些还使得能够降低成本、实现人工小时和测试人工小时。
此外,部件数量的减少使得能够减少设计的工时并且增加设计的自由度。
要注意的是,在图16和17中所示的实施例中,在每个采集时间仅驱动传感器5中的一个,但是在每个采集时间可能必须驱动传感器5中的任一个。例如,在获取定时Ti1,驱动第一传感器5A和第二传感器5B,并且在获取定时Ti2,驱动第一传感器5A和第三传感器5C。然后,在获取定时Ti3,再次驱动第一传感器5A和第二传感器5B。如上所述,可以每次驱动RGB传感器。
此外,如在第二实施方式中,间隔的时间长度可以根据要驱动的传感器5而改变。
<5. 第四实施方式>
在第四实施方式中,一个感测部分2包括多个功能。
具体地,包含在具有第一功能的感测部2中的传感器5和包含在具有第二功能的感测部2中的传感器5设置在同一轴上。
例如,这样的方面的两个实施例是可能的。
在其中一个实施例中,用于每个功能的像素设置在包括在感测部2中的传感器5的传感器表面上。
这里,在以下描述的实施例中,第五感测部2E包括第五传感器5E,并且第五传感器5E包括布置在传感器表面上的RGB像素和测距像素,RGB像素允许第五传感器5E用作RGB传感器并且测距像素允许第五传感器5E用作iToF测距传感器。
然而,本技术并不局限于此,并且可广泛地应用于布置在一个传感器表面上的用于允许传感器5用作不同类型的传感器的混合像素。
图18示出了包括第五传感器5E的成像装置1的配置实施例。注意,省略已经描述的配置的描述。
包括在第五感测部2E中的第五传感器5E将从R像素、G像素以及B像素输出的像素信号馈送至信号处理部3的第一处理部6A。
第一处理部6A对像素信号执行各种类型的处理以生成图像数据。所生成的图像数据被馈送至推断处理部7。
此外,第五传感器5E将从包括在测距像素中的两个相应的电荷积累部输出的检测信号供应给信号处理部3的第三处理部6C。
基于从第五传感器5E输出的检测信号,第三处理部6C执行对应于iToF方案的距离计算处理,并且将距离信息馈送至推断处理部7。
图19示出了第五传感器5E的传感器表面上的像素排列的实施例。在图19中,R像素被标记为“R”,G像素被标记为“G”,并且B像素被标记为“B”,并且与iToF方案相对应的测距像素被标记为“T”。
如图19中所示,用测距像素(T像素)替换拜耳排列中的一些G像素。
在图19中,在四行和四列中的16个像素的每个区域中布置一个测距像素。然而,如果可以根据距离信息中的空间方向上的分辨率适当地布置测距像素就足够了。
注意,代替与iToF方案相对应的测距像素,第五传感器5E可设置有与图像平面相位差方案相对应的测距像素。
在本实施方式的第一实施例中,基于来自推断处理部7的推断结果,可以停止对包括R像素、G像素和B像素的像素组和包括测距像素的像素组中的一者或两者的读出。
因此,可以降低功耗等的降低。
另外,在基于来自推断处理部7的推断结果识别包括R像素、G像素和B像素的像素组以及包括测距像素的像素组都被禁止驱动的情况下,可停止图18中所示的第五感测部2E自身的驱动,从而能够更加显著地降低功耗。
本实施方式的第二实施例是感测部2中包括的传感器5包括在光轴方向上彼此间隔开的两个传感器表面的实施例。具体地,对于布置在传感器5的传感器表面上的像素,上级传感器部S1和下级传感器部S2在光轴方向上串联布置,上级传感器部S1用作RGB传感器,并且下级传感器部S2用作IR(红外)传感器。
图20示出了包括第六传感器5F的成像装置1的配置实施例。注意,省略已经描述的配置的描述。
包括在第六感测部2F中的第六传感器5F将从上级传感器部S1输出的像素信号馈送至信号处理部3的第一处理部6A,作为RGB传感器。
第一处理部6A对从上级传感器部S1输出的像素信号执行各种类型的处理以生成图像数据。所生成的数据被馈送到推断处理部7。
此外,第六传感器5F将从下级传感器部S2输出的检测信号作为IR传感器馈送至信号处理部3的第五处理部6E。
第五处理部6E对从下级传感器部S2输出的检测信号执行各种类型的处理以生成IR图像数据。所生成的图像数据被馈送至推断处理部7。
图21示出了包括在第六传感器5F中的像素的配置。
第六传感器5F包括作为RGB传感器的上级传感器部S1和作为IR传感器的下级传感器部S2。上级传感器部S1和下级传感器部S2在光轴方向上串联布置。
上级传感器部S1包括在光轴方向上层压的B层8B、G层8G和R层8R,B层8B输出与蓝光量(B光)对应的信号,G层8G输出与绿光量(G光)对应的信号,并且R层8R输出与红光量(R光)对应的信号。每层包括有机光电导电膜层9和透明电极层10,有机光电导电膜层9对预定波长带中的光敏感并且累积与所接收的光量对应的电荷,透明电极层10读出在有机光敏导电膜层9中产生的电荷并且将该电荷作为检测信号输出。
下级传感器部S2包括IR光接收层11和电极层12,IR光接收层11对IR光敏感并且累积对应于所接收的IR光量的电荷,电极层12读出在IR光接收层11中产生的电荷并且输出电荷作为检测信号。
在本实施方式的第二实施例中,根据来自推断处理部7的推断结果,可以停止对上级传感器部S1和下级传感器部S2中的一个或两个的读出。
因此,可以降低功耗等的降低。
另外,在基于来自推断处理部7的推断结果,对于上级传感器部S1和下级传感器部S2两者识别停止读出的情况下,可以停止图20中所示的第六感测部2F自身的驱动,使得能够更加显著地降低功耗。
在图21中所示的实施例中,在上级传感器部S1中,接收R光的部分、接收G光的部分以及接收B光的部分被布置在光轴方向上。然而,即使在上级传感器部S1包括拜耳排布的滤色器的情况下,也可产生类似的效果。
如在本实施方式中,传感器功能使用基本上相同的光轴,允许在空间上使用基本上相同的视角。这消除了在后续处理中考虑视差等的需要。因此,降低了后续阶段的处理负荷,使得能够降低功耗。
要注意的是,图18和图20示出了成像装置1包括第二感测部2B以及第五感测部2E或第六感测部2F的配置,但是本技术的实施方式不限于此。
例如,成像装置1可包括除了感测部2B之外的感测部2连同第五感测部2E或第六感测部2F。此外,成像装置1可仅包括第五感测部2E和第六感测部2F中的一个或两个。
此外,一个感测部2可以包括三个或更多个传感器功能。例如,一个感测部2可包括作为RGB传感器的功能、作为光谱传感器的功能以及作为测距传感器的功能,或者可进一步包括作为IR传感器或LiDAR传感器的功能。
在这种情况下,一部分传感器可以在垂直于光轴方向的方向上串联布置,而其他传感器可以在光轴方向上并排布置。即,第四实施方式的第一实施例和第二实施例可以彼此组合。
<6. 传感器选择>
在上述实施例中,控制部4在每个获取定时选择要驱动的传感器5。对于该选择处理,可如上所述使用AI模型。
将参考图22提供具体描述。
例如,如在第一实施方式中,神经网络包括输入层、多个中间层和输出层,RGB图像、光谱信息和在预测量阶段中获取的距离图像的每一个中的小数据组(图像的预定区域)被输入到该输入层。
输出层输出每种类型的传感器5的值。通过在下一感测信息的获取定时驱动输出层指示预定值以上的传感器5,可以在控制部4中实现传感器5选择处理。
要注意的是,如图22中所示,在为每个输入数据(例如,RGB图像或距离图像)输出要选择的传感器5的情况下,通过后处理将相应的输出整合在一起,可适当地进行传感器5的选择。
可选地,通过以使得网络包括输入了所有条感测信息的输入层的方式构造神经网络,可以在不需要基于后处理的集成的情况下选择传感器5。
此外,通过使用间隔的时间长度代替传感器5的类型作为与来自输出层的值相关联的标记,可以识别第二实施方式中的间隔T1和T2的时间长度。
由此,例如,对于运动对象等,选择较短的间隔以使得能够在时间方向上彻底获取感测信息,并且对于对象相当不动的风景图像等的图像捕获,选择较长的间隔以使得能够进一步降低功耗等。
<7. 结论>
如上所述,作为成像装置1的信息处理装置包括:识别处理部(推断处理部7),其基于从多个传感器5中的至少一部分传感器获得的感测信息来识别用于感测的对象;以及控制部4,其根据所识别的对象,从多个传感器5中选择用于获得新的感测信息的传感器5。
对象的识别不仅包括对对象的类型(诸如人、动物或车辆)的识别,而且还包括对获得对象的感测信息的场景的识别。例如,白天的人、夜间的人、白天的场景、夜间的场景等被识别为用于感测的对象。
然后,可以根据所选择的对象,从多个传感器5中选择合适的传感器5。这允许仅驱动从所有安装的传感器5中选择的传感器5,使得能够降低功耗。另外,通过限制被驱动的传感器5,能够减少电磁噪声、发热量、数据量等。然后,允许减少电磁噪声使得能够减少用于电磁噪声预防的部件的数量和成本、用于实施的人时和用于测试的人时。此外,允许减少产生的热量使得能够减少辐射分量的数量。此外,允许减少数据量使得能够减少存储消耗,并且因此减少存储器组件的数量。这些还使得能够降低成本、实现人工小时和测试人工小时。
此外,部件数量的减少使得能够减少设计的工时并且增加设计的自由度。
要注意的是,在设置不同类型的传感器5作为多个传感器5的情况下,可根据使用成像装置1实现的期望,专门选择和驱动合适类型的传感器5。由此,能够将传感器5明确地分类为实现期望所需的传感器5以及实现期望所需的传感器5,能够减少消耗电力等。
如第一实施方式中所述,成像装置1的识别处理部(推断处理部7)可以基于从多个传感器5的全部中获得的感测信息来识别对象。
因此,可基于通过从多边视点观看对象而获得的感测信息来准确地识别对象,从而允许容易地选择适当的传感器5。
如第一实施方式中所述,成像装置1的识别处理部(推断处理部7)可以使用简化的感测信息作为用于识别对象的感测信息,并且控制部4可以选择用于拍摄静止图像。
由此,可基于在没有传感器的最大移动的情况下获得的感测信息来识别对象。因此,可以实现功耗等的更显著的降低。
如参考图2等所描述的,成像装置1的识别处理部(推断处理部7)可以使用从少于RGB传感器(第一传感器5A)中的有效像素的一组像素中获得的感测信息作为简化的感测信息。
这使得能够降低在预测量阶段中用于驱动RGB传感器的功耗等。
如参考图3等所描述的,成像装置1的识别处理部(推断处理部7)可以使用仅使用光谱传感器(第二传感器5B)中的测量的波长的一部分获取的感测信息作为简化的感测信息。
这使得能够降低用于在预测量阶段中驱动光谱传感器的功耗等。
如参考图4等所描述的,成像装置1的识别处理部(推断处理部7)可以使用通过将iToF测距传感器(第三传感器5C)中的轻敲切换操作的数量减少到预定数量以下而获得的感测信息作为简化的感测信息。
这使得能够降低在预测量阶段中用于驱动测距传感器的功耗等。
如参考图5等所描述的,在由识别处理部(推断处理部7)识别的对象是植物的情况下,成像装置1的控制部4可以选择RGB传感器(第一传感器5A)和光谱传感器(第二传感器5B)。
例如,对象被假定为蔬菜等。因此,在预测量阶段之后的实际测量阶段中,RGB传感器和光谱传感器被选择为测量蔬菜的新鲜度等所需的传感器5。其他传感器5不被选择,并且因此,要被驱动的传感器5可被限制,使得能够降低功耗等。
如参考图10、图11等所描述的,在由识别处理部(推断处理部7)识别的对象是移动体的情况下,成像装置1的控制部4可选择RGB传感器(第一传感器5A)和LiDAR传感器(第四传感器5D)。
例如,对象被假定为车辆等。因此,在预测量阶段之后的实际测量阶段中,RGB传感器和LiDAR传感器被选择为识别与车辆的位置关系所需的传感器5。其他传感器5不被选择,并且因此,要被驱动的传感器5可被限制,使得能够降低功耗等。
如参考图7等所描述的,在由识别处理部(推断处理部7)识别的对象和传感器5之间的距离小于预定距离的情况下,成像装置1的控制部4可选择RGB传感器(第一传感器5A)和测距传感器(第三传感器5C)。
在对象和传感器之间的距离短的情况下,例如,在车载传感器5和作为对象的前方车辆之间的距离短的情况下,除了RGB传感器之外,还选择用于精确测量距离的测距传感器。其他传感器5不被选择,并且因此,要被驱动的传感器5可被限制,使得能够降低功耗等。
如参考图6等所描述的,在由识别处理部(推断处理部7)识别的对象是风景的情况下,成像装置1的控制部4可排他地选择RGB传感器(第一传感器5A)。
在对象是风景的情况下,感测来自对象的反射光的传感器5(诸如测距传感器(第三传感器5C))是不合适的。当以避免选择这样的传感器5作为测距传感器的方式仅选择RGB传感器时,避免驱动不必要的传感器5,并且可以实现功耗的降低等。
如参考图9等所描述的,在识别处理部(推断处理部7)基于从作为一部分传感器5的RGB传感器(第一传感器5A)和测距传感器(第三传感器5C)获得的感测信息将对象识别为人脸的情况下,成像装置1的控制部4可排他地选择光谱传感器(第二传感器5B)。
选择光谱传感器允许采集感测数据以用于计算受试者是人的面部的概率。
如参考图8等所描述的,在识别处理部(推断处理部7)基于从作为传感器5中的一些的RGB传感器(第一传感器5A)和光谱传感器(第二传感器5B)获得的感测信息将对象识别为人脸的情况下,成像装置1的控制部4可选择测距传感器(第三传感器5C)。
选择测距传感器允许采集感测数据以用于计算对象是人的面部的概率。即,可通过将关于对象的不平坦信息与关于人的面部的不平坦信息进行比较来更准确地识别对象是否是人的面部。此外,详细地获取凹凸信息使得能够进行将对象与特定人进行比较的个人认证处理。
如第二实施方式中所述,成像装置1的控制部4可以根据由识别处理部(推断处理部7)识别出的对象来识别用于获取感测信息的间隔T1和T2。
因而,用于获得感测信息的获取间隔被优化。结果,能够防止获取定时的数量的不必要的增加和由此引起的功耗的增加。
如第三实施方式中所述,作为成像装置1的信息处理装置包括:估计处理部(推断处理部7),基于通过驱动多个传感器5中的一部分而获得的感测信息来估计来自未被驱动的传感器5的感测信息;以及控制部4,在用于感测信息的获取定时Ti(Ti1、Ti2、Ti3和Ti4)中的每一个处,依次切换多个传感器5中的要被驱动的传感器5。
即,基于从一部分传感器5获得的感测信息,估计另一条感测信息。由此,能够减少实际驱动的传感器5的数量。
因此,可以降低功耗。另外,通过限制被驱动的传感器5,能够减少电磁噪声、发热量、数据量等。然后,允许减少电磁噪声使得能够减少用于电磁噪声预防的部件的数量和成本、用于实施的人时和用于测试的人时。此外,允许减少产生的热量使得能够减少辐射分量的数量。此外,允许减少数据量使得能够减少存储消耗,并且因此减少存储器组件的数量。这些还使得能够降低成本、实现人工小时和测试人工小时。
此外,部件数量的减少使得能够减少设计的工时并且增加设计的自由度。
如第三实施方式中所述,成像装置1可以包括识别处理部(推断处理部7),该识别处理部基于通过驱动一部分传感器5而获得的感测信息和所估计的感测信息来识别用于感测的对象。
对象的识别不仅包括对对象的类型(诸如人、动物或车辆)的识别,而且还包括对获得对象的感测信息的场景的识别。例如,白天的人、夜间的人、白天的场景、夜间的场景等被识别为用于感测的对象。这能够切换到适当的传感器5。
如第三实施方式中所述,估计处理部(推断处理部7)可以基于过去的感测信息执行估计。
例如,在针对每个摄像帧切换驱动传感器5的情况下,基于在前一帧和前一帧之前的帧中拍摄得到的感测信息来估计未驱动的传感器5的感测信息。
因此,不仅在传感器5之间而且在帧之间执行插值,允许提高估计的感测信息的准确度。
如第三实施方式中所述,成像装置1的估计处理部(推断处理部7)可以基于关于未被驱动的传感器5的过去的感测信息来执行估计。
通过在帧间插值中使用过去从未驱动的传感器5获取的感测信息,能够提高作为估计结果的感测信息的准确度。
在上述第三实施方式中,使用最后获取的感测信息的插值被描述为帧间插值。然而,可使用在最后获取之前获取的感测信息来执行帧间插值。
期望基于执行用于帧间插值的处理的处理器的运算能力来识别有多旧的感测信息用于帧间插值。
此外,在上述实施例中,例示了各传感器5输出帧数据的结构。然而,根据传感器5的类型,传感器不一定需要输出每个帧的数据。
此外,在上述实施例中,RGB传感器、光谱传感器、测距传感器和LiDAR传感器被示出为传感器5,但是成像装置1可包括任何其他传感器5。
例如,不同传感器是可能的,诸如温度传感器、湿度传感器、接近传感器、气味传感器和EVS(基于事件的视觉传感器)。
注意,作为上述成像装置1的信息处理装置可以被认为包括:估计处理部(推断处理部7),其通过向学习模型输入通过驱动多个传感器5中的至少一些而获得的感测信息来进行省电驱动的估计;以及控制部4,其通过估计处理仅驱动多个传感器5中的一些。
这种信息处理装置使得能够减少实际驱动的传感器5的数量。
因此,可以减少信息处理装置的功耗。另外,通过限制被驱动的传感器5,能够减少电磁噪声、发热量、数据量等。然后,允许减少电磁噪声使得能够减少用于电磁噪声预防的部件的数量和成本、用于实施的人时和用于测试的人时。此外,允许减少产生的热量使得能够减少辐射分量的数量。此外,允许减少数据量使得能够减少存储消耗,并且因此减少存储器组件的数量。这些还使得能够降低成本、实现人工小时和测试人工小时。
此外,部件数量的减少使得能够减少设计的工时并且增加设计的自由度。
应用这种信息处理装置的合适装置包括便携式终端装置,诸如智能电话,对于降低功耗存在极大需求。另外,在其他使用方面中,在车载照相机中,在通过驱动第一传感器5A连续获取RGB图像的同时执行用于识别视角内的对象的估计处理,并且在检测到要注意的对象的情况下,驱动其他传感器5以准确地识别对象。
可替换地,上述信息处理装置可以应用于监视照相机,使得在通常的监视状态下,驱动传感器5以使得能够降低功耗等,并且在视角中检测到运动对象的情况下,驱动其他传感器5以准确地识别对象。
此外,在将上述第一实施方式中的信息处理装置应用于数字照相机的情况下,在正在进行半按下快门按钮以聚焦于特定对象的操作的同时,可以连续执行预测量阶段以继续对象的识别和待驱动的传感器5的选择,并且当进行进一步按下快门按钮的操作以进行成像时,最后选择的传感器5可仅被驱动以获取关于对象的感测信息,诸如对象的捕获图像。由此,根据被聚焦的对象自动选择将被驱动的传感器5,因此,拍摄者可无意识地获取适当的感测信息,同时产生诸如降低功耗的效果。
由作为上述成像装置1的信息处理装置执行的程序使得运算处理装置执行在图12、图14、图17等中的每一个中示出的处理,并且能够被预记录在HDD(硬盘驱动器)中,HDD(硬盘驱动器)是内置于装置(诸如计算机装置)中的记录介质、具有CPU(中央处理单元)的微型计算机中的ROM(只读存储器)等。可替换地,程序可以暂时地或者永久地存储(记录)在可移除记录介质中,诸如,软盘、CD-ROM(致密盘只读存储器)、MO(磁光)盘、DVD(数字通用盘)、蓝光盘(注册商标)、磁盘、半导体存储器、或者存储卡。这种可移除记录介质可以提供为所谓的封装软件。
此外,这种程序还可从可移动记录介质安装在个人计算机中,或者经由诸如LAN或者因特网的网络从下载站点下载。
注意,本文描述的效果仅是说明性的而非限制性的,并且可以产生其他效果。
此外,上述实施例可以以任何方式彼此组合,并且即使使用不同组合,也可以施加上述不同效果。
<8. 本技术>
(1)一种信息处理装置,包括:
识别处理部,基于从多个传感器中的至少一部分传感器中获得的感测信息来识别感测的目标;以及
控制部,根据所识别的目标,从多个传感器中选择用于获得新的感测信息的传感器。
(2)根据以上(1)所述的信息处理装置,其中,
识别处理部基于从所有多个传感器中获得的感测信息来识别目标。
(3)根据以上(1)或(2)中任一项所述的信息处理装置,其中,
识别处理部将简化的感测信息用作用于识别目标的感测信息,以及
控制部为了捕获静止图像而执行选择。
(4)根据以上(3)所述的信息处理装置,其中,
识别处理部将从比RGB传感器中的有效像素数量少的像素获得的感测信息用作简化的感测信息。
(5)根据以上(3)或(4)中任一项所述的信息处理装置,其中,
识别处理部将仅使用光谱传感器中的一些测量波长获取的感测信息用作简化的感测信息。
(6)根据以上(3)至(5)中任一项所述的信息处理装置,其中,
识别处理部将通过将iToF测距传感器中的接点切换操作的次数减少到预定数量而获得的感测信息用作简化的感测信息。
(7)根据以上(1)至(6)中任一项所述的信息处理装置,其中,
在由识别处理部识别的目标是植物的情况下,控制部选择RGB传感器和光谱传感器。
(8)根据以上(1)至(6)中任一项所述的信息处理装置,其中,
在由识别处理部识别的目标是移动体的情况下,控制部选择RGB传感器和LiDAR传感器。
(9)根据以上(1)至(6)中任一项所述的信息处理装置,其中,
在由识别处理部识别的目标与传感器之间的距离小于预定距离的情况下,控制部选择RGB传感器和测距传感器。
(10)根据以上(1)至(6)中任一项所述的信息处理装置,其中,
在由识别处理部识别的目标是风景的情况下,控制部仅选择RGB传感器。
(11)根据以上(1)至(6)中任一项所述的信息处理装置,其中,
在识别处理部基于从作为一部分传感器的RGB传感器和测距传感器获得的感测信息将目标识别为人的面部的情况下,控制部选择光谱传感器。
(12)根据以上(1)至(6)中任一项所述的信息处理装置,其中,
在识别处理部基于从作为一部分传感器的RGB传感器和光谱传感器获得的感测信息将目标识别为人的面部的情况下,控制部选择测距传感器。
(13)根据以上(1)至(12)中任一项所述的信息处理装置,其中,
控制部根据由识别处理部识别的目标来决定获取感测信息的间隔。
(14)一种信息处理装置,包括:
估计处理部,基于通过驱动多个传感器中的一部分传感器而获得的感测信息来估计来自未被驱动的传感器的感测信息;以及
控制部,在感测信息的每个获取定时从多个传感器中依次切换要驱动的传感器。
(15)根据以上的(14)所述的信息处理装置,包括:
识别处理部,基于通过驱动一部分传感器获得的感测信息和所估计的感测信息来识别感测的目标。
(16)根据以上(14)或(15)中任一项所述的信息处理装置,其中,
估计处理部基于过去的感测信息执行估计。
(17)根据以上(16)所述的信息处理装置,其中,
估计处理部基于与未被驱动的传感器有关的过去的感测信息来执行估计。
[参考标号列表]
1 成像装置(信息处理装置)
4 控制部
5 传感器
5A 第一传感器(RGB传感器)
5B 第二传感器(光谱传感器)
5C 第三传感器(测距传感器)
5D 第四传感器(LiDAR传感器)
7 推断处理部(识别处理部、估计处理部)
T1、T2 间隔
Ti1、Ti2、Ti3、Ti4 获取定时。

Claims (17)

1.一种信息处理装置,包括:
识别处理部,基于从多个传感器中的至少一部分传感器中获得的感测信息来识别感测的目标;以及
控制部,根据所识别的目标,从所述多个传感器中选择用于获得新的感测信息的传感器。
2.根据权利要求1所述的信息处理装置,其中,
所述识别处理部基于从所有所述多个传感器中获得的感测信息来识别所述目标。
3.根据权利要求1所述的信息处理装置,其中,
所述识别处理部将简化的感测信息用作用于识别所述目标的感测信息,以及
所述控制部为了捕获静止图像而执行所述选择。
4.根据权利要求3所述的信息处理装置,其中,
所述识别处理部将从比RGB传感器中的有效像素数量少的像素获得的感测信息用作所述简化的感测信息。
5.根据权利要求3所述的信息处理装置,其中,
所述识别处理部将仅使用光谱传感器中的一些测量波长获取的感测信息用作所述简化的感测信息。
6.根据权利要求3所述的信息处理装置,其中,
所述识别处理部将通过将iToF测距传感器中的接点切换操作的次数减少到低于预定数量而获得的感测信息用作所述简化的感测信息。
7.根据权利要求1所述的信息处理装置,其中,
在由所述识别处理部识别的所述目标是植物的情况下,所述控制部选择RGB传感器和光谱传感器。
8.根据权利要求1所述的信息处理装置,其中,
在由所述识别处理部识别的所述目标是移动体的情况下,所述控制部选择RGB传感器和LiDAR传感器。
9.根据权利要求1所述的信息处理装置,其中,
在由所述识别处理部识别的所述目标与传感器之间的距离小于预定距离的情况下,所述控制部选择RGB传感器和测距传感器。
10.根据权利要求1所述的信息处理装置,其中,
在由所述识别处理部识别的所述目标是风景的情况下,所述控制部仅选择RGB传感器。
11.根据权利要求1所述的信息处理装置,其中,
在所述识别处理部基于从作为所述一部分传感器的RGB传感器和测距传感器获得的感测信息将所述目标识别为人的面部的情况下,所述控制部选择光谱传感器。
12.根据权利要求1所述的信息处理装置,其中,
在所述识别处理部基于从作为所述一部分传感器的RGB传感器和光谱传感器获得的感测信息将所述目标识别为人的面部的情况下,所述控制部选择测距传感器。
13.根据权利要求1所述的信息处理装置,其中,
所述控制部根据由所述识别处理部识别的所述目标来决定获取所述感测信息的间隔。
14.一种信息处理装置,包括:
估计处理部,基于通过驱动多个传感器中的一部分传感器而获得的感测信息来估计来自未被驱动的传感器的感测信息;以及
控制部,在所述感测信息的每个获取定时从所述多个传感器中依次切换要驱动的传感器。
15.根据权利要求14所述的信息处理装置,包括:
识别处理部,基于通过驱动所述一部分传感器获得的感测信息和所估计的感测信息来识别感测的目标。
16.根据权利要求14所述的信息处理装置,其中,
所述估计处理部基于过去的感测信息执行估计。
17.根据权利要求16所述的信息处理装置,其中,
所述估计处理部基于与所述未被驱动的传感器有关的过去的感测信息来执行估计。
CN202380019972.2A 2022-02-08 2023-01-05 信息处理装置 Pending CN118592036A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2022-017968 2022-02-08
JP2022017968A JP2023115633A (ja) 2022-02-08 2022-02-08 情報処理装置
PCT/JP2023/000104 WO2023153117A1 (ja) 2022-02-08 2023-01-05 情報処理装置

Publications (1)

Publication Number Publication Date
CN118592036A true CN118592036A (zh) 2024-09-03

Family

ID=87564277

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202380019972.2A Pending CN118592036A (zh) 2022-02-08 2023-01-05 信息处理装置

Country Status (6)

Country Link
EP (1) EP4478728A1 (zh)
JP (1) JP2023115633A (zh)
KR (1) KR20240148829A (zh)
CN (1) CN118592036A (zh)
DE (1) DE112023000847T5 (zh)
WO (1) WO2023153117A1 (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001093616A (ja) 1999-09-21 2001-04-06 D D K Ltd 電気コネクタ
JP2010231192A (ja) * 2009-03-06 2010-10-14 Nikon Corp ステレオ撮像装置
JP2016127571A (ja) * 2015-01-08 2016-07-11 キヤノン株式会社 カメラシステム、表示制御装置、表示制御方法、及びプログラム
JP2017092899A (ja) * 2015-11-17 2017-05-25 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
JP7366722B2 (ja) 2019-12-10 2023-10-23 シャープ株式会社 電子機器、制御装置、制御方法、および、制御プログラム

Also Published As

Publication number Publication date
JP2023115633A (ja) 2023-08-21
DE112023000847T5 (de) 2024-12-05
EP4478728A1 (en) 2024-12-18
WO2023153117A1 (ja) 2023-08-17
KR20240148829A (ko) 2024-10-11

Similar Documents

Publication Publication Date Title
US9491440B2 (en) Depth-sensing camera system
US8358365B2 (en) Photo detecting device and image pickup device and method thereon
CN103259977B (zh) 图像处理装置、摄像装置及控制方法
CN107534761B (zh) 成像装置、成像方法、图像处理装置
CN108353158B (zh) 图像拍摄装置及其控制方法
JP2016533695A (ja) センサの全解像度における複数のタイプのデータを測定するためにアレイセンサを使用する方法
JP2012215785A5 (zh)
CN104620075B (zh) 多被摄体的距离测量装置以及方法
JPWO2015059897A1 (ja) 映像撮影装置、映像撮影方法、符号型赤外カットフィルタ、および符号型特定色カットフィルタ
CN103905727A (zh) 被摄体区域跟踪设备及其控制方法
CN104025574A (zh) 摄像装置及图像处理方法
KR101679293B1 (ko) 광 검출 소자 및 촬상 장치
CN104919352B (zh) 摄像装置和图像校正方法以及图像处理装置和图像处理方法
JP6969550B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP4660342B2 (ja) 画像処理システム、画像処理プログラム
JP6303689B2 (ja) 電子機器
JP2005197914A (ja) 顔画像認識装置及びそれを備えたデジタルカメラ
US9189863B2 (en) Method and system for detecting motion capable of removing shadow by heat
JP4250513B2 (ja) 画像処理装置及び画像処理方法
JP2012044339A (ja) 撮像装置及びパノラマ画像データ生成方法
CN118592036A (zh) 信息处理装置
JP6272099B2 (ja) 画像処理装置、制御方法およびプログラム
JP2008028924A (ja) 撮像装置及び撮像装置の制御方法
JP6106026B2 (ja) 画像処理装置、撮像装置、再生装置、制御方法、及びプログラム
JP6725060B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination