[go: up one dir, main page]

CN111937035A - 外界识别装置 - Google Patents

外界识别装置 Download PDF

Info

Publication number
CN111937035A
CN111937035A CN201980025028.1A CN201980025028A CN111937035A CN 111937035 A CN111937035 A CN 111937035A CN 201980025028 A CN201980025028 A CN 201980025028A CN 111937035 A CN111937035 A CN 111937035A
Authority
CN
China
Prior art keywords
data
unit
image
extraction unit
identification device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980025028.1A
Other languages
English (en)
Inventor
志磨健
大里琢马
大塚裕史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Publication of CN111937035A publication Critical patent/CN111937035A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

本发明提供一种在向外部输出图像数据时能够抑制传送延迟的外界识别装置。本发明的立体摄像机(100)(外界识别装置)具备拍摄部(101)、数据生成部(104a)、数据提取部(1022)、以及数据输出部(1052)。拍摄部(101)拍摄图像。数据生成部(104a)根据通过所述拍摄部(101)拍摄到的所述图像生成多个种类的数据。数据提取部(1022)从所述多个种类的数据中提取数据。数据输出部(1022)将通过所述数据提取部提取出的数据向外部输出。

Description

外界识别装置
技术领域
本发明涉及一种外界识别装置。
背景技术
已知有能够使基于摄像机图像的信息分析的可靠性提高的车用图像处理装置(例如,参考专利文献1)。
在专利文献1中记载了“在通过拍摄自身车辆前方的拍摄单元拍摄到的图像中,设置包括前方车辆或者道路白线或者标识的关注区域及除此以外的非关注区域,检测在通过拍摄单元拍摄到的图像中的关注区域及非关注区域中的亮度信息。并且,根据关注区域和非关注区域的亮度信息来判断是否处于基于图像处理的自身车辆前方的状况分析较为困难的行驶环境”。
现有技术文献
专利文献
专利文献1:日本专利特开2005-135308号公报
发明内容
发明要解决的问题
近年来,伴随立体摄像机等外界识别装置的高像素化,图像的容量变大。为此,在向外部输出图像数据时,可能会发生传送延迟。在专利文献1中,未考虑这样的传送延迟。
本发明的目的在于提供一种在向外部输出图像数据时能够抑制传送延迟的外界识别装置。
解决问题的技术手段
为了达成上述目的,本发明具备:拍摄部,其拍摄图像;数据生成部,其根据通过所述拍摄部拍摄的所述图像来生成多个种类的数据;数据提取部,其从所述多个种类的数据中提取数据;以及数据输出部,其将通过所述数据提取部提取到的数据向外部输出。
发明的效果
通过本发明,在向外部输出图像数据时能够抑制传送延迟。上述以外的课题、构成以及效果,通过以下的实施方式的说明加以明确。
附图说明
图1为包含本发明的实施方式的立体摄像机的系统的构成图。
图2为本发明的实施方式的立体摄像机的构成图。
图3为表示本发明的实施方式的立体摄像机的功能的框图。
图4为表示通信接口的例子的图。
图5为表示本发明的实施方式的立体摄像机的动作的流程图。
图6为表示变形例的立体摄像机的功能的框图。
图7为表示变形例的立体摄像机的动作的流程图。
具体实施方式
以下,利用附图,对本发明的实施方式的立体摄像机(外界识别装置)的构成以及动作进行说明。另外,各图中,同一符号表示同一部分。
(实施方式)
首先,利用图1说明系统的构成。图1为包含本发明的实施方式的立体摄像机100的系统1的构成图。
系统1具有立体摄像机100、自动驾驶ECU200(Electronic Control Unit(电子控制单元))、毫米波雷达300、LIDAR400(Light Detecting And Ranging(激光雷达))等。
立体摄像机100对同一对象物体从不同的多个视点进行拍摄,并根据得到的图像中的视觉表现的偏差(视差)来计算至对象物体为止的距离。作为一例,立体摄像机100通过依据以太网(注册商标)的LAN(Local Area Network(局域网))电缆连接至自动驾驶ECU200。在此,以太网(注册商标)比后述的CAN(Controller Area Network(控制器局域网))的传输速度更快,因此适于发送大容量的数据。
自动驾驶ECU200基于由毫米波雷达300、LIDAR400等传感器检测到的对象物体的距离、角度、相对速度等,控制车辆的自动驾驶。
作为一例,自动驾驶ECU200通过依据CAN的2线式总线与毫米波雷达300、LIDAR400等传感器连接。
毫米波雷达300使用毫米波(电磁波)来检测对象物体的距离、角度、相对速度等。LIDAR 400使用紫外线、可见光、近红外线等光波(电磁波)来检测对象物体的距离、角度、相对速度等。
接着,使用图2说明立体摄像机100的构成。图2为本发明的实施方式的立体摄像机100的构成图。
作为一例,立体摄像机100由拍摄部101、CPU102(Central Processing Unit(中央处理单元)))、存储器103、图像处理部104、以及通信电路105构成。
拍摄部101由左拍摄部101L、右拍摄部101R构成,并拍摄图像。具体而言,左拍摄部101L和右拍摄部101R分别由镜头等光学元件和CCD(Charge Coupled Device(电荷耦合器件))、CMOS(Complementary Metal Oxide Semiconductor(互补金属氧化物半导体))等拍摄元件构成。光学元件使光折射而在拍摄元件上成像。
拍摄元件对由光学元件折射的光的像进行受光,并生成与该光的强度相应的图像。
CPU102通过执行规定的程序,实现后述的各种功能。在本实施方式中,CPU102例如根据对象物体的类别(行人、车辆等)生成有关车辆控制的指令。
存储器103例如由FLASH等非易失性存储器、RAM(Random Access Memory)等易失性存储器构成,以存储各种信息。
图像处理部104由FPGA(Field-Programmable Gate Array(现场可编程门阵列))、DSP(Digital Signal Processor(数字信号处理器))、ASIC(Application SpecificIntegrated Circuit(专用集成电路))等电路构成。图像处理部104例如执行图像的校正、视差的计算等。图像处理部104的功能的详细内容,使用图3后述。
作为一例,通信电路105由依据以太网的收发器等构成。通信电路105发送或接收各种数据。
接着,使用图3说明立体摄像机100的功能。图3为表示本发明的实施方式的立体摄像机100的功能的框图。
左拍摄部101L拍摄对象物体的第一图像。右拍摄部101R拍摄对象物体的第二图像。所拍摄的第一图像和第二图像例如作为“原始图像”(RAW数据)暂时存储在存储器103中。
图像处理部104包括图像修正部1041、视差计算部1042、立体物提取部1043、立体分组部1044和物体识别部1045。另外,图像修正部1041、视差计算部1042、立体物提取部1043、立体分组部1044和物体识别部1045可以各自单独地构成。
图像修正部1041修正由左拍摄部101L拍摄的第一图像和由右拍摄部101R拍摄的第二图像。具体而言,图像修正部1041例如修正第一图像和第二图像的失真、光轴偏差。被修正后的第一图像和第二图像例如作为“修正图像”暂时存储在存储器103中。
视差计算部1042通过执行立体匹配,根据由图像修正部1041修正后的第一图像和第二图像计算视差。视差计算部1042通过三角测量根据视差计算到对象物体的距离。视差计算部1042生成将图像上的位置和对应于视差的距离相关联的视差图像。例如,将视差图像(第一数据)存储在存储器103中。
立体物提取部1043从视差计算部1042生成的视差图像中提取位于相同距离处的物体作为一个立体物。例如,作为被提取的立体物的数据的立体物原始信息(第二数据)被存储在存储器103中。
立体分组部1044基于亮度、边缘等对由立体物提取部1043提取出的立体物进行分组。作为被分组后的立体物的数据的立体物分组后信息(第三数据)例如被存储在存储器103中。
物体识别部1045根据由立体分组部1044分组后的立体物来识别对象物体是什么(行人、车辆等)。
CPU102通过执行规定的程序,作为车辆控制部1021和数据提取部1022发挥功能。车辆控制部1021根据由物体识别部1045识别出的物体的类别生成控制车辆的指令。例如,在判定为行人在车辆的前进道路上时,车辆控制部1021生成使车辆减速的指令。
数据提取部1022根据由后述的请求接收部1051接收到的来自自动驾驶ECU200的请求,来提取(选择)存储在存储器103中的数据。即,数据提取部1022从多个种类的数据中提取规定的数据。
换言之,数据提取部1022根据请求提取数据。
通信电路105作为请求接收部1051和数据输出部1052发挥作用。请求接收部1051接收来自外部的自动驾驶的请求。数据输出部1052将由数据提取部1022提取到的数据输出至外部的自动驾驶ECU200。换言之,数据输出部1052根据请求输出数据。
另外,图像修正部1041、视差计算部1042、立体物提取部1043以及立体分组部1044构成数据生成部104a,该数据生成部104a根据由拍摄部101拍摄到的图像生成多个种类的数据。
接着,使用图4说明通信电路105的通信接口。图4为表示通信接口的例子的图。
图4的表的第2行表示从自动驾驶ECU200输入通信电路105的“请求”。图4的表的第3行表示从通信电路105输出至自动驾驶ECU200的“对应于请求的数据”。
来自自动驾驶ECU200的请求包含:作为表示关注区域的信息的图像上的坐标值(表示图像上的位置的信息)、作为表示输出内容(数据的种类)的信息的类别ID、作为表示输出分辨率(分辨率)的信息的图像的间隔剔除程度或者对象的输出个数、作为表示输出频率的信息的每单位时间(秒)的输出次数(次/s)。
关注区域例如是基于由毫米波雷达300、LIDAR400等传感器检测到的对象物体的距离、角度、相对速度等而通过自动驾驶ECU200推断出可能有立体物存在的部位。类别ID表示应输出的数据的类别。例如,作为数据的类别,有由拍摄部101拍摄的原始图像(RAW数据)、视差图像(第一数据)、立体物原始信息(第二数据)、立体物分组后信息(第三数据)。
接着,使用图5说明立体摄像机100的动作。图5为表示本发明的实施方式的立体摄像机100的动作的流程图。
立体摄像机100从自动驾驶ECU200接收图4所示的请求(S10)。立体摄像机100根据在S10中接收的请求提取(选择)存储在存储器103中的数据(S15)。
立体摄像机100输出在S15中提取的数据(S20)。例如,对于图4所示的请求,立体摄像机100针对由“图像上的坐标值”所表示的关注区域,从存储器103读出由“类别ID”所表示的种类的数据,以由“图像的间隔剔除程度/输出个数”所表示的输出分辨率且以由“回/s”所表示的输出频率将读出的数据向自动驾驶ECU200输出(发送)。另外,立体摄像机100也可以输出同步信息。
这里,数据提取部1022提取请求中包含的“图像上的坐标值”(位置信息表示的图像上的位置)的数据。由此,自动驾驶ECU200能够获取仅关注区域的数据。
数据提取部1022提取请求中包含的“类别ID”所表示的种类的数据。由此,自动驾驶ECU200能够仅获取所期望的种类的数据。
数据输出部1052以请求中包含的“图像的间隔剔除程度/输出个数”所表示的输出分辨率(分辨率)将由数据提取部1022提取出的数据输出到外部的自动驾驶ECU200。由此,自动驾驶ECU200能够获取所期望的输出分辨率的数据。
数据输出部1052以请求中包含的“回/s”所表示的输出频率向外部输出由数据提取部1022提取出的数据。由此,自动驾驶ECU200能够以所期望的输出频率获取数据。
数据输出部1052通过以太网将由数据提取部1022提取的数据向外部的自动驾驶ECU200输出。由此,与CAN等相比传输速度提高。
数据生成部104a生成表示视差或与视差对应的距离的视差图像(第一数据),从视差图像(第一数据)中提取立体物的数据作为立体物原始信息(第二数据),并根据立体物原始信息(第二数据)生成经过分组而得到的立体物分组后信息(第三数据)。
数据提取部1022从原始图像(RAW数据)、视差图像(第一数据)、立体物原始信息(第二数据)、立体物分组后信息(第三数据)中提取(选择)由种类ID表示的种类的数据。
物体识别部1045根据由拍摄部101拍摄的图像来识别物体。数据提取部1022提取关联有阈值以上的重要度的物体的数据。
系统1包括立体摄像机100(外界识别装置)、使用电磁波检测物体位置的毫米波雷达300、LIDAR400等传感器、以及自动驾驶ECU200(控制装置)。
自动驾驶ECU200(控制装置)将由传感器检测出的物体的位置变换为图像上的位置,向立体摄像机100(外界识别装置)发送包含该位置的位置信息的请求,从立体摄像机100(外界识别装置)接收由数据提取部1022提取出的数据并根据接收到的数据来控制车辆。
这样,自动驾驶ECU200能够提取各种层级(拍摄部101、图像修正部1041至立体分组部1044等)的数据。
如以上说明的那样,根据本实施方式,在向外部输出图像数据时能够抑制传送延迟。另外,能够减小从高像素化的立体摄像机输出的数据的容量。
(变形例)
接着,使用图6以及图7,说明变形例。图6为表示变形例的立体摄像机100A的功能的框图。此外,本变形例的立体摄像机100A的硬件构成与图2所示的立体摄像机100相同。
在图6所示的本变形例中,在通信电路105中没有请求接收部1051。本变形例的数据提取部1022A由物体识别部1045识别,并提取关联有阈值以上的重要度的物体在图像上的位置(坐标值)的数据。即,数据提取部1022A提取重要度高的物体(行人、危险的部位)的数据。此外,重要度和物体的类型例如相关联地被存储在存储器103中。
图7为表示变形例的立体摄像机100A的动作的流程图。
立体摄像机100A对物体进行识别(S13)。立体摄像机100A提取在S13中识别出的物体中重要度高的物体(行人、危险的部位)的数据(S18)。立体摄像机100A输出在S18中提取出的数据(S20)。
另外,本发明不限于上述实施方式,包含各种各样的变形例。例如,上述实施方式是为了以易于理解的方式说明本发明所作的详细说明,并不一定限定于具备说明的全部构成。
在上述实施方式中,采用了立体摄像机100作为外界识别装置,但是拍摄元件的数量是任意的,也可以是单眼摄影机。
在上述实施方式中,例举了毫米波雷达、LIDAR作为传感器,但是传感器也可以是使用声波来检测对象物体的距离、角度、相对速度等的声纳。
在上述实施方式中,为了便于理解,作为一例将与原始图像(RAW数据)、视差图像(第一数据)、立体物原始信息(第二数据)、立体物分组后信息(第三数据)等图像有关的数据存储在存储器103中,但也可以存储在图像处理部104的内置存储器中。
在上述实施方式中,作为一例,图像修正部1041、视差计算部1042、立体物提取部1043、立体分组部1044、物体识别部1045实现作为图像处理部104的功能,但也可以作为CPU102的功能来实现。并且,图像校正部1041、视差计算部1042、立体物提取部1043、立体分组部1044和物体识别部1045各自可以作为ASIC等的电路而构成。
在上述实施方式中,虽然采用以太网作为立体摄像机100与自动驾驶ECU200之间的标准,但如果能够实现与以太网同等以上的传输速度,则也可以是其他标准。
在上述实施方式中,来自自动驾驶ECU200的“请求”中包括图像上的坐标值,但也可以代替图像上的坐标值而包括世界坐标系等其他坐标系的坐标值。立体摄像机100的CPU102将世界坐标系的坐标值转换为图像上的坐标值。另外,也可以代替图上的坐标值而包含车速。数据提取部1022在车速在阈值以上(高速)的情况下,例如提取(选择)高分辨率图像和视差图像,提取(选择)低分辨率图像和视差图像。
来自自动驾驶ECU200的请求可以包括指定由左拍摄部101L拍摄的第一图像数据、或者由右拍摄部101R拍摄的第二图像数据中的某一方或两方的信息。数据提取部1022、1022A提取(选择)被指定的图像数据。另外,由车速传感器检测车速。
自动驾驶ECU200参照从立体摄像机100接收到的视差图像(第一数据)、立体物原始信息(第二数据)、立体物分组后信息(第三数据)等,在存在检测物体候选的情况下,可以将与其位置对应的图像坐标系或世界坐标系的坐标值作为表示关注区域的信息包含在“请求”中,再次输入到立体摄像机100。
另外,上述的各构成、功能等,也可以通过例如用集成电路设计等而通过硬件来实现这些的一部分或全部。另外,上述各构成、功能等也可以通过处理器(CPU)解释并执行实现各自功能的程序而用软件来实现。实现各功能的程序、表、文件等信息可以放置在存储器、硬盘、SSD(Solid State Drive)等存储装置或IC卡、SD卡、DVD等存储介质中。
符号说明
1…系统,100、100A…立体摄像机,101…拍摄部,101L…左拍摄部,101R…右拍摄部,103…存储器,104…图像处理部,104a…数据生成部,105…通信电路,300…毫米波雷达,400…LIDAR,1021…车辆控制部,1022…数据提取部,1022A…数据提取部,1041…图像修正部,1042…视差计算部,1043…立体物提取部,1044…立体分组部,1045…物体识别部,1051…请求接收部,1052…数据输出部。

Claims (10)

1.一种外界识别装置,其特征在于,具备:
拍摄部,其拍摄图像;
数据生成部,其根据通过所述拍摄部拍摄的所述图像生成多个种类的数据;
数据提取部,其从所述多个种类的数据中提取数据;以及
数据输出部,其将通过所述数据提取部提取出的数据向外部输出。
2.如权利要求1所述的外界识别装置,其特征在于,
还具备请求接收部,其接收来自外部的请求,
所述数据输出部根据所述请求输出数据。
3.如权利要求2所述的外界识别装置,其特征在于,
所述数据提取部根据所述请求提取数据。
4.如权利要求3所述的外界识别装置,其特征在于,
所述请求包括表示图像上的位置的位置信息,
所述数据提取部提取所述位置信息所表示的图像上的位置的数据。
5.如权利要求4所述的外界识别装置,其特征在于,
所述请求包括表示数据的种类的类别ID,
所述数据提取部提取所述类别ID所表示的种类的数据。
6.如权利要求4所述的外界识别装置,其特征在于,
所述请求包括分辨率,
所述数据输出部将由所述数据提取部提取出的数据以所述分辨率向外部输出。
7.如权利要求4所述的外界识别装置,其特征在于,
所述请求包括输出频率,
所述数据输出部将通过所述数据提取部提取出的数据以所述输出频率向外部输出。
8.如权利要求5所述的外界识别装置,其特征在于,
所述数据生成部生成表示视差、或与视差对应的距离的第一数据,
从所述第一数据中提取立体物的数据作为第二数据,
根据所述第二数据生成经过分组而得到的第三数据,
所述数据提取部从所述图像的RAW数据、所述第一数据、所述第二数据、所述第三数据中提取所述类别ID所表示的种类的数据。
9.如权利要求1所述的外界识别装置,其特征在于,
具有从通过所述拍摄部拍摄的图像中识别物体的物体识别部
所述数据提取部提取关联有阈值以上的重要度的所述物体的数据。
10.一种系统,其特征在于,
包含权利要求4所述的外界识别装置,
所述系统具有:
传感器,其使用电磁波或音波来检测物体位置;
控制装置,其将通过所述传感器检测到的所述物体的位置变换为图像上的位置,将包含该位置的位置信息的所述请求发送至所述外界识别装置,从所述外界识别装置接收通过所述数据提取部提取到的数据,根据接收到的数据来控制车辆。
CN201980025028.1A 2018-04-17 2019-04-04 外界识别装置 Pending CN111937035A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018-079266 2018-04-17
JP2018079266A JP7106332B2 (ja) 2018-04-17 2018-04-17 外界認識装置
PCT/JP2019/014915 WO2019203000A1 (ja) 2018-04-17 2019-04-04 外界認識装置

Publications (1)

Publication Number Publication Date
CN111937035A true CN111937035A (zh) 2020-11-13

Family

ID=68238894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980025028.1A Pending CN111937035A (zh) 2018-04-17 2019-04-04 外界识别装置

Country Status (3)

Country Link
JP (1) JP7106332B2 (zh)
CN (1) CN111937035A (zh)
WO (1) WO2019203000A1 (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059260A (ja) * 2006-08-31 2008-03-13 Fujitsu Ltd 移動検出画像生成装置
WO2014073322A1 (ja) * 2012-11-08 2014-05-15 日立オートモティブシステムズ株式会社 物体検出装置及び物体検出方法
JP2014130429A (ja) * 2012-12-28 2014-07-10 Ricoh Co Ltd 撮像装置及び立体物領域検出用プログラム
CN104104859A (zh) * 2013-04-15 2014-10-15 欧姆龙株式会社 图像处理装置、图像处理方法、图像处理程序以及记录介质
CN104769942A (zh) * 2012-10-29 2015-07-08 日立汽车系统株式会社 图像处理装置
WO2016002418A1 (ja) * 2014-07-04 2016-01-07 日立オートモティブシステムズ株式会社 情報処理装置
CN106170828A (zh) * 2014-04-24 2016-11-30 日立汽车系统株式会社 外界识别装置
WO2017130639A1 (ja) * 2016-01-28 2017-08-03 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
WO2017195650A1 (ja) * 2016-05-13 2017-11-16 ソニー株式会社 生成装置および生成方法、並びに、再生装置および再生方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059260A (ja) * 2006-08-31 2008-03-13 Fujitsu Ltd 移動検出画像生成装置
CN104769942A (zh) * 2012-10-29 2015-07-08 日立汽车系统株式会社 图像处理装置
WO2014073322A1 (ja) * 2012-11-08 2014-05-15 日立オートモティブシステムズ株式会社 物体検出装置及び物体検出方法
JP2014130429A (ja) * 2012-12-28 2014-07-10 Ricoh Co Ltd 撮像装置及び立体物領域検出用プログラム
CN104104859A (zh) * 2013-04-15 2014-10-15 欧姆龙株式会社 图像处理装置、图像处理方法、图像处理程序以及记录介质
CN106170828A (zh) * 2014-04-24 2016-11-30 日立汽车系统株式会社 外界识别装置
WO2016002418A1 (ja) * 2014-07-04 2016-01-07 日立オートモティブシステムズ株式会社 情報処理装置
WO2017130639A1 (ja) * 2016-01-28 2017-08-03 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
WO2017195650A1 (ja) * 2016-05-13 2017-11-16 ソニー株式会社 生成装置および生成方法、並びに、再生装置および再生方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
武维生;张海;沈威;董戴;吴华夏;: "裸眼立体显示中3D模型多视点影像提取", 中国体视学与图像分析, no. 01, 25 March 2008 (2008-03-25) *

Also Published As

Publication number Publication date
JP2019185666A (ja) 2019-10-24
JP7106332B2 (ja) 2022-07-26
WO2019203000A1 (ja) 2019-10-24

Similar Documents

Publication Publication Date Title
CN109614889B (zh) 对象检测方法、相关设备及计算机存储介质
US20220224825A1 (en) Electronic device for recording image as per multiple frame rates using camera and method for operating same
US8224069B2 (en) Image processing apparatus, image matching method, and computer-readable recording medium
CN104363378B (zh) 相机对焦方法、装置及终端
US9420158B2 (en) System and method for effectively implementing a lens array in an electronic device
TWI540462B (zh) 手勢辨識方法及其裝置
CN104363377B (zh) 对焦框的显示方法、装置及终端
CN102227746A (zh) 立体图像处理装置、方法、记录介质和立体成像设备
CN109196304B (zh) 物体距离检测装置
US10529081B2 (en) Depth image processing method and depth image processing system
WO2023155353A1 (zh) 深度图像的获取方法、装置、深度系统、终端和存储介质
CN105321159B (zh) 手持式电子装置、图像提取装置及景深信息的获取方法
CN114511714A (zh) 物体识别装置和物体识别方法
CN114428257B (zh) 物体检测装置
CN113544582B (zh) 成像装置及检测表情的方法
CN114422665B (zh) 一种基于多摄像头的拍摄方法及相关装置
CN111937035A (zh) 外界识别装置
US10769805B2 (en) Method, image processing device, and system for generating depth map
US20170006212A1 (en) Device, system and method for multi-point focus
CN111656404A (zh) 图像处理方法、系统及可移动平台
JP2018146495A (ja) 物体検出装置、物体検出方法、物体検出プログラム、撮像装置、及び、機器制御システム
JP4797441B2 (ja) 車両用画像処理装置
JP6943092B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
US20190208100A1 (en) Vehicle camera device and exposure parameter setting method thereof
US12401897B2 (en) Lens positioning for secondary camera in multi-camera system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Ibaraki

Applicant after: Hitachi astemo Co.,Ltd.

Address before: Ibaraki

Applicant before: HITACHI AUTOMOTIVE SYSTEMS, Ltd.

CB02 Change of applicant information
AD01 Patent right deemed abandoned

Effective date of abandoning: 20240913

AD01 Patent right deemed abandoned