WO2025069388A1 - 物体検出装置、物体検出方法及び記録媒体 - Google Patents
物体検出装置、物体検出方法及び記録媒体 Download PDFInfo
- Publication number
- WO2025069388A1 WO2025069388A1 PCT/JP2023/035668 JP2023035668W WO2025069388A1 WO 2025069388 A1 WO2025069388 A1 WO 2025069388A1 JP 2023035668 W JP2023035668 W JP 2023035668W WO 2025069388 A1 WO2025069388 A1 WO 2025069388A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- object detection
- information
- area
- image
- detection device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Definitions
- the present invention relates to an object detection device, an object detection method, and a recording medium.
- Patent Document 1 discloses an example of an object detection device that can properly detect objects such as a vehicle ahead. More specifically, the publication describes that the object detection device includes a search area determination unit that determines an area in the image that includes the road surface as a search area, and that the search area determination unit determines the search area based on the white lines on the road.
- the present disclosure aims to provide an object detection device, an object detection method, and a recording medium that can prevent the detection of unnecessary objects on curves, etc.
- an object detection device including a first acquisition unit that acquires an image, a second acquisition unit that acquires road information or sensor information for a position corresponding to the image, a region determination unit that determines a region in the image that is a detection range for an object based on the road information or the sensor information, and an object detection unit that detects an object within the region.
- an object detection method acquires an image and road information or sensor information for a position corresponding to the image, determines an area in the image that is a detection range for an object based on the road information or the sensor information, and detects an object within the area.
- a recording medium records a program for causing a computer to execute the following processes: acquiring an image and road information or sensor information for a position corresponding to the image; determining an area in the image that is a detection range for an object based on the road information or the sensor information; and detecting an object within the area.
- This disclosure can contribute to providing a configuration that can prevent unnecessary object detection on curves, etc.
- FIG. 1 illustrates one configuration of the present disclosure.
- 3 is a flow diagram illustrating the operation of the present disclosure.
- FIG. 4 is a diagram showing an example of an object detection region.
- FIG. 11 is a diagram showing another example of an object detection region.
- FIG. 13 is a diagram showing an example of setting an object detection area according to the present disclosure.
- FIG. 1 illustrates one configuration of the present disclosure. 1 is a diagram showing an example of road information held by an object detection device according to the present disclosure; 3 is a flow diagram illustrating the operation of the present disclosure.
- FIG. 13 is a diagram showing another example of setting an object detection area according to the present disclosure.
- FIG. 13 is a diagram showing another configuration of the present disclosure.
- FIGS. 1A to 1C are diagrams illustrating an example of a detection result of a road shape by an object detection device according to the present disclosure.
- 3 is a flow diagram illustrating the operation of the present disclosure.
- FIG. 13 is a diagram showing another configuration of the present disclosure.
- 3 is a flow diagram illustrating the operation of the present disclosure.
- 1 is a diagram for explaining operation plan information held by an object detection device according to the present disclosure.
- FIG. 2 is a diagram for explaining the operation of the present disclosure.
- FIG. 2 is a diagram for explaining the operation of the present disclosure.
- FIG. 2 is a diagram for explaining the operation of the present disclosure.
- FIG. 2 is a diagram illustrating a configuration of a computer constituting an information processing device according to the present disclosure.
- the computer device is configured to be able to communicate with devices (including computers) inside or outside the device via the communication interface, regardless of whether it is wired or wireless.
- devices including computers
- the communication interface regardless of whether it is wired or wireless.
- ports or interfaces at the connection points of the input and output of each block in the figure, they are not shown.
- the present disclosure can be realized by an object detection device 10 including a first acquisition unit 11, a second acquisition unit 12, an area determination unit 13, and an object detection unit 14, as shown in FIG. 1. More specifically, the first acquisition unit 11 acquires an image. The second acquisition unit 12 acquires road information or sensor information for a position corresponding to the image. The area determination unit 13 determines an area in the image that is a detection range for an object, based on the road information or the sensor information. The object detection unit 14 detects an object within the area.
- the object detection device 10 configured as described above operates as follows. First, the object detection device 10 acquires an image for object detection using the first acquisition unit 11 (step S01 in FIG. 2).
- the object detection device 10 acquires road information or sensor information for the position corresponding to the image (step S02 in FIG. 2).
- the object detection device 10 determines an area in the image that is the object detection range based on the road information or the sensor information (step S03 in FIG. 2).
- the object detection device 10 detects an object within the area (step S04 in Figure 2).
- FIGS. 3 to 5 are diagrams for explaining a method for determining an area that is an object detection range according to the present disclosure.
- the shaded area in FIG. 3 indicates an object detection area set on a straight road.
- the object detection device 10 can properly detect a pedestrian P on the path.
- the shaded area in Figure 4 indicates an object detection area set by an object detection device that does not have the second acquisition unit 12 and the area determination unit 13. As shown in Figure 4, the same area as in Figure 3 is applied as is to the road that curves to the right. In this case, the object detection device will detect pedestrian P who is not on the path.
- FIG. 5 shows an object detection area set by an object detection device 10 equipped with a second acquisition unit 12 and an area determination unit 13 of the present disclosure.
- the object detection device 10 of the present disclosure sets an area that curves to the right along the road for a road that curves to the right, based on road information or the sensor information.
- the area determination unit 13 sets the area along the road on the image based on road information or sensor information, thereby enabling the object detection device 10 to properly detect objects that are not on the path.
- the present disclosure makes it possible to prevent the object detection device 10 from detecting unnecessary objects on curves, etc.
- FIG. 6 is a diagram showing one configuration of the present disclosure.
- a vehicle V equipped with an object detection device 100 including a camera C, a GPS, a road information storage unit 102, a region determination unit 103, an object detection unit 104, and a display unit 105 is shown.
- Camera C photographs the direction of travel of vehicle V (moving body) and acquires images. Therefore, camera C corresponds to the first acquisition unit 11.
- the road information storage unit 102 stores map information including road shapes.
- Figure 7 shows an example of road information stored in the road information storage unit 102.
- the area determination unit 103 uses the position information obtained from the GPS and the direction of travel, which is a change over time, to identify the shape of the road ahead of the vehicle V, and uses the result to determine an area that will be the detection range for an object in the image. For example, if the road ahead of the vehicle V is a straight road, the area determination unit 103 determines an area with the hatched shape in FIG. 3. Also, for example, if the road ahead of the vehicle V curves to the right, the area determination unit 103 determines an area with the hatched shape in FIG. 5. The area determination unit 103 notifies the object detection unit 104 of the determined area. In the example of FIG. 6, the area determination unit 103 is configured to include the second acquisition unit 12 described above.
- the object detection unit 104 uses an inference model created in advance to perform object detection processing on the area determined by the area determination unit 103 in the image captured by camera C, and detects objects.
- This inference model is generated so that it can learn and tune using teacher data prepared in advance so that it can detect various objects in images.
- the method of object detection in the object detection unit 104 is not limited to this, and for example, a method of detecting objects using a difference image or frame difference may be used.
- the object detection unit 104 detects an object that is a notification target set in advance, it displays information about the object on the display unit 105.
- the display unit 105 displays the object detection results and associated information notified by the object detection unit 104.
- the display unit 105 may be a display device of a car navigation terminal or a driving assistance system mounted on the vehicle V.
- FIG. 8 is a diagram showing the operation performed at a predetermined time interval in an object detection device 100 of one configuration of the present disclosure.
- the object detection device 100 acquires a camera image from camera C (step S001).
- the object detection device 100 acquires road information and GPS information (location information) (step S002). Since it is necessary to know the direction of travel, it is desirable to either retain the GPS information (location information) for a certain period of time, or acquire the GPS information (location information) multiple times in step S002. Of course, instead of using the change over time in the GPS information (location information), the direction of travel may be identified using the value of a direction sensor.
- the object detection device 100 refers to the GPS information (location information) and road information corresponding to the traveling direction of the vehicle V to identify the shape of the road ahead of the vehicle V, and uses the result to determine the area that will be the detection range for the object in the image (step S003).
- the object detection device 100 performs an object detection process on the determined area to detect an object (step S004).
- the object detection device 100 displays information about the detected object on the display unit 105. If an object cannot be detected, the object detection device 100 omits displaying the information on the display unit 105, or displays on the display unit 105 that the path is safe.
- object detection device 100 determines from road information and GPS information (location information) that there is an intersection ahead, and sets the area shown in Figure 9.
- GPS information location information
- Figure 9 in addition to the road surface in the straight-ahead direction, an area is set that protrudes into the parts where there are crosswalks on both sides of the intersection. By setting such an area, it becomes possible to detect the presence of pedestrian P early on at intersections where accidents are likely to occur.
- object detection device 100 determines that there is a right curve ahead and sets the area shown in Figure 5. As mentioned above, by setting such an area, it becomes possible to detect fallen objects and the like on the vehicle's true path, and also to exclude pedestrians P that are not in the vehicle's path from the detection target.
- the object detection device 100 mounted on the vehicle V it is possible for the object detection device 100 mounted on the vehicle V to appropriately detect objects on its path.
- the object detection area is configured to extend onto the sidewalk area at intersections, etc., making it possible to realize early detection of objects in locations where crossings with pedestrians, etc. are expected.
- the object detection device 100 is disposed in the vehicle V, but the placement of the object detection device 100 is not limited to this.
- the object detection device 100 may be realized as a function of an edge server that receives images from the vehicle V. By using such an edge server, it is possible to appropriately notify the vehicle V and the control center that controls the vehicle V of the object detection results.
- Fig. 10 is a diagram showing a configuration example of another object detection device 100a of the present disclosure.
- the difference from the configuration example shown in Fig. 6 is that a road detection unit 106 is added to the object detection device 100a instead of the road information storage unit 102 and GPS, and an area determination unit 103a determines an area based on the output of the road detection unit 106.
- the other configurations are the same as those in Fig. 6, so the following description will focus on the differences.
- the road detection unit 106 detects a road in an image captured by the camera C and sends its shape information to the region determination unit 103a.
- Fig. 11 shows the detection result of the road shape detected by the road detection unit 106. Note that, as such a road detection function of the road detection unit 106, a white line detection technology adopted in self-driving cars and ADAS (advanced driver assistance systems) can be used.
- the region determination unit 103a includes a second acquisition unit 12 that acquires sensor information.
- the area determination unit 103a determines an area that is the detection range for an object in the image based on the road shape detected by the road detection unit 106. For example, if a road shape like that shown in FIG. 11 is detected, the area determination unit 103a selects the part of the road that curves to the right as shown in FIG. 5 as the area.
- FIG. 12 is a flow diagram showing the operation of the object detection device 100a.
- the difference from the flow diagram shown in FIG. 8 is that after acquiring a camera image in step S001, the object detection device 100a detects the road shape from this image (step S102).
- the subsequent processing is the same as the flow shown in FIG. 8, so a description thereof will be omitted.
- the road detection unit 106 it is possible to determine an area in which to properly detect objects without using GPS or road information.
- FIG. 13 is a diagram showing a configuration example of another object detection device 100b of the present disclosure.
- the difference from the configuration example shown in FIG. 6 is that an operation plan information storage unit 107 and a clock T are added to the object detection device 100b instead of the road information storage unit 102 and GPS, and the area determination unit 103b determines an area based on the contents of these. Since the other configurations are the same as those in FIG. 6, the following description will focus on the differences.
- the operation plan information storage unit 107 stores operation plan information for the vehicle V.
- FIG. 14 is a diagram for explaining an overview of the operation plan information.
- the double-headed arrow on the map on the left side of FIG. 14 indicates the round-trip route of the vehicle V, which travels back and forth between position G and position H.
- the table on the right side of FIG. 14 indicates the time when the vehicle V departs from position G or H, and the time when it arrives at position H or G.
- the vehicle V is a route bus or a transport truck, its operation diagram can be used.
- route information to the destination set in the car navigation device and the predicted passing times at each point on the route can also be used as the operation plan information.
- the area determination unit 103b refers to the operation plan information stored in the operation plan information storage unit 107, estimates the current location and traveling direction of the vehicle V corresponding to the current time indicated by the clock T, and determines the area that is the detection range for objects in the image.
- FIG. 15 is a flow diagram showing the operation of the object detection device 100b.
- the difference from the flow diagram shown in FIG. 8 is that after acquiring the camera image in step S001, the object detection device 100b identifies the road shape from the current time and operation plan information (step S202).
- the subsequent processing is the same as the flow shown in FIG. 8, so a description thereof will be omitted.
- FIG. 16 is a diagram for explaining the operation of object detection device 100b.
- vehicle V departs from position G, and the current time is 9:10.
- vehicle V is located at position E in FIG. 16, and vehicle V is traveling toward position H, so the road in the traveling direction curves to the right.
- object detection device 100b determines the shaded area in FIG. 5 as the area in which to detect objects.
- object detection device 100b determines the shaded area in FIG. 9 as the area in which to detect objects.
- the object detection device 100b of this embodiment can be suitably applied to detecting objects in the direction of travel of buses and trains, which require strict punctuality and operate on time.
- the moving body is described as a vehicle V, but the present invention can be used to detect objects in the traveling direction of other moving bodies instead of the vehicle V.
- moving bodies include railroad cars and UAVs (Unmanned Aerial Vehicles, so-called drones).
- UAVs Unmanned Aerial Vehicles, so-called drones.
- the object detection device sets an area along the direction in which the rails curve at the moving body's destination, and if there is a structure such as a station at the moving body's destination, it can set an area that protrudes on the platform side.
- the object detection device sets an area along its flight path (on a road, etc.), and if there is a structure or the like that requires attention at the moving body's destination, it can set an area that protrudes according to its shape.
- the detection object was a pedestrian, but the detection object is not limited to a pedestrian.
- the detection object may be another vehicle, a fallen object, an abnormality in the road, etc.
- each component of each device represents a functional block.
- a part or all of each component of each device is realized by an arbitrary combination of an information processing device 900 and a program as shown in Fig. 18, for example.
- Fig. 18 is a block diagram showing an example of a hardware configuration of the information processing device 900 that realizes each component of each device.
- the information processing device 900 includes, as an example, the following configuration.
- each device in each embodiment are realized by the CPU 901 acquiring and executing a program 904 that realizes these functions. That is, the CPU 901 in FIG. 18 executes a data acquisition program and an area determination program, and performs an update process for each calculation parameter stored in the RAM 903, the storage device 905, etc.
- the program 904 that realizes the function of each component of each device is stored in the storage device 905 or the ROM 902 in advance, for example, and is read by the CPU 901 as necessary.
- the program 904 may be supplied to the CPU 901 via the communication network 909, or may be stored in advance on the recording medium 906, and the drive device 907 may read out the program and supply it to the CPU 901.
- each device may be implemented by any combination of a separate information processing device 900 and a program for each component.
- the multiple components of each device may be implemented by any combination of a single information processing device 900 and a program.
- each part (processing means, function) of the object detection device shown in the first to third embodiments described above can be implemented by a computer program that causes a processor mounted on the device to execute each of the above-mentioned processes using its hardware.
- each device is realized by other general-purpose or dedicated circuits, processors, etc., or a combination of these. These may be configured by a single chip, or may be configured by multiple chips connected via a bus.
- each device may be realized by a combination of the above-mentioned circuits and programs.
- the multiple information processing devices, circuits, etc. may be centrally located or distributed.
- the information processing devices, circuits, etc. may be realized as a client-server system, cloud computing system, etc., in a form in which each is connected via a communication network.
- [Appendix 1] A first acquisition unit that acquires an image; A second acquisition unit that acquires road information or sensor information at a position corresponding to the image; an area determination unit that determines an area in the image that is a detection range for an object based on the road information or the sensor information; an object detection unit that detects an object within the area;
- An object detection device comprising: [Appendix 2]
- the first acquisition section of the object detection device described above may be configured to acquire an image captured in the traveling direction of the moving object from a camera mounted on the moving object.
- the second acquisition unit of the object detection device described above may be configured to acquire road information or sensor information of a position corresponding to the image based on position information and a traveling direction of the moving body.
- the region determining section of the object detection device described above may be configured to set the region along a road on the image based on the road information or sensor information.
- the road information may be map information including shapes of roads.
- the sensor information may be a detection result of a road shape.
- the area determining unit may be configured to determine the area based on the operation plan information and a current time.
- the region determining section of the object detection device described above may be configured to set the region extending in a direction intersecting with the intersection when an intersection is present in the traveling direction of the moving body.
- the region determining section of the object detection device described above may be configured to set the region extending in accordance with the shape of a structure when the structure is present in the traveling direction of the moving body.
- [Appendix 10] Acquire an image and road information or sensor information at a position corresponding to the image, determining an area in the image that is a detection range for an object based on the road information or the sensor information; Detecting objects within the region; Object detection methods.
- Appendix 11 A process of acquiring an image and road information or sensor information at a position corresponding to the image; determining an area in the image that is a detection range for an object based on the road information or the sensor information; detecting an object within the region; A recording medium on which a program for causing a computer to execute the above is recorded.
- the embodiments described in the above appendices may be combined with each other after necessary modifications are made. For example, a configuration that combines the contents described in appendices 2 and 3 is also included in the scope of the disclosure of this specification.
- the embodiments of Supplementary Notes 10 to 11 can be expanded into the embodiments of Supplementary Notes 2 to 9, similarly to Supplementary Note 1.
- REFERENCE SIGNS LIST 10 100, 100a, 100b Object detection device 11 First acquisition unit 12 Second acquisition unit 13, 103 Area determination unit 14, 104 Object detection unit 102 Road information storage unit 105 Display unit 106 Road detection unit 107 Operation plan information storage unit 900 Information processing device 901 CPU (Central Processing Unit) 902 ROM (Read Only Memory) 903 RAM (Random Access Memory) 904 Program 905 Storage device 906 Recording medium 907 Drive device 908 Communication interface 909 Communication network 910 Input/output interface 911 Bus C Camera P Pedestrian T Clock V Vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
カーブ等において不必要な物体の検出を抑止できる構成を提供する。 物体検出装置は、画像を取得する第1の取得部と、前記画像に対応する位置の道路情報又はセンサー情報を取得する第2の取得部と、前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定する領域決定部と、前記領域内の物体を検出する物体検出部と、を備える。
Description
本発明は、物体検出装置、物体検出方法及び記録媒体に関する。
カメラで撮影された画像中に、一定の領域を設定し、その領域中に物体を検出する物体検出装置が知られている。例えば、特許文献1には、前方車両等の物体を適切に検出することができるという物体検出装置の一例が開示されている。より具体的には、同公報には、この物体検出装置が、画像中において路面を含む領域を探索領域として決定する探索領域決定部を備えること、また、この探索領域決定部が道路の白線に基づいて、前記探索領域を決定することが記載されている。
物体検出元となる画像が、移動体に固定されたカメラ等によって撮影されている場合、カーブ等において、余計な被写体が画像中に写り込んでしまうという問題点がある。
本開示は、カーブ等において不必要な物体の検出を抑止できるようにした物体検出装置、物体検出方法及び記録媒体を提供することを目的とする。
第1の視点によれば、画像を取得する第1の取得部と、前記画像に対応する位置の道路情報又はセンサー情報を取得する第2の取得部と、前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定する領域決定部と、前記領域内の物体を検出する物体検出部と、を備える物体検出装置が提供される。
第2の視点によれば、画像と、該画像に対応する位置の道路情報又はセンサー情報とをそれぞれ取得し、前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定し、前記領域内の物体を検出する、物体検出方法が提供される。
第3の視点によれば、画像と、該画像に対応する位置の道路情報又はセンサー情報とをそれぞれ取得する処理と、前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定処理する処理と、前記領域内の物体を検出する処理と、をコンピュータに実行させるプログラムを記録した記録媒体が提供される。
本開示によれば、カーブ等において不必要な物体の検出を抑止できる構成の提供に貢献することが可能となる。
はじめに本開示の一実施形態の概要について図面を参照して説明する。なお、本開示において図面は、1以上の実施の形態に関連付けられる。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本開示を図示の態様に限定することを意図するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。プログラムはコンピュータ装置を介して実行され、コンピュータ装置は、例えば、プロセッサ、記憶装置、入力装置、通信インターフェース、及び必要に応じ表示装置を備える。また、このコンピュータ装置は、通信インターフェースを介して装置内又は外部の機器(コンピュータを含む)と、有線、無線を問わず、通信可能に構成される。また、図中の各ブロックの入出力の接続点には、ポート乃至インターフェースがあるが図示を省略する。
本開示は、その一実施形態において、図1に示すように、第1取得部11と、第2取得部12と、領域決定部13と、物体検出部14と、を備える物体検出装置10にて実現することができる。より具体的には、第1取得部11は、画像を取得する。第2取得部12は、前記画像に対応する位置の道路情報又はセンサー情報を取得する。領域決定部13は、前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定する。物体検出部14は、前記領域内の物体を検出する。
上記のように構成された物体検出装置10は、次のように動作する。まず、物体検出装置10は、第1取得部11にて、物体検出を行う画像を取得する(図2のステップS01)。
次に、物体検出装置10は、前記画像に対応する位置の道路情報又はセンサー情報を取得する(図2のステップS02)。
次に、物体検出装置10は、前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定する(図2のステップS03)。
最後に、物体検出装置10は、前記領域内の物体を検出する(図2のステップS04)。
図3~図5は、本開示による物体の検出範囲となる領域の決定方法を説明するための図である。図3の網掛けをした領域は、直進道路に設定した物体検出領域を示している。この場合、物体検出装置10は、進路上の歩行者Pを適切に検出できる。
図4の網掛けをした領域は、第2取得部12及び領域決定部13を備えていない物体検出装置によって設定された物体検出領域を示している。図4に示されたとおり、右カーブの道路に図3と同様の領域がそのまま適用されてしまっている。この場合、物体検出装置は、進路上にない歩行者Pを検出してしまうことになる。
図5は、本開示の第2取得部12及び領域決定部13を備えた物体検出装置10によって設定される物体検出領域を示している。図5に示されたとおり、本開示の物体検出装置10は、道路情報又は前記センサー情報に基づいて、右カーブの道路に対し、道路に沿って右側に湾曲する領域を設定している。このように、領域決定部13が、道路情報又はセンサー情報に基づいて、前記画像上の道路に沿って前記領域を設定することで、物体検出装置10に、進路上にない物体を適切に検出させることができる。
なお、上記した図3~図5の例では、直線道路では、その消失点を頂点とする略三角形の領域を設定し、カーブでは、その曲率に合わせて先端が湾曲した領域を設定するものとしたが、領域の設定方法はこれに限られない。この物体検出のための領域は、検出したい物体の種類等によって適宜変更することができる。例えば、歩道を歩く歩行者をより正確に検知したい場合、図3、図5に示した領域をそれぞれ歩道側に拡げることで歩道上の歩行者をより正確に検出することができる。
以上説明したように、本開示によれば、物体検出装置10が、カーブ等において不必要な物体を検出することを抑止することが可能となる。
[第1の実施形態]
続いて、カメラを搭載した車両に本開示を適用した第1の実施形態について説明する。図6は、本開示の一構成を示す図である。図6を参照すると、カメラCと、GPSと、道路情報記憶部102と、領域決定部103と、物体検出部104と、表示部105とを備えた物体検出装置100を搭載した車両Vが示されている。
続いて、カメラを搭載した車両に本開示を適用した第1の実施形態について説明する。図6は、本開示の一構成を示す図である。図6を参照すると、カメラCと、GPSと、道路情報記憶部102と、領域決定部103と、物体検出部104と、表示部105とを備えた物体検出装置100を搭載した車両Vが示されている。
カメラCは、車両V(移動体)の進行方向を撮影し、画像を取得する。したがって、カメラCが第1取得部11に相当する。
道路情報記憶部102には、道路の形状を含む地図情報が記憶されている。図7は、道路情報記憶部102に記憶されている道路情報の一例である。
領域決定部103は、GPSから得られた位置情報とその経時変化である進行方向を用いて、車両Vの進行先の道路の形状を特定し、その結果を用いて、前記画像中の物体の検出範囲となる領域を決定する。例えば、車両Vの進行先の道路が直線道路である場合、領域決定部103は、図3の網掛けされた形状の領域を決定する。また、例えば、車両Vの進行先の道路が右カーブである場合、領域決定部103は、図5の網掛けされた形状の領域を決定する。領域決定部103は、物体検出部104に対し、決定した領域を通知する。図6の例では、領域決定部103が上記した第2取得部12を含んだ構成となっている。
物体検出部104は、事前に作成した推論モデルを用いて、カメラCで撮影された画像の中の領域決定部103にて決定された領域を対象に物体検出処理を行い、物体を検出する。この推論モデルは、事前に用意した教師データを用いて学習し、チューニングし、画像中の各種の物体を検出できるように生成される。物体検出部104における物体の検出方法としては、これに限られず、例えば、差分画像やフレーム差分を用いて物体を検出する方法を用いてもよい。物体検出部104は、事前に設定された通知対象の物体を検出した場合、表示部105に当該物体の情報を表示する。
表示部105は、物体検出部104より通知された物体検出結果やこれに付随する情報を表示する。この表示部105としては、例えば、車両Vに搭載されたカーナビゲーション端末や運転支援システム等の表示装置を用いることができる。
続いて、本実施形態の動作について図面を参照して詳細に説明する。図8は、本開示の一構成の物体検出装置100において所定時間間隔で実施される動作を表した図である。図8を参照すると、物体検出装置100は、カメラCからカメラ画像を取得する(ステップS001)。
次に、物体検出装置100は、道路情報及びGPS情報(位置情報)を取得する(ステップS002)。なお、進行方向を把握する必要があるため、GPS情報(位置情報)を一定期間保持しておくか、このステップS002において、GPS情報(位置情報)を、複数回取得することが望ましい。もちろん、GPS情報(位置情報)の経時変化に代えて、方位センサの値を用いて、進行方向を特定してもよい。
次に、物体検出装置100は、GPS情報(位置情報)と車両Vの進行方向に該当する道路情報を参照し、車両Vの進行先の道路の形状を特定し、その結果を用いて、前記画像中の物体の検出範囲となる領域を決定する(ステップS003)。
次に、物体検出装置100は、前記決定した領域に対し、物体検出処理を実施し、物体を検出する(ステップS004)。
ステップS004で、物体が検出された場合、物体検出装置100は、表示部105に、検出した物体の情報を表示する。物体を検出できなかった場合、物体検出装置100は、表示部105への表示を省略するか、表示部105に、進路が安全である旨を表示する。
上記物体検出装置100の動作を図5、図7、図9を用いて説明する。例えば、車両Vが図7のAの位置に到達した場合、物体検出装置100は、道路情報及びGPS情報(位置情報)から、前方に交差点があることを把握し、図9に示す領域を設定する。図9の例では、直進方向の道路の路面に加えて、交差点の左右の横断歩道がある部分に張り出した領域を設定している。このような領域を設定することで、事故が起こりやすい交差点等で、歩行者Pの存在を早期に検出することができるようになる。
同様に、車両Vが図7のBの位置に到達した場合、物体検出装置100は、前方に右カーブがあることを把握し、図5に示す領域を設定する。前述のとおり、このような領域を設定することで、車両の真の進路上の落下物等を検出し、また、進行先にない歩行者Pを検出の対象から外すことができるようになる。
以上説明したとおり、本開示によれば、車両Vに搭載された物体検出装置100に適切に進路上の物体を検出させることが可能となる。特に、本実施形態では、交差点等での歩道エリアに、物体を検出する領域を張り出すように構成しているため、歩行者等との交錯が予想される場所での物体の早期検出を実現することが可能となる。
なお、図6の例では、物体検出装置100が車両Vに配置された例を挙げて説明したが、物体検出装置100の配置はこれに限定されない。例えば、物体検出装置100は、車両Vから画像を受け取る、エッジサーバーの機能として実現されていてよい。このようなエッジサーバーを用いることで、車両V側と、この車両Vを管制する管制センター側に、物体の検出結果を適切に知らせることが可能となる。
[第2の実施形態]
続いて、物体検出装置100に画像中の道路の部分を検出する機能を配置した第2の実施形態について説明する。図10は、本開示の別の物体検出装置100aの構成例を示す図である。図6に示した構成例との相違点は、物体検出装置100aに、道路情報記憶部102とGPSの代わりに、道路検出部106が追加され、領域決定部103aが、道路検出部106の出力に基づいて領域を決定する点である。その他の構成は、図6の構成と同様であるので、以下、その相違点を中心に説明する。
続いて、物体検出装置100に画像中の道路の部分を検出する機能を配置した第2の実施形態について説明する。図10は、本開示の別の物体検出装置100aの構成例を示す図である。図6に示した構成例との相違点は、物体検出装置100aに、道路情報記憶部102とGPSの代わりに、道路検出部106が追加され、領域決定部103aが、道路検出部106の出力に基づいて領域を決定する点である。その他の構成は、図6の構成と同様であるので、以下、その相違点を中心に説明する。
道路検出部106は、カメラCで撮影した画像中の道路を検出し、その形状情報を領域決定部103aに送る。図11は、道路検出部106が検出した道路形状の検出結果を
示している。なお、道路検出部106のこのような道路検出機能としては、自動運転車やADAS(先進運転支援システム)等で採用されている白線検出技術等を利用することができる。図10の例では、領域決定部103aが、センサー情報を取得する第2取得部12を含んだ構成となっている。
示している。なお、道路検出部106のこのような道路検出機能としては、自動運転車やADAS(先進運転支援システム)等で採用されている白線検出技術等を利用することができる。図10の例では、領域決定部103aが、センサー情報を取得する第2取得部12を含んだ構成となっている。
領域決定部103aは、道路検出部106が検出した道路形状に基づいて、画像中の物体の検出範囲となる領域を決定する。例えば、図11のような道路形状が検出されている場合、領域決定部103aは、図5に示すような右カーブに沿った道路の部分を前記領域として選択する。
図12は、上記物体検出装置100aの動作を表した流れ図である。図8に示した流れ図との相違点は、ステップS001のカメラ画像の取得後、物体検出装置100aがこの画像から道路形状を検出する点である(ステップS102)。以降の処理は、図8に示した流れと同じであるので説明を省略する。
以上説明したように、道路検出部106を追加した本実施形態によれば、GPSや道路情報なしで、適切に物体を検出する領域を決定することが可能となる。
[第3の実施形態]
続いて、物体検出装置100に、運行予定表(運行ダイヤグラム)に基づいた領域決定機能を配置した第3の実施形態について説明する。図13は、本開示の別の物体検出装置100bの構成例を示す図である。図6に示した構成例との相違点は、物体検出装置100bに、道路情報記憶部102とGPSの代わりに、運行計画情報記憶部107と時計Tが追加され、領域決定部103bが、これらの内容に基づいて領域を決定する点である。その他の構成は、図6の構成と同様であるので、以下、その相違点を中心に説明する。
続いて、物体検出装置100に、運行予定表(運行ダイヤグラム)に基づいた領域決定機能を配置した第3の実施形態について説明する。図13は、本開示の別の物体検出装置100bの構成例を示す図である。図6に示した構成例との相違点は、物体検出装置100bに、道路情報記憶部102とGPSの代わりに、運行計画情報記憶部107と時計Tが追加され、領域決定部103bが、これらの内容に基づいて領域を決定する点である。その他の構成は、図6の構成と同様であるので、以下、その相違点を中心に説明する。
運行計画情報記憶部107は、車両Vの運行計画情報を記憶する。図14は、運行計画情報の概要を説明するための図である。図14の左側の地図上の両矢線は、車両Vの往復経路を示しており、車両Vは、位置Gと位置Hとの間を往復する。図14の右側のテーブルは、車両Vが位置G又はHを出発する時刻と、位置H又はGに到着する時刻を表している。なお、このような運行計画情報としては、車両Vが路線バスや運送トラック等の場合は、その運行ダイヤグラムを用いることができる。また、車両Vが一般車である場合は、カーナビゲーション装置に設定された目的地までの経路情報と、経路上の各地点での予測通過時刻とを、運行計画情報として用いることもできる。
領域決定部103bは、運行計画情報記憶部107に保持された運行計画情報を参照して、時計Tが示す現在時刻に対応する車両Vの現在地と進行方向を推定し、画像中の物体の検出範囲となる領域を決定する。
図15は、上記物体検出装置100bの動作を表した流れ図である。図8に示した流れ図との相違点は、ステップS001のカメラ画像の取得後、物体検出装置100bが現在時刻と運行計画情報から道路形状を特定する点である(ステップS202)。以降の処理は、図8に示した流れと同じであるので説明を省略する。
図16は、物体検出装置100bの動作を説明するための図である。図16の例では、車両Vは位置Gから出発し、現在時刻が9:10だとする。このときの車両Vの位置は、図16の位置Eにあり、車両Vは位置Hに向かって進行しているので、進行方向の道路は右カーブとなる。この場合、物体検出装置100bは、図5の網掛けで表した領域を、物体を検出する領域として決定する。
同様に、現在時刻が9:40であった場合、運行計画情報によると、車両Vは、図17の位置Fにあり、位置Gに向かって進行しているので、進行方向に交差点がある。この場合、物体検出装置100bは、図9の網掛けで表した領域を、物体を検出する領域として決定する。
以上のように、本実施形態によれば、道路情報や、道路検出機能を使わずに、適切に物体を検出する領域を決定することが可能となる。
以上の説明から理解されるように、本実施形態の物体検出装置100bは、厳密な定時性が要求され、時刻通りに運行が行われるバスや鉄道における、車両の進行方向の物体の検出に好適に適用することができる。
以上、本開示の各実施形態を説明したが、本開示は、上記した実施形態に限定されるものではなく、本開示の基本的技術的思想を逸脱しない範囲で、更なる変形・置換・調整を加えることができる。例えば、各図面に示したネットワーク構成、各要素の構成、データの表現形態は、本開示の理解を助けるための一例であり、これらの図面に示した構成に限定されるものではない。
例えば、上記した第1~第3の実施形態では、移動体が車両Vであるものものとして説明したが、車両Vに代えて、その他の移動体の進行方向にある物体の検出に用いることができる。このような移動体としては、鉄道車両やUAV(Unmanned Aerial Vehicle、いわゆるドローン)等が挙げられる。移動体が鉄道車両である場合、物体検出装置は、進行先のレールの曲がる方向に沿った領域を設定し、また、進行先に駅などの構造物がある場合、そのプラットホーム側に張り出した領域を設定することができる。同様に、移動体がUAVである場合、物体検出装置は、その飛行経路(道路上等)に沿った領域を設定し、また、進行先に注意をすべき構造物などがある場合、その形状に応じて張り出した領域を設定することができる。
また、上記した第1~第3の実施形態では、検出対象物が歩行者である例を挙げて説明したが、検出対象物は、歩行者に限定されない。検出対象物は、他の車両、落下物、道路の異常等であってもよい。
(ハードウェア構成について)
本開示の各実施形態において、各装置の各構成要素は、機能単位のブロックを示している。各装置の各構成要素の一部又は全部は、例えば図18に示すような情報処理装置900とプログラムとの任意の組み合わせにより実現される。図18は、各装置の各構成要素を実現する情報処理装置900のハードウェア構成の一例を示すブロック図である。情報処理装置900は、一例として、以下のような構成を含む。
・CPU(Central Processing Unit)901
・ROM(Read Only Memory)902
・RAM(Random Access Memory)903
・RAM903にロードされるプログラム904
・プログラム904を格納する記憶装置905
・記録媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インターフェース908
・データの入出力を行う入出力インターフェース910
・各構成要素を接続するバス911
本開示の各実施形態において、各装置の各構成要素は、機能単位のブロックを示している。各装置の各構成要素の一部又は全部は、例えば図18に示すような情報処理装置900とプログラムとの任意の組み合わせにより実現される。図18は、各装置の各構成要素を実現する情報処理装置900のハードウェア構成の一例を示すブロック図である。情報処理装置900は、一例として、以下のような構成を含む。
・CPU(Central Processing Unit)901
・ROM(Read Only Memory)902
・RAM(Random Access Memory)903
・RAM903にロードされるプログラム904
・プログラム904を格納する記憶装置905
・記録媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インターフェース908
・データの入出力を行う入出力インターフェース910
・各構成要素を接続するバス911
各実施形態における各装置の各構成要素は、これらの機能を実現するプログラム904をCPU901が取得して実行することで実現される。すなわち、図18のCPU901にて、データ取得プログラムや領域決定プログラムを実行し、RAM903や記憶装置905等に保持された各計算パラメーターの更新処理を実施させればよい。各装置の各構成要素の機能を実現するプログラム904は、例えば、予め記憶装置905やROM902に格納されており、必要に応じてCPU901が読み出す。なお、プログラム904は、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記録媒体906に格納されており、ドライブ装置907が当該プログラムを読み出してCPU901に供給してもよい。
各装置の実現方法には、様々な変形例がある。例えば、各装置は、構成要素毎にそれぞれ別個の情報処理装置900とプログラムとの任意の組み合わせにより実現されてもよい。また、各装置が備える複数の構成要素が、一つの情報処理装置900とプログラムとの任意の組み合わせにより実現されてもよい。即ち、上記した第1~第3の実施形態に示した物体検出装置の各部(処理手段、機能)は、同装置に搭載されたプロセッサに、そのハードウェアを用いて、上記した各処理を実行させるコンピュータプログラムにより実現することができる。
また、各装置の各構成要素の一部又は全部は、その他の汎用または専用の回路、プロセッサ等やこれらの組み合わせによって実現される。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。
各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。
各装置の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
なお、上述した各実施の形態は、本開示の好適な実施の形態であり、上記各実施の形態にのみ本開示の範囲を限定するものではない。即ち、本開示の要旨を逸脱しない範囲において当業者が上記各実施の形態の修正や代用を行い、種々の変更を施した形態を構築することが可能である。
上記の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
[付記1]
画像を取得する第1の取得部と、
前記画像に対応する位置の道路情報又はセンサー情報を取得する第2の取得部と、
前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定する領域決定部と、
前記領域内の物体を検出する物体検出部と、
を備える物体検出装置。
[付記2]
上記した物体検出装置の第1の取得部は、移動体に搭載されたカメラから、該移動体の進行方向を撮影した画像を取得する構成を採ることができる。
[付記3]
上記した物体検出装置の前記第2の取得部は、前記移動体の位置情報と進行方向に基づいて前記画像に対応する位置の道路情報又はセンサー情報を取得する構成を採ることができる。
[付記4]
上記した物体検出装置の領域決定部は、前記道路情報又はセンサー情報に基づいて、前記画像上の道路に沿って前記領域を設定する構成を採ることができる。
[付記5]
上記した物体検出装置において、前記道路情報は、道路の形状を含む地図情報であってもよい。
[付記6]
上記した物体検出装置において、前記センサー情報は、道路形状の検出結果であってもよい。
[付記7]
上記した物体検出装置において、第2の取得部に代えて、現在時刻と、運行計画情報とを取得可能であり、
前記領域決定部は、前記運行計画情報と現在時刻に基づいて、前記領域を決定する構成を採ることができる。
[付記8]
上記した物体検出装置の領域決定部は、前記移動体の進行方向に交差点がある場合、前記交差点と交差する方向に張り出した前記領域を設定する構成を採ることができる。
[付記9]
上記した物体検出装置の領域決定部は、前記移動体の進行方向に構造物がある場合、前記構造物の形状に応じて張り出した前記領域を設定する構成を採ることができる。
[付記10]
画像と、該画像に対応する位置の道路情報又はセンサー情報とをそれぞれ取得し、
前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定し、
前記領域内の物体を検出する、
物体検出方法。
[付記11]
画像と、該画像に対応する位置の道路情報又はセンサー情報とをそれぞれ取得する処理と、
前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定処理する処理と、
前記領域内の物体を検出する処理と、
をコンピュータに実行させるプログラムを記録した記録媒体。
なお、上記各付記に記載の形態は、それぞれ必要な修正を施した上で、互いに組み合わせることができる。例えば、前記付記2に記載の内容と、前記付記3に記載の内容と、を兼ね備えた構成も、本明細書の開示範囲に含まれている。
なお、上記付記10~付記11の形態は、付記1と同様に、付記2~9の形態に展開することが可能である。
画像を取得する第1の取得部と、
前記画像に対応する位置の道路情報又はセンサー情報を取得する第2の取得部と、
前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定する領域決定部と、
前記領域内の物体を検出する物体検出部と、
を備える物体検出装置。
[付記2]
上記した物体検出装置の第1の取得部は、移動体に搭載されたカメラから、該移動体の進行方向を撮影した画像を取得する構成を採ることができる。
[付記3]
上記した物体検出装置の前記第2の取得部は、前記移動体の位置情報と進行方向に基づいて前記画像に対応する位置の道路情報又はセンサー情報を取得する構成を採ることができる。
[付記4]
上記した物体検出装置の領域決定部は、前記道路情報又はセンサー情報に基づいて、前記画像上の道路に沿って前記領域を設定する構成を採ることができる。
[付記5]
上記した物体検出装置において、前記道路情報は、道路の形状を含む地図情報であってもよい。
[付記6]
上記した物体検出装置において、前記センサー情報は、道路形状の検出結果であってもよい。
[付記7]
上記した物体検出装置において、第2の取得部に代えて、現在時刻と、運行計画情報とを取得可能であり、
前記領域決定部は、前記運行計画情報と現在時刻に基づいて、前記領域を決定する構成を採ることができる。
[付記8]
上記した物体検出装置の領域決定部は、前記移動体の進行方向に交差点がある場合、前記交差点と交差する方向に張り出した前記領域を設定する構成を採ることができる。
[付記9]
上記した物体検出装置の領域決定部は、前記移動体の進行方向に構造物がある場合、前記構造物の形状に応じて張り出した前記領域を設定する構成を採ることができる。
[付記10]
画像と、該画像に対応する位置の道路情報又はセンサー情報とをそれぞれ取得し、
前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定し、
前記領域内の物体を検出する、
物体検出方法。
[付記11]
画像と、該画像に対応する位置の道路情報又はセンサー情報とをそれぞれ取得する処理と、
前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定処理する処理と、
前記領域内の物体を検出する処理と、
をコンピュータに実行させるプログラムを記録した記録媒体。
なお、上記各付記に記載の形態は、それぞれ必要な修正を施した上で、互いに組み合わせることができる。例えば、前記付記2に記載の内容と、前記付記3に記載の内容と、を兼ね備えた構成も、本明細書の開示範囲に含まれている。
なお、上記付記10~付記11の形態は、付記1と同様に、付記2~9の形態に展開することが可能である。
なお、上記の特許文献の各開示は、本書に引用をもって繰り込み記載されているものとし、必要に応じて本開示の基礎ないし一部として用いることが出来るものとする。本開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし選択(部分的削除を含む)が可能である。すなわち、本開示は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。さらに、上記引用した文献の各開示事項は、必要に応じ、本開示の趣旨に則り、本開示の一部として、その一部又は全部を、本書の記載事項と組み合わせて用いることも、本願の開示事項に含まれるものと、みなされる。
10、100、100a、100b 物体検出装置
11 第1取得部
12 第2の取得部
13、103 領域決定部
14、104 物体検出部
102 道路情報記憶部
105 表示部
106 道路検出部
107 運行計画情報記憶部
900 情報処理装置
901 CPU(Central Processing Unit)
902 ROM(Read Only Memory)
903 RAM(Random Access Memory)
904 プログラム
905 記憶装置
906 記録媒体
907 ドライブ装置
908 通信インターフェース
909 通信ネットワーク
910 入出力インターフェース
911 バス
C カメラ
P 歩行者
T 時計
V 車両
11 第1取得部
12 第2の取得部
13、103 領域決定部
14、104 物体検出部
102 道路情報記憶部
105 表示部
106 道路検出部
107 運行計画情報記憶部
900 情報処理装置
901 CPU(Central Processing Unit)
902 ROM(Read Only Memory)
903 RAM(Random Access Memory)
904 プログラム
905 記憶装置
906 記録媒体
907 ドライブ装置
908 通信インターフェース
909 通信ネットワーク
910 入出力インターフェース
911 バス
C カメラ
P 歩行者
T 時計
V 車両
Claims (11)
- 画像を取得する第1の取得部と、
前記画像に対応する位置の道路情報又はセンサー情報を取得する第2の取得部と、
前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定する領域決定部と、
前記領域内の物体を検出する物体検出部と、
を備える物体検出装置。 - 前記第1の取得部は、移動体に搭載されたカメラから、該移動体の進行方向を撮影した画像を取得する請求項1の物体検出装置。
- 前記第2の取得部は、前記移動体の位置情報と進行方向に基づいて前記画像に対応する位置の道路情報又はセンサー情報を取得する請求項2の物体検出装置。
- 前記領域決定部は、前記道路情報又はセンサー情報に基づいて、前記画像上の道路に沿って前記領域を設定する請求項1から3いずれか一の物体検出装置。
- 前記道路情報は、道路の形状を含む地図情報である請求項1から4いずれか一の物体検出装置。
- 前記センサー情報は、道路形状の検出結果である請求項1から5いずれか一の物体検出装置。
- 前記第2の取得部に代えて、現在時刻と、移動体の運行計画情報とを取得可能であり、
前記領域決定部は、前記運行計画情報と現在時刻に基づいて、前記領域を決定する請求項1又は2の物体検出装置。 - 前記領域決定部は、前記移動体の進行方向に交差点がある場合、前記交差点と交差する方向に張り出した前記領域を設定する請求項2、3又は7いずれか一の物体検出装置。
- 前記領域決定部は、前記移動体の進行方向に構造物がある場合、前記構造物の形状に応じて張り出した前記領域を設定する請求項2、3又は7いずれか一の物体検出装置。
- 画像と、該画像に対応する位置の道路情報又はセンサー情報とをそれぞれ取得し、
前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定し、
前記領域内の物体を検出する、
物体検出方法。 - 画像と、該画像に対応する位置の道路情報又はセンサー情報とをそれぞれ取得する処理と、
前記道路情報又は前記センサー情報に基づいて、物体の検出範囲となる前記画像中の領域を決定処理する処理と、
前記領域内の物体を検出する処理と、
をコンピュータに実行させるプログラムを記録した記録媒体。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/035668 WO2025069388A1 (ja) | 2023-09-29 | 2023-09-29 | 物体検出装置、物体検出方法及び記録媒体 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/035668 WO2025069388A1 (ja) | 2023-09-29 | 2023-09-29 | 物体検出装置、物体検出方法及び記録媒体 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025069388A1 true WO2025069388A1 (ja) | 2025-04-03 |
Family
ID=95203175
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2023/035668 Pending WO2025069388A1 (ja) | 2023-09-29 | 2023-09-29 | 物体検出装置、物体検出方法及び記録媒体 |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025069388A1 (ja) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006119026A (ja) * | 2004-10-22 | 2006-05-11 | Nissan Motor Co Ltd | 前方物体検出装置及び前方物体検出方法 |
| JP2018077570A (ja) * | 2016-11-07 | 2018-05-17 | 株式会社デンソー | 情報処理装置 |
| WO2019003992A1 (ja) * | 2017-06-30 | 2019-01-03 | 日立オートモティブシステムズ株式会社 | 情報管理装置 |
| CN115009330A (zh) * | 2022-06-30 | 2022-09-06 | 上海富欣智能交通控制有限公司 | 列车检测区域的确定方法及装置 |
| WO2023013346A1 (ja) * | 2021-08-02 | 2023-02-09 | 株式会社デンソー | 車両制御装置 |
| JP2023121166A (ja) * | 2022-02-17 | 2023-08-31 | 本田技研工業株式会社 | 外界認識装置 |
-
2023
- 2023-09-29 WO PCT/JP2023/035668 patent/WO2025069388A1/ja active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006119026A (ja) * | 2004-10-22 | 2006-05-11 | Nissan Motor Co Ltd | 前方物体検出装置及び前方物体検出方法 |
| JP2018077570A (ja) * | 2016-11-07 | 2018-05-17 | 株式会社デンソー | 情報処理装置 |
| WO2019003992A1 (ja) * | 2017-06-30 | 2019-01-03 | 日立オートモティブシステムズ株式会社 | 情報管理装置 |
| WO2023013346A1 (ja) * | 2021-08-02 | 2023-02-09 | 株式会社デンソー | 車両制御装置 |
| JP2023121166A (ja) * | 2022-02-17 | 2023-08-31 | 本田技研工業株式会社 | 外界認識装置 |
| CN115009330A (zh) * | 2022-06-30 | 2022-09-06 | 上海富欣智能交通控制有限公司 | 列车检测区域的确定方法及装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN110377025B (zh) | 用于自动驾驶车辆的传感器聚合框架 | |
| CN110641472B (zh) | 基于神经网络的用于自主车辆的安全监控系统 | |
| JP6578439B2 (ja) | 自律走行車の移動をシミュレートするための物理モデル及び機械学習結合方法 | |
| EP3359436B1 (en) | Method and system for operating autonomous driving vehicles based on motion plans | |
| CN111380534B (zh) | 用于自动驾驶车辆的基于st图学习的方法 | |
| JP6700382B2 (ja) | 車線縁石補助による自律走行車の車線逸脱検出及び車線維持システム | |
| JP7046119B2 (ja) | 視覚ベース知覚システムによる敵対的サンプルの検出 | |
| JP6689966B2 (ja) | 減速縁石に基づく自律走行車の方向検出及び車線維持システム | |
| JP2019182399A (ja) | 自動運転に用いられる感知と計画のコラボレーションフレームワーク | |
| JP2019182412A (ja) | 自動運転車に用いられる自動データラベリング | |
| CN110390240B (zh) | 自动驾驶车辆中的车道后处理 | |
| KR20190100856A (ko) | 곡선 투영을 가속화하기 위한 시스템 및 방법 | |
| JP6667688B2 (ja) | 自動運転車両のための自己位置推定方法、システム及び機械可読媒体 | |
| JP2020523552A (ja) | 自動運転車両の経路計画のための運転シナリオに基づく車線ガイドライン | |
| JP2018535871A (ja) | 自律走行車のための横滑り補償制御方法 | |
| KR20200037737A (ko) | 자율 주행 차량을 위한 보행자 확률 예측 시스템 | |
| US10403172B2 (en) | Information processing apparatus | |
| CN111615618A (zh) | 用于自动驾驶车辆的高速规划的基于多项式拟合的参考线平滑方法 | |
| CN111649751B (zh) | 一种用于参考线平滑的超自由缝合方法 | |
| CN110621541A (zh) | 用于自动驾驶车辆在高速公路上的自动驾驶的无地图无定位的沿车道行驶方法 | |
| CN111615476A (zh) | 用于自动驾驶车辆的基于螺旋曲线的竖直停车规划系统 | |
| US10732632B2 (en) | Method for generating a reference line by stitching multiple reference lines together using multiple threads | |
| JP2020083310A (ja) | 車両挙動予測のための圧縮環境特徴の表示 | |
| CN111623766B (zh) | 用于自主驾驶卡车的基于两个惯性测量单元和gps的定位系统 | |
| KR20230072294A (ko) | 교차로에서의 군집주행 방법 및 그를 위한 차량 제어장치 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23954357 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2025548400 Country of ref document: JP Kind code of ref document: A |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2025548400 Country of ref document: JP |