WO2019031582A1 - 画像収集システム、画像収集方法、画像収集装置、記録媒体、および車両用通信装置 - Google Patents
画像収集システム、画像収集方法、画像収集装置、記録媒体、および車両用通信装置 Download PDFInfo
- Publication number
- WO2019031582A1 WO2019031582A1 PCT/JP2018/029916 JP2018029916W WO2019031582A1 WO 2019031582 A1 WO2019031582 A1 WO 2019031582A1 JP 2018029916 W JP2018029916 W JP 2018029916W WO 2019031582 A1 WO2019031582 A1 WO 2019031582A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- vehicle
- positional relationship
- traveling
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
Definitions
- the present invention relates to an image acquisition system, an image acquisition method, an image acquisition device, a recording medium, and a communication device for a vehicle.
- the signboard installed around the guidance intersection is used as a mark to mark the intersection
- Techniques for providing guidance are known.
- Patent Document 1 in a navigation device, a signboard in front of a vehicle captured by an on-vehicle camera or display-type video data is corrected to image data viewed from the front, and the image data is displayed on a display Technology is disclosed.
- the landmark object is recognized from the image captured by the on-vehicle camera, and the image of the landmark object Needs to be stored in advance in a database provided at the center.
- An object of the present invention is to make it possible to improve the image recognition accuracy of an image of a landmark object stored in a database, in order to solve the problems of the prior art described above.
- An image acquisition system includes an image acquisition unit configured to acquire an image of a landmark object captured by an imaging device mounted on a vehicle, the landmark object when the image is captured, and the image processing unit.
- a positional relationship information acquisition unit that acquires positional relationship information representing a positional relationship with a vehicle, and the image acquired by the image acquisition unit are associated with the positional relationship information acquired by the positional relationship information acquisition unit.
- a storage processing unit for storing data in a database.
- the image captured by the imaging device can be stored in the database so that the positional relationship between the landmark object and the vehicle when the image is captured can be identified.
- the image recognition processing of the target object is made constant by reading out only the image in which the landmark object and the vehicle have a specific positional relationship from the database. It can be performed with image recognition accuracy.
- the positional relationship information includes information indicating a traveling lane in which the vehicle is traveling, and information indicating an angle formed by the direction of the marking object with respect to the traveling direction of the vehicle. Alternatively, at least one of them may be included.
- At least one of the traveling lane in which the vehicle is traveling and the angle formed by the direction of the landmark object with respect to the traveling direction of the vehicle when the image is captured by the imaging device One or the other can be identified and stored in the database.
- Image recognition processing of a target object can be performed with a fixed image recognition accuracy.
- an imaging position in the traveling direction of the vehicle capable of imaging the landmark object from a predetermined angle is calculated.
- An imaging control unit configured to perform imaging control for causing the imaging device to capture the image at each of the plurality of imaging positions calculated by the imaging position calculation unit;
- the imaging control unit may perform imaging control at each of the plurality of imaging positions calculated by the imaging position calculation unit to obtain a plurality of images captured by the imaging device.
- any one of the plurality of images captured by the imaging device can be an image in which the landmark object is captured from a predetermined angle.
- the positional relationship information acquiring unit may use, as the positional relationship information, information indicating a traveling lane in which the vehicle is traveling, from the image acquired by the image acquiring unit. Is acquired by specifying a traveling lane in which the vehicle is traveling, and the storage processing unit is configured to drive the vehicle specified by the positional relationship information acquisition unit among the plurality of images acquired by the image acquisition unit.
- the image captured at the imaging position corresponding to the traveling lane may be preferentially stored in the database.
- the positional relationship between the landmark object and the vehicle when the image is captured is specified by performing a relatively simple image recognition process of specifying the traveling lane in which the vehicle is traveling. be able to. Then, by storing the image captured at the imaging position corresponding to the identified traveling lane in the database with priority, the image in which the mark object can be imaged at a predetermined angle is actually stored in the database. It can be stored preferentially. Therefore, according to this configuration, it is possible to enhance the image recognition accuracy of the image of the landmark object stored in the database, and to suppress the decrease in the utilization efficiency of the storage area of the database.
- the positional relationship information acquiring unit may use, as the positional relationship information, information indicating an angle formed by the direction of the mark object with respect to the traveling direction of the vehicle by the image acquiring unit.
- the storage processing unit acquires the positional relationship information acquisition unit among the plurality of images acquired by the image acquisition unit, by acquiring from the positional relationship between the vehicle and the landmark object in the acquired image.
- the image whose angle calculated by the above is the predetermined angle may be preferentially stored in the database.
- the landmark object is actually Images that can be captured from a predetermined angle can be preferentially stored in the database. Therefore, according to this configuration, it is possible to enhance the image recognition accuracy of the image of the landmark object stored in the database, and to suppress the decrease in the utilization efficiency of the storage area of the database.
- the image acquisition unit, the imaging position calculation unit, and the imaging control unit are provided in an on-vehicle device mounted on the vehicle, and the positional relationship information acquisition unit and the storage
- the processing unit is provided at the center, and the in-vehicle device transmits the plurality of images acquired by the image acquiring unit to the center, and the traveling lane in which the vehicle is traveling is changed.
- a lane change detection unit that detects that the image is transmitted by the lane change detection unit until the image is captured at all of the plurality of imaging positions by the imaging device; When a change in traveling lane is detected, any of the images captured by the imaging device may not be transmitted to the center.
- the image acquisition system further includes a lane change detection unit that detects that the traveling lane in which the vehicle is traveling is changed, and the storage processing unit If a change in the traveling lane is detected by the lane change detection unit until the image is captured at all imaging positions, none of the images captured by the imaging device are stored in the database You may do so.
- the image recognition accuracy of the image of the landmark object stored in the database can be enhanced.
- FIG. 1 is a diagram showing a functional configuration of an image acquisition system 10 according to the embodiment.
- the image acquisition system 10 shown in FIG. 1 is configured to include a center 150 and a navigation device 100, and can provide various information and various services from the center 150 to the navigation device 100 via the network 140. Is a system that has been
- the image acquisition system 10 transmits, from the navigation device 100 to the center 150, an image captured by the camera 102 mounted on the vehicle, with the signboard as the mark object, and is collected from the navigation device 100 at the center 150.
- a signboard guidance DB (Data Base) 153 can be constructed based on the plurality of images.
- the image acquisition system 10 has a plurality of navigation devices 100 (all have the same configuration as the navigation device 100 shown in FIG. 1). ). That is, the center 150 can provide various information and various services to the plurality of navigation devices 100, and can collect images from the plurality of navigation devices 100.
- the center 150 is an example of the “image acquisition device”, and is a device installed in a facility (for example, a facility managed by a service provider) outside the vehicle.
- the center 150 is connected to the network 140.
- Examples of the network 140 include the Internet, a public wireless line, and the like.
- the center 150 can provide various services (for example, a server function of the navigation system, etc.) to the navigation device 100 via the network 140.
- the center 150 includes a communication I / F (Inter Face) 151, a travel DB 152, a signboard guidance DB 153, a map DB 154, and an ECU 160.
- I / F Inter Face
- Communication I / F 151 transmits and receives various data to and from navigation device 100 by controlling communication with navigation device 100 via network 140.
- the traveling DB 152 stores probe data transmitted from the navigation device 100.
- Each probe data is, for example, a plurality of images captured for each traveling lane by the camera 102, information (for example, an ID, position information, etc.) for specifying a signboard to be imaged, and the position of the imaging position of each image Contains information.
- the signboard guidance DB 153 is an example of a “database”.
- the signboard guidance DB 153 stores a plurality of signboard guidance data.
- the “signboard guidance data” includes data necessary for intersection guidance using a signboard as a mark, for an intersection capable of performing intersection guidance using the signboard as a mark.
- the signboard guidance data includes the name of the signboard (for example, a shop name), position information (longitude and latitude), an image, and the like.
- the map DB 154 stores map data.
- the map data includes a plurality of node data and a plurality of link data.
- the node data is data corresponding to an intersection.
- Link data is data corresponding to a road section between nodes.
- the ECU 160 is a device that controls the entire center 150. As shown in FIG. 1, the ECU 160 includes a probe storage processing unit 161. Further, the ECU 160 includes a signboard image recognition unit 162, a positional relationship information acquisition unit 163, and a signboard guidance data storage processing unit 164 as a signboard guidance data generation function. Further, the ECU 160 includes a route search unit 165 and a route guide unit 166 as a navigation server function.
- the probe storage processing unit 161 When the probe storage processing unit 161 receives the probe data transmitted from the navigation device 100 via the communication I / F 151, the probe storage processing unit 161 stores the probe data in the traveling DB 152.
- the probe data transmitted from the navigation device 100 includes at least a plurality of images captured for each traveling lane by the camera 102, information for identifying a signboard to be imaged (for example, an ID, position information, etc.) And position information of the imaging position of the image.
- the signboard image recognition unit 162 recognizes the signboard image by performing known image recognition processing from a plurality of images included in the probe data.
- the positional relationship information acquisition unit 163 specifies the positional relationship between the signboard recognized as an image by the signboard image recognition unit 162 and the vehicle for each of the plurality of images included in the probe data. Obtain positional relationship information to be represented.
- the positional relationship information acquisition unit 163 performs image recognition processing on a plurality of images included in the probe data to identify a traveling lane in which the vehicle is traveling, thereby recognizing the signboard image.
- positional relationship information indicating a positional relationship between the signboard whose image is recognized by the unit 162 and the vehicle positional relationship information indicating a traveling lane in which the vehicle is traveling is acquired.
- a known method can be used as a method of identifying a traveling lane from an image, for example, a plurality of traveling lanes are identified by image recognition of a plurality of white lines, and display of the plurality of traveling lanes in an image is performed.
- the traveling lane in which the vehicle is traveling can be specified based on the relationship between the position and the installation position of the camera in the vehicle. For example, when the camera is installed at the center in the lateral width direction of the vehicle, it is possible to specify that the traveling lane captured at the center in the lateral width direction of the image is the traveling lane where the vehicle is traveling.
- the signboard guidance data storage processing unit 164 sets a signboard to be imaged among the plurality of images included in the probe data based on the positional relationship information acquired by the positional relationship information acquisition unit 163 (the signboard image recognition unit 162 ).
- the image-recognised signboard extracts an image captured from a predetermined angle, and stores the image in the signboard guidance DB 153.
- the signboard guidance data storage processing unit 164 selects an image captured at the imaging position corresponding to the traveling lane specified by the positional relationship information acquisition unit 163 among the plurality of images included in the probe data. , And preferentially stored in the signboard guidance DB153. For example, as shown in FIG.
- the probe data includes images of the three travel lanes L1, L2, L3. Is included.
- the positional relationship information acquisition unit 163 specifies that the vehicle 402 is traveling in the second travel lane L2.
- the image captured at the imaging position corresponding to the second traveling lane L2 is an imaging target when the vehicle 402 is traveling in the second traveling lane L2
- the imaging direction of the signboard is an image with a predetermined angle (for example, 45.degree.).
- the image captured at the imaging position corresponding to the first travel lane L1 and the third travel lane L3 is the vehicle 402 in the second travel lane L2.
- the imaging direction of the signboard to be imaged is an image that does not have a predetermined angle. Therefore, in this case, the signboard guidance data storage processor 164 gives priority to the signboard guidance DB 153 the image captured at the imaging position corresponding to the second travel lane L2 among the plurality of images included in the probe data. Save.
- the signboard guidance data storage processing unit 164 displays the image captured at the imaging position corresponding to the first travel lane L1 and the third travel lane L3 among the plurality of images included in the probe data as the signboard It is not saved in the guidance DB 153. Thereby, in the signboard guidance DB 153, an image in which the imaging direction of the signboard to be imaged becomes a predetermined angle (for example, 45 °) is preferentially stored.
- a predetermined angle for example, 45 °
- the route search unit 165 determines, based on the map data stored in the map DB 154, the current location of the navigation device 100 identified by the current location information included in the route search request. And the route to the destination specified by the destination information included in the route search request.
- the route searched by the route search unit 165 includes a link string constituting a route to the destination, and intersection guidance data of each intersection on the route.
- the signboard guidance data acquired from the signboard guidance DB 153 (e.g. , Store name), location information (longitude and latitude), image etc.).
- the route guidance unit 166 performs route guidance from the departure place of the route to the destination based on the route searched by the route search unit 165.
- the route guidance by the route guidance unit 166 is accompanied by the display of the route guidance screen by the display 104 of the navigation device 100 and the output of the route guidance voice by the speaker 105 of the navigation device 100.
- the route guide unit 166 uses the signboard as the mark for the intersection where the signboard guide data is included, based on the signboard guide data (for example, , "If you see the sign of ⁇ ⁇ it is a left turn" etc.).
- the route guiding unit 166 causes the display 104 to display the image included in the signboard guidance data (that is, the image of the signboard acquired from the signboard guidance DB 153). Thereby, the driver of the vehicle can easily grasp which signboard should be used as a mark from the image displayed on the display 104.
- the ECU 160 may be a central processing unit (CPU), a main storage device (for example, a read only memory (ROM), a random access memory (RAM), etc.), an auxiliary storage device (for example a hard disk drive (HDD), a flash memory, etc. Hardware, etc.).
- CPU central processing unit
- main storage device for example, a read only memory (ROM), a random access memory (RAM), etc.
- auxiliary storage device for example a hard disk drive (HDD), a flash memory, etc. Hardware, etc.
- Each function of the ECU 160 illustrated in FIG. 1 is realized, for example, by the CPU (computer) executing a program stored in the main storage device or the auxiliary storage device in the ECU 160.
- the program executed by the CPU may be provided in a state introduced in advance to the ECU 160, or may be provided from the outside and introduced to the ECU 160. In the latter case, the program may be provided by a computer readable storage medium (eg, USB memory, memory card, CD-ROM, etc.) and downloaded from a server on a network (eg, Internet, etc.) It may be provided.
- a computer readable storage medium eg, USB memory, memory card, CD-ROM, etc.
- a server on a network eg, Internet, etc.
- the center 150 may be physically configured by one information processing apparatus (for example, a server apparatus or the like), or may be physically configured by a plurality of information processing apparatuses. In the latter case, a plurality of information processing apparatuses may be connected to one another via a network.
- one information processing apparatus for example, a server apparatus or the like
- a plurality of information processing apparatuses may be connected to one another via a network.
- the navigation device 100 is an example of a “vehicle-mounted device”, and is a device mounted on a vehicle such as a car.
- the navigation device 100 can use various services (for example, a server function of a navigation system, etc.) provided by the center 150 via the network 140.
- the navigation device 100 includes a communication I / F 101, a camera 102, a GPS (Global Positioning System) 103, a display 104, a speaker 105, a map data storage unit 106, and an ECU 110.
- a communication I / F 101 the navigation device 100 includes a communication I / F 101, a camera 102, a GPS (Global Positioning System) 103, a display 104, a speaker 105, a map data storage unit 106, and an ECU 110.
- GPS Global Positioning System
- the communication I / F 101 transmits and receives various data to and from the center 150 by controlling communication with the center 150 via the network 140.
- a communication I / F for DCM Data Communication Module
- the camera 102 is an example of an “imaging device”. The camera 102 captures an image of a certain angle of view (however, twice or more the “predetermined angle” described later), with the front of the vehicle as the imaging direction.
- a GPS (Global Positioning System) 103 detects the current position (longitude and latitude) of the vehicle based on GPS signals received from GPS satellites.
- the display 104 is a device that displays various information (for example, a map screen, a route guidance screen, and the like). Examples of the display 104 include a liquid crystal display and an organic EL display.
- the speaker 105 outputs various voices (for example, route guidance voice and the like).
- the map data storage unit 106 stores map data.
- the map data storage unit 106 stores map data provided by the center 150.
- the map data storage unit 106 can re-display the map screen once based on the map data stored in the map data storage unit 106 for the map screen displayed once. Therefore, the frequency of communication with the map data storage unit 106 can be suppressed, and an effect such as improvement in display speed of the map screen can be obtained.
- the ECU 110 is a device that controls the entire navigation device 100. As shown in FIG. 1, the ECU 110 includes a road determination unit 111, an imaging position calculation unit 112, an imaging control unit 113, an image acquisition unit 114, an image transmission unit 115, and a lane change detection unit 116 as an image transmission function. Further, the ECU 110 includes a navigation client function unit 117.
- the road determination unit 111 determines whether the vehicle is traveling on a predetermined road.
- the “predetermined road” is a road satisfying the following four conditions. (1) In the traveling direction of the vehicle, it is within a predetermined distance range from the signboard to be imaged. (2) In a direction orthogonal to the traveling direction of the vehicle, it is within a predetermined distance from the signboard of the imaging target. (3) It has a plurality of travel lanes. (4) The curvature of the road is less than a predetermined value (generally, it is a straight road).
- the condition (1) and the condition (2) can be determined based on, for example, position information of a signboard to be imaged and information indicating the current position of the vehicle detected by the GPS 103.
- the condition (3) and the condition (4) can be determined, for example, based on link data of a road on which the vehicle is traveling, which is stored in the map data storage unit 106.
- the imaging position calculation unit 112 calculates an imaging position in the traveling direction of the vehicle capable of imaging a signboard to be imaged from a predetermined angle, for each of a plurality of traveling lanes of a road on which the vehicle is traveling. For example, let X be the distance from the position of the signboard to be imaged in the traveling direction of the vehicle to the imaging position, and Y be the distance from the position of the signboard to be imaged in the direction orthogonal to the traveling direction of the vehicle to Y Since the distance Y and the predetermined angle ⁇ are fixed when the angle of ⁇ is ⁇ , the imaging position calculation unit 112 may calculate the distance X by the following formula (1).
- the distance Y1 from the first traveling lane L1 to the position of the sign 401 in the direction orthogonal to the traveling direction is 30 m
- the traveling direction of the vehicle 402 (X-axis direction in the drawing)
- the distance X1 from the imaging position P1 to the position of the sign 401 is 30 m.
- the imaging position P2 to the sign 401 in the traveling direction of the vehicle 402 is 35 m.
- the imaging position P3 to the sign 401 in the traveling direction of the vehicle 402 is 40 m.
- the imaging control unit 113 performs imaging control to cause the camera 102 to capture an image of a signboard to be imaged at each of a plurality of imaging positions for each traveling lane calculated by the imaging position calculation unit 112.
- the image acquisition unit 114 acquires an image (an image for each traveling lane) captured by the camera 102, and temporarily stores the one image in a memory included in the navigation device 100 each time one image is acquired.
- the lane change detection unit 116 detects that the traveling lane in which the vehicle is traveling has been changed. For example, based on the steering angle signal of the steering wheel of the vehicle, the lane departure detection signal by the lane departure detection system mounted on the vehicle, etc., the lane change detection unit 116 reports that the travel lane in which the vehicle is traveling has been changed. It can be detected. Further, for example, it is detected that the traveling lane in which the vehicle is traveling is changed based on the result of image recognition of the white line of the road that divides the traveling lane from the image in front of the vehicle captured by the camera 102 it can.
- the image transmission unit 115 When capturing of images of all traveling lanes by the camera 102 is completed, the image transmission unit 115 reads the images of all the traveling lanes from the memory and transmits the images to the center 150 via the communication I / F 101. However, when the lane change detection unit 116 detects a change in the traveling lane before the image of all the traveling lanes is captured by the camera 102, the image transmission unit 115 detects any of the images captured by the camera 102. Images are also not sent to the center 150.
- the navigation client function unit 117 implements a client function in the navigation system. For example, the navigation client function unit 117 can cause the center 150 to perform the route search and the route guidance by requesting the center 150 to search for the route to the destination and the route guidance. Then, the navigation client function unit 117 displays the map screen and the route guidance screen by the display 104, outputs the route guidance voice by the speaker 105, and the like according to the route to the destination by the center 150 as guidance.
- the ECU 110 is configured to include hardware such as a CPU, a main storage device (for example, a ROM, a RAM, and the like), and an auxiliary storage device (for example, an HDD, a flash memory, and the like).
- a main storage device for example, a ROM, a RAM, and the like
- an auxiliary storage device for example, an HDD, a flash memory, and the like.
- Drawing 2 is a flow chart which shows an example of the procedure of processing by navigation device 100 (ECU110) concerning an embodiment.
- the process of FIG. 2 is executed by the ECU 110, for example, each time the vehicle reaches a position near a predetermined distance from a signboard to be imaged while the vehicle is traveling.
- the navigation device 100 acquires a list of a plurality of signboards to be imaged from the center 150 in advance. In the list, positional information of each of a plurality of signboards to be imaged is shown.
- the ECU 110 determines whether the vehicle has reached a predetermined distance from a signboard of the imaging target based on the position information of each of a plurality of signboards of the imaging target and the current position information of the vehicle. Do. Then, when the ECU 110 determines that the vehicle has reached a position near the predetermined distance from any signboard to be imaged, the ECU 110 performs the following process to acquire an image of the signboard.
- the road determination unit 111 determines whether the vehicle is traveling on a predetermined road (step S201). When it is determined in step S201 that the vehicle is not traveling on a predetermined road (step S201: No), the road determination unit 111 executes the process of step S201 again.
- step S201 when it is determined in step S201 that the vehicle is traveling on a predetermined road (step S201: Yes), the imaging position calculation unit 112 determines each of a plurality of traveling lanes of the road on which the vehicle is traveling. A position in the traveling direction of the vehicle capable of imaging a signboard to be imaged from a predetermined angle is calculated as an imaging position P (step S202). For example, as shown in FIG. 4, when the road 400 on which the vehicle 402 is traveling has three traveling lanes L1, L2 and L3, the imaging position calculation unit 112 sets these three traveling lanes L1, L2 and L3. Three corresponding imaging positions P1, P2 and P3 are calculated.
- the imaging control unit 113 determines whether the vehicle has reached any of the imaging positions calculated in step S202 (step S203). For example, when three imaging positions P1, P2, and P3 are calculated in step S202, the imaging control unit 113 determines whether the vehicle 402 has reached any of the three imaging positions P1, P2, and P3. Determine This determination can be performed based on the position information of each imaging position and the position information of the current position of the vehicle 402. If it is determined in step S203 that the vehicle has not arrived at any of the imaging positions (step S203: No), the imaging control unit 113 executes the processing of step S203 again.
- step S203 when it is determined in step S203 that the vehicle has arrived at any of the imaging positions (step S203: Yes), the imaging control unit 113 causes the camera 102 to capture an image of a signboard to be imaged (step S204). . Then, the image acquisition unit 114 acquires the image captured in step S204, and temporarily stores the image in a memory included in the navigation device 100 (step S205). By repeatedly executing the processing of steps S203 to S205, the image of each of the plurality of imaging positions calculated in step S202 is stored in the memory. For example, when three imaging positions P1, P2 and P3 are calculated in step S202, the processing of steps S203 to S205 is repeatedly performed three times to obtain each of the three imaging positions P1, P2 and P3. Images will be stored in memory.
- the imaging control unit 113 determines whether an image is captured at all the imaging positions calculated in step S202 (step S206). When it is determined in step S206 that the images are not captured at all the imaging positions (step S206: No), the ECU 110 returns the process to step S203.
- step S206 when it is determined in step S206 that the images are captured at all the imaging positions (step S206: Yes), the image transmission unit 115 waits until the images of all the traveling lanes are captured by the camera 102. It is determined whether or not the lane change detection unit 116 has detected a change in the traveling lane (step S207).
- step S207 If it is determined in step S207 that a change in the traveling lane has been detected (step S207: Yes), the ECU 110 discards all the images captured by the camera 102 so far from the memory, as shown in FIG. End the process.
- the traveling lane in which the vehicle is traveling is changed, there is a possibility that an image in which the imaging direction of the landmark object does not become a predetermined angle may be imaged. Therefore, when the traveling lane in which the vehicle is traveling is changed, the ECU 110 discards all the images captured by the camera 102 from the memory. Thereby, it is possible to avoid that an image in which the imaging direction of the landmark object does not become a predetermined angle is stored in the database.
- step S207 when it is determined in step S207 that the change of the traveling lane is not detected (step S207: No), the image transmission unit 115 reads the images of all the traveling lanes from the memory and includes these images. The probe data is transmitted to the center 150 via the communication I / F 101 (step S208). Then, the ECU 110 ends the series of processes shown in FIG.
- Drawing 3 is a flow chart which shows an example of the procedure of the processing by center 150 (ECU160) concerning an embodiment. The process of FIG. 3 is repeatedly performed by the ECU 160, for example, while the center 150 is in operation.
- the probe storage processing unit 161 determines whether or not the probe data transmitted from the navigation device 100 has been received (step S301). If it is determined in step S301 that no probe data has been received (step S301: No), the probe storage processing unit 161 executes the process of step S301 again.
- step S301 when it is determined in step S301 that the probe data has been received (step S301: Yes), the probe storage processing unit 161 stores the probe data in the traveling DB 152 (step S302).
- the signboard image recognition unit 162 carries out known image recognition processing from a plurality of images included in the probe data stored in the traveling DB 152 in step S302, thereby performing image recognition on the signboard to be imaged ( Step S303). Then, the signboard image recognition unit 162 determines whether the signboard to be guided to the intersection has been image-recognized by the image recognition processing in step S303 (step S304). For example, the ECU 160 holds in advance a list of signboards to be notified of intersections in a memory. When the signboard recognized at step S303 is included in this list, the signboard image recognition unit 162 determines that “the signboard to be guided to the intersection is image-recognized”.
- step S304 When it is determined in step S304 that the signboard to be guided to the intersection is not recognized as an image (step S304: No), the ECU 160 ends the series of processes shown in FIG.
- step S304 when it is determined in step S304 that the signboard to be guided to the intersection has been image-recognized (step S304: Yes), the positional relationship information acquisition unit 163 determines that the vehicle is a vehicle based on the plurality of images included in the probe data. Identifies the traveling lane being traveled (step S305). For example, as shown in FIG. 4, when the road 400 on which the vehicle 402 is traveling has three traveling lanes L1, L2, L3, the vehicle 402 travels from among the three traveling lanes L1, L2, L3. Identify the inside driving lane.
- the signboard guidance data storage processing unit 164 prioritizes, among the plurality of images included in the probe data, the image captured at the imaging position corresponding to the traveling lane specified in step S305 to the signboard guidance DB 153.
- the signboard guidance data storage processor 164 selects the traveling lane L2 from among the plurality of images included in the probe data.
- the image captured at the corresponding imaging position P2 is extracted, and the image is preferentially stored in the signboard guidance DB 153. Thereafter, the ECU 160 ends the series of processes shown in FIG.
- the signboard guidance DB 153 always detects an imaging target by specifying the traveling lane in which the vehicle is traveling and storing the image captured at the imaging position corresponding to the traveling lane in the signboard guidance DB 153.
- FIG. 4 is a diagram for explaining an example of the imaging position for each traveling lane, which is calculated by the navigation device 100 (ECU 110) according to the embodiment.
- a road 400 shown in FIG. 4 is a three-lane straight road having traveling lanes L1, L2, and L3.
- an example in which an image in which the imaging direction of the sign 401 is 45 ° in each traveling lane will be described.
- the distance Y1 from the first traveling lane L1 to the position of the sign 401 in the direction (Y-axis direction in the figure) orthogonal to the traveling direction of the vehicle 402 (X-axis direction in the figure) is
- the imaging position calculation unit 112 sets a position 30 m before the sign 401 in the traveling direction of the vehicle 402 (X-axis direction in the drawing) as the imaging position P1.
- the imaging position P1 is a position where the imaging direction of the sign 401 is 45 ° in the first traveling lane L1.
- the imaging position calculation unit 112 calculates the vehicle 402 A position 35 m before the sign 401 in the traveling direction of the image is set as the imaging position P2.
- the imaging position P2 is a position where the imaging direction of the sign 401 is 45 ° in the second traveling lane L2.
- the imaging position calculation unit 112 calculates the vehicle 402 A position 40 m before the sign 401 in the traveling direction of is set as the imaging position P3.
- the imaging position P3 is a position where the imaging direction of the sign 401 is 45 ° in the third traveling lane L3.
- the imaging control unit 113 causes the camera 102 to capture an image of the sign 401 at each of the plurality of imaging positions P1, P2, and P3 calculated by the imaging position calculation unit 112. If the vehicle 402 is traveling in the first travel lane L1, the image captured at the imaging position P1 is an image in which the imaging direction of the sign 401 is 45 °. If the vehicle 402 is traveling in the second travel lane L2, the image captured at the imaging position P2 is an image in which the imaging direction of the sign 401 is 45 °. If the vehicle 402 is traveling in the third travel lane L3, the image captured at the imaging position P3 is an image in which the imaging direction of the sign 401 is 45 °.
- FIG. 5 is a diagram illustrating an example of an image captured for each traveling lane by the camera 102 according to the embodiment.
- An image 501 shown in FIG. 5A is an image captured by the camera 102 at an imaging position P3 which is a position 40 m before the signboard 401 while the vehicle 402 is traveling in the second travel lane L2 of the road 400.
- an image 502 shown in FIG. 5B is captured by the camera 102 at an imaging position P2 which is a position 35 m before the signboard 401 when the vehicle 402 is traveling in the second travel lane L2 of the road 400. It is an example of the image.
- an image 503 shown in FIG. 5C is captured by the camera 102 at the imaging position P1, which is a position 30 m before the signboard 401, while the vehicle 402 is traveling in the second travel lane L2 of the road 400. It is an example of the image.
- the image captured at the imaging position P2 is an image in which the imaging direction of the sign 401 is 45 °. Therefore, since the imaging direction of the signboard 401 is 45 °, the image 502 shown in FIG. 5B is preferentially stored in the signboard guidance DB 153.
- the image 501 illustrated in FIG. 5A is not stored in the signboard guidance DB 153 because the imaging direction of the signboard 401 has a narrower angle than 45 °.
- the image 503 illustrated in FIG. 5C is not stored in the signboard guidance DB 153 because the imaging direction of the signboard 401 is wider than 45 °.
- the signboard guidance DB 153 is always identified by specifying the traveling lane in which the vehicle is traveling and preferentially storing the image captured at the imaging position corresponding to the traveling lane in the signboard guidance DB 153.
- An image in which the imaging direction of the signboard to be imaged is a predetermined angle (for example, 45 °) is preferentially stored.
- the image of the image of the signboard to be captured from a predetermined angle is It will be preferentially stored in the signboard guidance DB 153 provided in the center 150. This makes it possible to unify the image recognition accuracy of the signboard with relatively high accuracy among the plurality of images stored in the signboard guidance DB 153. In addition, it is possible to prevent an image having a relatively low image recognition accuracy from being unnecessarily saved in the signboard guidance DB 153. Therefore, according to the present configuration, the image recognition accuracy of the image of the signboard stored in the signboard guidance DB 153 can be enhanced, and a decrease in the utilization efficiency of the storage area of the signboard guidance DB 153 can be suppressed.
- the image in which the signboard of imaging object was imaged from the predetermined angle can be acquired about each of the several driving lane which the road in which the vehicle is drive
- working has. For this reason, when the traveling lane can not be specified on the vehicle side, even if the vehicle travels in any traveling lane, the center 150 obtains an image in which a signboard to be imaged is imaged from a predetermined angle. be able to. Further, according to the present configuration, since the number of captured images can be minimized ( the number of traveling lanes), it is possible to reduce the communication capacity and storage capacity of a plurality of captured images.
- the camera Any image captured by 102 is not sent to the center 150.
- an image for the assumed traveling lane that is, an imaging direction of a signboard to be imaged in a traveling lane different from the assumed traveling lane
- Image may not be captured at a predetermined angle, and in such a case, an image in which the imaging direction of the signboard to be imaged does not reach a predetermined angle may be stored in the signboard guidance DB 153. It can be avoided.
- FIG. 6 is a flowchart showing a modification of the procedure of processing by the center 150 (ECU 160) according to the embodiment.
- the process of FIG. 6 is a modified example of the process of FIG.
- the process of FIG. 6 is repeatedly performed by the ECU 160, for example, while the center 150 is in operation.
- the probe storage processing unit 161 determines whether or not probe data transmitted from the navigation device 100 has been received (step S601). When it is determined in step S601 that the probe data is not received (step S601: No), the probe storage processing unit 161 executes the process of step S601 again.
- step S601 when it is determined in step S601 that the probe data has been received (step S601: Yes), the probe storage processing unit 161 stores the probe data in the traveling DB 152 (step S602).
- the signboard image recognition unit 162 carries out known image recognition processing from a plurality of images included in the probe data stored in the traveling DB 152 in step S602, thereby performing image recognition on the signboard to be imaged ( Step S603). Then, the signboard image recognition unit 162 determines whether the signboard to be guided to the intersection has been image-recognized by the image recognition processing in step S603 (step S604).
- step S604 If it is determined in step S604 that the signboard to be guided to the intersection is not recognized as an image (step S604: No), the ECU 160 ends the series of processes shown in FIG.
- step S604 determines the plurality of images included in the probe data. Based on the positional relationship between the vehicle and the signboard in the image, an angle formed by the imaging direction of the signboard with respect to the traveling direction of the vehicle is specified (step S605). For example, when the images 501, 502, and 503 shown in FIG. 5 are included in the probe data, the positional relationship information acquiring unit 163 sets an angle narrower than 45 ° as the imaging direction of the signboard in the image 501. calculate.
- the positional relationship information acquiring unit 163 calculates 45 ° as an angle of the imaging direction of the signboard in the image 502. In addition, the positional relationship information acquiring unit 163 calculates an angle wider than 45 ° as the angle in the imaging direction of the signboard in the image 503.
- the signboard guidance data storage processing unit 164 preferentially stores, in the signboard guidance DB 153, an image whose angle specified in step S605 is a predetermined angle among the plurality of images included in the probe data. For example, when the predetermined angle is 45 °, the signboard guidance data storage processor 164 preferentially stores the image 501 whose angle calculated by the positional relationship information acquisition unit 163 is 45 ° in the signboard guidance DB 153. . Thereafter, the ECU 160 ends the series of processes shown in FIG.
- the direction of the signboard of the imaging target with respect to the traveling direction of the vehicle is the positional relationship between the signboard and the vehicle when the image of the signboard of the imaging target is imaged.
- the angle to be made can be specified from the positional relationship between the vehicle and the signboard in the image. For this reason, according to the present configuration, even when the imaging direction of the signboard of the imaging target deviates from the predetermined angle due to a change in the imaging condition (for example, the GPS accuracy etc.), the imaging target is actually An image in which the imaging direction of the signboard is a predetermined angle can be preferentially stored in the signboard guidance DB 153. Therefore, according to this configuration, it is possible to further improve the image recognition accuracy of the image of the signboard stored in the signboard guidance DB 153.
- a signboard is used as an example of the “mark object”, but the present invention is not limited to this.
- the “mark object” may be anything as long as it can be used as a mark such as a sign, a bronze statue, a building, or an intersection guide.
- a part of the functions of the navigation device 100 may be provided in the center 150 or another information processing device connectable to the navigation device 100.
- a part of the functions of the center 150 may be provided in the navigation apparatus 100 or another information processing apparatus connectable to the center 150.
- the plurality of images captured by the camera 102 are not all transmitted to the center 150. I am trying to destroy it, but it is not limited to this.
- the plurality of images captured by the camera 102 are all transmitted to the center 150, and the center 150
- the guidance data storage processing unit 164 may not store (i.e., discard) any image in the signboard guidance DB 153.
- the image in which the landmark object (signboard) is captured from a predetermined angle is preferentially stored in the billboard guidance DB 153. Not limited to.
- all the images captured by the camera 102 may be stored in the signboard guidance DB 153 in association with information indicating the traveling lane in which the vehicle is traveling.
- the image recognition processing of the target object is fixed by reading only the image associated with the specific traveling lane from the signboard guidance DB 153. It becomes possible to do with image recognition accuracy.
- the information indicating the traveling lane in which the vehicle is traveling may be acquired from the outside (for example, the vehicle) or may be acquired from the image by specifying the traveling lane in which the vehicle is traveling. Further, in this case, it is not necessary to calculate an angle formed by the direction of the mark object with respect to the traveling direction of the vehicle.
- all the images captured by the camera 102 may be stored in the signboard guidance DB 153 in association with information indicating the angle formed by the direction of the mark object with respect to the traveling direction of the vehicle.
- the image recognition process of the target object is a certain image by reading only the image associated with the specific angle from the signboard guidance DB 153 It will be possible to do with recognition accuracy.
- the information indicating the angle formed by the direction of the mark object with respect to the traveling direction of the vehicle may be obtained from the outside (for example, a vehicle), and calculated from the positional relationship between the vehicle and the mark object in the image. You may get it. Also, in this case, it is not necessary to specify the traveling lane in which the vehicle is traveling.
- all the images captured by the camera 102 are associated with both the information indicating the traveling lane in which the vehicle is traveling and the information indicating the angle formed by the direction of the marking object with respect to the traveling direction of the vehicle. , And may be stored in the signboard guidance DB 153.
- the signboard guidance DB 153 thereby, for example, when performing the image recognition process of the target object, only the image associated with the specific traveling lane or only the image associated with the specific angle is read out from the signboard guidance DB 153
- the image recognition processing of the target object can be performed with a constant image recognition accuracy.
- the information indicating the traveling lane in which the vehicle is traveling may be acquired from the outside (for example, the vehicle) or may be acquired from the image by specifying the traveling lane in which the vehicle is traveling.
- information indicating the angle formed by the direction of the mark object with respect to the traveling direction of the vehicle may be acquired from the outside (for example, a vehicle), and acquired by calculating from the positional relationship between the vehicle and the mark object in the image.
- an image acquisition unit that acquires an image of a landmark object captured by an imaging device mounted on a vehicle, and an image acquired by the image acquisition unit, the landmark object A vehicle communication device may be included in the image acquisition system, the vehicle communication device including an image transmission unit that transmits an image captured at a predetermined angle to the center.
- the imaging direction of the landmark object in each image may be performed by the vehicle communication device (for example, the “imaging direction identifying unit”).
- the communication apparatus for vehicles may specify the imaging direction of the mark object in the image based on the position information (longitude and latitude) of the mark object and the current position information (longitude and latitude) of the vehicle.
- the communication apparatus for vehicle may specify the imaging direction of the landmark object in the image based on the positional relationship between the vehicle and the landmark object in the image. Also according to the present configuration, it is possible to preferentially store in the database an image which can be imaged at a predetermined angle from the landmark object. Therefore, according to this configuration, it is possible to enhance the image recognition accuracy of the image of the landmark object stored in the database, and to suppress the decrease in the utilization efficiency of the storage area of the database.
- image acquisition system 100 navigation device (vehicle equipment) 101 Communication I / F 102 Camera (imaging device) 103 GPS 104 display 105 speaker 106 map data storage unit 110 ECU 111 Road Judgment Unit 112 Imaging Position Calculation Unit 113 Imaging Control Unit 114 Image Acquisition Unit 115 Image Transmission Unit 116 Lane Change Detection Unit 117 Navi Client Function Unit 140 Network 150 Center (Image Collection Device) 151 Communication I / F 152 Running DB 153 billboard guidance DB (database) 154 map DB 160 ECU 161 probe storage processing unit 162 signboard image recognition unit 163 positional relationship information acquisition unit 164 signboard guidance data storage processing unit 165 route search unit 166 route guidance unit 400 road 401 signboard 402 vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Library & Information Science (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
画像収集システムは、車両に搭載された撮像装置によって撮像された、目印対象物の画像を取得する画像取得部と、前記画像が撮像された際の前記目印対象物と前記車両との位置関係を表す位置関係情報を取得する位置関係情報取得部と、前記画像取得部によって取得された前記画像を、前記位置関係情報取得部によって取得された前記位置関係情報と対応付けて、データベースに保存する保存処理部と、を備える。
Description
本発明は、画像収集システム、画像収集方法、画像収集装置、記録媒体、および車両用通信装置に関する。
従来より、ナビゲーション装置において、目的地までのルート案内中に、自車両が案内交差点から所定の距離手前の地点に到達すると、その案内交差点の周辺に設置されている看板を目印として用いて、交差点案内を行う技術が知られている。
また、下記特許文献1には、ナビゲーション装置において、車載カメラによって撮像された車両の前方の看板や表示式の映像データを、正面から見た画像データに補正して、当該画像データをディスプレイに表示する技術が開示されている。
ところで、ナビゲーション装置により、目印対象物(看板等)を用いた交差点案内等を行うためには、例えば、車載カメラによって撮像された画像から、目印対象物を画像認識し、当該目印対象物の画像を、センタに設けられたデータベースに、予め保存しておく必要がある。
しかしながら、従来、車載カメラによって撮像される画像は、目印対象物の撮像角度が様々であるため、画像毎に目印対象物の画像認識精度が異なるといった問題が生じていた。
本発明は、上述した従来技術の課題を解決するため、データベースに保存される目印対象物の画像の画像認識精度を高めることができるようにすることを目的とする。
本開示の一態様の画像収集システムは、車両に搭載された撮像装置によって撮像された、目印対象物の画像を取得する画像取得部と、前記画像が撮像された際の前記目印対象物と前記車両との位置関係を表す位置関係情報を取得する位置関係情報取得部と、前記画像取得部によって取得された前記画像を、前記位置関係情報取得部によって取得された前記位置関係情報と対応付けて、データベースに保存する保存処理部と、を備える。
本構成によれば、撮像装置によって撮像された画像を、当該画像が撮像された際の目印対象物と車両との位置関係を識別可能に、データベースに保存することができる。これにより、例えば、目標対象物の画像認識処理を行う際に、目印対象物と車両とが特定の位置関係にある画像のみをデータベースから読み出すことで、目標対象物の画像認識処理を、一定の画像認識精度で行うことができる。
本開示の一態様の画像収集システムにおいて、前記位置関係情報は、前記車両が走行中の走行レーンを示す情報、および、前記車両の進行方向に対する前記目印対象物の方向がなす角度を示す情報の、少なくともいずれか一方を含むようにしてもよい。
本構成によれば、撮像装置によって撮像された画像を、当該画像が撮像された際の、車両が走行中の走行レーン、および、車両の進行方向に対する目印対象物の方向がなす角度の少なくともいずれか一方を識別可能に、データベースに保存することができる。これにより、例えば、目標対象物の画像認識処理を行う際に、特定の走行レーンが対応付けられている画像、または、特定の角度が対応付けられている画像のみを、データベースから読み出すことで、目標対象物の画像認識処理を、一定の画像認識精度で行うことができる。
本開示の一態様の画像収集システムにおいて、前記車両が走行中の道路が有する複数の走行レーンの各々について、前記目印対象物を所定の角度から撮像可能な前記車両の進行方向における撮像位置を算出する撮像位置算出部と、前記撮像位置算出部によって算出された複数の撮像位置の各々において、前記撮像装置に前記画像を撮像させる撮像制御を行う撮像制御部と、をさらに備え、前記画像取得部は、前記撮像位置算出部によって算出された前記複数の撮像位置の各々において前記撮像制御部が撮像制御を行うことによって前記撮像装置によって撮像された複数の画像を取得するようにしてもよい。
本構成によれば、車両がいずれの走行レーンを走行していたとしても、目印対象物が所定の角度から撮像された画像を得ることができる。すなわち、撮像装置によって撮像された複数の画像のうちのいずれか一つを、目印対象物が所定の角度から撮像された画像とすることができる。また、本構成によれば、画像の撮像枚数を最小限(=走行レーン数)とすることができるため、撮像された複数の画像に係る通信容量や記憶容量を軽減することができる。
本開示の一態様の画像収集システムにおいて、前記位置関係情報取得部は、前記位置関係情報として、前記車両が走行中の走行レーンを示す情報を、前記画像取得部によって取得された画像から前記車両が走行中の走行レーンを特定することによって取得し、前記保存処理部は、前記画像取得部によって取得された複数の画像のうち、前記位置関係情報取得部によって特定された前記車両が走行中の走行レーンに対応する撮像位置で撮像された画像を、前記データベースに優先的に保存するようにしてもよい。
本構成によれば、車両が走行中の走行レーンを特定するという、比較的簡単な画像認識処理を行うことにより、画像が撮像された際の、目印対象物と車両との位置関係を特定することができる。そして、特定された走行レーンに対応する撮像位置で撮像された画像を優先的にデータベースに保存することで、実際に、目印対象物を所定の角度から撮像することができた画像を、データベースに優先的に保存することができる。したがって、本構成によれば、データベースに保存される目印対象物の画像の画像認識精度を高めることができ、且つ、データベースの記憶領域の利用効率の低下を抑制することができる。
本開示の一態様の画像収集システムにおいて、前記位置関係情報取得部は、前記位置関係情報として、前記車両の進行方向に対する前記目印対象物の方向がなす角度を示す情報を、前記画像取得部によって取得された画像における前記車両と前記目印対象物との位置関係から算出することによって取得し、前記保存処理部は、前記画像取得部によって取得された複数の画像のうち、前記位置関係情報取得部によって算出された角度が前記所定の角度である画像を、前記データベースに優先的に保存するようにしてもよい。
本構成によれば、撮像条件(例えば、GPS精度等)の変化等によって、目印対象物の撮像方向が所定の角度からずれるといった事態が生じ得る場合であっても、実際に、目印対象物を所定の角度から撮像することができた画像を、データベースに優先的に保存することができる。したがって、本構成によれば、データベースに保存される目印対象物の画像の画像認識精度を高めることができ、且つ、データベースの記憶領域の利用効率の低下を抑制することができる。
本開示の一態様の画像収集システムにおいて、前記画像取得部、前記撮像位置算出部、および前記撮像制御部は、前記車両に搭載された車載機器に設けられ、前記位置関係情報取得部および前記保存処理部は、センタに設けられ、前記車載機器は、前記画像取得部によって取得された複数の前記画像を、前記センタに送信する画像送信部と、前記車両が走行中の走行レーンが変更されたことを検知するレーン変更検知部と、をさらに備え、前記画像送信部は、前記撮像装置によって前記複数の撮像位置の全てにおいて前記画像が撮像されるまでの間に、前記レーン変更検知部によって前記走行レーンの変更が検知された場合、前記撮像装置によって撮像されたいずれの前記画像も、前記センタに送信しないようにしてもよい。
または、本開示の一態様の画像収集システムにおいて、前記車両が走行中の走行レーンが変更されたことを検知するレーン変更検知部をさらに備え、前記保存処理部は、前記撮像装置によって前記複数の撮像位置の全てにおいて前記画像が撮像されるまでの間に、前記レーン変更検知部によって前記走行レーンの変更が検知された場合、前記撮像装置によって撮像されたいずれの前記画像も前記データベースに保存しないようにしてもよい。
本構成によれば、車両が走行中の走行レーンが変更されてしまうと、想定された走行レーンとは異なる走行レーンにおいて、想定された走行レーン用の画像(すなわち、目印対象物の撮像方向が所定の角度とならない画像)が撮像されてしまう可能性があり、このような場合において、目印対象物の撮像方向が所定の角度とならない画像が、データベースに保存されてしまうことを回避することができる。
データベースに保存される目印対象物の画像の画像認識精度を高めることができる。
以下、図面を参照して、本発明の実施形態の画像収集システムについて説明する。
(画像収集システム10の機能構成)
図1は、実施形態に係る画像収集システム10の機能構成を示す図である。図1に示す画像収集システム10は、センタ150およびナビゲーション装置100を備えて構成されており、センタ150からナビゲーション装置100に対して、ネットワーク140を介して、各種情報や各種サービスの提供ができるようになされたシステムである。
図1は、実施形態に係る画像収集システム10の機能構成を示す図である。図1に示す画像収集システム10は、センタ150およびナビゲーション装置100を備えて構成されており、センタ150からナビゲーション装置100に対して、ネットワーク140を介して、各種情報や各種サービスの提供ができるようになされたシステムである。
また、画像収集システム10は、車両に搭載されたカメラ102によって撮像された、看板を目印対象物とする画像を、ナビゲーション装置100からセンタ150へ送信し、センタ150において、ナビゲーション装置100から収集された複数の画像に基づいて、看板案内DB(Data Base)153を構築することができるようになされている。
なお、図1では、1台のナビゲーション装置100を示しているが、実際には、画像収集システム10は、複数のナビゲーション装置100(いずれも、図1に示すナビゲーション装置100と同様の構成を有する)を備えている。すなわち、センタ150は、複数のナビゲーション装置100に対して、各種情報や各種サービスの提供が可能であり、且つ、複数のナビゲーション装置100から、画像を収集することが可能である。
(センタ150)
センタ150は、「画像収集装置」の一例であり、車両の外部の施設(例えば、サービス提供会社が管理する施設)内に設置される装置である。センタ150は、ネットワーク140に接続されている。ネットワーク140としては、例えば、インターネット、公衆無線回線等が挙げられる。センタ150は、ネットワーク140を介して、ナビゲーション装置100に対して各種サービス(例えば、ナビゲーションシステムのサーバ機能等)を提供することが可能である。
センタ150は、「画像収集装置」の一例であり、車両の外部の施設(例えば、サービス提供会社が管理する施設)内に設置される装置である。センタ150は、ネットワーク140に接続されている。ネットワーク140としては、例えば、インターネット、公衆無線回線等が挙げられる。センタ150は、ネットワーク140を介して、ナビゲーション装置100に対して各種サービス(例えば、ナビゲーションシステムのサーバ機能等)を提供することが可能である。
図1に示すように、センタ150は、通信I/F(Inter Face)151、走行DB152、看板案内DB153、地図DB154、およびECU160を備える。
通信I/F151は、ネットワーク140を介したナビゲーション装置100との通信を制御することにより、ナビゲーション装置100との間で各種データの送受信を行う。
走行DB152は、ナビゲーション装置100から送信されたプローブデータを記憶する。各プローブデータは、例えば、カメラ102によって走行レーン毎に撮像された複数の画像と、撮像対象の看板を特定するための情報(例えば、ID、位置情報等)と、各画像の撮像位置の位置情報と、を含んでいる。
看板案内DB153は、「データベース」の一例である。看板案内DB153は、複数の看板案内データを記憶する。「看板案内データ」とは、看板を目印に用いた交差点案内を行うことが可能な交差点について、看板を目印に用いた交差点案内に必要なデータを含むものである。例えば、看板案内データは、看板の名称(例えば、店舗名)、位置情報(経度および緯度)、画像等を含んでいる。
地図DB154は、地図データを記憶する。地図データは、複数のノードデータと複数のリンクデータとを含んでいる。ノードデータは、交差点に相当するデータである。リンクデータは、ノードとノードの間の道路区間に相当するデータである。
ECU160は、センタ150の全体を制御する装置である。図1に示すように、ECU160は、プローブ保存処理部161を備える。また、ECU160は、看板案内データ作成機能として、看板画像認識部162、位置関係情報取得部163、および看板案内データ保存処理部164を備える。また、ECU160は、ナビサーバ機能として、ルート探索部165およびルート案内部166を備える。
プローブ保存処理部161は、ナビゲーション装置100から送信されたプローブデータを、通信I/F151を介して受信すると、当該プローブデータを、走行DB152へ保存する。ナビゲーション装置100から送信されたプローブデータは、少なくとも、カメラ102によって走行レーン毎に撮像された複数の画像と、撮像対象の看板を特定するための情報(例えば、ID、位置情報等)と、各画像の撮像位置の位置情報と、を含んでいる。
看板画像認識部162は、走行DB152にプローブデータが保存されると、当該プローブデータに含まれている複数の画像から、公知の画像認識処理を行うことにより、看板を画像認識する。
位置関係情報取得部163は、プローブデータに含まれている複数の画像の各々について、看板画像認識部162によって画像認識された看板と、車両との位置関係を特定することにより、当該位置関係を表す位置関係情報を取得する。本実施形態では、位置関係情報取得部163は、プローブデータに含まれている複数の画像に対して、画像認識処理を行って、車両が走行中の走行レーンを特定することにより、看板画像認識部162によって画像認識された看板と、車両との位置関係を表す位置関係情報として、車両が走行中の走行レーンを示す位置関係情報を取得する。画像から走行レーンを特定する方法としては、公知の方法を用いることができるが、例えば、複数の白線を画像認識することによって、複数の走行レーンを特定し、画像におけるこれら複数の走行レーンの表示位置と、車両におけるカメラの設置位置との関係に基づいて、車両が走行中の走行レーンを特定することができる。例えば、車両の横幅方向における中央にカメラが設置されている場合、画像の横幅方向における中央に写し出されている走行レーンが、車両が走行中の走行レーンであると特定することができる。
看板案内データ保存処理部164は、位置関係情報取得部163によって取得された位置関係情報に基づいて、プローブデータに含まれている複数の画像のうち、撮像対象の看板(看板画像認識部162によって画像認識された看板)が所定の角度から撮像された画像を抽出し、当該画像を看板案内DB153に保存する。本実施形態では、看板案内データ保存処理部164は、プローブデータに含まれている複数の画像のうち、位置関係情報取得部163によって特定された走行レーンに対応する撮像位置で撮像された画像を、看板案内DB153に優先的に保存する。例えば、図4に示すように、車両402が走行中の道路400が、3つの走行レーンL1,L2,L3を有する場合、プローブデータには、3つの走行レーンL1,L2,L3の各々の画像が含まれる。ここで、位置関係情報取得部163によって、車両402が第2の走行レーンL2を走行していると特定されたとする。プローブデータに含まれている複数の画像のうち、第2の走行レーンL2に対応する撮像位置で撮像された画像は、車両402が第2の走行レーンL2を走行しているときに、撮像対象の看板の撮像方向が所定の角度(例えば、45°)となる画像である。一方、プローブデータに含まれている複数の画像のうち、第1の走行レーンL1,第3の走行レーンL3に対応する撮像位置で撮像された画像は、車両402が第2の走行レーンL2を走行しているときには、撮像対象の看板の撮像方向が所定の角度とならない画像である。そこで、この場合、看板案内データ保存処理部164は、プローブデータに含まれている複数の画像のうち、第2の走行レーンL2に対応する撮像位置で撮像された画像を、看板案内DB153に優先的に保存する。一方、看板案内データ保存処理部164は、プローブデータに含まれている複数の画像のうち、第1の走行レーンL1,第3の走行レーンL3に対応する撮像位置で撮像された画像を、看板案内DB153に保存しない。これにより、看板案内DB153には、撮像対象の看板の撮像方向が所定の角度(例えば、45°)となる画像が優先的に保存されることとなる。
ルート探索部165は、ナビゲーション装置100からルート探索要求を受信すると、地図DB154に記憶されている地図データに基づいて、当該ルート探索要求に含まれている現在地情報によって特定されるナビゲーション装置100の現在地から、当該ルート探索要求に含まれている目的地情報によって特定される目的地までのルートを探索する。ルート探索部165によって探索されるルートは、目的地までの経路を構成するリンク列、ルート上の各交差点の交差点案内データを含んでいる。ここで、周辺に設置されている看板を目印に用いた交差点案内を行うことが可能な交差点については、その交差点案内データに、看板案内DB153から取得した看板案内データ(例えば、看板の名称(例えば、店舗名)、位置情報(経度および緯度)、画像等)を含んでいる。
ルート案内部166は、ルート探索部165によって探索されたルートに基づいて、当該ルートの出発地から目的地までのルート案内を行う。ルート案内部166によるルート案内は、ナビゲーション装置100が備えるディスプレイ104によるルート案内画面の表示、および、ナビゲーション装置100が備えるスピーカ105によるルート案内音声の出力を伴う。ここで、ルート案内部166は、ルート探索部165によって探索されたルートにおいて、看板案内データが含まれている交差点については、その看板案内データに基づいて、看板を目印に用いた交差点案内(例えば、「○○の看板が見えたら左折です」等)を行う。このとき、ルート案内部166は、看板案内データに含まれている画像(すなわち、看板案内DB153から取得した看板の画像)を、ディスプレイ104に表示させる。これにより、車両の運転者は、どの看板を目印にすればよいのかを、ディスプレイ104に表示された画像から容易に把握することができる。
なお、ECU160は、CPU(Central Processing Unit)、主記憶装置(例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等)、補助記憶装置(例えば、HDD(Hard Disk Drive)、フラッシュメモリ等)等のハードウェアを備えて構成されている。図1に示したECU160の各機能は、例えば、ECU160において、主記憶装置または補助記憶装置に記憶されているプログラムをCPU(コンピュータ)が実行することによって実現される。
CPUが実行するプログラムは、予めECU160に導入された状態で提供されてもよく、外部から提供されてECU160に導入されるようにしてもよい。後者の場合、このプログラムは、コンピュータ読み取り可能な記憶媒体(例えば、USBメモリ、メモリカード、CD-ROM等)によって提供されてもよく、ネットワーク(例えば、インターネット等)上のサーバからダウンロードすることによって提供されるようにしてもよい。
また、センタ150は、物理的に1台の情報処理装置(例えば、サーバ装置等)によって構成されてもよく、物理的に複数台の情報処理装置によって構成されてもよい。後者の場合、複数台の情報処理装置は、ネットワークを介して互いに接続されたものであってもよい。
(ナビゲーション装置100)
ナビゲーション装置100は、「車載機器」の一例であり、自動車等の車両に搭載される装置である。ナビゲーション装置100は、ネットワーク140を介して、センタ150によって提供される各種サービス(例えば、ナビゲーションシステムのサーバ機能等)を利用することが可能である。
ナビゲーション装置100は、「車載機器」の一例であり、自動車等の車両に搭載される装置である。ナビゲーション装置100は、ネットワーク140を介して、センタ150によって提供される各種サービス(例えば、ナビゲーションシステムのサーバ機能等)を利用することが可能である。
図1に示すように、ナビゲーション装置100は、通信I/F101、カメラ102、GPS(Global Positioning System)103、ディスプレイ104、スピーカ105、地図データ記憶部106、およびECU110を備える。
通信I/F101は、ネットワーク140を介したセンタ150との通信を制御することにより、センタ150との間で各種データの送受信を行う。通信I/F101としては、例えば、DCM(Data Communication Module)用の通信I/F等を用いることができる。カメラ102は、「撮像装置」の一例である。カメラ102は、車両の前方を撮像方向とする、一定の画角(但し、後述する「所定の角度」の2倍以上)の画像を撮像する。GPS(Global Positioning System)103は、GPS衛星から受信したGPS信号に基づいて、車両の現在位置(経度および緯度)を検知する。
ディスプレイ104は、各種情報(例えば、地図画面、ルート案内画面等)を表示する装置である。ディスプレイ104としては、例えば、液晶ディスプレイ、有機ELディスプレイ等が挙げられる。スピーカ105は、各種音声(例えば、ルート案内音声等)を出力する。
地図データ記憶部106は、地図データを記憶する。例えば、地図データ記憶部106は、センタ150から提供された地図データを保存する。これにより、地図データ記憶部106は、一度表示した地図画面については、当該地図データ記憶部106に保存されている地図データに基づいて、当該地図画面を再表示することができる。したがって、地図データ記憶部106との通信頻度を抑制することができ、地図画面の表示速度向上などの効果を得ることができる。
ECU110は、ナビゲーション装置100の全体を制御する装置である。図1に示すように、ECU110は、画像送信機能として、道路判定部111、撮像位置算出部112、撮像制御部113、画像取得部114、画像送信部115、およびレーン変更検知部116を備える。また、ECU110は、ナビクライアント機能部117を備える。
道路判定部111は、車両が所定の道路を走行中であるか否かを判定する。本実施形態において、「所定の道路」とは、以下4つの条件を満たす道路である。
(1)車両の進行方向において、撮像対象の看板から所定の距離範囲内である。
(2)車両の進行方向と直交する方向において、撮像対象の看板から所定の距離範囲内である。
(3)複数の走行レーンを有する。
(4)道路の曲率が所定値以下である(概ね、直線道路である)。
上記条件(1)および条件(2)は、例えば、撮像対象の看板の位置情報と、GPS103によって検知された車両の現在位置を示す情報とに基づいて、判定することができる。また、上記条件(3)および条件(4)は、例えば、地図データ記憶部106に記憶されている、車両が走行中の道路のリンクデータに基づいて、判定することができる。
(1)車両の進行方向において、撮像対象の看板から所定の距離範囲内である。
(2)車両の進行方向と直交する方向において、撮像対象の看板から所定の距離範囲内である。
(3)複数の走行レーンを有する。
(4)道路の曲率が所定値以下である(概ね、直線道路である)。
上記条件(1)および条件(2)は、例えば、撮像対象の看板の位置情報と、GPS103によって検知された車両の現在位置を示す情報とに基づいて、判定することができる。また、上記条件(3)および条件(4)は、例えば、地図データ記憶部106に記憶されている、車両が走行中の道路のリンクデータに基づいて、判定することができる。
撮像位置算出部112は、車両が走行中の道路が有する複数の走行レーンの各々について、撮像対象の看板を所定の角度から撮像可能な、車両の進行方向における撮像位置を算出する。例えば、車両の進行方向における撮像対象の看板の位置から撮像位置までの距離をXとし、車両の進行方向と直交する方向における撮像対象の看板の位置から撮像位置までの距離をYとし、上記所定の角度をθとした場合、距離Yおよび所定の角度θは固定であるから、撮像位置算出部112は、下記数式(1)によって、距離Xを算出すればよい。
tanθ=X/Y・・・(1)
例えば、図4に示すように、車両402が走行中の道路400が、3つの走行レーンL1,L2,L3を有し、且つ、上記所定の角度θを45°とした場合において、車両402の進行方向と直交する方向(図中Y軸方向)における、第1の走行レーンL1から看板401の位置までの距離Y1が、30mである場合、車両402の進行方向(図中X軸方向)における、撮像位置P1から看板401の位置までの距離X1は、30mとなる。
同様に、車両402の進行方向と直交する方向における、第2の走行レーンL2から看板401の位置までの距離Y2が、35mである場合、車両402の進行方向における、撮像位置P2から看板401の位置までの距離X2は、35mとなる。
さらに同様に、車両402の進行方向と直交する方向における、第3の走行レーンL3から看板401の位置までの距離Y3が、40mである場合、車両402の進行方向における、撮像位置P3から看板401の位置までの距離X3は、40mとなる。
撮像制御部113は、撮像位置算出部112によって算出された、走行レーン毎の複数の撮像位置の各々において、カメラ102に撮像対象の看板の画像を撮像させる撮像制御を行う。
画像取得部114は、カメラ102によって撮像された画像(走行レーン毎の画像)を取得し、一の画像を取得する毎に、当該一の画像を、ナビゲーション装置100が備えるメモリに一時的に記憶させる。
レーン変更検知部116は、車両が走行中の走行レーンが変更されたことを検知する。例えば、レーン変更検知部116は、車両のハンドルの操舵角信号、車両に搭載されている車線逸脱検知システムによる車線逸脱検知信号等に基づいて、車両が走行中の走行レーンが変更されたことを検知することができる。また、例えば、カメラ102によって撮像された車両前方の画像から、走行レーンを区分する道路の白線を画像認識した結果に基づいて、車両が走行中の走行レーンが変更されたことを検知することができる。
画像送信部115は、カメラ102による全ての走行レーンの画像の撮像が終了すると、当該全ての走行レーンの画像を、メモリから読み出し、通信I/F101を介して、センタ150へ送信する。但し、画像送信部115は、カメラ102によって全ての走行レーンの画像が撮像されるまでの間に、レーン変更検知部116によって走行レーンの変更が検知された場合、カメラ102によって撮像されたいずれの画像も、センタ150へ送信しない。
ナビクライアント機能部117は、ナビゲーションシステムにおけるクライアント機能を実現する。例えば、ナビクライアント機能部117は、センタ150に対して、目的地までのルート探索およびルート案内を要求することによって、当該ルート探索およびルート案内をセンタ150に行わせることが可能である。そして、ナビクライアント機能部117は、センタ150による目的地までのルートを案内に応じて、ディスプレイ104による地図画面やルート案内画面の表示、スピーカ105によるルート案内音声の出力等を行う。
なお、ECU110は、CPU、主記憶装置(例えば、ROM、RAM等)、補助記憶装置(例えば、HDD、フラッシュメモリ等)等のハードウェアを備えて構成されている。図1に示したECU110の各機能は、例えば、ECU110において、主記憶装置または補助記憶装置に記憶されているプログラムをCPUが実行することによって実現される。
(ナビゲーション装置100による処理の手順)
図2は、実施形態に係るナビゲーション装置100(ECU110)による処理の手順の一例を示すフローチャートである。図2の処理は、例えば、車両が走行している間、当該車両が撮像対象の看板から所定の距離手前の位置に到達する毎に、ECU110によって実行される。
図2は、実施形態に係るナビゲーション装置100(ECU110)による処理の手順の一例を示すフローチャートである。図2の処理は、例えば、車両が走行している間、当該車両が撮像対象の看板から所定の距離手前の位置に到達する毎に、ECU110によって実行される。
例えば、ナビゲーション装置100は、撮像対象の複数の看板のリストを、センタ150から予め取得しておく。当該リストには、撮像対象の複数の看板の各々の位置情報が示されている。ECU110は、撮像対象の複数の看板の各々の位置情報と、車両の現在位置情報とに基づいて、車両が撮像対象のいずれかの看板から所定の距離手前の位置に到達したか否かを判断する。そして、ECU110は、車両が撮像対象のいずれかの看板から所定の距離手前の位置に到達したと判断した場合、以下の処理を行うことにより、その看板の画像を取得する。
まず、道路判定部111が、車両が所定の道路を走行中であるか否かを判定する(ステップS201)。ステップS201において、車両が所定の道路を走行中ではないと判定された場合(ステップS201:No)、道路判定部111は、ステップS201の処理を再度実行する。
一方、ステップS201において、車両が所定の道路を走行中であると判定された場合(ステップS201:Yes)、撮像位置算出部112が、車両が走行中の道路が有する複数の走行レーンの各々について、撮像対象の看板を所定の角度から撮像可能な、車両の進行方向における位置を、撮像位置Pとして算出する(ステップS202)。例えば、図4に示すように、車両402が走行中の道路400が、3つの走行レーンL1,L2,L3を有する場合、撮像位置算出部112は、これら3つの走行レーンL1,L2,L3に対応する、3つの撮像位置P1,P2,P3を算出する。
その後、撮像制御部113が、ステップS202で算出されたいずれかの撮像位置に、車両が到達したか否かを判定する(ステップS203)。例えば、ステップS202において、3つの撮像位置P1,P2,P3が算出された場合、撮像制御部113は、これら3つの撮像位置P1,P2,P3のいずれかに、車両402が到達したか否かを判定する。この判定は、各撮像位置の位置情報と、車両402の現在位置の位置情報とに基づいて行うことができる。ステップS203において、いずれかの撮像位置に車両が到達していないと判定された場合(ステップS203:No)、撮像制御部113は、ステップS203の処理を再度実行する。
一方、ステップS203において、いずれかの撮像位置に車両が到達したと判定された場合(ステップS203:Yes)、撮像制御部113は、カメラ102に撮像対象の看板の画像を撮像させる(ステップS204)。そして、画像取得部114が、ステップS204で撮像された画像を取得し、当該画像を、ナビゲーション装置100が備えるメモリに一時的に記憶させる(ステップS205)。ステップS203~S205の処理が繰り返し実行されることにより、ステップS202で算出された複数の撮像位置の各々の画像が、メモリに記憶されることとなる。例えば、ステップS202において、3つの撮像位置P1,P2,P3が算出された場合、ステップS203~S205の処理が3回繰り返し実行されることにより、これら3つの撮像位置P1,P2,P3の各々の画像が、メモリに記憶されることとなる。
その後、撮像制御部113が、ステップS202で算出された全ての撮像位置において、画像が撮像されたか否かを判定する(ステップS206)。ステップS206において、全ての撮像位置において画像が撮像されていないと判定された場合(ステップS206:No)、ECU110は、ステップS203へ処理を戻す。
一方、ステップS206において、全ての撮像位置において画像が撮像されたと判定された場合(ステップS206:Yes)、画像送信部115が、カメラ102によって全ての走行レーンの画像が撮像されるまでの間に、レーン変更検知部116によって走行レーンの変更が検知されたか否かを判定する(ステップS207)。
ステップS207において、走行レーンの変更が検知されたと判定された場合(ステップS207:Yes)、ECU110は、それまでにカメラ102によって撮像された全ての画像をメモリから破棄し、図2に示す一連の処理を終了する。車両が走行中の走行レーンが変更された場合、目印対象物の撮像方向が所定の角度とならない画像が撮像されてしまう可能性がある。そこで、ECU110は、車両が走行中の走行レーンが変更された場合、カメラ102によって撮像された全ての画像をメモリから破棄する。これにより、目印対象物の撮像方向が所定の角度とならない画像が、データベースに保存されてしまうことを回避することができる。
一方、ステップS207において、走行レーンの変更が検知されていないと判定された場合(ステップS207:No)、画像送信部115は、全ての走行レーンの画像を、メモリから読み出し、これらの画像を含むプローブデータを、通信I/F101を介して、センタ150へ送信する(ステップS208)。そして、ECU110は、図2に示す一連の処理を終了する。
(センタ150による処理の手順の一例)
図3は、実施形態に係るセンタ150(ECU160)による処理の手順の一例を示すフローチャートである。図3の処理は、例えば、センタ150が稼働している間、ECU160によって繰り返し実行される。
図3は、実施形態に係るセンタ150(ECU160)による処理の手順の一例を示すフローチャートである。図3の処理は、例えば、センタ150が稼働している間、ECU160によって繰り返し実行される。
まず、プローブ保存処理部161が、ナビゲーション装置100から送信されたプローブデータを受信したか否かを判定する(ステップS301)。ステップS301において、プローブデータを受信していないと判定された場合(ステップS301:No)、プローブ保存処理部161は、ステップS301の処理を再度実行する。
一方、ステップS301において、プローブデータを受信したと判定された場合(ステップS301:Yes)、プローブ保存処理部161は、当該プローブデータを、走行DB152へ保存する(ステップS302)。
続いて、看板画像認識部162が、ステップS302で走行DB152に保存されたプローブデータに含まれている複数の画像から、公知の画像認識処理を行うことにより、撮像対象の看板を画像認識する(ステップS303)。そして、看板画像認識部162が、ステップS303の画像認識処理により、交差点案内すべき看板が画像認識されたか否かを判定する(ステップS304)。例えば、ECU160は、交差点案内すべき看板のリストを、予めメモリに保持しておく。看板画像認識部162は、ステップS303で画像認識された看板が、このリストに含まれている場合、「交差点案内すべき看板が画像認識された」と判定する。
ステップS304において、交差点案内すべき看板が画像認識されていないと判定された場合(ステップS304:No)、ECU160は、図3に示す一連の処理を終了する。
一方、ステップS304において、交差点案内すべき看板が画像認識されたと判定された場合(ステップS304:Yes)、位置関係情報取得部163が、プローブデータに含まれている複数の画像に基づいて、車両が走行中の走行レーンを特定する(ステップS305)。例えば、図4に示すように、車両402が走行中の道路400が、3つの走行レーンL1,L2,L3を有する場合、これら3つの走行レーンL1,L2,L3の中から、車両402が走行中の走行レーンを特定する。
そして、看板案内データ保存処理部164が、プローブデータに含まれている複数の画像のうち、ステップS305で特定された走行レーンに対応する撮像位置で撮像された画像を、看板案内DB153に優先的に保存する。例えば、車両402が走行中の走行レーンが走行レーンL2であると特定された場合、看板案内データ保存処理部164は、プローブデータに含まれている複数の画像の中から、この走行レーンL2に対応する撮像位置P2で撮像された画像を抽出し、当該画像を看板案内DB153に優先的に保存する。その後、ECU160は、図3に示す一連の処理を終了する。
このように、車両が走行中の走行レーンを特定し、当該走行レーンに対応する撮像位置で撮像された画像を、看板案内DB153に保存することで、看板案内DB153には、常に、撮像対象の看板の撮像方向が所定の角度(例えば、45°)である画像が、優先的に保存されることとなる。
(走行レーン毎の撮像位置の一例)
図4は、実施形態に係るナビゲーション装置100(ECU110)によって算出される、走行レーン毎の撮像位置の一例を説明するための図である。図4に示す道路400は、走行レーンL1,L2,L3を有する3車線の直線道路である。ここで、各走行レーンにおいて、看板401の撮像方向が45°となる画像を撮像する例を説明する。
図4は、実施形態に係るナビゲーション装置100(ECU110)によって算出される、走行レーン毎の撮像位置の一例を説明するための図である。図4に示す道路400は、走行レーンL1,L2,L3を有する3車線の直線道路である。ここで、各走行レーンにおいて、看板401の撮像方向が45°となる画像を撮像する例を説明する。
例えば、図4の例において、車両402の進行方向(図中X軸方向)と直交する方向(図中Y軸方向)における、第1の走行レーンL1から看板401の位置までの距離Y1が、30mである場合、撮像位置算出部112は、車両402の進行方向(図中X軸方向)における、看板401から30m手前の位置を、撮像位置P1に設定する。この撮像位置P1は、第1の走行レーンL1において、看板401の撮像方向が45°となる位置である。
また、図4の例において、車両402の進行方向と直交する方向における、第2の走行レーンL2から看板401の位置までの距離Y2が、35mである場合、撮像位置算出部112は、車両402の進行方向における、看板401から35m手前の位置を、撮像位置P2に設定する。この撮像位置P2は、第2の走行レーンL2において、看板401の撮像方向が45°となる位置である。
また、図4の例において、車両402の進行方向と直交する方向における、第3の走行レーンL3から看板401の位置までの距離Y3が、40mである場合、撮像位置算出部112は、車両402の進行方向における、看板401から40m手前の位置を、撮像位置P3に設定する。この撮像位置P3は、第3の走行レーンL3において、看板401の撮像方向が45°となる位置である。
撮像制御部113は、撮像位置算出部112によって算出された、複数の撮像位置P1,P2,P3の各々において、カメラ102に看板401の画像を撮像させる。もし、車両402が第1の走行レーンL1を走行していれば、撮像位置P1で撮像された画像が、看板401の撮像方向が45°となる画像となる。また、車両402が第2の走行レーンL2を走行していれば、撮像位置P2で撮像された画像が、看板401の撮像方向が45°となる画像となる。また、車両402が第3の走行レーンL3を走行していれば、撮像位置P3で撮像された画像が、看板401の撮像方向が45°となる画像となる。すなわち、撮像位置P1,P2,P3の各々で画像を撮像することにより、車両402がいずれの走行レーンを走行していたとしても、看板401が所定の角度(45°)から撮像された画像を得ることができる。
(走行レーン毎に撮像された画像の一例)
(走行レーン毎に撮像された画像の一例)
図5は、実施形態に係るカメラ102によって走行レーン毎に撮像される画像の一例を示す図である。図5Aに示す画像501は、車両402が道路400の第2の走行レーンL2を走行しているときに、看板401から40m手前の位置である撮像位置P3にて、カメラ102によって撮像された画像の一例である。
また、図5Bに示す画像502は、車両402が道路400の第2の走行レーンL2を走行しているときに、看板401から35m手前の位置である撮像位置P2にて、カメラ102によって撮像された画像の一例である。
また、図5Cに示す画像503は、車両402が道路400の第2の走行レーンL2を走行しているときに、看板401から30m手前の位置である撮像位置P1にて、カメラ102によって撮像された画像の一例である。
ここで、図4で説明したとおり、車両402が第2の走行レーンL2を走行している場合、撮像位置P2で撮像された画像が、看板401の撮像方向が45°となる画像となる。したがって、図5Bに示す画像502が、看板401の撮像方向が45°となるため、看板案内DB153に優先的に保存されることとなる。
一方、図5Aに示す画像501は、看板401の撮像方向が45°よりも狭角となるため、看板案内DB153に保存されない。同様に、図5Cに示す画像503は、看板401の撮像方向が45°よりも広角となるため、看板案内DB153に保存されない。
このように、車両が走行中の走行レーンを特定し、当該走行レーンに対応する撮像位置で撮像された画像を、看板案内DB153に優先的に保存することで、看板案内DB153には、常に、撮像対象の看板の撮像方向が所定の角度(例えば、45°)である画像が、優先的に保存されることとなる。
以上説明したように、本実施形態の画像収集システム10によれば、車両に搭載されたカメラ102によって撮像された複数の画像のうち、撮像対象の看板が所定の角度から撮像された画像が、センタ150に設けられた看板案内DB153に優先的に保存されることとなる。これにより、看板案内DB153に保存された複数の画像の間で、看板の画像認識精度を、比較的高い精度で統一することができるようになる。また、画像認識精度が比較的低い画像が、無駄に看板案内DB153に保存されてしまうことを防ぐことができる。したがって、本構成によれば、看板案内DB153に保存される看板の画像の画像認識精度を高めることができ、看板案内DB153の記憶領域の利用効率の低下を抑制することができる。
また、本実施形態の画像収集システム10によれば、車両が走行中の道路が有する複数の走行レーンの各々について、撮像対象の看板が所定の角度から撮像された画像を取得することができる。このため、車両側で走行レーンを特定することができない場合において、車両がいずれの走行レーンを走行していたとしても、センタ150は、撮像対象の看板が所定の角度から撮像された画像を得ることができる。また、本構成によれば、画像の撮像枚数を最小限(=走行レーン数)とすることができるため、撮像された複数の画像に係る通信容量や記憶容量を軽減することができる。
また、本実施形態の画像収集システム10によれば、カメラ102によって複数の撮像位置の全てにおいて画像が撮像されるまでの間に、車両が走行中の走行レーンの変更が検知された場合、カメラ102によって撮像されたいずれの画像も、センタ150へ送信しないようにしている。本構成によれば、車両が走行中の走行レーンが変更されてしまうと、想定された走行レーンとは異なる走行レーンにおいて、想定された走行レーン用の画像(すなわち、撮像対象の看板の撮像方向が所定の角度とならない画像)が撮像されてしまう可能性があり、このような場合において、撮像対象の看板の撮像方向が所定の角度とならない画像が、看板案内DB153に保存されてしまうことを回避することができる。
また、本実施形態の画像収集システム10によれば、撮像対象の看板の画像が撮像された際の、看板と車両との位置関係として、車両が走行中の走行レーンを、画像から特定することができる。このため、本構成によれば、車両が走行中の走行レーンを特定するという、比較的簡単な画像認識処理により、画像が撮像された際の、目印対象物と車両との位置関係を特定することができる。
(センタ150による処理の手順の変形例)
図6は、実施形態に係るセンタ150(ECU160)による処理の手順の変形例を示すフローチャートである。図6の処理は、図3の処理の変形例である。図6の処理は、例えば、センタ150が稼働している間、ECU160によって繰り返し実行される。
(センタ150による処理の手順の変形例)
図6は、実施形態に係るセンタ150(ECU160)による処理の手順の変形例を示すフローチャートである。図6の処理は、図3の処理の変形例である。図6の処理は、例えば、センタ150が稼働している間、ECU160によって繰り返し実行される。
まず、プローブ保存処理部161が、ナビゲーション装置100から送信されたプローブデータを受信したか否かを判定する(ステップS601)。ステップS601において、プローブデータを受信していないと判定された場合(ステップS601:No)、プローブ保存処理部161は、ステップS601の処理を再度実行する。
一方、ステップS601において、プローブデータを受信したと判定された場合(ステップS601:Yes)、プローブ保存処理部161は、当該プローブデータを、走行DB152へ保存する(ステップS602)。
続いて、看板画像認識部162が、ステップS602で走行DB152に保存されたプローブデータに含まれている複数の画像から、公知の画像認識処理を行うことにより、撮像対象の看板を画像認識する(ステップS603)。そして、看板画像認識部162が、ステップS603の画像認識処理により、交差点案内すべき看板が画像認識されたか否かを判定する(ステップS604)。
ステップS604において、交差点案内すべき看板が画像認識されていないと判定された場合(ステップS604:No)、ECU160は、図6に示す一連の処理を終了する。
一方、ステップS604において、交差点案内すべき看板が画像認識されたと判定された場合(ステップS604:Yes)、位置関係情報取得部163が、プローブデータに含まれている複数の画像の各々について、当該画像における車両と看板との位置関係に基づいて、車両の進行方向に対する看板の撮像方向がなす角度を特定する(ステップS605)。例えば、図5に示す画像501,502,503がプローブデータに含まれている場合、位置関係情報取得部163は、画像501における看板の撮像方向の角度として、45°よりも狭角な角度を算出する。また、位置関係情報取得部163は、画像502における看板の撮像方向の角度として、45°を算出する。また、位置関係情報取得部163は、画像503における看板の撮像方向の角度として、45°よりも広角な角度を算出する。
そして、看板案内データ保存処理部164が、プローブデータに含まれている複数の画像のうち、ステップS605で特定された角度が所定の角度である画像を、看板案内DB153に優先的に保存する。例えば、所定の角度が45°である場合、看板案内データ保存処理部164は、位置関係情報取得部163によって算出された角度が45°である画像501を、看板案内DB153に優先的に保存する。その後、ECU160は、図6に示す一連の処理を終了する。
このように、本変形例の画像収集システム10によれば、撮像対象の看板の画像が撮像された際の、看板と車両との位置関係として、車両の進行方向に対する撮像対象の看板の方向がなす角度を、画像における車両と看板との位置関係から特定することができる。このため、本構成によれば、撮像条件の変化(例えば、GPS精度等)によって、撮像対象の看板の撮像方向が所定の角度からずれてしまうような場合であっても、実際に、撮像対象の看板の撮像方向が所定の角度となっている画像を、看板案内DB153に優先的に保存することができる。したがって、本構成によれば、看板案内DB153に保存される看板の画像の画像認識精度をより高めることができる。
以上、本発明の好ましい実施形態について詳述したが、本発明はこれらの実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。
例えば、実施形態では、「目印対象物」の一例として看板を用いているが、これに限らない。例えば、「目印対象物」は、標識、銅像、建造物等、交差点案内等の目印として用いることが可能なものであれば、如何なるものであってもよい。
また、例えば、実施形態において、ナビゲーション装置100が備える機能の一部を、センタ150、または、ナビゲーション装置100と接続可能な他の情報処理装置に設けるようにしてもよい。
また、例えば、実施形態において、センタ150が備える機能の一部を、ナビゲーション装置100、または、センタ150と接続可能な他の情報処理装置に設けるようにしてもよい。
また、上記実施形態では、レーン変更検知部116によって、車両が走行中の走行レーンが変更されたことが検知された場合、カメラ102によって撮像された複数の画像を、全てセンタ150へ送信せずに破棄するようにしているが、これに限らない。例えば、レーン変更検知部116によって、車両が走行中の走行レーンが変更されたことが検知された場合、カメラ102によって撮像された複数の画像を、全てセンタ150へ送信し、センタ150において、看板案内データ保存処理部164が、いずれの画像も看板案内DB153に保存しない(すなわち、破棄する)ようにしてもよい。
また、上記実施形態では、カメラ102によって撮像された画像のうち、目印対象物(看板)が所定の角度から撮像された画像を、看板案内DB153に優先的に保存するようにしているが、これに限らない。
例えば、カメラ102によって撮像された全ての画像を、車両が走行中の走行レーンを示す情報と対応付けて、看板案内DB153に保存するようにしてもよい。これにより、例えば、目標対象物の画像認識処理を行う際に、特定の走行レーンが対応付けられている画像のみを、看板案内DB153から読み出すことで、目標対象物の画像認識処理を、一定の画像認識精度で行うことができるようになる。この場合、車両が走行中の走行レーンを示す情報は、外部(例えば、車両)から取得してもよく、画像から車両が走行中の走行レーンを特定することによって取得してもよい。また、この場合、車両の進行方向に対する目印対象物の方向がなす角度を算出する必要はない。
また、例えば、カメラ102によって撮像された全ての画像を、車両の進行方向に対する目印対象物の方向がなす角度を示す情報と対応付けて、看板案内DB153に保存するようにしてもよい。これにより、例えば、目標対象物の画像認識処理を行う際に、特定の角度が対応付けられている画像のみを、看板案内DB153から読み出すことで、目標対象物の画像認識処理を、一定の画像認識精度で行うことができるようになる。この場合、車両の進行方向に対する目印対象物の方向がなす角度を示す情報は、外部(例えば、車両)から取得してもよく、画像における車両と目印対象物との位置関係から算出することによって取得してもよい。また、この場合、車両が走行中の走行レーンを特定する必要はない。
また、例えば、カメラ102によって撮像された全ての画像を、車両が走行中の走行レーンを示す情報と、車両の進行方向に対する目印対象物の方向がなす角度を示す情報との双方に対応付けて、看板案内DB153に保存するようにしてもよい。これにより、例えば、目標対象物の画像認識処理を行う際に、特定の走行レーンが対応付けられている画像のみ、または、特定の角度が対応付けられている画像のみを、看板案内DB153から読み出すことで、目標対象物の画像認識処理を、一定の画像認識精度で行うことができるようになる。この場合、車両が走行中の走行レーンを示す情報は、外部(例えば、車両)から取得してもよく、画像から車両が走行中の走行レーンを特定することによって取得してもよい。また、車両の進行方向に対する目印対象物の方向がなす角度を示す情報は、外部(例えば、車両)から取得してもよく、画像における車両と目印対象物との位置関係から算出することによって取得してもよい。
また、上記実施形態の他に、例えば、車両に搭載された撮像装置によって撮像された、目印対象物の画像を取得する画像取得部と、画像取得部によって取得された画像のうち、目印対象物が所定の角度で撮像された画像を、センタへ送信する画像送信部と、を備える車両用通信装置を、画像収集システムに含めるようにしてもよい。この場合、各画像における目印対象物の撮像方向は、車両用通信装置(例えば、「撮像方向特定部」)が行うようにしてもよい。例えば、車両用通信装置は、目印対象物の位置情報(経度および緯度)と車両の現在位置情報(経度および緯度)とに基づいて、画像における目印対象物の撮像方向を特定してもよい。また、例えば、車両用通信装置は、画像における車両と目印対象物との位置関係に基づいて、画像における目印対象物の撮像方向を特定してもよい。本構成によっても、目印対象物を所定の角度から撮像することができた画像を、データベースに優先的に保存することができる。したがって、本構成によれば、データベースに保存される目印対象物の画像の画像認識精度を高めることができ、且つ、データベースの記憶領域の利用効率の低下を抑制することができる。
本国際出願は、2017年8月10日に出願した日本国特許出願第2017-155304号に基づく優先権を主張するものであり、当該出願の全内容を本国際出願に援用する。
10 画像収集システム
100 ナビゲーション装置(車載機器)
101 通信I/F
102 カメラ(撮像装置)
103 GPS
104 ディスプレイ
105 スピーカ
106 地図データ記憶部
110 ECU
111 道路判定部
112 撮像位置算出部
113 撮像制御部
114 画像取得部
115 画像送信部
116 レーン変更検知部
117 ナビクライアント機能部
140 ネットワーク
150 センタ(画像収集装置)
151 通信I/F
152 走行DB
153 看板案内DB(データベース)
154 地図DB
160 ECU
161 プローブ保存処理部
162 看板画像認識部
163 位置関係情報取得部
164 看板案内データ保存処理部
165 ルート探索部
166 ルート案内部
400 道路
401 看板
402 車両
100 ナビゲーション装置(車載機器)
101 通信I/F
102 カメラ(撮像装置)
103 GPS
104 ディスプレイ
105 スピーカ
106 地図データ記憶部
110 ECU
111 道路判定部
112 撮像位置算出部
113 撮像制御部
114 画像取得部
115 画像送信部
116 レーン変更検知部
117 ナビクライアント機能部
140 ネットワーク
150 センタ(画像収集装置)
151 通信I/F
152 走行DB
153 看板案内DB(データベース)
154 地図DB
160 ECU
161 プローブ保存処理部
162 看板画像認識部
163 位置関係情報取得部
164 看板案内データ保存処理部
165 ルート探索部
166 ルート案内部
400 道路
401 看板
402 車両
Claims (11)
- 車両に搭載された撮像装置によって撮像された、目印対象物の画像を取得する画像取得部と、
前記画像が撮像された際の前記目印対象物と前記車両との位置関係を表す位置関係情報を取得する位置関係情報取得部と、
前記画像取得部によって取得された前記画像を、前記位置関係情報取得部によって取得された前記位置関係情報と対応付けて、データベースに保存する保存処理部と、
を備える画像収集システム。 - 前記位置関係情報は、前記車両が走行中の走行レーンを示す情報、および、前記車両の進行方向に対する前記目印対象物の方向がなす角度を示す情報の、少なくともいずれか一方を含む、
請求項1に記載の画像収集システム。 - 前記車両が走行中の道路が有する複数の走行レーンの各々について、前記目印対象物を所定の角度から撮像可能な前記車両の進行方向における撮像位置を算出する撮像位置算出部と、
前記撮像位置算出部によって算出された複数の撮像位置の各々において、前記撮像装置に前記画像を撮像させる撮像制御を行う撮像制御部と、
をさらに備え、
前記画像取得部は、前記撮像位置算出部によって算出された前記複数の撮像位置の各々において前記撮像制御部が撮像制御を行うことによって前記撮像装置によって撮像された複数の画像を取得する
請求項2に記載の画像収集システム。 - 前記位置関係情報取得部は、前記位置関係情報として、前記車両が走行中の走行レーンを示す情報を、前記画像取得部によって取得された画像から前記車両が走行中の走行レーンを特定することによって取得し、
前記保存処理部は、前記画像取得部によって取得された複数の画像のうち、前記位置関係情報取得部によって特定された前記車両が走行中の走行レーンに対応する撮像位置で撮像された画像を、前記データベースに優先的に保存する
請求項3に記載の画像収集システム。 - 前記位置関係情報取得部は、前記位置関係情報として、前記車両の進行方向に対する前記目印対象物の方向がなす角度を示す情報を、前記画像取得部によって取得された画像における前記車両と前記目印対象物との位置関係から算出することによって取得し、
前記保存処理部は、前記画像取得部によって取得された複数の画像のうち、前記位置関係情報取得部によって算出された角度が前記所定の角度である画像を、前記データベースに優先的に保存する
請求項3に記載の画像収集システム。 - 前記画像取得部、前記撮像位置算出部、および前記撮像制御部は、前記車両に搭載された車載機器に設けられ、
前記位置関係情報取得部および前記保存処理部は、センタに設けられ、
前記車載機器は、
前記画像取得部によって取得された複数の前記画像を、前記センタに送信する画像送信部と、
前記車両が走行中の走行レーンが変更されたことを検知するレーン変更検知部と、をさらに備え、
前記画像送信部は、前記撮像装置によって前記複数の撮像位置の全てにおいて前記画像が撮像されるまでの間に、前記レーン変更検知部によって前記走行レーンの変更が検知された場合、前記撮像装置によって撮像されたいずれの前記画像も、前記センタに送信しない、
請求項3に記載の画像収集システム。 - 前記車両が走行中の走行レーンが変更されたことを検知するレーン変更検知部をさらに備え、
前記保存処理部は、前記撮像装置によって前記複数の撮像位置の全てにおいて前記画像が撮像されるまでの間に、前記レーン変更検知部によって前記走行レーンの変更が検知された場合、前記撮像装置によって撮像されたいずれの前記画像も前記データベースに保存しない、
請求項3に記載の画像収集システム。 - 車両に搭載された撮像装置によって撮像された、目印対象物の画像を取得する画像取得工程と、
前記画像が撮像された際の前記目印対象物と前記車両との位置関係を表す位置関係情報を取得する位置関係情報取得工程と、
前記画像取得工程にて取得された前記画像を、前記位置関係情報取得工程にて取得された前記位置関係情報と対応付けて、データベースに保存する保存処理工程と、
を含む画像収集方法。 - 車両に搭載された撮像装置によって撮像された、目印対象物の画像を取得する画像取得部と、
前記画像が撮像された際の前記目印対象物と前記車両との位置関係を表す位置関係情報を取得する位置関係情報取得部と、
前記画像取得部によって取得された前記画像を、前記位置関係情報取得部によって取得された前記位置関係情報と対応付けて、データベースに保存する保存処理部と、
を備える画像収集装置。 - コンピュータを、
車両に搭載された撮像装置によって撮像された、目印対象物の画像を取得する画像取得部、
前記画像が撮像された際の前記目印対象物と前記車両との位置関係を表す位置関係情報を取得する位置関係情報取得部、および、
前記画像取得部によって取得された前記画像を、前記位置関係情報取得部によって取得された前記位置関係情報と対応付けて、データベースに保存する保存処理部、
として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。 - 車両に搭載された撮像装置によって撮像された、目印対象物の画像を取得する画像取得部と、
前記画像取得部によって取得された前記画像のうち、前記目印対象物が所定の角度で撮像された前記画像を、センタへ送信する画像送信部と、
を備える車両用通信装置。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US16/634,210 US11410429B2 (en) | 2017-08-10 | 2018-08-09 | Image collection system, image collection method, image collection device, recording medium, and vehicle communication device |
| DE112018004108.5T DE112018004108B4 (de) | 2017-08-10 | 2018-08-09 | Bildsammelsystem |
| CN201880051060.2A CN110998684B (zh) | 2017-08-10 | 2018-08-09 | 图像收集系统、图像收集方法、图像收集装置、记录介质 |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017-155304 | 2017-08-10 | ||
| JP2017155304A JP6838522B2 (ja) | 2017-08-10 | 2017-08-10 | 画像収集システム、画像収集方法、画像収集装置、および記録媒体 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019031582A1 true WO2019031582A1 (ja) | 2019-02-14 |
Family
ID=65272276
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/029916 Ceased WO2019031582A1 (ja) | 2017-08-10 | 2018-08-09 | 画像収集システム、画像収集方法、画像収集装置、記録媒体、および車両用通信装置 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US11410429B2 (ja) |
| JP (1) | JP6838522B2 (ja) |
| CN (1) | CN110998684B (ja) |
| DE (1) | DE112018004108B4 (ja) |
| WO (1) | WO2019031582A1 (ja) |
Families Citing this family (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113396104B (zh) * | 2019-02-13 | 2024-08-20 | 索尼集团公司 | 移动体、通信方法和程序 |
| US11854402B2 (en) * | 2020-07-10 | 2023-12-26 | Here Global B.V. | Method, apparatus, and system for detecting lane departure events based on probe data and sensor data |
| JP7415852B2 (ja) * | 2020-08-25 | 2024-01-17 | トヨタ自動車株式会社 | 制御装置、システム、プログラム、及び広告表示方法 |
| CN112537302B (zh) * | 2020-11-30 | 2022-06-17 | 南通路远科技信息有限公司 | 一种无人驾驶交通载具车道保持方法、装置及交通载具 |
| CN112668428A (zh) * | 2020-12-21 | 2021-04-16 | 北京百度网讯科技有限公司 | 车辆变道的检测方法、路侧设备、云控平台和程序产品 |
| JP7775582B2 (ja) * | 2021-06-22 | 2025-11-26 | コニカミノルタ株式会社 | 対象物認識装置およびプログラム |
| JP7309310B1 (ja) | 2023-03-07 | 2023-07-18 | 株式会社ファンクリエイト | 逆走検出装置 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10232135A (ja) * | 1997-02-20 | 1998-09-02 | Sony Corp | 画像データ収集方法、画像データ提供方法、地図作成方法、位置データ提供方法、ナビゲーション装置及び車両 |
| JP2010519550A (ja) * | 2007-02-21 | 2010-06-03 | テレ アトラス ノース アメリカ インコーポレイテッド | 絶対座標及び相対座標を含む車両ナビゲーション及び案内のためのシステム及び方法 |
| JP2015108604A (ja) * | 2013-12-06 | 2015-06-11 | 日立オートモティブシステムズ株式会社 | 車両位置推定システム,装置,方法、及び、カメラ装置 |
| JP2016176769A (ja) * | 2015-03-19 | 2016-10-06 | クラリオン株式会社 | 情報処理装置、及び、車両位置検出方法 |
Family Cites Families (27)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20000025578A (ko) * | 1998-10-13 | 2000-05-06 | 윤종용 | 차로의 모델링 방법 및 그를 이용한 차선 인식 방법 |
| JP4624594B2 (ja) * | 2000-06-28 | 2011-02-02 | パナソニック株式会社 | 物体認識方法および物体認識装置 |
| JP4352389B2 (ja) * | 2003-12-24 | 2009-10-28 | アイシン・エィ・ダブリュ株式会社 | ナビゲーション装置及びナビゲーションシステム |
| JP4377284B2 (ja) * | 2004-06-02 | 2009-12-02 | 株式会社ザナヴィ・インフォマティクス | 車載ナビゲーション装置 |
| JP2007235642A (ja) * | 2006-03-02 | 2007-09-13 | Hitachi Ltd | 障害物検知システム |
| JP4946238B2 (ja) | 2006-07-25 | 2012-06-06 | 株式会社デンソー | 車両周辺撮影送信装置および車両周辺撮影送信プログラム |
| JP2008045893A (ja) | 2006-08-11 | 2008-02-28 | Denso Corp | カーナビゲーション装置 |
| DE112009002024B4 (de) * | 2008-09-03 | 2016-07-28 | Mitsubishi Electric Corp. | Fahrzeug-Bilderfassungssystem |
| US9280711B2 (en) * | 2010-09-21 | 2016-03-08 | Mobileye Vision Technologies Ltd. | Barrier and guardrail detection using a single camera |
| JP5625987B2 (ja) * | 2011-02-16 | 2014-11-19 | アイシン・エィ・ダブリュ株式会社 | 案内装置、案内方法、および、案内プログラム |
| CN102184535B (zh) * | 2011-04-14 | 2013-08-14 | 西北工业大学 | 一种车辆所在车道边界检测方法 |
| JP2013036930A (ja) | 2011-08-10 | 2013-02-21 | Alpine Electronics Inc | ナビゲーション装置およびこれを備えたナビゲーションシステム |
| US9393961B1 (en) * | 2012-09-19 | 2016-07-19 | Google Inc. | Verifying a target object with reverse-parallax analysis |
| JP5935636B2 (ja) * | 2012-09-28 | 2016-06-15 | アイシン・エィ・ダブリュ株式会社 | 交差点案内システム、方法およびプログラム |
| KR101405193B1 (ko) * | 2012-10-26 | 2014-06-27 | 현대자동차 주식회사 | 차로 인식 방법 및 시스템 |
| CN105074794B (zh) * | 2013-04-04 | 2017-10-24 | 日产自动车株式会社 | 信号识别装置 |
| JP2016095688A (ja) | 2014-11-14 | 2016-05-26 | 株式会社デンソー | 車載用情報表示装置 |
| CN118816908A (zh) * | 2015-02-10 | 2024-10-22 | 御眼视觉技术有限公司 | 用于自主车辆导航的稀疏地图 |
| KR101769807B1 (ko) * | 2016-02-03 | 2017-08-21 | (주)한양정보통신 | 관심 영역 설정 장치 및 방법 |
| JP2017155304A (ja) | 2016-03-03 | 2017-09-07 | 株式会社東芝 | 二酸化炭素電解装置 |
| JP6649191B2 (ja) * | 2016-06-29 | 2020-02-19 | クラリオン株式会社 | 車載処理装置 |
| US10248124B2 (en) * | 2016-07-21 | 2019-04-02 | Mobileye Vision Technologies, Inc. | Localizing vehicle navigation using lane measurements |
| US10962982B2 (en) * | 2016-07-21 | 2021-03-30 | Mobileye Vision Technologies Ltd. | Crowdsourcing the collection of road surface information |
| WO2018104563A2 (en) * | 2016-12-09 | 2018-06-14 | Tomtom Global Content B.V. | Method and system for video-based positioning and mapping |
| EP3740737A1 (en) * | 2018-04-03 | 2020-11-25 | Mobileye Vision Technologies Ltd. | Systems and methods for determining navigational parameters |
| GB2620695A (en) * | 2019-02-14 | 2024-01-17 | Mobileye Vision Technologies Ltd | Systems and methods for vehicle navigation |
| WO2020242945A1 (en) * | 2019-05-24 | 2020-12-03 | Mobileye Vision Technologies Ltd. | Systems and methods for vehicle navigation based on image analysis |
-
2017
- 2017-08-10 JP JP2017155304A patent/JP6838522B2/ja active Active
-
2018
- 2018-08-09 US US16/634,210 patent/US11410429B2/en active Active
- 2018-08-09 DE DE112018004108.5T patent/DE112018004108B4/de active Active
- 2018-08-09 WO PCT/JP2018/029916 patent/WO2019031582A1/ja not_active Ceased
- 2018-08-09 CN CN201880051060.2A patent/CN110998684B/zh active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10232135A (ja) * | 1997-02-20 | 1998-09-02 | Sony Corp | 画像データ収集方法、画像データ提供方法、地図作成方法、位置データ提供方法、ナビゲーション装置及び車両 |
| JP2010519550A (ja) * | 2007-02-21 | 2010-06-03 | テレ アトラス ノース アメリカ インコーポレイテッド | 絶対座標及び相対座標を含む車両ナビゲーション及び案内のためのシステム及び方法 |
| JP2015108604A (ja) * | 2013-12-06 | 2015-06-11 | 日立オートモティブシステムズ株式会社 | 車両位置推定システム,装置,方法、及び、カメラ装置 |
| JP2016176769A (ja) * | 2015-03-19 | 2016-10-06 | クラリオン株式会社 | 情報処理装置、及び、車両位置検出方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN110998684A (zh) | 2020-04-10 |
| JP6838522B2 (ja) | 2021-03-03 |
| CN110998684B (zh) | 2022-02-01 |
| US20200210725A1 (en) | 2020-07-02 |
| US11410429B2 (en) | 2022-08-09 |
| DE112018004108T5 (de) | 2020-05-20 |
| DE112018004108B4 (de) | 2025-08-21 |
| JP2019036013A (ja) | 2019-03-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4847090B2 (ja) | 位置測位装置、および位置測位方法 | |
| WO2019031582A1 (ja) | 画像収集システム、画像収集方法、画像収集装置、記録媒体、および車両用通信装置 | |
| US10240934B2 (en) | Method and system for determining a position relative to a digital map | |
| JP6325806B2 (ja) | 車両位置推定システム | |
| US11720992B2 (en) | Method, apparatus, and computer program product for generating an overhead view of an environment from a perspective image | |
| US20180045516A1 (en) | Information processing device and vehicle position detecting method | |
| WO2012111258A1 (en) | Guidance device, guidance method, and guidance program | |
| US10663306B2 (en) | Navigation system | |
| US11938945B2 (en) | Information processing system, program, and information processing method | |
| JP2014215205A (ja) | 情報処理装置、サーバ装置、情報処理方法並びに情報処理システム及び情報処理プログラム | |
| JP7207045B2 (ja) | サーバ装置および情報処理方法 | |
| JP4953015B2 (ja) | 自車位置認識装置と自車位置認識プログラム、及びこれを用いたナビゲーション装置 | |
| JP2014074627A (ja) | 車両用ナビゲーションシステム | |
| JP4800252B2 (ja) | 車載装置及び交通情報提示方法 | |
| JP2017188164A (ja) | 画像取得装置、端末および画像取得システム | |
| US20220391624A1 (en) | Apparatus and methods for determining state of visibility for a road object in real time | |
| CN108827325A (zh) | 对数据进行定位的方法、设备和计算机可读的存储介质 | |
| JP7082588B2 (ja) | プログラム、ナビゲーションシステム、ナビゲーション装置 | |
| JP2014215204A (ja) | サーバ装置、端末装置、情報処理方法並びに情報処理システム及び情報処理プログラム | |
| US20230401959A1 (en) | Information presentation method | |
| US20230400322A1 (en) | Computer-readable medium, information display device, and information display method | |
| JP5317469B2 (ja) | ナビゲーション装置 | |
| JP2012007983A (ja) | 運転支援装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18844153 Country of ref document: EP Kind code of ref document: A1 |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 18844153 Country of ref document: EP Kind code of ref document: A1 |
|
| WWG | Wipo information: grant in national office |
Ref document number: 112018004108 Country of ref document: DE |