WO2025115813A1 - Behavior prediction device and behavior prediction method - Google Patents
Behavior prediction device and behavior prediction method Download PDFInfo
- Publication number
- WO2025115813A1 WO2025115813A1 PCT/JP2024/041678 JP2024041678W WO2025115813A1 WO 2025115813 A1 WO2025115813 A1 WO 2025115813A1 JP 2024041678 W JP2024041678 W JP 2024041678W WO 2025115813 A1 WO2025115813 A1 WO 2025115813A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- passerby
- area
- passersby
- entry
- behavior prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/005—Traffic control systems for road vehicles including pedestrian guidance indicator
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/07—Controlling traffic signals
- G08G1/08—Controlling traffic signals according to detected number or speed of vehicles
Definitions
- the present disclosure relates to a behavior prediction device and a behavior prediction method.
- This application claims priority based on Japanese Application No. 2023-201098 filed on November 28, 2023, and incorporates by reference all of the contents of said Japanese application.
- Patent Document 1 describes a system that detects pedestrians waiting to cross the crosswalk by analyzing the line of sight of people in an image captured by a camera that captures the waiting area of the crosswalk, and when a waiting pedestrian is detected, controls pedestrian and vehicle traffic lights to allow the pedestrian to cross the crosswalk.
- a behavior prediction device includes a detection unit that analyzes an image captured of an area including a second area surrounding a first area to detect multiple passersby appearing in the image, a prediction unit that calculates an entry index indicating the likelihood of each passerby entering the first area, and an aggregation unit that aggregates the entry indexes of each passerby to calculate a composite index indicating the likelihood that at least one of the multiple passersby will enter the first area.
- FIG. 1 is a schematic configuration diagram of a behavior prediction system according to an embodiment.
- FIG. 2 is a diagram showing an imaging area.
- FIG. 3 is a block diagram showing a functional configuration of the behavior prediction device.
- Fig. 4A shows an example of one frame included in a moving image
- Fig. 4B shows an example of a frame including position information of a passerby.
- FIG. 5 shows an example of a movement trajectory of a passerby.
- FIG. 6 is a diagram for explaining an example of a method for determining the entry probability of each passerby.
- FIG. 7 is a diagram for explaining another example of a method for determining the entry probability of each passerby.
- FIG. 8 is a block diagram illustrating an example of the hardware configuration of the behavior prediction device.
- FIG. 9 is a flowchart illustrating a behavior prediction method according to an embodiment.
- a behavior prediction device includes a detection unit that analyzes an image captured of an area including a second area surrounding a first area to detect multiple passersby appearing in the image, a prediction unit that calculates an entry index indicating the likelihood of each passerby entering the first area, and an aggregation unit that aggregates the entry indexes of each passerby to calculate a composite index indicating the likelihood that at least one of the multiple passersby will enter the first area.
- This behavior prediction device aggregates the indicators of each passerby entering the first area to determine the indicator of at least one of multiple passersby entering the first area, so that in a scene where multiple passersby are present, it is possible to predict whether at least one of the multiple passersby will enter the first area.
- the first area may be an area including a crosswalk with traffic lights installed, and may further include a control unit that controls the traffic lights to allow multiple pedestrians to cross the crosswalk when the composite index is higher than a reference value.
- the traffic lights are controlled when there are pedestrians attempting to cross the crosswalk. Therefore, the pedestrians can cross safely.
- the detection unit may identify the movement trajectory of each of a plurality of passersby based on the position information of the passersby, and the prediction unit may obtain an entry indicator for each passerby based on the movement trajectory. By using the movement trajectory of the passersby, it is possible to predict with high accuracy whether or not the passersby will enter the first area.
- the prediction unit may input the movement trajectory of each identified passerby and obtain the entry index of each passerby using a prediction model that has been machine-learned to output the entry index of each passerby.
- the prediction model it is possible to predict with high accuracy whether or not a passerby will enter the first area.
- the detection unit may identify the positions of multiple passersby, and the prediction unit may obtain an entry index for each passerby based on the distance between each passerby and the first area. The closer a passerby is to the first area, the more likely the passerby is to enter the first area. Therefore, by obtaining an entry index for each passerby based on the distance between each passerby and the first area, it is possible to predict whether or not the passerby will enter the first area.
- the prediction unit may further identify attributes of multiple passersby, and may obtain an entry index for each passerby based on the distance and the attributes of each passerby. Since the behavior of passersby may have characteristic patterns depending on the attributes, the prediction accuracy of the entry index for each passerby can be improved by obtaining the entry index using the attributes of each passerby.
- the detection unit may identify the positions of multiple passersby, and the prediction unit may identify multiple candidate routes for each passerby to travel from the identified positions to the first area, and may obtain an entry indicator for each passerby based on the possibility that each candidate route will take each of the multiple candidate routes. In this case, it is possible to appropriately predict whether or not a passerby will enter the first area.
- the aggregation unit may perform statistical processing on the entry index of each passerby to obtain a composite index. In this case, it is possible to appropriately predict whether at least one of the passersby will enter the first area.
- the aggregation unit may obtain a composite index by a weighted average using the entry index of each passerby as a weighting factor. By taking a weighted average using the entry index of each passerby as a weighting factor, it is possible to predict with high accuracy whether at least one of the multiple passersby will enter the first area.
- the aggregation unit may obtain an index for which all passersby do not enter the first area based on the entry index of each passerby, and may subtract the index for which all passersby do not enter the first area from the overall index to obtain a composite index. In this case, it is possible to predict with high accuracy whether at least one of multiple passersby will enter the first area.
- a behavior prediction method includes the steps of: analyzing an image captured of an area including a second area surrounding a first area to detect multiple passersby appearing in the image; determining an entry index indicating the possibility that each passerby will enter the first area; and aggregating the entry indexes of each passerby to determine a composite index indicating the possibility that at least one of the multiple passersby will enter the first area.
- FIG. 1 is a schematic diagram of a behavior prediction system 1 according to one embodiment.
- the behavior prediction system 1 predicts the behavior of multiple passersby M, in particular, whether or not at least one of the multiple passersby M will cross a pedestrian crossing.
- the behavior prediction system 1 is applied to a scene in which a sidewalk 2 and a roadway 3 are provided, and an example will be explained in which the system predicts whether at least one of a plurality of pedestrians M walking on the sidewalk 2 will cross a crosswalk 4 installed on the roadway 3.
- the pedestrians M are typically pedestrians, but pedestrians M also include people riding on vehicles such as bicycles, kickboards, and wheelchairs.
- pedestrian signals S1 are installed on both sides of the crosswalk 4 in the direction of travel.
- the roadway 3 is equipped with vehicle signals S2 for vehicles passing through the crosswalk 4.
- the sidewalk 2 may be a shoulder or a shoulder strip.
- the roadway 3 is a road that pedestrians M may cross.
- pedestrians M who intend to cross the crosswalk 4 may be referred to as "crossers”.
- the behavior prediction system 1 includes a camera 10, a roadside device 20, and a behavior prediction device 30.
- the camera 10 is an imaging device that is installed, for example, on the top of a pole 5 installed on the sidewalk 2 and captures an image of an imaging area C.
- image includes moving images and still images.
- the installation height of the camera 10 may be 3 m or more from the ground surface.
- the imaging area C is an area that includes a waiting area (second area) R2 around the roadway 3.
- the waiting area R2 is located in front of the crosswalk 4, and is an area on the sidewalk 2 where a passerby M who is about to cross the crosswalk 4 temporarily waits.
- the imaging area C may include a part or the entire crossing area (first area) R1 that includes the crosswalk 4.
- the camera 10 may be disposed at an angle as long as it can capture an image of the imaging area C.
- the central axis (optical axis) of the camera 10 may be perpendicular to the ground surface, or may be inclined relative to the ground surface.
- the camera 10 may be installed on the opposite side of the crosswalk 4 from the imaging area C.
- the camera 10 captures the image capture area C at a predetermined frame rate and generates a moving image.
- the captured moving image is transmitted to the roadside device 20 via wired or wireless communication.
- the camera 10 may also periodically transmit images (still images) captured in the image capture area C to the roadside device 20.
- the roadside device 20 is a computer such as a PLC (Programmable Logic Controller) equipped with a processor, a storage device, a communication device, etc., and is installed adjacent to the roadway 3.
- the roadside device 20 is provided on a support pole 5.
- the roadside device 20 is connected to the camera 10, the behavior prediction device 30, the pedestrian traffic light S1, and the vehicle traffic light S2 so that they can communicate with each other.
- the roadside device 20 transmits video images captured by the camera 10 to the behavior prediction device 30.
- the roadside device 20 also receives control signals from the behavior prediction device 30 and controls the pedestrian traffic light S1 and the vehicle traffic light S2.
- the behavior prediction device 30 is a stationary or portable computer or workstation equipped with a processor, a storage device, a communication device, etc., and is typically located at a location away from the roadside device 20.
- the behavior prediction device 30 can communicate with the roadside device 20 via the network N.
- the network N is a communication network for wireless or wired communication.
- the behavior prediction device 30 obtains an index indicating the possibility that any one of multiple passersby M captured in a video image captured by the camera 10 will enter the crossing area R1.
- the index is, for example, a probability, likelihood, or reliability.
- entering the crossing area R1 is a concept that includes the passerby M passing through the boundary between the crossing area R1 and the waiting area R2.
- the behavior prediction device 30, for example, loads a program stored in a storage device and executes the loaded program on a processor to realize various functions described below.
- the behavior prediction device 30 has, as its functional configuration, an acquisition unit 31, a detection unit 32, a prediction unit 33, an aggregation unit 34, and a control unit 35.
- the acquisition unit 31 acquires video images of the imaging area C captured by the camera 10 via the roadside device 20.
- the acquisition unit 31 acquires video images captured by the camera 10 that show at least one passerby M.
- the acquisition unit 31 may periodically acquire images (still images) that show multiple passersby M.
- the detection unit 32 analyzes the video acquired by the acquisition unit 31 and detects multiple passersby M appearing in the video.
- the detection unit 32 identifies multiple passersby M appearing in each frame (image) of the video, for example by image recognition processing, and outputs position information indicating the positions of the identified multiple passersby M.
- Figure 4(a) shows an example of one frame included in the video input to the detection unit 32.
- Figure 4(b) shows an example of a frame including position information of passersby M.
- passersby M1, passersby M2, and passersby M3 are shown as multiple passersby M.
- the position information of passersby M can be identified using known image recognition algorithms such as Convolutional Neural Network (CNN), Histogram of Oriented Gradients (HOG), and You Only Look Once (YOLO).
- CNN Convolutional Neural Network
- HOG Histogram of Oriented Gradients
- YOLO You Only Look Once
- the detection unit 32 may further identify attribute information indicating the attributes of each passerby M.
- the attribute information of passersby M is information indicating the attributes of passersby M, such as the age, gender, and type of passerby M (pedestrian, bicycle, wheelchair, kickboard, white cane holder, etc.).
- the detection unit 32 identifies the position information and attributes of each passerby M for all frames included in the video.
- the detection unit 32 may also identify the movement trajectory of the passerby M based on the position information of the passerby M in multiple frames. For example, the detection unit 32 connects the positions of each passerby M between multiple frames arranged in chronological order to generate the movement trajectory of each passerby M.
- the movement trajectory of the passerby M can be generated using known tracking algorithms such as a Kalman filter, a particle filter, Optical Flow, and Deep SORT.
- Figure 5 shows an example of the movement trajectory of each passerby M identified by the detection unit 32.
- Movement trajectory 50A in Figure 5 represents the movement trajectory of passerby M1
- movement trajectory 50B represents the movement trajectory of passerby M2
- movement trajectory 50C represents the movement trajectory of passerby M3.
- the detection unit 32 associates information indicating the movement trajectory of each passerby M with an identifier (ID) that identifies each passerby M, and outputs the information to the prediction unit 33.
- ID identifier
- the prediction unit 33 calculates an entry index for each pedestrian M, which indicates the possibility that each pedestrian M will enter the crossing area R1.
- the entry index is the probability, likelihood, or reliability that each pedestrian M will enter the crossing area R1.
- the entry probability can also be said to be the probability that each pedestrian M will cross the crosswalk 4.
- the entry probability for each pedestrian M can be calculated using various methods.
- a first method for calculating the entry probability of each passerby M will be described.
- the entry probability of each passerby M is calculated using a prediction model that has been machine-learned to input the movement trajectory of each passerby M and output the entry probability of each passerby M.
- the prediction model is a classifier constructed by machine learning a data set of teacher data including the movement trajectory of passerby M captured in a video image captured in the past and label information indicating the presence or absence of a crossing person.
- the prediction model is generated by optimizing learning parameters using known machine learning algorithms such as a convolutional neural network and a recurrent neural network.
- the prediction unit 33 reads out the prediction model stored in the storage device, inputs the movement trajectory of each passerby M identified by the detection unit 32 into the prediction model, and obtains the probability that each passerby M will enter the crossing area R1.
- the training data used to generate the prediction model may include attribute information indicating the attributes of passersby M.
- the behavior of passersby M may have characteristic patterns depending on their attributes. For example, adult pedestrians tend to move quickly and in a straight line. In contrast, the movement speeds of children, pedestrians with strollers, and people using white canes tend to be slower than those of adult pedestrians. Passersby M riding bicycles or kickboards tend to move quickly and change their movement direction less compared to pedestrians.
- a prediction model can be generated that takes into account the movement patterns of passersby M described above.
- the prediction unit 33 inputs the attribute information of passersby M identified by the detection unit 32 into the prediction model in addition to the movement trajectory of each passerby M. This makes it possible to calculate the probability of entry of each passerby M with high accuracy.
- the entry probability of each passerby M is calculated based on the distance between each passerby M and the crossing area R1. In general, it is considered that the closer the position of passerby M is to the crossing area R1, the more likely the passerby M will enter the crossing area R1. Therefore, in the second method, the prediction unit 33 calculates the distance between each passerby M and the crossing area R1 based on the position information of each passerby M identified by the detection unit 32, and sets the entry probability of passerby M higher the shorter the distance.
- the prediction unit 33 may also determine the movement direction of each passerby M from the movement trajectory of each passerby M, and set the entry probability of the passerby M to be high when the passerby M is moving toward the crossing area R1, and set the entry probability of the passerby M to be low when the passerby M is moving in a direction away from the crossing area R1.
- the prediction unit 33 may set the entry probability of passerby M high if the movement speed of passerby M is fast, and set the entry probability of passerby M low if the movement speed of passerby M is slow.
- the movement speed of passerby M is determined based on the attributes of passerby M, for example.
- passerby M1, passerby M2, passerby M3, and passerby M4 are illustrated as multiple passersby M.
- Passersby M1, M2, and M4 are pedestrians, and passerby M3 is a person riding a bicycle.
- passerby M1 is located closer to the crossing area R1 than passersby M2, M3, and M4, so the prediction unit 33 sets the entry probability of passerby M1 higher than the entry probabilities of passersby M2, M3, and M4.
- Passerby M3 is riding a bicycle and moves faster than passersby M1, M2, and M3, so the prediction unit 33 sets, for example, the entry probability of passerby M3 higher than the entry probability of passerby M2.
- FIG. 7 illustrates a passerby M located in the imaging area C.
- the prediction unit 33 first sets multiple candidate routes 51A, 51B, and 51C for moving from the position of the passerby M to the crossing area R1. Note that the number of candidate routes set by the prediction unit 33 is arbitrary.
- the prediction unit 33 determines the probability that passerby M will select multiple route candidates 51A, 51B, and 51C as the route along which passerby M will travel.
- the probability that passerby M will select route candidates 51A, 51B, and 51C can be determined, for example, based on the past movement trajectory of passerby M.
- the probability that passerby M will select route candidate 51A is represented as P1(A)
- the probability that passerby M will select route candidate 51B is represented as P1(B)
- the probability that passerby M will select route candidate 51C is represented as P1(C).
- the prediction unit 33 determines the probability that passerby M will travel along the candidate routes 51A, 51B, and 51C.
- the probability that passerby M will travel along the candidate routes 51A, 51B, and 51C indicates the probability that passerby M will travel from the start point to the end point of each of the candidate routes 51A, 51B, and 51C without turning back along the way.
- the probability that passerby M will travel along candidate route 51A is represented as P2(A)
- the probability that passerby M will travel along candidate route 51B is represented as P2(B)
- the probability that passerby M will travel along candidate route 51C is represented as P2(C).
- Probabilities P2(A) to P2(C) can be determined based on, for example, the past movement trajectories of passerby M.
- the prediction unit 33 calculates the probability that the passerby M will enter the traversal area R1 via the route candidates 51A, 51B, and 51C.
- the probability that the passerby M will enter the traversal area R1 via the route candidate 51A is represented as P3(A)
- the probability that the passerby M will enter the traversal area R1 via the route candidate 51B is represented as P3(B)
- the probability that the passerby M will enter the traversal area R1 via the route candidate 51C is represented as P3(C).
- the probabilities P3(A), P3(B), and P3(C) are calculated by the following formulas.
- P3(A) P1(A) ⁇ P2(A)
- P3(B) P1(B) ⁇ P2(B)
- P3(C) P1(C) ⁇ P2(C)
- the prediction unit 33 outputs the entry probability of each passerby M calculated using the various methods described above to the aggregation unit 34.
- the aggregation unit 34 aggregates the entry probabilities of each passerby M to obtain a composite index indicating the possibility that at least one of the multiple passersby M will enter the crossing area R1.
- the composite index is the probability, likelihood, or reliability that at least one of the multiple passersby M will enter the crossing area R1.
- the composite probability can also be said to be the probability that at least one of the multiple passersby M will cross the crosswalk 4.
- the aggregation unit 34 performs statistical processing on the entry probabilities of each passerby M obtained by the prediction unit 33 to obtain the composite probability.
- the composite probability Pc is calculated by dividing the sum of the entry probabilities of multiple passersby M by the number of passersby M. For example, if there are 10 passersby M in the video and the entry probabilities of the 10 passersby are 0.9, 0.8, 0.7, 0.9, 0.6, 0.5, 0.8, 0.9, 0.4, and 0.7, respectively, the composite probability Pc is 0.72. This result indicates that the probability that at least one of the 10 passersby will cross the crosswalk 4 is 72%.
- the combined probability Pc is calculated by subtracting the probability Pf that none of the pedestrians M will enter the crossing area R1 from the overall probability. For example, if the number of pedestrians M captured in the video is four, and the entry probabilities of the four pedestrians are 0.7, 0.3, 0.6, and 0.4, respectively, the combined probability Pc is 0.9496. This result indicates that the probability that at least one of the four pedestrians will cross the crosswalk 4 is approximately 95%.
- the aggregation unit 34 can determine the composite probability by performing any statistical processing on the entry probability of each passerby M using a method other than the above. For example, the aggregation unit 34 can determine the composite probability by performing a likelihood evaluation, or can determine the composite probability using a probability mass function. The aggregation unit 34 outputs the determined composite probability to the control unit 35.
- the control unit 35 controls the pedestrian traffic light S1 and the vehicular traffic light S2 based on the composite probability output from the aggregation unit 34. For example, if the composite probability is higher than a reference value, the control unit 35 controls the pedestrian traffic light S1 and the vehicular traffic light S2 via the roadside device 20 so that the pedestrian traffic light S1 turns green and the vehicular traffic light S2 turns red. If the pedestrian traffic light S1 is a push-button type traffic light that changes the signal display by pressing a button, the control unit 27 may output a control signal to physically or electrically press the button. This allows pedestrians M to cross the crosswalk 4 safely.
- the reference value is a setting value that is preset by the designer.
- FIG. 8 is a block diagram showing an example of the hardware configuration of the behavior prediction device 30.
- the behavior prediction device 30 is composed of one or more computers.
- the computer includes a CPU (processor) 101, a main memory unit 102, an auxiliary memory unit 103, a communication control unit 104, an input device 105, and an output device 106.
- Each of the behavior prediction devices 30 is composed of one or more computers that are composed of this hardware and software such as programs.
- the multiple computers may be connected locally or via a communication network such as the Internet or an intranet. This connection logically constructs a single behavior prediction device 30.
- the CPU 101 is a processor that executes an operating system, application programs, etc.
- the main memory unit 102 is composed of a ROM (Read Only Memory) and a RAM (Random Access Memory).
- the auxiliary memory unit 103 is a storage medium composed of a hard disk, a flash memory, etc.
- the auxiliary memory unit 103 generally stores a larger amount of data than the main memory unit 102.
- the communication control unit 104 is composed of a network card or a wireless communication module. At least a part of the communication function between the camera 10, the roadside device 20, and the behavior prediction device 30 is realized by the communication control unit 104.
- the input device 105 is composed of a keyboard, a mouse, a touch panel, a microphone for voice input, etc.
- the output device 106 is composed of a display, a printer, etc.
- the auxiliary memory unit 103 stores programs and data necessary for processing.
- the programs cause the computer to execute each functional element of the behavior prediction device 30.
- the functions of the behavior prediction device 30 are realized in the computer by the programs.
- the programs are loaded by the CPU 101 or the main memory unit 102, and cause at least one of the CPU 101, the main memory unit 102, the auxiliary memory unit 103, the communication control unit 104, the input device 105, and the output device 106 to operate.
- the programs read and write data in the main memory unit 102 and the auxiliary memory unit 103.
- the program may be provided in a form recorded on a tangible storage medium such as a CD-ROM, DVD-ROM, or semiconductor memory.
- the program may be provided as a data signal via a communications network.
- the behavior prediction device 30 does not necessarily have to be configured as a computer that operates according to a program, and some or all of the functions of the behavior prediction device 30 may be implemented in an ASIC (Application Specific Integrated Circuit) that integrates logic circuits.
- ASIC Application Specific Integrated Circuit
- FIG. 9 is a flowchart showing a behavior prediction method according to one embodiment. This behavior prediction method is executed by the behavior prediction device 30 described above.
- the acquisition unit 31 of the behavior prediction device 30 acquires an image of the imaging area C captured by the camera 10 (step ST1).
- the image acquired by the acquisition unit 31 is an image captured by the camera 10 that contains at least one passerby M.
- the acquisition unit 31 periodically acquires images from the camera 10, for example.
- the detection unit 32 detects multiple passersby M appearing in the image (step ST2). At this time, the detection unit 32 acquires position information and attribute information of each passerby M. Next, the detection unit 32 tracks each passerby M based on the time-series position information of each passerby M to identify the movement trajectory (step ST3).
- the prediction unit 33 calculates the probability of entry for each passerby M (step ST4). For example, the prediction unit 33 inputs the movement trajectory of each passerby M into the above-mentioned prediction model, and calculates the probability that multiple passersby M will enter the crossing area R1 for each passerby M.
- the prediction unit 33 aggregates the entry probabilities of each passerby M to obtain a composite probability indicating the probability that at least one of the multiple passersby M will enter the crossing area R1 (step ST5). For example, the prediction unit 33 performs statistical processing on the entry probabilities of each passerby M, such as a weighted average in which the entry probabilities are weighted, to obtain the composite probability.
- control unit 35 determines whether the combined probability of multiple passersby M output from the aggregation unit 34 is higher than a reference value (step ST6). If the combined probability is higher than the reference value, the control unit 35 sends a control signal to the roadside device 20 to control the pedestrian traffic light S1 and the vehicular traffic light S2 so that the passerby M can cross the crosswalk 4 (step ST7). On the other hand, if the crossing probability is equal to or lower than the reference value, the control unit 35 ends the series of processes without controlling the pedestrian traffic light S1 and the vehicular traffic light S2.
- the behavior prediction device 30 aggregates the probability that each passerby M will enter the crossing area R1 to determine the probability that any one of the multiple passersby M will cross the crossing area R1, so that in a scene where multiple passersby M are present, it is possible to predict whether or not at least one of the multiple passersby M will enter the first area.
- the behavior prediction device 30 acquires images from the camera 10 via the roadside device 20 and controls the pedestrian traffic light S1 and the vehicle traffic light S2 via the roadside device 20, but the behavior prediction device 30 may acquire images directly from the camera 10 and directly control the pedestrian traffic light S1 and the vehicle traffic light S2.
- the behavior prediction device 30 may be integrated with the camera 10. That is, the behavior prediction device 30 may be provided inside the housing of the camera 10.
- the behavior prediction device 30 may be integrated with the roadside device 20. That is, the behavior prediction device 30 may be provided inside the housing of the roadside device 20.
- whether each passerby M will enter the crossing area R1 is predicted based on the movement trajectory of the passerby M, but it is possible to determine whether the passerby M will enter the crossing area R1 using any method.
- the prediction unit 33 may determine the entry probability of each passerby M using only the position information of each passerby M without using the movement trajectory of each passerby.
- the behavior prediction device 30 predicts whether at least one of multiple pedestrians M will cross the crosswalk 4, but the behavior prediction device 30 can also be applied to roads where the crosswalk 4 is not installed. For example, the behavior prediction device 30 can predict whether at least one of multiple pedestrians M shown in an image will enter a specific area on the road. Also, it is not necessary for the pedestrian traffic light S1 and the vehicular traffic light S2 to be installed, and the behavior prediction device 30 only needs to predict the entry of a pedestrian M into a specific area, and does not necessarily have to control the pedestrian traffic light S1 and the vehicular traffic light S2.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本開示は、行動予測装置および行動予測方法に関する。
本出願は、2023年11月28日出願の日本出願第2023-201098号に基づく優先権を主張し、前記日本出願に記載された全ての記載内容を援用する。
The present disclosure relates to a behavior prediction device and a behavior prediction method.
This application claims priority based on Japanese Application No. 2023-201098 filed on November 28, 2023, and incorporates by reference all of the contents of said Japanese application.
特許文献1には、横断歩道の待機エリアを撮影する撮影装置によって撮影された画像に写っている人物の視線を解析して、横断歩道を横断するために待機している待機歩行者を検出し、待機歩行者が検出したときに歩行者用信号機および車両用信号機を制御して横断歩道の横断を可能にするシステムが記載されている。 Patent Document 1 describes a system that detects pedestrians waiting to cross the crosswalk by analyzing the line of sight of people in an image captured by a camera that captures the waiting area of the crosswalk, and when a waiting pedestrian is detected, controls pedestrian and vehicle traffic lights to allow the pedestrian to cross the crosswalk.
一側面に係る行動予測装置は、第1エリアの周辺の第2エリアを含む領域を撮像した画像を解析して、画像に写る複数の通行人を検知する検知部と、各通行人が第1エリアに進入する可能性を示す進入指標を求める予測部と、各通行人の進入指標を集約して、複数の通行人の少なくとも一人が第1エリアに進入する可能性を示す合成指標を求める集約部と、を備える。 A behavior prediction device according to one aspect includes a detection unit that analyzes an image captured of an area including a second area surrounding a first area to detect multiple passersby appearing in the image, a prediction unit that calculates an entry index indicating the likelihood of each passerby entering the first area, and an aggregation unit that aggregates the entry indexes of each passerby to calculate a composite index indicating the likelihood that at least one of the multiple passersby will enter the first area.
[本開示が解決しようとする課題]
交通管制を効率的に行うためには、通行人の行動を予測することが重要である。例えば、上記特許文献1に記載のように、通行人が横断歩道を含むエリアに移動することを予測できれば、信号機を制御して歩行者を安全に横断させることができる。一方で、実際の交通環境では多数の通行人が存在することが多い。そのような場面でも、通行人の特定のエリアへの進入を予測できることが望ましい。
[Problem to be solved by this disclosure]
In order to perform traffic control efficiently, it is important to predict the behavior of pedestrians. For example, as described in the above-mentioned Patent Document 1, if it is possible to predict that pedestrians will move to an area including a pedestrian crossing, it is possible to control traffic lights to allow pedestrians to cross safely. However, in actual traffic environments, there are often many pedestrians. Even in such situations, it is desirable to be able to predict the entry of pedestrians into a specific area.
[本開示の効果]
本開示によれば、複数の通行人が存在する場面において、特定のエリアへの通行人の進入を予測することができる。
[Effects of the present disclosure]
According to the present disclosure, in a scene where a plurality of passersby are present, it is possible to predict the entry of passersby into a specific area.
[本開示の実施形態の説明]
最初に、本開示の実施形態の内容を列記して説明する。
[Description of the embodiments of the present disclosure]
First, the contents of the embodiments of the present disclosure will be listed and described.
[1]本開示の一側面に係る行動予測装置は、第1エリアの周辺の第2エリアを含む領域を撮像した画像を解析して、画像に写る複数の通行人を検知する検知部と、各通行人が第1エリアに進入する可能性を示す進入指標を求める予測部と、各通行人の進入指標を集約して、複数の通行人の少なくとも一人が第1エリアに進入する可能性を示す合成指標を求める集約部と、を備える。 [1] A behavior prediction device according to one aspect of the present disclosure includes a detection unit that analyzes an image captured of an area including a second area surrounding a first area to detect multiple passersby appearing in the image, a prediction unit that calculates an entry index indicating the likelihood of each passerby entering the first area, and an aggregation unit that aggregates the entry indexes of each passerby to calculate a composite index indicating the likelihood that at least one of the multiple passersby will enter the first area.
この行動予測装置では、各通行人が第1エリアに進入する指標を集約して、複数の通行人の少なくとも一人が第1エリアに進入する指標を求めているので、複数の通行人が存在する場面において、複数の通行人少なくとも一人が第1エリアに進入するか否かを予測することができる。 This behavior prediction device aggregates the indicators of each passerby entering the first area to determine the indicator of at least one of multiple passersby entering the first area, so that in a scene where multiple passersby are present, it is possible to predict whether at least one of the multiple passersby will enter the first area.
[2]上記[1]の行動予測装置では、第1エリアは、信号機が設置された横断歩道を含む領域であり、合成指標が基準値よりも高いときに、複数の通行人が横断歩道を横断できるように信号機を制御する制御部を更に備えていてもよい。この場合には、横断歩道を横断しようとする通行人が存在するときに信号機が制御される。したがって、当該通行人を安全に横断させることができる。 [2] In the behavior prediction device of [1] above, the first area may be an area including a crosswalk with traffic lights installed, and may further include a control unit that controls the traffic lights to allow multiple pedestrians to cross the crosswalk when the composite index is higher than a reference value. In this case, the traffic lights are controlled when there are pedestrians attempting to cross the crosswalk. Therefore, the pedestrians can cross safely.
[3]上記[1]または[2]に記載の行動予測装置では、検知部は、複数の通行人の位置情報に基づいて各通行人の移動軌跡を特定し、予測部は、移動軌跡に基づいて各通行人の進入指標を求めてもよい。通行人の移動軌跡を用いることにより、通行人が第1エリアに侵入するか否かを高い精度で予測することができる。 [3] In the behavior prediction device described in [1] or [2] above, the detection unit may identify the movement trajectory of each of a plurality of passersby based on the position information of the passersby, and the prediction unit may obtain an entry indicator for each passerby based on the movement trajectory. By using the movement trajectory of the passersby, it is possible to predict with high accuracy whether or not the passersby will enter the first area.
[4]上記[1]から[3]のいずれか一項に記載の行動予測装置では、予測部は、特定された各通行人の移動軌跡を入力し、各通行人の進入指標を出力するように機械学習された予測モデルを用いて、各通行人の進入指標を求めてもよい。上記予測モデルを用いることにより、通行人が第1エリアに侵入するか否かを高い精度で予測することができる。 [4] In the behavior prediction device described in any one of [1] to [3] above, the prediction unit may input the movement trajectory of each identified passerby and obtain the entry index of each passerby using a prediction model that has been machine-learned to output the entry index of each passerby. By using the prediction model, it is possible to predict with high accuracy whether or not a passerby will enter the first area.
[5]上記[1]から[3]のいずれか一項に記載の行動予測装置では、検知部は、複数の通行人の位置を特定し、予測部は、各通行人と第1エリアとの間の距離に基づいて、各通行人の進入指標を求めてもよい。通行人が第1エリアに近づくほど、当該通行人が第1エリアに進入する可能性が高いと考えられる。したがって、各通行人と第1エリアとの間の距離に基づいて各通行人の進入指標を求めることにより、通行人が第1エリアに侵入するか否かを予測することができる。 [5] In the behavior prediction device described in any one of [1] to [3] above, the detection unit may identify the positions of multiple passersby, and the prediction unit may obtain an entry index for each passerby based on the distance between each passerby and the first area. The closer a passerby is to the first area, the more likely the passerby is to enter the first area. Therefore, by obtaining an entry index for each passerby based on the distance between each passerby and the first area, it is possible to predict whether or not the passerby will enter the first area.
[6]上記[5]に記載の行動予測装置では、予測部は、複数の通行人の属性を更に特定し、予測部は、距離と各通行人の属性とに基づいて、各通行人の進入指標を求めてもよい。通行人の行動は、属性によって特徴的なパターンを有することがあるので、各通行人の属性を用いて進入指標を求めることにより、各通行人の進入指標の予測精度を向上させることができる。 [6] In the behavior prediction device described in [5] above, the prediction unit may further identify attributes of multiple passersby, and may obtain an entry index for each passerby based on the distance and the attributes of each passerby. Since the behavior of passersby may have characteristic patterns depending on the attributes, the prediction accuracy of the entry index for each passerby can be improved by obtaining the entry index using the attributes of each passerby.
[7]上記[1]から[3]のいずれか一項に記載の行動予測装置では、検知部は、複数の通行人の位置を特定し、予測部は、特定された位置から第1エリアまで各通行人が移動するための複数の経路候補を特定し、各候補者が複数の経路候補の各々を通る可能性に基づいて各通行人の進入指標を求めてもよい。この場合には、通行人が第1エリアに侵入するか否かを適切に予測することができる。 [7] In the behavior prediction device described in any one of [1] to [3] above, the detection unit may identify the positions of multiple passersby, and the prediction unit may identify multiple candidate routes for each passerby to travel from the identified positions to the first area, and may obtain an entry indicator for each passerby based on the possibility that each candidate route will take each of the multiple candidate routes. In this case, it is possible to appropriately predict whether or not a passerby will enter the first area.
[8]上記[1]から[7]のいずれか一項に記載の行動予測装置では、集約部は、各通行人の進入指標に統計的処理を行って合成指標を求めてもよい。この場合には、通行人の少なくとも一人が第1エリアに侵入するか否かを適切に予測することができる。 [8] In the behavior prediction device described in any one of [1] to [7] above, the aggregation unit may perform statistical processing on the entry index of each passerby to obtain a composite index. In this case, it is possible to appropriately predict whether at least one of the passersby will enter the first area.
[9]上記[1]から[8]のいずれか一項に記載の行動予測装置では、集約部は、各通行人の進入指標を重み付けとする加重平均により合成指標を求めてもよい。各通行人の進入指標を重み付けとして加重平均することにより、複数の通行人の少なくとも一人が第1エリアに進入するか否かを高い精度で予測することができる。 [9] In the behavior prediction device described in any one of [1] to [8] above, the aggregation unit may obtain a composite index by a weighted average using the entry index of each passerby as a weighting factor. By taking a weighted average using the entry index of each passerby as a weighting factor, it is possible to predict with high accuracy whether at least one of the multiple passersby will enter the first area.
[10]上記[1]から[8]のいずれか一項に記載の行動予測装置では、集約部は、各通行人の進入指標に基づいて全ての通行人が第1エリアに進入しない指標を求め、全体の指標から全ての通行人が第1エリアに進入しない指標を減算して合成指標としてもよい。この場合には、複数の通行人の少なくとも一人が第1エリアに進入するか否かを高い精度で予測することができる。 [10] In the behavior prediction device described in any one of [1] to [8] above, the aggregation unit may obtain an index for which all passersby do not enter the first area based on the entry index of each passerby, and may subtract the index for which all passersby do not enter the first area from the overall index to obtain a composite index. In this case, it is possible to predict with high accuracy whether at least one of multiple passersby will enter the first area.
[11]本開示の一側面に係る行動予測方法は、第1エリアの周辺の第2エリアを含む領域を撮像した画像を解析して、画像に写る複数の通行人を検知するステップと、各通行人が第1エリアに進入する可能性を示す進入指標を求めるステップと、各通行人の進入指標を集約して、複数の通行人の少なくとも一人が第1エリアに進入する可能性を示す合成指標を求めるステップと、を含む。この行動予測方法では、複数の通行人が存在する場面において、複数の通行人の少なくとも一人が第1エリアに進入するか否かを予測することができる。 [11] A behavior prediction method according to one aspect of the present disclosure includes the steps of: analyzing an image captured of an area including a second area surrounding a first area to detect multiple passersby appearing in the image; determining an entry index indicating the possibility that each passerby will enter the first area; and aggregating the entry indexes of each passerby to determine a composite index indicating the possibility that at least one of the multiple passersby will enter the first area. With this behavior prediction method, in a scene where multiple passersby are present, it is possible to predict whether or not at least one of the multiple passersby will enter the first area.
[本開示の実施形態の詳細]
本開示の実施形態の具体例を、以下に図面を参照しつつ説明する。本発明はこれらの例示に限定されるものではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
[Details of the embodiment of the present disclosure]
Specific examples of the embodiments of the present disclosure will be described below with reference to the drawings. The present invention is not limited to these examples, but is indicated by the claims, and is intended to include all modifications within the meaning and scope of the claims. In the description of the drawings, the same elements are given the same reference numerals, and duplicate descriptions are omitted.
図1は、一実施形態に係る行動予測システム1の概略的な構成図である。行動予測システム1は、複数の通行人Mの行動、特に、複数の通行人Mの少なくとも一人が横断歩道を横断するか否かを予測する。 FIG. 1 is a schematic diagram of a behavior prediction system 1 according to one embodiment. The behavior prediction system 1 predicts the behavior of multiple passersby M, in particular, whether or not at least one of the multiple passersby M will cross a pedestrian crossing.
以下の説明では、行動予測システム1は、歩道2および車道3が設けられた場面に適用され、歩道2を通行する複数の通行人Mの少なくとも一人が車道3に設置された横断歩道4を横断するか否かを予測する例について説明する。通行人Mは、典型的には歩行者であるが、自転車、キックボードまたは車椅子などの乗物に乗っている人物も通行人Mに含まれる。図1に示すように、横断歩道4の進行方向の両側には歩行者用信号機S1が設置されている。車道3には、横断歩道4を通過する車両のための車両用信号機S2が設置されている。歩道2は、路肩または路側帯であってもよい。車道3は、通行人Mが横断することがある道路である。以下の説明では、歩道2を通行する通行人Mのうち、横断歩道4を横断する意思を有する通行人Mを「横断者」ということがある。
In the following explanation, the behavior prediction system 1 is applied to a scene in which a
図1に示すように、行動予測システム1は、カメラ10、路側装置20および行動予測装置30を備えている。カメラ10は、例えば歩道2上に設置された支柱5の上部に設けられ、撮像領域Cの画像を撮像する撮像装置である。なお、以下の説明において「画像」には、動画像および静止画像が含まれる。限定されるものではないが、カメラ10の設置高さは、地表面から3m以上であってもよい。一実施形態では、図2に示すように、撮像領域Cは、車道3の周辺の待機エリア(第2エリア)R2を含む領域である。待機エリアR2は、横断歩道4の手前に位置し、横断歩道4を渡ろうとする通行人Mが一時的に待機する歩道2上の領域である。図2に示すように、撮像領域Cは、横断歩道4を含む横断エリア(第1エリア)R1の一部または全体を含んでいてもよい。
As shown in FIG. 1, the behavior prediction system 1 includes a
カメラ10は、撮像領域Cを撮像することができれば傾斜して配置されていてもよい。例えば、カメラ10の中心軸線(光軸)は、地表面に対して垂直であってもよいし、地表面に対して傾斜していてもよい。なお、カメラ10は、撮像領域Cとは横断歩道4の反対側に設置されていてもよい。
The
カメラ10は、所定のフレームレートで撮像領域Cを撮像し、動画像を生成する。撮像された動画像は、有線通信または無線通信により路側装置20に送信される。なお、カメラ10は、撮像領域Cを撮像した画像(静止画像)を周期的に路側装置20に送信してもよい。
The
路側装置20は、プロセッサ、記憶装置および通信装置等を備えるPLC(Programmable Logic Controller)等のコンピュータであり、車道3に隣接して設置されている。例えば、路側装置20は、支柱5に設けられている。路側装置20は、例えば、記憶装置に記憶されているプログラムをロードし、ロードされたプログラムをプロセッサで実行することにより後述する各種機能を実現する。
The
路側装置20は、カメラ10、行動予測装置30、歩行者用信号機S1および車両用信号機S2と通信可能に接続されている。路側装置20は、カメラ10で撮像された動画像を行動予測装置30に送信する。また、路側装置20は、行動予測装置30から制御信号を受信して、歩行者用信号機S1および車両用信号機S2を制御する。
The
行動予測装置30は、プロセッサ、記憶装置および通信装置等を備える据置型又は携帯型のコンピュータ又はワークステーションであり、典型的には、路側装置20から離れた場所に配置されている。
The
行動予測装置30は、ネットワークNを介して路側装置20と通信可能である。ネットワークNは、無線通信または有線通信用の通信網である。後述するように、行動予測装置30は、カメラ10で撮像された動画像に写る複数の通行人Mのいずれか一人が横断エリアR1に進入する可能性を示す指標を求める。指標とは、例えば確率、尤度又は信頼度である。なお、「横断エリアR1に進入する」とは、通行人Mが横断エリアR1と待機エリアR2との境界線を通過することを含む概念である。行動予測装置30は、例えば、記憶装置に記憶されているプログラムをロードし、ロードされたプログラムをプロセッサで実行することにより後述する各種機能を実現する。
The
図3に示すように、行動予測装置30は、機能的構成として、取得部31、検知部32、予測部33、集約部34および制御部35を備えている。取得部31は、カメラ10によって撮像された撮像領域Cの動画像を路側装置20を介して取得する。取得部31は、カメラ10によって撮像された動画像のうち、少なくとも一人の通行人Mが写っている動画像を取得する。なお、取得部31は、複数の通行人Mが写っている画像(静止画像)を周期的に取得してもよい。
As shown in FIG. 3, the
検知部32は、取得部31によって取得された動画像を解析して、動画像に写る複数の通行人Mを検知する。検知部32は、例えば画像認識処理により動画像の各フレーム(画像)に写る複数の通行人Mを特定し、特定した複数の通行人Mの位置を示す位置情報を出力する。図4(a)は、検知部32に入力される動画像に含まれる一つのフレームの一例を示している。図4(b)は、通行人Mの位置情報を含むフレームの一例を示している。図4(a)および図4(b)には、複数の通行人Mとして、通行人M1、通行人M2および通行人M3が写っている。
The
通行人Mの位置情報は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)、HOG(Histogram of Oriented Gradients)、および、YOLO(You Only Look Once)などの公知の画像認識アルゴリズムを用いて特定することができる。なお、検知部32は、各通行人Mの位置情報に加え、各通行人Mの属性を示す属性情報を更に特定してもよい。通行人Mの属性情報とは、通行人Mの年齢、性別および種別(歩行者、自転車、車椅子、キックボード、白杖保持者など)といった通行人Mの属性を示す情報である。検知部32は、動画像に含まれる全てのフレームについて各通行人Mの位置情報および属性を特定する。
The position information of passersby M can be identified using known image recognition algorithms such as Convolutional Neural Network (CNN), Histogram of Oriented Gradients (HOG), and You Only Look Once (YOLO). In addition to the position information of each passerby M, the
また、検知部32は、複数のフレーム内の通行人Mの位置情報に基づいて、通行人Mの移動軌跡を特定してもよい。例えば、検知部32は、時系列で並ぶ複数のフレーム間の各通行人Mの位置を連結し、各通行人Mの移動軌跡を生成する。通行人Mの移動軌跡は、カルマンフィルタ、パーティクルフィルタ、Optical Flow、および、Deep SORTなどの公知の追跡アルゴリズムを用いて生成することができる。
The
図5は、検知部32によって特定された各通行人Mの移動軌跡の例を示している。図5の移動軌跡50Aは通行人M1の移動軌跡を表し、移動軌跡50Bは通行人M2の移動軌跡を表し、移動軌跡50Cは通行人M3の移動軌跡を表している。検知部32は、各通行人Mの移動軌跡を示す情報と各通行人Mを識別する識別子(ID)とを関連付けて予測部33に出力する。
Figure 5 shows an example of the movement trajectory of each passerby M identified by the
予測部33は、各通行人Mが横断エリアR1に進入する可能性を示す進入指標を通行人M毎に求める。進入指標は、各通行人Mが横断エリアR1に進入する確率、尤度又は信頼度である。以下の説明では、進入指標として各通行人Mが横断エリアR1に進入する確率を示す進入確率を求める例について説明する。進入確率は、各通行人Mが横断歩道4を横断する確率であるともいえる。各通行人Mの進入確率は、種々の手法を用いて求めることができる。
The
各通行人Mの進入確率を求めるための第1の手法について説明する。第1の手法では、各通行人Mの移動軌跡を入力し、各通行人Mの進入確率を出力するように機械学習された予測モデルを用いて、各通行人Mの進入確率が求められる。予測モデルは、過去に撮像された動画像に写る通行人Mの移動軌跡と横断者の有無を示すラベル情報とを含む教師データのデータセットを機械学習して構築される分類器である。予測モデルは、畳み込みニューラルネットワークおよび再帰型ニューラルネットワークといった公知の機械学習アルゴリズムを用いて学習パラメータを最適化することにより生成される。予測部33は、記憶装置に記憶された予測モデルを読み出し、検知部32によって特定された各通行人Mの移動軌跡を予測モデルに入力し、各通行人Mが横断エリアR1に進入する確率を取得する。
A first method for calculating the entry probability of each passerby M will be described. In the first method, the entry probability of each passerby M is calculated using a prediction model that has been machine-learned to input the movement trajectory of each passerby M and output the entry probability of each passerby M. The prediction model is a classifier constructed by machine learning a data set of teacher data including the movement trajectory of passerby M captured in a video image captured in the past and label information indicating the presence or absence of a crossing person. The prediction model is generated by optimizing learning parameters using known machine learning algorithms such as a convolutional neural network and a recurrent neural network. The
なお、予測モデルの生成に使用される教師データには、通行人Mの属性を示す属性情報が含まれていてもよい。通行人Mの行動は、属性によって特徴的なパターンを有することがある。例えば、成人の歩行者は、移動速度が速く、直線的に移動する傾向がある。これに対し、小児、ベビーカーを持つ歩行者、および、白杖保持者の移動速度は、成人の歩行者の移動速度よりも遅い傾向がある。自転車またはキックボードに乗っている通行人Mは、歩行者と比較して、移動速度が速く、移動方向の変化が小さい傾向がある。教師データに通行人Mの属性情報が含まれている場合には、上述した通行人Mの移動パターンを踏まえた予測モデルを生成することができる。 The training data used to generate the prediction model may include attribute information indicating the attributes of passersby M. The behavior of passersby M may have characteristic patterns depending on their attributes. For example, adult pedestrians tend to move quickly and in a straight line. In contrast, the movement speeds of children, pedestrians with strollers, and people using white canes tend to be slower than those of adult pedestrians. Passersby M riding bicycles or kickboards tend to move quickly and change their movement direction less compared to pedestrians. When the training data includes attribute information of passersby M, a prediction model can be generated that takes into account the movement patterns of passersby M described above.
上記のように、通行人Mの属性情報を含む教師データを用いて予測モデルを生成した場合には、予測部33は、各通行人Mの移動軌跡に加えて、検知部32によって特定された通行人Mの属性情報を予測モデルに入力する。これにより、各通行人Mの進入確率を高い精度で求めることができる。
As described above, when a prediction model is generated using training data including attribute information of passersby M, the
次に、各通行人Mの進入確率を求めるための第2の手法について説明する。第2の手法では、各通行人Mと横断エリアR1との間の距離に基づいて、各通行人Mの進入確率が求められる。一般的に、通行人Mの位置が横断エリアR1の近いほど、当該通行人Mが横断エリアR1に進入する可能性が高いと考えられる。そこで、第2の手法では、予測部33は、検知部32によって特定された各通行人Mの位置情報に基づいて、各通行人Mと横断エリアR1との間の距離を求め、当該距離が小さいほど通行人Mの進入確率を高く設定する。
Next, a second method for calculating the entry probability of each passerby M will be described. In the second method, the entry probability of each passerby M is calculated based on the distance between each passerby M and the crossing area R1. In general, it is considered that the closer the position of passerby M is to the crossing area R1, the more likely the passerby M will enter the crossing area R1. Therefore, in the second method, the
なお、予測部33は、各通行人Mの移動軌跡から各通行人Mの移動方向を特定し、通行人Mが横断エリアR1に向かって移動しているときに当該通行人Mの進入確率を高く設定し、通行人Mが横断エリアR1から離れる方向に移動しているときに当該通行人Mの進入確率を低く設定してもよい。
The
また、通行人Mと横断エリアR1との距離が小さい場合であっても、通行人Mの移動速度が速い場合には、当該通行人Mが横断エリアR1に進入する可能性が高くなる。そこで、予測部33は、通行人Mの移動速度が速い場合には当該通行人Mの進入確率を高く設定し、通行人Mの移動速度が遅い場合には当該通行人Mの進入確率を低く設定してもよい。通行人Mの移動速度は、例えば通行人Mの属性に基づいて決定される。
In addition, even if the distance between passerby M and crossing area R1 is small, if the movement speed of passerby M is fast, there is a high possibility that passerby M will enter crossing area R1. Therefore, the
図6を参照して、第2の手法を用いた各通行人Mの進入確率の決定方法の一例を説明する。図6には、複数の通行人Mとして、通行人M1、通行人M2、通行人M3および通行人M4が図示されている。通行人M1,M2,M4は歩行者であり、通行人M3は自転車に乗っている人物である。図6に示す場面では、通行人M1は、通行人M2,M3,M4よりも横断エリアR1の近くに位置しているので、予測部33は、通行人M1の進入確率を通行人M2,M3,M4の進入確率よりも高く設定する。通行人M3は自転車に乗っており、通行人M1,M2,M3よりも移動速度が速いため、予測部33は、例えば通行人M3の進入確率を通行人M2の進入確率よりも高く設定する。
With reference to FIG. 6, an example of a method for determining the entry probability of each passerby M using the second method will be described. In FIG. 6, passerby M1, passerby M2, passerby M3, and passerby M4 are illustrated as multiple passersby M. Passersby M1, M2, and M4 are pedestrians, and passerby M3 is a person riding a bicycle. In the scene shown in FIG. 6, passerby M1 is located closer to the crossing area R1 than passersby M2, M3, and M4, so the
次に、各通行人Mの進入確率を求めるための第3の手法について説明する。第3の手法では、各通行人Mの位置から横断エリアR1まで移動するための複数の経路候補を特定し、各通行人Mが複数の経路候補の各々を通る確率に基づいて各通行人の進入確率が求められる。図7を参照して、第3の手法を用いて各通行人Mの進入確率の決定方法の一例を説明する。図7には、撮像領域Cに位置する通行人Mが図示されている。第3の手法では、予測部33は、まず通行人Mの位置から横断エリアR1に移動するための複数の経路候補51A,51B,51Cを設定する。なお、予測部33が設定する経路候補の数は任意である。
Next, a third method for determining the entry probability of each passerby M will be described. In the third method, multiple candidate routes for moving from the position of each passerby M to the crossing area R1 are identified, and the entry probability of each passerby M is determined based on the probability that each passerby M will take each of the multiple candidate routes. With reference to FIG. 7, an example of a method for determining the entry probability of each passerby M using the third method will be described. FIG. 7 illustrates a passerby M located in the imaging area C. In the third method, the
次に、予測部33は、通行人Mが移動する経路として複数の経路候補51A,51B,51Cを選択する確率をそれぞれ決定する。通行人Mが経路候補51A,51B,51Cを選択する確率は、例えば過去の通行人Mの移動軌跡に基づいて決定することができる。以下の説明では、通行人Mが経路候補51Aを選択する確率をP1(A)とし、通行人Mが経路候補51Bを選択する確率をP1(B)とし、通行人Mが経路候補51Cを選択する確率をP1(C)と表すものとする。
Next, the
次に、予測部33は、通行人Mが経路候補51A,51B,51Cを進む確率を決定する。通行人Mが経路候補51A,51B,51Cを進む確率とは、通行人Mが途中で引き返すことなく、経路候補51A,51B,51Cを始点から終点までそれぞれ移動する確率を示している。以下の説明では、通行人Mが経路候補51Aを進む確率をP2(A)とし、通行人Mが経路候補51Bを進む確率をP2(B)とし、通行人Mが経路候補51Cを進む確率をP2(C)と表すものとする。確率P2(A)から確率P2(C)は、例えば過去の通行人Mの移動軌跡に基づいて決定することができる。
Next, the
次に、予測部33は、通行人Mが経路候補51A,51B,51Cを通って横断エリアR1に進入する確率をそれぞれ求める。以下の説明では、通行人Mが経路候補51Aを通って横断エリアR1に進入する確率をP3(A)とし、通行人Mが経路候補51Bを通って横断エリアR1に進入する確率をP3(B)とし、通行人Mが経路候補51Cを通って横断エリアR1に進入する確率をP3(C)と表すものとする。このとき、確率P3(A),P3(B),P3(C)は、下記式により求められる。
P3(A)=P1(A)・P2(A)
P3(B)=P1(B)・P2(B)
P3(C)=P1(C)・P2(C)
Next, the
P3(A)=P1(A)・P2(A)
P3(B)=P1(B)・P2(B)
P3(C)=P1(C)・P2(C)
次に、予測部33は、下記式により、通行人Mの横断エリアR1への進入確率P(M)を求める。
P(M)=P3(A)+P3(B)+P3(C)
Next, the
P(M)=P3(A)+P3(B)+P3(C)
予測部33は、上述した種々の手法によって求められた各通行人Mの進入確率を集約部34に出力する。
The
集約部34は、各通行人Mの進入確率を集約して、複数の通行人Mの少なくとも一人が横断エリアR1に進入する可能性を示す合成指標を求める。合成指標は、複数の通行人Mの少なくとも一人が横断エリアR1に進入する確率、尤度又は信頼度である。以下の説明では、合成指標として複数の通行人Mの少なくとも一人が横断エリアR1に進入する確率を示す合成確率を求める例について説明する。合成確率は、複数の通行人Mの少なくとも一人が横断歩道4を横断する確率であるともいえる。例えば、集約部34は、予測部33によって求められた各通行人Mの進入確率に統計的処理を行って合成確率を求める。
The
合成確率は種々の手法により求めることができる。まず、合成確率を求めるための第1の手法について説明する。第1の手法では、集約部34は、各通行人Mの進入確率を重み付けとする平均または加重平均により合成確率を求める。例えば、複数の通行人Mn(n=1,2,3・・・,N)の横断エリアR1への進入確率をP(Mn)と表した場合、集約部34は、下記式により合成確率Pcを求めることができる。
Pc=(P(M1)+P(M2)+P(M3)+・・・+P(MN))/N
The composite probability can be calculated by various methods. First, a first method for calculating the composite probability will be described. In the first method, the
Pc=(P(M1)+P(M2)+P(M3)+...+P(MN))/N
上記のように、合成確率Pcは、複数の通行人Mの進入確率の総和を通行人Mの人数で除することにより求められる。例えば、動画像に写る通行人Mの数が10人であり、10人の通行人の進入確率がそれぞれ0.9、0.8、0.7、0.9、0.6、0.5、0.8、0.9、0.4、0.7である場合には、合成確率Pcは、0.72となる。この結果は、10人の通行人のうち少なくとも一人が横断歩道4を横断する確率が72%であることを示している。
As described above, the composite probability Pc is calculated by dividing the sum of the entry probabilities of multiple passersby M by the number of passersby M. For example, if there are 10 passersby M in the video and the entry probabilities of the 10 passersby are 0.9, 0.8, 0.7, 0.9, 0.6, 0.5, 0.8, 0.9, 0.4, and 0.7, respectively, the composite probability Pc is 0.72. This result indicates that the probability that at least one of the 10 passersby will cross the
次に、合成確率を求めるための第2の手法について説明する。第2の手法では、集約部34は、補集合を利用して、全体の確率から全ての通行人Mが横断エリアR1に進入しない確率を減算して合成確率Pcを求める。例えば、複数の通行人Mn(n=1,2,3・・・,N)の横断エリアR1への進入確率をP(Mn)と表した場合、集約部34は、下記式により複数の通行人Mnの全員が横断エリアR1に進入しない確率Pfを求める。
Pf=(1-P(M1))・(1-P(M2))・(1-P(M3))・・・(1-P(MN))
Next, a second method for calculating the composite probability will be described. In the second method, the
Pf=(1-P(M1))・(1-P(M2))・(1-P(M3))...(1-P(MN))
そして、集約部34は、下記式により合成確率Pcを求める。
Pc=1-Pf
Then, the
Pc=1-Pf
上記のように、第2の手法では、全体の確率から全ての通行人Mが横断エリアR1に進入しない確率Pfを減算して求められる。例えば、動画像に写る通行人Mの数が4人であり、4人の通行人の進入確率がそれぞれ0.7、0.3、0.6、0.4である場合には、合成確率Pcは、0.9496となる。この結果は、4人の通行人のうち少なくとも一人が横断歩道4を横断する確率が約95%であることを示している。
As described above, in the second method, the combined probability Pc is calculated by subtracting the probability Pf that none of the pedestrians M will enter the crossing area R1 from the overall probability. For example, if the number of pedestrians M captured in the video is four, and the entry probabilities of the four pedestrians are 0.7, 0.3, 0.6, and 0.4, respectively, the combined probability Pc is 0.9496. This result indicates that the probability that at least one of the four pedestrians will cross the
なお、集約部34は、上述した手法以外でも、各通行人Mの進入確率に任意の統計的処理を行うことにより合成確率を求めことができる。例えば、集約部34は尤度評価を行って合成確率を求めてもよいし、確率質量関数を用いて合成確率を求めてもよい。集約部34は、求められた合成確率を制御部35に出力する。
In addition, the
制御部35は、集約部34から出力された合成確率に基づいて、歩行者用信号機S1および車両用信号機S2を制御する。例えば、合成確率が基準値よりも高い場合には、歩行者用信号機S1の信号表示が青になり、車両用信号機S2の信号表示が赤になるように路側装置20を介して歩行者用信号機S1および車両用信号機S2を制御する。なお、歩行者用信号機S1がボタンを押下して信号表示を変える押しボタン式の信号機である場合には、制御部27は、当該ボタンを物理的または電気的に押下するような制御信号を出力してもよい。これにより、通行人Mが横断歩道4を安全に横断することが可能となる。なお、基準値は、設計者によって予め設定される設定値である。
The
次に、行動予測装置30のハードウェア構成について説明する。図8は、行動予測装置30のハードウェアの構成例を示すブロック図である。行動予測装置30は、1又は複数のコンピュータによって構成される。コンピュータは、CPU(プロセッサ)101と、主記憶部102と、補助記憶部103と、通信制御部104と、入力装置105と、出力装置106とを含む。行動予測装置30の各々は、これらのハードウェアと、プログラム等のソフトウェアとにより構成された1又は複数のコンピュータによって構成される。
Next, the hardware configuration of the
行動予測装置30が複数のコンピュータによって構成される場合には、複数のコンピュータはローカルで接続されてもよいし、インターネット又はイントラネットなどの通信ネットワークを介して接続されてもよい。この接続によって、論理的に1つの行動予測装置30が構築される。
When the
CPU101は、オペレーティングシステムやアプリケーション・プログラムなどを実行するプロセッサである。主記憶部102は、ROM(Read Only Memory)及びRAM(Random Access Memory)により構成される。補助記憶部103は、ハードディスク及びフラッシュメモリなどにより構成される記憶媒体である。補助記憶部103は、一般的に主記憶部102よりも大量のデータを記憶する。通信制御部104は、ネットワークカード又は無線通信モジュールにより構成される。カメラ10、路側装置20および行動予測装置30の間での通信機能の少なくとも一部は、通信制御部104によって実現される。入力装置105は、キーボード、マウス、タッチパネル、及び、音声入力用マイクなどにより構成される。出力装置106は、ディスプレイ及びプリンタなどにより構成される。
The
補助記憶部103は、プログラム及び処理に必要なデータを格納している。プログラムは、行動予測装置30の各機能要素をコンピュータに実行させる。このプログラムによって、行動予測装置30の機能がコンピュータにおいて実現される。例えば、プログラムは、CPU101又は主記憶部102によって読み込まれ、CPU101、主記憶部102、補助記憶部103、通信制御部104、入力装置105、及び出力装置106の少なくとも1つを動作させる。例えば、プログラムは、主記憶部102及び補助記憶部103におけるデータの読み出し及び書き込みを行う。
The
プログラムは、例えば、CD-ROM、DVD-ROM、半導体メモリなどの有形の記憶媒体に記録された上で提供されてもよい。プログラムは、データ信号として通信ネットワークを介して提供されてもよい。 The program may be provided in a form recorded on a tangible storage medium such as a CD-ROM, DVD-ROM, or semiconductor memory. The program may be provided as a data signal via a communications network.
なお、行動予測装置30は、必ずしもプログラムによって動作するコンピュータによって構成されていなくてもよく、行動予測装置30の機能の一部又は全体は、論理回路を集積したASIC(Application Specific Integrated Circuit)に実装されていてもよい。
The
次に、一実施形態に係る行動予測方法について説明する。図9は、一実施形態に係る行動予測方法を示すフローチャートである。この行動予測方法は、上述した行動予測装置30によって実行される。
Next, a behavior prediction method according to one embodiment will be described. FIG. 9 is a flowchart showing a behavior prediction method according to one embodiment. This behavior prediction method is executed by the
図9に示すように、まず行動予測装置30の取得部31は、カメラ10よって撮像された撮像領域Cの画像を取得する(ステップST1)。取得部31によって取得される画像は、カメラ10によって撮像された画像のうち、少なくとも一人の通行人Mが写っている画像である。取得部31は、例えばカメラ10から周期的に画像を取得する。
As shown in FIG. 9, first, the
次に、検知部32は、画像に写る複数の通行人Mを検出する(ステップST2)。このとき、検知部32は、各通行人Mの位置情報および属性情報を取得する。次に、検知部32は、各通行人Mの時系列の位置情報に基づいて、各通行人Mを追跡して移動軌跡を特定する(ステップST3)。
Next, the
次に、予測部33は、各通行人Mの進入確率を求める(ステップST4)。例えば、予測部33は、各通行人Mの移動軌跡を上述した予測モデルに入力し、複数の通行人Mが横断エリアR1に進入する確率を通行人M毎に求める。
Next, the
次に、予測部33は、各通行人Mの進入確率を集約して、複数の通行人Mの少なくとも一人が横断エリアR1に進入する確率を示す合成確率を求める(ステップST5)。例えば、予測部33は、進入確率を重み付けとする加重平均など、各通行人Mの進入確率に統計的処理を行って、合成確率を求める。
Next, the
次に、制御部35は、集約部34から出力された複数の通行人Mの合成確率が基準値よりも高いか否かを判定する(ステップST6)。合成確率が基準値よりも高い場合には、制御部35は、路側装置20に制御信号を送出して、通行人Mが横断歩道4を横断可能になるように歩行者用信号機S1および車両用信号機S2を制御する(ステップST7)。一方、横断確率が基準値以下である場合には、制御部35は、歩行者用信号機S1および車両用信号機S2を制御せずに、一連の処理を終了する。
Next, the
以上説明したように、行動予測装置30では、各通行人Mが横断エリアR1へ進入する確率を集約して、複数の通行人Mのいずれか一人が横断エリアR1する確率を求めているので、複数の通行人Mが存在する場面において、複数の通行人Mの少なくとも一人が第1エリアに進入するか否かを予測することができる。
As described above, the
以上、種々の実施形態に係る行動予測装置30および行動予測方法について説明してきたが、上述した実施形態に限定されることなく発明の要旨を変更しない範囲で種々の変形態様を構成可能である。
The above describes the
例えば、上記実施形態では、行動予測装置30がカメラ10から路側装置20を介して画像を取得するとともに、歩行者用信号機S1および車両用信号機S2を路側装置20を介して制御しているが、行動予測装置30がカメラ10から直接画像を取得するとともに、歩行者用信号機S1および車両用信号機S2を直接制御してもよい。なお、行動予測装置30は、カメラ10と一体化された構成であってもよい。すなわち、カメラ10の筐体の内部に行動予測装置30が設けられた構成であってもよい。また、行動予測装置30は、路側装置20と一体化された構成であってもよい。すなわち、路側装置20の筐体の内部に行動予測装置30が設けられた構成であってもよい。
For example, in the above embodiment, the
また、上記実施形態では、通行人Mの移動軌跡に基づいて各通行人Mが横断エリアR1に進入するか否かを予測しているが、通行人Mが横断エリアR1に進入するか否かは、任意の手法を用いて判定することが可能である。例えば、予測部33は、各通行人の移動軌跡を用いずに各通行人Mの位置情報のみを用いて、各通行人Mの進入確率を求めてもよい。
In addition, in the above embodiment, whether each passerby M will enter the crossing area R1 is predicted based on the movement trajectory of the passerby M, but it is possible to determine whether the passerby M will enter the crossing area R1 using any method. For example, the
また、上記実施形態では、行動予測装置30は、複数の通行人Mの少なくとも一人が横断歩道4を横断するか否かを予測しているが、行動予測装置30は、横断歩道4が設置されていない道路に適用されることも可能である。例えば、行動予測装置30は、画像に写る複数の通行人Mの少なくとも一人が当該道路上の特定のエリアに進入するか否かを予測することができる。また、必ずしも歩行者用信号機S1および車両用信号機S2が設置されておらずともよく、行動予測装置30は、特定のエリアへの通行人Mの進入を予測すればよく、必ずしも歩行者用信号機S1および車両用信号機S2を制御しなくてもよい。
In the above embodiment, the
なお、上述した種々の実施形態は、矛盾のない範囲で組み合わせることが可能である。 The various embodiments described above can be combined to the extent that no contradictions arise.
1…行動予測システム
2…歩道
3…車道
4…横断歩道
5…支柱
10…カメラ
20…路側装置
30…行動予測装置
31…取得部
32…検知部
33…予測部
34…集約部
35…制御部
50A,50B,50C…移動軌跡
51A,51B,51C…経路候補
101…CPU(プロセッサ)
102…主記憶部
103…補助記憶部
104…通信制御部
105…入力装置
106…出力装置
C…撮像領域
M…通行人
N…ネットワーク
R1…横断エリア(第1エリア)
R2…待機エリア(第2エリア)
S1…歩行者用信号機
S2…車両用信号機
1...
102: Main memory unit 103: Auxiliary memory unit 104: Communication control unit 105: Input device 106: Output device C: Image capture area M: Passersby N: Network R1: Crossing area (first area)
R2: Waiting area (second area)
S1: Pedestrian traffic light S2: Vehicle traffic light
Claims (11)
各通行人が前記第1エリアに進入する可能性を示す進入指標を求める予測部と、
各通行人の前記進入指標を集約して、前記複数の通行人の少なくとも一人が前記第1エリアに進入する可能性を示す合成指標を求める集約部と、
を備える、行動予測装置。 a detection unit that analyzes an image captured of an area including a second area around the first area and detects a plurality of passersby appearing in the image;
a prediction unit for determining an entry indicator indicating a possibility that each passerby will enter the first area;
an aggregation unit that aggregates the entry indicators of each of the plurality of passersby to obtain a composite indicator indicating a possibility that at least one of the plurality of passersby will enter the first area;
A behavior prediction device comprising:
前記合成指標が基準値よりも高いときに、前記複数の通行人が前記横断歩道を横断できるように前記信号機を制御するための制御部を更に備える、請求項1に記載の行動予測装置。 The first area is an area including a pedestrian crossing where a traffic light is installed,
The behavior prediction device according to claim 1 , further comprising a control unit configured to control the traffic light so that the plurality of pedestrians can cross the crosswalk when the composite index is higher than a reference value.
前記予測部は、前記移動軌跡に基づいて各通行人の前記進入指標を求める、請求項1または請求項2に記載の行動予測装置。 The detection unit identifies a movement trajectory of each of the plurality of passersby based on position information of the passersby;
The behavior prediction device according to claim 1 , wherein the prediction unit determines the entry index of each passerby based on the movement trajectory.
前記予測部は、各通行人と前記第1エリアとの間の距離に基づいて、各通行人の前記進入指標を求める、請求項1または請求項2に記載の行動予測装置。 The detection unit identifies positions of the plurality of passersby,
The behavior prediction device according to claim 1 , wherein the prediction unit determines the entry index of each passerby based on a distance between each passerby and the first area.
前記予測部は、前記距離と各通行人の属性とに基づいて、各通行人の前記進入指標を求める、請求項5に記載の行動予測装置。 The prediction unit further identifies attributes of the plurality of passersby;
The behavior prediction device according to claim 5 , wherein the prediction unit determines the entry index of each passerby based on the distance and an attribute of each passerby.
前記予測部は、特定された位置から前記第1エリアまで各通行人が移動するための複数の経路候補を特定し、各候補者が前記複数の経路候補の各々を通る可能性に基づいて各通行人の前記進入指標を求める、請求項1または請求項2に記載の行動予測装置。 The detection unit identifies positions of the plurality of passersby,
3. The behavior prediction device according to claim 1, wherein the prediction unit identifies a plurality of candidate routes for each passerby to travel from the identified position to the first area, and calculates the entry index of each passerby based on a possibility that each candidate route will pass through each of the plurality of candidate routes.
各通行人が前記第1エリアに進入する可能性を示す進入指標を求めるステップと、
各通行人の前記進入指標を集約して、前記複数の通行人の少なくとも一人が前記第1エリアに進入する可能性を示す合成指標を求めるステップと、
を含む、行動予測方法。 A step of analyzing an image captured in an area including the second area around the first area and detecting a plurality of passersby captured in the image;
determining an entry indicator indicative of a possibility that each passerby will enter the first area;
aggregating the entry indicators of each passerby to obtain a composite indicator indicative of a likelihood that at least one of the plurality of passersby will enter the first area;
A behavior prediction method comprising:
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023201098 | 2023-11-28 | ||
| JP2023-201098 | 2023-11-28 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025115813A1 true WO2025115813A1 (en) | 2025-06-05 |
Family
ID=95896603
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/041678 Pending WO2025115813A1 (en) | 2023-11-28 | 2024-11-25 | Behavior prediction device and behavior prediction method |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025115813A1 (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022527072A (en) * | 2019-03-25 | 2022-05-30 | ズークス インコーポレイテッド | Pedestrian prediction based on attributes |
| US20220171065A1 (en) * | 2019-09-30 | 2022-06-02 | Beijing Voyager Technology Co., Ltd. | Systems and methods for predicting a pedestrian movement trajectory |
| US20220324441A1 (en) * | 2019-09-27 | 2022-10-13 | Intel Corporation | Potential collision warning system based on road user intent prediction |
| WO2023195355A1 (en) * | 2022-04-08 | 2023-10-12 | 住友電気工業株式会社 | Detection system, detection device, and detection device installation method |
-
2024
- 2024-11-25 WO PCT/JP2024/041678 patent/WO2025115813A1/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022527072A (en) * | 2019-03-25 | 2022-05-30 | ズークス インコーポレイテッド | Pedestrian prediction based on attributes |
| US20220324441A1 (en) * | 2019-09-27 | 2022-10-13 | Intel Corporation | Potential collision warning system based on road user intent prediction |
| US20220171065A1 (en) * | 2019-09-30 | 2022-06-02 | Beijing Voyager Technology Co., Ltd. | Systems and methods for predicting a pedestrian movement trajectory |
| WO2023195355A1 (en) * | 2022-04-08 | 2023-10-12 | 住友電気工業株式会社 | Detection system, detection device, and detection device installation method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Nidamanuri et al. | A progressive review: Emerging technologies for ADAS driven solutions | |
| Rasouli et al. | Are they going to cross? a benchmark dataset and baseline for pedestrian crosswalk behavior | |
| US9805474B1 (en) | Pedestrian tracking at a traffic intersection to identify vulnerable roadway users for traffic signal timing, pedestrian safety, and traffic intersection control | |
| CN103116987B (en) | Traffic flow statistic and violation detection method based on surveillance video processing | |
| US9460613B1 (en) | Pedestrian counting and detection at a traffic intersection based on object movement within a field of view | |
| Fernández-Caballero et al. | Road-traffic monitoring by knowledge-driven static and dynamic image analysis | |
| US9449506B1 (en) | Pedestrian counting and detection at a traffic intersection based on location of vehicle zones | |
| CN112528759A (en) | Traffic violation behavior detection method based on computer vision | |
| Singh et al. | Road pothole detection from smartphone sensor data using improved LSTM | |
| CN115063764B (en) | State estimation method and device of traffic signal lamp and electronic equipment | |
| Jin et al. | An intelligent traffic detection approach for vehicles on highway using pattern recognition and deep learning | |
| Prakash et al. | Enhancing traffic sign recognition (TSR) by classifying deep learning models to promote road safety | |
| CN116434520B (en) | A pedestrian crossing collision risk warning method and system based on holographic perception | |
| KR102499023B1 (en) | Apparatus and method for determining traffic flow by lane | |
| Muduli et al. | Predicting pedestrian movement in unsignalized crossings: a contextual cue-based approach | |
| CN115352454A (en) | An interactive auxiliary safety driving system | |
| CN115520216A (en) | Driving state judging method and device, computer equipment and storage medium | |
| Deliali et al. | A framework for mode classification in multimodal environments using radar-based sensors | |
| WO2025115813A1 (en) | Behavior prediction device and behavior prediction method | |
| CN117456482B (en) | Abnormal event identification method and system for traffic monitoring scene | |
| CN117372969B (en) | Monitoring scene-oriented abnormal event detection method | |
| JP7753808B2 (en) | Traffic congestion determination device, traffic congestion determination method, and program | |
| Kumar et al. | An optimized intelligent traffic sign forecasting framework for smart cities | |
| CN117911456A (en) | A pedestrian tracking method and its application | |
| Paidi et al. | Tracking vehicle cruising in an open parking lot using deep learning and kalman filter |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24897498 Country of ref document: EP Kind code of ref document: A1 |