JP7593935B2 - Attribute-based pedestrian prediction - Google Patents
Attribute-based pedestrian prediction Download PDFInfo
- Publication number
- JP7593935B2 JP7593935B2 JP2021557327A JP2021557327A JP7593935B2 JP 7593935 B2 JP7593935 B2 JP 7593935B2 JP 2021557327 A JP2021557327 A JP 2021557327A JP 2021557327 A JP2021557327 A JP 2021557327A JP 7593935 B2 JP7593935 B2 JP 7593935B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- attribute
- determining
- area
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Analysis (AREA)
Description
本開示は、属性に基づく歩行者の予測に関する。 This disclosure relates to attribute-based pedestrian prediction.
本特許出願は、2019年3月25日に出願された出願番号16/363541の米国実用特許出願、及び番号16/363627の米国実用特許出願の優先権を主張するものである。出願番号16/363541、及び16/363627は、参照により本明細書に完全に組み込まれている。 This patent application claims priority to U.S. utility patent application Ser. No. 16/363541, filed March 25, 2019, and U.S. utility patent application Ser. No. 16/363627, both of which are incorporated herein by reference in their entireties.
予測技術は、環境内におけるエンティティの将来の状態を決定するために使用されることができる。すなわち、予測技術は、特定のエンティティが将来どのように振る舞う可能性があるかを決定するために使用されることができる。現在の予測技術は、環境内におけるエンティティの将来の状態を予測するために、物理ベースのモデリングやルールオブザロードのシミュレーションを必要とすることが多い。 Prediction techniques can be used to determine the future state of an entity within an environment. That is, predictive techniques can be used to determine how a particular entity is likely to behave in the future. Current predictive techniques often require physics-based modeling or rule-of-the-road simulations to predict the future state of an entity within an environment.
詳細な説明は、添付の図面を参照して述べられる。図中で、符号の左端の数字は、その符号が最初に現れる図面を示している。異なる図で同じ符号を使用することは、類似または同一の構成要素または機能を示す。 The detailed description will be set forth with reference to the accompanying drawings. In the drawings, the leftmost digit of a reference number identifies the drawing in which the reference number first appears. Use of the same reference number in different drawings indicates similar or identical components or functions.
本開示は、物体の属性に基づいて、及び/又は物体に近接する他の物体の属性に基づいて、物体の位置を予測する技術に向けられる。第1の例において、本明細書で論じられる技術は、環境内の横断歩道領域に近接する歩行者が横断歩道領域を横断するとき、或いは、横断する準備をしているときに、歩行者の位置を予測するために実装されることができる。第2の例において、本明細書で論じられる技術は、車両が環境を横断するときに、物体(例えば、車両)の位置を予測するために実装されることができる。例えば、車両の予測位置は車両の属性、及び環境内で車両に近接する他の車両の属性に基づくことができる。属性は、場所、速度、加速度、境界ボックスなど、物体に関する情報を備えることができるが、これらに限定はされない。属性は、予測コンポーネント(例えば、ニューラルネットワークなどの機械学習モデル)に入力されたとき、予測コンポーネントが将来の時間(例えば、時間T1、T2、T3、...、TN)における予測(例えば、物体の予測位置)を出力できるよう、物体に対して時間(例えば、時間T-M、...、T-2、T-1、T0)にわたって決定されることができる。自律車両のような車両は、物体の予測位置に少なくとも部分的に基づいて、環境を横断するように制御されることができる。 The present disclosure is directed to techniques for predicting the location of an object based on attributes of the object and/or attributes of other objects proximate the object. In a first example, the techniques discussed herein can be implemented to predict the location of a pedestrian proximate a pedestrian crossing area in an environment as the pedestrian crosses or prepares to cross the pedestrian crossing area. In a second example, the techniques discussed herein can be implemented to predict the location of an object (e.g., a vehicle) as the vehicle crosses an environment. For example, the predicted location of the vehicle can be based on attributes of the vehicle and attributes of other vehicles proximate the vehicle in the environment. The attributes can include information about the object, such as, but not limited to, location, speed, acceleration, bounding box, etc. The attributes can be determined over time (e.g., times T -M , ..., T -2 , T -1 , T 0 ) for the object such that, when input to a prediction component (e.g., a machine learning model such as a neural network), the prediction component can output a prediction (e.g., a predicted position of the object) at future times (e.g., times T 1 , T 2 , T 3 , ..., T N ). A vehicle, such as an autonomous vehicle, can be controlled to traverse an environment based at least in part on the predicted position of the object.
上述のように、第1の例では、本明細書で論じられる技術は、歩行者が横断歩道領域を横断するとき、或いは、横断歩道領域を横断する準備をしているときに、環境内の横断歩道領域に近接する歩行者の位置を予測するために実装されることができる。例えば、センサーデータは環境内で取得されることができ、物体は識別され、歩行者として分類されるができる。さらに、横断歩道領域は、マップデータに基づいて、及び/又はセンサーデータに基づいて、環境内で識別されることができる(例えば、センサーデータから、横断歩道領域の視覚的な指示(ストライプ、横断歩道標識など)を観察することによって直接的に、或いは、そのような場所で道路を横断する歩行者の履歴の検出によって間接的に、横断歩道領域を識別する)。少なくとも1つの目的地は、横断歩道領域に関連付けられることができる。例えば、歩行者が横断歩道に近接した歩道上にいる場合、目的地は、横断歩道領域の道路の反対側を表すことができる。歩行者が路上(横断歩道領域の内側または外側のいずれか)にいる場合、目的地は、歩行者の属性(例えば、位置、速度、加速度、進路など)に基づいて選択、又は他の方法で決定されることができる。互いに近接する多様な横断歩道領域の場合、歩行者が特定の横断歩道を渡る可能性に関連付けられたスコアは、歩行者の属性(例えば、位置、速度、加速度、進路など)に基づいて決定されることができる。最高スコアに関連付けられた横断歩道領域は、歩行者に関連付けられた対象となる横断歩道となるように選択、又は他の方法で決定されることができる。 As mentioned above, in a first example, the techniques discussed herein can be implemented to predict the location of a pedestrian proximate a crosswalk area in an environment when the pedestrian crosses the crosswalk area or prepares to cross the crosswalk area. For example, sensor data can be acquired in the environment and objects can be identified and classified as pedestrians. Furthermore, a crosswalk area can be identified in the environment based on map data and/or based on sensor data (e.g., identifying a crosswalk area directly from the sensor data by observing visual indications of a crosswalk area (stripes, crosswalk signs, etc.) or indirectly by detecting a history of pedestrians crossing the road at such locations). At least one destination can be associated with the crosswalk area. For example, if the pedestrian is on a sidewalk proximate to the crosswalk, the destination can represent the opposite side of the road to the crosswalk area. If the pedestrian is on the road (either inside or outside the crosswalk area), the destination can be selected or otherwise determined based on the pedestrian's attributes (e.g., position, speed, acceleration, path, etc.). For multiple crosswalk areas in close proximity to one another, a score associated with the likelihood that a pedestrian will cross a particular crosswalk can be determined based on the pedestrian's attributes (e.g., location, speed, acceleration, path, etc.). The crosswalk area associated with the highest score can be selected or otherwise determined to be the target crosswalk associated with the pedestrian.
いくつかの例では、信号無視や、横断歩道領域が容易に識別できない道路を横断する場合のように、歩行者に関連付けられた目的地は、多くの要因に基づいて決定することができる。例えば、目的地は、歩行者の速度の直線外挿、歩行者に関連付けられた歩道領域の最も近い位置、駐車している車両の間のギャップ、車両に関連付けられた開いたドアなどの1つまたは複数に少なくとも部分的に基づいて決定されることができる。いくつかの例では、センサーデータは環境に関して取得され、これらの例示的な目的地候補が環境に存在する可能性を決定することができる。いくつかの例では、スコアは各目的地候補に関連付けられることができ、可能性の高い目的地は、本明細書で論じられる技術に従って使用されることができる。 In some examples, such as when running a red light or crossing a road where a crosswalk area is not easily identifiable, a destination associated with a pedestrian can be determined based on many factors. For example, the destination can be determined based at least in part on one or more of a linear extrapolation of the pedestrian's speed, the closest location of a sidewalk area associated with the pedestrian, a gap between parked vehicles, an open door associated with a vehicle, and the like. In some examples, sensor data can be obtained about the environment to determine the likelihood that these exemplary candidate destinations are present in the environment. In some examples, a score can be associated with each candidate destination, and the likely destinations can be used in accordance with the techniques discussed herein.
横断歩道領域(または他の場所)が歩行者の目的地であると決定された場合、技術は、横断歩道領域を横断する歩行者の場所を、経時的に予測することを含むことができる。いくつかの例では、物体の属性は、時間(例えば、時間T-M、...、T-2、T-1、T0)にわたって決定されることができ、それによって、属性は、時間T0において物体に関連付けられた参照のフレームで表されることができる。すなわち、T0における物体の位置は、原点(例えば、x-y座標系の座標(0,0))とみなされることができ、それによって、第1の軸は、原点と、横断歩道領域に関連関連付けられた目的地とによって定義されることができる。いくつかの例では、別の参照のフレームに対して、他の点が原点とみなされることができる。上述のように、歩行者が道路の第1の側にいる場合、横断歩道領域に関連付けられた目的地は、道路の第1の側とは反対側の道路の第2の側にある点として選択されることができるが、任意の目的地が選択されることもできる。参照のフレームの第2の軸は、第1の軸に垂直であることができ、少なくともいくつかの例では、横断歩道領域を含む平面に沿って存在する。 If the crosswalk area (or other location) is determined to be the pedestrian's destination, the technique can include predicting the location of the pedestrian crossing the crosswalk area over time. In some examples, the attributes of the object can be determined over time (e.g., times T -M , . . ., T -2 , T -1 , T 0 ), whereby the attributes can be expressed in a frame of reference associated with the object at time T 0 . That is, the position of the object at T 0 can be considered as the origin (e.g., coordinate (0,0) in an x-y coordinate system), whereby a first axis can be defined by the origin and the destination associated with the crosswalk area. In some examples, other points can be considered as the origin, relative to another frame of reference. As mentioned above, if the pedestrian is on a first side of the road, the destination associated with the crosswalk area can be selected as a point on a second side of the road opposite the first side of the road, although any destination can also be selected. A second axis of the frame of reference can be perpendicular to the first axis and, in at least some instances, lies along a plane that includes the crosswalk area.
いくつかの例では、歩行者の属性は、経時的に取り込まれたセンサーデータに基づいて決定されることができ、ある時点における歩行者の位置(例えば、位置は、上述の参照のフレームで表されることができる)、その時の歩行者の速度(例えば、第1軸(または他の参照線)に対する大きさ、及び/又は角度)、その時の歩行者の加速度、歩行者が運転可能なエリアにいるかどうかの指示(例えば、歩行者が歩道、又は道路の上にいるかどうか)、歩行者が横断歩道領域にいるかどうかの指示、領域を制御する指示器の状態(例えば、交差点が信号で制御されているかどうか、及び/又は横断歩道が信号で制御されているかどうか(例えば、歩く/歩かない)、及び/又は信号の状態)、車両コンテキスト(例えば、環境内における車両の存在、及び車両に関連付けられた属性)、一定期間における横断歩道領域を通過するフラックス(例えば、一定期間に横断歩道領域を通過した物体(例えば、車両)の数)、物体の関連付け(例えば、歩行者が複数の歩行者のグループの中を移動しているかどうか)、第1の方向における横断歩道までの距離(例えば、グローバルx-方向、又は参照のフレームに基づいたx-方向の距離)、第2の方向における横断歩道までの距離(例えば、グローバルy-方向、又は参照のフレームに基づいたy-方向の距離)、横断歩道領域における道路までの距離(例えば、横断歩道領域内の道路までの最短距離)、歩行者のハンドジェスチャー、歩行者の視線検出、歩行者が立っているか、歩いているか、走っているかなどの指示、他の歩行者が横断歩道にいるかどうか、歩行者の横断歩道フラックス(例えば、一定期間において横断歩道(例えば、走行可能なエリア)を横断して横断歩道を通過する歩行者の数)、歩道(又は、走行不能なエリア)の上にいる第1の歩行者の数と、横断歩道領域(又は走行可能なエリア)の上にいる第2の歩行者の数との比率、各属性に関連付けられた分散、信頼度、及び/又は確率など、の1つまたは複数を含むことができるが、これに限定はされない。 In some examples, pedestrian attributes can be determined based on sensor data captured over time, including the pedestrian's position at a time (e.g., the position can be expressed in a frame of reference as described above), the pedestrian's speed at that time (e.g., magnitude and/or angle relative to a first axis (or other reference line)), the pedestrian's acceleration at that time, an indication of whether the pedestrian is in a drivable area (e.g., whether the pedestrian is on the sidewalk or on the road), an indication of whether the pedestrian is in a crosswalk area, the state of indicators controlling the area (e.g., whether the intersection is signal-controlled and/or whether the crosswalk is signal-controlled (e.g., walk/no walk) and/or the state of the signal), vehicle context (e.g., the presence of vehicles in the environment and attributes associated with the vehicles), flux through the crosswalk area over a period of time (e.g., the number of objects (e.g., vehicles) that have passed through the crosswalk area over a period of time), object associations (e.g., whether the pedestrian is in a crosswalk area with multiple pedestrians), and/or attributes associated with the pedestrian. (e.g., whether the pedestrian is moving in a group of pedestrians), distance to the crosswalk in a first direction (e.g., distance in a global x-direction or an x-direction based on a frame of reference), distance to the crosswalk in a second direction (e.g., distance in a global y-direction or a y-direction based on a frame of reference), distance to the road in the crosswalk area (e.g., minimum distance to the road in the crosswalk area), pedestrian hand gestures, pedestrian gaze detection, indication of whether the pedestrian is standing, walking, running, etc., whether other pedestrians are in the crosswalk, pedestrian crosswalk flux (e.g., the number of pedestrians crossing the crosswalk (e.g., drivable area) and passing through the crosswalk in a certain period of time), the ratio of the number of first pedestrians on the sidewalk (or non-drivable area) to the number of second pedestrians on the crosswalk area (or drivable area), the variance, confidence, and/or probability associated with each attribute, etc.
属性は、時間(例えば、限定ではないが、0.01秒、0.1秒、1秒、2秒など、現在の時間の前および/または現在の時間を含む任意の時間を表す時間T-M、...、T-2、T-1、T0(ここで、Mは整数である))にわたって決定され、歩行者の予測位置を決定するために予測コンポーネントに入力されることができる。いくつかの例では、予測コンポーネントは、ニューラルネットワーク、完全接続ニューラルネットワーク、畳み込みニューラルネットワーク、リカレントニューラルネットワークなどの機械学習モデルである。 The attributes can be determined over time (e.g., but not limited to, times T -M , ..., T -2 , T -1 , T 0 (where M is an integer) representing any time before the current time and/or including the current time, such as, but not limited to, 0.01 seconds , 0.1 seconds, 1 second, 2 seconds, etc.) and input to a prediction component to determine a predicted location of the pedestrian. In some examples, the prediction component is a machine learning model such as a neural network, a fully connected neural network, a convolutional neural network, a recurrent neural network, etc.
いくつかの例では、予測コンポーネントは、将来の歩行者に関連付けられた情報を出力することができる。例えば、予測コンポーネントは、将来の時間(例えば、現在時間の後の任意の時間を表す時間T1、T2、T3、...、TN(ここで、Nは整数である))に関連付けられた予測情報を出力することができる。いくつかの例では、予測情報は、将来の時間における歩行者の予測位置を備えることができる。例えば、予測位置は、参照のフレームにおいて、原点(例えば、T0における歩行者の位置)とT1における歩行者との間の距離(例えば、距離s)、及び/又は第1の軸に対する(例えば、参照線に対する)横方向のオフセット(ey)として表されることができる。いくつかの例では、距離s、及び/又は横方向のオフセットeyは、有理数(例えば、0.1メートル、1メートル、1.5メートルなど)で表されることができる。いくつかの例では、距離s、及び/又は横方向のオフセットはビン化(例えば、ビン化アルゴリズムへの入力)され、元のデータ値を1つまたは多数の離散的なインターバルに離散化することができる。いくつかの例では、距離sのビンは、0~1メートル、1~2メートル、3~4メートルなどとすることができるが、このようなビンには、任意の規則的または不規則的な間隔を使用することもできる。 In some examples, the prediction component can output information associated with a future pedestrian. For example, the prediction component can output prediction information associated with a future time (e.g., times T1 , T2 , T3 , ..., TN (where N is an integer) representing any time after the current time). In some examples, the prediction information can comprise a predicted position of the pedestrian at the future time. For example, the predicted position can be represented in a frame of reference as a distance (e.g., distance s) between an origin (e.g., the position of the pedestrian at T0 ) and the pedestrian at T1 , and/or a lateral offset (e y ) relative to a first axis (e.g., relative to a reference line). In some examples, the distance s and/or the lateral offset e y can be represented as rational numbers (e.g., 0.1 meters, 1 meter, 1.5 meters, etc.). In some examples, the distance s and/or the lateral offset can be binned (e.g., input to a binning algorithm) to discretize the original data values into one or many discrete intervals. In some examples, the bins of distance s may be 0 to 1 meter, 1 to 2 meters, 3 to 4 meters, etc., although any regular or irregular interval for such bins may be used.
いくつかの例では、自律車両などの車両は、歩行者の予測位置に少なくとも部分的に基づいて、環境を横断するように制御されることができる。 In some examples, a vehicle, such as an autonomous vehicle, can be controlled to traverse an environment based at least in part on the predicted positions of pedestrians.
上述のように、第2の例では、本明細書で論じられる技術が実装され、車両が環境を通過する際に物体(例えば、車両)の位置を予測することができる。例えば、環境内でセンサーデータが取得されることができ、物体は識別され、車両として分類されることができる。さらに、参照線は、マップデータ(例えば、車線などの走行可能なエリアを識別)、及び/又はセンサーデータ(例えば、センサーデータから走行可能なエリア、又は車線を識別)に基づいて識別され、車両に関連付けられることができる。理解できるように、環境は任意の数の物体を含む。例えば、対象となる物体、又は対象となる車両(例えば、そのような予測技術の対象となる車両)は、対象となる車両に近接する他の車両が存在する環境を移動している。いくつかの例では、技術は、対象となる物体に最も近いK個の物体を識別することを含む(ここで、Kは整数である)。例えば、技術は、対象となる車両に最も近い5つの車両または他の物体を識別することを含むが、任意の数の車両、又は他の物体が識別、又は別の方法で決定されることもできる。いくつかの例では、技術は、対象となる物体に対して閾値距離内にある物体を識別することを含む。いくつかの例では、センサーデータを取り込む車両は、対象となる車両に近接している物体の1つとして識別される。少なくともいくつかの例では、考慮すべき物体を決定するために、付加的な特徴が使用される。非限定的な例として、反対方向に走行している物体、分断された道路の反対側にある物体、特定の分類(例えば、車両以外)を有する物体などは、K個の最近接物体を検討するときは無視される。 As mentioned above, in a second example, the techniques discussed herein may be implemented to predict the location of an object (e.g., a vehicle) as the vehicle passes through an environment. For example, sensor data may be acquired within the environment, and an object may be identified and classified as a vehicle. Further, a reference line may be identified and associated with the vehicle based on map data (e.g., identifying drivable areas, such as lanes) and/or sensor data (e.g., identifying drivable areas, or lanes, from the sensor data). As can be appreciated, the environment may include any number of objects. For example, an object of interest, or a vehicle of interest (e.g., a vehicle that is the subject of such prediction techniques) may be moving through an environment in which there are other vehicles in close proximity to the vehicle of interest. In some examples, the techniques may include identifying K objects closest to the object of interest (where K is an integer). For example, the techniques may include identifying the five vehicles or other objects closest to the vehicle of interest, although any number of vehicles or other objects may be identified or otherwise determined. In some examples, the techniques may include identifying objects within a threshold distance to the object of interest. In some examples, the vehicle capturing the sensor data is identified as one of the objects proximate to the vehicle of interest. In at least some examples, additional features are used to determine which objects to consider. As non-limiting examples, objects traveling in the opposite direction, objects on the other side of a divided road, objects with certain classifications (e.g., non-vehicle), etc. are ignored when considering the K closest objects.
いくつかの例では、属性は、対象となる物体、及び/又は対象となる物体に近接する他の物体に対して決定されることができる。例えば、属性は、物体のある時点での速度、物体のある時点での加速度、物体のある時点での位置(例えば、グローバル座標またはローカル座標)、物体のある時点での境界ボックス(例えば、物体の範囲、ロール、ピッチ、および/またはヨーを表す)、最初の時点での物体に関連づけられた照明の状態(ヘッドライト、ブレーキライト、ハザードライト、方向指示ライト、バックライトなど)、車両の車輪の向き、その時点での物体とマップ要素の間の距離(停止線、スピードバンプ、イールドライン、交差点、車道までの距離など)、物体の分類(自動車、車両、動物、トラック、自転車など)、物体に関連付けられた特徴(物体が車線変更しているかどうか、二重駐車の車両かどうかなど)、車線の種類(車線の方向、駐車レーンなど)、道路標識(追い越しや車線変更が許可されているかどうかを示すものなど)などの1つまたは複数を含むことができるが、これらに限定はされない。 In some examples, attributes may be determined for the object of interest and/or other objects proximate to the object of interest. For example, the attributes may include, but are not limited to, one or more of the following: the speed of the object at a given time; the acceleration of the object at a given time; the position of the object at a given time (e.g., in global or local coordinates); the bounding box of the object at a given time (e.g., representing the range, roll, pitch, and/or yaw of the object); the state of the lights associated with the object at an initial time (headlights, brake lights, hazard lights, turn signals, backlights, etc.); the orientation of the vehicle's wheels; the distance between the object and a map element at a given time (distance to a stop line, speed bump, yield line, intersection, roadway, etc.); the classification of the object (car, vehicle, animal, truck, bicycle, etc.); features associated with the object (whether the object is changing lanes, whether it is a double-parked vehicle, etc.); lane type (lane direction, parking lane, etc.); road signs (e.g., indicating whether passing or lane changing is permitted, etc.);
いくつかの例では、対象となる物体、及び/又は対象となる物体に近接する他の物体に関連付けられた属性情報は、経時的に取り込まれることができ、対象となる物体に関連付けられた予測情報を決定するために予測コンポーネントに入力されることができる。いくつかの例では、予測情報は、様々な時間間隔における対象の予測位置(例えば、時間T1、T2、T3、...、TNにおける予測位置)を表すことができる。 In some examples, attribute information associated with an object of interest and/or other objects proximate the object of interest can be captured over time and input to a prediction component to determine predictive information associated with the object of interest. In some examples, the predictive information can represent predicted locations of the object at various time intervals (e.g., predicted locations at times T1 , T2 , T3 , ..., TN ).
いくつかの例では、予測された位置は、対象となる物体に関連付けられた参照線を決定するため、環境内の候補参照線と比較されることができる。例えば、環境は、対象となる車両が横断するための適格な(例えば、適法な)走行可能なエリアである2つの車線を含む。さらに、そのような走行可能なエリアは、代表的な参照線(例えば、車線または走行可能なエリアの中央)と関連付けられる。いくつかの例では、予測位置と参照線候補との間の類似性スコアを決定するため、予測位置は参照線と比較されることができる。いくつかの例では、類似性スコアは、予測位置と参照線との間の距離などに少なくとも部分的に基づくことができる。いくつかの例では、物体に関連付けられた属性(例えば、時間T-M、T-1、T0)は、物体に関連付けられる可能性が高い参照線を出力することができる参照線予測コンポーネントに入力されることができる。技術は、参照線を受信、選択、又は別の方法で決定することと、環境内の参照線に関する予測位置を表すこととを含むことができる。すなわち、予測位置は、時間T0における物体の位置と、将来の時間(例えば、時間T1)における物体の予測された位置との間の距離を表す、参照線に沿った距離sとして表されることができる。横方向のオフセットeyは、参照線と、参照線に関連付けられた接線に垂直な線と交差する点との間の距離を表すことができる。 In some examples, the predicted location can be compared to candidate reference lines in the environment to determine a reference line associated with the object of interest. For example, the environment includes two lanes that are eligible (e.g., legal) drivable areas for the vehicle of interest to cross. Furthermore, such drivable areas are associated with representative reference lines (e.g., the center of the lanes or drivable areas). In some examples, the predicted location can be compared to the reference lines to determine a similarity score between the predicted location and the reference line candidates. In some examples, the similarity score can be based at least in part on the distance between the predicted location and the reference lines, etc. In some examples, attributes associated with the object (e.g., times T -M , T -1 , T 0 ) can be input to a reference line prediction component that can output a reference line that is likely to be associated with the object. The technique can include receiving, selecting, or otherwise determining a reference line and representing a predicted location with respect to the reference line in the environment. That is, the predicted position may be represented as a distance s along a reference line that represents the distance between the object's position at time T0 and the object's predicted position at a future time (e.g., time T1 ). The lateral offset e y may represent the distance between the reference line and a point that intersects a line perpendicular to a tangent associated with the reference line.
予測技術は、環境内の物体に関連付けられた予測位置を決定するために、反復して、又は並行して繰り返されることができる。すなわち、第1の対象となる物体は、環境内の物体の第1のサブセットと関連付けられ、第2の対象となる物体は、環境内の物体の第2のサブセットと関連付けられる。いくつかの例では、第1の対象となる物体は、物体の第2のサブセットに含まれ、一方、第2の対象となる物体は、物体の第1のサブセットに含まれる。このように、予測位置は、環境内の複数の物体に対して決定されることができる。場合によっては、予測位置は、技術的な許容範囲内で実質的に同時に決定されることができる。 The prediction techniques can be repeated iteratively or in parallel to determine predicted positions associated with objects in the environment. That is, a first object of interest is associated with a first subset of objects in the environment and a second object of interest is associated with a second subset of objects in the environment. In some examples, the first object of interest is included in the second subset of objects, while the second object of interest is included in the first subset of objects. In this manner, predicted positions can be determined for multiple objects in the environment. In some cases, the predicted positions can be determined substantially simultaneously within technical tolerances.
いくつかの例では、自律車両などの車両は、物体の予測位置に少なくとも部分的に基づいて環境を横断するように制御されることができる。例えば、そのような予測位置は、環境内の物体の予測位置を理解して環境を横断するために、車両の計画コンポーネントに入力されることができる。 In some examples, a vehicle, such as an autonomous vehicle, can be controlled to traverse an environment based at least in part on a predicted position of an object. For example, such predicted positions can be input to a planning component of the vehicle to understand the predicted positions of objects in the environment and traverse the environment.
本明細書で論じられる技術は、自律車両のコンピューティングデバイスなどのコンピューティングデバイスの機能を、多くの付加的な方法で改善することができる。いくつかの例では、属性を決定し、その属性を機械学習コンポーネントなどの予測コンポーネントに入力することは、他の方法で環境を柔軟性に欠くように表すハードコード化されたルールを回避することができる。場合によっては、環境内の物体(歩行者や車両など)に関連付けられた予測位置を決定することは、他の車両や物体に対して環境内を安全かつ快適に移動するための軌道をより適切に計画することを与えることができる。例えば、衝突、又は衝突に近いものの可能性を示唆する予測位置は、自律車両に対して環境を安全に横断するために軌道を変更すること(例えば、車線変更、停止など)を与える。このような、及び他のコンピューティングデバイスの機能の改善については、本明細書で論じられる。 The techniques discussed herein can improve the capabilities of a computing device, such as a computing device of an autonomous vehicle, in many additional ways. In some examples, determining attributes and inputting the attributes into a predictive component, such as a machine learning component, can avoid hard-coded rules that would otherwise represent the environment inflexibly. In some cases, determining a predicted position associated with an object (such as a pedestrian or vehicle) in the environment can provide other vehicles or objects with the ability to better plan a trajectory for safe and comfortable travel through the environment. For example, a predicted position that indicates a potential collision or near collision can provide the autonomous vehicle with the ability to modify its trajectory (e.g., change lanes, stop, etc.) to safely traverse the environment. Such and other improvements in the capabilities of computing devices are discussed herein.
本明細書で述べられる技術は、多くの方法で実装されることができる。例示的な実装は、以下の図を参照して提供される。自律車両のコンテキストで論じられているが、本明細書で述べられる方法、装置、およびシステムは、様々なシステム(例えば、センサーシステムまたはロボットプラットフォーム)に適用されることができ、自律車両に限定はされない。一例では、同様の技術は、そのようなシステムが、様々な操縦を行うことが安全であるかどうかの指示を提供する、運転者が制御する車両に利用される。別の例では、この技術は、製造業の組み立てラインのコンテキストや、航空測量のコンテキストで利用されることができる。さらに、本明細書で述べられる技術は、実データ(例えば、センサーの使用によって取り込まれたもの)、シミュレーションデータ(例えば、シミュレータによって生成されたもの)、またはこれら2つの任意の組み合わせで使用されることができる。 The techniques described herein can be implemented in many ways. Exemplary implementations are provided with reference to the following figures. Although discussed in the context of an autonomous vehicle, the methods, apparatus, and systems described herein can be applied to a variety of systems (e.g., sensor systems or robotic platforms) and are not limited to autonomous vehicles. In one example, similar techniques are utilized in driver-controlled vehicles where such systems provide indications of whether it is safe to perform various maneuvers. In another example, the techniques can be utilized in the context of a manufacturing assembly line or in the context of aerial surveying. Additionally, the techniques described herein can be used with real data (e.g., captured through the use of sensors), simulated data (e.g., generated by a simulator), or any combination of the two.
図1は、センサーデータを取り込むこと、物体に関連付けられた属性を決定すること、属性に基づいて予測位置を決定すること、予測位置に基づいて車両を制御することの例示的なプロセス100の絵画的フロー図である。
FIG. 1 is a pictorial flow diagram of an
動作102において、プロセスは、環境のセンサーデータを取り込むことを含むことができる。いくつかの例では、センサーデータは、車両(自律的、又はその他の方法による)上の1つまたは複数のセンサーによって取り込まれることができる。例えば、センサーデータは、LIDARセンサー、画像センサー、RADARセンサー、Time of flightセンサー、ソナーセンサーなどによって取り込まれたデータを含むことができる。いくつかの例では、動作102は、物体の分類を決定すること(例えば、物体が環境内の歩行者であることを決定すること)を含むことができる。 In operation 102, the process may include capturing sensor data of the environment. In some examples, the sensor data may be captured by one or more sensors on the vehicle (autonomous or otherwise). For example, the sensor data may include data captured by a LIDAR sensor, an image sensor, a RADAR sensor, a time of flight sensor, a sonar sensor, etc. In some examples, operation 102 may include determining a classification of the object (e.g., determining that the object is a pedestrian in the environment).
動作104において、プロセスは、物体(例えば、歩行者)に関連付けられた目的地を決定することを含むことができる。例106は、環境内の車両108、及び物体110(例えば、歩行者)を示している。いくつかの例では、車両108は、プロセス100で論じられる動作を実行することができる。
At
動作104は、物体110の属性を決定して、物体110の位置、速度、進路などを決定することを含むことができる。さらに、動作104は、マップデータにアクセスして、横断歩道領域(例えば、横断歩道領域112)が環境内に存在するかどうかを決定することを含むことができる。いくつかの例では、横断歩道領域112は、環境内の横断歩道の周辺を表すことができる。いくつかの例では、動作104は、物体が横断歩道領域112の一部の閾値距離(例えば、5メートル)内にあることを決定することを含むことができる。いくつかの例では、閾値距離は、物体から横断歩道領域の任意の部分までの最短距離とみなされる。物体110が環境内の多様な横断歩道領域の閾値距離内にある場合、動作104は、歩行者(例えば、物体110)がそれぞれの横断歩道領域を横断することに関連付けられた確率、又はスコアを決定し、最も可能性の高い横断歩道領域を選択することを含むことができる。いくつかの例では、目的地114は、横断歩道領域112に関連付けられることができる。いくつかの例では、目的地114は、横断歩道領域112に関連付けられた環境内の任意の点を表すことができるが、物体110の位置に対向する横断歩道領域112の側部の中心または中間点を表すことができる。目的地を決定することの付加的な詳細は、図3A、及び図3Bに関連して、同様に、本開示を通して論じられる。
The
動作116では、プロセスは、物体に関連付けられた属性を決定することを含むことができる。例118に例示されるように、属性は物体110に対して、属性に関連付けられた最新の時間まで、及びそれを含む時間内の様々な例(例えば、時間T-M、...、T-2、T-1、T0)において、決定されることができる。物体110は、物体120(例えば、時間T-2における)として、物体122(例えば、時間T-1における)として、および物体124(例えば、時間T0における)として参照されることができる。いくつかの例では、時間T0は、データが予測コンポーネント(後述)に入力される時間を表し、時間T-1は、時間T0の1秒前を表し、時間T-2は、時間T0の2秒前を表す。しかしながら、時間T0、T-1、及びT-2は、任意の時間インスタンス、及び/又は時間の期間を表すことができることが理解されることができる。例えば、時間T-1は時間T0の0.1秒前を表し、時間T-2は時間T0の0.2秒前を表す。いくつかの例では、動作116で決定された属性は、物体120、122、及び/又は124についての情報を含むことができるが、これらに限定はされない。例えば、物体120に関連付けられた速度属性は、時間T-2における物体120の速度を表す。物体122に関連付けられた速度属性は、時間T-1における物体の速度を表す。そして、物体124に関連付けられた速度属性は、時間T0における物体の速度を表す。いくつかの例では、属性のいくつか、又はすべては、物体124(例えば、時刻T0における物体110)と目的地114との相対的な参照のフレームで表される。そのような例では、各先行した時間ステップ(T-MからT0)に関連付けられた3つの一意的な参照フレームがあり、各属性はその特定の時間の参照フレームに関連付けられる。属性の付加的な詳細は、図2に関連して、同様に、本開示を通して論じられる。
At
動作126において、プロセスは、属性に基づいて、物体に関連付けられた予測位置を決定することを含むことができる。例128は、予測位置130(例えば、T0後の時間である時間T1における物体110の予測位置)を示している。いくつかの例では、動作126が時間T0、又はその付近で実行されることができるため、時間T1における予測位置130は、将来における物体110の場所を表すことができる。理解できるように、いくつかの例では、動作126は、将来の物体124に関連付けられた複数の時間に対して予測位置を決定することを含むことができる。例えば、動作126は、時間T1、T2、T3、...、TNにおける物体の予測位置を決定することを含むことができ、ここでNは、将来における時間、例えば、1秒、2秒、3秒などを表す整数である。いくつかの例では、予測位置は、参照線に沿った距離s、及び参照線からの横方向のオフセットeyとして表されることができる。少なくともいくつかの例では、距離s、及びオフセットeyは、各時間のステップで定義された相対座標系に対するもの、及び/又は最後に決定された参照フレームに対するものである。予測位置の決定に関する付加的なの詳細は、図4および図5に関連して、また本開示を通して論じられる。
In
いくつかの例では、動作102、104、116、及び/又は126は、反復して、又は繰り返して(例えば、各時間のステップで、10Hzの周波数で、など)実行されることができるが、プロセス100は、任意の間隔または任意の時間で実行されることができる。
In some examples,
動作132において、プロセスは、予測位置に少なくとも部分的に基づいて、車両を制御することを含むことができる。いくつかの例では、動作132は、車両108が従うべき軌道を生成すること(例えば、交差点の前および/または横断歩道領域112の前で停止し、歩行者110が横断歩道領域112を通過して目的地114まで横断することを与えること)を含むことができる。
In
図2は、物体の例示的な属性200を示している。いくつかの例では、属性202は、環境内の物体(例えば、図1における物体110)についての、又は関連付けられた様々な情報を表すことができる。いくつかの例では、属性202は、物体に関連付けられた1つまたは複数の時間インスタンスに対して決定されることができる。例えば、物体120は、時間T-2における物体110を表し、物体122は、時間T-1における物体110を表し、物体124は、時間T0における物体110を表す。属性は、例えば、時間インスタンスT-2、T-1、及びT0のそれぞれにおける物体に対して決定されることができる。
2 illustrates example attributes 200 of an object. In some examples, the
属性202の例は、物体と道路との間の距離、領域までのx-距離(又は第1の距離)、領域までのy-距離(又は第2の距離)、目的地までの距離、速度(大きさ)、速度(角度)、x-位置、y-位置、領域フラックス、領域を制御する指示器の状態、車両コンテキスト(又は一般的には、物体コンテキスト)、物体の関連付けなどを含むが、これらに限定はされない。少なくともいくつかの例では、本明細書で論じられる属性は、各時間のステップで定義された(例えば、物体120、122、124の各々に関連付けられた)相対座標系に対するもの、最後に決定された参照フレームに対するもの、車両108に関して(例えば、様々な時間のステップ(s)で)定義された参照フレームに対するもの、グローバル座標の参照フレームに対するもの、などである。
Examples of
例204は、物体124に関連付けられた様々な属性を例示している。例えば、例204は、横断歩道領域112、及び目的地114に関する属性を示している。いくつかの例では、領域までのx-距離は、距離206に対応することができる。すなわち、距離206は、物体124と、物体124に最も近い横断歩道領域112のエッジとの間の第1の方向(グローバルまたはローカルな参照フレームである)における距離を表すことができる。いくつかの例では、領域までのy-距離は、距離208に対応することができる。すなわち、距離208は、物体124と横断領域112のエッジとの間の第2の方向の距離を表すことができる。少なくともいくつかの例では、物体124と横断歩道領域との間の最単距離が決定され、その後、x-距離、及びy-距離として、それぞれのx-成分およびy-成分に分解される。
Example 204 illustrates various attributes associated with
例204に示されるように、物体124は、歩道領域210(又は一般的に、走行不能領域210)上の位置にある。いくつかの例では、横断歩道領域112は、道路212(または、一般に、運転可能な領域212)を横切る経路を提供する。いくつかの例では、道路までの距離は距離214に対応することができ、物体124と横断歩道領域112内の道路212の一部との間の最短、又は最小の距離に対応することができる。
As shown in example 204,
いくつかの例では、目的地までの距離は、距離216に対応することができる。図示されているように、距離216は、対象物124と目的地114との間の距離を表している。
In some examples, the distance to the destination may correspond to
上述したように、いくつかの例では、属性202は、参照のフレームで表されることができる。本明細書で論じられるように、参照のフレームは、各時間のステップにおける物体の位置に関して、最後の参照フレーム、グローバル座標系などを基準にして定義される。いくつかの例では、参照のフレームに対応する原点は、物体124の位置に対応することができる。例218は、参照のフレーム220(参照フレーム220とも呼ばれる)を示している。いくつかの例では、参照のフレーム220の第1の軸は、物体124の位置から、目的地114の方向への単位ベクトルによって定義される。第1の軸は、例218ではx軸と表示されている。いくつかの例では、第2の軸は、第2の軸に垂直であり、横断歩道を備える平面内に存在することができる。第2の軸は、例218では、y軸と表示されている。いくつかの例では、第1の軸は、距離sが決定されることができる参照線を表すことができ、一方、横方向のオフセットeyは、第2の方向(例えば、y軸)に対して決定されることができる。
As mentioned above, in some examples, the
例222は、物体124に関連付けられた速度ベクトル224と、速度ベクトル224と参照線との間の角度を表す角度226を示している。いくつかの例では、参照線は、参照のフレーム220の第1の軸に対応することができるが、任意の基準線を選択、又は他の方法で決定されることができる。
Example 222 shows a
本明細書で論じられるように、物体124、122、及び120に関連付けられた属性は、参照のフレーム220を基準にして表されることができる。すなわち、時間T0において、物体124のx-位置およびy-位置は、(0,0)として表されることができる(例えば、物体124は、参照のフレーム220の原点を表す)。さらに、参照のフレーム220に対して、物体122(時間T0における)のx-位置およびy-位置は(-x1,-y1)で表されることができ、物体120(時刻T0における)のx-位置およびy-位置は(-x2,-y2)で表されることができる。少なくともいくつかの例では、単一の座標フレームが使用されるが、他の例では、相対座標フレームが全ての点に関連付けられ、各相対座標フレームに対して属性が定義される。
As discussed herein, attributes associated with
上述したように、属性202は、領域フラックスを含むことができる。いくつかの例では、領域フラックスは、ある期間内に横断歩道領域112を通過した物体の数を表すことができる。例えば、領域フラックスは、K秒内に横断歩道領域112(または任意の領域)を通過したJ個の自動車(及び/又は他の歩行者などの他の物体)に対応することができる(例えば、T-2からT0の間の時間内に5台)。いくつかの例では、領域フラックスは、任意の期間を表すことができる。さらに、領域フラックスは、期間内に横断歩道領域112を通過した、そのような車両についての速さ、加速度、速度などの情報を含むことができる。
As mentioned above, the
さらに、属性202は、領域を制御する指示器を含むことができる。いくつかの例では、領域を制御する指示器は、横断歩道領域112内の歩行者の交通を制御する信号または指示器の状態に対応することができる。いくつかの例では、領域を制御する指示器は、信号が存在するかどうか、信号の状態(例えば、緑、黄、赤など)、及び/又は横断歩道の指示器の状態(例えば、歩く、歩かない、不明など)を示すことができる。
Further, attributes 202 can include indicators controlling the area. In some examples, the indicators controlling the area can correspond to the state of a signal or indicator controlling pedestrian traffic within
いくつかの例では、属性202は、車両、又は他の物体が物体(例えば、124)に近接しているかどうかを示す車両コンテキスト、及びそのような任意の車両、又は物体に関連付けられた属性を含むことができる。いくつかの例では、車両コンテキストは、速度、方向、加速度、境界ボックス、位置(例えば、参照のフレーム220内)、物体と物体124との間の距離などを含むが、これらに限定はされない。 In some examples, attributes 202 may include vehicle context indicating whether a vehicle or other object is in proximity to object (e.g., 124) and attributes associated with any such vehicle or object. In some examples, vehicle context may include, but is not limited to, speed, direction, acceleration, bounding box, position (e.g., within frame of reference 220), distance between the object and object 124, etc.
いくつかの例では、属性202は、物体の関連付けを含むことができる。例えば、物体の関連付けは、物体124が他の物体と関連付けられているかどうか(例えば、物体124が歩行者のグループにいるかどうか)を示すことができる。いくつかの例では、物体の関連付け属性202は、関連する物体に関連杖蹴られた属性を含むことができる。
In some examples, the
属性202はさらに、加速度、ヨー、ピッチ、ロール、相対速度、相対加速度、物体が道路212にいるかどうか、物体が歩道210にいるかどうか、物体が横断歩道領域112内にいるかどうか、目的地が変わったかどうか(例えば、物体が交差点で引き返したかどうか)、物体の高さ、物体が自転車に乗っているかどうか、などに関連付けられた情報を含むが、これらに限定はされない。
属性202はさらに、歩行者の手のジェスチャー、歩行者の視線検出、歩行者が立っているか、歩いているか、走っているかなどの指示、他の歩行者が横断歩道にいるかどうか、歩行者の横断歩道フラックス(例えば、一定期間に横断歩道を通って(例えば、走行可能なエリアを横断して)移動する歩行者の数)、歩道(又は走行不能なエリア)にいる第1の歩行者数と、横断歩道領域(又は走行可能なエリア)にいる第2の歩行者数との比率、各属性に関連付けられた分散、信頼度、及び/又は確率などをさらに含むが、これらに限定はされない。
図3A、及び図3Bは、環境内の物体に関連付けられた目的地を決定することの例を示している。一般的に、図3Aは、2つの横断歩道領域の間で選択することを例示し、一方、図3Bは、単一の横断歩道領域に関連付けられた2つの目的地の間で選択することを例示している。 Figures 3A and 3B show examples of determining destinations associated with objects in an environment. Generally, Figure 3A illustrates choosing between two crosswalk areas, while Figure 3B illustrates choosing between two destinations associated with a single crosswalk area.
図3Aは、環境内の物体に関連付けられた目的地を決定することの例300を示している。上述したように、また一般的に、図3Aは、2つの横断歩道領域の間で選択することを示している。例302は、時間T-1において歩行者に対応した物体304と、時間T0において歩行者に対応した物体306を示している。例えば、車両108などの車両は、環境のセンサーデータを取り込むことができ、歩行者が環境にいることを決定することができる。
FIGURE 3A illustrates an example 300 of determining a destination associated with an object in an environment. As discussed above, and generally, FIGURE 3A illustrates selecting between two pedestrian crossing areas. Example 302 illustrates an
さらに、物体304、及び306に少なくとも部分的に基づいて、コンピューティングシステムは、物体304、及び/又は306が環境内の1つまたは複数の横断歩道領域に近接していることを決定することができる。例えば、コンピューティングデバイスは、そのような横断歩道領域の位置および範囲(例えば、長さ、及び幅)を示すマップ要素を含むマップデータにアクセスすることができる。例302は、環境を、第1の横断歩道領域308(領域308とも呼ばれる)、及び第2の横断歩道領域310(領域310とも呼ばれる)を含むものとして示している。
Further, based at least in part on the
いくつかの例では、領域308は、閾値領域312(閾値312とも呼ばれる)と関連付けられることができ、領域310は、閾値領域314(閾値314とも呼ばれる)と関連付けられることができる。図示されているように、物体304、及び306は、閾値312、及び314の範囲内にある。物体304、及び/又は306が閾値312、及び314内にあることに少なくとも部分的に基づいて、コンピューティングデバイスは、物体304、及び/又は306がそれぞれ領域308、及び、310に関連付けられていると決定することができる。
In some examples, region 308 can be associated with threshold region 312 (also referred to as threshold 312) and
いくつかの例では、閾値312は、領域308に関連付けられた任意の領域、又はエリアを表すことができる。図示されるように、閾値312は、領域308を囲む5メートルの閾値を表すことができるが、閾値312の任意の距離、又は形状が、領域308に関連付けられることができる。同様に、閾値314は、領域310に関連付けられた任意の距離、又は、形状を含むことができる。
In some examples, threshold 312 may represent any region or area associated with region 308. As illustrated, threshold 312 may represent a 5 meter threshold surrounding region 308, although any distance or shape of threshold 312 may be associated with region 308. Similarly,
いくつかの実施例では、領域308は、目的地316と関連付けられることができる。さらに、いくつかの例では、領域310は、目的地318と関連付けられることができる。いくつかの例では、目的地316、及び/又は318の位置は、物体304、及び/又は306から道路を横断して位置される。すなわち、横断歩道領域に関連付けられた目的地は、横断歩道領域に対する歩行者の位置に少なくとも部分的に基づいて選択されることができる
In some examples, the region 308 can be associated with a destination 316. Further, in some examples, the
物体304、及び/又は306は、本明細書で論じられるような属性と関連付けられることができる。すなわち、技術は、物体304、及び306の位置、速度、進路、加速度などをそれぞれ決定することを含むことができる。
さらに、例302に表された情報(例えば、物体304、及び/又は306に関連付けられた属性、領域308、及び/又は310の位置、閾値312、及び/又は314の位置、目的地316、及び/又は318の位置など)は、目的地予測コンポーネント320に入力されることができる。いくつかの例では、目的地予測コンポーネント320は、物体306が領域308、及び/又は領域310を横断するスコア、又は確率を出力することができる。例302では、2つの時間のステップ(例えば、T-1、及びT0)に関連付けられた物体情報を示しているが、任意の経時的な物体情報が目的地の決定に使用されることができる。
Additionally, the information depicted in example 302 (e.g., attributes associated with
いくつかの例では、物体302、及び306に関連付けられた属性は、1つ又は複数の参照のフレームを用いて、目的地予測コンポーネント320に入力されることができる。例えば、目的地316を評価するために、物体304、及び306に関連付けられた属性は、目的地316に少なくとも部分的に基づいた参照のフレームを使用して、目的地予測コンポーネント320に入力されることができる。さらに、目的地318を評価するために、物体304、及び306に関連付けられた属性は、目的地318に少なくとも部分的に基づいた参照のフレームを使用して、目的地予測コンポーネント320に入力されることができる。
In some examples, attributes associated with
いくつかの例では、信号無視をしている歩行者、又は横断歩道領域が容易に識別できない道路を横断する歩行者の場合のように、歩行者に関連付けられた目的地は、多くの要因に基づいて決定されることができる。例えば、目的地は、歩行者の速度の直線外挿、歩行者に関連付けられた歩道領域の最も近い位置、駐車している車両の間の隙間、車両に関連付けられた開いたドアなどの1つ又は複数に少なくとも部分的に基づいて、決定されることができる。いくつかの例では、環境内の可能な目的地を識別するために、環境のセンサーデータを取り込むことができる。さらに、物体に関連付けられた属性は、決定された目的地に少なくとも部分的に基づいて、参照のフレーム内に表されることができ、その属性は、本明細書で論じられるように、評価のために目的地予測コンポーネント320に入力されることができる。
In some examples, such as in the case of a pedestrian running a red light or crossing a road where a crosswalk area is not easily identifiable, a destination associated with the pedestrian can be determined based on a number of factors. For example, the destination can be determined based at least in part on one or more of a linear extrapolation of the pedestrian's speed, the closest location of a sidewalk area associated with the pedestrian, a gap between parked vehicles, an open door associated with a vehicle, and the like. In some examples, sensor data of the environment can be captured to identify possible destinations within the environment. Additionally, attributes associated with the object can be represented in a frame of reference based at least in part on the determined destination, and the attributes can be input to the
例322は、目的地予測コンポーネント320の出力を示している。例えば、物体304、及び/又は306の属性に少なくとも部分的に基づいて、目的地予測コンポーネント320は、物体304、及び/又は306が目的地318に向かっていることを予測する。
Example 322 illustrates output of
図3Bは、環境内の物体に関連付けられた目的地を決定することの別の例324を示している。上述したように、図3Bは、単一の横断歩道領域に関連付けられた2つの目的地の間で選択することを示している。 Figure 3B illustrates another example 324 of determining destinations associated with objects in the environment. As discussed above, Figure 3B illustrates selecting between two destinations associated with a single crosswalk area.
例324は、時間T-1における歩行者に対応した物体326と、時間T0における歩行者に対応した物体328を示している。いくつかの例では、物体326、及び328が道路330(または運転可能なエリア330)にあるので(歩道332(または運転不能なエリア332)に位置するのとは対照的に)、コンピューティングデバイスは、領域338に関連付けられた2つの目的地334、及び336を識別する。いくつかの例では、物体326、及び328に関連付けられた属性は、目的地334、及び336のどちらが最も可能性が高いかを決定するために、目的地予測コンポーネント320に入力されることができる(目的地334と336、及び領域338についての情報、同様に、他の情報)。この図3Bでは、例示のために、横断歩道を出入りするように描かれているが、このような横断歩道領域は必須ではない。非限定的な例として、そのような目的地予測コンポーネント320は、歩行者が信号無視をしようとしている、又はそうでなくとも横断歩道領域ではないエリアで横断すると一般的に決定し、対応する目的地を出力する。このような例では、領域に関連付けられた属性は決定されない(領域が存在しないため)。しかしながら、いくつかの例では、道路セグメントに直交し、一定の幅を有する固定された領域が、そのようなパラメータを決定するための領域として使用される。
Example 324 shows object 326 corresponding to a pedestrian at time T −1 and object 328 corresponding to a pedestrian at time T 0. In some examples, because
上述したように、いくつかの例では、領域338は、物体326、及び/又は328が領域338の閾値距離内にある時間に、物体326、及び/又は328と関連付けられる。 As discussed above, in some examples, region 338 is associated with object 326 and/or 328 at a time when object 326 and/or 328 is within a threshold distance of region 338.
図4は、経時的な物体の属性に基づいて、物体の予測位置を決定する例400を示している。 Figure 4 shows an example 400 of determining a predicted location of an object based on attributes of the object over time.
例402は、物体120(例えば、時間T-2における歩行者)、物体122(例えば、時間T-1における歩行者)、及び物体124(例えば、時間T0の歩行者)を示している。本明細書で論じられるように、物体120、122、及び124は、物体124を原点とする参照のフレーム(及び/又は任意の1つ又は複数の時間に関連付けられた1つまたは複数の参照のフレーム)で表されることができる。さらに、例402では、横断歩道領域112、及び目的地114に関連付けられた物体120、122、および124を示している。
Example 402 illustrates object 120 (e.g., a pedestrian at time T −2 ), object 122 (e.g., a pedestrian at time T −1 ), and object 124 (e.g., a pedestrian at time T 0 ). As discussed herein, objects 120, 122, and 124 may be represented in a frame of reference that has
例402に関連付けられたデータは、物体120、122、及び/又は124に関連付けられた予測位置を出力することができる位置予測コンポーネント404に入力されることができる。
Data associated with example 402 can be input to a
例406は、物体120、122、及び/又は124に基づく予測位置を示している。例えば、位置予測コンポーネント404は予測位置408を出力することができ、予測位置408は時間T1における物体の位置を表す。いくつかの例では、予測位置408は、物体124(例えば、原点)及び目的地114によって定義される参照のフレームに少なくとも部分的に基づいて、距離(例えば、s)410、及び横方向のオフセット412(例えば、ey)として表される。
Example 406 illustrates a predicted position based on
図示されているように、位置予測コンポーネント404は、それぞれ時間T1、T2、T3、T4、及びT5の各々に対応する5つの予測位置を出力することができるが、位置予測コンポーネント404は、任意の将来の時間に関連付けられた任意の数の予測位置を出力できることが理解されることができる。いくつかの例では、そのような付加的な予測位置は、グローバル座標フレーム、ローカル座標フレーム、以前の予測点に関連付けられた相対的参照フレームに関するものなどによって定義される。
As shown, the
いくつかの例では、位置予測コンポーネント404は、距離sまたは横方向オフセットeyなどの出力値をビン化する機能を含むことができる。すなわち、位置予測コンポーネント404は、ビンに入る値を、そのビンを代表する値に置き換えるビン化機能を含むことができる。例えば、ビンに該当する距離sは、ビン化された値を代表する値に置き換えられることができる。例えば、距離s=0.9メートルで、0.0メートルから1.0メートルの第1のビンが0.5メートルのビン値に対応する場合、距離s=0.9メートルに対するビン化された出力は、0.5メートルに対応する。任意の数のビンが、任意の範囲にかけて使用されることができる。もちろん、いくつかの例では、元の値はビン化なしでそのような出力が出力されることができる。そのような例では、ビンの中心部分からのオフセットを示す追加の値が出力ビンに関連付けられる。非限定的な例として、次の予測位置が第1のビン(例えば、0から1mの間)に入ることを示す出力と、関連付けられた0.2mのオフセットが、予測位置の可能性が高い位置が0.7m(例えば、0.5m+0.2m)であることを示すために使用される。
In some examples, the
一般的に、例406に示された予測位置は、予測位置414と呼ばれることができる。 In general, the predicted location shown in example 406 can be referred to as predicted location 414.
いくつかの例では、位置予測コンポーネント404は、物体124がそれぞれの時間にそれぞれの予測位置に位置するという確実性を示す、それぞれの予測場所414に関連付けられた分散、共分散、確率、又は確実性を出力することができる。
In some examples, the
図5は、予測位置の決定で使用される参照のフレームの更新の例500を示している。 Figure 5 shows an example 500 of updating the frame of reference used in determining a predicted position.
例406は、例406で表される時間T0に対応した時間TAを表すために、図5で再現される。図示されるように、物体120、122、及び124は、物体124の位置、及び目的地114の位置によって部分的に定義される参照のフレーム220で表される。
5 to represent a time T corresponding to time T represented by example 406. As shown, objects 120, 122, and 124 are represented in a frame of
いくつかの例では、例406は次の時間のステップのために更新され、更新された予測位置は決定されることができる(例えば、動作502において)。 In some examples, the example 406 is updated for the next time step and an updated predicted position can be determined (e.g., in operation 502).
そのような更新された例は、例504として示され、例504は、例406に対応する環境を示すが、時間TAの後に発生する時間TBにおいてである。例504の物体506は、参照のフレーム508に関する時間T0を表す。同様に、例504は、時間T-1における物体を表す物体510を含む。さらに、物体512は、時間T-2における物体を表す。
Such an updated example is shown as example 504, which shows an environment that corresponds to example 406, but at a time T that occurs after time T. An
いくつかの例では、物体510(例えば、参照のフレーム508内の時間T-1における物体)は、物体124(例えば、参照のフレーム220内の時間T0における物体)に対応することができる。同様に、物体512(例えば、参照のフレーム508内の時間T-2における物体)は、物体122(例えば、参照のフレーム220内の時間T-1における物体)に対応することができる。比較のために、例504は、物体120を示しており、それによって、物体120(及び/又は物体120に関連付けられた属性)が使用される、又は例504において更新された予測位置を決定するとき、物体120は使用されない。
In some examples, object 510 (e.g., object at time T −1 in frame of reference 508) may correspond to object 124 (e.g., object at time T 0 in frame of reference 220). Similarly, object 512 (e.g., object at time T −2 in frame of reference 508) may correspond to object 122 (e.g., object at time T −1 in frame of reference 220). For comparison, example 504 illustrates
理解されることができるように、参照のフレーム508は、物体506、及び目的地114の位置によって、又は少なくとも部分的に基づいて定義されることができる。このように、相対参照フレームは、目的地114、及び物体124の最近決定された位置(例えば、このような座標参照フレームは、環境内の物体の変化によって変化する)に関して定義されることができる。
As can be appreciated, the frame of
したがって、例504に関連付けられた情報(物体120に関連付けられた情報を含むか否か)は、更新された予測位置514決定するために、位置予測コンポーネント404に入力されることができる。本明細書で論じられるように、更新された予測位置514は、参照のフレーム508に少なくとも部分的に基づいている。
Thus, information associated with the example 504 (including or not including information associated with the object 120) can be input to the
いくつかの例では、更新された予測位置は、10Hzの周波数で決定されることができるが、予測位置は、任意の周波数で、又は任意の定期的或いは不定期的な時間間隔で決定されることができる。 In some examples, the updated predicted position may be determined at a frequency of 10 Hz, but the predicted position may be determined at any frequency or at any regular or irregular time interval.
図6は、センサーデータを取り込むこと、第1の物体、及び第2の物体が環境内にあることを決定すること、第2の物体に関連付けられた属性を決定すること、属性、及び参照線に基づいて予測位置を決定すること、予測位置に基づいて車両を制御することのプロセス600を例示した絵画的フロー図である。
FIG. 6 is a pictorial flow diagram illustrating a
第1の物体に関連付けられた予測位置を決定するために、第1、及び第2の物体の属性を決定するというコンテキストで論じられるが、いくつかの例では、1つ又は複数の第2の物体に対して属性が決定されることはなく、第1の物体の予測位置は、第1の物体に関連付けられた属性に基づいて決定されることができる。 Although discussed in the context of determining attributes of a first and second object to determine a predicted location associated with a first object, in some examples, no attributes are determined for one or more second objects, and the predicted location of the first object can be determined based on the attributes associated with the first object.
動作602において、プロセスは、環境のセンサーデータを取り込むことを含むことができる。いくつかの例では、センサーデータは、車両(自律的、又はその他の方法による)上の1つ又は複数のセンサーによって取り込まれることができる。例えば、センサーデータは、LIDARセンサー、画像センサー、RADARセンサー、Time of flightセンサー、ソナーセンサーなどによって取り込まれたデータを含むことができる。いくつかの例では、動作602は、物体の分類を決定すること(例えば、物体が環境内の車両であると決定すること)を含むことができる。
At
例604は、動作602でセンサーデータを取り込む車両606を示す。環境は、物体608、610、612、614、616、及び618をさらに含む。いくつかの例では、物体618は、本明細書で論じられるような予測動作の対象(例えば、対象)であるため、対象物体618と呼ぶことができる。
Example 604 illustrates a
いくつかの例では、車両606は、軌道620を介して環境を横断する。図6のコンテキストで理解されることができるように、物体608は、車両606と同じ方向に(例えば、車両606と同じ車線で)移動されることができ、一方、いくつかの例では、物体610から618、及び対象物体618は、反対方向に走行することができる(例えば、対象物体618は、車両606に関する対向車を表すことができる)。もちろん、プロセス600は、任意の環境で使用されることができ、図6に示される特定の物体、及び/又はジオメトリに限定されない。
In some examples, the
動作622において、プロセスは、対象物体、及び対象物体に近接する物体に関連付けられた属性を決定することを含むことができる。例624は、車両606、物体606から616、及び対象物体618を示している。いくつかの例では、動作622は、他の物体の属性を決定することなく、対象物体に関連付けられた属性を決定することを含む。例えば、そのような他の物体が環境内に存在しない、又は他の物体のそのような属性が、本明細書で論じられる技術の実装に従って、対象物体618の予測位置を決定することに対し、必要とされない、望まれない、または要求されない。
At
図示のために、物体612の輪郭は点線で示され、物体612に対応する要素626、628、及び630は点で表されている。いくつかの例では、要素626は、時間T-2における物体612に関連付けられた位置を表している。いくつかの例では、要素628は、時間T-1における物体612に関連付けられた位置を表している。また、いくつかの例では、要素630は、時間T0における物体612に関連付けられた位置を表している。
For purposes of illustration, the outline of
さらに図示されるように、車両606、物体608から616、及び対象物体618は、図6ではそのような要素はラベル付けされていないが、要素と関連付けられている。そのような要素は、それぞれの時間(例えば、時間T-2、T-1、及びT0)において車両、及び/又は物体に関連付けられた位置を表し、及び/又はそれぞれの時間において物体に関連付けられた属性を表すことができることが、本開示のコンテキストにおいて理解されることができる。
As further shown,
いくつかの例では、動作622で決定された属性は、それぞれの物体についての情報を表すことができる。例えば、そのような属性は、物体の位置(例えば、グローバル位置、及び/又は任意の参照のフレームに関する相対的な位置)、速度、加速度、境界ボックス、照明の状態、車線属性、参照線、又は予測経路からのオフセットなどを含むことができるが、これらに限定はされない。このような属性の付加的な詳細については、図7に関連して、同様に、本開示を通して述べられる。
In some examples, the attributes determined in
いくつかの例では、動作622は、対象物体に対する物体の近接に少なくとも部分的に基づいて、物体を決定、又は識別することを含むことができる。例えば、動作622は、対象物体618に近接する最も近いN個の物体を決定することを含むことができ、ここで、Nは整数である。付加的にまたは代替として、動作622は、物体が対象物体618の閾値距離内にあることに基づいて、物体を識別、又は選択することを含む。少なくともいくつかの例では、そのような選択は、例えば、物体の分類(例えば、車両のみを考慮する)、動きの方向(例えば、同じ方向に動く物体のみを考慮する)、マップに対する位置(例えば、道路の1つまたは複数の車線にいる車両のみを考慮する)などの1つまたは複数の特徴に基づいて、特定の物体を除外するが、これらに限定はされない。
In some examples,
動作632において、プロセスは、属性に少なくとも部分的に基づいて対象物体に関連付けられた予測位置を決定することを含むことができ、予測位置は、環境内の参照線(いくつかの例では、物体に関連付けられた車線の中心線を備える)に関する。例634は、環境内の対象物体618に関連付けられた予測位置636を示している。いくつかの例では、予測位置636は、参照線638によって、及び/又は参照線638に少なくとも部分的に基づくことによって定義されることができる。すなわち、予測位置636は、参照線638に沿った距離sと、参照線638からの横方向のオフセットeyとによって表されることができる。
At
いくつかの例では、参照線638は、環境内のマップデータに少なくとも部分的に基づくことができる。さらに、いくつかの例では、参照線638は、道路、又は他の走行可能なエリアの車線の中央線に対応することができる。 In some examples, the reference lines 638 may be based at least in part on map data within the environment. Further, in some examples, the reference lines 638 may correspond to centerlines of lanes of a road or other drivable area.
いくつかの例では、動作632は、参照線予測コンポーネントからなど、対象物体618に関連付けられた参照線を受信することを含むことができる。いくつかの例では、参照線予測コンポーネントは、マップデータ、環境内の物体の属性などに少なくとも部分的に基づいて、最も可能性の高い参照線を出力するように訓練された機械学習モデルを備えることができる。いくつかの例では、参照線予測コンポーネントは、本明細書で論じられる他の機械学習モデルに統合されることができ、いくつかの例では、参照線予測コンポーネントは、個別のコンポーネントとすることができる。
In some examples,
いくつかの例では、動作632は、複数の候補参照線から参照線638を選択することを含むことができる。いくつかの例では、参照線638は、参照線638に対する予測位置636の類似性を表す類似性スコアに少なくとも部分的に基づいて選択されることができる。いくつかの例では、予測された経路、及び/又は軌道、以前に予測されたウェイポイントなどに対する予測位置636が挙げられる。予測位置、参照線、及び類似性スコアの付加的なの例は、図8に関連して、同様に、本開示を通して論じられる。
In some examples,
動作640において、プロセスは、予測位置に少なくとも部分的に基づいて車両を制御することを含むことができる。いくつかの例では、動作640は、車両608が従うための軌道、又は更新された軌道642を生成すること(例えば、物体618が車両608の予想された経路に対して密接に横断する場合に、車両606を車両618に関連付けられた予測位置636から遠ざけるようにバイアスすること)を含むことができる。
In
図7は、物体の属性の例700を示している。いくつかの例では、属性702は、環境内の物体(例えば、図7で再現された例604で表される、図6の物体612、及び対象物体618)に関する、又は物体に関連付けられた様々な情報を表すことができる。
Figure 7 shows example object attributes 700. In some examples, the
いくつかの例では、属性702は、物体の1つ又は複数の時間インスタンス対して決定されることができる。例704は、時間インスタンスT2、T-1、及びT0における物体612を示している。例えば、要素626は、時間T-2における物体612を表し、要素628は、時間T-1における物体612を表し、要素630は、時間T0における物体612を表す。
In some examples, attributes 702 may be determined for one or more time instances of the object. Example 704 shows object 612 at time instances T2 , T -1 , and T0 . For example,
さらに、属性は、例704における任意の種類、及び/又は数の物体に対して決定されることができ、物体612に限定されない。例えば、属性は、要素706(例えば、時間T-2における対象物体618を表す)、要素708(例えば、時間T-1における対象物体618を表す)、及び要素710(例えば、時間T0における対象物体618を表す)に対して決定されることができる。さらに、属性は、任意の数の時間インスタンスについて決定されることができ、T-2、T-1、及びT0に限定されない。
Additionally, attributes may be determined for any type and/or number of objects in example 704 and are not limited to object 612. For example, attributes may be determined for element 706 (e.g., representing object of
属性702の例には、物体の速度、物体の加速度、物体のx位置(例えば、グローバル位置、ローカル位置、及び/又は他の参照のフレームに対する位置)、物体のy位置(例えば、ローカル位置、グローバル位置、及び/又は他の参照のフレームに対する位置)、物体に関連付けられた境界ボックス(例えば、範囲(長さ、幅、及び/又は高さ)、ヨー、ピッチ、ロールなど)、照明の状態(例えば、ブレーキ照明、ブリンカー照明、ハザードライト、ヘッドライト、バックライトなど)物体のホイール方向、マップ要素(例えば、物体と停止照明との間の距離、停止サイン、スピードバンプ、交差点、イールドサインなど)、物体の分類(例えば、車両、車、トラック、自転車、オートバイ、歩行者、動物など)、物体の特徴(例えば、車線変更中かどうか、物体が二重駐車された車両であるかどうかなど)、1つ又は複数の物体との近接(任意の座標フレームにおいて)、車線の種類(車線の方向、駐車レーンなど)、道路標識(追い越しや車線変更が許可されているかどうかを示すものなど)などが含まれるが、これに限定はされない。 Examples of attributes 702 include, but are not limited to, an object's speed, an object's acceleration, an object's x-position (e.g., relative to a global, local, and/or other frame of reference), an object's y-position (e.g., relative to a local, global, and/or other frame of reference), a bounding box associated with the object (e.g., range (length, width, and/or height), yaw, pitch, roll, etc.), lighting status (e.g., brake lights, blinker lights, hazard lights, headlights, backlights, etc.), wheel direction of the object, map elements (e.g., distance between the object and a stop light, stop sign, speed bump, intersection, yield sign, etc.), object classification (e.g., vehicle, car, truck, bicycle, motorcycle, pedestrian, animal, etc.), object characteristics (e.g., whether a lane is being changed, whether the object is a double-parked vehicle, etc.), proximity to one or more objects (in any coordinate frame), lane type (lane direction, parking lane, etc.), road signs (e.g., indicating whether passing or lane changes are permitted, etc.), etc.
いくつかの例では、物体の属性は、ローカルの参照のフレーム、グローバル座標などに関して決定されることができる。例えば、参照のフレームは、時間T0における対象物体618の位置(例えば、物体710)に対応する原点を有するように決定されることができる。 In some examples, object attributes may be determined with respect to a local frame of reference, global coordinates, etc. For example, a frame of reference may be determined to have an origin that corresponds to the position of target object 618 (e.g., object 710) at time T0 .
図8は、経時的な第2の物体の属性に基づいて、第1の物体の予測位置を決定する例800をしている。 Figure 8 shows an example 800 of determining a predicted location of a first object based on attributes of a second object over time.
図示されているように、図7の例704に関連付けられた情報は、位置予測コンポーネント802に入力されることができ、これにより、対象物体に関連付けられた予測位置を出力することができる。例えば、様々な時間(例えば、T-2、T-1、及びT0)における車両606、物体608から616、及び/又は対象物体618に関連付けられた属性情報は、位置予測コンポーネント802に入力されることができる。
As shown, information associated with example 704 of FIG. 7 can be input to a
例804は、対象物体618に関連付けられた予測位置806を示している。すなわち、位置予測コンポーネント802は、対象物体618に関連付けられた属性情報だけでなく、対象物体618に近接する物体に関連付けられた属性情報も受信し、対象物体618を表す予測位置806を将来的に出力することができる。
Example 804 illustrates a predicted location 806 associated with the
物体808は、時間T-2における対象物体618を表している。物体810は、時間T-1における対象物体618を表している。そして、物体812は、時間T0における対象物体を表している。
位置予測コンポーネント802は、本明細書で論じられる属性情報に基づいて、予測位置806を決定することができる。いくつかの例では、予測位置は、最初に、グローバル座標系で、対象物体を原点とする参照のフレームによって、などで表されることができる。さらに、予測位置は、環境内の参照線を基準にして表されることができる。
The
いくつかの例では、環境は、参照線814、及び参照線816のような複数の参照線を表す。図示のために図8で描かれているように、参照線816は、例えば、物体の車線変更に対応している。いくつかの例では、参照線814は、第1の道路セグメントの中心線を表し、基準線816は、第2の道路セグメントの中心線(及び/又はその間の移行部)を表す。単一車線の道路のようないくつかの例では、環境は単一の参照線を表す。しかしながら、いくつかの例では、環境は複数の参照線を表す。
In some examples, the environment represents multiple reference lines, such as reference line 814 and
いくつかの例では、位置予測コンポーネント802は、最も可能性の高い参照線(例えば、814)の指示を入力として受信ことができる。いくつかの例では、位置予測コンポーネント802は、本明細書で述べられるように、対象物体618の、他の物体の、及び/又は環境の1つまたは複数の属性に少なくとも部分的に基づいて、可能性の高い参照線を決定することができる。
In some examples, the
いくつかの例では、位置予測コンポーネント802は、予測位置806と参照線814との間の類似性を表す類似性スコア818を決定することができる。さらに、位置予測コンポーネント802は、予測位置806と参照線816との間の類似性を表す類似性スコア820を決定することができる。いくつかの例では、類似性スコアは、予測位置とそれぞれの参照線との間の個別、又は累積の横方向のオフセットに少なくとも部分的に基づくことができるが、他の要因を使用して類似性スコアを決定することもできる。
In some examples, the
いくつかの例では、位置予測コンポーネント802は、類似性スコア818が類似性スコア820よりも低いことを決定し、それに応じて、予測位置806を部分的に定義するための基礎として、参照線814を選択することができる。しかしながら、他の例では、各潜在的な参照線は、位置予測コンポーネント802が機械学習されたパラメータに基づいて、基礎として使用する適切な参照線、及び/又は軌道を選択するように、以前に計算された属性とともに位置予測コンポーネント802に入力される。
In some examples, the
予測位置806は、予測位置822、824、826、828、及び/又は830を含むことができる。いくつかの例では、予測位置822は、参照線814に対する第1の距離s、及び第1の横方向のオフセット(例えば、(s1,ey1))を表すことができる。予測位置824は、参照線814に対する第2の距離s、及び第2の横方向のオフセット(例えば、(s2,ey2))を表すことができる。予測位置826は、参照線814に対する第3の距離s、及び第3の横方向のオフセット(例えば、(s3,ey3))を表すことができる。予測位置828は、参照線814に対する第4の距離s、及び第4の横方向のオフセット(例えば、(s4,ey4))を表すことができる。そして、予測位置830は、参照線814に対する第5の距離s、及び第5の横方向オフセット(例えば、(s5,ey5))を表すことができる。もちろん、位置予測コンポーネント802は、本明細書で論じられるように、より少ない、又はより多い予測位置を決定することができる。
Predicted location 806 may include predicted
図9は、本明細書で述べられる技術を実装するための例示的なシステム900のブロック図を示している。少なくとも1つの例では、システム900は、図1の車両108、及び図6の車両606に対応することができる車両902を含むことができる。
FIG. 9 illustrates a block diagram of an
例示的な車両902は、運転者(または乗員)がいつでも車両を制御することを期待されていない状態で、移動全体のすべての安全上重要な機能を実行することができる車両について述べている、米国道路交通安全局によって発行されたレベル5の分類に従って動作するように構成された自律車両など、運転者なしの車両とすることができる。このような例では、車両902は、すべての駐車機能を含む、移動の開始から完了までのすべての機能を制御するように構成されることができるので、運転者、及び/又はステアリングホイール、加速ペダル、及び/又はブレーキペダルなどの車両902を運転するための制御装置を含まない。これは単なる例であり、本明細書で述べられるシステム、及び方法は、常に運転者によって手動で制御される必要がある車両から、部分的、又は、完全に自律的に制御される車両までを含む、あらゆる地上走行型、空中走行型、または水上走行型の車両に組み込まれる。 An exemplary vehicle 902 may be a driverless vehicle, such as an autonomous vehicle configured to operate according to a Level 5 classification issued by the National Highway Traffic Safety Administration, which describes a vehicle that can perform all safety-critical functions throughout a trip, with no driver (or passenger) expected to control the vehicle at any time. In such an example, the vehicle 902 may be configured to control all functions from the beginning to the completion of a trip, including all parking functions, and thus does not include a driver and/or controls for operating the vehicle 902, such as a steering wheel, accelerator pedal, and/or brake pedal. This is merely an example, and the systems and methods described herein may be incorporated into any ground-based, air-based, or water-based vehicle, including vehicles that must be manually controlled by a driver at all times, to vehicles that are partially or fully autonomously controlled.
車両902は、車両コンピューティングデバイス904、1つ又は複数のセンサーシステム906、1つ又は複数のエミッタ908、1つ又は複数の通信接続部910、少なくとも1つの直接接続部912、及び1つ又は複数の駆動システム914を含むことができる。
The vehicle 902 may include a
車両コンピューティングデバイス904は、1つ又は複数のプロセッサ916と、1つ又は複数のプロセッサ916と通信可能に結合されたメモリ918とを含むことができる。図示された例では、車両902は自律車両であるが、車両902は他の種類の車両、又は、ロボットプラットフォームであり得る。図示された例では、車両コンピューティングデバイス904のメモリ918は、ローカライゼーションコンポーネント920、知覚コンポーネント922、1つ又は複数のマップ924、1つ又は複数のシステムコントローラ926、属性コンポーネント930、目的地予測コンポーネント932、及び位置予測コンポーネント934を備える予測コンポーネント928、及び計画コンポーネント936を格納する。図9では、説明のためにメモリ918に存在するものとして描かれているが、ローカライゼーションコンポーネント920、知覚コンポーネント922、1つ又は複数のマップ924、1つまたは複数のシステムコントローラ926、予測コンポーネント928、属性コンポーネント930、目的地予測コンポーネント932、位置予測コンポーネント934、及び計画コンポーネント936は、付加的に、又は代替的に、車両902にアクセス可能であることが考えられている(例えば、車両902から離れたメモリに格納されている、または別の方法で車両902からアクセス可能である)。
The
少なくと1つの例では、ローカライゼーションコンポーネント920は、車両902の位置、及び/又は方向(例えば、x位置、y位置、z位置、ロール、ピッチ、又はヨーの1つ又は複数)を決定するために、センサーシステム906からデータを受信する機能を含むことができる。例えば、ローカライゼーションコンポーネント920は、環境のマップを含み、及び/又は要求/受信し、マップ内の自律車両の位置、及び/又は方向を連続的に決定することができる。いくつかの例では、ローカライゼーションコンポーネント920は、SLAM(ローカライゼーション、及びマッピングの同時実行)、CLAMS(キャリブレーション、ローカリゼーション、及びマッピングの同時実行)、相対的SLAM、バンドル調整、非線形最小二乗最適化などを利用して、画像データ、LIDARデータ、RADARデータ、Time of flightデータ、IMUデータ、GPSデータ、ホイールエンコーダデータなどを受信し、自律車両の位置を正確に決定することができる。いくつかの例では、ローカライゼーションコンポーネント920は、本明細書で論じられるように、軌道を生成するために、及び/又は物体が1つ又は複数の横断歩道領域に近接していることを決定するために、及び/又は候補参照線を識別するために、自律車両の初期位置を決定するために、車両902の様々なコンポーネントにデータを提供することができる。 In at least one example, the localization component 920 can include functionality for receiving data from the sensor system 906 to determine the position and/or orientation of the vehicle 902 (e.g., one or more of x position, y position, z position, roll, pitch, or yaw). For example, the localization component 920 can include and/or request/receive a map of the environment and continuously determine the position and/or orientation of the autonomous vehicle within the map. In some examples, the localization component 920 can receive image data, LIDAR data, RADAR data, time of flight data, IMU data, GPS data, wheel encoder data, etc., using SLAM (simultaneous localization and mapping), CLAMS (simultaneous calibration, localization, and mapping), relative SLAM, bundle adjustment, nonlinear least squares optimization, etc., to accurately determine the position of the autonomous vehicle. In some examples, the localization component 920 can provide data to various components of the vehicle 902 to determine an initial position of the autonomous vehicle, to generate a trajectory, and/or to determine that an object is in proximity to one or more pedestrian crossing areas, and/or to identify candidate reference lines, as discussed herein.
いくつかの例では、及び一般的には、知覚コンポーネント922は、物体検出、セグメント化、及び/又は分類を実行する機能を含むことができる。いくつかの例では、知覚コンポーネント922は、車両902に近接しているエンティティの存在を示す処理されたセンサーデータ、及び/又はエンティティをエンティティの種類(例えば、自動車、歩行者、自転車、動物、建物、木、路面、縁石、歩道、停止ライト、停止サイン、不明など)として分類することを提供することができる。付加的、又は代替的な例では、知覚コンポーネント922は、検出されたエンティティ(例えば、追跡された物体)、及び/又はエンティティが配置されている環境に関連付けられた1つ又は複数の特徴を示す、処理されたセンサーデータを提供することができる。いくつかの例では、エンティティに関連付けられた特徴は、x位置(グローバル、及び/又はローカル位置)、y位置(グローバル、及び/又はローカル位置)、z位置(グローバル、及び/又はローカル位置)、方向(例えば、ロール、ピッチ、ヨー)、エンティティの種類(例えば、分類)、エンティティの速度、エンティティの加速度、エンティティの範囲(大きさ)などを含むことができるが、これらに限定はされない。環境に関連付けられた特徴は、環境内の別のエンティティの存在、環境内の別のエンティティの状態、時間帯、曜日、季節、天候、暗さ/明るさの表示などを含むことができるが、これらに限定はされない。 In some examples, and generally, the perception component 922 may include functionality to perform object detection, segmentation, and/or classification. In some examples, the perception component 922 may provide processed sensor data indicative of the presence of an entity in proximity to the vehicle 902 and/or classifying the entity as an entity type (e.g., automobile, pedestrian, bicycle, animal, building, tree, road surface, curb, sidewalk, stop light, stop sign, unknown, etc.). In additional or alternative examples, the perception component 922 may provide processed sensor data indicative of one or more features associated with the detected entity (e.g., tracked object) and/or the environment in which the entity is located. In some examples, the features associated with the entity may include, but are not limited to, an x-position (global and/or local position), a y-position (global and/or local position), a z-position (global and/or local position), an orientation (e.g., roll, pitch, yaw), an entity type (e.g., classification), an entity velocity, an entity acceleration, an entity range (size), etc. Features associated with an environment may include, but are not limited to, the presence of another entity in the environment, the state of another entity in the environment, time of day, day of the week, season, weather, darkness/light indication, etc.
メモリ918は、環境内をナビゲートするために車両902によって使用されることができる1つ又は複数のマップ924をさらに含むことができる。この議論の目的のために、マップは、2次元、3次元、又はN次元でモデル化された任意の数のデータ構造であって、トポロジー(交差点など)、街路、山脈、道路、地形、および環境全般などの環境についての情報を提供することができるものであるが、これらに限定はされない。いくつかの例では、マップは、テクスチャ情報(例えば、色情報(例えば、RGB色情報、Lab色情報、HSV/HSL色情報)など)、強度情報(例えば、LIDAR情報、RADAR情報など)、空間情報(例えば、メッシュに投影された画像データ、個々の「サーフェル」(例えば、個々の色、及び/又は強度に関連付けられたポリゴン))、反射率情報(例えば、鏡面反射率情報、再帰反射率情報、BRDF情報、BSSRDF情報など)などを含むことができるが、これらに限定はされない。一例では、マップは、環境の3次元メッシュを含むことができる。いくつかの例では、マップは、マップの個々のタイルが環境の離散的な部分を表すように、タイル形式で格納されることができ、必要に応じてワーキングメモリにロードされることができる。少なくとも1つの例では、1つ又は複数のマップ924は、少なくとも1つのマップ(例えば、画像、及び/又はメッシュ)を含むことができる。 The memory 918 may further include one or more maps 924 that may be used by the vehicle 902 to navigate within the environment. For purposes of this discussion, a map may be any number of data structures modeled in 2-, 3-, or N-dimensions that may provide information about the environment, such as, but not limited to, topology (e.g., intersections), streets, mountain ranges, roads, terrain, and the environment in general. In some examples, the map may include, but is not limited to, texture information (e.g., color information (e.g., RGB color information, Lab color information, HSV/HSL color information), etc.), intensity information (e.g., LIDAR information, RADAR information, etc.), spatial information (e.g., image data projected onto a mesh, individual "surfels" (e.g., polygons associated with individual colors and/or intensities), reflectance information (e.g., specular reflectance information, retroreflectance information, BRDF information, BSSRDF information, etc.), and the like. In one example, the map may include a 3-dimensional mesh of the environment. In some examples, the map can be stored in a tiled format, with each tile of the map representing a discrete portion of the environment, and can be loaded into the working memory as needed. In at least one example, the one or more maps 924 can include at least one map (e.g., an image and/or a mesh).
いくつかの例では、車両902は、マップ924に少なくとも部分的に基づいて、制御されることができる。すなわち、マップ924は、車両902の位置を決定するために、ローカライゼーションコンポーネント920、知覚コンポーネント922、予測コンポーネント928、及び/又は計画コンポーネント936と関連して使用され、環境内の物体を識別し、及び/又は環境内をナビゲートするルート、及び/又は軌道を生成することができる。 In some examples, the vehicle 902 can be controlled based at least in part on the map 924. That is, the map 924 can be used in conjunction with the localization component 920, the perception component 922, the prediction component 928, and/or the planning component 936 to determine a position of the vehicle 902, identify objects within the environment, and/or generate a route and/or trajectory for navigating the environment.
いくつかの例では、1つ又は複数のマップ924は、ネットワーク938を介してアクセス可能なリモートコンピューティングデバイス(コンピューティングデバイス940など)に格納されることができる。いくつかの例では、多様なマップ924は、例えば、特徴(例えば、エンティティの種類、時間帯、曜日、1年の季節など)に基づいて格納されることができる。多様なマップ924を格納することは、同様のメモリ要件を有することができるが、マップ内のデータにアクセスすることができる速度を向上させることができる。
In some examples, one or more maps 924 can be stored on a remote computing device (e.g., computing device 940) accessible via
少なくとも1つの例では、車両コンピューティングデバイス904は、1つ又は複数のシステムコントローラ926を含むことができ、これらのシステムコントローラ926は、車両902の操舵、推進、ブレーキ、安全、エミッタ、通信、及びその他のシステムを制御するように構成されることができる。これらのシステムコントローラ926は、駆動システム914、及び/又は車両902の他の構成要素の対応するシステムと通信、及び/又は制御することができる。
In at least one example, the
一般に、予測コンポーネント928は、環境内の物体に関連付けられた予測情報を生成する機能を含むことができる。いくつかの例では、予測コンポーネント928は、環境内の横断歩道領域(又は道路を横断する歩行者に関連付けられた領域、或いは場所)に近接する歩行者が、横断歩道領域を横切る、又は横切る準備をしているときに、歩行者の位置を予測するように実装されることができる。いくつかの例では、本明細書で論じられる技術は、車両が環境を横断する際に物体(例えば、車両、歩行者など)の位置を予測するために実装されることができる。いくつかの例では、予測コンポーネント928は、対象物体、及び/又は対象物体に近接する他の物体の属性に基づいて、そのような対象物体の1つ又は複数の予測軌道を生成することができる。 In general, the prediction component 928 can include functionality for generating predictive information associated with objects in the environment. In some examples, the prediction component 928 can be implemented to predict the location of a pedestrian proximate a crosswalk area (or area or location associated with pedestrians crossing a road) in the environment when the pedestrian crosses or prepares to cross the crosswalk area. In some examples, the techniques discussed herein can be implemented to predict the location of an object (e.g., a vehicle, a pedestrian, etc.) as the vehicle crosses the environment. In some examples, the prediction component 928 can generate one or more predicted trajectories of the target object based on attributes of the target object and/or other objects proximate the target object.
属性コンポーネント930は、環境内の物体に関連付けられた属性情報を決定する機能を含むことができる。いくつかの例では、属性コンポーネント930は、知覚コンポーネント922からデータを受信し、経時的に物体の属性情報を決定することができる。
The
いくつかの例では、物体(例えば、歩行者)の属性は、経時的に取り込まれたセンサーデータに基づいて決定されることができ、ある時点における歩行者の位置(例えば、位置は上述の参照のフレームで表されることができる)、ある時点における歩行者の速度(例えば、第1の軸(又は他の参照線)に関する大きさ、及び/又は角度)、ある時点における歩行者の加速度の1つ又は複数を含むことができる。歩行者の速度(例えば、第1の軸(又は他の参照線)に関する大きさ、及び/又は角度)、その時の歩行者の加速度、歩行者が走行可能なエリアにいるかどうかの指示(例えば、歩行者が歩道または道路にいるかどうか)、歩行者が横断歩道領域にいるかどうかの指示、歩行者が信号無視をしているかどうかの指示、領域を制御する指示器の状態(例えば、断歩道が信号によって制御されているかどうか、及び/又は信号の状態など)、車両コンテキスト(環境内の車両の存在、及び車両に関連付けられた属性など)、一定期間に横断歩道領域を通過するフラックス(一定期間に横断歩道領域を通過する物体(車両、及び/又は歩行者など)の数など)、物体の関連付け(例えば、歩行者が歩行者のグループの中を移動しているかどうか)、第1の方向(例えば、グローバルなx-方向)における横断歩道までの距離、第2の方向(例えば、グローバルなy-方向)における横断歩道までの距離、横断歩道領域内における道路までの距離(例えば、横断歩道領域内の道路までの最短距離)などを含むことができるが、これに限定はされない。 In some examples, attributes of an object (e.g., a pedestrian) can be determined based on sensor data captured over time and can include one or more of the pedestrian's position at a point in time (e.g., the position can be expressed in the frame of reference described above), the pedestrian's velocity at a point in time (e.g., magnitude and/or angle with respect to a first axis (or other reference line)), and the pedestrian's acceleration at a point in time. The information may include, but is not limited to, the pedestrian's speed (e.g., magnitude and/or angle with respect to a first axis (or other reference line)), the pedestrian's acceleration at that time, an indication of whether the pedestrian is in a drivable area (e.g., whether the pedestrian is on a sidewalk or road), an indication of whether the pedestrian is in a crosswalk area, an indication of whether the pedestrian is running a red light, the state of an indicator controlling the area (e.g., whether the crosswalk is controlled by a signal and/or the state of the signal), vehicle context (e.g., the presence of vehicles in the environment and attributes associated with the vehicles), flux through the crosswalk area over a period of time (e.g., the number of objects (e.g., vehicles and/or pedestrians) passing through the crosswalk area over a period of time), object association (e.g., whether the pedestrian is moving among a group of pedestrians), distance to the crosswalk in a first direction (e.g., global x-direction), distance to the crosswalk in a second direction (e.g., global y-direction), distance to the road within the crosswalk area (e.g., the shortest distance to the road within the crosswalk area), etc.
いくつかの例では、属性は、対象物体(例えば、車両)、及び/又は対象物体に近接している他の物体(例えば、他の車両)に対して決定されることができる。例えば、属性は、物体のある時点における速度、物体のある時点における加速度、物体のある時点における位置(例えば、グローバル座標、又はローカル座標)、物体のある時点で関連付けられた境界ボックス(例えば、物体の範囲、ロール、ピッチ、及び/又はヨーを表す)、物体のある時点で関連付けられた照明の状態(例えば、ヘッドライト、ブレーキライト、ハザードライト、方向指示ライト、バックライトなど)、ある時点における物体とマップ要素との距離(停止線、通行ライン、スピードバンプ、イールドライン、交差点、車道までの距離など)、物体と他の物体との距離、対象物の分類(車、車両、動物、トラック、など)、対象物に関連付けられた特徴(車線変更中かどうか、二重駐車かどうかなど)などを含むことができるが、これに限定はされない。 In some examples, attributes can be determined for the target object (e.g., a vehicle) and/or other objects (e.g., other vehicles) in proximity to the target object. For example, the attributes can include, but are not limited to, the speed of the object at a time, the acceleration of the object at a time, the position of the object at a time (e.g., in global or local coordinates), a bounding box associated with the object at a time (e.g., representing the range, roll, pitch, and/or yaw of the object), the lighting conditions associated with the object at a time (e.g., headlights, brake lights, hazard lights, turn signals, backlights, etc.), the distance of the object to map elements at a time (e.g., distance to stop lines, traffic lines, speed bumps, yield lines, intersections, roadways, etc.), the distance of the object to other objects, the classification of the object (car, vehicle, animal, truck, etc.), features associated with the object (whether or not a lane is being changed, whether or not a vehicle is double-parked, etc.), etc.
いくつかの例では、本明細書で論じられるように、物体の属性の任意の組み合わせが決定されることができる。 In some examples, any combination of object attributes may be determined as discussed herein.
属性は、時間(例えば、時間T-M、...、T-2、T-1、T0(ここで、Mは整数である)において、そして、様々な時間は最新の時間までの任意の時刻を表す)にわたって決定され、目的地予測コンポーネント932、及び/又は位置予測コンポーネント934に入力され、そのような物体に関連付けられた予測情報を決定することができる。
The attributes may be determined over time (e.g., at times T -M , ..., T -2 , T -1 , T 0 (where M is an integer), and the various times represent any time up to the most recent time) and input to a
目的地予測コンポーネント932は、本明細書で論じられるように、環境内の物体の目的地を決定する機能を含むことができる。歩行者のコンテキストでは、目的地予測コンポーネント932は、本明細書で論じられるように、歩行者が横断歩道領域の閾値距離内にいることに基づいて、どの横断歩道領域が歩行者に適用されるかを決定することができる。少なくともいくつかの例では、そのような目的地予測コンポーネント932は、横断歩道の存在にかかわらず、反対側の歩道上の点を決定する。さらに、任意の期間に関連付けられた物体の属性は目的地予測コンポーネント932に入力されることができ、歩行者が横断歩道領域に向かっている、又は横断歩道領域に関連付けられているというスコア、確率、および/または裕度を決定する。
The
いくつかの例では、目的地予測コンポーネント932は、ニューラルネットワーク、完全結合ニューラルネットワーク、畳み込みニューラルネットワーク、リカレントニューラルネットワークなどの機械学習モデルである。
In some examples, the
いくつかの例では、目的地予測コンポーネント932は、歩行者が横断歩道を渡ったイベントを決定するための、データログのレビューによって訓練されることができる。そのようなイベントは識別されることができ、属性は、物体(例えば、歩行者)、及び環境に対して決定されることができ、イベントを表すデータは、訓練データとして識別されることができる。訓練データは、機械学習モデルに入力されることができ、既知の結果(例えば、既知の「未来」の属性などのグランドトゥルース)を使用して、機械学習モデルの重み、及び/又はパラメータを調整し、誤差を最小化することができる。
In some examples, the
位置予測コンポーネント934は、環境内の物体に関連付けられた予測位置を生成、又はその他の方法で決定する機能を含むことができる。例えば、本明細書で論じられるように、属性情報は、対象物体、及び/又は対象物体に近接した他の物体を含む、環境内の1つ又は複数の物体について決定されることができる。いくつかの例では、車両902に関連付けられた属性を使用して、環境内の物体に関連付けられた予測位置を決定することができる。
The
位置予測コンポーネント934は、本明細書で論じられるように、様々な参照のフレームで属性情報を表現する機能をさらに含むことができる。いくつかの例では、位置予測コンポーネント934は、参照のフレームの原点として、時間T0における物体の位置を使用することができ、これは、各時間のインスタンスに対して更新されることができる。
The
いくつかの例では、位置予測コンポーネント934は、(例えば、マップデータに基づいて)環境内の候補参照線を識別する機能を含むことができ、(例えば、類似性スコアに基づいて)参照線を選択して、参照線に関する予測位置を決定することができる。
In some examples, the
いくつかの例では、位置予測コンポーネント934は、ニューラルネットワーク、完全結合ニューラルネットワーク、畳み込みニューラルネットワーク、リカレントニューラルネットワークなどの機械学習モデル、又はそれらの任意の組み合わせである。
In some examples, the
例えば、位置予測コンポーネント934は、データログをレビューし、属性情報を決定することによって訓練されることができる。関連するイベント(例えば、参照線から閾値距離を走行する車両、横断歩道を横断する歩行者、信号無視をする歩行者など)を表す訓練データは、機械学習モデルに入力されることができ、ここで既知の結果(例えば、既知の「未来」の属性/場所などのグランドトゥルース)を使用して、機械学習モデルの重み、及び/又はパラメータを調整し、誤差を最小化することができる。
For example, the
一般に、計画コンポーネント936は、環境を横断するために車両902が従うべき経路を決定することができる。例えば、計画コンポーネント936は、様々なルート及び軌道、及び様々なレベルの詳細を決定することができる。例えば、計画コンポーネント936は、第1の場所(例えば、現在の場所)から第2の場所(例えば、対象となる場所)まで移動するルートを決定することができる。この議論の目的のために、ルートは、2つの場所の間を移動するためのウェイポイントのシーケンスであることができる。非限定的な例として、ウェイポイントは、街路、交差点、グローバルポジショニングシステム(GPS)座標などを含む。さらに、計画コンポーネント936は、第1の場所から第2の場所へのルートの少なくとも一部に沿って自律車両を誘導するための命令を生成することができる。少なくとも1つの例では、計画コンポーネント936は、自律車両を、ウェイポイントのシーケンスにおける第1のウェイポイントから、ウェイポイントのシーケンスにおける第2のウェイポイントまで案内する方法を決定することができる。いくつかの例では、命令は、軌道、又は軌道の一部分であることができる。いくつかの例では、多様な軌道は、Receding horizon技術に従って、実質的に同時に(例えば、技術的な許容範囲内で)生成されることができ、多様な軌道の1つが、車両902がナビゲートするために選択される。 In general, the planning component 936 can determine a path for the vehicle 902 to follow to traverse an environment. For example, the planning component 936 can determine various routes and trajectories, and various levels of detail. For example, the planning component 936 can determine a route to travel from a first location (e.g., a current location) to a second location (e.g., a location of interest). For purposes of this discussion, the route can be a sequence of waypoints for traveling between the two locations. As non-limiting examples, the waypoints include streets, intersections, Global Positioning System (GPS) coordinates, and the like. Additionally, the planning component 936 can generate instructions for guiding the autonomous vehicle along at least a portion of the route from the first location to the second location. In at least one example, the planning component 936 can determine how to guide the autonomous vehicle from a first waypoint in the sequence of waypoints to a second waypoint in the sequence of waypoints. In some examples, the instructions can be a trajectory, or a portion of a trajectory. In some examples, the multiple trajectories can be generated substantially simultaneously (e.g., within technical tolerances) according to a receding horizon technique, and one of the multiple trajectories is selected for the vehicle 902 to navigate.
いくつかの例では、計画コンポーネント936は、環境内の物体に関連付けられた予測位置に少なくとも部分的に基づいて、車両902の1つ又は複数の軌道を生成することができる。いくつかの例では、計画コンポーネント936は、車両902の1つ又は複数の軌道を評価するために、線形時相論理、及び/又は信号時相論理などの時相論理を使用することができる。 In some examples, the planning component 936 can generate one or more trajectories for the vehicle 902 based at least in part on predicted positions associated with objects in the environment. In some examples, the planning component 936 can use temporal logic, such as linear temporal logic and/or signal temporal logic, to evaluate one or more trajectories for the vehicle 902.
理解できるように、本明細書で論じられる構成要素(例えば、ローカライゼーションコンポーネント920、知覚コンポーネント922、1つ又は複数のマップ924、1つ又は複数のシステムコントローラ926、予測コンポーネント928、属性コンポーネント930、目的地予測コンポーネント932、位置予測コンポーネント934、及び計画コンポーネント936)は、説明のために分割されたものとして述べられている。しかし、様々な構成要素によって実行される動作は、組み合わされたり、他の任意の構成要素で実行されたりすることができる。さらに、ソフトウェアで実装されるものとして論じられる構成要素はいずれも、ハードウェアで実装されることができ、その逆も可能である。さらに、車両902に実装された任意の機能は、コンピューティングデバイス940、又は別の構成要素で実装されることができる(そして、その逆も可能である)。
As can be appreciated, the components discussed herein (e.g., localization component 920, perception component 922, one or more maps 924, one or more system controllers 926, prediction component 928,
少なくとも1つの例では、センサーシステム906は、Time of flightセンサー、LIDARセンサー、RADARセンサー、超音波トランスデューサ、ソナーセンサー、位置センサー(例えば、GPS、コンパスなど)、慣性センサー(例えば、慣性測定ユニット(IMU)、加速度計、磁気計、ジャイロスコープなど)、カメラ(RGB、赤外線、強度、深度など)、マイク、ホイールエンコーダ、環境センサー(温度センサー、湿度センサー、光センサー、圧力センサーなど)などを含むことができる。センサーシステム906は、これらの、又は他の種類のセンサーそれぞれの多様なインスタンスを含むことができる。例えば、Time of flightセンサーは、車両902の角部、前部、後部、側面、及び/又は上部に配置された個々のTime of flightセンサーを含むことができる。別の例として、カメラセンサーは、車両902の外部、及び/又は内部の様々な場所に配置された多様なカメラを含むことができる。センサーシステム906は、車両コンピューティングデバイス904に入力を提供することができる。付加的に、又は代替的に、センサーシステム906は、1つ又は複数のネットワーク938を介して、特定の頻度で、所定の期間の経過後に、ほぼリアルタイムで、1つ又は複数のコンピューティングデバイス940にセンサーデータを送信することができる。
In at least one example, the sensor system 906 can include time of flight sensors, LIDAR sensors, RADAR sensors, ultrasonic transducers, sonar sensors, position sensors (e.g., GPS, compass, etc.), inertial sensors (e.g., inertial measurement units (IMUs), accelerometers, magnetometers, gyroscopes, etc.), cameras (RGB, infrared, intensity, depth, etc.), microphones, wheel encoders, environmental sensors (temperature sensors, humidity sensors, light sensors, pressure sensors, etc.), and the like. The sensor system 906 can include multiple instances of each of these or other types of sensors. For example, the time of flight sensors can include individual time of flight sensors located at the corners, front, rear, sides, and/or top of the vehicle 902. As another example, the camera sensors can include multiple cameras located at various locations on the exterior and/or interior of the vehicle 902. The sensor system 906 can provide input to the
車両902は、上述したように、光、及び/又は音を放出するための1つ又は複数のエミッタ908を含むこともできる。この例のエミッタ908は、車両902の乗客と通信するための内部音声、及び映像のエミッタを含む。限定ではなく例として、内部エミッタは、スピーカ、照明、標識、表示画面、タッチスクリーン、触覚エミッタ(例えば、振動、及び/又はフォースフィードバック)、機械的アクチュエータ(例えば、シートベルトテンショナ、シートポジショナ、ヘッドレストポジショナなど)などを含むことができる。本実施例のエミッタ908は、外部エミッタも含む。限定はされないが、本例の外部エミッタは、進行方向、又は車両の動作の他の指示器を知らせるための照明(例えば、方向指示器、標識、ライトアレイなど)、及び歩行者又は他の近くの車両と音声的に通信するための1つ又は複数の音声エミッタ(例えば、スピーカ、スピーカアレイ、ホーンなど)を含み、そのうちの1つ又は複数は、音響ビームステアリング技術を備える。 The vehicle 902 may also include one or more emitters 908 for emitting light and/or sound, as described above. Emitters 908 in this example include internal audio and video emitters for communicating with passengers of the vehicle 902. By way of example and not limitation, internal emitters may include speakers, lights, signs, display screens, touch screens, haptic emitters (e.g., vibration and/or force feedback), mechanical actuators (e.g., seat belt tensioners, seat positioners, head rest positioners, etc.), and the like. Emitters 908 in this example also include external emitters. Exterior emitters in this example include, but are not limited to, lighting (e.g., turn signals, signs, light arrays, etc.) for communicating direction of travel or other indicators of vehicle operation, and one or more audio emitters (e.g., speakers, speaker arrays, horns, etc.) for audibly communicating with pedestrians or other nearby vehicles, one or more of which may include acoustic beam steering technology.
車両902は、車両902と1つ又は複数の他のローカル、又はリモートコンピューティングデバイスとの間の通信を可能にする1つ又は複数の通信接続部910を含むこともできる。例えば、通信接続部910は、車両902、及び/又は駆動システム914上の他のローカルコンピューティングデバイスとの通信を容易にすることができる。また、通信接続部910は、車両が他の近くのコンピューティングデバイス(例えば、他の近くの車両、信号など)と通信することを可能にすることができる。また、通信接続部910は、車両902が、遠隔操作コンピューティングデバイス、又は他の遠隔サービスと通信することも可能にする。
The vehicle 902 may also include one or
通信接続部910は、車両コンピューティングデバイス904を別のコンピューティングデバイス、又はネットワーク938などのネットワークに接続するための物理的、及び/又は論理的インターフェースを含むことができる。例えば、通信接続部910は、IEEE 802.11規格によって定義された周波数を介したようなWi-Fiベースの通信、Bluetooth(登録商標)などの短距離無線周波数、セルラー通信(例えば、2G、3G、4G、4GLTE、5Gなど)、または、それぞれのコンピューティングデバイスが他のコンピューティングデバイスとインターフェースすることを可能にする任意の適切な有線、又は無線通信プロトコルを可能にすることができる。
The
少なくとも1つの例では、車両902は、1つ又は複数の駆動システム914を含むことができる。いくつかの例では、車両902は、単一の駆動システム914を有することができる。少なくとも1つの例では、車両902が多様な駆動システム914を有する場合、個々の駆動システム914は、車両902の反対側の端部(例えば、前部および後部など)に配置されることができる。少なくとも1つの例では、駆動システム914は、駆動システム914、及び/又は車両902の周囲の状態を検出するための1つまたは複数のセンサーシステムを含むことができる。例示であって限定ではないが、センサーシステムは、駆動モジュールの車輪の回転を感知する1つ又は複数のホイールエンコーダ(例えば、ロータリーエンコーダ)、駆動モジュールの方向、及び加速度を測定する慣性センサー(例えば、慣性測定ユニット、加速度計、ジャイロスコープ、磁気計など)、カメラ、又は他の画像センサー、駆動システムの周囲の物体を音響的に検出する超音波センサー、LIDARセンサー、RADARセンサーなどを含むことができる。ホイールエンコーダのようないくつかのセンサーは、駆動システム914に固有のものとすることができる。場合によっては、駆動システム914上のセンサーシステムは、車両902に対応するシステム(例えば、センサーシステム906)と重複、又は補完することができる。
In at least one example, the vehicle 902 can include one or
駆動システム914は、高電圧バッテリ、車両を推進するためのモータ、バッテリからの直流を他の車両システムで使用するために交流に変換するインバータ、ステアリングモータ、及びステアリングラックを含む操舵システム(電気とすることができる)、油圧、又は電気アクチュエータを含むブレーキシステム、油圧、及び/又は空気圧コンポーネントを含むサスペンションシステム、トラクションの損失を緩和し制御を維持するためにブレーキ力を分配するための安定性制御システム、HVACシステム、照明(例えば、車両の外部周辺を照らすヘッド/テールライトなどの照明)、及び1つ又は複数の他のシステム(例えば、冷却システム、安全システム、オンボード充電システム、DC/DCコンバータ、高電圧ジャンクション、高電圧ケーブル、充電システム、充電ポートなどの電気部品など)など、多くの車両システムを含むことができる。さらに、駆動システム914は、センサーシステムからデータを受信及び前処理することができ、様々な車両システムの動作を制御することができる駆動システムコントローラを含むことができる。いくつかの例では、駆動システムコントローラは、1つ又は複数のプロセッサと、1つ又は複数のプロセッサと通信可能に結合されたメモリを含むことができる。メモリは、駆動システム914の様々な機能を実行するための1つ又は複数のコンポーネントを格納することができる。さらに、駆動システム914は、それぞれの駆動システムが1つ又は複数の、他のローカル又はリモートコンピューティングデバイスと通信することを可能にする1つ又は複数の通信接続部も含む。
The
少なくとも1つの例では、直接接続部912は、1つ又は複数の駆動システム914を車両902の本体と結合するための物理的インターフェースを提供することができる。例えば、直接接続部912は、駆動システム914と車両との間で、エネルギー、流体、空気、データなどの転送を与えることができる。いくつかの例では、直接接続部912は、駆動システム914を車両902の本体に対し、さらに解放可能に固定することができる。
In at least one example, the direct connection 912 can provide a physical interface for coupling one or
少なくとも1つの例では、ローカライゼーションコンポーネント920、知覚コンポーネント922、1つ又は複数のマップ924、1つ又は複数のシステムコントローラ926、予測コンポーネント928、属性コンポーネント930、目的地予測コンポーネント932、位置予測コンポーネント934、及び計画コンポーネント936は、上述したように、センサーデータを処理することができ、1つ又は複数のネットワーク938を介して、1つ又は複数のコンピューティングデバイス940に、それぞれの出力を送信することができる。少なくとも1つの例では、ローカライゼーションコンポーネント920、1つ又は複数のマップ924、1つ又は複数のシステムコントローラ926、予測コンポーネント928、属性コンポーネント930、目的地予測コンポーネント932、位置予測コンポーネント934、及び計画コンポーネント936は、特定の頻度で、所定の期間の経過後に、ほぼリアルタイムでなど、それぞれの出力を1つ又は複数のコンピューティングデバイス940に送信することができる。
In at least one example, the localization component 920, the perception component 922, the one or more maps 924, the one or more system controllers 926, the prediction component 928, the
いくつかの例では、車両902は、ネットワーク938を介して1つ又は複数のコンピューティングデバイス940にセンサーデータを送信することができる。いくつかの例では、車両902は、生のセンサーデータをコンピューティングデバイス940に送信することができる。他の例では、車両902は、処理されたセンサーデータ、及び/又はセンサーデータの表現をコンピューティングデバイス940に送信することができる。いくつかの例では、車両902は、特定の頻度で、所定の期間の経過後に、ほぼリアルタイムでなど、センサーデータをコンピューティングデバイス940に送信することができる。いくつかの例では、車両902は、センサデータ(生、又は処理済み)を1つ又は複数のログファイルとしてコンピューティングデバイス940に送信することができる。
In some examples, the vehicle 902 can transmit sensor data over the
コンピューティングデバイス940は、プロセッサ942と、訓練コンポーネント946を格納するメモリ944を含むことができる。 The computing device 940 may include a processor 942 and memory 944 that stores the training component 946.
いくつかの例では、訓練コンポーネント946は、本明細書で論じられるように、予測情報を決定するために1つ又は複数のモデルを訓練する機能を含むことができる。いくつかの例では、訓練コンポーネント946は、異なる状況に対応して車両902を制御する方法を修正するために、1つ又は複数のモデルによって生成された情報を車両コンピューティングデバイス904に通信することができる。
In some examples, the training component 946 can include functionality for training one or more models to determine predictive information, as discussed herein. In some examples, the training component 946 can communicate information generated by the one or more models to the
例えば、訓練コンポーネント946は、本明細書で論じられる予測コンポーネントを生成するため、1つ又は複数の機械学習モデルを訓練することができる。いくつかの例では、訓練コンポーネント946は、データログを検索し、物体に関連付けられた属性、及び/又は位置(例えば、任意の1つ又は複数の参照フレームにおいて)の情報を決定する機能を含むことができる。特定のシナリオに対応するログデータ(例えば、横断歩道領域に近づいて横断する歩行者、信号無視をする歩行者、中央線からオフセットしてカーブを曲がる物体など)は、訓練データを表すことができる。訓練データは、機械学習モデルに入力されることができ、既知の結果(例えば、既知の「未来」の属性などのグランドトゥルース)は、誤差を最小化するために機械学習モデルの重み、及び/又はパラメータを調整するために使用することができる。 For example, the training component 946 can train one or more machine learning models to generate the predictive components discussed herein. In some examples, the training component 946 can include functionality to search the data log and determine attribute and/or location (e.g., in any one or more reference frames) information associated with objects. Log data corresponding to particular scenarios (e.g., pedestrians approaching and crossing a crosswalk area, pedestrians running red lights, objects offset from the center line and rounding a curve, etc.) can represent training data. The training data can be input to the machine learning model, and known results (e.g., ground truth, such as known "future" attributes) can be used to adjust the weights and/or parameters of the machine learning model to minimize error.
例えば、本明細書で論じられる構成要素の一部、又はすべての側面は、任意のモデル、アルゴリズム、及び/又は機械学習アルゴリズムを含むことができる。例えば、いくつかの例では、メモリ944(及び上述のメモリ918)内の構成要素は、ニューラルネットワークとして実装されることができる。いくつかの例では、訓練コンポーネント946は、本明細書で論じられるように、ニューラルネットワークを利用して、センサーデータからセグメント化情報を決定するための1つ又は複数のモデルを生成、及び/又は実行することができる。 For example, some or all aspects of the components discussed herein may include any model, algorithm, and/or machine learning algorithm. For example, in some examples, the components in memory 944 (and memory 918 described above) may be implemented as a neural network. In some examples, training component 946 may utilize a neural network to generate and/or execute one or more models for determining segmentation information from sensor data, as discussed herein.
本明細書で述べられるように、例示的なニューラルネットワークは、入力データを一連の接続された層に通して出力を生成する、生物学的に触発されたアルゴリズムである。ニューラルネットワークの各層は、別のニューラルネットワークを備えることもでき、又は任意の数の層(畳み込みであるか否かは問わない)を備えることもできる。本開示のコンテキストで理解されることができるように、ニューラルネットワークは、機械学習を利用することができ、これは、訓練されたパラメータに基づいて出力が生成されるようなアルゴリズムの広範なクラスを指すことができる。 As described herein, an exemplary neural network is a biologically inspired algorithm that passes input data through a series of connected layers to generate an output. Each layer of a neural network may comprise another neural network, or may comprise any number of layers (convolutional or not). As can be understood in the context of the present disclosure, a neural network may utilize machine learning, which may refer to a broad class of algorithms in which an output is generated based on trained parameters.
ニューラルネットワークのコンテキストで論じられているが、本開示と一致する任意の種類の機械学習が使用されることができる。例えば、機械学習アルゴリズムは、回帰アルゴリズム(例えば、通常の最小二乗回帰(OLSR)、線形回帰、ロジスティック回帰、ステップワイズ回帰、多変量適応回帰スプライン(MARS)、局所的に重み付けされた散布図平滑化(LOESS))、インスタンスベースのアルゴリズム(例えば、リッジ回帰、最小絶対縮退選択演算子(LASSO)、弾性ネット、最小角回帰(LARS))、決定木アルゴリズム(例えば、分類回帰木(CART)、反復二分木3(ID3)、カイ二乗自動相互作用検出(CHAID)、決定スタンプ、条件付き決定木)、ベイジアンアルゴリズム(例えば、ナイーブベイズ、ガウスナイーブベイズ、多項ナイーブベイズ、平均一従属性分類器(AODE)、ベイジアンビリーフネットワーク(BNN)、ベイジアンネットワーク)、クラスタリングアルゴリズム(例えば、k-means、k-medians、期待値最大化(EM)、階層型クラスタリング)、相関ルール学習アルゴリズム(例えば、パーセプトロン、バックプロパゲーション、ホップフィールドネットワーク、Radial Basis Function Network(RBFN))、深層学習アルゴリズム(Deep Boltzmann Machine(DBM)、Deep Belief Networks(DBN)、畳み込みニューラルネットワーク(CNN)、Stacked Auto-Encoders)、次元削減アルゴリズム(例えば、主成分分析(PCA)、主成分回帰(PCR)、部分最小二乗回帰(PLSR)、サモンマッピング、多次元尺度法(MDS)、Projection Pursuit、線形判別分析(LDA)、混合判別分析(MDA)、二次判別分析(QDA)、フレキシブル判別分析(FDA))、アンサンブルアルゴリズム(例えば、Boosting、Bootstrapped Aggregation(Bagging)、AdaBoost、Stacked Generalization(Blending)、Gradient Boosting Machines(GBM)、Gradient Boosted Regression Trees(GBRT)、Random Forest)、SVM(Support Vector Machine)、教師付き学習、教師なし学習、半教師付き学習、などを含むことができるが、これらに限定はされない。 Although discussed in the context of neural networks, any type of machine learning consistent with this disclosure may be used. For example, machine learning algorithms may include regression algorithms (e.g., ordinary least squares regression (OLSR), linear regression, logistic regression, stepwise regression, multivariate adaptive regression splines (MARS), locally weighted scatterplot smoothing (LOESS)), instance-based algorithms (e.g., ridge regression, least absolute attrition selection operator (LASSO), elastic nets, least angle regression (LARS)), decision tree algorithms (e.g., classification and regression trees (CART), iterative binary tree 3 (ID3), chi-squared automated interaction detection (CH2), etc.), and may be used in conjunction with other algorithms. AID), decision stumps, conditional decision trees), Bayesian algorithms (e.g., Naïve Bayes, Gaussian Naïve Bayes, Multinomial Naïve Bayes, Average Ordinary Attribute Classifier (AODE), Bayesian Belief Networks (BNN), Bayesian Networks), clustering algorithms (e.g., k-means, k-medians, Expectation Maximization (EM), Hierarchical Clustering), Association Rule Learning Algorithms (e.g., Perceptron, Backpropagation, Hopfield Networks, Radial Basis Function Network (RBFN)), deep learning algorithms (Deep Boltzmann Machine (DBM), Deep Belief Networks (DBN), Convolutional Neural Networks (CNN), Stacked Auto-Encoders), dimensionality reduction algorithms (e.g., Principal Component Analysis (PCA), Principal Component Regression (PCR), Partial Least Squares Regression (PLSR), Sammon Mapping, Multidimensional Scaling (MDS), Projection Pursuit, Linear Discriminant Analysis (LDA), Mixed Discriminant Analysis (MDA), Quadratic Discriminant Analysis (QDA), Flexible Discriminant Analysis (FDA)), ensemble algorithms (e.g., Boosting, Bootstrapped These may include, but are not limited to, Aggregation (Bagging), AdaBoost, Stacked Generalization (Blending), Gradient Boosting Machines (GBM), Gradient Boosted Regression Trees (GBRT), Random Forest), SVM (Support Vector Machine), supervised learning, unsupervised learning, semi-supervised learning, etc.
アーキテクチャの付加的な例としては、ResNet50、ResNet101、VGG、DenseNet、PointNetなどのニューラルネットワークを含む。 Additional example architectures include neural networks such as ResNet50, ResNet101, VGG, DenseNet, and PointNet.
車両902のプロセッサ916およびコンピューティングデバイス940のプロセッサ942は、動作を実行し、本明細書で述べられているようにデータを処理するための命令を実行することができる任意の適切なプロセッサであることができる。限定ではなく例として、プロセッサ916、及び942は、1つ又は複数の中央処理装置(CPU)、グラフィックス処理装置(GPU)、又は、電子データを処理して、その電子データをレジスタ、及び/又はメモリに格納することができる他の電子データに変換する他の装置、又は、装置の一部を備えることができる。いくつかの例では、集積回路(ASICなど)、ゲートアレイ(FPGAなど)、及びその他のハードウェアデバイスも、コード化された命令を実装するように構成されている限りにおいて、プロセッサとみなすことができる。
The
メモリ918、及び944は、例示的な非一時的コンピュータ可読媒体である。メモリ918、及び944は、本明細書で述べられる方法、及び様々なシステムに帰属する機能を実装するために、動作システム、及び1つ又は複数のソフトウェアアプリケーション、命令、プログラム、及び/又はデータを格納することができる。様々な実装において、メモリは、スタティックランダムアクセスメモリ(SRAM)、シンクロナスダイナミックRAM(SDRAM)、不揮発性/フラッシュ型メモリ、または情報を格納することができる他の種類のメモリなど、任意の適切なメモリ技術を用いて実装されることができる。本明細書で述べられるアーキテクチャ、システム、および個々の要素は、他の多くの論理的、プログラム的、及び物理的な構成要素を含むことができるが、添付の図面に示されているものは、ここでの議論に関する単なる例である。 Memories 918 and 944 are exemplary non-transitory computer-readable media. Memories 918 and 944 may store operating systems and one or more software applications, instructions, programs, and/or data to implement the methods and functions attributed to the various systems described herein. In various implementations, the memory may be implemented using any suitable memory technology, such as static random access memory (SRAM), synchronous dynamic RAM (SDRAM), non-volatile/flash memory, or other types of memory capable of storing information. The architectures, systems, and individual elements described herein may include many other logical, programmatic, and physical components, but those shown in the accompanying drawings are merely examples for the discussion herein.
図9は分散システムとして図示されているが、代替的な例では、車両902の構成要素をコンピューティングデバイス940に関連付けること、及び/又はコンピューティングデバイス940の構成要素を車両902に関連付けることができることに留意すべきである。すなわち、車両902は、コンピューティングデバイス940に関連付けられた機能のうちの1つ又は複数を実行することができ、その逆も可能である。さらに、予測コンポーネント928(及びサブコンポーネント)の側面は、本明細書で論じられているデバイスのいずれかで実行されることができる。 9 is illustrated as a distributed system, it should be noted that in alternative examples, components of the vehicle 902 may be associated with the computing device 940 and/or components of the computing device 940 may be associated with the vehicle 902. That is, the vehicle 902 may perform one or more of the functions associated with the computing device 940, and vice versa. Additionally, aspects of the prediction component 928 (and subcomponents) may be performed on any of the devices discussed herein.
図10は、センサーデータを取り込むこと、物体に関連付けられた属性を決定すること、属性に基づいて予測位置を決定すること、予測位置に基づいて車両を制御することの例示的なプロセス1000を示している。例えば、プロセス1000の一部、又は全ては、本明細書で述べられるように、図9の1つ又は複数の構成要素によって実行されることができる。例えば、プロセス1000の一部、又は全ては、車両コンピューティングデバイス904によって実行されることができる。さらに、例示のプロセス1000に記載された任意の動作は、プロセス1000に示されたものとは異なる順序で、示されるプロセス1000の動作のいずれかを省略して、及び/又は本明細書で論じられる動作のいずれかと組み合わされて、並行で実行される。
10 illustrates an
動作1002において、プロセスは、環境のセンサーデータを受信することを含むことができる。いくつかの例では、動作1002は、環境のTime of flightデータ、LIDARデータ、画像データ、RADARデータなどを受信、及び/又は取り込むことを含むことができる。いくつかの例では、動作1002は、車両が環境を横断する際に車両(例えば、自律車両)によって実行されることができる。
In
動作1004において、プロセスは、センサーデータに少なくとも部分的に基づいて、物体が環境内にあることを決定することを含むことができる。例えば、動作1004は、物体を環境内の歩行者として分類することを含むことができる。いくつかの例では、動作1004は、物体(例えば、歩行者)が、歩道にいるのか、道路にいるのか、信号無視をしているのか、などを決定することを含むことができる。
At
動作1006において、プロセスは、物体が環境内の目的地に関連付けられているかどうかを決定することを含むことができる。例えば、動作1006は、環境のマップデータにアクセスし、横断歩道領域が物体の閾値距離内にあるかどうかを決定することを含むことができる。横断歩道領域が1つあり、物体が歩道にある場合、動作1006は、走行可能なエリアを横切る場所を、目的地として識別することを含むことができる。物体が道路にあり、1つの横断歩道に近接している場合、動作1006は、2つの目的地間の曖昧さを解消することを含むことができる。いくつかの例では、動作1006は、物体に関連付けられた属性に少なくとも部分的に基づいて、物体が特定の横断歩道領域に接近、及び/又は横断する可能性を決定することを含むことができる。いくつかの例では、動作1006は、歩行者に近接した横断歩道領域の存在にかかわらず、そのような目的地を提供する。
In
いくつかの例では、動作1006は、環境内の物体に関連付けられた目的地を決定するために、目的地予測コンポーネント(例えば、目的地予測コンポーネント320)に属性を入力することを含むことができる。いくつかの例では、目的地予測コンポーネント320に入力される属性は、動作1008、及び1010で以下に決定される属性と同じ、又は類似したものとすることができる。いくつかの例では、属性は、環境内の目的地を決定する前に、物体に対して決定されることができる。また、いくつかの例では、属性は、環境内の可能性の高い目的地を決定するために、環境内の異なる目的地に基づく参照フレームを用いて、並行して決定されることができる。
In some examples,
物体が目的地と関連付けられていない場合(例えば、動作1006で「NO」)、動作1006は、環境内の追加データを取り込むために、動作1002を継続されることができる。
If the object is not associated with the destination (e.g., "NO" at operation 1006),
そこで物体が目的地と関連付けられている場合(例えば、動作1006で「YES」)、動作は、動作1008に継続されることができる。
If the object is then associated with the destination (e.g., "YES" at operation 1006), operation can continue to
動作1008において、プロセスは、物体に関連付けられた第1の属性を決定することを含むことができ、第1の属性は、第1の時間に関連付けられる。いくつかの例では、属性は、ある時点における物体(例えば、歩行者)の位置(例えば、位置は、本明細書で論じられる参照のフレームで表されることができる)、物体、又は物体に関連付けられた境界ボックスの大きさ(例えば、長さ、幅、及び/又は高さ)、ある時点における歩行者の速度(例えば、第1の軸(又は他の参照線)に対する大きさ、及び/又は角度)、ある時点における歩行者の加速度、歩行者が走行可能なエリアにいるかどうかの指示(例えば、歩行者が歩道、又は道路にいるかどうか)、歩行者が横断歩道領域にいるかどうかの指示、歩行者が信号無視をしているかどうかの指示、領域を制御する指示器の状態(例えば、横断歩道が信号によって制御されているかどうか、及び/又は信号の状態など)、車両コンテキスト(環境における車両の存在、及び車両に関連付けられた属性など)、一定期間において横断歩道領域を通過するフラックス(一定期間において横断歩道領域を通過する物体(車両、及び/又は追加の歩行者など)の数など)、物体の関連付け(例えば、歩行者が歩行者のグループの中を移動しているかどうか)、第1の方向(例えば、グローバルなx-方向)の横断歩道までの距離、第2の方向(例えば、グローバルなy-方向)の横断歩道までの距離、横断歩道領域内の道路までの距離(例えば、横断歩道領域内の道路までの最短距離)、他の物体までの距離などの1つまたは複数を含むことができるが、これらに限定はされない。
At
動作1010において、プロセスは、物体に関連付けられた第2の属性を決定することを含むことができ、第2の属性は、第1の時間の後の第2の時間に関連付けられる。いくつかの例では、動作1010は(第1の時間に関連付けられた属性のみを決定、及び/又は使用することができるように)省略されることができ、一方、いくつかの例では、付加的な、又は異なる時間インスタンスに関連付けられた属性が決定されることができる。
In
動作1012において、プロセスは、第1の属性、第2の属性、及び目的地に少なくとも部分的に基づいて、第2の時間の後の第3の時間における物体の予測場所を決定することを含むことができる。いくつかの例では、動作1012は、属性情報を位置予測コンポーネント(例えば、位置予測コンポーネント404)に入力すること、及び環境内の物体に関連付けられた予測位置を出力として受信することを含むことができる。本明細書で述べられるように、いくつかの例では、属性、及び/又は予測位置は、第1の時間、及び/又は第2の時間における物体の位置と、環境内における目的地の位置とに少なくとも部分的に基づいて、1つ又は複数の参照のフレームで表現されることができる。
At
動作1014において、プロセスは、予測位置に少なくとも部分的に基づいて、車両を制御することを含むことができる。いくつかの例では、動作1014は、車両を停止させるために、又は安全に環境を横断すべく別の方法で制御するために、軌道を生成することを含むことができる。
In
図11は、センサーデータを取り込むこと、第1の物体、及び第2の物体が環境内にあることを決定すること、第2の物体に関連付けられた属性を決定すること、属性、及び参照線に基づいて予測位置を決定すること、予測位置に基づいて車両を制御することの例示的なプロセスを示している。例えば、プロセス1100の一部、又は全ては、本明細書で述べられるように、図9の1つ又は複数の構成要素によって実行されることができる。例えば、プロセス1100の一部、又は全ては、車両コンピューティングデバイス904によって実行されることができる。さらに、例示されたプロセス1100に記載された任意の動作は、プロセス1100に示されたものとは異なる順序で、示されたプロセス1100の動作のいずれかを省略して、及び/又は本明細書で論じられる動作のいずれかと組み合わされて、並行で実行される。
11 illustrates an exemplary process of capturing sensor data, determining that a first object and a second object are in an environment, determining attributes associated with the second object, determining a predicted position based on the attributes and the reference line, and controlling the vehicle based on the predicted position. For example, some or all of the
動作1102において、プロセスは、環境のセンサーデータを受信することを含むことができる。いくつかの例では、動作1102は、環境のTime of flightデータ、LIDARデータ、画像データ、RADARデータなどを受信、及び/又は取り込むことを含むことができる。いくつかの例では、動作1102は、車両が環境を横断する際に車両(例えば、自律車両)によって実行されることができる。
In
動作1104において、プロセスは、センサーデータに少なくとも部分的に基づいて、第1の物体が環境内にあることを決定することを含むことができる。例えば、動作1104は、本明細書で論じられるように、予測動作の対象となる対象物体を決定することを含むことができる。例として、対象物体を決定することは、環境内の複数の物体から物体を対象物体として選択することを含むことができる。いくつかの例では、対象物体は、対象物体の経路とセンサーデータを取り込む車両(例えば、車両902)との間の交差の可能性、対象物体とセンサーデータを取り込む車両(例えば、車両902)との間の距離などに基づいて選択されることができる。
At
動作1106において、プロセスは、第2の物体が環境内で第1の物体に近接しているかどうかを決定することを含むことができる。いくつかの例では、動作1106は、第2の物体が第1の物体の閾値距離内にあるかどうかを決定することを含むことができる。いくつかの例(例えば、混雑した環境において)では、動作1106は、第1の物体に最も近いN個の物体を決定することを含むことができる(ここで、Nは整数である)。限定されないが、少なくともいくつかの例において、そのような決定は、異なる分類の物体、反対の運動方向の物体などの、特定の特徴を有する物体を除外する。
In
第2の物体が第1の物体に近接していない場合(例えば、動作1106で「NO」)、プロセスは動作1102に戻ることができる。しかしながら、いくつかの例では、プロセスは、第2の物体に関連付けられた属性なしに第1の物体の予測位置が決定される動作1112に継続されることができる(例えば、第1の物体の予測位置は、第1の物体に関連付けられた属性に、少なくとも部分的に基づいて決定されることができる)。すなわち、第1の物体の予測位置は、第2の物体が第1の物体に近接しているか否かにかかわらず、及び/又は任意の第2の物体について属性が決定されているか否かにかかわらず、いくつかの例において決定されることができる。
If the second object is not proximate to the first object (e.g., “NO” at operation 1106), the process may return to
第2の物体が第1の物体に近接している場合(例えば、動作1106で「YES」)、処理は動作1108に継続される。
If the second object is proximate to the first object (e.g., "YES" at operation 1106), processing continues at
動作1108において、プロセスは、第2の物体に関連付けられた第1の属性を決定することを含むことができ、第2の属性は、第1の時間に関連付けられる。いくつかの例では、属性は、第1の物体、第2の物体、及び/又は環境内の他の物体に対して決定されることができる。例えば、属性には、ある時点における物体の速度、ある時点における物体の加速度、ある時点における物体の位置(例えば、グローバル座標、又は、ローカル座標)、ある時点において物体に関連付けられた境界ボックス(例えば、物体の範囲、ロール、ピッチ、及び/又はヨーを表す)、第1の時間において物体に関連付けられた照明の状態(例えば、ヘッドライト、ブレーキライト、ハザードライト、方向指示ライト、バックライトなど)、物体のホイール方向の指示、ある時点における物体とマップ要素との距離(例えば、停止線、通行ライン、スピードバンプ、イールドライン、交差点、車道までの距離など)、1つ又は複数の参照フレームにおける他の物体との相対的な距離、物体の分類(自動車、車両、動物、トラック、自転車など)、物体に関連付けられた特徴(物体が車線変更中であるかどうか、二重駐車車両であるかどうかなど)、車線の特徴などの1つ又は複数を含むことができるが、これらに限定はされない。
At
動作1110において、プロセスは、第2の物体に関連付けられた第2の属性を決定することを含むことができ、第2の属性は、第1の時間の後の第2の時間に関連付けられる。いくつかの例では、動作1110は(第1の時間に関連付けられた属性のみを使用することができるように)省略されることができ、一方でいくつかの例では、付加的な、又は、異なる時間インスタンスに関連付けられた属性が決定されることができる。
In
動作1112において、プロセスは、第1の属性および第2の属性に少なくとも部分的に基づいて、第2の時間の後の第3の時間における第1の物体の予測位置を決定することを含むことができ、予測位置は、環境内の参照線に関する。いくつかの例では、動作1112は、第1の物体に関連付けられた予測位置を決定するために、第1の物体、及び/又は第2の物体に関連付けられた属性情報を位置予測コンポーネント(例えば、位置予測コンポーネント802)に入力することを含むことができる。
At
いくつかの例では、動作1112は、予測位置に最も密接に関連付けられた参照線を受信する、または他の方法で決定すること、及び参照線に関する予測位置を表すことを含むことができる。例えば、動作1112は、予測位置と候補参照線との間の類似性スコアを決定し、類似性スコアに基づいて参照線を選択すること、又は任意の他の機構を含むことができる。
In some examples,
動作1114において、プロセスは、予測位置に少なくとも部分的に基づいて、車両を制御することを含むことができる。いくつかの例では、動作1114は、車両を停止させるために、又は安全に環境を横断すべく車両を別の方法で制御するために、軌道を生成することを含むことができる。
In
(例示項)
A:システムであって、1つ又は複数のプロセッサと、命令が実行されると、自律車両のセンサーを使用して環境のセンサーデータを取り込むことと、センサーデータに少なくとも部分的に基づいて、物体が環境内にあることを決定することと、マップデータ、及びセンサーデータに少なくとも部分的に基づいて、物体が環境内の目的地に関連付けられていることを決定することと、物体に関連付けられた第1の属性を決定することであって、第1の属性は第1の時間に関連付いていることと、物体に関連付けられた第2の属性を決定することであって、第2の属性は、第1の時間の後の第2の時間に関連付いていることと、第1の属性、第2の属性、及び目的地を機械学習モデルに入力することであって、第1の属性、及び第2の属性は、目的地に少なくとも部分的に基づいた参照のフレームによって表されることと、機械学習モデルから、第2の時間の後の第3の時間における物体の予測位置を受信することと、第3の時間での環境内における物体の予測位置に少なくとも部分的に基づいて、自律車両を制御することと、を備えた動作をシステムに実行させる1つ又は複数のプロセッサによって実行可能な命令を格納する1つ又は複数のコンピュータ可読媒体と、を備えたシステム。
(Example item)
A: A system comprising: one or more processors; and one or more computer-readable media storing instructions executable by the one or more processors that, when executed, cause the system to perform operations comprising: capturing sensor data of an environment using sensors of an autonomous vehicle; determining that an object is within the environment based at least in part on the sensor data; determining that the object is associated with a destination within the environment based at least in part on the map data and the sensor data; determining a first attribute associated with the object, the first attribute associated with a first time; determining a second attribute associated with the object, the second attribute associated with a second time after the first time; inputting the first attribute, the second attribute, and the destination into a machine learning model, the first attribute and the second attribute represented by a frame of reference based at least in part on the destination; receiving from the machine learning model a predicted position of the object at a third time after the second time; and controlling the autonomous vehicle based at least in part on the predicted position of the object in the environment at the third time.
B:段落Aのシステムであって、物体が歩行者であり、目的地が環境内の横断歩道領域の周囲に関連付けられ、歩行者に関連付く走行可能な面に対向する、システム。 B: The system of paragraph A, wherein the object is a pedestrian and the destination is associated with the perimeter of a crosswalk area in the environment and faces a drivable surface associated with the pedestrian.
C:段落A又はBのシステムであって、動作は、第1の属性、及び第2の属性を目的地予測コンポーネントに入力することに少なくとも部分的に基づいて、物体が目的地に関連付けられていると決定することと、目的地予測コンポーネントから目的地を受信することであって、目的地予測コンポーネントは他の機械学習モデルを備えることと、をさらに備えたシステム。 C: The system of paragraph A or B, further comprising an operation of determining that the object is associated with a destination based at least in part on inputting the first attribute and the second attribute into a destination prediction component, and receiving the destination from the destination prediction component, the destination prediction component comprising another machine learning model.
D:段落AからCのいずれかのシステムであって、動作は、第3の時間における物体に関連付けられた予測位置が、参照のフレームに少なくとも部分的に基づいた横方向のオフセットと、第2の時間における物体の位置と予測位置との間の差を表す、参照のフレームの軸に沿った距離とを備えることをさらに備えたシステム。 D: Any of the systems of paragraphs A to C, wherein the operation further comprises: the predicted position associated with the object at the third time comprises a lateral offset based at least in part on the frame of reference, and a distance along an axis of the frame of reference representing a difference between the position of the object at the second time and the predicted position.
E:段落AからDのいずれかのシステムであって、動作は、参照のフレームを設立することであって、第2の時間における物体の第1の位置が、参照のフレームの座標に関連付けられ、第1の軸が、目的地と材表に少なくとも部分的に基づいており、第2の軸が、第1の軸に対して垂直であり、予測位置は参照のフレームに少なくとも部分的に基づいていることをさらに備えたシステム。 E: Any of the systems of paragraphs A to D, further comprising: an operation of establishing a frame of reference, the first position of the object at the second time being associated with coordinates of the frame of reference, the first axis being based at least in part on the destination and the surface of material, the second axis being perpendicular to the first axis, and the predicted position being based at least in part on the frame of reference.
F:方法であって、環境を表すセンサーデータを受信することと、センサーデータに少なくとも部分的に基づいて、物体が環境内にあることを決定することと、環境内の位置を決定することであって、位置は横断歩道領域に関連付けられていることと、物体に関連付けられた第1の属性を決定することでって、第1の属性は第1の時間に関連付いていることと、物体に関連付けられた第2の属性を決定することであって、第2の属性は第1の時間の後の第2の時間に関連付いていることと、第1の属性、第2の属性、及び位置を危害学習モデルに入力することと、機械学習モデルから、第2の時間の後の第3の時間における物体に関連付けられた予測位置を受信することと、を備えた方法。 F: A method comprising: receiving sensor data representative of an environment; determining, based at least in part on the sensor data, that an object is in the environment; determining a location in the environment, the location associated with a pedestrian crossing area; determining a first attribute associated with the object, the first attribute associated with a first time; determining a second attribute associated with the object, the second attribute associated with a second time after the first time; inputting the first attribute, the second attribute, and the location into a machine learning model; and receiving from the machine learning model a predicted location associated with the object at a third time after the second time.
G:段落Fの方法であって、車両上のセンサーを使用してセンサーデータを取り込むことと、第3の時間における環境内の物体の予測位置に少なくとも部分的に基づいて、車両を制御することと、をさらに備えた方法。 G: The method of paragraph F, further comprising capturing sensor data using a sensor on the vehicle and controlling the vehicle based at least in part on a predicted position of the object in the environment at a third time.
H:段落F又はGの方法であって、位置は第1の位置であり、環境を表すマップデータ、又はセンサーデータの少なくとも1つに少なくとも部分的に基づいて第1の位置を決定することと、第1の位置に関連付けられた閾値領域を決定することと、環境内における物体の第2の位置を決定することと、物体の第2の位置閾値領域内にあると決定することと、第2の位置が閾値領域内にあることに少なくとも部分的に、及び第1の属性、又は第2の属性の少なくとも1つとに少なくとも部分的に基づいて、物体に関連付けられた目的地として位置を選択することと、をさらに備えた方法。 H: The method of paragraph F or G, wherein the location is a first location, further comprising: determining the first location based at least in part on at least one of map data or sensor data representative of the environment; determining a threshold area associated with the first location; determining a second location of the object within the environment; determining that the second location of the object is within a threshold area; and selecting the location as a destination associated with the object based at least in part on the second location being within the threshold area and at least in part on the first attribute or at least one of the second attributes.
I:段落FからHのいずれかの方法であって、位置は第1の位置であり、参照のフレームを設立することであって、第2の時間における物体の第2の位置が参照のフレームの座標に関連付けられ、第1の軸が座標、及び第1の位置に少なくとも部分的に基づいており、第2の軸が第1の軸に垂直であり、第1の属性が参照のフレームに少なくとも部分的に基づいていることをさらに備えた方法。 I: The method of any of paragraphs F-H, wherein the location is a first location, and further comprising establishing a frame of reference, wherein a second location of the object at a second time is associated with coordinates of the frame of reference, the first axis being based at least in part on the coordinates and the first location, the second axis being perpendicular to the first axis, and the first attribute being based at least in part on the frame of reference.
J:段落Iの方法であって、第2の時間における物体の速度を決定することと、速度を表す速度ベクトルと第1の軸との間の角度を決定することと、をさらに備え、第2の属性は角度を備える方法。 J: The method of paragraph I, further comprising determining a velocity of the object at a second time and determining an angle between a velocity vector representing the velocity and the first axis, the second attribute comprising the angle.
K:段落I又はJの方法であって、位置は第1の位置であり、第3の時間における物体に関連付けられた予測位置が、第2の軸に対する横方向のオフセットと、第2の時間における物体の第2の位置と予測位置との間の差を表す第1の軸に沿った距離とを備えた方法。 K: The method of paragraph I or J, wherein the location is a first location and the predicted location associated with the object at a third time comprises a lateral offset relative to the second axis and a distance along the first axis representing a difference between the second location and the predicted location of the object at the second time.
L:段落FからKのいずれかの方法であって、一定期間において横断歩道領域に入る物体の数を決定することをさらに備え、第2の属性は物体の数を備えた方法。 L: The method of any of paragraphs F-K, further comprising determining a number of objects entering the crosswalk area during a period of time, the second attribute comprising the number of objects.
M:段落FからLのいずれかの方法であって、物体は第1の物体であり、センサーデータに少なくとも部分的に基づいて第2の物体が環境内にあることを決定することと、第2の物体に関連付けられた位置、速度、又は加速度の少なくとも1つを、物体コンテキストとして決定することと、物体コンテキストに少なくとも部分的にさらに基づいて、物体に関連付けられた予測位置を決定することと、をさらに備えた方法。 M: The method of any of paragraphs F to L, wherein the object is a first object, further comprising: determining that a second object is in the environment based at least in part on the sensor data; determining at least one of a position, a velocity, or an acceleration associated with the second object as an object context; and determining a predicted position associated with the object further based at least in part on the object context.
N:段落FからMのいずれかの方法であって、ビン化された予測位置を決定するために予測位置の少なくとも一部をビン化することをさらに備えた方法。 N: Any of the methods of paragraphs F to M, further comprising binning at least a portion of the predicted locations to determine binned predicted locations.
O:段落FからNのいずれかの方法であって、第1の属性が、第1の時間における物体の位置、第1の時間における物体の速度、第1の時間における物体の進路、第1の時間における物体と横断歩道領域の第1の部分との間の第1の距離、第1の時間における物体と横断歩道領域の第2の部分との間の第2の距離、第1の時間における物体の加速度、物体が走行可能なエリアにあるかどうかの指示、領域を制御すり指示器の状態、車両コンテキスト、又は物体の関連付け、の少なくとも1つを備えた方法。 O: The method of any of paragraphs F to N, wherein the first attribute comprises at least one of: a position of the object at a first time; a velocity of the object at a first time; a path of the object at a first time; a first distance between the object and a first portion of the pedestrian crossing area at a first time; a second distance between the object and a second portion of the pedestrian crossing area at a first time; an acceleration of the object at a first time; an indication of whether the object is in a drivable area; a state of a control area indicator; a vehicle context; or an association of the object.
P:実行されたとき、1つ又は複数のプロセッサに対して動作を実行させる命令を格納した非一時的コンピュータ可読媒体であって、動作は、環境を表すセンサーデータを受信することと、センサーデータに少なくとも部分的に基づいて、物体が環境内にあることを決定することと、環境内における位置を決定することであって、位置は環境の横断歩道領域、又は走行不能領域の少なくとも1つに関連付けられていることと、物体に関連付けられた第1の属性を決定することであって、第1の属性は第1の時間に関連付いていることと、物体に関連付けられた第2の属性を決定することであって、第2の属性は第1の時間の後の第2の時間に関連付いていることと、第1の属性、第2の属性、及び位置を機械学習モデルに入力することと、機械学習モデルから、第2の時間の後の第3の時間における物体に関連付けられた予測位置を受信することと、を備えた非一時的コンピュータ可読媒体。 P: A non-transitory computer-readable medium having stored thereon instructions that, when executed, cause one or more processors to perform operations including receiving sensor data representative of an environment; determining, based at least in part on the sensor data, that an object is within the environment; determining a location within the environment, the location associated with at least one of a crosswalk area or a non-driveable area of the environment; determining a first attribute associated with the object, the first attribute associated with a first time; determining a second attribute associated with the object, the second attribute associated with a second time after the first time; inputting the first attribute, the second attribute, and the location into a machine learning model; and receiving from the machine learning model a predicted location associated with the object at a third time after the second time.
Q:段落Pの非一時的コンピュータ可読媒体であって、位置は第1の位置であり、動作が、環境を表すマップデータ、又は環境を表すセンサーデータの少なくとも1つに少なくとも部分的に基づいて、第1の位置を決定することと、第1の位置に関連付けられた閾値領域を決定することと、環境内の物体の第2の位置を決定することと、物体の第2の位置が閾値領域内にあることを決定することと、物体の第2の位置が閾値領域内にあること、及び第1の属性、又は、第2の属性の少なくとも一つとに少なくとも部分的に基づいて、物体に関連付けられた目的地として第1の位置を選択することと、をさらに備えた非一時的コンピュータ可読媒体。 Q: The non-transitory computer-readable medium of paragraph P, wherein the location is a first location, and the operations further include determining the first location based at least in part on at least one of map data representing the environment or sensor data representing the environment, determining a threshold area associated with the first location, determining a second location of an object within the environment, determining that the second location of the object is within the threshold area, and selecting the first location as a destination associated with the object based at least in part on that the second location of the object is within the threshold area and at least one of the first attribute or the second attribute.
R:段落P又はQの非一時的コンピュータ可読媒体であって、位置は第1の位置であり、動作は、参照のフレームを設立することであって、第2の時間における物体の第2の位置が参照のフレームの座標に関連付けられ、第1の軸が座標、及び第1の位置に少なくとも部分的に基づいており、第2の軸が第1の軸に対して垂直であり、第1の属性は参照のフレームに少なくとも部分的に基づいている非一時的コンピュータ可読媒体。 R: The non-transitory computer readable medium of paragraph P or Q, wherein the location is a first location, and the operation is establishing a frame of reference, wherein a second location of the object at a second time is associated with coordinates of the frame of reference, a first axis is based at least in part on the coordinates and the first location, a second axis is perpendicular to the first axis, and the first attribute is based at least in part on the frame of reference.
S:段落Rの非一時的コンピュータ可読媒体であって、位置は第1の位置であり、第3の時間における物体に関連付けられた予測位置が、第2の軸に沿った横方向のオフセットと、第2の時間における物体の第2の位置と予測位置との差を表す第1の軸に沿った距離とを備える非一時的コンピュータ可読媒体。 S: The non-transitory computer readable medium of paragraph R, wherein the location is a first location and a predicted location associated with the object at a third time comprises a lateral offset along a second axis and a distance along the first axis representing a difference between the second location of the object at the second time and the predicted location.
T:段落PからSのいずれかの非一時的コンピュータ可読媒体であって、物体が横断歩道領域に関連付けられていないことを決定することと、位置が環境の走行不能領域に関連付けられていることを決定することと、をさらに備えた非一時的コンピュータ可読媒体。 T: The non-transitory computer-readable medium of any of paragraphs P to S, further comprising determining that the object is not associated with a pedestrian crossing area and determining that the location is associated with a non-driveable area of the environment.
U:システムであって、1つ又は複数のプロセッサと、1つ又は複数のプロセッサによって実行可能な指示を格納した1つ又は複数のコンピュータ可読媒体であって、実行されると命令はシステムに対して、自律車両上のセンサーを使用して環境のセンサーデータを取り込むことと、センサーデータに少なくとも部分的に基づいて、物体が環境内にあることを決定することと、環境内の物体に関連付けられた参照線を受信することと、物体に関連付けられた第1の属性を決定することであって、第1の属性は第1の時間に関連付けられていることと、物体に関連付けられた第2の属性を決定することであって、第2の属性は第1の時間の後の第2の時間に関連付けられていることと、第1の属性、第2の属性、及び参照線を機械学習モデルに入力することと、機械学習モデルから、第2の時間の後の第3の時間における物体の予測位置を受信することであって、予測位置が環境内の参照線に関することと、第3の時間における環境内の物体の予測位置に少なくとも部分的に基づいて、自律車両を制御することと、を備えた動作を実行させる1つ又は複数のコンピュータ可読媒体と、を備えたシステム U: A system comprising one or more processors and one or more computer-readable media having instructions executable by the one or more processors stored thereon, the instructions, when executed, causing the system to perform operations comprising: capturing sensor data of an environment using sensors on the autonomous vehicle; determining that an object is in the environment based at least in part on the sensor data; receiving a reference line associated with the object in the environment; determining a first attribute associated with the object, the first attribute being associated with a first time; determining a second attribute associated with the object, the second attribute being associated with a second time after the first time; inputting the first attribute, the second attribute, and the reference line into a machine learning model; receiving from the machine learning model a predicted position of the object at a third time after the second time, the predicted position being relative to the reference line in the environment; and controlling the autonomous vehicle based at least in part on the predicted position of the object in the environment at the third time.
V:段落Uのシステムであって、物体は第1の物体であり、動作は第1の物体に近接する第2の物体に関連付けられた第3の属性を決定することであって、第3の属性は第1の時間に関連付けられていることと、第2の物体に関連付けられた第4の属性であって、第4の属性は第2の時間に関連付けられていることと、第3の時間における第1の物体の予測位置を決定するために、第3の属性、及び第4の属性を機械学習モデルに入力することと、をさらに備えたシステム。 V: The system of paragraph U, further comprising: the object is a first object; the action is determining a third attribute associated with a second object proximate to the first object, the third attribute being associated with a first time; and a fourth attribute associated with the second object, the fourth attribute being associated with a second time; and inputting the third attribute and the fourth attribute into a machine learning model to determine a predicted location of the first object at the third time.
W:段落Vのシステムであって、第1の属性、第2の属性、第3の属性、又は第4の属性の少なくとも1つは、
第1の時間における第2の物体の速度、
第1の時間における第2の物体の加速度、
第1の時間における第2の物体の位置、
第1の時間における第2の物体に関連付けられた境界ボックス、
第1の時間における第2の物体に関連付けられた照明の状態、
第2の物体と第1の時間におけるマップ要素との間の第1の距離、
第1の物体と第2の物体との間の第2の距離、
第2の物体の分類、
又は第2の物体に関連付けられた特徴、
の少なくとも1つを備えるシステム。
W: The system of paragraph V, wherein at least one of the first attribute, the second attribute, the third attribute, or the fourth attribute is
the velocity of the second object at the first time;
the acceleration of the second object at the first time;
a position of a second object at a first time;
a bounding box associated with the second object at the first time;
a lighting condition associated with a second object at a first time;
a first distance between the second object and the map element at a first time;
a second distance between the first object and the second object;
Classifying the second object;
or a feature associated with a second object;
A system comprising at least one of the following:
X:段落UからWのいずれかのシステムであって、予測位置が参照線に沿った距離、及び参照線からの横方向のオフセットを備えたシステム。 X: Any system of paragraphs U to W, where the predicted position is a distance along the reference line and a lateral offset from the reference line.
Y:段落UからXのいずれかのシステムであって、機械学習モデルは第1の機械学習モデルであり、参照線は、参照線を出力するように訓練された第2の機械学習モデルから受信されるシステム。 Y: Any of the systems of paragraphs U to X, wherein the machine learning model is a first machine learning model and the reference line is received from a second machine learning model trained to output the reference line.
Z:方法であって、環境を表すセンサーデータを受信することと、物体が環境内にあることを決定することと、物体に関連付けられた参照線を受信することと、物体に関連付けられた第1の属性を決定することであって、第1の属性は第1の時間に関連付けられていることと、物体に関連付けられた第2の属性を決定することであって、第2の属性は第1の時間の後の第2の時間に関連付けられていることと、第1の属性、第2の属性、及び参照線を機械学習モデルに入力することと、機械学習モデルから、第2の時間の後の第3の時間における物体の予測位置を受信することであって、予測位置は環境内の参照線に関することと、を備えた方法。 Z: A method comprising: receiving sensor data representing an environment; determining that an object is in the environment; receiving a reference line associated with the object; determining a first attribute associated with the object, the first attribute being associated with a first time; determining a second attribute associated with the object, the second attribute being associated with a second time after the first time; inputting the first attribute, the second attribute, and the reference line into a machine learning model; and receiving from the machine learning model a predicted position of the object at a third time after the second time, the predicted position relative to the reference line in the environment.
AA:段落Zの方法であって、車両のセンサーを使用してセンサーデータを取り込むことと、第3の時間における環境内の物体の予測位置に少なくとも部分的に基づいて、車両を制御することと、をさらに備えた方法。 AA: The method of paragraph Z, further comprising: capturing sensor data using a sensor of the vehicle; and controlling the vehicle based at least in part on a predicted position of the object in the environment at a third time.
AB:段落AAの方法であって、物体は環境内の多数の物体の1つであり、物体と環境内の車両との距離に少なくとも部分的に基づいて、物体を対象物体として選択することをさらに備えた方法。 AB: The method of paragraph AA, wherein the object is one of a number of objects in the environment, and further comprising selecting the object as a target object based at least in part on a distance between the object and the vehicle in the environment.
AC:段落ZからABのいずれかの方法であって、物体が環境内の多数の物体の1つであり、物体は対象物体であり、対象物体に近接した多数の物体に少なくとも部分的に基づいて、多数の物体の数を選択することと、物体に関連付けられた属性を決定することと、予測位置を決定するために属性を機械学習モデルに入力することと、をさらに備えた方法。 AC: The method of any of paragraphs Z to AB, wherein the object is one of a number of objects in an environment, the object being a target object, further comprising: selecting a number of the number of objects based at least in part on a number of objects proximate to the target object; determining attributes associated with the object; and inputting the attributes into a machine learning model to determine a predicted location.
AD:段落ACの方法であって、物体に関連付けられた分類に少なくとも部分的に基づいて、物体を選択することをさらに備えた方法。 AD: The method of paragraph AC, further comprising selecting an object based at least in part on a classification associated with the object.
AE:段落ZからADのいずれかの方法であって、参照線は走行可能なエリアの中央線に対応し、予測位置は参照線に沿った距離、及び参照線からの横方向のオフセットを備えた方法。 AE: Any of the methods of paragraphs Z to AD, in which the reference line corresponds to a center line of the driveable area and the predicted position includes a distance along the reference line and a lateral offset from the reference line.
AF:段落ZからAEのいずれかの方法であって、第1の属性、及び第2の属性は、参照のフレーム関して表され、参照のフレームの座標は、第2の時間における物体の位置に少なくとも部分的に基づいている方法。 AF: Any of the methods of paragraphs Z to AE, wherein the first attribute and the second attribute are expressed with respect to a frame of reference, and the coordinates of the frame of reference are based at least in part on the position of the object at the second time.
AG:段落ZからAFのいずれかの方法であって、第1の属性が、第1の時間における物体の速度、第1の時間における物体の加速度、第1の時間における物体の位置、第1の時間における物体に関連付けられた境界ボックス、第1の時間における物体に関連付けられた照明の状態、第1の時間における物体とマップ要素との間の距離、物体の分類、物体に関連付けられた特徴の少なくとも1つを備えた方法。 AG: Any of the methods of paragraphs Z to AF, wherein the first attribute comprises at least one of: a velocity of the object at the first time, an acceleration of the object at the first time, a position of the object at the first time, a bounding box associated with the object at the first time, a lighting condition associated with the object at the first time, a distance between the object and a map element at the first time, a classification of the object, and a feature associated with the object.
AH:段落AGの方法であって、物体は第1の物体であり、距離は第1の距離であり、第2の物体が環境内の第1の物体に近接していることを決定することであって、第1の属性は、第1の時間における第1の物体と第2の物体との間の第2の距離をさらに備えた方法。 AH: The method of paragraph AG, wherein the object is a first object, the distance is a first distance, and determining that a second object is in proximity to the first object in the environment, the first attribute further comprising a second distance between the first object and the second object at a first time.
AI:実行されると、1つ又は複数のプロセッサに対して動作を実行させる命令を格納した非一時的コンピュータ可読媒体であって、動作は、環境を表すセンサーデータを受信することと、センサーデータに少なくとも部分的に基づいて、物体が環境内にあることを決定することと、物体に関連付けられた参照線を受信することと、物体に関連付けられた第1の属性を決定することで合って、第1の属性は第1の時間に関連付けられていることと、物体に関連付けられた第2の属性であって、第2の属性は第1の時間の後の第2の時間に関連付けられていることと、第1の属性、第2の属性、及び参照線を機械学習モデルに入力することと、機械学習モデルから、第2の時間の後の第3の時間における物体の予測位置を受信することであって、予測位置は環境内の参照線に関することと、を備えた非一時的コンピュータ可読媒体。 AI: A non-transitory computer-readable medium having stored thereon instructions that, when executed, cause one or more processors to perform operations including receiving sensor data representative of an environment; determining, based at least in part on the sensor data, that an object is in the environment; receiving a reference line associated with the object; determining a first attribute associated with the object, the first attribute being associated with a first time; a second attribute associated with the object, the second attribute being associated with a second time after the first time; inputting the first attribute, the second attribute, and the reference line into a machine learning model; and receiving from the machine learning model a predicted position of the object at a third time after the second time, the predicted position being relative to the reference line in the environment.
AJ:段落AIの非一時的コンピュータ可読媒体であって、物体は第1の物体であり、動作は、第2の物体が環境内の第1の物体に近接していることを決定することと、第2の物体に関連付けられた第3の属性を決定することであって、第3の属性は第1の時間に関連付けられていることと、第2の物体に関連付けられた第4の属性を決定することで合って、第4の属性は第2の時間に関連付けられていることと、第1の物体に関連付けられた予測位置を決定するために、第3の属性、及び第4の属性を機械学習モデルに入力することと、をさらに備えた非一時的コンピュータ可読媒体。 AJ: The non-transitory computer readable medium of paragraph AI, further comprising: determining that a second object is in proximity to the first object in the environment; determining a third attribute associated with the second object, the third attribute being associated with a first time; determining a fourth attribute associated with the second object, the fourth attribute being associated with a second time; and inputting the third attribute and the fourth attribute into a machine learning model to determine a predicted location associated with the first object.
AK:段落AI又はAJの非一時的コンピュータ可読媒体であって、第1の属性、及び第2の属性は参照のフレームに関して表され、参照のフレームの座標は、第2の時間における物体の位置に少なくとも部分的に基づいている非一時的コンピュータ可読媒体。 AK: The non-transitory computer-readable medium of paragraph AI or AJ, wherein the first attribute and the second attribute are expressed with respect to a frame of reference, and the coordinates of the frame of reference are based at least in part on the position of the object at the second time.
AL:段落AKの非一時的コンピュータ可読媒体であって、予測位置が、参照線に沿った距離、及び参照線からの横方向のオフセットとして表される非一時的コンピュータ可読媒体。 AL: A non-transitory computer-readable medium of paragraph AK, in which the predicted position is represented as a distance along a reference line and a lateral offset from the reference line.
AM:段落AIからALのいずれかの非一時的コンピュータ可読媒体であって、第1の属性が、第1の時間における物体の速度、第1の時間における物体の加速度、第1の時間における物体の位置、第1の時間における物体に関連付けられた境界ボックス、第1の時間における物体に関連付けられた照明の状態、第1の時間における物体とマップ要素との間の距離、物体の分類、又は物体に関連付けられた特徴の少なくとも1つを備えた非一時的コンピュータ可読媒体。 AM: The non-transitory computer readable medium of any of paragraphs AI to AL, wherein the first attribute comprises at least one of a velocity of the object at the first time, an acceleration of the object at the first time, a position of the object at the first time, a bounding box associated with the object at the first time, a lighting condition associated with the object at the first time, a distance between the object and a map element at the first time, a classification of the object, or a feature associated with the object.
AN:段落AMの非一時的コンピュータ可読媒体であって、物体は第1の物体であり、距離は第1の距離であり、第1の属性は、第1の時間における第1の物体と第2の物体との間の第2の距離さらに備える非一時的コンピュータ可読媒体。 AN: The non-transitory computer-readable medium of paragraph AM, wherein the object is a first object, the distance is a first distance, and the first attribute further comprises a second distance between the first object and a second object at a first time.
上述の例示項は、ある特定の実装に関して述べられるているが、本書のコンテキストでは、例示項の内容は、方法、装置、システム、コンピュータ可読媒体、及び/又は別の実装を介して実装されることもできることが理解されるべきである。 Although the above example terms are described with respect to certain implementations, it should be understood that in the context of this document, the subject matter of the example terms may also be implemented via methods, apparatus, systems, computer-readable media, and/or other implementations.
(結論)
本明細書で述べられる技術の1つ又は複数の例が説明されているが、その様々な変更、追加、交換、及び等価なものは、本明細書で述べられる技術の範囲内に含まれる。
(Conclusion)
One or more examples of the technology described herein have been described; however, various modifications, additions, permutations, and equivalents thereof fall within the scope of the technology described herein.
例の説明では、本明細書の一部を構成する添付の図面を参照し、請求された主題の具体的な例を例示している。他の例が使用されることは可能であり、また、構造的な変更などの変更または代替を行うことが可能であることを理解されたい。そのような例、変更または代替は、意図された請求項の主題に関する範囲から必ずしも逸脱するものではない。本明細書の手順は、一定の順序で提示することができるが、場合によっては、記載されたシステムおよび方法の機能を変更することなく、特定の入力が異なるタイミングまたは異なる順序で提供されるように、順序を変更することが可能である。また、開示された手順を異なる順序で実行することも可能である。さらに、本明細書で説明されている様々な計算は、開示されている順序で実行される必要はなく、計算の代替的な順序を使用する他の例も容易に実装されることができる。順序を変えることに加えて、計算は、同じ結果のサブ計算に分解することも可能である。 In the description of the examples, reference is made to the accompanying drawings, which form a part of this specification, illustrating specific examples of the claimed subject matter. It is understood that other examples may be used and that modifications or substitutions, such as structural changes, may be made. Such examples, modifications or substitutions do not necessarily depart from the intended scope of the claimed subject matter. Although the procedures herein may be presented in a certain order, in some cases the order may be changed such that certain inputs are provided at different times or in a different order without changing the functionality of the described systems and methods. It is also possible to perform the disclosed procedures in a different order. Furthermore, the various calculations described herein need not be performed in the order disclosed, and other examples using alternative orders of calculations may be readily implemented. In addition to changing the order, the calculations may also be decomposed into sub-calculations with the same results.
Claims (14)
環境を表すセンサーデータを受信することと、
前記センサーデータに少なくとも部分的に基づいて、物体が前記環境内にあることを決定することと、
前記環境内における横断歩道領域、又は走行不能領域の少なくとも一つを決定することと、
前記物体に関連付けられた第1の属性を決定することであって、前記第1の属性は第1の時間に関連付けられることと、
前記物体に関連付けられた第2の属性を決定することであって、前記第2の属性は、前記第1の時間の後の第2の時間に関連付けられることと、
前記第1の属性、前記第2の属性、及び、前記横断歩道領域又は前記走行不能領域を機械学習モデルに入力することであって、前記第1の属性及び前記第2の属性は、前記物体に関連付けられた予測目的地に少なくとも部分的によって定義された参照のフレームによって表現されることと、
前記機械学習モデルから、前記第2の時間の後の第3の時間における前記物体に関連付けられた予測位置を受信することと、
を備える方法。 1. A method comprising:
receiving sensor data representative of an environment;
determining, based at least in part on the sensor data, that an object is within the environment; and
determining at least one of a pedestrian crossing area or a non-driveable area within the environment;
determining a first attribute associated with the object, the first attribute being associated with a first time;
determining a second attribute associated with the object, the second attribute being associated with a second time after the first time; and
inputting the first attribute, the second attribute, and the crosswalk area or the non-driveable area into a machine learning model , the first attribute and the second attribute being represented by a frame of reference defined at least in part by a predicted destination associated with the object ;
receiving from the machine learning model a predicted position associated with the object at a third time after the second time; and
A method for providing the above.
前記第3の時間における前記物体に関連付けられた前記予測位置に少なくとも部分的に基づいて、前記車両を制御することと、
をさらに備えた、請求項1に記載の方法。 capturing said sensor data using sensors on a vehicle;
controlling the vehicle based at least in part on the predicted position associated with the object at the third time; and
The method of claim 1 further comprising:
前記横断歩道領域又は前記走行不能領域に関連付けられた閾値領域を決定することと、
前記閾値領域内にある前記物体の位置を決定することと、
前記閾値領域内にある前記物体の前記位置と、前記第1の属性、又は前記第2の属性の少なくとも一つとに少なくとも部分的に基づいて、前記物体に関連付けられた目的地を予測することと、
をさらに備える、請求項1又は2に記載の方法。 determining the pedestrian crossing area or the non-traveling area based at least in part on at least one of map data representative of the environment or the sensor data;
determining a threshold area associated with the pedestrian crossing area or the non-travelable area ;
determining a location of the object within the threshold area;
predicting a destination associated with the object based at least in part on the location of the object within the threshold region and at least one of the first attribute or the second attribute;
The method of claim 1 or 2, further comprising:
前記第2の時間における前記物体の位置が、前記参照のフレームの座標に関連付けられ、
第1の軸が、前記座標、及び前記横断歩道領域又は前記走行不能領域に少なくとも部分的に基づいており、
第2の軸が、前記第1の軸に対して垂直であることをさらに備え、
前記第1の属性が、前記参照のフレームに少なくとも部分的に基づいている、請求項1から3のいずれか一項に記載の方法。 Establishing said frame of reference,
the position of the object at the second time is associated with coordinates in the frame of reference;
a first axis is based at least in part on the coordinate and the pedestrian crossing area or the non-travelable area ;
the second axis being perpendicular to the first axis;
The method of claim 1 , wherein the first attribute is based at least in part on the frame of reference.
前記速度を表す速度ベクトルと前記第1の軸との間の角度を決定することと、
をさらに備え、
前記第2の属性が前記角度を備える、請求項4に記載の方法。 determining a velocity of the object at the second time; and
determining an angle between a velocity vector representing the velocity and the first axis;
Further equipped with
The method of claim 4 , wherein the second attribute comprises the angle.
前記第2の軸に対する横方向のオフセットと、
前記第2の時間における前記物体の位置と前記予測位置との間の差を表す前記第1の軸に沿った距離と、
を備える、請求項4に記載の方法。 The predicted location associated with the object at the third time is:
a lateral offset relative to the second axis; and
a distance along the first axis representing the difference between the position of the object at the second time and the predicted position;
The method of claim 4 comprising:
前記物体が前記他の物体に関連付けられているかどうかを示す物体コンテキストを決定することであって、前記物体コンテキストは、前記他の物体に関連付けられた位置、速度、又は、加速度の少なくとも一つを含むことと、
前記物体コンテキストに少なくとも部分的にさらに基づいて、前記第3の時間における前記物体に関連付けられた前記予測位置を決定することと、
をさらに備える、請求項1から7のいずれか一項に記載の方法。 determining, based at least in part on the sensor data, that other objects are within the environment; and
determining an object context indicative of whether the object is associated with the other object, the object context including at least one of a position, a velocity, or an acceleration associated with the other object ;
determining the predicted position associated with the object at the third time based at least in part further on the object context;
The method of claim 1 , further comprising:
前記第1の時間における前記物体の位置、
前記第1の時間における前記物体の速度、
前記第1の時間における前記物体の進路、
前記第1の時間における前記物体と前記横断歩道領域の第1の部分との間の第1の距離、
前記第1の時間における前記物体と前記横断歩道領域の第2の部分との間の第2の距離、
前記第1の時間における前記物体の加速度、
前記物体が走行可能なエリアに居るかどうかの指示、
領域を制御する指示器の状態
又は、物体の関連付け、
の少なくとも1つを備える、請求項1から9のいずれか一項に記載の方法。 The first attribute is
a position of the object at the first time;
the velocity of the object at the first time;
a path of the object at the first time;
a first distance between the object and a first portion of the pedestrian crossing area at the first time;
a second distance between the object and a second portion of the pedestrian crossing area at the first time;
the acceleration of the object at the first time;
an indication of whether the object is in a drivable area;
Status of indicators controlling the area
Or object association,
The method according to claim 1 , further comprising at least one of:
1つ又は複数のプロセッサと、
実行されると、前記システムに動作を実行させる命令を格納した、1つ又は複数の非一時的コンピュータ可読媒体であって、前記動作は、
環境を表すセンサーデータを受信することと、
前記センサーデータに少なくとも部分的に基づいて、物体が前記環境内にあることを決定することと、
前記環境における横断歩道領域、又は、走行不能領域の少なくとも1つを決定することと、
前記物体に関連付けられた第1の属性を決定することであって、前記第1の属性は第1の時間に関連付けられることと、
前記物体に関連付けられた第2の属性を決定することであって、前記第2の属性は前記第1の時間の後の第2の時間に関連付けられることと、
前記第1の属性、前記第2の属性、及び、前記横断歩道領域又は前記走行不能領域を機械学習モデルに入力することであって、前記第1の属性及び前記第2の属性は、前記物体に関連付けられた予測目的地に少なくとも部分的によって定義された参照のフレームによって表現されることと、
前記機械学習モデルから、前記第2の時間の後の第3の時間における前記物体に関連付けられた予測位置を受信することと、
を備えた、システム。 1. A system comprising:
one or more processors;
One or more non-transitory computer-readable media having instructions stored thereon that, when executed, cause the system to perform operations, including:
receiving sensor data representative of an environment;
determining, based at least in part on the sensor data, that an object is within the environment; and
determining at least one of a pedestrian crossing area or a non-driveable area in the environment;
determining a first attribute associated with the object, the first attribute being associated with a first time;
determining a second attribute associated with the object, the second attribute being associated with a second time after the first time; and
inputting the first attribute, the second attribute, and the crosswalk area or the non-driveable area into a machine learning model , the first attribute and the second attribute being represented by a frame of reference defined at least in part by a predicted destination associated with the object ;
receiving from the machine learning model a predicted position associated with the object at a third time after the second time; and
A system equipped with
前記環境を表すマップデータ、又は、前記環境を表す前記センサーデータの少なくとも1に、少なくとも部分的に基づいて、前記横断歩道領域又は前記走行不能領域を決定することと、
前記横断歩道領域又は前記走行不能領域に関連付けられた閾値領域を決定することと、
前記環境内の前記物体の位置を決定することと、
前記物体の前記位置が、前記閾値領域内にあることを決定することと、
前記閾値領域内にある前記位置と、前記第1の属性、又は、前記第2の属性の少なくとも一つとに少なくとも部分的に基づいて、前記物体に関連付けられた目的地として前記前記横断歩道領域又は前記走行不能領域を決定することと、
をさらに備えた、請求項12に記載のシステム。 The operation ,
determining the pedestrian crossing area or the non-traveling area based at least in part on at least one of map data representative of the environment or the sensor data representative of the environment;
determining a threshold area associated with the pedestrian crossing area or the non-travelable area ;
determining a position of the object within the environment;
determining that the position of the object is within the threshold region;
determining the pedestrian crossing area or the non-travelable area as a destination associated with the object based at least in part on the location within the threshold area and at least one of the first attribute or the second attribute;
The system of claim 12 further comprising:
前記参照のフレームを設立することであって、
前記第2の時間における前記物体の位置が、前記参照のフレームの座標に関連付けられ、
第1の軸が、前記座標、及び前記横断歩道領域又は前記走行不能領域に少なくとも部分的に基づいており、
第2の軸が、前記第1の軸に対して垂直であることをさらに備え、
前記第1の属性が、前記参照のフレームに少なくとも部分的に基づいている、請求項12又は13に記載のシステム。 The operation ,
Establishing said frame of reference,
the position of the object at the second time is associated with coordinates in the frame of reference;
a first axis is based at least in part on the coordinate and the pedestrian crossing area or the non-travelable area ;
the second axis being perpendicular to the first axis;
14. The system of claim 12 or 13, wherein the first attribute is based at least in part on the frame of reference.
Applications Claiming Priority (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US16/363,541 US11021148B2 (en) | 2019-03-25 | 2019-03-25 | Pedestrian prediction based on attributes |
| US16/363,627 US11351991B2 (en) | 2019-03-25 | 2019-03-25 | Prediction based on attributes |
| US16/363,627 | 2019-03-25 | ||
| US16/363,541 | 2019-03-25 | ||
| PCT/US2020/024386 WO2020198189A1 (en) | 2019-03-25 | 2020-03-24 | Pedestrian prediction based on attributes |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022527072A JP2022527072A (en) | 2022-05-30 |
| JP7593935B2 true JP7593935B2 (en) | 2024-12-03 |
Family
ID=70289862
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021557327A Active JP7593935B2 (en) | 2019-03-25 | 2020-03-24 | Attribute-based pedestrian prediction |
Country Status (4)
| Country | Link |
|---|---|
| EP (1) | EP3948656A1 (en) |
| JP (1) | JP7593935B2 (en) |
| CN (1) | CN113632096A (en) |
| WO (1) | WO2020198189A1 (en) |
Families Citing this family (35)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018176000A1 (en) | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
| US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
| US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
| US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
| US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
| US12307350B2 (en) | 2018-01-04 | 2025-05-20 | Tesla, Inc. | Systems and methods for hardware-based pooling |
| US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
| US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
| US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
| US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
| US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
| EP4664422A2 (en) | 2018-10-11 | 2025-12-17 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
| US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
| US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
| US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
| US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
| US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
| US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
| US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
| US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
| CN112406905B (en) | 2020-09-10 | 2022-01-28 | 腾讯科技(深圳)有限公司 | Data processing method and device based on vehicle, computer and storage medium |
| US20220101155A1 (en) * | 2020-09-25 | 2022-03-31 | Motional Ad Llc | Trajectory Generation Using Road Network Model |
| CN112785845B (en) * | 2020-12-30 | 2022-11-01 | 桂林电子科技大学 | A vehicle speed prediction method based on K-means clustering and RBF neural network |
| EP4131180B1 (en) * | 2021-08-05 | 2025-10-01 | Volkswagen Group of America Investments, LLC | Methods and system for predicting trajectories of actors with respect to a drivable area |
| US12462575B2 (en) | 2021-08-19 | 2025-11-04 | Tesla, Inc. | Vision-based machine learning model for autonomous driving with adjustable virtual camera |
| CN114743157B (en) * | 2022-03-30 | 2023-03-03 | 中科融信科技有限公司 | Pedestrian monitoring method, device, equipment and medium based on video |
| CN114802258B (en) * | 2022-04-25 | 2025-10-24 | 北京小米移动软件有限公司 | Vehicle control method, device, storage medium and vehicle |
| CN115171017A (en) * | 2022-07-07 | 2022-10-11 | 上海商汤智能科技有限公司 | Passenger retrograde motion detection method, device and computer storage medium |
| FR3140701A1 (en) * | 2022-10-11 | 2024-04-12 | Psa Automobiles Sa | Driving methods and systems when approaching a pedestrian crossing |
| US12337878B2 (en) * | 2022-11-30 | 2025-06-24 | Zoox, Inc. | Prediction model with variable time steps |
| US12428032B2 (en) | 2022-11-30 | 2025-09-30 | Zoox, Inc. | Determining prediction times for a model |
| US12286104B2 (en) * | 2023-01-31 | 2025-04-29 | Zoox, Inc. | Image synthesis for discrete track prediction |
| WO2024176651A1 (en) * | 2023-02-24 | 2024-08-29 | 住友電気工業株式会社 | Walking trajectory analysis device, movement trajectory analysis device, analysis method, and computer program |
| WO2025115813A1 (en) * | 2023-11-28 | 2025-06-05 | 住友電気工業株式会社 | Behavior prediction device and behavior prediction method |
| WO2025115814A1 (en) * | 2023-11-28 | 2025-06-05 | 住友電気工業株式会社 | Crossing prediction system, crossing prediction device, and crossing prediction method |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018012360A (en) | 2016-07-19 | 2018-01-25 | トヨタ自動車株式会社 | Travel supporting device |
| WO2019044499A1 (en) | 2017-09-04 | 2019-03-07 | 日本電産株式会社 | Mobile body, location estimation device, and computer program |
-
2020
- 2020-03-24 EP EP20719542.1A patent/EP3948656A1/en active Pending
- 2020-03-24 CN CN202080023879.5A patent/CN113632096A/en active Pending
- 2020-03-24 JP JP2021557327A patent/JP7593935B2/en active Active
- 2020-03-24 WO PCT/US2020/024386 patent/WO2020198189A1/en not_active Ceased
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018012360A (en) | 2016-07-19 | 2018-01-25 | トヨタ自動車株式会社 | Travel supporting device |
| WO2019044499A1 (en) | 2017-09-04 | 2019-03-07 | 日本電産株式会社 | Mobile body, location estimation device, and computer program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022527072A (en) | 2022-05-30 |
| WO2020198189A1 (en) | 2020-10-01 |
| EP3948656A1 (en) | 2022-02-09 |
| CN113632096A (en) | 2021-11-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7593935B2 (en) | Attribute-based pedestrian prediction | |
| US11351991B2 (en) | Prediction based on attributes | |
| US11021148B2 (en) | Pedestrian prediction based on attributes | |
| US11734832B1 (en) | Prediction on top-down scenes based on object motion | |
| US11631200B2 (en) | Prediction on top-down scenes based on action data | |
| US12233901B2 (en) | Graph neural networks with vectorized object representations in autonomous vehicle systems | |
| JP7628948B2 (en) | Trajectory prediction for top-down scenes | |
| JP7566018B2 (en) | Collision Zone Based Trajectory Corrections | |
| JP7607641B2 (en) | Modeling and predicting yielding behavior. | |
| US11708093B2 (en) | Trajectories with intent | |
| JP7604402B2 (en) | Depth refinement from images | |
| JP7570332B2 (en) | Occlusion prediction and trajectory estimation | |
| US11554790B2 (en) | Trajectory classification | |
| JP2025530784A (en) | Trajectory prediction based on decision trees | |
| JP2024538541A (en) | Optimization-Based Planning Systems | |
| US12012108B1 (en) | Prediction models in autonomous vehicles using modified map data | |
| EP4146510A1 (en) | Trajectory classification | |
| US12060082B1 (en) | Machine learned interaction prediction from top-down representation | |
| JP2024526614A (en) | Techniques for identifying curbs | |
| US20250050912A1 (en) | Crosswalk handling for vehicles | |
| US11772643B1 (en) | Object relevance determination |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230324 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240423 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240723 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241022 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241121 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7593935 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |