[go: up one dir, main page]

JP7593935B2 - Attribute-based pedestrian prediction - Google Patents

Attribute-based pedestrian prediction Download PDF

Info

Publication number
JP7593935B2
JP7593935B2 JP2021557327A JP2021557327A JP7593935B2 JP 7593935 B2 JP7593935 B2 JP 7593935B2 JP 2021557327 A JP2021557327 A JP 2021557327A JP 2021557327 A JP2021557327 A JP 2021557327A JP 7593935 B2 JP7593935 B2 JP 7593935B2
Authority
JP
Japan
Prior art keywords
time
attribute
determining
area
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021557327A
Other languages
Japanese (ja)
Other versions
JP2022527072A (en
Inventor
ガファリアンザデー マーサ
マーティン ハンセン ルーク
Original Assignee
ズークス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/363,541 external-priority patent/US11021148B2/en
Priority claimed from US16/363,627 external-priority patent/US11351991B2/en
Application filed by ズークス インコーポレイテッド filed Critical ズークス インコーポレイテッド
Publication of JP2022527072A publication Critical patent/JP2022527072A/en
Application granted granted Critical
Publication of JP7593935B2 publication Critical patent/JP7593935B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)

Description

本開示は、属性に基づく歩行者の予測に関する。 This disclosure relates to attribute-based pedestrian prediction.

本特許出願は、2019年3月25日に出願された出願番号16/363541の米国実用特許出願、及び番号16/363627の米国実用特許出願の優先権を主張するものである。出願番号16/363541、及び16/363627は、参照により本明細書に完全に組み込まれている。 This patent application claims priority to U.S. utility patent application Ser. No. 16/363541, filed March 25, 2019, and U.S. utility patent application Ser. No. 16/363627, both of which are incorporated herein by reference in their entireties.

予測技術は、環境内におけるエンティティの将来の状態を決定するために使用されることができる。すなわち、予測技術は、特定のエンティティが将来どのように振る舞う可能性があるかを決定するために使用されることができる。現在の予測技術は、環境内におけるエンティティの将来の状態を予測するために、物理ベースのモデリングやルールオブザロードのシミュレーションを必要とすることが多い。 Prediction techniques can be used to determine the future state of an entity within an environment. That is, predictive techniques can be used to determine how a particular entity is likely to behave in the future. Current predictive techniques often require physics-based modeling or rule-of-the-road simulations to predict the future state of an entity within an environment.

詳細な説明は、添付の図面を参照して述べられる。図中で、符号の左端の数字は、その符号が最初に現れる図面を示している。異なる図で同じ符号を使用することは、類似または同一の構成要素または機能を示す。 The detailed description will be set forth with reference to the accompanying drawings. In the drawings, the leftmost digit of a reference number identifies the drawing in which the reference number first appears. Use of the same reference number in different drawings indicates similar or identical components or functions.

センサーデータを取得すること、物体に関連付けられた属性を決定すること、属性に基づいて予測位置を決定すること、及び予測位置に基づいて車両の制御を制御することの例示的なプロセスの絵画的フロー図である。FIG. 1 is a pictorial flow diagram of an example process for acquiring sensor data, determining attributes associated with an object, determining a predicted position based on the attributes, and controlling control of a vehicle based on the predicted position. 物体の属性の例を示す図である。FIG. 11 is a diagram showing examples of object attributes. 環境内の物体に関連付けられた目的地を決定することの例示する図である。1 is an exemplary diagram of determining a destination associated with an object in an environment. 環境内の物体に関連付けられた目的地を決定することの別の例を示す図である。FIG. 1 illustrates another example of determining a destination associated with an object in an environment. 経時的な物体の属性に基づいて、物体の予測位置を決定することを例示する図である。FIG. 13 is a diagram illustrating determining a predicted location of an object based on attributes of the object over time. 予測位置の決定において使用する参照フレームを更新することを例示する図である。FIG. 13 illustrates updating a reference frame used in determining a predicted position. センサーデータを取得すること、第1の物体と第2の物体が環境内にあることを決定すること、第2の物体に関連付けられた属性を決定すること、属性と参照線に基づいて予測位置を決定すること、及び予測位置に基づいて車両を制御することのプロセスを例示する絵画的フロー図である。FIG. 13 is a pictorial flow diagram illustrating a process of acquiring sensor data, determining that a first object and a second object are within an environment, determining attributes associated with the second object, determining a predicted position based on the attributes and the reference line, and controlling the vehicle based on the predicted position. 物体の属性の例を示す図である。FIG. 11 is a diagram showing examples of object attributes. 経時的な第2の物体の属性に基づいて、第1の物体の予測位置を決定することの例を示す図である。FIG. 1 illustrates an example of determining a predicted location of a first object based on attributes of a second object over time. 本明細書で述べられる技術を実装するための例示的なシステムを示すブロック図である。FIG. 1 is a block diagram illustrating an example system for implementing the techniques described herein. センサーデータを取得すること、物体に関連付けられた属性を決定すること、属性に基づいて予測位置を決定すること、及び予測位置に基づいて車両を制御することのプロセスを例示する図である。FIG. 1 illustrates a process of acquiring sensor data, determining attributes associated with an object, determining a predicted position based on the attributes, and controlling a vehicle based on the predicted position. センサーデータを取得すること、第1の物体と第2の物体が環境内にあることを決定すること、第2の物体に関連付けられた属性を決定すること、属性と参照線に基づいて予測位置を決定すること、及び予測位置に基づいて車両を制御することのプロセスを例示する図である。FIG. 1 illustrates a process of acquiring sensor data, determining that a first object and a second object are within an environment, determining attributes associated with the second object, determining a predicted position based on the attributes and a reference line, and controlling a vehicle based on the predicted position.

本開示は、物体の属性に基づいて、及び/又は物体に近接する他の物体の属性に基づいて、物体の位置を予測する技術に向けられる。第1の例において、本明細書で論じられる技術は、環境内の横断歩道領域に近接する歩行者が横断歩道領域を横断するとき、或いは、横断する準備をしているときに、歩行者の位置を予測するために実装されることができる。第2の例において、本明細書で論じられる技術は、車両が環境を横断するときに、物体(例えば、車両)の位置を予測するために実装されることができる。例えば、車両の予測位置は車両の属性、及び環境内で車両に近接する他の車両の属性に基づくことができる。属性は、場所、速度、加速度、境界ボックスなど、物体に関する情報を備えることができるが、これらに限定はされない。属性は、予測コンポーネント(例えば、ニューラルネットワークなどの機械学習モデル)に入力されたとき、予測コンポーネントが将来の時間(例えば、時間T1、T2、T3、...、TN)における予測(例えば、物体の予測位置)を出力できるよう、物体に対して時間(例えば、時間T-M、...、T-2、T-1、T0)にわたって決定されることができる。自律車両のような車両は、物体の予測位置に少なくとも部分的に基づいて、環境を横断するように制御されることができる。 The present disclosure is directed to techniques for predicting the location of an object based on attributes of the object and/or attributes of other objects proximate the object. In a first example, the techniques discussed herein can be implemented to predict the location of a pedestrian proximate a pedestrian crossing area in an environment as the pedestrian crosses or prepares to cross the pedestrian crossing area. In a second example, the techniques discussed herein can be implemented to predict the location of an object (e.g., a vehicle) as the vehicle crosses an environment. For example, the predicted location of the vehicle can be based on attributes of the vehicle and attributes of other vehicles proximate the vehicle in the environment. The attributes can include information about the object, such as, but not limited to, location, speed, acceleration, bounding box, etc. The attributes can be determined over time (e.g., times T -M , ..., T -2 , T -1 , T 0 ) for the object such that, when input to a prediction component (e.g., a machine learning model such as a neural network), the prediction component can output a prediction (e.g., a predicted position of the object) at future times (e.g., times T 1 , T 2 , T 3 , ..., T N ). A vehicle, such as an autonomous vehicle, can be controlled to traverse an environment based at least in part on the predicted position of the object.

上述のように、第1の例では、本明細書で論じられる技術は、歩行者が横断歩道領域を横断するとき、或いは、横断歩道領域を横断する準備をしているときに、環境内の横断歩道領域に近接する歩行者の位置を予測するために実装されることができる。例えば、センサーデータは環境内で取得されることができ、物体は識別され、歩行者として分類されるができる。さらに、横断歩道領域は、マップデータに基づいて、及び/又はセンサーデータに基づいて、環境内で識別されることができる(例えば、センサーデータから、横断歩道領域の視覚的な指示(ストライプ、横断歩道標識など)を観察することによって直接的に、或いは、そのような場所で道路を横断する歩行者の履歴の検出によって間接的に、横断歩道領域を識別する)。少なくとも1つの目的地は、横断歩道領域に関連付けられることができる。例えば、歩行者が横断歩道に近接した歩道上にいる場合、目的地は、横断歩道領域の道路の反対側を表すことができる。歩行者が路上(横断歩道領域の内側または外側のいずれか)にいる場合、目的地は、歩行者の属性(例えば、位置、速度、加速度、進路など)に基づいて選択、又は他の方法で決定されることができる。互いに近接する多様な横断歩道領域の場合、歩行者が特定の横断歩道を渡る可能性に関連付けられたスコアは、歩行者の属性(例えば、位置、速度、加速度、進路など)に基づいて決定されることができる。最高スコアに関連付けられた横断歩道領域は、歩行者に関連付けられた対象となる横断歩道となるように選択、又は他の方法で決定されることができる。 As mentioned above, in a first example, the techniques discussed herein can be implemented to predict the location of a pedestrian proximate a crosswalk area in an environment when the pedestrian crosses the crosswalk area or prepares to cross the crosswalk area. For example, sensor data can be acquired in the environment and objects can be identified and classified as pedestrians. Furthermore, a crosswalk area can be identified in the environment based on map data and/or based on sensor data (e.g., identifying a crosswalk area directly from the sensor data by observing visual indications of a crosswalk area (stripes, crosswalk signs, etc.) or indirectly by detecting a history of pedestrians crossing the road at such locations). At least one destination can be associated with the crosswalk area. For example, if the pedestrian is on a sidewalk proximate to the crosswalk, the destination can represent the opposite side of the road to the crosswalk area. If the pedestrian is on the road (either inside or outside the crosswalk area), the destination can be selected or otherwise determined based on the pedestrian's attributes (e.g., position, speed, acceleration, path, etc.). For multiple crosswalk areas in close proximity to one another, a score associated with the likelihood that a pedestrian will cross a particular crosswalk can be determined based on the pedestrian's attributes (e.g., location, speed, acceleration, path, etc.). The crosswalk area associated with the highest score can be selected or otherwise determined to be the target crosswalk associated with the pedestrian.

いくつかの例では、信号無視や、横断歩道領域が容易に識別できない道路を横断する場合のように、歩行者に関連付けられた目的地は、多くの要因に基づいて決定することができる。例えば、目的地は、歩行者の速度の直線外挿、歩行者に関連付けられた歩道領域の最も近い位置、駐車している車両の間のギャップ、車両に関連付けられた開いたドアなどの1つまたは複数に少なくとも部分的に基づいて決定されることができる。いくつかの例では、センサーデータは環境に関して取得され、これらの例示的な目的地候補が環境に存在する可能性を決定することができる。いくつかの例では、スコアは各目的地候補に関連付けられることができ、可能性の高い目的地は、本明細書で論じられる技術に従って使用されることができる。 In some examples, such as when running a red light or crossing a road where a crosswalk area is not easily identifiable, a destination associated with a pedestrian can be determined based on many factors. For example, the destination can be determined based at least in part on one or more of a linear extrapolation of the pedestrian's speed, the closest location of a sidewalk area associated with the pedestrian, a gap between parked vehicles, an open door associated with a vehicle, and the like. In some examples, sensor data can be obtained about the environment to determine the likelihood that these exemplary candidate destinations are present in the environment. In some examples, a score can be associated with each candidate destination, and the likely destinations can be used in accordance with the techniques discussed herein.

横断歩道領域(または他の場所)が歩行者の目的地であると決定された場合、技術は、横断歩道領域を横断する歩行者の場所を、経時的に予測することを含むことができる。いくつかの例では、物体の属性は、時間(例えば、時間T-M、...、T-2、T-1、T0)にわたって決定されることができ、それによって、属性は、時間T0において物体に関連付けられた参照のフレームで表されることができる。すなわち、T0における物体の位置は、原点(例えば、x-y座標系の座標(0,0))とみなされることができ、それによって、第1の軸は、原点と、横断歩道領域に関連関連付けられた目的地とによって定義されることができる。いくつかの例では、別の参照のフレームに対して、他の点が原点とみなされることができる。上述のように、歩行者が道路の第1の側にいる場合、横断歩道領域に関連付けられた目的地は、道路の第1の側とは反対側の道路の第2の側にある点として選択されることができるが、任意の目的地が選択されることもできる。参照のフレームの第2の軸は、第1の軸に垂直であることができ、少なくともいくつかの例では、横断歩道領域を含む平面に沿って存在する。 If the crosswalk area (or other location) is determined to be the pedestrian's destination, the technique can include predicting the location of the pedestrian crossing the crosswalk area over time. In some examples, the attributes of the object can be determined over time (e.g., times T -M , . . ., T -2 , T -1 , T 0 ), whereby the attributes can be expressed in a frame of reference associated with the object at time T 0 . That is, the position of the object at T 0 can be considered as the origin (e.g., coordinate (0,0) in an x-y coordinate system), whereby a first axis can be defined by the origin and the destination associated with the crosswalk area. In some examples, other points can be considered as the origin, relative to another frame of reference. As mentioned above, if the pedestrian is on a first side of the road, the destination associated with the crosswalk area can be selected as a point on a second side of the road opposite the first side of the road, although any destination can also be selected. A second axis of the frame of reference can be perpendicular to the first axis and, in at least some instances, lies along a plane that includes the crosswalk area.

いくつかの例では、歩行者の属性は、経時的に取り込まれたセンサーデータに基づいて決定されることができ、ある時点における歩行者の位置(例えば、位置は、上述の参照のフレームで表されることができる)、その時の歩行者の速度(例えば、第1軸(または他の参照線)に対する大きさ、及び/又は角度)、その時の歩行者の加速度、歩行者が運転可能なエリアにいるかどうかの指示(例えば、歩行者が歩道、又は道路の上にいるかどうか)、歩行者が横断歩道領域にいるかどうかの指示、領域を制御する指示器の状態(例えば、交差点が信号で制御されているかどうか、及び/又は横断歩道が信号で制御されているかどうか(例えば、歩く/歩かない)、及び/又は信号の状態)、車両コンテキスト(例えば、環境内における車両の存在、及び車両に関連付けられた属性)、一定期間における横断歩道領域を通過するフラックス(例えば、一定期間に横断歩道領域を通過した物体(例えば、車両)の数)、物体の関連付け(例えば、歩行者が複数の歩行者のグループの中を移動しているかどうか)、第1の方向における横断歩道までの距離(例えば、グローバルx-方向、又は参照のフレームに基づいたx-方向の距離)、第2の方向における横断歩道までの距離(例えば、グローバルy-方向、又は参照のフレームに基づいたy-方向の距離)、横断歩道領域における道路までの距離(例えば、横断歩道領域内の道路までの最短距離)、歩行者のハンドジェスチャー、歩行者の視線検出、歩行者が立っているか、歩いているか、走っているかなどの指示、他の歩行者が横断歩道にいるかどうか、歩行者の横断歩道フラックス(例えば、一定期間において横断歩道(例えば、走行可能なエリア)を横断して横断歩道を通過する歩行者の数)、歩道(又は、走行不能なエリア)の上にいる第1の歩行者の数と、横断歩道領域(又は走行可能なエリア)の上にいる第2の歩行者の数との比率、各属性に関連付けられた分散、信頼度、及び/又は確率など、の1つまたは複数を含むことができるが、これに限定はされない。 In some examples, pedestrian attributes can be determined based on sensor data captured over time, including the pedestrian's position at a time (e.g., the position can be expressed in a frame of reference as described above), the pedestrian's speed at that time (e.g., magnitude and/or angle relative to a first axis (or other reference line)), the pedestrian's acceleration at that time, an indication of whether the pedestrian is in a drivable area (e.g., whether the pedestrian is on the sidewalk or on the road), an indication of whether the pedestrian is in a crosswalk area, the state of indicators controlling the area (e.g., whether the intersection is signal-controlled and/or whether the crosswalk is signal-controlled (e.g., walk/no walk) and/or the state of the signal), vehicle context (e.g., the presence of vehicles in the environment and attributes associated with the vehicles), flux through the crosswalk area over a period of time (e.g., the number of objects (e.g., vehicles) that have passed through the crosswalk area over a period of time), object associations (e.g., whether the pedestrian is in a crosswalk area with multiple pedestrians), and/or attributes associated with the pedestrian. (e.g., whether the pedestrian is moving in a group of pedestrians), distance to the crosswalk in a first direction (e.g., distance in a global x-direction or an x-direction based on a frame of reference), distance to the crosswalk in a second direction (e.g., distance in a global y-direction or a y-direction based on a frame of reference), distance to the road in the crosswalk area (e.g., minimum distance to the road in the crosswalk area), pedestrian hand gestures, pedestrian gaze detection, indication of whether the pedestrian is standing, walking, running, etc., whether other pedestrians are in the crosswalk, pedestrian crosswalk flux (e.g., the number of pedestrians crossing the crosswalk (e.g., drivable area) and passing through the crosswalk in a certain period of time), the ratio of the number of first pedestrians on the sidewalk (or non-drivable area) to the number of second pedestrians on the crosswalk area (or drivable area), the variance, confidence, and/or probability associated with each attribute, etc.

属性は、時間(例えば、限定ではないが、0.01秒、0.1秒、1秒、2秒など、現在の時間の前および/または現在の時間を含む任意の時間を表す時間T-M、...、T-2、T-1、T0(ここで、Mは整数である))にわたって決定され、歩行者の予測位置を決定するために予測コンポーネントに入力されることができる。いくつかの例では、予測コンポーネントは、ニューラルネットワーク、完全接続ニューラルネットワーク、畳み込みニューラルネットワーク、リカレントニューラルネットワークなどの機械学習モデルである。 The attributes can be determined over time (e.g., but not limited to, times T -M , ..., T -2 , T -1 , T 0 (where M is an integer) representing any time before the current time and/or including the current time, such as, but not limited to, 0.01 seconds , 0.1 seconds, 1 second, 2 seconds, etc.) and input to a prediction component to determine a predicted location of the pedestrian. In some examples, the prediction component is a machine learning model such as a neural network, a fully connected neural network, a convolutional neural network, a recurrent neural network, etc.

いくつかの例では、予測コンポーネントは、将来の歩行者に関連付けられた情報を出力することができる。例えば、予測コンポーネントは、将来の時間(例えば、現在時間の後の任意の時間を表す時間T1、T2、T3、...、TN(ここで、Nは整数である))に関連付けられた予測情報を出力することができる。いくつかの例では、予測情報は、将来の時間における歩行者の予測位置を備えることができる。例えば、予測位置は、参照のフレームにおいて、原点(例えば、T0における歩行者の位置)とT1における歩行者との間の距離(例えば、距離s)、及び/又は第1の軸に対する(例えば、参照線に対する)横方向のオフセット(ey)として表されることができる。いくつかの例では、距離s、及び/又は横方向のオフセットeyは、有理数(例えば、0.1メートル、1メートル、1.5メートルなど)で表されることができる。いくつかの例では、距離s、及び/又は横方向のオフセットはビン化(例えば、ビン化アルゴリズムへの入力)され、元のデータ値を1つまたは多数の離散的なインターバルに離散化することができる。いくつかの例では、距離sのビンは、0~1メートル、1~2メートル、3~4メートルなどとすることができるが、このようなビンには、任意の規則的または不規則的な間隔を使用することもできる。 In some examples, the prediction component can output information associated with a future pedestrian. For example, the prediction component can output prediction information associated with a future time (e.g., times T1 , T2 , T3 , ..., TN (where N is an integer) representing any time after the current time). In some examples, the prediction information can comprise a predicted position of the pedestrian at the future time. For example, the predicted position can be represented in a frame of reference as a distance (e.g., distance s) between an origin (e.g., the position of the pedestrian at T0 ) and the pedestrian at T1 , and/or a lateral offset (e y ) relative to a first axis (e.g., relative to a reference line). In some examples, the distance s and/or the lateral offset e y can be represented as rational numbers (e.g., 0.1 meters, 1 meter, 1.5 meters, etc.). In some examples, the distance s and/or the lateral offset can be binned (e.g., input to a binning algorithm) to discretize the original data values into one or many discrete intervals. In some examples, the bins of distance s may be 0 to 1 meter, 1 to 2 meters, 3 to 4 meters, etc., although any regular or irregular interval for such bins may be used.

いくつかの例では、自律車両などの車両は、歩行者の予測位置に少なくとも部分的に基づいて、環境を横断するように制御されることができる。 In some examples, a vehicle, such as an autonomous vehicle, can be controlled to traverse an environment based at least in part on the predicted positions of pedestrians.

上述のように、第2の例では、本明細書で論じられる技術が実装され、車両が環境を通過する際に物体(例えば、車両)の位置を予測することができる。例えば、環境内でセンサーデータが取得されることができ、物体は識別され、車両として分類されることができる。さらに、参照線は、マップデータ(例えば、車線などの走行可能なエリアを識別)、及び/又はセンサーデータ(例えば、センサーデータから走行可能なエリア、又は車線を識別)に基づいて識別され、車両に関連付けられることができる。理解できるように、環境は任意の数の物体を含む。例えば、対象となる物体、又は対象となる車両(例えば、そのような予測技術の対象となる車両)は、対象となる車両に近接する他の車両が存在する環境を移動している。いくつかの例では、技術は、対象となる物体に最も近いK個の物体を識別することを含む(ここで、Kは整数である)。例えば、技術は、対象となる車両に最も近い5つの車両または他の物体を識別することを含むが、任意の数の車両、又は他の物体が識別、又は別の方法で決定されることもできる。いくつかの例では、技術は、対象となる物体に対して閾値距離内にある物体を識別することを含む。いくつかの例では、センサーデータを取り込む車両は、対象となる車両に近接している物体の1つとして識別される。少なくともいくつかの例では、考慮すべき物体を決定するために、付加的な特徴が使用される。非限定的な例として、反対方向に走行している物体、分断された道路の反対側にある物体、特定の分類(例えば、車両以外)を有する物体などは、K個の最近接物体を検討するときは無視される。 As mentioned above, in a second example, the techniques discussed herein may be implemented to predict the location of an object (e.g., a vehicle) as the vehicle passes through an environment. For example, sensor data may be acquired within the environment, and an object may be identified and classified as a vehicle. Further, a reference line may be identified and associated with the vehicle based on map data (e.g., identifying drivable areas, such as lanes) and/or sensor data (e.g., identifying drivable areas, or lanes, from the sensor data). As can be appreciated, the environment may include any number of objects. For example, an object of interest, or a vehicle of interest (e.g., a vehicle that is the subject of such prediction techniques) may be moving through an environment in which there are other vehicles in close proximity to the vehicle of interest. In some examples, the techniques may include identifying K objects closest to the object of interest (where K is an integer). For example, the techniques may include identifying the five vehicles or other objects closest to the vehicle of interest, although any number of vehicles or other objects may be identified or otherwise determined. In some examples, the techniques may include identifying objects within a threshold distance to the object of interest. In some examples, the vehicle capturing the sensor data is identified as one of the objects proximate to the vehicle of interest. In at least some examples, additional features are used to determine which objects to consider. As non-limiting examples, objects traveling in the opposite direction, objects on the other side of a divided road, objects with certain classifications (e.g., non-vehicle), etc. are ignored when considering the K closest objects.

いくつかの例では、属性は、対象となる物体、及び/又は対象となる物体に近接する他の物体に対して決定されることができる。例えば、属性は、物体のある時点での速度、物体のある時点での加速度、物体のある時点での位置(例えば、グローバル座標またはローカル座標)、物体のある時点での境界ボックス(例えば、物体の範囲、ロール、ピッチ、および/またはヨーを表す)、最初の時点での物体に関連づけられた照明の状態(ヘッドライト、ブレーキライト、ハザードライト、方向指示ライト、バックライトなど)、車両の車輪の向き、その時点での物体とマップ要素の間の距離(停止線、スピードバンプ、イールドライン、交差点、車道までの距離など)、物体の分類(自動車、車両、動物、トラック、自転車など)、物体に関連付けられた特徴(物体が車線変更しているかどうか、二重駐車の車両かどうかなど)、車線の種類(車線の方向、駐車レーンなど)、道路標識(追い越しや車線変更が許可されているかどうかを示すものなど)などの1つまたは複数を含むことができるが、これらに限定はされない。 In some examples, attributes may be determined for the object of interest and/or other objects proximate to the object of interest. For example, the attributes may include, but are not limited to, one or more of the following: the speed of the object at a given time; the acceleration of the object at a given time; the position of the object at a given time (e.g., in global or local coordinates); the bounding box of the object at a given time (e.g., representing the range, roll, pitch, and/or yaw of the object); the state of the lights associated with the object at an initial time (headlights, brake lights, hazard lights, turn signals, backlights, etc.); the orientation of the vehicle's wheels; the distance between the object and a map element at a given time (distance to a stop line, speed bump, yield line, intersection, roadway, etc.); the classification of the object (car, vehicle, animal, truck, bicycle, etc.); features associated with the object (whether the object is changing lanes, whether it is a double-parked vehicle, etc.); lane type (lane direction, parking lane, etc.); road signs (e.g., indicating whether passing or lane changing is permitted, etc.);

いくつかの例では、対象となる物体、及び/又は対象となる物体に近接する他の物体に関連付けられた属性情報は、経時的に取り込まれることができ、対象となる物体に関連付けられた予測情報を決定するために予測コンポーネントに入力されることができる。いくつかの例では、予測情報は、様々な時間間隔における対象の予測位置(例えば、時間T1、T2、T3、...、TNにおける予測位置)を表すことができる。 In some examples, attribute information associated with an object of interest and/or other objects proximate the object of interest can be captured over time and input to a prediction component to determine predictive information associated with the object of interest. In some examples, the predictive information can represent predicted locations of the object at various time intervals (e.g., predicted locations at times T1 , T2 , T3 , ..., TN ).

いくつかの例では、予測された位置は、対象となる物体に関連付けられた参照線を決定するため、環境内の候補参照線と比較されることができる。例えば、環境は、対象となる車両が横断するための適格な(例えば、適法な)走行可能なエリアである2つの車線を含む。さらに、そのような走行可能なエリアは、代表的な参照線(例えば、車線または走行可能なエリアの中央)と関連付けられる。いくつかの例では、予測位置と参照線候補との間の類似性スコアを決定するため、予測位置は参照線と比較されることができる。いくつかの例では、類似性スコアは、予測位置と参照線との間の距離などに少なくとも部分的に基づくことができる。いくつかの例では、物体に関連付けられた属性(例えば、時間T-M、T-1、T0)は、物体に関連付けられる可能性が高い参照線を出力することができる参照線予測コンポーネントに入力されることができる。技術は、参照線を受信、選択、又は別の方法で決定することと、環境内の参照線に関する予測位置を表すこととを含むことができる。すなわち、予測位置は、時間T0における物体の位置と、将来の時間(例えば、時間T1)における物体の予測された位置との間の距離を表す、参照線に沿った距離sとして表されることができる。横方向のオフセットeyは、参照線と、参照線に関連付けられた接線に垂直な線と交差する点との間の距離を表すことができる。 In some examples, the predicted location can be compared to candidate reference lines in the environment to determine a reference line associated with the object of interest. For example, the environment includes two lanes that are eligible (e.g., legal) drivable areas for the vehicle of interest to cross. Furthermore, such drivable areas are associated with representative reference lines (e.g., the center of the lanes or drivable areas). In some examples, the predicted location can be compared to the reference lines to determine a similarity score between the predicted location and the reference line candidates. In some examples, the similarity score can be based at least in part on the distance between the predicted location and the reference lines, etc. In some examples, attributes associated with the object (e.g., times T -M , T -1 , T 0 ) can be input to a reference line prediction component that can output a reference line that is likely to be associated with the object. The technique can include receiving, selecting, or otherwise determining a reference line and representing a predicted location with respect to the reference line in the environment. That is, the predicted position may be represented as a distance s along a reference line that represents the distance between the object's position at time T0 and the object's predicted position at a future time (e.g., time T1 ). The lateral offset e y may represent the distance between the reference line and a point that intersects a line perpendicular to a tangent associated with the reference line.

予測技術は、環境内の物体に関連付けられた予測位置を決定するために、反復して、又は並行して繰り返されることができる。すなわち、第1の対象となる物体は、環境内の物体の第1のサブセットと関連付けられ、第2の対象となる物体は、環境内の物体の第2のサブセットと関連付けられる。いくつかの例では、第1の対象となる物体は、物体の第2のサブセットに含まれ、一方、第2の対象となる物体は、物体の第1のサブセットに含まれる。このように、予測位置は、環境内の複数の物体に対して決定されることができる。場合によっては、予測位置は、技術的な許容範囲内で実質的に同時に決定されることができる。 The prediction techniques can be repeated iteratively or in parallel to determine predicted positions associated with objects in the environment. That is, a first object of interest is associated with a first subset of objects in the environment and a second object of interest is associated with a second subset of objects in the environment. In some examples, the first object of interest is included in the second subset of objects, while the second object of interest is included in the first subset of objects. In this manner, predicted positions can be determined for multiple objects in the environment. In some cases, the predicted positions can be determined substantially simultaneously within technical tolerances.

いくつかの例では、自律車両などの車両は、物体の予測位置に少なくとも部分的に基づいて環境を横断するように制御されることができる。例えば、そのような予測位置は、環境内の物体の予測位置を理解して環境を横断するために、車両の計画コンポーネントに入力されることができる。 In some examples, a vehicle, such as an autonomous vehicle, can be controlled to traverse an environment based at least in part on a predicted position of an object. For example, such predicted positions can be input to a planning component of the vehicle to understand the predicted positions of objects in the environment and traverse the environment.

本明細書で論じられる技術は、自律車両のコンピューティングデバイスなどのコンピューティングデバイスの機能を、多くの付加的な方法で改善することができる。いくつかの例では、属性を決定し、その属性を機械学習コンポーネントなどの予測コンポーネントに入力することは、他の方法で環境を柔軟性に欠くように表すハードコード化されたルールを回避することができる。場合によっては、環境内の物体(歩行者や車両など)に関連付けられた予測位置を決定することは、他の車両や物体に対して環境内を安全かつ快適に移動するための軌道をより適切に計画することを与えることができる。例えば、衝突、又は衝突に近いものの可能性を示唆する予測位置は、自律車両に対して環境を安全に横断するために軌道を変更すること(例えば、車線変更、停止など)を与える。このような、及び他のコンピューティングデバイスの機能の改善については、本明細書で論じられる。 The techniques discussed herein can improve the capabilities of a computing device, such as a computing device of an autonomous vehicle, in many additional ways. In some examples, determining attributes and inputting the attributes into a predictive component, such as a machine learning component, can avoid hard-coded rules that would otherwise represent the environment inflexibly. In some cases, determining a predicted position associated with an object (such as a pedestrian or vehicle) in the environment can provide other vehicles or objects with the ability to better plan a trajectory for safe and comfortable travel through the environment. For example, a predicted position that indicates a potential collision or near collision can provide the autonomous vehicle with the ability to modify its trajectory (e.g., change lanes, stop, etc.) to safely traverse the environment. Such and other improvements in the capabilities of computing devices are discussed herein.

本明細書で述べられる技術は、多くの方法で実装されることができる。例示的な実装は、以下の図を参照して提供される。自律車両のコンテキストで論じられているが、本明細書で述べられる方法、装置、およびシステムは、様々なシステム(例えば、センサーシステムまたはロボットプラットフォーム)に適用されることができ、自律車両に限定はされない。一例では、同様の技術は、そのようなシステムが、様々な操縦を行うことが安全であるかどうかの指示を提供する、運転者が制御する車両に利用される。別の例では、この技術は、製造業の組み立てラインのコンテキストや、航空測量のコンテキストで利用されることができる。さらに、本明細書で述べられる技術は、実データ(例えば、センサーの使用によって取り込まれたもの)、シミュレーションデータ(例えば、シミュレータによって生成されたもの)、またはこれら2つの任意の組み合わせで使用されることができる。 The techniques described herein can be implemented in many ways. Exemplary implementations are provided with reference to the following figures. Although discussed in the context of an autonomous vehicle, the methods, apparatus, and systems described herein can be applied to a variety of systems (e.g., sensor systems or robotic platforms) and are not limited to autonomous vehicles. In one example, similar techniques are utilized in driver-controlled vehicles where such systems provide indications of whether it is safe to perform various maneuvers. In another example, the techniques can be utilized in the context of a manufacturing assembly line or in the context of aerial surveying. Additionally, the techniques described herein can be used with real data (e.g., captured through the use of sensors), simulated data (e.g., generated by a simulator), or any combination of the two.

図1は、センサーデータを取り込むこと、物体に関連付けられた属性を決定すること、属性に基づいて予測位置を決定すること、予測位置に基づいて車両を制御することの例示的なプロセス100の絵画的フロー図である。 FIG. 1 is a pictorial flow diagram of an example process 100 for capturing sensor data, determining attributes associated with an object, determining a predicted position based on the attributes, and controlling a vehicle based on the predicted position.

動作102において、プロセスは、環境のセンサーデータを取り込むことを含むことができる。いくつかの例では、センサーデータは、車両(自律的、又はその他の方法による)上の1つまたは複数のセンサーによって取り込まれることができる。例えば、センサーデータは、LIDARセンサー、画像センサー、RADARセンサー、Time of flightセンサー、ソナーセンサーなどによって取り込まれたデータを含むことができる。いくつかの例では、動作102は、物体の分類を決定すること(例えば、物体が環境内の歩行者であることを決定すること)を含むことができる。 In operation 102, the process may include capturing sensor data of the environment. In some examples, the sensor data may be captured by one or more sensors on the vehicle (autonomous or otherwise). For example, the sensor data may include data captured by a LIDAR sensor, an image sensor, a RADAR sensor, a time of flight sensor, a sonar sensor, etc. In some examples, operation 102 may include determining a classification of the object (e.g., determining that the object is a pedestrian in the environment).

動作104において、プロセスは、物体(例えば、歩行者)に関連付けられた目的地を決定することを含むことができる。例106は、環境内の車両108、及び物体110(例えば、歩行者)を示している。いくつかの例では、車両108は、プロセス100で論じられる動作を実行することができる。 At operation 104, the process may include determining a destination associated with the object (e.g., a pedestrian). Example 106 shows a vehicle 108 and an object 110 (e.g., a pedestrian) in an environment. In some examples, the vehicle 108 may perform the operations discussed in process 100.

動作104は、物体110の属性を決定して、物体110の位置、速度、進路などを決定することを含むことができる。さらに、動作104は、マップデータにアクセスして、横断歩道領域(例えば、横断歩道領域112)が環境内に存在するかどうかを決定することを含むことができる。いくつかの例では、横断歩道領域112は、環境内の横断歩道の周辺を表すことができる。いくつかの例では、動作104は、物体が横断歩道領域112の一部の閾値距離(例えば、5メートル)内にあることを決定することを含むことができる。いくつかの例では、閾値距離は、物体から横断歩道領域の任意の部分までの最短距離とみなされる。物体110が環境内の多様な横断歩道領域の閾値距離内にある場合、動作104は、歩行者(例えば、物体110)がそれぞれの横断歩道領域を横断することに関連付けられた確率、又はスコアを決定し、最も可能性の高い横断歩道領域を選択することを含むことができる。いくつかの例では、目的地114は、横断歩道領域112に関連付けられることができる。いくつかの例では、目的地114は、横断歩道領域112に関連付けられた環境内の任意の点を表すことができるが、物体110の位置に対向する横断歩道領域112の側部の中心または中間点を表すことができる。目的地を決定することの付加的な詳細は、図3A、及び図3Bに関連して、同様に、本開示を通して論じられる。 The operation 104 may include determining attributes of the object 110 to determine the location, speed, path, etc. of the object 110. Additionally, the operation 104 may include accessing map data to determine whether a crosswalk area (e.g., the crosswalk area 112) exists in the environment. In some examples, the crosswalk area 112 may represent the perimeter of a crosswalk in the environment. In some examples, the operation 104 may include determining that the object is within a threshold distance (e.g., 5 meters) of a portion of the crosswalk area 112. In some examples, the threshold distance is considered to be the shortest distance from the object to any portion of the crosswalk area. If the object 110 is within the threshold distance of various crosswalk areas in the environment, the operation 104 may include determining a probability, or score, associated with a pedestrian (e.g., the object 110) crossing each crosswalk area and selecting the most likely crosswalk area. In some examples, the destination 114 may be associated with the crosswalk area 112. In some examples, the destination 114 may represent any point in the environment associated with the crosswalk area 112, but may represent the center or midpoint of the side of the crosswalk area 112 opposite the location of the object 110. Additional details of determining the destination are discussed in connection with Figures 3A and 3B, as well as throughout this disclosure.

動作116では、プロセスは、物体に関連付けられた属性を決定することを含むことができる。例118に例示されるように、属性は物体110に対して、属性に関連付けられた最新の時間まで、及びそれを含む時間内の様々な例(例えば、時間T-M、...、T-2、T-1、T0)において、決定されることができる。物体110は、物体120(例えば、時間T-2における)として、物体122(例えば、時間T-1における)として、および物体124(例えば、時間T0における)として参照されることができる。いくつかの例では、時間T0は、データが予測コンポーネント(後述)に入力される時間を表し、時間T-1は、時間T0の1秒前を表し、時間T-2は、時間T0の2秒前を表す。しかしながら、時間T0、T-1、及びT-2は、任意の時間インスタンス、及び/又は時間の期間を表すことができることが理解されることができる。例えば、時間T-1は時間T0の0.1秒前を表し、時間T-2は時間T0の0.2秒前を表す。いくつかの例では、動作116で決定された属性は、物体120、122、及び/又は124についての情報を含むことができるが、これらに限定はされない。例えば、物体120に関連付けられた速度属性は、時間T-2における物体120の速度を表す。物体122に関連付けられた速度属性は、時間T-1における物体の速度を表す。そして、物体124に関連付けられた速度属性は、時間T0における物体の速度を表す。いくつかの例では、属性のいくつか、又はすべては、物体124(例えば、時刻T0における物体110)と目的地114との相対的な参照のフレームで表される。そのような例では、各先行した時間ステップ(T-MからT0)に関連付けられた3つの一意的な参照フレームがあり、各属性はその特定の時間の参照フレームに関連付けられる。属性の付加的な詳細は、図2に関連して、同様に、本開示を通して論じられる。 At operation 116, the process may include determining attributes associated with the object. As illustrated in example 118, attributes may be determined for object 110 at various instances in time (e.g., times T -M , . . ., T -2 , T -1 , T 0 ) up to and including the most recent time associated with the attribute. Object 110 may be referenced as object 120 (e.g., at time T -2 ), as object 122 (e.g., at time T -1 ), and as object 124 (e.g., at time T 0 ). In some examples, time T 0 represents a time when data is input into a prediction component (described below), time T -1 represents one second before time T 0 , and time T -2 represents two seconds before time T 0 . However, it may be understood that times T 0 , T -1 , and T -2 may represent any time instance and/or period of time. For example, time T -1 represents 0.1 seconds before time T 0 and time T -2 represents 0.2 seconds before time T 0. In some examples, the attributes determined in operation 116 may include, but are not limited to, information about objects 120, 122, and/or 124. For example, a speed attribute associated with object 120 represents the speed of object 120 at time T -2 . A speed attribute associated with object 122 represents the speed of the object at time T -1 . And a speed attribute associated with object 124 represents the speed of the object at time T 0. In some examples, some or all of the attributes are expressed in a frame of reference relative to object 124 (e.g., object 110 at time T 0 ) and destination 114. In such examples, there are three unique frames of reference associated with each preceding time step (T -M through T 0 ), and each attribute is associated with its particular time frame of reference. Additional details of the attributes are discussed throughout this disclosure, as well as in connection with FIG. 2 .

動作126において、プロセスは、属性に基づいて、物体に関連付けられた予測位置を決定することを含むことができる。例128は、予測位置130(例えば、T0後の時間である時間T1における物体110の予測位置)を示している。いくつかの例では、動作126が時間T0、又はその付近で実行されることができるため、時間T1における予測位置130は、将来における物体110の場所を表すことができる。理解できるように、いくつかの例では、動作126は、将来の物体124に関連付けられた複数の時間に対して予測位置を決定することを含むことができる。例えば、動作126は、時間T1、T2、T3、...、TNにおける物体の予測位置を決定することを含むことができ、ここでNは、将来における時間、例えば、1秒、2秒、3秒などを表す整数である。いくつかの例では、予測位置は、参照線に沿った距離s、及び参照線からの横方向のオフセットeyとして表されることができる。少なくともいくつかの例では、距離s、及びオフセットeyは、各時間のステップで定義された相対座標系に対するもの、及び/又は最後に決定された参照フレームに対するものである。予測位置の決定に関する付加的なの詳細は、図4および図5に関連して、また本開示を通して論じられる。 In act 126, the process may include determining a predicted position associated with the object based on the attributes. Example 128 illustrates predicted position 130 (e.g., a predicted position of object 110 at time T1, which is a time after T0 ). In some examples, act 126 may be performed at or near time T0 , so that predicted position 130 at time T1 may represent a location of object 110 in the future. As can be appreciated, in some examples, act 126 may include determining predicted positions for multiple times associated with future object 124. For example, act 126 may include determining predicted positions of the object at times T1 , T2 , T3 , ..., TN , where N is an integer representing a time in the future, e.g., 1 second, 2 seconds, 3 seconds, etc. In some examples, the predicted position may be represented as a distance s along a reference line and a lateral offset ey from the reference line. In at least some examples, the distance s and offset e y are relative to a relative coordinate system defined at each time step and/or relative to the last determined reference frame. Additional details regarding determining predicted positions are discussed in connection with Figures 4 and 5 and throughout this disclosure.

いくつかの例では、動作102、104、116、及び/又は126は、反復して、又は繰り返して(例えば、各時間のステップで、10Hzの周波数で、など)実行されることができるが、プロセス100は、任意の間隔または任意の時間で実行されることができる。 In some examples, operations 102, 104, 116, and/or 126 may be performed iteratively or repeatedly (e.g., at each time step, at a frequency of 10 Hz, etc.), although process 100 may be performed at any interval or for any length of time.

動作132において、プロセスは、予測位置に少なくとも部分的に基づいて、車両を制御することを含むことができる。いくつかの例では、動作132は、車両108が従うべき軌道を生成すること(例えば、交差点の前および/または横断歩道領域112の前で停止し、歩行者110が横断歩道領域112を通過して目的地114まで横断することを与えること)を含むことができる。 In operation 132, the process may include controlling the vehicle based at least in part on the predicted position. In some examples, operation 132 may include generating a trajectory for the vehicle 108 to follow (e.g., stopping before an intersection and/or before a pedestrian crossing area 112 and allowing the pedestrian 110 to cross through the pedestrian crossing area 112 to the destination 114).

図2は、物体の例示的な属性200を示している。いくつかの例では、属性202は、環境内の物体(例えば、図1における物体110)についての、又は関連付けられた様々な情報を表すことができる。いくつかの例では、属性202は、物体に関連付けられた1つまたは複数の時間インスタンスに対して決定されることができる。例えば、物体120は、時間T-2における物体110を表し、物体122は、時間T-1における物体110を表し、物体124は、時間T0における物体110を表す。属性は、例えば、時間インスタンスT-2、T-1、及びT0のそれぞれにおける物体に対して決定されることができる。 2 illustrates example attributes 200 of an object. In some examples, the attributes 202 may represent various information about or associated with an object in an environment (e.g., object 110 in FIG. 1 ). In some examples, the attributes 202 may be determined for one or more time instances associated with the object. For example, object 120 represents object 110 at time T −2 , object 122 represents object 110 at time T −1 , and object 124 represents object 110 at time T 0 . Attributes may be determined for the object at each of the time instances T −2 , T −1 , and T 0 , for example.

属性202の例は、物体と道路との間の距離、領域までのx-距離(又は第1の距離)、領域までのy-距離(又は第2の距離)、目的地までの距離、速度(大きさ)、速度(角度)、x-位置、y-位置、領域フラックス、領域を制御する指示器の状態、車両コンテキスト(又は一般的には、物体コンテキスト)、物体の関連付けなどを含むが、これらに限定はされない。少なくともいくつかの例では、本明細書で論じられる属性は、各時間のステップで定義された(例えば、物体120、122、124の各々に関連付けられた)相対座標系に対するもの、最後に決定された参照フレームに対するもの、車両108に関して(例えば、様々な時間のステップ(s)で)定義された参照フレームに対するもの、グローバル座標の参照フレームに対するもの、などである。 Examples of attributes 202 include, but are not limited to, distance between the object and the road, x-distance (or first distance) to the region, y-distance (or second distance) to the region, distance to destination, speed (magnitude), speed (angle), x-position, y-position, region flux, state of indicator controlling the region, vehicle context (or generally, object context), object association, etc. In at least some examples, the attributes discussed herein are relative to a relative coordinate system defined at each time step (e.g., associated with each of the objects 120, 122, 124), relative to a last determined reference frame, relative to a reference frame defined with respect to the vehicle 108 (e.g., at various time steps (s)), relative to a global coordinate reference frame, etc.

例204は、物体124に関連付けられた様々な属性を例示している。例えば、例204は、横断歩道領域112、及び目的地114に関する属性を示している。いくつかの例では、領域までのx-距離は、距離206に対応することができる。すなわち、距離206は、物体124と、物体124に最も近い横断歩道領域112のエッジとの間の第1の方向(グローバルまたはローカルな参照フレームである)における距離を表すことができる。いくつかの例では、領域までのy-距離は、距離208に対応することができる。すなわち、距離208は、物体124と横断領域112のエッジとの間の第2の方向の距離を表すことができる。少なくともいくつかの例では、物体124と横断歩道領域との間の最単距離が決定され、その後、x-距離、及びy-距離として、それぞれのx-成分およびy-成分に分解される。 Example 204 illustrates various attributes associated with object 124. For example, example 204 illustrates attributes related to crosswalk area 112 and destination 114. In some examples, an x-distance to the area can correspond to distance 206. That is, distance 206 can represent a distance in a first direction (which can be a global or local reference frame) between object 124 and an edge of crosswalk area 112 that is closest to object 124. In some examples, a y-distance to the area can correspond to distance 208. That is, distance 208 can represent a distance in a second direction between object 124 and an edge of crosswalk area 112. In at least some examples, the simplest distance between object 124 and crosswalk area is determined and then decomposed into respective x- and y-components as x-distance and y-distance.

例204に示されるように、物体124は、歩道領域210(又は一般的に、走行不能領域210)上の位置にある。いくつかの例では、横断歩道領域112は、道路212(または、一般に、運転可能な領域212)を横切る経路を提供する。いくつかの例では、道路までの距離は距離214に対応することができ、物体124と横断歩道領域112内の道路212の一部との間の最短、又は最小の距離に対応することができる。 As shown in example 204, object 124 is at a location on sidewalk region 210 (or generally, non-drivable region 210). In some examples, crosswalk region 112 provides a path across road 212 (or generally, drivable region 212). In some examples, the distance to the road may correspond to distance 214, which may correspond to a minimum or minimum distance between object 124 and the portion of road 212 within crosswalk region 112.

いくつかの例では、目的地までの距離は、距離216に対応することができる。図示されているように、距離216は、対象物124と目的地114との間の距離を表している。 In some examples, the distance to the destination may correspond to distance 216. As shown, distance 216 represents the distance between object 124 and destination 114.

上述したように、いくつかの例では、属性202は、参照のフレームで表されることができる。本明細書で論じられるように、参照のフレームは、各時間のステップにおける物体の位置に関して、最後の参照フレーム、グローバル座標系などを基準にして定義される。いくつかの例では、参照のフレームに対応する原点は、物体124の位置に対応することができる。例218は、参照のフレーム220(参照フレーム220とも呼ばれる)を示している。いくつかの例では、参照のフレーム220の第1の軸は、物体124の位置から、目的地114の方向への単位ベクトルによって定義される。第1の軸は、例218ではx軸と表示されている。いくつかの例では、第2の軸は、第2の軸に垂直であり、横断歩道を備える平面内に存在することができる。第2の軸は、例218では、y軸と表示されている。いくつかの例では、第1の軸は、距離sが決定されることができる参照線を表すことができ、一方、横方向のオフセットeyは、第2の方向(例えば、y軸)に対して決定されることができる。 As mentioned above, in some examples, the attribute 202 can be expressed in a frame of reference. As discussed herein, a frame of reference is defined with respect to the position of the object at each time step, relative to a last reference frame, a global coordinate system, etc. In some examples, an origin corresponding to the frame of reference can correspond to the position of the object 124. Example 218 illustrates a frame of reference 220 (also referred to as reference frame 220). In some examples, a first axis of the frame of reference 220 is defined by a unit vector from the position of the object 124 in the direction of the destination 114. The first axis is labeled as the x-axis in example 218. In some examples, a second axis can be perpendicular to the second axis and lie in a plane that includes the crosswalk. The second axis is labeled as the y-axis in example 218. In some examples, the first axis can represent a reference line from which a distance s can be determined, while a lateral offset e y can be determined with respect to a second direction (e.g., the y-axis).

例222は、物体124に関連付けられた速度ベクトル224と、速度ベクトル224と参照線との間の角度を表す角度226を示している。いくつかの例では、参照線は、参照のフレーム220の第1の軸に対応することができるが、任意の基準線を選択、又は他の方法で決定されることができる。 Example 222 shows a velocity vector 224 associated with object 124 and an angle 226 representing the angle between velocity vector 224 and a reference line. In some examples, the reference line may correspond to a first axis of frame of reference 220, although any reference line may be selected or otherwise determined.

本明細書で論じられるように、物体124、122、及び120に関連付けられた属性は、参照のフレーム220を基準にして表されることができる。すなわち、時間T0において、物体124のx-位置およびy-位置は、(0,0)として表されることができる(例えば、物体124は、参照のフレーム220の原点を表す)。さらに、参照のフレーム220に対して、物体122(時間T0における)のx-位置およびy-位置は(-x1,-y1)で表されることができ、物体120(時刻T0における)のx-位置およびy-位置は(-x2,-y2)で表されることができる。少なくともいくつかの例では、単一の座標フレームが使用されるが、他の例では、相対座標フレームが全ての点に関連付けられ、各相対座標フレームに対して属性が定義される。 As discussed herein, attributes associated with objects 124, 122, and 120 may be expressed with respect to a frame of reference 220. That is, at time T0, the x- and y-positions of object 124 may be expressed as (0,0) (e.g., object 124 represents the origin of frame of reference 220). Additionally, with respect to frame of reference 220, the x- and y-positions of object 122 (at time T0 ) may be expressed as ( -x1 , -y1 ), and the x- and y-positions of object 120 (at time T0 ) may be expressed as ( -x2 , -y2 ). While in at least some examples, a single coordinate frame is used, in other examples, a relative coordinate frame is associated with all points and attributes are defined for each relative coordinate frame.

上述したように、属性202は、領域フラックスを含むことができる。いくつかの例では、領域フラックスは、ある期間内に横断歩道領域112を通過した物体の数を表すことができる。例えば、領域フラックスは、K秒内に横断歩道領域112(または任意の領域)を通過したJ個の自動車(及び/又は他の歩行者などの他の物体)に対応することができる(例えば、T-2からT0の間の時間内に5台)。いくつかの例では、領域フラックスは、任意の期間を表すことができる。さらに、領域フラックスは、期間内に横断歩道領域112を通過した、そのような車両についての速さ、加速度、速度などの情報を含むことができる。 As mentioned above, the attributes 202 can include area flux. In some examples, the area flux can represent the number of objects passing through the crosswalk area 112 within a period of time. For example, the area flux can correspond to J cars (and/or other objects, such as other pedestrians) passing through the crosswalk area 112 (or any area) within K seconds (e.g., 5 cars in the time between T -2 and T 0 ). In some examples, the area flux can represent any period of time. Additionally, the area flux can include information such as speed, acceleration, velocity, etc., for such vehicles passing through the crosswalk area 112 within the period of time.

さらに、属性202は、領域を制御する指示器を含むことができる。いくつかの例では、領域を制御する指示器は、横断歩道領域112内の歩行者の交通を制御する信号または指示器の状態に対応することができる。いくつかの例では、領域を制御する指示器は、信号が存在するかどうか、信号の状態(例えば、緑、黄、赤など)、及び/又は横断歩道の指示器の状態(例えば、歩く、歩かない、不明など)を示すことができる。 Further, attributes 202 can include indicators controlling the area. In some examples, the indicators controlling the area can correspond to the state of a signal or indicator controlling pedestrian traffic within crosswalk area 112. In some examples, the indicators controlling the area can indicate whether a signal is present, the state of the signal (e.g., green, yellow, red, etc.), and/or the state of a crosswalk indicator (e.g., walk, no walk, unknown, etc.).

いくつかの例では、属性202は、車両、又は他の物体が物体(例えば、124)に近接しているかどうかを示す車両コンテキスト、及びそのような任意の車両、又は物体に関連付けられた属性を含むことができる。いくつかの例では、車両コンテキストは、速度、方向、加速度、境界ボックス、位置(例えば、参照のフレーム220内)、物体と物体124との間の距離などを含むが、これらに限定はされない。 In some examples, attributes 202 may include vehicle context indicating whether a vehicle or other object is in proximity to object (e.g., 124) and attributes associated with any such vehicle or object. In some examples, vehicle context may include, but is not limited to, speed, direction, acceleration, bounding box, position (e.g., within frame of reference 220), distance between the object and object 124, etc.

いくつかの例では、属性202は、物体の関連付けを含むことができる。例えば、物体の関連付けは、物体124が他の物体と関連付けられているかどうか(例えば、物体124が歩行者のグループにいるかどうか)を示すことができる。いくつかの例では、物体の関連付け属性202は、関連する物体に関連杖蹴られた属性を含むことができる。 In some examples, the attributes 202 can include object associations. For example, the object associations can indicate whether the object 124 is associated with other objects (e.g., whether the object 124 is in a group of pedestrians). In some examples, the object association attributes 202 can include associated attributes for the associated objects.

属性202はさらに、加速度、ヨー、ピッチ、ロール、相対速度、相対加速度、物体が道路212にいるかどうか、物体が歩道210にいるかどうか、物体が横断歩道領域112内にいるかどうか、目的地が変わったかどうか(例えば、物体が交差点で引き返したかどうか)、物体の高さ、物体が自転車に乗っているかどうか、などに関連付けられた情報を含むが、これらに限定はされない。 Attributes 202 further include, but are not limited to, information associated with acceleration, yaw, pitch, roll, relative velocity, relative acceleration, whether the object is on the road 212, whether the object is on the sidewalk 210, whether the object is in a crosswalk area 112, whether the destination has changed (e.g., whether the object has turned back at an intersection), the height of the object, whether the object is riding a bicycle, etc.

属性202はさらに、歩行者の手のジェスチャー、歩行者の視線検出、歩行者が立っているか、歩いているか、走っているかなどの指示、他の歩行者が横断歩道にいるかどうか、歩行者の横断歩道フラックス(例えば、一定期間に横断歩道を通って(例えば、走行可能なエリアを横断して)移動する歩行者の数)、歩道(又は走行不能なエリア)にいる第1の歩行者数と、横断歩道領域(又は走行可能なエリア)にいる第2の歩行者数との比率、各属性に関連付けられた分散、信頼度、及び/又は確率などをさらに含むが、これらに限定はされない。 Attributes 202 may further include, but are not limited to, pedestrian hand gestures, pedestrian gaze detection, an indication of whether a pedestrian is standing, walking, running, etc., whether other pedestrians are in a crosswalk, pedestrian crosswalk flux (e.g., the number of pedestrians moving through a crosswalk (e.g., across a drivable area) in a period of time), the ratio of a first number of pedestrians on the sidewalk (or non-drivable area) to a second number of pedestrians in the crosswalk area (or drivable area), a variance, confidence, and/or probability associated with each attribute, etc.

図3A、及び図3Bは、環境内の物体に関連付けられた目的地を決定することの例を示している。一般的に、図3Aは、2つの横断歩道領域の間で選択することを例示し、一方、図3Bは、単一の横断歩道領域に関連付けられた2つの目的地の間で選択することを例示している。 Figures 3A and 3B show examples of determining destinations associated with objects in an environment. Generally, Figure 3A illustrates choosing between two crosswalk areas, while Figure 3B illustrates choosing between two destinations associated with a single crosswalk area.

図3Aは、環境内の物体に関連付けられた目的地を決定することの例300を示している。上述したように、また一般的に、図3Aは、2つの横断歩道領域の間で選択することを示している。例302は、時間T-1において歩行者に対応した物体304と、時間T0において歩行者に対応した物体306を示している。例えば、車両108などの車両は、環境のセンサーデータを取り込むことができ、歩行者が環境にいることを決定することができる。 FIGURE 3A illustrates an example 300 of determining a destination associated with an object in an environment. As discussed above, and generally, FIGURE 3A illustrates selecting between two pedestrian crossing areas. Example 302 illustrates an object 304 corresponding to a pedestrian at time T -1 and an object 306 corresponding to a pedestrian at time T0 . For example, a vehicle, such as vehicle 108, can capture sensor data of the environment and can determine that a pedestrian is in the environment.

さらに、物体304、及び306に少なくとも部分的に基づいて、コンピューティングシステムは、物体304、及び/又は306が環境内の1つまたは複数の横断歩道領域に近接していることを決定することができる。例えば、コンピューティングデバイスは、そのような横断歩道領域の位置および範囲(例えば、長さ、及び幅)を示すマップ要素を含むマップデータにアクセスすることができる。例302は、環境を、第1の横断歩道領域308(領域308とも呼ばれる)、及び第2の横断歩道領域310(領域310とも呼ばれる)を含むものとして示している。 Further, based at least in part on the objects 304 and 306, the computing system can determine that the objects 304 and/or 306 are proximate to one or more pedestrian crossing areas in the environment. For example, the computing device can access map data that includes map elements that indicate the location and extent (e.g., length and width) of such pedestrian crossing areas. Example 302 illustrates the environment as including a first pedestrian crossing area 308 (also referred to as area 308) and a second pedestrian crossing area 310 (also referred to as area 310).

いくつかの例では、領域308は、閾値領域312(閾値312とも呼ばれる)と関連付けられることができ、領域310は、閾値領域314(閾値314とも呼ばれる)と関連付けられることができる。図示されているように、物体304、及び306は、閾値312、及び314の範囲内にある。物体304、及び/又は306が閾値312、及び314内にあることに少なくとも部分的に基づいて、コンピューティングデバイスは、物体304、及び/又は306がそれぞれ領域308、及び、310に関連付けられていると決定することができる。 In some examples, region 308 can be associated with threshold region 312 (also referred to as threshold 312) and region 310 can be associated with threshold region 314 (also referred to as threshold 314). As shown, objects 304 and 306 are within thresholds 312 and 314. Based at least in part on objects 304 and/or 306 being within thresholds 312 and 314, a computing device can determine that objects 304 and/or 306 are associated with regions 308 and 310, respectively.

いくつかの例では、閾値312は、領域308に関連付けられた任意の領域、又はエリアを表すことができる。図示されるように、閾値312は、領域308を囲む5メートルの閾値を表すことができるが、閾値312の任意の距離、又は形状が、領域308に関連付けられることができる。同様に、閾値314は、領域310に関連付けられた任意の距離、又は、形状を含むことができる。 In some examples, threshold 312 may represent any region or area associated with region 308. As illustrated, threshold 312 may represent a 5 meter threshold surrounding region 308, although any distance or shape of threshold 312 may be associated with region 308. Similarly, threshold 314 may include any distance or shape associated with region 310.

いくつかの実施例では、領域308は、目的地316と関連付けられることができる。さらに、いくつかの例では、領域310は、目的地318と関連付けられることができる。いくつかの例では、目的地316、及び/又は318の位置は、物体304、及び/又は306から道路を横断して位置される。すなわち、横断歩道領域に関連付けられた目的地は、横断歩道領域に対する歩行者の位置に少なくとも部分的に基づいて選択されることができる In some examples, the region 308 can be associated with a destination 316. Further, in some examples, the region 310 can be associated with a destination 318. In some examples, the location of the destination 316 and/or 318 is located across a road from the object 304 and/or 306. That is, the destination associated with the crosswalk region can be selected based at least in part on the location of the pedestrian relative to the crosswalk region.

物体304、及び/又は306は、本明細書で論じられるような属性と関連付けられることができる。すなわち、技術は、物体304、及び306の位置、速度、進路、加速度などをそれぞれ決定することを含むことができる。 Objects 304 and/or 306 can be associated with attributes as discussed herein. That is, techniques can include determining the position, velocity, path, acceleration, etc. of objects 304 and 306, respectively.

さらに、例302に表された情報(例えば、物体304、及び/又は306に関連付けられた属性、領域308、及び/又は310の位置、閾値312、及び/又は314の位置、目的地316、及び/又は318の位置など)は、目的地予測コンポーネント320に入力されることができる。いくつかの例では、目的地予測コンポーネント320は、物体306が領域308、及び/又は領域310を横断するスコア、又は確率を出力することができる。例302では、2つの時間のステップ(例えば、T-1、及びT0)に関連付けられた物体情報を示しているが、任意の経時的な物体情報が目的地の決定に使用されることができる。 Additionally, the information depicted in example 302 (e.g., attributes associated with objects 304 and/or 306, locations of regions 308 and/or 310, locations of thresholds 312 and/or 314, locations of destinations 316 and/or 318, etc.) can be input to a destination prediction component 320. In some examples, the destination prediction component 320 can output a score, or probability, that object 306 will cross region 308 and/or region 310. Although example 302 shows object information associated with two time steps (e.g., T −1 and T 0 ), any object information over time can be used to determine the destination.

いくつかの例では、物体302、及び306に関連付けられた属性は、1つ又は複数の参照のフレームを用いて、目的地予測コンポーネント320に入力されることができる。例えば、目的地316を評価するために、物体304、及び306に関連付けられた属性は、目的地316に少なくとも部分的に基づいた参照のフレームを使用して、目的地予測コンポーネント320に入力されることができる。さらに、目的地318を評価するために、物体304、及び306に関連付けられた属性は、目的地318に少なくとも部分的に基づいた参照のフレームを使用して、目的地予測コンポーネント320に入力されることができる。 In some examples, attributes associated with objects 302 and 306 can be input to destination prediction component 320 using one or more frames of reference. For example, to evaluate destination 316, attributes associated with objects 304 and 306 can be input to destination prediction component 320 using a frame of reference based at least in part on destination 316. Further, to evaluate destination 318, attributes associated with objects 304 and 306 can be input to destination prediction component 320 using a frame of reference based at least in part on destination 318.

いくつかの例では、信号無視をしている歩行者、又は横断歩道領域が容易に識別できない道路を横断する歩行者の場合のように、歩行者に関連付けられた目的地は、多くの要因に基づいて決定されることができる。例えば、目的地は、歩行者の速度の直線外挿、歩行者に関連付けられた歩道領域の最も近い位置、駐車している車両の間の隙間、車両に関連付けられた開いたドアなどの1つ又は複数に少なくとも部分的に基づいて、決定されることができる。いくつかの例では、環境内の可能な目的地を識別するために、環境のセンサーデータを取り込むことができる。さらに、物体に関連付けられた属性は、決定された目的地に少なくとも部分的に基づいて、参照のフレーム内に表されることができ、その属性は、本明細書で論じられるように、評価のために目的地予測コンポーネント320に入力されることができる。 In some examples, such as in the case of a pedestrian running a red light or crossing a road where a crosswalk area is not easily identifiable, a destination associated with the pedestrian can be determined based on a number of factors. For example, the destination can be determined based at least in part on one or more of a linear extrapolation of the pedestrian's speed, the closest location of a sidewalk area associated with the pedestrian, a gap between parked vehicles, an open door associated with a vehicle, and the like. In some examples, sensor data of the environment can be captured to identify possible destinations within the environment. Additionally, attributes associated with the object can be represented in a frame of reference based at least in part on the determined destination, and the attributes can be input to the destination prediction component 320 for evaluation, as discussed herein.

例322は、目的地予測コンポーネント320の出力を示している。例えば、物体304、及び/又は306の属性に少なくとも部分的に基づいて、目的地予測コンポーネント320は、物体304、及び/又は306が目的地318に向かっていることを予測する。 Example 322 illustrates output of destination prediction component 320. For example, based at least in part on attributes of object 304 and/or 306, destination prediction component 320 predicts that object 304 and/or 306 are heading toward destination 318.

図3Bは、環境内の物体に関連付けられた目的地を決定することの別の例324を示している。上述したように、図3Bは、単一の横断歩道領域に関連付けられた2つの目的地の間で選択することを示している。 Figure 3B illustrates another example 324 of determining destinations associated with objects in the environment. As discussed above, Figure 3B illustrates selecting between two destinations associated with a single crosswalk area.

例324は、時間T-1における歩行者に対応した物体326と、時間T0における歩行者に対応した物体328を示している。いくつかの例では、物体326、及び328が道路330(または運転可能なエリア330)にあるので(歩道332(または運転不能なエリア332)に位置するのとは対照的に)、コンピューティングデバイスは、領域338に関連付けられた2つの目的地334、及び336を識別する。いくつかの例では、物体326、及び328に関連付けられた属性は、目的地334、及び336のどちらが最も可能性が高いかを決定するために、目的地予測コンポーネント320に入力されることができる(目的地334と336、及び領域338についての情報、同様に、他の情報)。この図3Bでは、例示のために、横断歩道を出入りするように描かれているが、このような横断歩道領域は必須ではない。非限定的な例として、そのような目的地予測コンポーネント320は、歩行者が信号無視をしようとしている、又はそうでなくとも横断歩道領域ではないエリアで横断すると一般的に決定し、対応する目的地を出力する。このような例では、領域に関連付けられた属性は決定されない(領域が存在しないため)。しかしながら、いくつかの例では、道路セグメントに直交し、一定の幅を有する固定された領域が、そのようなパラメータを決定するための領域として使用される。 Example 324 shows object 326 corresponding to a pedestrian at time T −1 and object 328 corresponding to a pedestrian at time T 0. In some examples, because objects 326 and 328 are on road 330 (or drivable area 330) (as opposed to being located on sidewalk 332 (or non-drivable area 332)), the computing device identifies two destinations 334 and 336 associated with area 338. In some examples, attributes associated with objects 326 and 328 can be input to destination prediction component 320 to determine which of destinations 334 and 336 is most likely (as well as information about destinations 334 and 336 and area 338, as well as other information). While depicted as entering and leaving a crosswalk in this FIG. 3B for illustrative purposes, such a crosswalk area is not required. As a non-limiting example, such a destination prediction component 320 would typically determine that the pedestrian is about to run a red light or otherwise cross an area that is not a crosswalk area, and output the corresponding destination. In such instances, attributes associated with the region are not determined (because the region does not exist), however, in some instances, a fixed region perpendicular to the road segment and having a certain width is used as the region for determining such parameters.

上述したように、いくつかの例では、領域338は、物体326、及び/又は328が領域338の閾値距離内にある時間に、物体326、及び/又は328と関連付けられる。 As discussed above, in some examples, region 338 is associated with object 326 and/or 328 at a time when object 326 and/or 328 is within a threshold distance of region 338.

図4は、経時的な物体の属性に基づいて、物体の予測位置を決定する例400を示している。 Figure 4 shows an example 400 of determining a predicted location of an object based on attributes of the object over time.

例402は、物体120(例えば、時間T-2における歩行者)、物体122(例えば、時間T-1における歩行者)、及び物体124(例えば、時間T0の歩行者)を示している。本明細書で論じられるように、物体120、122、及び124は、物体124を原点とする参照のフレーム(及び/又は任意の1つ又は複数の時間に関連付けられた1つまたは複数の参照のフレーム)で表されることができる。さらに、例402では、横断歩道領域112、及び目的地114に関連付けられた物体120、122、および124を示している。 Example 402 illustrates object 120 (e.g., a pedestrian at time T −2 ), object 122 (e.g., a pedestrian at time T −1 ), and object 124 (e.g., a pedestrian at time T 0 ). As discussed herein, objects 120, 122, and 124 may be represented in a frame of reference that has object 124 as the origin (and/or one or more frames of reference associated with any one or more times). Additionally, example 402 illustrates objects 120, 122, and 124 associated with pedestrian crossing area 112 and destination 114.

例402に関連付けられたデータは、物体120、122、及び/又は124に関連付けられた予測位置を出力することができる位置予測コンポーネント404に入力されることができる。 Data associated with example 402 can be input to a location prediction component 404, which can output a predicted location associated with objects 120, 122, and/or 124.

例406は、物体120、122、及び/又は124に基づく予測位置を示している。例えば、位置予測コンポーネント404は予測位置408を出力することができ、予測位置408は時間T1における物体の位置を表す。いくつかの例では、予測位置408は、物体124(例えば、原点)及び目的地114によって定義される参照のフレームに少なくとも部分的に基づいて、距離(例えば、s)410、及び横方向のオフセット412(例えば、ey)として表される。 Example 406 illustrates a predicted position based on objects 120, 122, and/or 124. For example, location prediction component 404 can output a predicted position 408, which represents the position of the object at time T. In some examples, predicted position 408 is expressed as a distance (e.g., s) 410 and a lateral offset 412 (e.g., e y ) based at least in part on a frame of reference defined by object 124 (e.g., origin) and destination 114.

図示されているように、位置予測コンポーネント404は、それぞれ時間T1、T2、T3、T4、及びT5の各々に対応する5つの予測位置を出力することができるが、位置予測コンポーネント404は、任意の将来の時間に関連付けられた任意の数の予測位置を出力できることが理解されることができる。いくつかの例では、そのような付加的な予測位置は、グローバル座標フレーム、ローカル座標フレーム、以前の予測点に関連付けられた相対的参照フレームに関するものなどによって定義される。 As shown, the location prediction component 404 may output five predicted positions corresponding to each of times T1 , T2 , T3 , T4 , and T5 , respectively, although it may be understood that the location prediction component 404 may output any number of predicted positions associated with any future time. In some examples, such additional predicted positions may be defined with respect to a global coordinate frame, a local coordinate frame, a relative reference frame associated with a previous predicted point, etc.

いくつかの例では、位置予測コンポーネント404は、距離sまたは横方向オフセットeyなどの出力値をビン化する機能を含むことができる。すなわち、位置予測コンポーネント404は、ビンに入る値を、そのビンを代表する値に置き換えるビン化機能を含むことができる。例えば、ビンに該当する距離sは、ビン化された値を代表する値に置き換えられることができる。例えば、距離s=0.9メートルで、0.0メートルから1.0メートルの第1のビンが0.5メートルのビン値に対応する場合、距離s=0.9メートルに対するビン化された出力は、0.5メートルに対応する。任意の数のビンが、任意の範囲にかけて使用されることができる。もちろん、いくつかの例では、元の値はビン化なしでそのような出力が出力されることができる。そのような例では、ビンの中心部分からのオフセットを示す追加の値が出力ビンに関連付けられる。非限定的な例として、次の予測位置が第1のビン(例えば、0から1mの間)に入ることを示す出力と、関連付けられた0.2mのオフセットが、予測位置の可能性が高い位置が0.7m(例えば、0.5m+0.2m)であることを示すために使用される。 In some examples, the location prediction component 404 can include functionality for binning output values, such as distance s or lateral offset e y . That is, the location prediction component 404 can include a binning functionality that replaces values that fall into a bin with a value representative of that bin. For example, the distance s that falls into a bin can be replaced with a value representative of the binned value. For example, if distance s=0.9 meters and a first bin from 0.0 meters to 1.0 meters corresponds to a bin value of 0.5 meters, then the binned output for distance s=0.9 meters corresponds to 0.5 meters. Any number of bins can be used across any range. Of course, in some examples, the original value can be output without binning. In such examples, an additional value indicating an offset from the center of the bin is associated with the output bin. As a non-limiting example, an output indicating that the next predicted location falls into the first bin (e.g., between 0 and 1 m) and an associated offset of 0.2 m can be used to indicate that the predicted location is likely to be 0.7 m (e.g., 0.5 m + 0.2 m).

一般的に、例406に示された予測位置は、予測位置414と呼ばれることができる。 In general, the predicted location shown in example 406 can be referred to as predicted location 414.

いくつかの例では、位置予測コンポーネント404は、物体124がそれぞれの時間にそれぞれの予測位置に位置するという確実性を示す、それぞれの予測場所414に関連付けられた分散、共分散、確率、又は確実性を出力することができる。 In some examples, the location prediction component 404 can output a variance, covariance, probability, or certainty associated with each predicted location 414 that indicates the certainty that the object 124 will be located at each predicted location at each time.

図5は、予測位置の決定で使用される参照のフレームの更新の例500を示している。 Figure 5 shows an example 500 of updating the frame of reference used in determining a predicted position.

例406は、例406で表される時間T0に対応した時間TAを表すために、図5で再現される。図示されるように、物体120、122、及び124は、物体124の位置、及び目的地114の位置によって部分的に定義される参照のフレーム220で表される。 5 to represent a time T corresponding to time T represented by example 406. As shown, objects 120, 122, and 124 are represented in a frame of reference 220 that is defined in part by the position of object 124 and the position of destination 114.

いくつかの例では、例406は次の時間のステップのために更新され、更新された予測位置は決定されることができる(例えば、動作502において)。 In some examples, the example 406 is updated for the next time step and an updated predicted position can be determined (e.g., in operation 502).

そのような更新された例は、例504として示され、例504は、例406に対応する環境を示すが、時間TAの後に発生する時間TBにおいてである。例504の物体506は、参照のフレーム508に関する時間T0を表す。同様に、例504は、時間T-1における物体を表す物体510を含む。さらに、物体512は、時間T-2における物体を表す。 Such an updated example is shown as example 504, which shows an environment that corresponds to example 406, but at a time T that occurs after time T. An object 506 in example 504 represents time T with respect to a frame of reference 508. Similarly, example 504 includes an object 510 that represents an object at time T. Additionally, object 512 represents an object at time T.

いくつかの例では、物体510(例えば、参照のフレーム508内の時間T-1における物体)は、物体124(例えば、参照のフレーム220内の時間T0における物体)に対応することができる。同様に、物体512(例えば、参照のフレーム508内の時間T-2における物体)は、物体122(例えば、参照のフレーム220内の時間T-1における物体)に対応することができる。比較のために、例504は、物体120を示しており、それによって、物体120(及び/又は物体120に関連付けられた属性)が使用される、又は例504において更新された予測位置を決定するとき、物体120は使用されない。 In some examples, object 510 (e.g., object at time T −1 in frame of reference 508) may correspond to object 124 (e.g., object at time T 0 in frame of reference 220). Similarly, object 512 (e.g., object at time T −2 in frame of reference 508) may correspond to object 122 (e.g., object at time T −1 in frame of reference 220). For comparison, example 504 illustrates object 120, whereby object 120 (and/or attributes associated with object 120) are used or object 120 is not used when determining the updated predicted position in example 504.

理解されることができるように、参照のフレーム508は、物体506、及び目的地114の位置によって、又は少なくとも部分的に基づいて定義されることができる。このように、相対参照フレームは、目的地114、及び物体124の最近決定された位置(例えば、このような座標参照フレームは、環境内の物体の変化によって変化する)に関して定義されることができる。 As can be appreciated, the frame of reference 508 can be defined by, or at least in part based on, the positions of the object 506 and the destination 114. In this manner, a relative frame of reference can be defined with respect to the most recently determined positions of the destination 114 and the object 124 (e.g., such a coordinate reference frame can change with changes in the objects in the environment).

したがって、例504に関連付けられた情報(物体120に関連付けられた情報を含むか否か)は、更新された予測位置514決定するために、位置予測コンポーネント404に入力されることができる。本明細書で論じられるように、更新された予測位置514は、参照のフレーム508に少なくとも部分的に基づいている。 Thus, information associated with the example 504 (including or not including information associated with the object 120) can be input to the location prediction component 404 to determine an updated predicted location 514. As discussed herein, the updated predicted location 514 is based at least in part on the frame of reference 508.

いくつかの例では、更新された予測位置は、10Hzの周波数で決定されることができるが、予測位置は、任意の周波数で、又は任意の定期的或いは不定期的な時間間隔で決定されることができる。 In some examples, the updated predicted position may be determined at a frequency of 10 Hz, but the predicted position may be determined at any frequency or at any regular or irregular time interval.

図6は、センサーデータを取り込むこと、第1の物体、及び第2の物体が環境内にあることを決定すること、第2の物体に関連付けられた属性を決定すること、属性、及び参照線に基づいて予測位置を決定すること、予測位置に基づいて車両を制御することのプロセス600を例示した絵画的フロー図である。 FIG. 6 is a pictorial flow diagram illustrating a process 600 of capturing sensor data, determining that a first object and a second object are in an environment, determining attributes associated with the second object, determining a predicted position based on the attributes and the reference line, and controlling the vehicle based on the predicted position.

第1の物体に関連付けられた予測位置を決定するために、第1、及び第2の物体の属性を決定するというコンテキストで論じられるが、いくつかの例では、1つ又は複数の第2の物体に対して属性が決定されることはなく、第1の物体の予測位置は、第1の物体に関連付けられた属性に基づいて決定されることができる。 Although discussed in the context of determining attributes of a first and second object to determine a predicted location associated with a first object, in some examples, no attributes are determined for one or more second objects, and the predicted location of the first object can be determined based on the attributes associated with the first object.

動作602において、プロセスは、環境のセンサーデータを取り込むことを含むことができる。いくつかの例では、センサーデータは、車両(自律的、又はその他の方法による)上の1つ又は複数のセンサーによって取り込まれることができる。例えば、センサーデータは、LIDARセンサー、画像センサー、RADARセンサー、Time of flightセンサー、ソナーセンサーなどによって取り込まれたデータを含むことができる。いくつかの例では、動作602は、物体の分類を決定すること(例えば、物体が環境内の車両であると決定すること)を含むことができる。 At operation 602, the process may include capturing sensor data of the environment. In some examples, the sensor data may be captured by one or more sensors on the vehicle (autonomous or otherwise). For example, the sensor data may include data captured by a LIDAR sensor, an image sensor, a RADAR sensor, a time of flight sensor, a sonar sensor, etc. In some examples, operation 602 may include determining a classification of the object (e.g., determining that the object is a vehicle in the environment).

例604は、動作602でセンサーデータを取り込む車両606を示す。環境は、物体608、610、612、614、616、及び618をさらに含む。いくつかの例では、物体618は、本明細書で論じられるような予測動作の対象(例えば、対象)であるため、対象物体618と呼ぶことができる。 Example 604 illustrates a vehicle 606 capturing sensor data in operation 602. The environment further includes objects 608, 610, 612, 614, 616, and 618. In some examples, object 618 may be referred to as a target object 618 because it is the subject (e.g., the target) of a predictive operation as discussed herein.

いくつかの例では、車両606は、軌道620を介して環境を横断する。図6のコンテキストで理解されることができるように、物体608は、車両606と同じ方向に(例えば、車両606と同じ車線で)移動されることができ、一方、いくつかの例では、物体610から618、及び対象物体618は、反対方向に走行することができる(例えば、対象物体618は、車両606に関する対向車を表すことができる)。もちろん、プロセス600は、任意の環境で使用されることができ、図6に示される特定の物体、及び/又はジオメトリに限定されない。 In some examples, the vehicle 606 traverses the environment via a trajectory 620. As can be understood in the context of FIG. 6, the object 608 can be traveling in the same direction as the vehicle 606 (e.g., in the same lane as the vehicle 606), while in some examples, the objects 610-618 and the target object 618 can travel in the opposite direction (e.g., the target object 618 can represent an oncoming vehicle with respect to the vehicle 606). Of course, the process 600 can be used in any environment and is not limited to the particular objects and/or geometries shown in FIG. 6.

動作622において、プロセスは、対象物体、及び対象物体に近接する物体に関連付けられた属性を決定することを含むことができる。例624は、車両606、物体606から616、及び対象物体618を示している。いくつかの例では、動作622は、他の物体の属性を決定することなく、対象物体に関連付けられた属性を決定することを含む。例えば、そのような他の物体が環境内に存在しない、又は他の物体のそのような属性が、本明細書で論じられる技術の実装に従って、対象物体618の予測位置を決定することに対し、必要とされない、望まれない、または要求されない。 At operation 622, the process may include determining attributes associated with the target object and objects proximate to the target object. Example 624 shows vehicle 606, objects 606-616, and target object 618. In some examples, operation 622 may include determining attributes associated with the target object without determining attributes of other objects. For example, no such other objects are present in the environment, or such attributes of the other objects are not needed, desired, or required for determining a predicted location of target object 618 in accordance with implementations of the techniques discussed herein.

図示のために、物体612の輪郭は点線で示され、物体612に対応する要素626、628、及び630は点で表されている。いくつかの例では、要素626は、時間T-2における物体612に関連付けられた位置を表している。いくつかの例では、要素628は、時間T-1における物体612に関連付けられた位置を表している。また、いくつかの例では、要素630は、時間T0における物体612に関連付けられた位置を表している。 For purposes of illustration, the outline of object 612 is shown as a dotted line, and elements 626, 628, and 630 corresponding to object 612 are represented as dots. In some examples, element 626 represents a position associated with object 612 at time T -2 . In some examples, element 628 represents a position associated with object 612 at time T -1 . And, in some examples, element 630 represents a position associated with object 612 at time T 0 .

さらに図示されるように、車両606、物体608から616、及び対象物体618は、図6ではそのような要素はラベル付けされていないが、要素と関連付けられている。そのような要素は、それぞれの時間(例えば、時間T-2、T-1、及びT0)において車両、及び/又は物体に関連付けられた位置を表し、及び/又はそれぞれの時間において物体に関連付けられた属性を表すことができることが、本開示のコンテキストにおいて理解されることができる。 As further shown, vehicle 606, objects 608-616, and target object 618 are associated with elements, even though such elements are not labeled in Figure 6. It can be understood in the context of this disclosure that such elements can represent positions associated with the vehicles and/or objects at the respective times (e.g., times T -2 , T -1 , and T0 ) and/or represent attributes associated with the objects at the respective times.

いくつかの例では、動作622で決定された属性は、それぞれの物体についての情報を表すことができる。例えば、そのような属性は、物体の位置(例えば、グローバル位置、及び/又は任意の参照のフレームに関する相対的な位置)、速度、加速度、境界ボックス、照明の状態、車線属性、参照線、又は予測経路からのオフセットなどを含むことができるが、これらに限定はされない。このような属性の付加的な詳細については、図7に関連して、同様に、本開示を通して述べられる。 In some examples, the attributes determined in operation 622 can represent information about each object. For example, such attributes can include, but are not limited to, the object's position (e.g., a global position and/or a position relative to any frame of reference), velocity, acceleration, bounding box, lighting conditions, lane attributes, reference lines, or offset from a predicted path, etc. Additional details of such attributes are discussed in connection with FIG. 7 as well as throughout this disclosure.

いくつかの例では、動作622は、対象物体に対する物体の近接に少なくとも部分的に基づいて、物体を決定、又は識別することを含むことができる。例えば、動作622は、対象物体618に近接する最も近いN個の物体を決定することを含むことができ、ここで、Nは整数である。付加的にまたは代替として、動作622は、物体が対象物体618の閾値距離内にあることに基づいて、物体を識別、又は選択することを含む。少なくともいくつかの例では、そのような選択は、例えば、物体の分類(例えば、車両のみを考慮する)、動きの方向(例えば、同じ方向に動く物体のみを考慮する)、マップに対する位置(例えば、道路の1つまたは複数の車線にいる車両のみを考慮する)などの1つまたは複数の特徴に基づいて、特定の物体を除外するが、これらに限定はされない。 In some examples, operation 622 may include determining or identifying an object based at least in part on the proximity of the object to the target object. For example, operation 622 may include determining the N closest objects in proximity to target object 618, where N is an integer. Additionally or alternatively, operation 622 may include identifying or selecting an object based on the object being within a threshold distance of target object 618. In at least some examples, such selection excludes certain objects based on one or more characteristics such as, but not limited to, object classification (e.g., considering only vehicles), direction of motion (e.g., considering only objects moving in the same direction), or location relative to the map (e.g., considering only vehicles in one or more lanes of a road).

動作632において、プロセスは、属性に少なくとも部分的に基づいて対象物体に関連付けられた予測位置を決定することを含むことができ、予測位置は、環境内の参照線(いくつかの例では、物体に関連付けられた車線の中心線を備える)に関する。例634は、環境内の対象物体618に関連付けられた予測位置636を示している。いくつかの例では、予測位置636は、参照線638によって、及び/又は参照線638に少なくとも部分的に基づくことによって定義されることができる。すなわち、予測位置636は、参照線638に沿った距離sと、参照線638からの横方向のオフセットeyとによって表されることができる。 At operation 632, the process may include determining a predicted position associated with the target object based at least in part on the attributes, the predicted position relative to a reference line in the environment (which in some examples comprises a centerline of a lane associated with the object). Example 634 illustrates a predicted position 636 associated with target object 618 in the environment. In some examples, predicted position 636 may be defined by and/or based at least in part on reference line 638. That is, predicted position 636 may be represented by a distance s along reference line 638 and a lateral offset e y from reference line 638.

いくつかの例では、参照線638は、環境内のマップデータに少なくとも部分的に基づくことができる。さらに、いくつかの例では、参照線638は、道路、又は他の走行可能なエリアの車線の中央線に対応することができる。 In some examples, the reference lines 638 may be based at least in part on map data within the environment. Further, in some examples, the reference lines 638 may correspond to centerlines of lanes of a road or other drivable area.

いくつかの例では、動作632は、参照線予測コンポーネントからなど、対象物体618に関連付けられた参照線を受信することを含むことができる。いくつかの例では、参照線予測コンポーネントは、マップデータ、環境内の物体の属性などに少なくとも部分的に基づいて、最も可能性の高い参照線を出力するように訓練された機械学習モデルを備えることができる。いくつかの例では、参照線予測コンポーネントは、本明細書で論じられる他の機械学習モデルに統合されることができ、いくつかの例では、参照線予測コンポーネントは、個別のコンポーネントとすることができる。 In some examples, operation 632 may include receiving a reference line associated with the target object 618, such as from a reference line prediction component. In some examples, the reference line prediction component may comprise a machine learning model trained to output a most likely reference line based at least in part on map data, attributes of objects in the environment, etc. In some examples, the reference line prediction component may be integrated with other machine learning models discussed herein, and in some examples, the reference line prediction component may be a separate component.

いくつかの例では、動作632は、複数の候補参照線から参照線638を選択することを含むことができる。いくつかの例では、参照線638は、参照線638に対する予測位置636の類似性を表す類似性スコアに少なくとも部分的に基づいて選択されることができる。いくつかの例では、予測された経路、及び/又は軌道、以前に予測されたウェイポイントなどに対する予測位置636が挙げられる。予測位置、参照線、及び類似性スコアの付加的なの例は、図8に関連して、同様に、本開示を通して論じられる。 In some examples, operation 632 may include selecting a reference line 638 from a plurality of candidate reference lines. In some examples, the reference line 638 may be selected based at least in part on a similarity score that represents a similarity of the predicted position 636 to the reference line 638. Some examples include the predicted position 636 relative to a predicted path and/or trajectory, a previously predicted waypoint, and/or the like. Additional examples of predicted positions, reference lines, and similarity scores are discussed throughout this disclosure, as well as in connection with FIG. 8.

動作640において、プロセスは、予測位置に少なくとも部分的に基づいて車両を制御することを含むことができる。いくつかの例では、動作640は、車両608が従うための軌道、又は更新された軌道642を生成すること(例えば、物体618が車両608の予想された経路に対して密接に横断する場合に、車両606を車両618に関連付けられた予測位置636から遠ざけるようにバイアスすること)を含むことができる。 In operation 640, the process may include controlling the vehicle based at least in part on the predicted position. In some examples, operation 640 may include generating a trajectory for the vehicle 608 to follow, or an updated trajectory 642 (e.g., biasing the vehicle 606 away from the predicted position 636 associated with the vehicle 618 if the object 618 crosses closely relative to the expected path of the vehicle 608).

図7は、物体の属性の例700を示している。いくつかの例では、属性702は、環境内の物体(例えば、図7で再現された例604で表される、図6の物体612、及び対象物体618)に関する、又は物体に関連付けられた様々な情報を表すことができる。 Figure 7 shows example object attributes 700. In some examples, the attributes 702 can represent various information about or associated with objects in an environment (e.g., object 612 of Figure 6 and target object 618, represented by example 604 reproduced in Figure 7).

いくつかの例では、属性702は、物体の1つ又は複数の時間インスタンス対して決定されることができる。例704は、時間インスタンスT2、T-1、及びT0における物体612を示している。例えば、要素626は、時間T-2における物体612を表し、要素628は、時間T-1における物体612を表し、要素630は、時間T0における物体612を表す。 In some examples, attributes 702 may be determined for one or more time instances of the object. Example 704 shows object 612 at time instances T2 , T -1 , and T0 . For example, element 626 represents object 612 at time T -2 , element 628 represents object 612 at time T- 1 , and element 630 represents object 612 at time T0.

さらに、属性は、例704における任意の種類、及び/又は数の物体に対して決定されることができ、物体612に限定されない。例えば、属性は、要素706(例えば、時間T-2における対象物体618を表す)、要素708(例えば、時間T-1における対象物体618を表す)、及び要素710(例えば、時間T0における対象物体618を表す)に対して決定されることができる。さらに、属性は、任意の数の時間インスタンスについて決定されることができ、T-2、T-1、及びT0に限定されない。 Additionally, attributes may be determined for any type and/or number of objects in example 704 and are not limited to object 612. For example, attributes may be determined for element 706 (e.g., representing object of interest 618 at time T -2 ), element 708 (e.g., representing object of interest 618 at time T -1 ), and element 710 (e.g., representing object of interest 618 at time T 0 ). Additionally, attributes may be determined for any number of time instances and are not limited to T -2 , T -1 , and T 0 .

属性702の例には、物体の速度、物体の加速度、物体のx位置(例えば、グローバル位置、ローカル位置、及び/又は他の参照のフレームに対する位置)、物体のy位置(例えば、ローカル位置、グローバル位置、及び/又は他の参照のフレームに対する位置)、物体に関連付けられた境界ボックス(例えば、範囲(長さ、幅、及び/又は高さ)、ヨー、ピッチ、ロールなど)、照明の状態(例えば、ブレーキ照明、ブリンカー照明、ハザードライト、ヘッドライト、バックライトなど)物体のホイール方向、マップ要素(例えば、物体と停止照明との間の距離、停止サイン、スピードバンプ、交差点、イールドサインなど)、物体の分類(例えば、車両、車、トラック、自転車、オートバイ、歩行者、動物など)、物体の特徴(例えば、車線変更中かどうか、物体が二重駐車された車両であるかどうかなど)、1つ又は複数の物体との近接(任意の座標フレームにおいて)、車線の種類(車線の方向、駐車レーンなど)、道路標識(追い越しや車線変更が許可されているかどうかを示すものなど)などが含まれるが、これに限定はされない。 Examples of attributes 702 include, but are not limited to, an object's speed, an object's acceleration, an object's x-position (e.g., relative to a global, local, and/or other frame of reference), an object's y-position (e.g., relative to a local, global, and/or other frame of reference), a bounding box associated with the object (e.g., range (length, width, and/or height), yaw, pitch, roll, etc.), lighting status (e.g., brake lights, blinker lights, hazard lights, headlights, backlights, etc.), wheel direction of the object, map elements (e.g., distance between the object and a stop light, stop sign, speed bump, intersection, yield sign, etc.), object classification (e.g., vehicle, car, truck, bicycle, motorcycle, pedestrian, animal, etc.), object characteristics (e.g., whether a lane is being changed, whether the object is a double-parked vehicle, etc.), proximity to one or more objects (in any coordinate frame), lane type (lane direction, parking lane, etc.), road signs (e.g., indicating whether passing or lane changes are permitted, etc.), etc.

いくつかの例では、物体の属性は、ローカルの参照のフレーム、グローバル座標などに関して決定されることができる。例えば、参照のフレームは、時間T0における対象物体618の位置(例えば、物体710)に対応する原点を有するように決定されることができる。 In some examples, object attributes may be determined with respect to a local frame of reference, global coordinates, etc. For example, a frame of reference may be determined to have an origin that corresponds to the position of target object 618 (e.g., object 710) at time T0 .

図8は、経時的な第2の物体の属性に基づいて、第1の物体の予測位置を決定する例800をしている。 Figure 8 shows an example 800 of determining a predicted location of a first object based on attributes of a second object over time.

図示されているように、図7の例704に関連付けられた情報は、位置予測コンポーネント802に入力されることができ、これにより、対象物体に関連付けられた予測位置を出力することができる。例えば、様々な時間(例えば、T-2、T-1、及びT0)における車両606、物体608から616、及び/又は対象物体618に関連付けられた属性情報は、位置予測コンポーネント802に入力されることができる。 As shown, information associated with example 704 of FIG. 7 can be input to a location prediction component 802, which can output a predicted location associated with the target object. For example, attribute information associated with vehicle 606, objects 608-616, and/or target object 618 at various times (e.g., T −2 , T −1 , and T 0 ) can be input to location prediction component 802.

例804は、対象物体618に関連付けられた予測位置806を示している。すなわち、位置予測コンポーネント802は、対象物体618に関連付けられた属性情報だけでなく、対象物体618に近接する物体に関連付けられた属性情報も受信し、対象物体618を表す予測位置806を将来的に出力することができる。 Example 804 illustrates a predicted location 806 associated with the target object 618. That is, the location prediction component 802 can receive attribute information associated with the target object 618 as well as attribute information associated with objects proximate the target object 618 and output a predicted location 806 representing the target object 618 in the future.

物体808は、時間T-2における対象物体618を表している。物体810は、時間T-1における対象物体618を表している。そして、物体812は、時間T0における対象物体を表している。 Object 808 represents object of interest 618 at time T -2 , object 810 represents object of interest 618 at time T -1 , and object 812 represents object of interest at time T 0 .

位置予測コンポーネント802は、本明細書で論じられる属性情報に基づいて、予測位置806を決定することができる。いくつかの例では、予測位置は、最初に、グローバル座標系で、対象物体を原点とする参照のフレームによって、などで表されることができる。さらに、予測位置は、環境内の参照線を基準にして表されることができる。 The location prediction component 802 can determine a predicted location 806 based on the attribute information discussed herein. In some examples, the predicted location can be initially represented in a global coordinate system, with a frame of reference originating from the target object, etc. Additionally, the predicted location can be represented relative to a reference line in the environment.

いくつかの例では、環境は、参照線814、及び参照線816のような複数の参照線を表す。図示のために図8で描かれているように、参照線816は、例えば、物体の車線変更に対応している。いくつかの例では、参照線814は、第1の道路セグメントの中心線を表し、基準線816は、第2の道路セグメントの中心線(及び/又はその間の移行部)を表す。単一車線の道路のようないくつかの例では、環境は単一の参照線を表す。しかしながら、いくつかの例では、環境は複数の参照線を表す。 In some examples, the environment represents multiple reference lines, such as reference line 814 and reference line 816. As depicted in FIG. 8 for illustrative purposes, reference line 816 corresponds to, for example, a lane change of an object. In some examples, reference line 814 represents a centerline of a first road segment, and reference line 816 represents a centerline of a second road segment (and/or a transition therebetween). In some examples, such as a single lane road, the environment represents a single reference line. However, in some examples, the environment represents multiple reference lines.

いくつかの例では、位置予測コンポーネント802は、最も可能性の高い参照線(例えば、814)の指示を入力として受信ことができる。いくつかの例では、位置予測コンポーネント802は、本明細書で述べられるように、対象物体618の、他の物体の、及び/又は環境の1つまたは複数の属性に少なくとも部分的に基づいて、可能性の高い参照線を決定することができる。 In some examples, the location prediction component 802 can receive as input an indication of a most likely reference line (e.g., 814). In some examples, the location prediction component 802 can determine the likely reference line based at least in part on one or more attributes of the target object 618, of other objects, and/or of the environment, as described herein.

いくつかの例では、位置予測コンポーネント802は、予測位置806と参照線814との間の類似性を表す類似性スコア818を決定することができる。さらに、位置予測コンポーネント802は、予測位置806と参照線816との間の類似性を表す類似性スコア820を決定することができる。いくつかの例では、類似性スコアは、予測位置とそれぞれの参照線との間の個別、又は累積の横方向のオフセットに少なくとも部分的に基づくことができるが、他の要因を使用して類似性スコアを決定することもできる。 In some examples, the location prediction component 802 can determine a similarity score 818 that represents a similarity between the predicted location 806 and the reference line 814. Additionally, the location prediction component 802 can determine a similarity score 820 that represents a similarity between the predicted location 806 and the reference line 816. In some examples, the similarity score can be based at least in part on individual or cumulative lateral offsets between the predicted location and each reference line, although other factors can be used to determine the similarity score.

いくつかの例では、位置予測コンポーネント802は、類似性スコア818が類似性スコア820よりも低いことを決定し、それに応じて、予測位置806を部分的に定義するための基礎として、参照線814を選択することができる。しかしながら、他の例では、各潜在的な参照線は、位置予測コンポーネント802が機械学習されたパラメータに基づいて、基礎として使用する適切な参照線、及び/又は軌道を選択するように、以前に計算された属性とともに位置予測コンポーネント802に入力される。 In some examples, the location prediction component 802 may determine that the similarity score 818 is lower than the similarity score 820 and, accordingly, select the reference line 814 as a basis for partially defining the predicted location 806. However, in other examples, each potential reference line is input to the location prediction component 802 along with previously calculated attributes such that the location prediction component 802 selects the appropriate reference line and/or trajectory to use as a basis based on machine-learned parameters.

予測位置806は、予測位置822、824、826、828、及び/又は830を含むことができる。いくつかの例では、予測位置822は、参照線814に対する第1の距離s、及び第1の横方向のオフセット(例えば、(s1,ey1))を表すことができる。予測位置824は、参照線814に対する第2の距離s、及び第2の横方向のオフセット(例えば、(s2,ey2))を表すことができる。予測位置826は、参照線814に対する第3の距離s、及び第3の横方向のオフセット(例えば、(s3,ey3))を表すことができる。予測位置828は、参照線814に対する第4の距離s、及び第4の横方向のオフセット(例えば、(s4,ey4))を表すことができる。そして、予測位置830は、参照線814に対する第5の距離s、及び第5の横方向オフセット(例えば、(s5,ey5))を表すことができる。もちろん、位置予測コンポーネント802は、本明細書で論じられるように、より少ない、又はより多い予測位置を決定することができる。 Predicted location 806 may include predicted locations 822, 824, 826, 828, and/or 830. In some examples, predicted location 822 may represent a first distance s and a first lateral offset (e.g., (s 1 , e y1 )) relative to reference line 814. Predicted location 824 may represent a second distance s and a second lateral offset (e.g., (s 2 , e y2 )) relative to reference line 814. Predicted location 826 may represent a third distance s and a third lateral offset (e.g., (s 3 , e y3 )) relative to reference line 814. Predicted location 828 may represent a fourth distance s and a fourth lateral offset (e.g., (s 4 , e y4 )) relative to reference line 814. And predicted position 830 may represent a fifth distance s and a fifth lateral offset (e.g., ( s5 , ey5 )) relative to reference line 814. Of course, position prediction component 802 may determine fewer or more predicted positions, as discussed herein.

図9は、本明細書で述べられる技術を実装するための例示的なシステム900のブロック図を示している。少なくとも1つの例では、システム900は、図1の車両108、及び図6の車両606に対応することができる車両902を含むことができる。 FIG. 9 illustrates a block diagram of an example system 900 for implementing the techniques described herein. In at least one example, the system 900 can include a vehicle 902 that can correspond to the vehicle 108 of FIG. 1 and the vehicle 606 of FIG. 6.

例示的な車両902は、運転者(または乗員)がいつでも車両を制御することを期待されていない状態で、移動全体のすべての安全上重要な機能を実行することができる車両について述べている、米国道路交通安全局によって発行されたレベル5の分類に従って動作するように構成された自律車両など、運転者なしの車両とすることができる。このような例では、車両902は、すべての駐車機能を含む、移動の開始から完了までのすべての機能を制御するように構成されることができるので、運転者、及び/又はステアリングホイール、加速ペダル、及び/又はブレーキペダルなどの車両902を運転するための制御装置を含まない。これは単なる例であり、本明細書で述べられるシステム、及び方法は、常に運転者によって手動で制御される必要がある車両から、部分的、又は、完全に自律的に制御される車両までを含む、あらゆる地上走行型、空中走行型、または水上走行型の車両に組み込まれる。 An exemplary vehicle 902 may be a driverless vehicle, such as an autonomous vehicle configured to operate according to a Level 5 classification issued by the National Highway Traffic Safety Administration, which describes a vehicle that can perform all safety-critical functions throughout a trip, with no driver (or passenger) expected to control the vehicle at any time. In such an example, the vehicle 902 may be configured to control all functions from the beginning to the completion of a trip, including all parking functions, and thus does not include a driver and/or controls for operating the vehicle 902, such as a steering wheel, accelerator pedal, and/or brake pedal. This is merely an example, and the systems and methods described herein may be incorporated into any ground-based, air-based, or water-based vehicle, including vehicles that must be manually controlled by a driver at all times, to vehicles that are partially or fully autonomously controlled.

車両902は、車両コンピューティングデバイス904、1つ又は複数のセンサーシステム906、1つ又は複数のエミッタ908、1つ又は複数の通信接続部910、少なくとも1つの直接接続部912、及び1つ又は複数の駆動システム914を含むことができる。 The vehicle 902 may include a vehicle computing device 904, one or more sensor systems 906, one or more emitters 908, one or more communication connections 910, at least one direct connection 912, and one or more drive systems 914.

車両コンピューティングデバイス904は、1つ又は複数のプロセッサ916と、1つ又は複数のプロセッサ916と通信可能に結合されたメモリ918とを含むことができる。図示された例では、車両902は自律車両であるが、車両902は他の種類の車両、又は、ロボットプラットフォームであり得る。図示された例では、車両コンピューティングデバイス904のメモリ918は、ローカライゼーションコンポーネント920、知覚コンポーネント922、1つ又は複数のマップ924、1つ又は複数のシステムコントローラ926、属性コンポーネント930、目的地予測コンポーネント932、及び位置予測コンポーネント934を備える予測コンポーネント928、及び計画コンポーネント936を格納する。図9では、説明のためにメモリ918に存在するものとして描かれているが、ローカライゼーションコンポーネント920、知覚コンポーネント922、1つ又は複数のマップ924、1つまたは複数のシステムコントローラ926、予測コンポーネント928、属性コンポーネント930、目的地予測コンポーネント932、位置予測コンポーネント934、及び計画コンポーネント936は、付加的に、又は代替的に、車両902にアクセス可能であることが考えられている(例えば、車両902から離れたメモリに格納されている、または別の方法で車両902からアクセス可能である)。 The vehicle computing device 904 may include one or more processors 916 and a memory 918 communicatively coupled to the one or more processors 916. In the illustrated example, the vehicle 902 is an autonomous vehicle, but the vehicle 902 may be another type of vehicle or a robotic platform. In the illustrated example, the memory 918 of the vehicle computing device 904 stores a localization component 920, a perception component 922, one or more maps 924, one or more system controllers 926, an attribute component 930, a prediction component 928 including a destination prediction component 932, and a location prediction component 934, and a planning component 936. While depicted in FIG. 9 as residing in memory 918 for purposes of illustration, it is contemplated that the localization component 920, the perception component 922, the one or more maps 924, the one or more system controllers 926, the prediction component 928, the attribute component 930, the destination prediction component 932, the location prediction component 934, and the planning component 936 may additionally or alternatively be accessible to the vehicle 902 (e.g., stored in memory separate from the vehicle 902 or otherwise accessible to the vehicle 902).

少なくと1つの例では、ローカライゼーションコンポーネント920は、車両902の位置、及び/又は方向(例えば、x位置、y位置、z位置、ロール、ピッチ、又はヨーの1つ又は複数)を決定するために、センサーシステム906からデータを受信する機能を含むことができる。例えば、ローカライゼーションコンポーネント920は、環境のマップを含み、及び/又は要求/受信し、マップ内の自律車両の位置、及び/又は方向を連続的に決定することができる。いくつかの例では、ローカライゼーションコンポーネント920は、SLAM(ローカライゼーション、及びマッピングの同時実行)、CLAMS(キャリブレーション、ローカリゼーション、及びマッピングの同時実行)、相対的SLAM、バンドル調整、非線形最小二乗最適化などを利用して、画像データ、LIDARデータ、RADARデータ、Time of flightデータ、IMUデータ、GPSデータ、ホイールエンコーダデータなどを受信し、自律車両の位置を正確に決定することができる。いくつかの例では、ローカライゼーションコンポーネント920は、本明細書で論じられるように、軌道を生成するために、及び/又は物体が1つ又は複数の横断歩道領域に近接していることを決定するために、及び/又は候補参照線を識別するために、自律車両の初期位置を決定するために、車両902の様々なコンポーネントにデータを提供することができる。 In at least one example, the localization component 920 can include functionality for receiving data from the sensor system 906 to determine the position and/or orientation of the vehicle 902 (e.g., one or more of x position, y position, z position, roll, pitch, or yaw). For example, the localization component 920 can include and/or request/receive a map of the environment and continuously determine the position and/or orientation of the autonomous vehicle within the map. In some examples, the localization component 920 can receive image data, LIDAR data, RADAR data, time of flight data, IMU data, GPS data, wheel encoder data, etc., using SLAM (simultaneous localization and mapping), CLAMS (simultaneous calibration, localization, and mapping), relative SLAM, bundle adjustment, nonlinear least squares optimization, etc., to accurately determine the position of the autonomous vehicle. In some examples, the localization component 920 can provide data to various components of the vehicle 902 to determine an initial position of the autonomous vehicle, to generate a trajectory, and/or to determine that an object is in proximity to one or more pedestrian crossing areas, and/or to identify candidate reference lines, as discussed herein.

いくつかの例では、及び一般的には、知覚コンポーネント922は、物体検出、セグメント化、及び/又は分類を実行する機能を含むことができる。いくつかの例では、知覚コンポーネント922は、車両902に近接しているエンティティの存在を示す処理されたセンサーデータ、及び/又はエンティティをエンティティの種類(例えば、自動車、歩行者、自転車、動物、建物、木、路面、縁石、歩道、停止ライト、停止サイン、不明など)として分類することを提供することができる。付加的、又は代替的な例では、知覚コンポーネント922は、検出されたエンティティ(例えば、追跡された物体)、及び/又はエンティティが配置されている環境に関連付けられた1つ又は複数の特徴を示す、処理されたセンサーデータを提供することができる。いくつかの例では、エンティティに関連付けられた特徴は、x位置(グローバル、及び/又はローカル位置)、y位置(グローバル、及び/又はローカル位置)、z位置(グローバル、及び/又はローカル位置)、方向(例えば、ロール、ピッチ、ヨー)、エンティティの種類(例えば、分類)、エンティティの速度、エンティティの加速度、エンティティの範囲(大きさ)などを含むことができるが、これらに限定はされない。環境に関連付けられた特徴は、環境内の別のエンティティの存在、環境内の別のエンティティの状態、時間帯、曜日、季節、天候、暗さ/明るさの表示などを含むことができるが、これらに限定はされない。 In some examples, and generally, the perception component 922 may include functionality to perform object detection, segmentation, and/or classification. In some examples, the perception component 922 may provide processed sensor data indicative of the presence of an entity in proximity to the vehicle 902 and/or classifying the entity as an entity type (e.g., automobile, pedestrian, bicycle, animal, building, tree, road surface, curb, sidewalk, stop light, stop sign, unknown, etc.). In additional or alternative examples, the perception component 922 may provide processed sensor data indicative of one or more features associated with the detected entity (e.g., tracked object) and/or the environment in which the entity is located. In some examples, the features associated with the entity may include, but are not limited to, an x-position (global and/or local position), a y-position (global and/or local position), a z-position (global and/or local position), an orientation (e.g., roll, pitch, yaw), an entity type (e.g., classification), an entity velocity, an entity acceleration, an entity range (size), etc. Features associated with an environment may include, but are not limited to, the presence of another entity in the environment, the state of another entity in the environment, time of day, day of the week, season, weather, darkness/light indication, etc.

メモリ918は、環境内をナビゲートするために車両902によって使用されることができる1つ又は複数のマップ924をさらに含むことができる。この議論の目的のために、マップは、2次元、3次元、又はN次元でモデル化された任意の数のデータ構造であって、トポロジー(交差点など)、街路、山脈、道路、地形、および環境全般などの環境についての情報を提供することができるものであるが、これらに限定はされない。いくつかの例では、マップは、テクスチャ情報(例えば、色情報(例えば、RGB色情報、Lab色情報、HSV/HSL色情報)など)、強度情報(例えば、LIDAR情報、RADAR情報など)、空間情報(例えば、メッシュに投影された画像データ、個々の「サーフェル」(例えば、個々の色、及び/又は強度に関連付けられたポリゴン))、反射率情報(例えば、鏡面反射率情報、再帰反射率情報、BRDF情報、BSSRDF情報など)などを含むことができるが、これらに限定はされない。一例では、マップは、環境の3次元メッシュを含むことができる。いくつかの例では、マップは、マップの個々のタイルが環境の離散的な部分を表すように、タイル形式で格納されることができ、必要に応じてワーキングメモリにロードされることができる。少なくとも1つの例では、1つ又は複数のマップ924は、少なくとも1つのマップ(例えば、画像、及び/又はメッシュ)を含むことができる。 The memory 918 may further include one or more maps 924 that may be used by the vehicle 902 to navigate within the environment. For purposes of this discussion, a map may be any number of data structures modeled in 2-, 3-, or N-dimensions that may provide information about the environment, such as, but not limited to, topology (e.g., intersections), streets, mountain ranges, roads, terrain, and the environment in general. In some examples, the map may include, but is not limited to, texture information (e.g., color information (e.g., RGB color information, Lab color information, HSV/HSL color information), etc.), intensity information (e.g., LIDAR information, RADAR information, etc.), spatial information (e.g., image data projected onto a mesh, individual "surfels" (e.g., polygons associated with individual colors and/or intensities), reflectance information (e.g., specular reflectance information, retroreflectance information, BRDF information, BSSRDF information, etc.), and the like. In one example, the map may include a 3-dimensional mesh of the environment. In some examples, the map can be stored in a tiled format, with each tile of the map representing a discrete portion of the environment, and can be loaded into the working memory as needed. In at least one example, the one or more maps 924 can include at least one map (e.g., an image and/or a mesh).

いくつかの例では、車両902は、マップ924に少なくとも部分的に基づいて、制御されることができる。すなわち、マップ924は、車両902の位置を決定するために、ローカライゼーションコンポーネント920、知覚コンポーネント922、予測コンポーネント928、及び/又は計画コンポーネント936と関連して使用され、環境内の物体を識別し、及び/又は環境内をナビゲートするルート、及び/又は軌道を生成することができる。 In some examples, the vehicle 902 can be controlled based at least in part on the map 924. That is, the map 924 can be used in conjunction with the localization component 920, the perception component 922, the prediction component 928, and/or the planning component 936 to determine a position of the vehicle 902, identify objects within the environment, and/or generate a route and/or trajectory for navigating the environment.

いくつかの例では、1つ又は複数のマップ924は、ネットワーク938を介してアクセス可能なリモートコンピューティングデバイス(コンピューティングデバイス940など)に格納されることができる。いくつかの例では、多様なマップ924は、例えば、特徴(例えば、エンティティの種類、時間帯、曜日、1年の季節など)に基づいて格納されることができる。多様なマップ924を格納することは、同様のメモリ要件を有することができるが、マップ内のデータにアクセスすることができる速度を向上させることができる。 In some examples, one or more maps 924 can be stored on a remote computing device (e.g., computing device 940) accessible via network 938. In some examples, multiple maps 924 can be stored, for example, based on characteristics (e.g., type of entity, time of day, day of the week, season of the year, etc.). Storing multiple maps 924 can have similar memory requirements but can improve the speed at which data in the maps can be accessed.

少なくとも1つの例では、車両コンピューティングデバイス904は、1つ又は複数のシステムコントローラ926を含むことができ、これらのシステムコントローラ926は、車両902の操舵、推進、ブレーキ、安全、エミッタ、通信、及びその他のシステムを制御するように構成されることができる。これらのシステムコントローラ926は、駆動システム914、及び/又は車両902の他の構成要素の対応するシステムと通信、及び/又は制御することができる。 In at least one example, the vehicle computing device 904 can include one or more system controllers 926 that can be configured to control the steering, propulsion, braking, safety, emitter, communication, and other systems of the vehicle 902. These system controllers 926 can communicate with and/or control corresponding systems of the drive system 914 and/or other components of the vehicle 902.

一般に、予測コンポーネント928は、環境内の物体に関連付けられた予測情報を生成する機能を含むことができる。いくつかの例では、予測コンポーネント928は、環境内の横断歩道領域(又は道路を横断する歩行者に関連付けられた領域、或いは場所)に近接する歩行者が、横断歩道領域を横切る、又は横切る準備をしているときに、歩行者の位置を予測するように実装されることができる。いくつかの例では、本明細書で論じられる技術は、車両が環境を横断する際に物体(例えば、車両、歩行者など)の位置を予測するために実装されることができる。いくつかの例では、予測コンポーネント928は、対象物体、及び/又は対象物体に近接する他の物体の属性に基づいて、そのような対象物体の1つ又は複数の予測軌道を生成することができる。 In general, the prediction component 928 can include functionality for generating predictive information associated with objects in the environment. In some examples, the prediction component 928 can be implemented to predict the location of a pedestrian proximate a crosswalk area (or area or location associated with pedestrians crossing a road) in the environment when the pedestrian crosses or prepares to cross the crosswalk area. In some examples, the techniques discussed herein can be implemented to predict the location of an object (e.g., a vehicle, a pedestrian, etc.) as the vehicle crosses the environment. In some examples, the prediction component 928 can generate one or more predicted trajectories of the target object based on attributes of the target object and/or other objects proximate the target object.

属性コンポーネント930は、環境内の物体に関連付けられた属性情報を決定する機能を含むことができる。いくつかの例では、属性コンポーネント930は、知覚コンポーネント922からデータを受信し、経時的に物体の属性情報を決定することができる。 The attribute component 930 can include functionality for determining attribute information associated with objects in the environment. In some examples, the attribute component 930 can receive data from the perception component 922 and determine attribute information for objects over time.

いくつかの例では、物体(例えば、歩行者)の属性は、経時的に取り込まれたセンサーデータに基づいて決定されることができ、ある時点における歩行者の位置(例えば、位置は上述の参照のフレームで表されることができる)、ある時点における歩行者の速度(例えば、第1の軸(又は他の参照線)に関する大きさ、及び/又は角度)、ある時点における歩行者の加速度の1つ又は複数を含むことができる。歩行者の速度(例えば、第1の軸(又は他の参照線)に関する大きさ、及び/又は角度)、その時の歩行者の加速度、歩行者が走行可能なエリアにいるかどうかの指示(例えば、歩行者が歩道または道路にいるかどうか)、歩行者が横断歩道領域にいるかどうかの指示、歩行者が信号無視をしているかどうかの指示、領域を制御する指示器の状態(例えば、断歩道が信号によって制御されているかどうか、及び/又は信号の状態など)、車両コンテキスト(環境内の車両の存在、及び車両に関連付けられた属性など)、一定期間に横断歩道領域を通過するフラックス(一定期間に横断歩道領域を通過する物体(車両、及び/又は歩行者など)の数など)、物体の関連付け(例えば、歩行者が歩行者のグループの中を移動しているかどうか)、第1の方向(例えば、グローバルなx-方向)における横断歩道までの距離、第2の方向(例えば、グローバルなy-方向)における横断歩道までの距離、横断歩道領域内における道路までの距離(例えば、横断歩道領域内の道路までの最短距離)などを含むことができるが、これに限定はされない。 In some examples, attributes of an object (e.g., a pedestrian) can be determined based on sensor data captured over time and can include one or more of the pedestrian's position at a point in time (e.g., the position can be expressed in the frame of reference described above), the pedestrian's velocity at a point in time (e.g., magnitude and/or angle with respect to a first axis (or other reference line)), and the pedestrian's acceleration at a point in time. The information may include, but is not limited to, the pedestrian's speed (e.g., magnitude and/or angle with respect to a first axis (or other reference line)), the pedestrian's acceleration at that time, an indication of whether the pedestrian is in a drivable area (e.g., whether the pedestrian is on a sidewalk or road), an indication of whether the pedestrian is in a crosswalk area, an indication of whether the pedestrian is running a red light, the state of an indicator controlling the area (e.g., whether the crosswalk is controlled by a signal and/or the state of the signal), vehicle context (e.g., the presence of vehicles in the environment and attributes associated with the vehicles), flux through the crosswalk area over a period of time (e.g., the number of objects (e.g., vehicles and/or pedestrians) passing through the crosswalk area over a period of time), object association (e.g., whether the pedestrian is moving among a group of pedestrians), distance to the crosswalk in a first direction (e.g., global x-direction), distance to the crosswalk in a second direction (e.g., global y-direction), distance to the road within the crosswalk area (e.g., the shortest distance to the road within the crosswalk area), etc.

いくつかの例では、属性は、対象物体(例えば、車両)、及び/又は対象物体に近接している他の物体(例えば、他の車両)に対して決定されることができる。例えば、属性は、物体のある時点における速度、物体のある時点における加速度、物体のある時点における位置(例えば、グローバル座標、又はローカル座標)、物体のある時点で関連付けられた境界ボックス(例えば、物体の範囲、ロール、ピッチ、及び/又はヨーを表す)、物体のある時点で関連付けられた照明の状態(例えば、ヘッドライト、ブレーキライト、ハザードライト、方向指示ライト、バックライトなど)、ある時点における物体とマップ要素との距離(停止線、通行ライン、スピードバンプ、イールドライン、交差点、車道までの距離など)、物体と他の物体との距離、対象物の分類(車、車両、動物、トラック、など)、対象物に関連付けられた特徴(車線変更中かどうか、二重駐車かどうかなど)などを含むことができるが、これに限定はされない。 In some examples, attributes can be determined for the target object (e.g., a vehicle) and/or other objects (e.g., other vehicles) in proximity to the target object. For example, the attributes can include, but are not limited to, the speed of the object at a time, the acceleration of the object at a time, the position of the object at a time (e.g., in global or local coordinates), a bounding box associated with the object at a time (e.g., representing the range, roll, pitch, and/or yaw of the object), the lighting conditions associated with the object at a time (e.g., headlights, brake lights, hazard lights, turn signals, backlights, etc.), the distance of the object to map elements at a time (e.g., distance to stop lines, traffic lines, speed bumps, yield lines, intersections, roadways, etc.), the distance of the object to other objects, the classification of the object (car, vehicle, animal, truck, etc.), features associated with the object (whether or not a lane is being changed, whether or not a vehicle is double-parked, etc.), etc.

いくつかの例では、本明細書で論じられるように、物体の属性の任意の組み合わせが決定されることができる。 In some examples, any combination of object attributes may be determined as discussed herein.

属性は、時間(例えば、時間T-M、...、T-2、T-1、T0(ここで、Mは整数である)において、そして、様々な時間は最新の時間までの任意の時刻を表す)にわたって決定され、目的地予測コンポーネント932、及び/又は位置予測コンポーネント934に入力され、そのような物体に関連付けられた予測情報を決定することができる。 The attributes may be determined over time (e.g., at times T -M , ..., T -2 , T -1 , T 0 (where M is an integer), and the various times represent any time up to the most recent time) and input to a destination prediction component 932 and/or a location prediction component 934 to determine predictive information associated with such objects.

目的地予測コンポーネント932は、本明細書で論じられるように、環境内の物体の目的地を決定する機能を含むことができる。歩行者のコンテキストでは、目的地予測コンポーネント932は、本明細書で論じられるように、歩行者が横断歩道領域の閾値距離内にいることに基づいて、どの横断歩道領域が歩行者に適用されるかを決定することができる。少なくともいくつかの例では、そのような目的地予測コンポーネント932は、横断歩道の存在にかかわらず、反対側の歩道上の点を決定する。さらに、任意の期間に関連付けられた物体の属性は目的地予測コンポーネント932に入力されることができ、歩行者が横断歩道領域に向かっている、又は横断歩道領域に関連付けられているというスコア、確率、および/または裕度を決定する。 The destination prediction component 932 may include functionality for determining a destination of an object in the environment, as discussed herein. In a pedestrian context, the destination prediction component 932 may determine which crosswalk area applies to the pedestrian based on the pedestrian being within a threshold distance of the crosswalk area, as discussed herein. In at least some examples, such a destination prediction component 932 may determine a point on the opposite sidewalk regardless of the presence of a crosswalk. Additionally, attributes of objects associated with any time period may be input to the destination prediction component 932 to determine a score, probability, and/or margin that the pedestrian is heading toward or associated with a crosswalk area.

いくつかの例では、目的地予測コンポーネント932は、ニューラルネットワーク、完全結合ニューラルネットワーク、畳み込みニューラルネットワーク、リカレントニューラルネットワークなどの機械学習モデルである。 In some examples, the destination prediction component 932 is a machine learning model, such as a neural network, a fully connected neural network, a convolutional neural network, or a recurrent neural network.

いくつかの例では、目的地予測コンポーネント932は、歩行者が横断歩道を渡ったイベントを決定するための、データログのレビューによって訓練されることができる。そのようなイベントは識別されることができ、属性は、物体(例えば、歩行者)、及び環境に対して決定されることができ、イベントを表すデータは、訓練データとして識別されることができる。訓練データは、機械学習モデルに入力されることができ、既知の結果(例えば、既知の「未来」の属性などのグランドトゥルース)を使用して、機械学習モデルの重み、及び/又はパラメータを調整し、誤差を最小化することができる。 In some examples, the destination prediction component 932 can be trained by reviewing data logs to determine events in which a pedestrian crosses a crosswalk. Such events can be identified, attributes can be determined for the object (e.g., pedestrian) and the environment, and data representing the event can be identified as training data. The training data can be input to a machine learning model, and known results (e.g., ground truth, such as known "future" attributes) can be used to adjust the weights and/or parameters of the machine learning model to minimize error.

位置予測コンポーネント934は、環境内の物体に関連付けられた予測位置を生成、又はその他の方法で決定する機能を含むことができる。例えば、本明細書で論じられるように、属性情報は、対象物体、及び/又は対象物体に近接した他の物体を含む、環境内の1つ又は複数の物体について決定されることができる。いくつかの例では、車両902に関連付けられた属性を使用して、環境内の物体に関連付けられた予測位置を決定することができる。 The location prediction component 934 may include functionality for generating or otherwise determining a predicted location associated with an object in the environment. For example, as discussed herein, attribute information may be determined for one or more objects in the environment, including the target object and/or other objects in proximity to the target object. In some examples, attributes associated with the vehicle 902 may be used to determine a predicted location associated with an object in the environment.

位置予測コンポーネント934は、本明細書で論じられるように、様々な参照のフレームで属性情報を表現する機能をさらに含むことができる。いくつかの例では、位置予測コンポーネント934は、参照のフレームの原点として、時間T0における物体の位置を使用することができ、これは、各時間のインスタンスに対して更新されることができる。 The location prediction component 934 can further include functionality for expressing attribute information in various frames of reference, as discussed herein. In some examples, the location prediction component 934 can use the object's position at time T0 as the origin of the frame of reference, which can be updated for each instance of time.

いくつかの例では、位置予測コンポーネント934は、(例えば、マップデータに基づいて)環境内の候補参照線を識別する機能を含むことができ、(例えば、類似性スコアに基づいて)参照線を選択して、参照線に関する予測位置を決定することができる。 In some examples, the location prediction component 934 may include functionality to identify candidate reference lines within the environment (e.g., based on map data), select a reference line (e.g., based on a similarity score), and determine a predicted location for the reference line.

いくつかの例では、位置予測コンポーネント934は、ニューラルネットワーク、完全結合ニューラルネットワーク、畳み込みニューラルネットワーク、リカレントニューラルネットワークなどの機械学習モデル、又はそれらの任意の組み合わせである。 In some examples, the location prediction component 934 is a machine learning model, such as a neural network, a fully connected neural network, a convolutional neural network, a recurrent neural network, or any combination thereof.

例えば、位置予測コンポーネント934は、データログをレビューし、属性情報を決定することによって訓練されることができる。関連するイベント(例えば、参照線から閾値距離を走行する車両、横断歩道を横断する歩行者、信号無視をする歩行者など)を表す訓練データは、機械学習モデルに入力されることができ、ここで既知の結果(例えば、既知の「未来」の属性/場所などのグランドトゥルース)を使用して、機械学習モデルの重み、及び/又はパラメータを調整し、誤差を最小化することができる。 For example, the location prediction component 934 can be trained by reviewing data logs and determining attribute information. Training data representing relevant events (e.g., vehicles traveling a threshold distance from a reference line, pedestrians crossing a crosswalk, pedestrians running red lights, etc.) can be input into a machine learning model where known outcomes (e.g., ground truth, such as known "future" attributes/locations) can be used to adjust the weights and/or parameters of the machine learning model to minimize error.

一般に、計画コンポーネント936は、環境を横断するために車両902が従うべき経路を決定することができる。例えば、計画コンポーネント936は、様々なルート及び軌道、及び様々なレベルの詳細を決定することができる。例えば、計画コンポーネント936は、第1の場所(例えば、現在の場所)から第2の場所(例えば、対象となる場所)まで移動するルートを決定することができる。この議論の目的のために、ルートは、2つの場所の間を移動するためのウェイポイントのシーケンスであることができる。非限定的な例として、ウェイポイントは、街路、交差点、グローバルポジショニングシステム(GPS)座標などを含む。さらに、計画コンポーネント936は、第1の場所から第2の場所へのルートの少なくとも一部に沿って自律車両を誘導するための命令を生成することができる。少なくとも1つの例では、計画コンポーネント936は、自律車両を、ウェイポイントのシーケンスにおける第1のウェイポイントから、ウェイポイントのシーケンスにおける第2のウェイポイントまで案内する方法を決定することができる。いくつかの例では、命令は、軌道、又は軌道の一部分であることができる。いくつかの例では、多様な軌道は、Receding horizon技術に従って、実質的に同時に(例えば、技術的な許容範囲内で)生成されることができ、多様な軌道の1つが、車両902がナビゲートするために選択される。 In general, the planning component 936 can determine a path for the vehicle 902 to follow to traverse an environment. For example, the planning component 936 can determine various routes and trajectories, and various levels of detail. For example, the planning component 936 can determine a route to travel from a first location (e.g., a current location) to a second location (e.g., a location of interest). For purposes of this discussion, the route can be a sequence of waypoints for traveling between the two locations. As non-limiting examples, the waypoints include streets, intersections, Global Positioning System (GPS) coordinates, and the like. Additionally, the planning component 936 can generate instructions for guiding the autonomous vehicle along at least a portion of the route from the first location to the second location. In at least one example, the planning component 936 can determine how to guide the autonomous vehicle from a first waypoint in the sequence of waypoints to a second waypoint in the sequence of waypoints. In some examples, the instructions can be a trajectory, or a portion of a trajectory. In some examples, the multiple trajectories can be generated substantially simultaneously (e.g., within technical tolerances) according to a receding horizon technique, and one of the multiple trajectories is selected for the vehicle 902 to navigate.

いくつかの例では、計画コンポーネント936は、環境内の物体に関連付けられた予測位置に少なくとも部分的に基づいて、車両902の1つ又は複数の軌道を生成することができる。いくつかの例では、計画コンポーネント936は、車両902の1つ又は複数の軌道を評価するために、線形時相論理、及び/又は信号時相論理などの時相論理を使用することができる。 In some examples, the planning component 936 can generate one or more trajectories for the vehicle 902 based at least in part on predicted positions associated with objects in the environment. In some examples, the planning component 936 can use temporal logic, such as linear temporal logic and/or signal temporal logic, to evaluate one or more trajectories for the vehicle 902.

理解できるように、本明細書で論じられる構成要素(例えば、ローカライゼーションコンポーネント920、知覚コンポーネント922、1つ又は複数のマップ924、1つ又は複数のシステムコントローラ926、予測コンポーネント928、属性コンポーネント930、目的地予測コンポーネント932、位置予測コンポーネント934、及び計画コンポーネント936)は、説明のために分割されたものとして述べられている。しかし、様々な構成要素によって実行される動作は、組み合わされたり、他の任意の構成要素で実行されたりすることができる。さらに、ソフトウェアで実装されるものとして論じられる構成要素はいずれも、ハードウェアで実装されることができ、その逆も可能である。さらに、車両902に実装された任意の機能は、コンピューティングデバイス940、又は別の構成要素で実装されることができる(そして、その逆も可能である)。 As can be appreciated, the components discussed herein (e.g., localization component 920, perception component 922, one or more maps 924, one or more system controllers 926, prediction component 928, attribute component 930, destination prediction component 932, location prediction component 934, and planning component 936) are described as separate for purposes of explanation. However, the operations performed by the various components may be combined or performed by any other component. Additionally, any component discussed as being implemented in software may be implemented in hardware, and vice versa. Additionally, any functionality implemented in the vehicle 902 may be implemented in the computing device 940, or another component, and vice versa.

少なくとも1つの例では、センサーシステム906は、Time of flightセンサー、LIDARセンサー、RADARセンサー、超音波トランスデューサ、ソナーセンサー、位置センサー(例えば、GPS、コンパスなど)、慣性センサー(例えば、慣性測定ユニット(IMU)、加速度計、磁気計、ジャイロスコープなど)、カメラ(RGB、赤外線、強度、深度など)、マイク、ホイールエンコーダ、環境センサー(温度センサー、湿度センサー、光センサー、圧力センサーなど)などを含むことができる。センサーシステム906は、これらの、又は他の種類のセンサーそれぞれの多様なインスタンスを含むことができる。例えば、Time of flightセンサーは、車両902の角部、前部、後部、側面、及び/又は上部に配置された個々のTime of flightセンサーを含むことができる。別の例として、カメラセンサーは、車両902の外部、及び/又は内部の様々な場所に配置された多様なカメラを含むことができる。センサーシステム906は、車両コンピューティングデバイス904に入力を提供することができる。付加的に、又は代替的に、センサーシステム906は、1つ又は複数のネットワーク938を介して、特定の頻度で、所定の期間の経過後に、ほぼリアルタイムで、1つ又は複数のコンピューティングデバイス940にセンサーデータを送信することができる。 In at least one example, the sensor system 906 can include time of flight sensors, LIDAR sensors, RADAR sensors, ultrasonic transducers, sonar sensors, position sensors (e.g., GPS, compass, etc.), inertial sensors (e.g., inertial measurement units (IMUs), accelerometers, magnetometers, gyroscopes, etc.), cameras (RGB, infrared, intensity, depth, etc.), microphones, wheel encoders, environmental sensors (temperature sensors, humidity sensors, light sensors, pressure sensors, etc.), and the like. The sensor system 906 can include multiple instances of each of these or other types of sensors. For example, the time of flight sensors can include individual time of flight sensors located at the corners, front, rear, sides, and/or top of the vehicle 902. As another example, the camera sensors can include multiple cameras located at various locations on the exterior and/or interior of the vehicle 902. The sensor system 906 can provide input to the vehicle computing device 904. Additionally or alternatively, the sensor system 906 may transmit sensor data over one or more networks 938 at a particular frequency, after a predetermined period of time, or in near real-time to one or more computing devices 940.

車両902は、上述したように、光、及び/又は音を放出するための1つ又は複数のエミッタ908を含むこともできる。この例のエミッタ908は、車両902の乗客と通信するための内部音声、及び映像のエミッタを含む。限定ではなく例として、内部エミッタは、スピーカ、照明、標識、表示画面、タッチスクリーン、触覚エミッタ(例えば、振動、及び/又はフォースフィードバック)、機械的アクチュエータ(例えば、シートベルトテンショナ、シートポジショナ、ヘッドレストポジショナなど)などを含むことができる。本実施例のエミッタ908は、外部エミッタも含む。限定はされないが、本例の外部エミッタは、進行方向、又は車両の動作の他の指示器を知らせるための照明(例えば、方向指示器、標識、ライトアレイなど)、及び歩行者又は他の近くの車両と音声的に通信するための1つ又は複数の音声エミッタ(例えば、スピーカ、スピーカアレイ、ホーンなど)を含み、そのうちの1つ又は複数は、音響ビームステアリング技術を備える。 The vehicle 902 may also include one or more emitters 908 for emitting light and/or sound, as described above. Emitters 908 in this example include internal audio and video emitters for communicating with passengers of the vehicle 902. By way of example and not limitation, internal emitters may include speakers, lights, signs, display screens, touch screens, haptic emitters (e.g., vibration and/or force feedback), mechanical actuators (e.g., seat belt tensioners, seat positioners, head rest positioners, etc.), and the like. Emitters 908 in this example also include external emitters. Exterior emitters in this example include, but are not limited to, lighting (e.g., turn signals, signs, light arrays, etc.) for communicating direction of travel or other indicators of vehicle operation, and one or more audio emitters (e.g., speakers, speaker arrays, horns, etc.) for audibly communicating with pedestrians or other nearby vehicles, one or more of which may include acoustic beam steering technology.

車両902は、車両902と1つ又は複数の他のローカル、又はリモートコンピューティングデバイスとの間の通信を可能にする1つ又は複数の通信接続部910を含むこともできる。例えば、通信接続部910は、車両902、及び/又は駆動システム914上の他のローカルコンピューティングデバイスとの通信を容易にすることができる。また、通信接続部910は、車両が他の近くのコンピューティングデバイス(例えば、他の近くの車両、信号など)と通信することを可能にすることができる。また、通信接続部910は、車両902が、遠隔操作コンピューティングデバイス、又は他の遠隔サービスと通信することも可能にする。 The vehicle 902 may also include one or more communication connections 910 that enable communication between the vehicle 902 and one or more other local or remote computing devices. For example, the communication connections 910 may facilitate communication with other local computing devices on the vehicle 902 and/or the drive system 914. The communication connections 910 may also enable the vehicle to communicate with other nearby computing devices (e.g., other nearby vehicles, signals, etc.). The communication connections 910 may also enable the vehicle 902 to communicate with remotely operated computing devices or other remote services.

通信接続部910は、車両コンピューティングデバイス904を別のコンピューティングデバイス、又はネットワーク938などのネットワークに接続するための物理的、及び/又は論理的インターフェースを含むことができる。例えば、通信接続部910は、IEEE 802.11規格によって定義された周波数を介したようなWi-Fiベースの通信、Bluetooth(登録商標)などの短距離無線周波数、セルラー通信(例えば、2G、3G、4G、4GLTE、5Gなど)、または、それぞれのコンピューティングデバイスが他のコンピューティングデバイスとインターフェースすることを可能にする任意の適切な有線、又は無線通信プロトコルを可能にすることができる。 The communication connection 910 may include a physical and/or logical interface for connecting the vehicle computing device 904 to another computing device or network, such as the network 938. For example, the communication connection 910 may enable Wi-Fi based communications, such as over frequencies defined by the IEEE 802.11 standard, short-range radio frequencies such as Bluetooth, cellular communications (e.g., 2G, 3G, 4G, 4G LTE, 5G, etc.), or any suitable wired or wireless communication protocol that enables each computing device to interface with other computing devices.

少なくとも1つの例では、車両902は、1つ又は複数の駆動システム914を含むことができる。いくつかの例では、車両902は、単一の駆動システム914を有することができる。少なくとも1つの例では、車両902が多様な駆動システム914を有する場合、個々の駆動システム914は、車両902の反対側の端部(例えば、前部および後部など)に配置されることができる。少なくとも1つの例では、駆動システム914は、駆動システム914、及び/又は車両902の周囲の状態を検出するための1つまたは複数のセンサーシステムを含むことができる。例示であって限定ではないが、センサーシステムは、駆動モジュールの車輪の回転を感知する1つ又は複数のホイールエンコーダ(例えば、ロータリーエンコーダ)、駆動モジュールの方向、及び加速度を測定する慣性センサー(例えば、慣性測定ユニット、加速度計、ジャイロスコープ、磁気計など)、カメラ、又は他の画像センサー、駆動システムの周囲の物体を音響的に検出する超音波センサー、LIDARセンサー、RADARセンサーなどを含むことができる。ホイールエンコーダのようないくつかのセンサーは、駆動システム914に固有のものとすることができる。場合によっては、駆動システム914上のセンサーシステムは、車両902に対応するシステム(例えば、センサーシステム906)と重複、又は補完することができる。 In at least one example, the vehicle 902 can include one or more drive systems 914. In some examples, the vehicle 902 can have a single drive system 914. In at least one example, when the vehicle 902 has multiple drive systems 914, the individual drive systems 914 can be located at opposite ends of the vehicle 902 (e.g., the front and rear, etc.). In at least one example, the drive system 914 can include one or more sensor systems for detecting conditions surrounding the drive system 914 and/or the vehicle 902. By way of example and not limitation, the sensor systems can include one or more wheel encoders (e.g., rotary encoders) that sense the rotation of the wheels of the drive module, inertial sensors (e.g., inertial measurement units, accelerometers, gyroscopes, magnetometers, etc.) that measure the orientation and acceleration of the drive module, cameras or other imaging sensors, ultrasonic sensors that acoustically detect objects surrounding the drive system, LIDAR sensors, RADAR sensors, etc. Some sensors, such as wheel encoders, can be unique to the drive system 914. In some cases, the sensor systems on the drive system 914 may overlap or complement the corresponding systems on the vehicle 902 (e.g., sensor system 906).

駆動システム914は、高電圧バッテリ、車両を推進するためのモータ、バッテリからの直流を他の車両システムで使用するために交流に変換するインバータ、ステアリングモータ、及びステアリングラックを含む操舵システム(電気とすることができる)、油圧、又は電気アクチュエータを含むブレーキシステム、油圧、及び/又は空気圧コンポーネントを含むサスペンションシステム、トラクションの損失を緩和し制御を維持するためにブレーキ力を分配するための安定性制御システム、HVACシステム、照明(例えば、車両の外部周辺を照らすヘッド/テールライトなどの照明)、及び1つ又は複数の他のシステム(例えば、冷却システム、安全システム、オンボード充電システム、DC/DCコンバータ、高電圧ジャンクション、高電圧ケーブル、充電システム、充電ポートなどの電気部品など)など、多くの車両システムを含むことができる。さらに、駆動システム914は、センサーシステムからデータを受信及び前処理することができ、様々な車両システムの動作を制御することができる駆動システムコントローラを含むことができる。いくつかの例では、駆動システムコントローラは、1つ又は複数のプロセッサと、1つ又は複数のプロセッサと通信可能に結合されたメモリを含むことができる。メモリは、駆動システム914の様々な機能を実行するための1つ又は複数のコンポーネントを格納することができる。さらに、駆動システム914は、それぞれの駆動システムが1つ又は複数の、他のローカル又はリモートコンピューティングデバイスと通信することを可能にする1つ又は複数の通信接続部も含む。 The drive system 914 may include many vehicle systems, such as a high voltage battery, a motor for propelling the vehicle, a steering system (which may be electric) including an inverter that converts direct current from the battery to alternating current for use in other vehicle systems, a steering motor, and a steering rack, a brake system including hydraulic or electric actuators, a suspension system including hydraulic and/or pneumatic components, a stability control system for distributing braking force to mitigate loss of traction and maintain control, an HVAC system, lighting (e.g., lighting such as head/tail lights that illuminate the exterior surroundings of the vehicle), and one or more other systems (e.g., cooling systems, safety systems, on-board charging systems, electrical components such as DC/DC converters, high voltage junctions, high voltage cables, charging systems, charging ports, etc.). Additionally, the drive system 914 may include a drive system controller that may receive and pre-process data from the sensor systems and control the operation of various vehicle systems. In some examples, the drive system controller may include one or more processors and a memory communicatively coupled to the one or more processors. The memory may store one or more components for performing various functions of the drive system 914. Additionally, drive system 914 also includes one or more communication connections that enable each drive system to communicate with one or more other local or remote computing devices.

少なくとも1つの例では、直接接続部912は、1つ又は複数の駆動システム914を車両902の本体と結合するための物理的インターフェースを提供することができる。例えば、直接接続部912は、駆動システム914と車両との間で、エネルギー、流体、空気、データなどの転送を与えることができる。いくつかの例では、直接接続部912は、駆動システム914を車両902の本体に対し、さらに解放可能に固定することができる。 In at least one example, the direct connection 912 can provide a physical interface for coupling one or more drive systems 914 with the body of the vehicle 902. For example, the direct connection 912 can provide for the transfer of energy, fluid, air, data, etc. between the drive system 914 and the vehicle. In some examples, the direct connection 912 can further releasably secure the drive system 914 to the body of the vehicle 902.

少なくとも1つの例では、ローカライゼーションコンポーネント920、知覚コンポーネント922、1つ又は複数のマップ924、1つ又は複数のシステムコントローラ926、予測コンポーネント928、属性コンポーネント930、目的地予測コンポーネント932、位置予測コンポーネント934、及び計画コンポーネント936は、上述したように、センサーデータを処理することができ、1つ又は複数のネットワーク938を介して、1つ又は複数のコンピューティングデバイス940に、それぞれの出力を送信することができる。少なくとも1つの例では、ローカライゼーションコンポーネント920、1つ又は複数のマップ924、1つ又は複数のシステムコントローラ926、予測コンポーネント928、属性コンポーネント930、目的地予測コンポーネント932、位置予測コンポーネント934、及び計画コンポーネント936は、特定の頻度で、所定の期間の経過後に、ほぼリアルタイムでなど、それぞれの出力を1つ又は複数のコンピューティングデバイス940に送信することができる。 In at least one example, the localization component 920, the perception component 922, the one or more maps 924, the one or more system controllers 926, the prediction component 928, the attribute component 930, the destination prediction component 932, the location prediction component 934, and the planning component 936 can process the sensor data as described above and transmit their respective outputs to one or more computing devices 940 via one or more networks 938. In at least one example, the localization component 920, the one or more maps 924, the one or more system controllers 926, the prediction component 928, the attribute component 930, the destination prediction component 932, the location prediction component 934, and the planning component 936 can transmit their respective outputs to one or more computing devices 940 at a particular frequency, after a predetermined period of time, in near real-time, etc.

いくつかの例では、車両902は、ネットワーク938を介して1つ又は複数のコンピューティングデバイス940にセンサーデータを送信することができる。いくつかの例では、車両902は、生のセンサーデータをコンピューティングデバイス940に送信することができる。他の例では、車両902は、処理されたセンサーデータ、及び/又はセンサーデータの表現をコンピューティングデバイス940に送信することができる。いくつかの例では、車両902は、特定の頻度で、所定の期間の経過後に、ほぼリアルタイムでなど、センサーデータをコンピューティングデバイス940に送信することができる。いくつかの例では、車両902は、センサデータ(生、又は処理済み)を1つ又は複数のログファイルとしてコンピューティングデバイス940に送信することができる。 In some examples, the vehicle 902 can transmit sensor data over the network 938 to one or more computing devices 940. In some examples, the vehicle 902 can transmit raw sensor data to the computing device 940. In other examples, the vehicle 902 can transmit processed sensor data and/or representations of the sensor data to the computing device 940. In some examples, the vehicle 902 can transmit sensor data at a particular frequency, after a predetermined period of time, in near real-time, etc. In some examples, the vehicle 902 can transmit sensor data (raw or processed) to the computing device 940 as one or more log files.

コンピューティングデバイス940は、プロセッサ942と、訓練コンポーネント946を格納するメモリ944を含むことができる。 The computing device 940 may include a processor 942 and memory 944 that stores the training component 946.

いくつかの例では、訓練コンポーネント946は、本明細書で論じられるように、予測情報を決定するために1つ又は複数のモデルを訓練する機能を含むことができる。いくつかの例では、訓練コンポーネント946は、異なる状況に対応して車両902を制御する方法を修正するために、1つ又は複数のモデルによって生成された情報を車両コンピューティングデバイス904に通信することができる。 In some examples, the training component 946 can include functionality for training one or more models to determine predictive information, as discussed herein. In some examples, the training component 946 can communicate information generated by the one or more models to the vehicle computing device 904 to modify how the vehicle 902 is controlled in response to different conditions.

例えば、訓練コンポーネント946は、本明細書で論じられる予測コンポーネントを生成するため、1つ又は複数の機械学習モデルを訓練することができる。いくつかの例では、訓練コンポーネント946は、データログを検索し、物体に関連付けられた属性、及び/又は位置(例えば、任意の1つ又は複数の参照フレームにおいて)の情報を決定する機能を含むことができる。特定のシナリオに対応するログデータ(例えば、横断歩道領域に近づいて横断する歩行者、信号無視をする歩行者、中央線からオフセットしてカーブを曲がる物体など)は、訓練データを表すことができる。訓練データは、機械学習モデルに入力されることができ、既知の結果(例えば、既知の「未来」の属性などのグランドトゥルース)は、誤差を最小化するために機械学習モデルの重み、及び/又はパラメータを調整するために使用することができる。 For example, the training component 946 can train one or more machine learning models to generate the predictive components discussed herein. In some examples, the training component 946 can include functionality to search the data log and determine attribute and/or location (e.g., in any one or more reference frames) information associated with objects. Log data corresponding to particular scenarios (e.g., pedestrians approaching and crossing a crosswalk area, pedestrians running red lights, objects offset from the center line and rounding a curve, etc.) can represent training data. The training data can be input to the machine learning model, and known results (e.g., ground truth, such as known "future" attributes) can be used to adjust the weights and/or parameters of the machine learning model to minimize error.

例えば、本明細書で論じられる構成要素の一部、又はすべての側面は、任意のモデル、アルゴリズム、及び/又は機械学習アルゴリズムを含むことができる。例えば、いくつかの例では、メモリ944(及び上述のメモリ918)内の構成要素は、ニューラルネットワークとして実装されることができる。いくつかの例では、訓練コンポーネント946は、本明細書で論じられるように、ニューラルネットワークを利用して、センサーデータからセグメント化情報を決定するための1つ又は複数のモデルを生成、及び/又は実行することができる。 For example, some or all aspects of the components discussed herein may include any model, algorithm, and/or machine learning algorithm. For example, in some examples, the components in memory 944 (and memory 918 described above) may be implemented as a neural network. In some examples, training component 946 may utilize a neural network to generate and/or execute one or more models for determining segmentation information from sensor data, as discussed herein.

本明細書で述べられるように、例示的なニューラルネットワークは、入力データを一連の接続された層に通して出力を生成する、生物学的に触発されたアルゴリズムである。ニューラルネットワークの各層は、別のニューラルネットワークを備えることもでき、又は任意の数の層(畳み込みであるか否かは問わない)を備えることもできる。本開示のコンテキストで理解されることができるように、ニューラルネットワークは、機械学習を利用することができ、これは、訓練されたパラメータに基づいて出力が生成されるようなアルゴリズムの広範なクラスを指すことができる。 As described herein, an exemplary neural network is a biologically inspired algorithm that passes input data through a series of connected layers to generate an output. Each layer of a neural network may comprise another neural network, or may comprise any number of layers (convolutional or not). As can be understood in the context of the present disclosure, a neural network may utilize machine learning, which may refer to a broad class of algorithms in which an output is generated based on trained parameters.

ニューラルネットワークのコンテキストで論じられているが、本開示と一致する任意の種類の機械学習が使用されることができる。例えば、機械学習アルゴリズムは、回帰アルゴリズム(例えば、通常の最小二乗回帰(OLSR)、線形回帰、ロジスティック回帰、ステップワイズ回帰、多変量適応回帰スプライン(MARS)、局所的に重み付けされた散布図平滑化(LOESS))、インスタンスベースのアルゴリズム(例えば、リッジ回帰、最小絶対縮退選択演算子(LASSO)、弾性ネット、最小角回帰(LARS))、決定木アルゴリズム(例えば、分類回帰木(CART)、反復二分木3(ID3)、カイ二乗自動相互作用検出(CHAID)、決定スタンプ、条件付き決定木)、ベイジアンアルゴリズム(例えば、ナイーブベイズ、ガウスナイーブベイズ、多項ナイーブベイズ、平均一従属性分類器(AODE)、ベイジアンビリーフネットワーク(BNN)、ベイジアンネットワーク)、クラスタリングアルゴリズム(例えば、k-means、k-medians、期待値最大化(EM)、階層型クラスタリング)、相関ルール学習アルゴリズム(例えば、パーセプトロン、バックプロパゲーション、ホップフィールドネットワーク、Radial Basis Function Network(RBFN))、深層学習アルゴリズム(Deep Boltzmann Machine(DBM)、Deep Belief Networks(DBN)、畳み込みニューラルネットワーク(CNN)、Stacked Auto-Encoders)、次元削減アルゴリズム(例えば、主成分分析(PCA)、主成分回帰(PCR)、部分最小二乗回帰(PLSR)、サモンマッピング、多次元尺度法(MDS)、Projection Pursuit、線形判別分析(LDA)、混合判別分析(MDA)、二次判別分析(QDA)、フレキシブル判別分析(FDA))、アンサンブルアルゴリズム(例えば、Boosting、Bootstrapped Aggregation(Bagging)、AdaBoost、Stacked Generalization(Blending)、Gradient Boosting Machines(GBM)、Gradient Boosted Regression Trees(GBRT)、Random Forest)、SVM(Support Vector Machine)、教師付き学習、教師なし学習、半教師付き学習、などを含むことができるが、これらに限定はされない。 Although discussed in the context of neural networks, any type of machine learning consistent with this disclosure may be used. For example, machine learning algorithms may include regression algorithms (e.g., ordinary least squares regression (OLSR), linear regression, logistic regression, stepwise regression, multivariate adaptive regression splines (MARS), locally weighted scatterplot smoothing (LOESS)), instance-based algorithms (e.g., ridge regression, least absolute attrition selection operator (LASSO), elastic nets, least angle regression (LARS)), decision tree algorithms (e.g., classification and regression trees (CART), iterative binary tree 3 (ID3), chi-squared automated interaction detection (CH2), etc.), and may be used in conjunction with other algorithms. AID), decision stumps, conditional decision trees), Bayesian algorithms (e.g., Naïve Bayes, Gaussian Naïve Bayes, Multinomial Naïve Bayes, Average Ordinary Attribute Classifier (AODE), Bayesian Belief Networks (BNN), Bayesian Networks), clustering algorithms (e.g., k-means, k-medians, Expectation Maximization (EM), Hierarchical Clustering), Association Rule Learning Algorithms (e.g., Perceptron, Backpropagation, Hopfield Networks, Radial Basis Function Network (RBFN)), deep learning algorithms (Deep Boltzmann Machine (DBM), Deep Belief Networks (DBN), Convolutional Neural Networks (CNN), Stacked Auto-Encoders), dimensionality reduction algorithms (e.g., Principal Component Analysis (PCA), Principal Component Regression (PCR), Partial Least Squares Regression (PLSR), Sammon Mapping, Multidimensional Scaling (MDS), Projection Pursuit, Linear Discriminant Analysis (LDA), Mixed Discriminant Analysis (MDA), Quadratic Discriminant Analysis (QDA), Flexible Discriminant Analysis (FDA)), ensemble algorithms (e.g., Boosting, Bootstrapped These may include, but are not limited to, Aggregation (Bagging), AdaBoost, Stacked Generalization (Blending), Gradient Boosting Machines (GBM), Gradient Boosted Regression Trees (GBRT), Random Forest), SVM (Support Vector Machine), supervised learning, unsupervised learning, semi-supervised learning, etc.

アーキテクチャの付加的な例としては、ResNet50、ResNet101、VGG、DenseNet、PointNetなどのニューラルネットワークを含む。 Additional example architectures include neural networks such as ResNet50, ResNet101, VGG, DenseNet, and PointNet.

車両902のプロセッサ916およびコンピューティングデバイス940のプロセッサ942は、動作を実行し、本明細書で述べられているようにデータを処理するための命令を実行することができる任意の適切なプロセッサであることができる。限定ではなく例として、プロセッサ916、及び942は、1つ又は複数の中央処理装置(CPU)、グラフィックス処理装置(GPU)、又は、電子データを処理して、その電子データをレジスタ、及び/又はメモリに格納することができる他の電子データに変換する他の装置、又は、装置の一部を備えることができる。いくつかの例では、集積回路(ASICなど)、ゲートアレイ(FPGAなど)、及びその他のハードウェアデバイスも、コード化された命令を実装するように構成されている限りにおいて、プロセッサとみなすことができる。 The processor 916 of the vehicle 902 and the processor 942 of the computing device 940 may be any suitable processor capable of executing instructions to perform operations and process data as described herein. By way of example and not limitation, the processors 916 and 942 may comprise one or more central processing units (CPUs), graphics processing units (GPUs), or other devices or portions of devices that process electronic data and convert it to other electronic data that may be stored in registers and/or memory. In some examples, integrated circuits (such as ASICs), gate arrays (such as FPGAs), and other hardware devices may also be considered processors so long as they are configured to implement coded instructions.

メモリ918、及び944は、例示的な非一時的コンピュータ可読媒体である。メモリ918、及び944は、本明細書で述べられる方法、及び様々なシステムに帰属する機能を実装するために、動作システム、及び1つ又は複数のソフトウェアアプリケーション、命令、プログラム、及び/又はデータを格納することができる。様々な実装において、メモリは、スタティックランダムアクセスメモリ(SRAM)、シンクロナスダイナミックRAM(SDRAM)、不揮発性/フラッシュ型メモリ、または情報を格納することができる他の種類のメモリなど、任意の適切なメモリ技術を用いて実装されることができる。本明細書で述べられるアーキテクチャ、システム、および個々の要素は、他の多くの論理的、プログラム的、及び物理的な構成要素を含むことができるが、添付の図面に示されているものは、ここでの議論に関する単なる例である。 Memories 918 and 944 are exemplary non-transitory computer-readable media. Memories 918 and 944 may store operating systems and one or more software applications, instructions, programs, and/or data to implement the methods and functions attributed to the various systems described herein. In various implementations, the memory may be implemented using any suitable memory technology, such as static random access memory (SRAM), synchronous dynamic RAM (SDRAM), non-volatile/flash memory, or other types of memory capable of storing information. The architectures, systems, and individual elements described herein may include many other logical, programmatic, and physical components, but those shown in the accompanying drawings are merely examples for the discussion herein.

図9は分散システムとして図示されているが、代替的な例では、車両902の構成要素をコンピューティングデバイス940に関連付けること、及び/又はコンピューティングデバイス940の構成要素を車両902に関連付けることができることに留意すべきである。すなわち、車両902は、コンピューティングデバイス940に関連付けられた機能のうちの1つ又は複数を実行することができ、その逆も可能である。さらに、予測コンポーネント928(及びサブコンポーネント)の側面は、本明細書で論じられているデバイスのいずれかで実行されることができる。 9 is illustrated as a distributed system, it should be noted that in alternative examples, components of the vehicle 902 may be associated with the computing device 940 and/or components of the computing device 940 may be associated with the vehicle 902. That is, the vehicle 902 may perform one or more of the functions associated with the computing device 940, and vice versa. Additionally, aspects of the prediction component 928 (and subcomponents) may be performed on any of the devices discussed herein.

図10は、センサーデータを取り込むこと、物体に関連付けられた属性を決定すること、属性に基づいて予測位置を決定すること、予測位置に基づいて車両を制御することの例示的なプロセス1000を示している。例えば、プロセス1000の一部、又は全ては、本明細書で述べられるように、図9の1つ又は複数の構成要素によって実行されることができる。例えば、プロセス1000の一部、又は全ては、車両コンピューティングデバイス904によって実行されることができる。さらに、例示のプロセス1000に記載された任意の動作は、プロセス1000に示されたものとは異なる順序で、示されるプロセス1000の動作のいずれかを省略して、及び/又は本明細書で論じられる動作のいずれかと組み合わされて、並行で実行される。 10 illustrates an example process 1000 of capturing sensor data, determining attributes associated with an object, determining a predicted location based on the attributes, and controlling a vehicle based on the predicted location. For example, some or all of the process 1000 may be performed by one or more components of FIG. 9 as described herein. For example, some or all of the process 1000 may be performed by a vehicle computing device 904. Additionally, any operations described in the example process 1000 may be performed in parallel, in a different order than shown in the process 1000, with any of the operations of the process 1000 shown omitted, and/or in combination with any of the operations discussed herein.

動作1002において、プロセスは、環境のセンサーデータを受信することを含むことができる。いくつかの例では、動作1002は、環境のTime of flightデータ、LIDARデータ、画像データ、RADARデータなどを受信、及び/又は取り込むことを含むことができる。いくつかの例では、動作1002は、車両が環境を横断する際に車両(例えば、自律車両)によって実行されることができる。 In operation 1002, the process may include receiving sensor data of the environment. In some examples, operation 1002 may include receiving and/or capturing time of flight data, LIDAR data, image data, RADAR data, etc. of the environment. In some examples, operation 1002 may be performed by a vehicle (e.g., an autonomous vehicle) as the vehicle traverses the environment.

動作1004において、プロセスは、センサーデータに少なくとも部分的に基づいて、物体が環境内にあることを決定することを含むことができる。例えば、動作1004は、物体を環境内の歩行者として分類することを含むことができる。いくつかの例では、動作1004は、物体(例えば、歩行者)が、歩道にいるのか、道路にいるのか、信号無視をしているのか、などを決定することを含むことができる。 At operation 1004, the process may include determining that an object is in the environment based at least in part on the sensor data. For example, operation 1004 may include classifying the object as a pedestrian in the environment. In some examples, operation 1004 may include determining whether the object (e.g., a pedestrian) is on a sidewalk, on a road, running a red light, etc.

動作1006において、プロセスは、物体が環境内の目的地に関連付けられているかどうかを決定することを含むことができる。例えば、動作1006は、環境のマップデータにアクセスし、横断歩道領域が物体の閾値距離内にあるかどうかを決定することを含むことができる。横断歩道領域が1つあり、物体が歩道にある場合、動作1006は、走行可能なエリアを横切る場所を、目的地として識別することを含むことができる。物体が道路にあり、1つの横断歩道に近接している場合、動作1006は、2つの目的地間の曖昧さを解消することを含むことができる。いくつかの例では、動作1006は、物体に関連付けられた属性に少なくとも部分的に基づいて、物体が特定の横断歩道領域に接近、及び/又は横断する可能性を決定することを含むことができる。いくつかの例では、動作1006は、歩行者に近接した横断歩道領域の存在にかかわらず、そのような目的地を提供する。 In operation 1006, the process may include determining whether the object is associated with a destination in the environment. For example, operation 1006 may include accessing map data of the environment and determining whether a crosswalk area is within a threshold distance of the object. If there is one crosswalk area and the object is on the sidewalk, operation 1006 may include identifying a location across the drivable area as the destination. If the object is on a road and is proximate to one crosswalk, operation 1006 may include disambiguating between the two destinations. In some examples, operation 1006 may include determining a likelihood that the object will approach and/or cross a particular crosswalk area based at least in part on attributes associated with the object. In some examples, operation 1006 provides such destinations to pedestrians regardless of the presence of a crosswalk area proximate to the pedestrian.

いくつかの例では、動作1006は、環境内の物体に関連付けられた目的地を決定するために、目的地予測コンポーネント(例えば、目的地予測コンポーネント320)に属性を入力することを含むことができる。いくつかの例では、目的地予測コンポーネント320に入力される属性は、動作1008、及び1010で以下に決定される属性と同じ、又は類似したものとすることができる。いくつかの例では、属性は、環境内の目的地を決定する前に、物体に対して決定されることができる。また、いくつかの例では、属性は、環境内の可能性の高い目的地を決定するために、環境内の異なる目的地に基づく参照フレームを用いて、並行して決定されることができる。 In some examples, operation 1006 may include inputting attributes into a destination prediction component (e.g., destination prediction component 320) to determine a destination associated with the object in the environment. In some examples, the attributes input into the destination prediction component 320 may be the same as or similar to the attributes determined below in operations 1008 and 1010. In some examples, attributes may be determined for the object prior to determining the destination in the environment. Also, in some examples, attributes may be determined in parallel using a reference frame based on different destinations in the environment to determine likely destinations in the environment.

物体が目的地と関連付けられていない場合(例えば、動作1006で「NO」)、動作1006は、環境内の追加データを取り込むために、動作1002を継続されることができる。 If the object is not associated with the destination (e.g., "NO" at operation 1006), operation 1006 can continue with operation 1002 to capture additional data within the environment.

そこで物体が目的地と関連付けられている場合(例えば、動作1006で「YES」)、動作は、動作1008に継続されることができる。 If the object is then associated with the destination (e.g., "YES" at operation 1006), operation can continue to operation 1008.

動作1008において、プロセスは、物体に関連付けられた第1の属性を決定することを含むことができ、第1の属性は、第1の時間に関連付けられる。いくつかの例では、属性は、ある時点における物体(例えば、歩行者)の位置(例えば、位置は、本明細書で論じられる参照のフレームで表されることができる)、物体、又は物体に関連付けられた境界ボックスの大きさ(例えば、長さ、幅、及び/又は高さ)、ある時点における歩行者の速度(例えば、第1の軸(又は他の参照線)に対する大きさ、及び/又は角度)、ある時点における歩行者の加速度、歩行者が走行可能なエリアにいるかどうかの指示(例えば、歩行者が歩道、又は道路にいるかどうか)、歩行者が横断歩道領域にいるかどうかの指示、歩行者が信号無視をしているかどうかの指示、領域を制御する指示器の状態(例えば、横断歩道が信号によって制御されているかどうか、及び/又は信号の状態など)、車両コンテキスト(環境における車両の存在、及び車両に関連付けられた属性など)、一定期間において横断歩道領域を通過するフラックス(一定期間において横断歩道領域を通過する物体(車両、及び/又は追加の歩行者など)の数など)、物体の関連付け(例えば、歩行者が歩行者のグループの中を移動しているかどうか)、第1の方向(例えば、グローバルなx-方向)の横断歩道までの距離、第2の方向(例えば、グローバルなy-方向)の横断歩道までの距離、横断歩道領域内の道路までの距離(例えば、横断歩道領域内の道路までの最短距離)、他の物体までの距離などの1つまたは複数を含むことができるが、これらに限定はされない。 At operation 1008, the process may include determining a first attribute associated with the object, the first attribute associated with a first time. In some examples, the attribute may include a position of the object (e.g., a pedestrian) at a time (e.g., the position may be expressed in a frame of reference as discussed herein), a size of the object or a bounding box associated with the object (e.g., length, width, and/or height), a speed of the pedestrian at a time (e.g., a size and/or angle relative to a first axis (or other reference line)), an acceleration of the pedestrian at a time, an indication of whether the pedestrian is in a drivable area (e.g., whether the pedestrian is on a sidewalk or a road), an indication of whether the pedestrian is in a crosswalk area, an indication of whether the pedestrian is running a red light, a state of an indicator controlling the area (e.g., whether the crosswalk is controlled by a light, These may include, but are not limited to, one or more of: vehicle context (such as the presence of vehicles in the environment and attributes associated with the vehicles), flux through the crosswalk area in a period of time (such as the number of objects (such as vehicles and/or additional pedestrians) passing through the crosswalk area in a period of time), object association (e.g., whether a pedestrian is moving among a group of pedestrians), distance to the crosswalk in a first direction (e.g., global x-direction), distance to the crosswalk in a second direction (e.g., global y-direction), distance to a road in the crosswalk area (e.g., shortest distance to a road in the crosswalk area), distance to other objects, etc.

動作1010において、プロセスは、物体に関連付けられた第2の属性を決定することを含むことができ、第2の属性は、第1の時間の後の第2の時間に関連付けられる。いくつかの例では、動作1010は(第1の時間に関連付けられた属性のみを決定、及び/又は使用することができるように)省略されることができ、一方、いくつかの例では、付加的な、又は異なる時間インスタンスに関連付けられた属性が決定されることができる。 In operation 1010, the process may include determining a second attribute associated with the object, the second attribute being associated with a second time after the first time. In some examples, operation 1010 may be omitted (such that only attributes associated with the first time may be determined and/or used), while in some examples attributes associated with additional or different time instances may be determined.

動作1012において、プロセスは、第1の属性、第2の属性、及び目的地に少なくとも部分的に基づいて、第2の時間の後の第3の時間における物体の予測場所を決定することを含むことができる。いくつかの例では、動作1012は、属性情報を位置予測コンポーネント(例えば、位置予測コンポーネント404)に入力すること、及び環境内の物体に関連付けられた予測位置を出力として受信することを含むことができる。本明細書で述べられるように、いくつかの例では、属性、及び/又は予測位置は、第1の時間、及び/又は第2の時間における物体の位置と、環境内における目的地の位置とに少なくとも部分的に基づいて、1つ又は複数の参照のフレームで表現されることができる。 At operation 1012, the process may include determining a predicted location of the object at a third time after the second time based at least in part on the first attribute, the second attribute, and the destination. In some examples, operation 1012 may include inputting the attribute information into a location prediction component (e.g., location prediction component 404) and receiving as an output a predicted location associated with the object in the environment. As described herein, in some examples, the attribute and/or the predicted location may be expressed in one or more frames of reference based at least in part on the location of the object at the first time and/or the second time and the location of the destination in the environment.

動作1014において、プロセスは、予測位置に少なくとも部分的に基づいて、車両を制御することを含むことができる。いくつかの例では、動作1014は、車両を停止させるために、又は安全に環境を横断すべく別の方法で制御するために、軌道を生成することを含むことができる。 In operation 1014, the process may include controlling the vehicle based at least in part on the predicted position. In some examples, operation 1014 may include generating a trajectory to stop the vehicle or otherwise control it to safely traverse the environment.

図11は、センサーデータを取り込むこと、第1の物体、及び第2の物体が環境内にあることを決定すること、第2の物体に関連付けられた属性を決定すること、属性、及び参照線に基づいて予測位置を決定すること、予測位置に基づいて車両を制御することの例示的なプロセスを示している。例えば、プロセス1100の一部、又は全ては、本明細書で述べられるように、図9の1つ又は複数の構成要素によって実行されることができる。例えば、プロセス1100の一部、又は全ては、車両コンピューティングデバイス904によって実行されることができる。さらに、例示されたプロセス1100に記載された任意の動作は、プロセス1100に示されたものとは異なる順序で、示されたプロセス1100の動作のいずれかを省略して、及び/又は本明細書で論じられる動作のいずれかと組み合わされて、並行で実行される。 11 illustrates an exemplary process of capturing sensor data, determining that a first object and a second object are in an environment, determining attributes associated with the second object, determining a predicted position based on the attributes and the reference line, and controlling the vehicle based on the predicted position. For example, some or all of the process 1100 may be performed by one or more components of FIG. 9 as described herein. For example, some or all of the process 1100 may be performed by the vehicle computing device 904. Additionally, any operations described in the illustrated process 1100 may be performed in parallel, in a different order than shown in the process 1100, with any of the operations of the illustrated process 1100 omitted, and/or in combination with any of the operations discussed herein.

動作1102において、プロセスは、環境のセンサーデータを受信することを含むことができる。いくつかの例では、動作1102は、環境のTime of flightデータ、LIDARデータ、画像データ、RADARデータなどを受信、及び/又は取り込むことを含むことができる。いくつかの例では、動作1102は、車両が環境を横断する際に車両(例えば、自律車両)によって実行されることができる。 In operation 1102, the process may include receiving sensor data of the environment. In some examples, operation 1102 may include receiving and/or capturing time of flight data, LIDAR data, image data, RADAR data, etc. of the environment. In some examples, operation 1102 may be performed by a vehicle (e.g., an autonomous vehicle) as the vehicle traverses the environment.

動作1104において、プロセスは、センサーデータに少なくとも部分的に基づいて、第1の物体が環境内にあることを決定することを含むことができる。例えば、動作1104は、本明細書で論じられるように、予測動作の対象となる対象物体を決定することを含むことができる。例として、対象物体を決定することは、環境内の複数の物体から物体を対象物体として選択することを含むことができる。いくつかの例では、対象物体は、対象物体の経路とセンサーデータを取り込む車両(例えば、車両902)との間の交差の可能性、対象物体とセンサーデータを取り込む車両(例えば、車両902)との間の距離などに基づいて選択されることができる。 At operation 1104, the process may include determining that a first object is in the environment based at least in part on the sensor data. For example, operation 1104 may include determining a target object that is subject to the predictive action as discussed herein. By way of example, determining the target object may include selecting an object as the target object from a plurality of objects in the environment. In some examples, the target object may be selected based on a likelihood of intersection between the target object's path and the vehicle capturing the sensor data (e.g., vehicle 902), a distance between the target object and the vehicle capturing the sensor data (e.g., vehicle 902), etc.

動作1106において、プロセスは、第2の物体が環境内で第1の物体に近接しているかどうかを決定することを含むことができる。いくつかの例では、動作1106は、第2の物体が第1の物体の閾値距離内にあるかどうかを決定することを含むことができる。いくつかの例(例えば、混雑した環境において)では、動作1106は、第1の物体に最も近いN個の物体を決定することを含むことができる(ここで、Nは整数である)。限定されないが、少なくともいくつかの例において、そのような決定は、異なる分類の物体、反対の運動方向の物体などの、特定の特徴を有する物体を除外する。 In operation 1106, the process may include determining whether a second object is proximate to the first object in the environment. In some examples, operation 1106 may include determining whether the second object is within a threshold distance of the first object. In some examples (e.g., in a crowded environment), operation 1106 may include determining the N objects closest to the first object (where N is an integer). Without limitation, in at least some examples, such determination excludes objects with certain characteristics, such as objects of different classifications, objects with opposite directions of motion, etc.

第2の物体が第1の物体に近接していない場合(例えば、動作1106で「NO」)、プロセスは動作1102に戻ることができる。しかしながら、いくつかの例では、プロセスは、第2の物体に関連付けられた属性なしに第1の物体の予測位置が決定される動作1112に継続されることができる(例えば、第1の物体の予測位置は、第1の物体に関連付けられた属性に、少なくとも部分的に基づいて決定されることができる)。すなわち、第1の物体の予測位置は、第2の物体が第1の物体に近接しているか否かにかかわらず、及び/又は任意の第2の物体について属性が決定されているか否かにかかわらず、いくつかの例において決定されることができる。 If the second object is not proximate to the first object (e.g., “NO” at operation 1106), the process may return to operation 1102. However, in some examples, the process may continue to operation 1112 where a predicted position of the first object is determined without attributes associated with the second object (e.g., the predicted position of the first object may be determined based, at least in part, on attributes associated with the first object). That is, the predicted position of the first object may be determined in some examples regardless of whether the second object is proximate to the first object and/or regardless of whether attributes have been determined for any second object.

第2の物体が第1の物体に近接している場合(例えば、動作1106で「YES」)、処理は動作1108に継続される。 If the second object is proximate to the first object (e.g., "YES" at operation 1106), processing continues at operation 1108.

動作1108において、プロセスは、第2の物体に関連付けられた第1の属性を決定することを含むことができ、第2の属性は、第1の時間に関連付けられる。いくつかの例では、属性は、第1の物体、第2の物体、及び/又は環境内の他の物体に対して決定されることができる。例えば、属性には、ある時点における物体の速度、ある時点における物体の加速度、ある時点における物体の位置(例えば、グローバル座標、又は、ローカル座標)、ある時点において物体に関連付けられた境界ボックス(例えば、物体の範囲、ロール、ピッチ、及び/又はヨーを表す)、第1の時間において物体に関連付けられた照明の状態(例えば、ヘッドライト、ブレーキライト、ハザードライト、方向指示ライト、バックライトなど)、物体のホイール方向の指示、ある時点における物体とマップ要素との距離(例えば、停止線、通行ライン、スピードバンプ、イールドライン、交差点、車道までの距離など)、1つ又は複数の参照フレームにおける他の物体との相対的な距離、物体の分類(自動車、車両、動物、トラック、自転車など)、物体に関連付けられた特徴(物体が車線変更中であるかどうか、二重駐車車両であるかどうかなど)、車線の特徴などの1つ又は複数を含むことができるが、これらに限定はされない。 At operation 1108, the process may include determining a first attribute associated with the second object, the second attribute associated with the first time. In some examples, attributes may be determined for the first object, the second object, and/or other objects in the environment. For example, the attributes may include, but are not limited to, one or more of: the speed of the object at a time; the acceleration of the object at a time; the position of the object at a time (e.g., in global or local coordinates); a bounding box associated with the object at a time (e.g., representing the range, roll, pitch, and/or yaw of the object); the state of lighting associated with the object at a first time (e.g., headlights, brake lights, hazard lights, turn signals, backlights, etc.); a wheel direction indication for the object; the distance of the object to a map element at a time (e.g., distance to a stop line, turn line, speed bump, yield line, intersection, roadway, etc.); the distance relative to other objects in one or more frames of reference; a classification of the object (car, vehicle, animal, truck, bicycle, etc.); a feature associated with the object (whether the object is changing lanes, whether it is a double-parked vehicle, etc.); lane features, etc.

動作1110において、プロセスは、第2の物体に関連付けられた第2の属性を決定することを含むことができ、第2の属性は、第1の時間の後の第2の時間に関連付けられる。いくつかの例では、動作1110は(第1の時間に関連付けられた属性のみを使用することができるように)省略されることができ、一方でいくつかの例では、付加的な、又は、異なる時間インスタンスに関連付けられた属性が決定されることができる。 In operation 1110, the process may include determining a second attribute associated with the second object, the second attribute being associated with a second time after the first time. In some examples, operation 1110 may be omitted (such that only the attributes associated with the first time may be used), while in some examples, attributes associated with additional or different time instances may be determined.

動作1112において、プロセスは、第1の属性および第2の属性に少なくとも部分的に基づいて、第2の時間の後の第3の時間における第1の物体の予測位置を決定することを含むことができ、予測位置は、環境内の参照線に関する。いくつかの例では、動作1112は、第1の物体に関連付けられた予測位置を決定するために、第1の物体、及び/又は第2の物体に関連付けられた属性情報を位置予測コンポーネント(例えば、位置予測コンポーネント802)に入力することを含むことができる。 At operation 1112, the process may include determining a predicted location of the first object at a third time after the second time based at least in part on the first attribute and the second attribute, the predicted location being relative to a reference line in the environment. In some examples, operation 1112 may include inputting attribute information associated with the first object and/or the second object into a location prediction component (e.g., location prediction component 802) to determine a predicted location associated with the first object.

いくつかの例では、動作1112は、予測位置に最も密接に関連付けられた参照線を受信する、または他の方法で決定すること、及び参照線に関する予測位置を表すことを含むことができる。例えば、動作1112は、予測位置と候補参照線との間の類似性スコアを決定し、類似性スコアに基づいて参照線を選択すること、又は任意の他の機構を含むことができる。 In some examples, operation 1112 may include receiving or otherwise determining a reference line most closely associated with the predicted position and representing the predicted position relative to the reference line. For example, operation 1112 may include determining a similarity score between the predicted position and a candidate reference line, selecting the reference line based on the similarity score, or any other mechanism.

動作1114において、プロセスは、予測位置に少なくとも部分的に基づいて、車両を制御することを含むことができる。いくつかの例では、動作1114は、車両を停止させるために、又は安全に環境を横断すべく車両を別の方法で制御するために、軌道を生成することを含むことができる。 In operation 1114, the process may include controlling the vehicle based at least in part on the predicted position. In some examples, operation 1114 may include generating a trajectory to stop the vehicle or otherwise control the vehicle to safely traverse the environment.

(例示項)
A:システムであって、1つ又は複数のプロセッサと、命令が実行されると、自律車両のセンサーを使用して環境のセンサーデータを取り込むことと、センサーデータに少なくとも部分的に基づいて、物体が環境内にあることを決定することと、マップデータ、及びセンサーデータに少なくとも部分的に基づいて、物体が環境内の目的地に関連付けられていることを決定することと、物体に関連付けられた第1の属性を決定することであって、第1の属性は第1の時間に関連付いていることと、物体に関連付けられた第2の属性を決定することであって、第2の属性は、第1の時間の後の第2の時間に関連付いていることと、第1の属性、第2の属性、及び目的地を機械学習モデルに入力することであって、第1の属性、及び第2の属性は、目的地に少なくとも部分的に基づいた参照のフレームによって表されることと、機械学習モデルから、第2の時間の後の第3の時間における物体の予測位置を受信することと、第3の時間での環境内における物体の予測位置に少なくとも部分的に基づいて、自律車両を制御することと、を備えた動作をシステムに実行させる1つ又は複数のプロセッサによって実行可能な命令を格納する1つ又は複数のコンピュータ可読媒体と、を備えたシステム。
(Example item)
A: A system comprising: one or more processors; and one or more computer-readable media storing instructions executable by the one or more processors that, when executed, cause the system to perform operations comprising: capturing sensor data of an environment using sensors of an autonomous vehicle; determining that an object is within the environment based at least in part on the sensor data; determining that the object is associated with a destination within the environment based at least in part on the map data and the sensor data; determining a first attribute associated with the object, the first attribute associated with a first time; determining a second attribute associated with the object, the second attribute associated with a second time after the first time; inputting the first attribute, the second attribute, and the destination into a machine learning model, the first attribute and the second attribute represented by a frame of reference based at least in part on the destination; receiving from the machine learning model a predicted position of the object at a third time after the second time; and controlling the autonomous vehicle based at least in part on the predicted position of the object in the environment at the third time.

B:段落Aのシステムであって、物体が歩行者であり、目的地が環境内の横断歩道領域の周囲に関連付けられ、歩行者に関連付く走行可能な面に対向する、システム。 B: The system of paragraph A, wherein the object is a pedestrian and the destination is associated with the perimeter of a crosswalk area in the environment and faces a drivable surface associated with the pedestrian.

C:段落A又はBのシステムであって、動作は、第1の属性、及び第2の属性を目的地予測コンポーネントに入力することに少なくとも部分的に基づいて、物体が目的地に関連付けられていると決定することと、目的地予測コンポーネントから目的地を受信することであって、目的地予測コンポーネントは他の機械学習モデルを備えることと、をさらに備えたシステム。 C: The system of paragraph A or B, further comprising an operation of determining that the object is associated with a destination based at least in part on inputting the first attribute and the second attribute into a destination prediction component, and receiving the destination from the destination prediction component, the destination prediction component comprising another machine learning model.

D:段落AからCのいずれかのシステムであって、動作は、第3の時間における物体に関連付けられた予測位置が、参照のフレームに少なくとも部分的に基づいた横方向のオフセットと、第2の時間における物体の位置と予測位置との間の差を表す、参照のフレームの軸に沿った距離とを備えることをさらに備えたシステム。 D: Any of the systems of paragraphs A to C, wherein the operation further comprises: the predicted position associated with the object at the third time comprises a lateral offset based at least in part on the frame of reference, and a distance along an axis of the frame of reference representing a difference between the position of the object at the second time and the predicted position.

E:段落AからDのいずれかのシステムであって、動作は、参照のフレームを設立することであって、第2の時間における物体の第1の位置が、参照のフレームの座標に関連付けられ、第1の軸が、目的地と材表に少なくとも部分的に基づいており、第2の軸が、第1の軸に対して垂直であり、予測位置は参照のフレームに少なくとも部分的に基づいていることをさらに備えたシステム。 E: Any of the systems of paragraphs A to D, further comprising: an operation of establishing a frame of reference, the first position of the object at the second time being associated with coordinates of the frame of reference, the first axis being based at least in part on the destination and the surface of material, the second axis being perpendicular to the first axis, and the predicted position being based at least in part on the frame of reference.

F:方法であって、環境を表すセンサーデータを受信することと、センサーデータに少なくとも部分的に基づいて、物体が環境内にあることを決定することと、環境内の位置を決定することであって、位置は横断歩道領域に関連付けられていることと、物体に関連付けられた第1の属性を決定することでって、第1の属性は第1の時間に関連付いていることと、物体に関連付けられた第2の属性を決定することであって、第2の属性は第1の時間の後の第2の時間に関連付いていることと、第1の属性、第2の属性、及び位置を危害学習モデルに入力することと、機械学習モデルから、第2の時間の後の第3の時間における物体に関連付けられた予測位置を受信することと、を備えた方法。 F: A method comprising: receiving sensor data representative of an environment; determining, based at least in part on the sensor data, that an object is in the environment; determining a location in the environment, the location associated with a pedestrian crossing area; determining a first attribute associated with the object, the first attribute associated with a first time; determining a second attribute associated with the object, the second attribute associated with a second time after the first time; inputting the first attribute, the second attribute, and the location into a machine learning model; and receiving from the machine learning model a predicted location associated with the object at a third time after the second time.

G:段落Fの方法であって、車両上のセンサーを使用してセンサーデータを取り込むことと、第3の時間における環境内の物体の予測位置に少なくとも部分的に基づいて、車両を制御することと、をさらに備えた方法。 G: The method of paragraph F, further comprising capturing sensor data using a sensor on the vehicle and controlling the vehicle based at least in part on a predicted position of the object in the environment at a third time.

H:段落F又はGの方法であって、位置は第1の位置であり、環境を表すマップデータ、又はセンサーデータの少なくとも1つに少なくとも部分的に基づいて第1の位置を決定することと、第1の位置に関連付けられた閾値領域を決定することと、環境内における物体の第2の位置を決定することと、物体の第2の位置閾値領域内にあると決定することと、第2の位置が閾値領域内にあることに少なくとも部分的に、及び第1の属性、又は第2の属性の少なくとも1つとに少なくとも部分的に基づいて、物体に関連付けられた目的地として位置を選択することと、をさらに備えた方法。 H: The method of paragraph F or G, wherein the location is a first location, further comprising: determining the first location based at least in part on at least one of map data or sensor data representative of the environment; determining a threshold area associated with the first location; determining a second location of the object within the environment; determining that the second location of the object is within a threshold area; and selecting the location as a destination associated with the object based at least in part on the second location being within the threshold area and at least in part on the first attribute or at least one of the second attributes.

I:段落FからHのいずれかの方法であって、位置は第1の位置であり、参照のフレームを設立することであって、第2の時間における物体の第2の位置が参照のフレームの座標に関連付けられ、第1の軸が座標、及び第1の位置に少なくとも部分的に基づいており、第2の軸が第1の軸に垂直であり、第1の属性が参照のフレームに少なくとも部分的に基づいていることをさらに備えた方法。 I: The method of any of paragraphs F-H, wherein the location is a first location, and further comprising establishing a frame of reference, wherein a second location of the object at a second time is associated with coordinates of the frame of reference, the first axis being based at least in part on the coordinates and the first location, the second axis being perpendicular to the first axis, and the first attribute being based at least in part on the frame of reference.

J:段落Iの方法であって、第2の時間における物体の速度を決定することと、速度を表す速度ベクトルと第1の軸との間の角度を決定することと、をさらに備え、第2の属性は角度を備える方法。 J: The method of paragraph I, further comprising determining a velocity of the object at a second time and determining an angle between a velocity vector representing the velocity and the first axis, the second attribute comprising the angle.

K:段落I又はJの方法であって、位置は第1の位置であり、第3の時間における物体に関連付けられた予測位置が、第2の軸に対する横方向のオフセットと、第2の時間における物体の第2の位置と予測位置との間の差を表す第1の軸に沿った距離とを備えた方法。 K: The method of paragraph I or J, wherein the location is a first location and the predicted location associated with the object at a third time comprises a lateral offset relative to the second axis and a distance along the first axis representing a difference between the second location and the predicted location of the object at the second time.

L:段落FからKのいずれかの方法であって、一定期間において横断歩道領域に入る物体の数を決定することをさらに備え、第2の属性は物体の数を備えた方法。 L: The method of any of paragraphs F-K, further comprising determining a number of objects entering the crosswalk area during a period of time, the second attribute comprising the number of objects.

M:段落FからLのいずれかの方法であって、物体は第1の物体であり、センサーデータに少なくとも部分的に基づいて第2の物体が環境内にあることを決定することと、第2の物体に関連付けられた位置、速度、又は加速度の少なくとも1つを、物体コンテキストとして決定することと、物体コンテキストに少なくとも部分的にさらに基づいて、物体に関連付けられた予測位置を決定することと、をさらに備えた方法。 M: The method of any of paragraphs F to L, wherein the object is a first object, further comprising: determining that a second object is in the environment based at least in part on the sensor data; determining at least one of a position, a velocity, or an acceleration associated with the second object as an object context; and determining a predicted position associated with the object further based at least in part on the object context.

N:段落FからMのいずれかの方法であって、ビン化された予測位置を決定するために予測位置の少なくとも一部をビン化することをさらに備えた方法。 N: Any of the methods of paragraphs F to M, further comprising binning at least a portion of the predicted locations to determine binned predicted locations.

O:段落FからNのいずれかの方法であって、第1の属性が、第1の時間における物体の位置、第1の時間における物体の速度、第1の時間における物体の進路、第1の時間における物体と横断歩道領域の第1の部分との間の第1の距離、第1の時間における物体と横断歩道領域の第2の部分との間の第2の距離、第1の時間における物体の加速度、物体が走行可能なエリアにあるかどうかの指示、領域を制御すり指示器の状態、車両コンテキスト、又は物体の関連付け、の少なくとも1つを備えた方法。 O: The method of any of paragraphs F to N, wherein the first attribute comprises at least one of: a position of the object at a first time; a velocity of the object at a first time; a path of the object at a first time; a first distance between the object and a first portion of the pedestrian crossing area at a first time; a second distance between the object and a second portion of the pedestrian crossing area at a first time; an acceleration of the object at a first time; an indication of whether the object is in a drivable area; a state of a control area indicator; a vehicle context; or an association of the object.

P:実行されたとき、1つ又は複数のプロセッサに対して動作を実行させる命令を格納した非一時的コンピュータ可読媒体であって、動作は、環境を表すセンサーデータを受信することと、センサーデータに少なくとも部分的に基づいて、物体が環境内にあることを決定することと、環境内における位置を決定することであって、位置は環境の横断歩道領域、又は走行不能領域の少なくとも1つに関連付けられていることと、物体に関連付けられた第1の属性を決定することであって、第1の属性は第1の時間に関連付いていることと、物体に関連付けられた第2の属性を決定することであって、第2の属性は第1の時間の後の第2の時間に関連付いていることと、第1の属性、第2の属性、及び位置を機械学習モデルに入力することと、機械学習モデルから、第2の時間の後の第3の時間における物体に関連付けられた予測位置を受信することと、を備えた非一時的コンピュータ可読媒体。 P: A non-transitory computer-readable medium having stored thereon instructions that, when executed, cause one or more processors to perform operations including receiving sensor data representative of an environment; determining, based at least in part on the sensor data, that an object is within the environment; determining a location within the environment, the location associated with at least one of a crosswalk area or a non-driveable area of the environment; determining a first attribute associated with the object, the first attribute associated with a first time; determining a second attribute associated with the object, the second attribute associated with a second time after the first time; inputting the first attribute, the second attribute, and the location into a machine learning model; and receiving from the machine learning model a predicted location associated with the object at a third time after the second time.

Q:段落Pの非一時的コンピュータ可読媒体であって、位置は第1の位置であり、動作が、環境を表すマップデータ、又は環境を表すセンサーデータの少なくとも1つに少なくとも部分的に基づいて、第1の位置を決定することと、第1の位置に関連付けられた閾値領域を決定することと、環境内の物体の第2の位置を決定することと、物体の第2の位置が閾値領域内にあることを決定することと、物体の第2の位置が閾値領域内にあること、及び第1の属性、又は、第2の属性の少なくとも一つとに少なくとも部分的に基づいて、物体に関連付けられた目的地として第1の位置を選択することと、をさらに備えた非一時的コンピュータ可読媒体。 Q: The non-transitory computer-readable medium of paragraph P, wherein the location is a first location, and the operations further include determining the first location based at least in part on at least one of map data representing the environment or sensor data representing the environment, determining a threshold area associated with the first location, determining a second location of an object within the environment, determining that the second location of the object is within the threshold area, and selecting the first location as a destination associated with the object based at least in part on that the second location of the object is within the threshold area and at least one of the first attribute or the second attribute.

R:段落P又はQの非一時的コンピュータ可読媒体であって、位置は第1の位置であり、動作は、参照のフレームを設立することであって、第2の時間における物体の第2の位置が参照のフレームの座標に関連付けられ、第1の軸が座標、及び第1の位置に少なくとも部分的に基づいており、第2の軸が第1の軸に対して垂直であり、第1の属性は参照のフレームに少なくとも部分的に基づいている非一時的コンピュータ可読媒体。 R: The non-transitory computer readable medium of paragraph P or Q, wherein the location is a first location, and the operation is establishing a frame of reference, wherein a second location of the object at a second time is associated with coordinates of the frame of reference, a first axis is based at least in part on the coordinates and the first location, a second axis is perpendicular to the first axis, and the first attribute is based at least in part on the frame of reference.

S:段落Rの非一時的コンピュータ可読媒体であって、位置は第1の位置であり、第3の時間における物体に関連付けられた予測位置が、第2の軸に沿った横方向のオフセットと、第2の時間における物体の第2の位置と予測位置との差を表す第1の軸に沿った距離とを備える非一時的コンピュータ可読媒体。 S: The non-transitory computer readable medium of paragraph R, wherein the location is a first location and a predicted location associated with the object at a third time comprises a lateral offset along a second axis and a distance along the first axis representing a difference between the second location of the object at the second time and the predicted location.

T:段落PからSのいずれかの非一時的コンピュータ可読媒体であって、物体が横断歩道領域に関連付けられていないことを決定することと、位置が環境の走行不能領域に関連付けられていることを決定することと、をさらに備えた非一時的コンピュータ可読媒体。 T: The non-transitory computer-readable medium of any of paragraphs P to S, further comprising determining that the object is not associated with a pedestrian crossing area and determining that the location is associated with a non-driveable area of the environment.

U:システムであって、1つ又は複数のプロセッサと、1つ又は複数のプロセッサによって実行可能な指示を格納した1つ又は複数のコンピュータ可読媒体であって、実行されると命令はシステムに対して、自律車両上のセンサーを使用して環境のセンサーデータを取り込むことと、センサーデータに少なくとも部分的に基づいて、物体が環境内にあることを決定することと、環境内の物体に関連付けられた参照線を受信することと、物体に関連付けられた第1の属性を決定することであって、第1の属性は第1の時間に関連付けられていることと、物体に関連付けられた第2の属性を決定することであって、第2の属性は第1の時間の後の第2の時間に関連付けられていることと、第1の属性、第2の属性、及び参照線を機械学習モデルに入力することと、機械学習モデルから、第2の時間の後の第3の時間における物体の予測位置を受信することであって、予測位置が環境内の参照線に関することと、第3の時間における環境内の物体の予測位置に少なくとも部分的に基づいて、自律車両を制御することと、を備えた動作を実行させる1つ又は複数のコンピュータ可読媒体と、を備えたシステム U: A system comprising one or more processors and one or more computer-readable media having instructions executable by the one or more processors stored thereon, the instructions, when executed, causing the system to perform operations comprising: capturing sensor data of an environment using sensors on the autonomous vehicle; determining that an object is in the environment based at least in part on the sensor data; receiving a reference line associated with the object in the environment; determining a first attribute associated with the object, the first attribute being associated with a first time; determining a second attribute associated with the object, the second attribute being associated with a second time after the first time; inputting the first attribute, the second attribute, and the reference line into a machine learning model; receiving from the machine learning model a predicted position of the object at a third time after the second time, the predicted position being relative to the reference line in the environment; and controlling the autonomous vehicle based at least in part on the predicted position of the object in the environment at the third time.

V:段落Uのシステムであって、物体は第1の物体であり、動作は第1の物体に近接する第2の物体に関連付けられた第3の属性を決定することであって、第3の属性は第1の時間に関連付けられていることと、第2の物体に関連付けられた第4の属性であって、第4の属性は第2の時間に関連付けられていることと、第3の時間における第1の物体の予測位置を決定するために、第3の属性、及び第4の属性を機械学習モデルに入力することと、をさらに備えたシステム。 V: The system of paragraph U, further comprising: the object is a first object; the action is determining a third attribute associated with a second object proximate to the first object, the third attribute being associated with a first time; and a fourth attribute associated with the second object, the fourth attribute being associated with a second time; and inputting the third attribute and the fourth attribute into a machine learning model to determine a predicted location of the first object at the third time.

W:段落Vのシステムであって、第1の属性、第2の属性、第3の属性、又は第4の属性の少なくとも1つは、
第1の時間における第2の物体の速度、
第1の時間における第2の物体の加速度、
第1の時間における第2の物体の位置、
第1の時間における第2の物体に関連付けられた境界ボックス、
第1の時間における第2の物体に関連付けられた照明の状態、
第2の物体と第1の時間におけるマップ要素との間の第1の距離、
第1の物体と第2の物体との間の第2の距離、
第2の物体の分類、
又は第2の物体に関連付けられた特徴、
の少なくとも1つを備えるシステム。
W: The system of paragraph V, wherein at least one of the first attribute, the second attribute, the third attribute, or the fourth attribute is
the velocity of the second object at the first time;
the acceleration of the second object at the first time;
a position of a second object at a first time;
a bounding box associated with the second object at the first time;
a lighting condition associated with a second object at a first time;
a first distance between the second object and the map element at a first time;
a second distance between the first object and the second object;
Classifying the second object;
or a feature associated with a second object;
A system comprising at least one of the following:

X:段落UからWのいずれかのシステムであって、予測位置が参照線に沿った距離、及び参照線からの横方向のオフセットを備えたシステム。 X: Any system of paragraphs U to W, where the predicted position is a distance along the reference line and a lateral offset from the reference line.

Y:段落UからXのいずれかのシステムであって、機械学習モデルは第1の機械学習モデルであり、参照線は、参照線を出力するように訓練された第2の機械学習モデルから受信されるシステム。 Y: Any of the systems of paragraphs U to X, wherein the machine learning model is a first machine learning model and the reference line is received from a second machine learning model trained to output the reference line.

Z:方法であって、環境を表すセンサーデータを受信することと、物体が環境内にあることを決定することと、物体に関連付けられた参照線を受信することと、物体に関連付けられた第1の属性を決定することであって、第1の属性は第1の時間に関連付けられていることと、物体に関連付けられた第2の属性を決定することであって、第2の属性は第1の時間の後の第2の時間に関連付けられていることと、第1の属性、第2の属性、及び参照線を機械学習モデルに入力することと、機械学習モデルから、第2の時間の後の第3の時間における物体の予測位置を受信することであって、予測位置は環境内の参照線に関することと、を備えた方法。 Z: A method comprising: receiving sensor data representing an environment; determining that an object is in the environment; receiving a reference line associated with the object; determining a first attribute associated with the object, the first attribute being associated with a first time; determining a second attribute associated with the object, the second attribute being associated with a second time after the first time; inputting the first attribute, the second attribute, and the reference line into a machine learning model; and receiving from the machine learning model a predicted position of the object at a third time after the second time, the predicted position relative to the reference line in the environment.

AA:段落Zの方法であって、車両のセンサーを使用してセンサーデータを取り込むことと、第3の時間における環境内の物体の予測位置に少なくとも部分的に基づいて、車両を制御することと、をさらに備えた方法。 AA: The method of paragraph Z, further comprising: capturing sensor data using a sensor of the vehicle; and controlling the vehicle based at least in part on a predicted position of the object in the environment at a third time.

AB:段落AAの方法であって、物体は環境内の多数の物体の1つであり、物体と環境内の車両との距離に少なくとも部分的に基づいて、物体を対象物体として選択することをさらに備えた方法。 AB: The method of paragraph AA, wherein the object is one of a number of objects in the environment, and further comprising selecting the object as a target object based at least in part on a distance between the object and the vehicle in the environment.

AC:段落ZからABのいずれかの方法であって、物体が環境内の多数の物体の1つであり、物体は対象物体であり、対象物体に近接した多数の物体に少なくとも部分的に基づいて、多数の物体の数を選択することと、物体に関連付けられた属性を決定することと、予測位置を決定するために属性を機械学習モデルに入力することと、をさらに備えた方法。 AC: The method of any of paragraphs Z to AB, wherein the object is one of a number of objects in an environment, the object being a target object, further comprising: selecting a number of the number of objects based at least in part on a number of objects proximate to the target object; determining attributes associated with the object; and inputting the attributes into a machine learning model to determine a predicted location.

AD:段落ACの方法であって、物体に関連付けられた分類に少なくとも部分的に基づいて、物体を選択することをさらに備えた方法。 AD: The method of paragraph AC, further comprising selecting an object based at least in part on a classification associated with the object.

AE:段落ZからADのいずれかの方法であって、参照線は走行可能なエリアの中央線に対応し、予測位置は参照線に沿った距離、及び参照線からの横方向のオフセットを備えた方法。 AE: Any of the methods of paragraphs Z to AD, in which the reference line corresponds to a center line of the driveable area and the predicted position includes a distance along the reference line and a lateral offset from the reference line.

AF:段落ZからAEのいずれかの方法であって、第1の属性、及び第2の属性は、参照のフレーム関して表され、参照のフレームの座標は、第2の時間における物体の位置に少なくとも部分的に基づいている方法。 AF: Any of the methods of paragraphs Z to AE, wherein the first attribute and the second attribute are expressed with respect to a frame of reference, and the coordinates of the frame of reference are based at least in part on the position of the object at the second time.

AG:段落ZからAFのいずれかの方法であって、第1の属性が、第1の時間における物体の速度、第1の時間における物体の加速度、第1の時間における物体の位置、第1の時間における物体に関連付けられた境界ボックス、第1の時間における物体に関連付けられた照明の状態、第1の時間における物体とマップ要素との間の距離、物体の分類、物体に関連付けられた特徴の少なくとも1つを備えた方法。 AG: Any of the methods of paragraphs Z to AF, wherein the first attribute comprises at least one of: a velocity of the object at the first time, an acceleration of the object at the first time, a position of the object at the first time, a bounding box associated with the object at the first time, a lighting condition associated with the object at the first time, a distance between the object and a map element at the first time, a classification of the object, and a feature associated with the object.

AH:段落AGの方法であって、物体は第1の物体であり、距離は第1の距離であり、第2の物体が環境内の第1の物体に近接していることを決定することであって、第1の属性は、第1の時間における第1の物体と第2の物体との間の第2の距離をさらに備えた方法。 AH: The method of paragraph AG, wherein the object is a first object, the distance is a first distance, and determining that a second object is in proximity to the first object in the environment, the first attribute further comprising a second distance between the first object and the second object at a first time.

AI:実行されると、1つ又は複数のプロセッサに対して動作を実行させる命令を格納した非一時的コンピュータ可読媒体であって、動作は、環境を表すセンサーデータを受信することと、センサーデータに少なくとも部分的に基づいて、物体が環境内にあることを決定することと、物体に関連付けられた参照線を受信することと、物体に関連付けられた第1の属性を決定することで合って、第1の属性は第1の時間に関連付けられていることと、物体に関連付けられた第2の属性であって、第2の属性は第1の時間の後の第2の時間に関連付けられていることと、第1の属性、第2の属性、及び参照線を機械学習モデルに入力することと、機械学習モデルから、第2の時間の後の第3の時間における物体の予測位置を受信することであって、予測位置は環境内の参照線に関することと、を備えた非一時的コンピュータ可読媒体。 AI: A non-transitory computer-readable medium having stored thereon instructions that, when executed, cause one or more processors to perform operations including receiving sensor data representative of an environment; determining, based at least in part on the sensor data, that an object is in the environment; receiving a reference line associated with the object; determining a first attribute associated with the object, the first attribute being associated with a first time; a second attribute associated with the object, the second attribute being associated with a second time after the first time; inputting the first attribute, the second attribute, and the reference line into a machine learning model; and receiving from the machine learning model a predicted position of the object at a third time after the second time, the predicted position being relative to the reference line in the environment.

AJ:段落AIの非一時的コンピュータ可読媒体であって、物体は第1の物体であり、動作は、第2の物体が環境内の第1の物体に近接していることを決定することと、第2の物体に関連付けられた第3の属性を決定することであって、第3の属性は第1の時間に関連付けられていることと、第2の物体に関連付けられた第4の属性を決定することで合って、第4の属性は第2の時間に関連付けられていることと、第1の物体に関連付けられた予測位置を決定するために、第3の属性、及び第4の属性を機械学習モデルに入力することと、をさらに備えた非一時的コンピュータ可読媒体。 AJ: The non-transitory computer readable medium of paragraph AI, further comprising: determining that a second object is in proximity to the first object in the environment; determining a third attribute associated with the second object, the third attribute being associated with a first time; determining a fourth attribute associated with the second object, the fourth attribute being associated with a second time; and inputting the third attribute and the fourth attribute into a machine learning model to determine a predicted location associated with the first object.

AK:段落AI又はAJの非一時的コンピュータ可読媒体であって、第1の属性、及び第2の属性は参照のフレームに関して表され、参照のフレームの座標は、第2の時間における物体の位置に少なくとも部分的に基づいている非一時的コンピュータ可読媒体。 AK: The non-transitory computer-readable medium of paragraph AI or AJ, wherein the first attribute and the second attribute are expressed with respect to a frame of reference, and the coordinates of the frame of reference are based at least in part on the position of the object at the second time.

AL:段落AKの非一時的コンピュータ可読媒体であって、予測位置が、参照線に沿った距離、及び参照線からの横方向のオフセットとして表される非一時的コンピュータ可読媒体。 AL: A non-transitory computer-readable medium of paragraph AK, in which the predicted position is represented as a distance along a reference line and a lateral offset from the reference line.

AM:段落AIからALのいずれかの非一時的コンピュータ可読媒体であって、第1の属性が、第1の時間における物体の速度、第1の時間における物体の加速度、第1の時間における物体の位置、第1の時間における物体に関連付けられた境界ボックス、第1の時間における物体に関連付けられた照明の状態、第1の時間における物体とマップ要素との間の距離、物体の分類、又は物体に関連付けられた特徴の少なくとも1つを備えた非一時的コンピュータ可読媒体。 AM: The non-transitory computer readable medium of any of paragraphs AI to AL, wherein the first attribute comprises at least one of a velocity of the object at the first time, an acceleration of the object at the first time, a position of the object at the first time, a bounding box associated with the object at the first time, a lighting condition associated with the object at the first time, a distance between the object and a map element at the first time, a classification of the object, or a feature associated with the object.

AN:段落AMの非一時的コンピュータ可読媒体であって、物体は第1の物体であり、距離は第1の距離であり、第1の属性は、第1の時間における第1の物体と第2の物体との間の第2の距離さらに備える非一時的コンピュータ可読媒体。 AN: The non-transitory computer-readable medium of paragraph AM, wherein the object is a first object, the distance is a first distance, and the first attribute further comprises a second distance between the first object and a second object at a first time.

上述の例示項は、ある特定の実装に関して述べられるているが、本書のコンテキストでは、例示項の内容は、方法、装置、システム、コンピュータ可読媒体、及び/又は別の実装を介して実装されることもできることが理解されるべきである。 Although the above example terms are described with respect to certain implementations, it should be understood that in the context of this document, the subject matter of the example terms may also be implemented via methods, apparatus, systems, computer-readable media, and/or other implementations.

(結論)
本明細書で述べられる技術の1つ又は複数の例が説明されているが、その様々な変更、追加、交換、及び等価なものは、本明細書で述べられる技術の範囲内に含まれる。
(Conclusion)
One or more examples of the technology described herein have been described; however, various modifications, additions, permutations, and equivalents thereof fall within the scope of the technology described herein.

例の説明では、本明細書の一部を構成する添付の図面を参照し、請求された主題の具体的な例を例示している。他の例が使用されることは可能であり、また、構造的な変更などの変更または代替を行うことが可能であることを理解されたい。そのような例、変更または代替は、意図された請求項の主題に関する範囲から必ずしも逸脱するものではない。本明細書の手順は、一定の順序で提示することができるが、場合によっては、記載されたシステムおよび方法の機能を変更することなく、特定の入力が異なるタイミングまたは異なる順序で提供されるように、順序を変更することが可能である。また、開示された手順を異なる順序で実行することも可能である。さらに、本明細書で説明されている様々な計算は、開示されている順序で実行される必要はなく、計算の代替的な順序を使用する他の例も容易に実装されることができる。順序を変えることに加えて、計算は、同じ結果のサブ計算に分解することも可能である。 In the description of the examples, reference is made to the accompanying drawings, which form a part of this specification, illustrating specific examples of the claimed subject matter. It is understood that other examples may be used and that modifications or substitutions, such as structural changes, may be made. Such examples, modifications or substitutions do not necessarily depart from the intended scope of the claimed subject matter. Although the procedures herein may be presented in a certain order, in some cases the order may be changed such that certain inputs are provided at different times or in a different order without changing the functionality of the described systems and methods. It is also possible to perform the disclosed procedures in a different order. Furthermore, the various calculations described herein need not be performed in the order disclosed, and other examples using alternative orders of calculations may be readily implemented. In addition to changing the order, the calculations may also be decomposed into sub-calculations with the same results.

Claims (14)

方法であって、
環境を表すセンサーデータを受信することと、
前記センサーデータに少なくとも部分的に基づいて、物体が前記環境内にあることを決定することと、
前記環境内における横断歩道領域、又は走行不能領域の少なくとも一つを決定することと、
前記物体に関連付けられた第1の属性を決定することであって、前記第1の属性は第1の時間に関連付けられることと、
前記物体に関連付けられた第2の属性を決定することであって、前記第2の属性は、前記第1の時間の後の第2の時間に関連付けられることと、
前記第1の属性、前記第2の属性、及び、前記横断歩道領域又は前記走行不能領域を機械学習モデルに入力することであって、前記第1の属性及び前記第2の属性は、前記物体に関連付けられた予測目的地に少なくとも部分的によって定義された参照のフレームによって表現されることと、
前記機械学習モデルから、前記第2の時間の後の第3の時間における前記物体に関連付けられた予測位置を受信することと、
を備える方法。
1. A method comprising:
receiving sensor data representative of an environment;
determining, based at least in part on the sensor data, that an object is within the environment; and
determining at least one of a pedestrian crossing area or a non-driveable area within the environment;
determining a first attribute associated with the object, the first attribute being associated with a first time;
determining a second attribute associated with the object, the second attribute being associated with a second time after the first time; and
inputting the first attribute, the second attribute, and the crosswalk area or the non-driveable area into a machine learning model , the first attribute and the second attribute being represented by a frame of reference defined at least in part by a predicted destination associated with the object ;
receiving from the machine learning model a predicted position associated with the object at a third time after the second time; and
A method for providing the above.
車両上のセンサーを使用して前記センサーデータを取り込むことと、
前記第3の時間における前記物体に関連付けられた前記予測位置に少なくとも部分的に基づいて、前記車両を制御することと、
をさらに備えた、請求項1に記載の方法。
capturing said sensor data using sensors on a vehicle;
controlling the vehicle based at least in part on the predicted position associated with the object at the third time; and
The method of claim 1 further comprising:
記環境を表すマップデータ、又は前記センサーデータの少なくとも1に、少なくとも部分的に基づいて、前記横断歩道領域又は前記走行不能領域を決定することと、
前記横断歩道領域又は前記走行不能領域に関連付けられた閾値領域を決定することと
前記閾値領域内にある前記物体の位置を決定することと、
前記閾値領域内にある前記物体の前記位置と、前記第1の属性、又は前記第2の属性の少なくとも一つとに少なくとも部分的に基づいて、前記物体に関連付けられた目的地を予測することと、
をさらに備える、請求項1又は2に記載の方法。
determining the pedestrian crossing area or the non-traveling area based at least in part on at least one of map data representative of the environment or the sensor data;
determining a threshold area associated with the pedestrian crossing area or the non-travelable area ;
determining a location of the object within the threshold area;
predicting a destination associated with the object based at least in part on the location of the object within the threshold region and at least one of the first attribute or the second attribute;
The method of claim 1 or 2, further comprising:
前記参照のフレームを設立することであって、
前記第2の時間における前記物体の位置が、前記参照のフレームの座標に関連付けられ、
第1の軸が、前記座標、及び前記横断歩道領域又は前記走行不能領域に少なくとも部分的に基づいており、
第2の軸が、前記第1の軸に対して垂直であることをさらに備え、
前記第1の属性が、前記参照のフレームに少なくとも部分的に基づいている、請求項1から3のいずれか一項に記載の方法。
Establishing said frame of reference,
the position of the object at the second time is associated with coordinates in the frame of reference;
a first axis is based at least in part on the coordinate and the pedestrian crossing area or the non-travelable area ;
the second axis being perpendicular to the first axis;
The method of claim 1 , wherein the first attribute is based at least in part on the frame of reference.
前記第2の時間における前記物体の速度を決定することと、
前記速度を表す速度ベクトルと前記第1の軸との間の角度を決定することと、
をさらに備え、
前記第2の属性が前記角度を備える、請求項4に記載の方法。
determining a velocity of the object at the second time; and
determining an angle between a velocity vector representing the velocity and the first axis;
Further equipped with
The method of claim 4 , wherein the second attribute comprises the angle.
記第3の時間における前記物体に関連付けられた前記予測位置が、
前記第2の軸に対する横方向のオフセットと、
前記第2の時間における前記物体の位置と前記予測位置との間の差を表す前記第1の軸に沿った距離と、
を備える、請求項4に記載の方法。
The predicted location associated with the object at the third time is:
a lateral offset relative to the second axis; and
a distance along the first axis representing the difference between the position of the object at the second time and the predicted position;
The method of claim 4 comprising:
前記第1の属性、及び前記第2の属性は、所与の期間内に前記横断歩道領域又は前記走行不能領域を通過した前記物体の数を表す、請求項1から6のいずれか一項に記載の方法。 The method according to claim 1 , wherein the first attribute and the second attribute represent the number of objects passing through the pedestrian crossing area or the non-travelable area within a given period of time . 記センサーデータに少なくとも部分的に基づいて、の物体が前記環境内にあることを決定することと、
前記物体が前記他の物体に関連付けられているかどうかを示す物体コンテキストを決定することであって、前記物体コンテキストは、前記他の物体に関連付けられた位置、速度、又は、加速度の少なくとも一つを含むことと、
前記物体コンテキストに少なくとも部分的にさらに基づいて、前記第3の時間における前記物体に関連付けられた前記予測位置を決定することと、
をさらに備える、請求項1から7のいずれか一項に記載の方法。
determining, based at least in part on the sensor data, that other objects are within the environment; and
determining an object context indicative of whether the object is associated with the other object, the object context including at least one of a position, a velocity, or an acceleration associated with the other object ;
determining the predicted position associated with the object at the third time based at least in part further on the object context;
The method of claim 1 , further comprising:
ビン化された予測位置を決定するために、前記予測位置の少なくとも一部をビン化することをさらに備えた、請求項1から8のいずれか一項に記載の方法。 The method of any one of claims 1 to 8, further comprising binning at least a portion of the predicted positions to determine binned predicted positions. 前記第1の属性が、
前記第1の時間における前記物体の位置、
前記第1の時間における前記物体の速度、
前記第1の時間における前記物体の進路、
前記第1の時間における前記物体と前記横断歩道領域の第1の部分との間の第1の距離、
前記第1の時間における前記物体と前記横断歩道領域の第2の部分との間の第2の距離、
前記第1の時間における前記物体の加速度、
前記物体が走行可能なエリアに居るかどうかの指示、
領域を制御する指示器の状
は、物体の関連付け、
の少なくとも1つを備える、請求項1から9のいずれか一項に記載の方法。
The first attribute is
a position of the object at the first time;
the velocity of the object at the first time;
a path of the object at the first time;
a first distance between the object and a first portion of the pedestrian crossing area at the first time;
a second distance between the object and a second portion of the pedestrian crossing area at the first time;
the acceleration of the object at the first time;
an indication of whether the object is in a drivable area;
Status of indicators controlling the area
Or object association,
The method according to claim 1 , further comprising at least one of:
コンピュータ上で実行されると、請求項1乃至10のいずれか一項に記載の方法を実装する、コード化された命令を備えたコンピュータプログラム製品。 A computer program product comprising coded instructions which, when executed on a computer, implements the method of any one of claims 1 to 10. システムであって、
1つ又は複数のプロセッサと、
実行されると、前記システムに動作を実行させる命令を格納した、1つ又は複数の非一時的コンピュータ可読媒体であって、前記動作は、
環境を表すセンサーデータを受信することと、
前記センサーデータに少なくとも部分的に基づいて、物体が前記環境内にあることを決定することと、
前記環境における横断歩道領域、又は、走行不能領域の少なくとも1つを決定することと、
前記物体に関連付けられた第1の属性を決定することであって、前記第1の属性は第1の時間に関連付けられることと、
前記物体に関連付けられた第2の属性を決定することであって、前記第2の属性は前記第1の時間の後の第2の時間に関連付けられることと、
前記第1の属性、前記第2の属性、及び、前記横断歩道領域又は前記走行不能領域を機械学習モデルに入力することであって、前記第1の属性及び前記第2の属性は、前記物体に関連付けられた予測目的地に少なくとも部分的によって定義された参照のフレームによって表現されることと、
前記機械学習モデルから、前記第2の時間の後の第3の時間における前記物体に関連付けられた予測位置を受信することと、
を備えた、システム。
1. A system comprising:
one or more processors;
One or more non-transitory computer-readable media having instructions stored thereon that, when executed, cause the system to perform operations, including:
receiving sensor data representative of an environment;
determining, based at least in part on the sensor data, that an object is within the environment; and
determining at least one of a pedestrian crossing area or a non-driveable area in the environment;
determining a first attribute associated with the object, the first attribute being associated with a first time;
determining a second attribute associated with the object, the second attribute being associated with a second time after the first time; and
inputting the first attribute, the second attribute, and the crosswalk area or the non-driveable area into a machine learning model , the first attribute and the second attribute being represented by a frame of reference defined at least in part by a predicted destination associated with the object ;
receiving from the machine learning model a predicted position associated with the object at a third time after the second time; and
A system equipped with
記動作が、
前記環境を表すマップデータ、又は、前記環境を表す前記センサーデータの少なくとも1に、少なくとも部分的に基づいて、前記横断歩道領域又は前記走行不能領域を決定することと、
前記横断歩道領域又は前記走行不能領域に関連付けられた閾値領域を決定することと、
前記環境内の前記物体の位置を決定することと、
前記物体の前記位置が、前記閾値領域内にあることを決定することと、
前記閾値領域内にある前記位置と、前記第1の属性、又は、前記第2の属性の少なくとも一つとに少なくとも部分的に基づいて、前記物体に関連付けられた目的地として前記前記横断歩道領域又は前記走行不能領域決定することと、
をさらに備えた、請求項12に記載のシステム。
The operation ,
determining the pedestrian crossing area or the non-traveling area based at least in part on at least one of map data representative of the environment or the sensor data representative of the environment;
determining a threshold area associated with the pedestrian crossing area or the non-travelable area ;
determining a position of the object within the environment;
determining that the position of the object is within the threshold region;
determining the pedestrian crossing area or the non-travelable area as a destination associated with the object based at least in part on the location within the threshold area and at least one of the first attribute or the second attribute;
The system of claim 12 further comprising:
記動作が、
前記参照のフレームを設立することであって、
前記第2の時間における前記物体の位置が、前記参照のフレームの座標に関連付けられ、
第1の軸が、前記座標、及び前記横断歩道領域又は前記走行不能領域に少なくとも部分的に基づいており、
第2の軸が、前記第1の軸に対して垂直であることをさらに備え、
前記第1の属性が、前記参照のフレームに少なくとも部分的に基づいている、請求項12又は13に記載のシステム。
The operation ,
Establishing said frame of reference,
the position of the object at the second time is associated with coordinates in the frame of reference;
a first axis is based at least in part on the coordinate and the pedestrian crossing area or the non-travelable area ;
the second axis being perpendicular to the first axis;
14. The system of claim 12 or 13, wherein the first attribute is based at least in part on the frame of reference.
JP2021557327A 2019-03-25 2020-03-24 Attribute-based pedestrian prediction Active JP7593935B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US16/363,541 US11021148B2 (en) 2019-03-25 2019-03-25 Pedestrian prediction based on attributes
US16/363,627 US11351991B2 (en) 2019-03-25 2019-03-25 Prediction based on attributes
US16/363,627 2019-03-25
US16/363,541 2019-03-25
PCT/US2020/024386 WO2020198189A1 (en) 2019-03-25 2020-03-24 Pedestrian prediction based on attributes

Publications (2)

Publication Number Publication Date
JP2022527072A JP2022527072A (en) 2022-05-30
JP7593935B2 true JP7593935B2 (en) 2024-12-03

Family

ID=70289862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021557327A Active JP7593935B2 (en) 2019-03-25 2020-03-24 Attribute-based pedestrian prediction

Country Status (4)

Country Link
EP (1) EP3948656A1 (en)
JP (1) JP7593935B2 (en)
CN (1) CN113632096A (en)
WO (1) WO2020198189A1 (en)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US12307350B2 (en) 2018-01-04 2025-05-20 Tesla, Inc. Systems and methods for hardware-based pooling
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
EP4664422A2 (en) 2018-10-11 2025-12-17 Tesla, Inc. Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
CN112406905B (en) 2020-09-10 2022-01-28 腾讯科技(深圳)有限公司 Data processing method and device based on vehicle, computer and storage medium
US20220101155A1 (en) * 2020-09-25 2022-03-31 Motional Ad Llc Trajectory Generation Using Road Network Model
CN112785845B (en) * 2020-12-30 2022-11-01 桂林电子科技大学 A vehicle speed prediction method based on K-means clustering and RBF neural network
EP4131180B1 (en) * 2021-08-05 2025-10-01 Volkswagen Group of America Investments, LLC Methods and system for predicting trajectories of actors with respect to a drivable area
US12462575B2 (en) 2021-08-19 2025-11-04 Tesla, Inc. Vision-based machine learning model for autonomous driving with adjustable virtual camera
CN114743157B (en) * 2022-03-30 2023-03-03 中科融信科技有限公司 Pedestrian monitoring method, device, equipment and medium based on video
CN114802258B (en) * 2022-04-25 2025-10-24 北京小米移动软件有限公司 Vehicle control method, device, storage medium and vehicle
CN115171017A (en) * 2022-07-07 2022-10-11 上海商汤智能科技有限公司 Passenger retrograde motion detection method, device and computer storage medium
FR3140701A1 (en) * 2022-10-11 2024-04-12 Psa Automobiles Sa Driving methods and systems when approaching a pedestrian crossing
US12337878B2 (en) * 2022-11-30 2025-06-24 Zoox, Inc. Prediction model with variable time steps
US12428032B2 (en) 2022-11-30 2025-09-30 Zoox, Inc. Determining prediction times for a model
US12286104B2 (en) * 2023-01-31 2025-04-29 Zoox, Inc. Image synthesis for discrete track prediction
WO2024176651A1 (en) * 2023-02-24 2024-08-29 住友電気工業株式会社 Walking trajectory analysis device, movement trajectory analysis device, analysis method, and computer program
WO2025115813A1 (en) * 2023-11-28 2025-06-05 住友電気工業株式会社 Behavior prediction device and behavior prediction method
WO2025115814A1 (en) * 2023-11-28 2025-06-05 住友電気工業株式会社 Crossing prediction system, crossing prediction device, and crossing prediction method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018012360A (en) 2016-07-19 2018-01-25 トヨタ自動車株式会社 Travel supporting device
WO2019044499A1 (en) 2017-09-04 2019-03-07 日本電産株式会社 Mobile body, location estimation device, and computer program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018012360A (en) 2016-07-19 2018-01-25 トヨタ自動車株式会社 Travel supporting device
WO2019044499A1 (en) 2017-09-04 2019-03-07 日本電産株式会社 Mobile body, location estimation device, and computer program

Also Published As

Publication number Publication date
JP2022527072A (en) 2022-05-30
WO2020198189A1 (en) 2020-10-01
EP3948656A1 (en) 2022-02-09
CN113632096A (en) 2021-11-09

Similar Documents

Publication Publication Date Title
JP7593935B2 (en) Attribute-based pedestrian prediction
US11351991B2 (en) Prediction based on attributes
US11021148B2 (en) Pedestrian prediction based on attributes
US11734832B1 (en) Prediction on top-down scenes based on object motion
US11631200B2 (en) Prediction on top-down scenes based on action data
US12233901B2 (en) Graph neural networks with vectorized object representations in autonomous vehicle systems
JP7628948B2 (en) Trajectory prediction for top-down scenes
JP7566018B2 (en) Collision Zone Based Trajectory Corrections
JP7607641B2 (en) Modeling and predicting yielding behavior.
US11708093B2 (en) Trajectories with intent
JP7604402B2 (en) Depth refinement from images
JP7570332B2 (en) Occlusion prediction and trajectory estimation
US11554790B2 (en) Trajectory classification
JP2025530784A (en) Trajectory prediction based on decision trees
JP2024538541A (en) Optimization-Based Planning Systems
US12012108B1 (en) Prediction models in autonomous vehicles using modified map data
EP4146510A1 (en) Trajectory classification
US12060082B1 (en) Machine learned interaction prediction from top-down representation
JP2024526614A (en) Techniques for identifying curbs
US20250050912A1 (en) Crosswalk handling for vehicles
US11772643B1 (en) Object relevance determination

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241121

R150 Certificate of patent or registration of utility model

Ref document number: 7593935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150