JP7388970B2 - robot system - Google Patents
robot system Download PDFInfo
- Publication number
- JP7388970B2 JP7388970B2 JP2020068265A JP2020068265A JP7388970B2 JP 7388970 B2 JP7388970 B2 JP 7388970B2 JP 2020068265 A JP2020068265 A JP 2020068265A JP 2020068265 A JP2020068265 A JP 2020068265A JP 7388970 B2 JP7388970 B2 JP 7388970B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- group
- coordinates
- points
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005484 gravity Effects 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 5
- 238000010801 machine learning Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Description
本開示は、ロボットシステムに関するものである。 TECHNICAL FIELD This disclosure relates to a robot system.
オフラインによってロボットの教示を行った後、ロボットによる作業中にロボットに取り付けられたカメラにより画像を取得し、取得された画像に基づいてロボットの位置および姿勢を補正する技術が知られている(例えば、特許文献1参照。)。
オフラインにより理想的な環境下で教示されたロボットの位置は、実際の作業環境においては種々の要因により変動するので、画像データを用いて補正することにより、実際のワークに対してロボットを精度よく動作させることができる。
A known technique is to teach a robot off-line, then acquire images with a camera attached to the robot while the robot is working, and correct the position and orientation of the robot based on the acquired images (e.g. , see Patent Document 1).
The robot's position taught offline under an ideal environment varies in the actual work environment due to various factors, so by correcting it using image data, the robot can be accurately positioned in relation to the actual workpiece. It can be made to work.
しかしながら、例えば、ロボットの手先にカメラを取り付ける場合には、ワークに近い位置からの撮影となるため、ワークの部分的な領域の画像しか取得できない。このような状況において、画像データからワーク表面の特徴を抽出する場合には、撮影するワークの部位によっては、推定しようとするロボットの位置の誤差が大きくなり、適切な補正量が得られない場合がある。 However, for example, when a camera is attached to the hand of a robot, the camera is photographed from a position close to the workpiece, so that only a partial image of the workpiece can be obtained. In such a situation, when extracting the features of the workpiece surface from image data, depending on the part of the workpiece being photographed, the error in the estimated robot position may become large, and an appropriate amount of correction may not be obtained. There is.
したがって、センサの検出結果に基づいて推定されるロボットの位置の誤差が変動しても、ロボットの位置を適切に補正することができるロボットシステムが望まれている。 Therefore, there is a need for a robot system that can appropriately correct the position of the robot even if the error in the position of the robot estimated based on sensor detection results fluctuates.
本開示の一態様は、ロボットと、該ロボットのツール先端点の座標を算出するための情報を検出可能な複数種のセンサと、プロセッサとを備え、該プロセッサは、動作プログラムによる前記ツール先端点の動作軌跡上の第1点および第2点の近傍に複数の点からなる点群を生成し、該点群の各前記点が、前記第1点から前記第2点に向かう前記ツール先端点が到達可能な座標を有し、各前記センサにより検出された前記情報に基づいて前記点群の各前記点に、存在し得る確からしさを示す重みを設定し、前記点群をグループ分けして、前記確からしさが最も高いグループを抽出し、抽出された前記グループの重心位置を該グループに属する前記点の座標および重みから算出し、抽出された前記グループに属する前記点の内、算出された前記重心位置から最も遠い位置に配置されている前記点までの最大距離が所定の閾値以下である場合に、前記重心位置の座標を前記第2点の新たな座標として置き換えるロボットシステムである。 One aspect of the present disclosure includes a robot, a plurality of types of sensors capable of detecting information for calculating coordinates of a tool tip point of the robot, and a processor, and the processor controls the tool tip point according to an operation program. A point group consisting of a plurality of points is generated in the vicinity of a first point and a second point on a motion trajectory of has reachable coordinates, a weight indicating a probability of existence is set for each point of the point cloud based on the information detected by each of the sensors, and the point cloud is divided into groups. , extract the group with the highest probability, calculate the centroid position of the extracted group from the coordinates and weights of the points belonging to the group, and calculate the calculated point among the points belonging to the extracted group. The robot system replaces the coordinates of the center of gravity as new coordinates of the second point when the maximum distance from the center of gravity to the point located farthest from the center of gravity is less than or equal to a predetermined threshold.
本開示の一実施形態に係るロボットシステム1について、図面を参照して以下に説明する。
本実施形態に係るロボットシステム1は、図1に示されるように、6軸多関節型のロボット2と、ロボット2の手首に装着されたカメラ(センサ)3と、ロボット2を制御する制御装置(プロセッサ、メモリ)4とを備えている。
A robot system 1 according to an embodiment of the present disclosure will be described below with reference to the drawings.
As shown in FIG. 1, a robot system 1 according to the present embodiment includes a six-axis articulated robot 2, a camera (sensor) 3 attached to the wrist of the robot 2, and a control device that controls the robot 2. (processor, memory) 4.
ロボット2は、図示しないサーボモータによって駆動される6個の動作軸を有し、各動作軸の回転角度がサーボモータに設けられたエンコーダ(センサ)5によって検出される。
したがって、ロボット2のツール先端点TCPの位置は、エンコーダ5により検出される各動作軸の回転角度に基づいて算出することができるとともに、カメラ3によって取得された画像に基づいても算出することができる。
The robot 2 has six operating axes driven by servo motors (not shown), and the rotation angle of each operating axis is detected by an encoder (sensor) 5 provided on the servo motor.
Therefore, the position of the tool tip point TCP of the robot 2 can be calculated based on the rotation angle of each motion axis detected by the
画像に基づくツール先端点TCPの位置は、例えば、カメラ3によってワークを撮影し、取得された画像を処理して、公知の方法により特徴点を抽出することにより、ワークの位置に対するカメラ3の位置を算出し、算出されたカメラ3の位置から幾何学的に算出される。
The position of the tool tip point TCP based on the image can be determined, for example, by photographing the workpiece with the
制御装置4は、オフライン作業により教示された動作プログラムを読み込んで、動作プログラムに従ってロボット2の各軸を動作させるとともに、所定の時間間隔、例えば、0.1秒毎にツール先端点TCPの位置を推定して記憶する。これにより、次回の動作プログラムの実行時には、各時点において推定された位置をツール先端点TCPが通過するよう動作軌跡が補正される。
The
さらに具体的には、制御装置4は、メモリ内に、ロボット2のツール先端点TCPの座標に対応付けた第1テーブルを記憶している。第1テーブルには、ツール先端点TCPの動作軌跡上の速度ベクトルに点群を対応付けた第2テーブルが記憶されている。第1テーブルおよび第2テーブルは3次元テーブルである。
More specifically, the
点群は、ツール先端点TCPの動作軌跡上の第1点から所定時間後の第2点に向かう間において、ツール先端点TCPが到達し得る範囲にランダムに設定された複数の点を含んでいる。第2テーブルには各点の座標が記憶されている。 The point group includes a plurality of points randomly set in a range that the tool tip point TCP can reach while moving from the first point on the operation trajectory of the tool tip point TCP to the second point after a predetermined time. There is. The coordinates of each point are stored in the second table.
したがって、図3に示されるように、動作プログラムが実行されると、実行中の各時点において、点群が生成される(ステップS1)。点群の生成においては、図4に示されるように、動作プログラムにおけるツール先端点TCPの動作軌跡上に配置される現時点(第2点)の座標と、所定時間前の第1点の座標とが算出される(ステップS11)。 Therefore, as shown in FIG. 3, when the operating program is executed, a point cloud is generated at each point in time during the execution (step S1). In generating the point cloud, as shown in FIG. 4, the coordinates of the current point (second point) placed on the motion trajectory of the tool tip point TCP in the motion program and the coordinates of the first point a predetermined time ago are used. is calculated (step S11).
次いで、算出された第2点の座標に対応する第2テーブルが第1テーブル内から読み出される(ステップS12)。また、第1点から第2点に向かう速度ベクトルが算出され(ステップS13)、速度ベクトルに対応する点群が、読み出された第2テーブル内から読み出される(ステップS14)。これにより、点群が生成される。 Next, a second table corresponding to the calculated coordinates of the second point is read from the first table (step S12). Further, a velocity vector directed from the first point to the second point is calculated (step S13), and a point group corresponding to the velocity vector is read out from the read second table (step S14). This generates a point cloud.
次に、生成された点群の各点に対して重みが付与される(ステップS2)。
重み付与のステップS2は、図5に示されるように、まず、いずれかのセンサ3,5が選択される(ステップS21)。例えば、センサとしてエンコーダ5が選択された場合には、選択されたエンコーダ5により検出された各動作軸の回転角度からツール先端点TCPの座標を算出する(ステップS22)。
Next, a weight is given to each point of the generated point group (step S2).
In step S2 of weighting, as shown in FIG. 5, first, one of the
次いで、重みの付与されていない1点が選択され(ステップS23)、選択された点の座標とツール先端点TCPの座標との距離Lを算出する(ステップS24)。各点に付与される重みは、エンコーダ5により検出された各動作軸の回転角度から算出されるツール先端点TCPの座標と各点の座標との距離Lに反比例している。
Next, one point to which no weight is given is selected (step S23), and the distance L between the coordinates of the selected point and the coordinates of the tool tip point TCP is calculated (step S24). The weight given to each point is inversely proportional to the distance L between the coordinates of the tool tip point TCP and the coordinates of each point, which is calculated from the rotation angle of each motion axis detected by the
そこで、定数Aを距離Lにより除算することにより、重みWを算出する(ステップS25)。算出された重みWは各点の座標に対応付けて記憶される(ステップS26)。 Therefore, the weight W is calculated by dividing the constant A by the distance L (step S25). The calculated weight W is stored in association with the coordinates of each point (step S26).
算出されるツール先端点TCPの座標が大きな誤差を含んでいる場合には、誤差が小さい場合よりも小さな定数Aが与えられる。定数Aは、全てのセンサ3,5に同じ値を設定してもよいし、センサ3,5毎に誤差を測定する実験を行うことにより、予め個別に設定しておいてもい。また、定数Aは、機械学習により自動的に調整されてもよい。
When the calculated coordinates of the tool tip point TCP include a large error, a smaller constant A is given than when the error is small. The constant A may be set to the same value for all the
全ての点に重みWが付与されたか否かが判定され(ステップS27)、重みWが付与されていない点が存在する場合には、ステップS23からの工程が繰り返される。
全ての点に重みWが付与された場合には、全てのセンサ3,5について重みWが計算されたか否かを判定する(ステップS28)。
It is determined whether weights W have been assigned to all points (step S27), and if there are points to which no weights W have been assigned, the steps from step S23 are repeated.
If weights W have been assigned to all points, it is determined whether weights W have been calculated for all
重みWが計算されていない他のセンサ3,5が存在する場合には、他のセンサ3,5を選択し(ステップS29)、ステップS22からの工程を繰り返す。
他のセンサとしてカメラ3が選択された場合には、カメラ3により取得された画像からツール先端点TCPの座標が算出され(ステップS22)、全ての点に対して重みWが付与される(ステップS23からS27)。
If there are
When the
センサとして、カメラ3およびエンコーダ5の2つを備えている場合には、各センサ3,5に対して算出された2つの重みWが各点の重みとして生成される。
生成された2つの重みWは、両方とも各点の重みとして、各点の座標に対応付けて記憶される。
When two sensors, a
The two generated weights W are both stored as weights for each point in association with the coordinates of each point.
次に、重みWが付与された点がグループ分けされ、点群が絞り込まれる(ステップS3)。点のグループ分けは、図6に示されるように実施される。 Next, the points given weights W are divided into groups, and the point group is narrowed down (step S3). Grouping of points is performed as shown in FIG.
まず、グループ番号が付されていない任意の1点を選択し(ステップS31)、選択された点にグループ番号を付与する(ステップS32)。次いで、グループ番号が付与された点から所定距離Xの範囲内に、グループ番号が付与されていない他の点が存在するか否かを判定し(ステップS33)、範囲内に存在する全ての点に同じグループ番号を付与する(ステップS34)。 First, an arbitrary point not assigned a group number is selected (step S31), and a group number is assigned to the selected point (step S32). Next, it is determined whether or not there are other points to which no group number is assigned within a predetermined distance X from the point to which a group number is assigned (step S33), and all points existing within the range are determined. The same group number is assigned to (step S34).
そして、ステップS33からの工程を繰り返す。ステップS33において、グループ番号が付与された全ての点から所定距離X内にグループ番号が付与されていない他の点が存在しないと判定された場合には、グループ番号が付与されていない点が存在するか否かを判定する(ステップS35)。 Then, the steps from step S33 are repeated. In step S33, if it is determined that there are no other points to which group numbers are assigned within a predetermined distance X from all the points to which group numbers are assigned, there is a point to which no group numbers are assigned. It is determined whether or not to do so (step S35).
グループ番号が付与されていない点が存在する場合には、グループ番号を変更し(ステップS36)、ステップS31からの工程を繰り返す。全ての点にグループ番号が付与された場合には、各グループに属する点の全ての重みをグループ毎に合計する(ステップS37)。 If there is a point to which no group number has been assigned, the group number is changed (step S36), and the steps from step S31 are repeated. If all points have been assigned group numbers, the weights of all the points belonging to each group are summed for each group (step S37).
この場合に、点が複数の重みを有している場合には、全ての重みを合計する。そして、重みの合計が最大のグループの点群を残して、他の点を消去する(ステップS38)。これにより、点群が絞り込まれる。 In this case, if a point has multiple weights, all weights are summed. Then, leaving the point group with the largest total weight, the other points are deleted (step S38). This narrows down the point cloud.
次に、図1に示されるように、絞り込まれた点群の重心位置の座標を、各点の座標と重みとに基づいて算出する(ステップS4)。そして、算出された重心位置から最も遠い点までの距離(最大距離)を算出し(ステップS5)、算出された最大距離が所定の閾値以下であるか否かを判定する(ステップS6)。 Next, as shown in FIG. 1, the coordinates of the center of gravity of the narrowed down point group are calculated based on the coordinates and weights of each point (step S4). Then, the distance (maximum distance) from the calculated center of gravity position to the farthest point is calculated (step S5), and it is determined whether the calculated maximum distance is less than or equal to a predetermined threshold (step S6).
最大距離が所定の閾値よりも大きい場合には、全ての点を消去して、重心位置を中心とし、最大距離を半径とする球の内部にランダムに点群を生成する(ステップS7)。そして、ステップS2からの工程を繰り返す。
ステップS6において、算出された最大距離が所定の閾値以下である場合には、重心位置の座標を第2点の座標として記憶することにより座標を補正する(ステップS8)。
If the maximum distance is greater than a predetermined threshold, all points are deleted and a point group is randomly generated inside a sphere centered at the center of gravity and having the maximum distance as a radius (step S7). Then, the process from step S2 is repeated.
In step S6, if the calculated maximum distance is less than or equal to the predetermined threshold, the coordinates of the center of gravity are stored as the coordinates of the second point to correct the coordinates (step S8).
このようにして、オフラインにて教示された動作プログラムの実行により、理想的なツール先端点TCPの動作軌跡上に位置する通過点の座標が、複数のセンサ3,5により検出された情報に基づいて算出されるツール先端点TCPの座標に基づいて補正される。
In this way, by executing the operation program taught offline, the coordinates of the passing point located on the operation locus of the ideal tool tip point TCP are determined based on the information detected by the plurality of
本実施形態に係るロボットシステム1によれば、複数のセンサ3,5により検出された情報に基づいて算出される座標にもそれぞれ誤差が含まれているが、重みづけにより、それらの誤差をバランスよく勘案して適正な補正を行うことができるという利点がある。
According to the robot system 1 according to the present embodiment, the coordinates calculated based on the information detected by the plurality of
なお、本実施形態においては、ツール先端点TCPの座標を算出するための情報を検出可能なセンサとして、サーボモータに備えられたエンコーダ5およびカメラ3を例示したが、これに限定されるものではない。例えば、ロボット2が加速度センサを備えている場合には、検出された加速度を2回積分することにより、ツール先端点TCPの座標を算出することができる。
また、ワークの形状を検出するために1以上のレーザセンサを備えている場合には、各レーザセンサにより検出された、レーザセンサとワークとの距離情報に基づいてツール先端点TCPの座標を算出することができる。
In the present embodiment, the
In addition, if one or more laser sensors are provided to detect the shape of the workpiece, the coordinates of the tool tip point TCP are calculated based on the distance information between the laser sensor and the workpiece detected by each laser sensor. can do.
1 ロボットシステム
2 ロボット
3 カメラ(センサ)
4 制御装置(プロセッサ、メモリ)
5 エンコーダ(センサ)
X 所定距離
W 重み
TCP ツール先端点
1 Robot system 2
4 Control device (processor, memory)
5 Encoder (sensor)
X Predetermined distance W Weight TCP Tool tip point
Claims (6)
該ロボットのツール先端点の座標を算出するための情報を検出可能な複数種のセンサと、
プロセッサとを備え、
該プロセッサは、
動作プログラムによる前記ツール先端点の動作軌跡上の第1点および第2点の近傍に複数の点からなる点群を生成し、
該点群の各前記点が、前記第1点から前記第2点に向かう前記ツール先端点が到達可能な座標を有し、
各前記センサにより検出された前記情報に基づいて前記点群の各前記点に、存在し得る確からしさを示す重みを設定し、
前記点群をグループ分けして、前記確からしさが最も高いグループを抽出し、
抽出された前記グループの重心位置を該グループに属する前記点の座標および重みから算出し、
抽出された前記グループに属する前記点の内、算出された前記重心位置から最も遠い位置に配置されている前記点までの最大距離が所定の閾値以下である場合に、前記重心位置の座標を前記第2点の新たな座標として置き換えるロボットシステム。 robot and
multiple types of sensors capable of detecting information for calculating the coordinates of the tool tip point of the robot;
Equipped with a processor,
The processor is
generating a point group consisting of a plurality of points near a first point and a second point on the motion trajectory of the tool tip point according to the motion program;
each point of the point cloud has coordinates reachable by the tool tip point from the first point to the second point;
setting a weight indicating the probability that each point of the point cloud exists based on the information detected by each of the sensors;
dividing the point cloud into groups and extracting a group with the highest probability;
Calculating the centroid position of the extracted group from the coordinates and weights of the points belonging to the group,
Among the points belonging to the extracted group, if the maximum distance to the point located at the farthest position from the calculated center of gravity is less than or equal to a predetermined threshold, the coordinates of the center of gravity are The robot system replaces the new coordinates of the second point.
前記最大距離が前記閾値よりも大きい場合に、前記重心位置を中心とし前記最大距離を半径とする球の内部に点群を生成し、前記重みの設定からの工程を繰り返す請求項1に記載のロボットシステム。 The processor includes:
2. If the maximum distance is greater than the threshold, a point group is generated inside a sphere having the center of gravity as the center and the maximum distance as the radius, and the steps from setting the weight are repeated. robot system.
前記第1テーブルが、前記第1点から前記第2点に向かう速度ベクトルに対応付けて前記点群の座標を記憶する複数の第2テーブルを記憶し、
前記プロセッサが、
前記メモリに記憶されている前記第1テーブルから前記第2点の座標に対応する前記第2テーブルを読み出し、読み出された該第2テーブルから前記速度ベクトルに対応する前記点群の座標を読み出すことにより、前記点群を生成する請求項1に記載のロボットシステム。 comprising a memory that stores a first table that is stored in association with the coordinates of the second point;
the first table stores a plurality of second tables storing coordinates of the point group in association with velocity vectors heading from the first point to the second point;
The processor,
reading the second table corresponding to the coordinates of the second point from the first table stored in the memory, and reading the coordinates of the point group corresponding to the velocity vector from the read second table; The robot system according to claim 1, wherein the point cloud is generated by:
各前記センサにより検出された前記ツール先端点の座標毎に、該座標からの各前記点までの距離に反比例する値を各前記点の重みとして設定する請求項1から請求項3のいずれかに記載のロボットシステム。 The processor,
4. Any one of claims 1 to 3, wherein for each coordinate of the tool tip point detected by each of the sensors, a value inversely proportional to the distance from the coordinate to each of the points is set as a weight of each of the points. Robotic system described.
各前記センサ毎に、前記重みを機械学習により求める請求項4に記載のロボットシステム。 The processor,
The robot system according to claim 4, wherein the weight is determined for each sensor by machine learning.
前記点群の内の1つの任意の前記点を選択し、
選択された前記点にグループ番号を与え、
該グループ番号を与えた各前記点からの距離が所定距離以下である前記点に同一のグループ番号を与えることを、同一のグループ番号を与える前記点がなくなるまで繰り返し、
前記グループ番号が与えられていない前記点が存在する場合には、前記グループ番号が与えられていない他の1つの任意の前記点を選択し、
与えるグループ番号を変更し、
選択された前記点にグループ番号を与える工程から繰り返すことにより、前記点群をグループ分けする請求項1から請求項5のいずれかに記載のロボットシステム。
The processor,
selecting any one of the points in the point group;
give a group number to the selected point;
Repeating assigning the same group number to the points whose distance from each of the points assigned the group number is less than or equal to a predetermined distance until there are no more points assigned the same group number;
If there is a point to which the group number is not given, select another arbitrary point to which the group number is not given;
Change the group number given,
6. The robot system according to claim 1, wherein the point group is divided into groups by repeating the step of assigning a group number to the selected point.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020068265A JP7388970B2 (en) | 2020-04-06 | 2020-04-06 | robot system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020068265A JP7388970B2 (en) | 2020-04-06 | 2020-04-06 | robot system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021164964A JP2021164964A (en) | 2021-10-14 |
| JP7388970B2 true JP7388970B2 (en) | 2023-11-29 |
Family
ID=78021495
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020068265A Active JP7388970B2 (en) | 2020-04-06 | 2020-04-06 | robot system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7388970B2 (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006330988A (en) | 2005-05-25 | 2006-12-07 | Toshiba Corp | Data division apparatus, data division method and program |
| JP2013217893A (en) | 2012-03-13 | 2013-10-24 | Canon Inc | Model generation device, position posture estimation device, information processor, model generation method, position posture estimation method, information processing method |
| JP2014109466A (en) | 2012-11-30 | 2014-06-12 | Yokohama National Univ | Object moving device, method, program, and recording medium |
| JP2016109630A (en) | 2014-12-09 | 2016-06-20 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6703812B2 (en) * | 2015-08-05 | 2020-06-03 | Kyoto Robotics株式会社 | 3D object inspection device |
| JP6622765B2 (en) * | 2017-08-22 | 2019-12-18 | ファナック株式会社 | Robot system |
-
2020
- 2020-04-06 JP JP2020068265A patent/JP7388970B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006330988A (en) | 2005-05-25 | 2006-12-07 | Toshiba Corp | Data division apparatus, data division method and program |
| JP2013217893A (en) | 2012-03-13 | 2013-10-24 | Canon Inc | Model generation device, position posture estimation device, information processor, model generation method, position posture estimation method, information processing method |
| JP2014109466A (en) | 2012-11-30 | 2014-06-12 | Yokohama National Univ | Object moving device, method, program, and recording medium |
| JP2016109630A (en) | 2014-12-09 | 2016-06-20 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2021164964A (en) | 2021-10-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN109807882B (en) | Holding system, learning device and holding method | |
| JP6180087B2 (en) | Information processing apparatus and information processing method | |
| US9519736B2 (en) | Data generation device for vision sensor and detection simulation system | |
| JP6579498B2 (en) | Automation device and position detection device | |
| JP7191569B2 (en) | gripping device | |
| US10618164B2 (en) | Robot system having learning control function and learning control method | |
| US9990685B2 (en) | Automated guidance system and method for a coordinated movement machine | |
| TWI670153B (en) | Robot and robot system | |
| JP5365379B2 (en) | Robot system and robot system calibration method | |
| US20160279800A1 (en) | Robot, robot control device, and robotic system | |
| JP6317618B2 (en) | Information processing apparatus and method, measuring apparatus, and working apparatus | |
| KR20140008262A (en) | Robot system, robot, robot control device, robot control method, and robot control program | |
| CN114454180B (en) | Motion control method and device of mobile robot and mobile robot | |
| JP7502003B2 (en) | Apparatus and method for acquiring deviation of moving trajectory of moving machine | |
| JP2018027580A (en) | Robot control device | |
| JP7401682B2 (en) | robot system | |
| JP7388970B2 (en) | robot system | |
| CN112116664B (en) | Hand-eye calibration trajectory generation method, device, electronic device and storage medium | |
| JP2016182648A (en) | Robot, robot control device and robot system | |
| TWI898288B (en) | Control device, three-dimensional position measurement system, and program | |
| JP7660686B2 (en) | ROBOT CONTROL DEVICE, ROBOT CONTROL SYSTEM, AND ROBOT CONTROL METHOD | |
| JP7415013B2 (en) | Robotic device that detects interference between robot components | |
| CN118510633A (en) | Robot device provided with three-dimensional sensor and method for controlling robot device | |
| JP2022183723A (en) | Processing device, servo system, processing method, and program | |
| JP7583942B2 (en) | ROBOT CONTROL DEVICE, ROBOT CONTROL SYSTEM, AND ROBOT CONTROL METHOD |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230207 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231011 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231116 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7388970 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |