[go: up one dir, main page]

WO2025193054A2 - Panoramic radar, steering system, and platform steering method - Google Patents

Panoramic radar, steering system, and platform steering method

Info

Publication number
WO2025193054A2
WO2025193054A2 PCT/KR2025/099694 KR2025099694W WO2025193054A2 WO 2025193054 A2 WO2025193054 A2 WO 2025193054A2 KR 2025099694 W KR2025099694 W KR 2025099694W WO 2025193054 A2 WO2025193054 A2 WO 2025193054A2
Authority
WO
WIPO (PCT)
Prior art keywords
platform
obstacle
controller
distance
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/KR2025/099694
Other languages
French (fr)
Korean (ko)
Other versions
WO2025193054A3 (en
Inventor
니구엔티엔닷
이윤행
부이민탕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aidin Robotics Inc
Original Assignee
Aidin Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020240062735A external-priority patent/KR20250138607A/en
Application filed by Aidin Robotics Inc filed Critical Aidin Robotics Inc
Publication of WO2025193054A2 publication Critical patent/WO2025193054A2/en
Publication of WO2025193054A3 publication Critical patent/WO2025193054A3/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/536Discriminating between fixed and moving objects or between objects moving at different speeds using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/03Details of HF subsystems specially adapted therefor, e.g. common to transmitter and receiver

Definitions

  • the present disclosure relates to a panoramic radar, a steering system and a method for steering a platform.
  • Collaborative robots are robots capable of working in the same space and physically interacting with people.
  • Demand for collaborative robots has been explosively increasing recently, driven by the need for increased productivity.
  • collaborative robots operate in close proximity to people and surrounding objects, making it crucial to ensure the safety of those around them.
  • collaborative robots incorporate one or more sensors or radars.
  • conventional sensors have short detection ranges and limited coverage. Consequently, when a person or object approaches the collaborative robot at close range or from a blind spot, the collaborative robot cannot react quickly, potentially leading to collisions with the person or object.
  • conventional sensors have blind spots due to gaps in their detection range in the azimuth direction.
  • conventional sensors are positioned only on one side of a robot arm, resulting in their detection area being obscured by the robot arm, or gaps between the detection ranges of multiple sensors.
  • conventional sensors have narrow detection ranges (elevation angles) in the elevation direction, making it difficult to detect people or objects approaching directly above or below the robot arm.
  • platforms including autonomous vehicles, robots, factory automation equipment, drones, security and tracking systems, and collaborative robots need to detect obstacles such as objects or people in the surroundings and steer the platform in real time based on information about the detected obstacles.
  • the panoramic radar according to embodiments of the present disclosure can provide a panoramic radar that eliminates blind spots in the azimuth direction, expands the detection range in the elevation direction, and secures a sufficiently long detection distance, thereby enabling the rapid and easy detection of people or objects approaching at close range.
  • the steering system and the steering method of the platform can provide a steering system and a steering method of the platform capable of steering the platform along a desired trajectory while dynamically avoiding obstacles.
  • a panoramic radar includes a body mounted on an arm of a robot, a sensor controller accommodated in the body, a plurality of sensors each connected to the sensor controller, and a communication controller connected to the body and the sensor controller and communicating with an external device, wherein the sensor controller calculates a position and a velocity of an object in the vicinity based on signals transmitted and received by the plurality of sensors, and the plurality of sensors are arranged along the periphery of the body, and each detection area may overlap or the boundaries of each detection area may be in contact with each other.
  • the above plurality of sensors form a 90 degree angle with respect to each other along the perimeter of the body, and each detection area can cover an omnidirectional area in the azimuth direction.
  • the plurality of sensors include a transmitter and a plurality of receivers arranged around the transmitter in a first direction and a second direction perpendicular to the first direction, the plurality of receivers arranged in the first direction form a first sensor array for detecting an azimuth plane, the plurality of receivers arranged in the second direction form a second sensor array for detecting an elevation plane, the first sensor array and the second sensor array share at least one receiver, and the sensor controller can calculate an angle of a detected object in an azimuth direction based on a signal received by the first sensor array in an azimuth direction, and can calculate an angle of the object in an elevation direction based on a signal received by the second sensor array in an elevation direction.
  • the transmitter is located at the center of the sensor, and the first sensor array, the second sensor array, the third sensor array, and the fourth sensor array can be arranged symmetrically in the upper, lower, left, and right directions with the transmitter as the center.
  • the plurality of receivers form a third sensor array that is located on the opposite side of the first sensor array with respect to the transmitter and detects an azimuth plane, and a fourth sensor array that is located on the opposite side of the second sensor array with respect to the transmitter and detects an elevation plane, and the first sensor array and the second sensor array, the second sensor array and the third sensor array, the third sensor array and the fourth sensor array, and the fourth sensor array and the first sensor array each share one or more receivers, and the sensor controller can calculate an angle in the azimuth direction of a detected object based on signals received in the azimuth direction by the first sensor array and the third sensor array, and can calculate an angle in the elevation direction of the object based on signals received in the elevation direction by the second sensor array and the fourth sensor array.
  • At least one of the plurality of sensors may be arranged at a different position in the height direction of the body.
  • the transmitter may include a plurality of transmitters, the first sensor array may be adjacent to a first edge of the sensors below the plurality of transmitters, and the second sensor array may be adjacent to a second edge of the sensors next to the plurality of receivers and connected to the first edge.
  • the radar includes a plurality of connection PCBs, and the plurality of sensors are arranged on the outer surface of the body centered around the sensor controller and can be connected in parallel with the sensor controller through the plurality of connection PCBs.
  • the radar includes a plurality of connection PCBs, and the plurality of sensors are each connected in series with the sensor controller through the plurality of connection PCBs, and the plurality of sensors and the plurality of connection PCBs are connected in series to each other to form a belt shape, and the plurality of sensors and the plurality of connection PCBs can wrap around the outer circumference of the body.
  • the above panoramic radar further includes a plurality of interaction buttons, each of which is positioned between the plurality of sensors and each of which is connected to the sensor controller and the communication controller, and when at least one of the plurality of interaction buttons is touched or pressed, the sensor controller can transmit a control signal to the robot.
  • a method for steering a platform includes a step of collecting information about an obstacle by a radar mounted on the platform, a step of determining by the platform controller whether to steer the platform based on the collected information, and a step of steering by the platform controller, wherein the step of determining whether to steer the platform comprises not steering the platform if the obstacle is in a first area or outside the first area, and steering the platform if the obstacle is in a second area so that the obstacle does not enter a third area, and the step of steering the platform comprises calculating a yaw rate for steering the platform away from the obstacle by the platform controller, and steering the platform so as to correspond to the calculated yaw rate.
  • the first area, the second area, and the third area are as follows.
  • the step of steering the platform may include allowing the platform controller to calculate a yaw rate based on information about the obstacle, including a distance between the platform and the obstacle, an azimuth angle of the obstacle, and a relative velocity between the obstacle and the platform.
  • the step of steering the platform by the platform controller can calculate the yaw rate using Equation (1).
  • w z is the angular velocity vector (yaw rate)
  • r is the distance to the detected obstacle
  • r3 is the third distance
  • is the azimuth angle of the detected obstacle
  • r2 is the second distance
  • v is the current velocity vector of the platform
  • sign( ⁇ ) is the sign of ⁇ .
  • the step of the platform controller steering the platform can calculate the yaw rate using Equation (2).
  • v r is the relative velocity of the obstacle
  • ⁇ r is r k -r (k-1)
  • sign( ⁇ r) is the sign of ⁇ r.
  • a steering system includes a platform, a radar mounted on the platform that collects information about an obstacle, and a platform controller that operates the platform based on information about the obstacle received from the radar, wherein the platform controller determines whether to steer the platform based on the information about the obstacle collected by the radar, and steers the platform, and the platform controller does not steer the platform if the obstacle is in a first area or outside the first area, and steers the platform if the obstacle is in a second area so that the obstacle does not enter a third area, and the platform controller calculates a yaw rate for steering the platform away from the obstacle, and steers the platform so as to correspond to the calculated yaw rate.
  • the first area, the second area, and the third area are as follows. (i) a first area divided into the first distance, which is the maximum detection distance of the radar, and a second distance smaller than the first distance; (ii) a second area divided into the second distance and a third distance smaller than the second distance; (iii) a third area divided into the third distance;
  • the platform controller can calculate the yaw rate based on information about the obstacle, including the distance between the platform and the obstacle, the azimuth of the obstacle, and the relative velocity of the obstacle and the platform.
  • the above platform controller can calculate the rate using Equation (1).
  • w z is the angular velocity vector (yaw rate)
  • r is the distance to the detected obstacle
  • r3 is the third distance
  • is the azimuth angle of the detected obstacle
  • r2 is the second distance
  • v is the current velocity vector of the platform
  • sign( ⁇ ) is the sign of ⁇ .
  • the above platform controller can calculate the rate using Equation (2).
  • k is the speed gain
  • k is calculated by equation (3) below.
  • v r is the relative velocity of the obstacle
  • ⁇ r is r k -r (k-1)
  • sign( ⁇ r) is the sign of ⁇ r.
  • the platform controller performs a speed control operation to stop or slow down the platform when an obstacle is in the third area, and when determining whether to steer the platform, the platform controller may perform the speed control operation without steering the platform when it is determined that an obstacle is in the third area, or may perform the speed control operation when the obstacle is in the third area after steering the platform.
  • Panoramic radar according to embodiments of the present disclosure has multiple sensors arranged in the circumferential direction of the radar, and can detect surrounding objects and people in all directions.
  • Panoramic radar according to embodiments of the present disclosure is an FMCW radar using millimeter waves, and can detect the position, speed, etc. of surrounding objects or people.
  • Panoramic radar according to embodiments of the present disclosure can reduce blind spots by having detection areas of sensors overlap in the azimuth direction or at least have their boundaries touch each other, and can secure a wide detection range and a long detection distance.
  • Panoramic radar according to embodiments of the present disclosure can increase detection precision by having transmitters and receivers included in the sensors in various arrangements.
  • Panoramic radar according to embodiments of the present disclosure can be universally applied to various types of robots or manipulators.
  • the steering system and the steering method of the platform according to the embodiments of the present disclosure can avoid collision between the platform and the obstacle or reduce the impact of collision between the platform and the obstacle by collecting information about an obstacle and determining whether to steer the platform based on the collected information.
  • the steering system and the steering method of the platform according to the embodiments of the present disclosure can efficiently operate the platform by changing the movement method of the platform depending on the distance between the obstacle and the platform.
  • the steering system and the steering method of the platform according to the embodiments of the present disclosure can avoid collision between the platform and an obstacle by changing the yaw rate of the platform.
  • the steering system and the steering method of the platform according to embodiments of the present disclosure can reduce the impact of a collision between the platform and the obstacle by decelerating or stopping the platform when the obstacle enters within a predetermined distance.
  • FIG. 1 illustrates a robot including a panoramic radar according to embodiments of the present disclosure.
  • FIG. 2 illustrates a perspective view of a panoramic radar according to embodiments of the present disclosure.
  • FIG. 3 shows an exploded perspective view of a panoramic radar according to embodiments of the present disclosure.
  • FIG. 4 schematically illustrates a plan view of a panoramic radar according to embodiments of the present disclosure.
  • FIG. 5 schematically illustrates a side view of a panoramic radar according to embodiments of the present disclosure.
  • Figure 6 illustrates an arrangement of sensors according to embodiments of the present disclosure.
  • FIG. 7 illustrates the operation of the first sensor array and the second sensor array according to embodiments of the present disclosure.
  • FIG. 8 illustrates the operation of a panoramic radar according to embodiments of the present disclosure.
  • FIGS. 9 and 10 illustrate arrangements of sensor controllers and sensors according to embodiments of the present disclosure.
  • FIGS 12 to 18 illustrate other types of sensor arrays according to embodiments of the present disclosure.
  • FIG. 19 illustrates a radar and a platform and a plurality of zones defined around the radar and the platform according to embodiments of the present disclosure.
  • FIG. 20, FIG. 21 and FIG. 22 illustrate control operations of a platform controller according to the location of an obstacle according to embodiments of the present disclosure.
  • Figure 23 shows the overall control steps of the steering system according to embodiments of the present disclosure.
  • Figure 24 illustrates a speed control step of a steering system according to embodiments of the present disclosure.
  • FIG. 25 illustrates an embodiment of control of a steering system according to embodiments of the present disclosure.
  • a panoramic radar includes a body mounted on an arm of a robot, a sensor controller accommodated in the body, a plurality of sensors each connected to the sensor controller, and a communication controller connected to the body and the sensor controller and communicating with an external device, wherein the sensor controller calculates a position and a velocity of an object in the vicinity based on signals transmitted and received by the plurality of sensors, and the plurality of sensors are arranged along the periphery of the body, and each detection area may overlap or the boundaries of each detection area may be in contact with each other.
  • a method for steering a platform includes a step of collecting information about an obstacle by a radar mounted on the platform, a step of determining by the platform controller whether to steer the platform based on the collected information, and a step of steering by the platform controller, wherein the step of determining whether to steer the platform comprises not steering the platform if the obstacle is in a first area or outside the first area, and steering the platform if the obstacle is in a second area so that the obstacle does not enter a third area, and the step of steering the platform comprises calculating a yaw rate for steering the platform away from the obstacle by the platform controller, and steering the platform so as to correspond to the calculated yaw rate.
  • the first area, the second area, and the third area are as follows.
  • a steering system includes a platform, a radar mounted on the platform that collects information about an obstacle, and a platform controller that operates the platform based on information about the obstacle received from the radar, wherein the platform controller determines whether to steer the platform based on the information about the obstacle collected by the radar, and steers the platform, and the platform controller does not steer the platform if the obstacle is in a first area or outside the first area, and steers the platform if the obstacle is in a second area so that the obstacle does not enter a third area, and the platform controller calculates a yaw rate for steering the platform away from the obstacle, and steers the platform so as to correspond to the calculated yaw rate.
  • the first area, the second area, and the third area are as follows. (i) a first area divided into the first distance, which is the maximum detection distance of the radar, and a second distance smaller than the first distance; (ii) a second area divided into the second distance and a third distance smaller than the second distance; (iii) a third area divided into the third distance;
  • spatially relative terms such as “below,” “above,” “lower,” “top,” and the like may be used to describe the relationship of one element or feature to another, as illustrated in the drawings. Spatially relative terms are intended to encompass various orientations of the device in use or operation in addition to the orientations depicted in the drawings. For example, if the device in the drawings were flipped over, another element or feature described as “below” or “lower” would face “above” the other element or feature. Thus, as exemplary terms, “below” and “lower” can encompass both above and below orientations. The device can be oriented in other orientations (e.g., rotated 90 degrees or in other directions), and the spatially relative descriptions used herein should be interpreted accordingly. Similarly, if it is described that a first part is disposed “above” a second part, this means that the first part is disposed above or below the second part.
  • the expression “in plan view” means when an object is viewed from above
  • the expression “in schematic cross-section” means when a schematic cross-section is taken by cutting the object vertically or horizontally.
  • the term “in side view” means that the first object can be above, below, or to the side of the second object, and vice versa.
  • the term “overlapping” or “superimposing” can include layer, laminate, plane, extension, covering, or partially covering, or any other suitable term that a person of ordinary skill in the art would understand and understand.
  • the expression “does not overlap” can include meanings such as “away from” or “spaced from”, and any other suitable equivalents that a person of ordinary skill in the art would recognize and understand.
  • the terms “plane” and “surface” can mean that the first object can directly or indirectly face the second object. When a third object is between a first object and a second object, the first object and the second object can be understood as facing each other but indirectly opposing each other.
  • an element, layer, region, or component (hereinafter also referred to as an "element, etc.") is referred to as being “formed with,” “connected with,” or “coupled to,” another element, etc., this includes that it can be directly formed with, formed with, or indirectly formed with, connected to, or coupled to another element, etc. Furthermore, “formed with,” “connected with,” or “coupled” can collectively refer to direct or indirect combinations or connections, or integral or non-integral combinations or connections, of the elements, etc., such that one or more elements, etc. can be present. For example, when an element, etc.
  • expressions such as "at least one or more” or “any one” do not limit the order of the individual elements.
  • expressions such as “at least one of X, Y, and Z,” “at least one of X, Y, or Z,” or “at least one selected from the group consisting of X, Y, and Z” can include X alone, Y alone, Z alone, or any combination of two or more of X, Y, and Z.
  • expressions such as “at least one of A and B” and “at least one of A or B” can include A, B, or A and B.
  • the term “and/or” generally includes any combination of one or more associated list items.
  • expressions such as “A and/or B” can include A, B, or A and B.
  • first,” “second,” “third,” etc. may be used herein to describe various elements, etc., such elements, etc. are not limited by such terms. These terms are used to distinguish one element, etc. from other elements, etc. Accordingly, a first element, etc. described below may be referred to as a second element, etc., without departing from the spirit and scope of the present invention. Describing an element as a “first” element may not require or imply the presence of a second element or other elements. Terms such as “first,” “second,” etc. may also be used herein to distinguish different categories or sets of elements, etc. For clarity, terms such as “first,” “second,” etc. may represent "a first category (or first set),” "a second category (or second set),” etc., respectively.
  • FIG. 1 shows a steering system (1) including a panoramic radar (10)
  • FIG. 2 shows a perspective view of the panoramic radar (10)
  • FIG. 3 shows an exploded perspective view of the panoramic radar (10)
  • FIG. 4 shows a schematic plan view of the panoramic radar (10)
  • FIG. 5 shows a schematic side view of the panoramic radar (10)
  • FIG. 6 shows an arrangement of a sensor (300)
  • FIG. 7 shows the operation of a first sensor array (301) and a second sensor array (302)
  • FIG. 8 shows the operation of the panoramic radar (10)
  • FIGS. 9 and 10 show an arrangement of a sensor controller (200) and a sensor (300)
  • FIG. 11 shows a state in which a sensor controller (200) and a sensor (300) according to FIG. 10 are mounted on a body (100).
  • a panoramic radar (10, hereinafter also referred to as 'radar (10)') is included in the steering system (1) and can detect the environment around the steering system (1).
  • the radar (10) may be mounted on a platform (30) of the steering system (1).
  • the platform (30) is a collaborative robot capable of multi-axis (e.g., 6-axis) translational/rotatory movement and may be equipped with an EOAT (End Of Arm Tool, (40)) at the distal end.
  • EOAT End Of Arm Tool, (40)
  • the radar (10) may be at another joint part of the platform (30).
  • the platform (30) may include various mobility such as manned/unmanned vehicles, AGVs, ships, and aircraft.
  • the steering system (1) may include a radar (10), a platform controller (20), a platform (30), and an EOAT (40).
  • the radar (10) is included in the steering system (1) and can detect people or objects around the steering system (1).
  • the radar (10) is mounted on the platform (30) and detects people or objects around the platform (30) when the platform (30) rotates or moves, and transmits the detected information to the platform controller (20), thereby preventing collisions or interference.
  • the radar (10) may be an FMCW radar.
  • the frequency of the radar (10) may be 0.1 kHz to 1,000 kHz.
  • the frequency of the radar (10) may be 1 kHz.
  • the radar (10) can collect information about the distance between an obstacle and the radar (10), the speed of the obstacle, the position (angle) of the obstacle, and transmit the collected information to the platform controller (20).
  • the radar (10) can detect people or objects in the surroundings in the azimuth direction and the elevation direction.
  • the azimuth direction refers to a plane direction perpendicular to the central axis of the radar (10) in the height direction
  • the elevation direction may refer to the height direction of the radar (10).
  • the radar (10) can detect people or objects in all directions in the azimuth direction.
  • the radar (10) can have a detection area of 360 degrees in the azimuth direction. Therefore, the radar (10) can detect people or objects in the surroundings without any blind spots in the azimuth direction.
  • the radar (10) can have a flat cylindrical shape. Therefore, it can be easily mounted on platforms (30) of various types and sizes.
  • the radar (10) can collect information about obstacles around the platform (30).
  • the radar (10) can collect information about the angle of the obstacle in the azimuth direction and/or the angle of the obstacle in the elevation direction.
  • the radar (10) can detect obstacles on its own and calculate and/or collect information about the detected obstacles.
  • the radar (10) can detect obstacles and transmit signals to the platform controller (20), and the platform controller (20) can calculate information about the obstacle based on the received signals.
  • the platform controller (20) can adjust the direction (steering) or control the speed of the platform (30) by considering the distance to the obstacle, the angle (position) of the obstacle, and the relative speed of the obstacle.
  • the radar (10) includes a body (100) mounted on a platform (30) of a steering system (1), a sensor controller (200) accommodated in the body (100), a plurality of sensors (300) each connected to the sensor controller (200), and a communication controller (400) connected to the body (100) and the sensor controller (200) and communicating with an external device, and the sensor controller (200) calculates the position (or angle) and speed of an object in the vicinity based on signals transmitted and received by the plurality of sensors (300), and the plurality of sensors (300) are arranged along the periphery of the body (100), and each detection area (SA) may overlap or the boundaries of each detection area (SA) may be in contact with each other.
  • the radar (10) may include a body (100), a sensor controller (200), a sensor (300), a communication controller (400), a connector (500), and a cover (600).
  • the body (100) may hold or support other components of the radar (10) (e.g., a sensor controller (200), a sensor (300), a communication controller (400), a connector (500), and a cover (600)).
  • the body (100) may have a flat cylindrical shape.
  • a sensor controller (200) and a communication controller (400) are accommodated inside the body (100), and a plurality of sensors (300) may be mounted on the outer surface of the body (100).
  • a connector (500) and a cover (600) may be mounted on the body (100).
  • the shape of the body (100) may vary depending on the shape and size of the platform (30) or the EOAT (40), and may have, for example, a polyhedral shape such as a rectangular parallelepiped.
  • the body (100) may include an internal space (110), a rib (120), a first body boss (130), a second body boss (140), and a mounting groove (150).
  • the internal space (110) is a space surrounded by the outer wall of the body (100) and partitioned on the inside thereof, and can accommodate a sensor controller (200), a communication controller (400), and wiring connecting the sensor controller (200) and the communication controller (400).
  • the internal space (110) is partitioned by the inner surface and the bottom surface of the body (100), and a rib (120), a first body boss (130), and a second body boss (140) can be located in the internal space (110).
  • the rib (120) is located at the center of the body (100) and can support the communication controller (400).
  • the rib (120) may protrude upward from the bottom surface of the body (100) and have a circular shape.
  • the first body boss (130) can be connected to the communication controller (400).
  • the first body boss (130) includes a plurality of first body bosses (130) and can be located in an area partitioned by a rib (120).
  • the plurality of first body bosses (130) protrude upward from the bottom surface of the body (100) and can be inserted into a plurality of second substrate holes (420) of the communication controller (400), respectively. Accordingly, the position of the communication controller (400) can be determined and the communication controller (400) can be supported by the first body boss (130). Screw threads are formed on the inside of the first body boss (130), so that the first body boss (130) and the second substrate hole (420) can be screw-coupled.
  • the second body boss (140) may be connected to the sensor controller (200).
  • the second body boss (140) may include a plurality of second body bosses (140) and may be located between the rib (120) and the outer wall of the body (100).
  • the plurality of second body bosses (140) may protrude upward from the bottom surface of the body (100) and may be inserted into a plurality of first substrate holes (220) of the sensor controller (200), respectively.
  • the second body boss (140) may pass through the first substrate hole (220) and then come into contact with the lower surface of the cover (600) corresponding to the cover hole (620) of the cover (600).
  • the position of the sensor controller (200) may be determined and the sensor controller (200) may be supported by the second body boss (140).
  • a screw thread is formed on the inner side of the second body boss (140), so that the second body boss (140), the first substrate hole (220), and the cover hole (620) can be screw-connected.
  • the second body boss (140) can have a higher height than the rib (120) and the first body boss (130). Accordingly, the communication controller (400) and the sensor controller (200) can be stacked while being spaced apart in the height direction of the radar (10) without interfering with each other.
  • a plurality of mounting grooves (150) may be formed on the outer wall of the body (100).
  • the plurality of mounting grooves (150) are formed along the upper surface of the outer wall of the body (100) and may each accommodate a plurality of cover protrusions (610) of the cover (600).
  • the plurality of mounting grooves (150) may be located further outward in the radial direction of the radar (10) than the plurality of first body bosses (130) and the plurality of second body bosses (140).
  • the mounting grooves (150) may include a third fastening hole (151).
  • the third fastening hole (151) is formed in each mounting groove (150) and may be screw-coupled with the protrusion hole (611) of the cover protrusion (610).
  • the sensor controller (200) is connected to the sensor (300) and can calculate the position (or angle), speed, distance, etc. of an object or person around the radar (10) based on the signal detected by the sensor (300).
  • the sensor controller (200) is accommodated and supported in the internal space (110) of the body (100) and can receive the signal detected by the sensor (300).
  • the sensor controller (200) is connected to the communication controller (400) and can communicate with an external device such as a platform controller (20) through the communication controller (400). For example, the sensor controller (200) calculates the position and distance, etc.
  • the communication controller (400) can transmit the received calculated value to the platform controller (20).
  • the platform controller (20) can transmit a control signal to the sensor controller (200) through the communication controller (400).
  • the sensor controller (200) may include a first substrate (210) and a first substrate hole (220).
  • the first substrate (210) is a substrate including various electronic components and circuit patterns, and may be, for example, a printed circuit board.
  • the first substrate (210) is shown as a circle, but the first substrate (210) may have various shapes depending on the shape and size of the body (100) or the radar (10).
  • the first substrate (210) may include a second fastening hole (211).
  • the second fastening hole (211) includes a plurality of second fastening holes (211), and the plurality of second fastening holes (211) may be formed radially inward of the first substrate hole (220).
  • a plurality of second fastening holes (211) correspond to the first body boss (130) and the second substrate hole (420), and a fastening member such as a bolt can be inserted into the second fastening hole (211) and fastened to the first body boss (130) through the second substrate hole (420).
  • the first substrate hole (220) is formed in the first substrate (210) and may be a portion that is fastened to the body (100) and the cover (600).
  • a second body boss (140) may be inserted into the first substrate hole (220), and a fastening member such as a screw inserted through the cover hole (620) may be inserted and fastened to the first substrate hole (220).
  • the sensor controller (200) may be positioned and supported on the body (100).
  • the first substrate hole (220) may include a plurality of first substrate holes (220).
  • a plurality (for example, four) of first substrate holes (220) may be formed along the edge of the first substrate (210).
  • the sensor (300) can detect the position (or angle), speed, or distance of an object or person around the radar (10).
  • the sensor (300) is mounted on the steering system (1) such as the platform (30) or the EOAT (40), and can detect the object or person by radiating a signal (electromagnetic wave) to the surroundings and receiving a signal reflected from the object or person.
  • the sensor (300) is mounted on the body (100) (e.g., the outer surface of the body (100)) and is connected to the sensor controller (200) by wire or wirelessly, and information about the signal radiated and received by the sensor (300) can be transmitted to the sensor controller (200).
  • the sensor controller (200) can calculate the position (or angle), speed, or distance of the object or person based on the signal radiated and received by the sensor (300).
  • the sensor (300) can use millimeter waves as an FMCW sensor.
  • the configuration of the FMCW sensor may include a conventionally known technology.
  • the sensor (300) can detect surrounding objects or people in the azimuth direction and/or the elevation direction.
  • the sensor (300) can have a detection angle of ⁇ 1 in the azimuth direction.
  • ⁇ 1 can be a predetermined value or can be adjusted in real time by the sensor controller (200).
  • ⁇ 1 can be 10 degrees or more and 150 degrees or less.
  • ⁇ 1 can be 20 degrees or more and 120 degrees or less.
  • the sensor (300) can have a detection angle of ⁇ 2 in the elevation direction.
  • ⁇ 2 can be a predetermined value or can be adjusted in real time by the sensor controller (200).
  • ⁇ 2 can be 10 degrees or more and 150 degrees or less.
  • ⁇ 2 can be 20 degrees or more and 120 degrees or less.
  • the sensor (300) may include a plurality of sensors (300).
  • the sensor (300) may include four sensors (300), as shown in FIGS. 3 and 4.
  • the plurality of sensors (300) may each be mounted on the outer surface of the body (100).
  • the plurality of sensors (300) may be arranged at equal or different intervals relative to the center of the body (100).
  • the four sensors (300) may be arranged at a 90-degree angle to each other.
  • the plurality of sensors (300) can be individually controlled.
  • the detection angles ⁇ 1 and ⁇ 2 of the plurality of sensors (300) can be controlled to be the same or different angles by the sensor controller (200).
  • the time, period, and frequency of the signal emitted by each sensor can all be individually controlled.
  • a plurality of sensors (300) can form a detection area (SA).
  • SA detection area
  • the plurality of sensors (300) can form detection areas (SA) in the azimuth and elevation directions, respectively. Accordingly, the detection areas (SA) formed by the plurality of sensors (300) can have the same or different ranges.
  • the detection areas (SA) formed by the plurality of sensors (300) may overlap at least partially or their boundaries may touch each other.
  • the detection areas (SA) formed by the plurality of sensors (300) in the azimuth direction may have boundaries touching each other. Therefore, the radar (10) can detect surrounding objects or people from all directions in the planar direction or the azimuth direction.
  • the radar (10) can secure a detection area (SA) of 360 degrees in the planar direction or the azimuth direction.
  • the sensor (300) may include a transmitter (310) and a receiver (320).
  • the transmitter (310) may radiate a signal (electromagnetic wave) to the surroundings, and the receiver (320) may receive a signal reflected from an object or a person.
  • the transmitter (310) and the receiver (320) may constitute a Doppler sensor.
  • An unmodulated continuous wave (CW) oscillated from an oscillator of the transmitter (310) is reflected by an object or a person, and the receiver (320) receives the reflected signal and can detect the position (or angle), speed, etc. of the object or person based on the phase difference.
  • CW continuous wave
  • the receiver (320) can receive this and provide information on the speed and direction of the object based on the frequency difference.
  • the sensor (300) (or the sensor controller (200) that receives information from the sensor (300)) can calculate the angle of the object in the azimuth direction based on the phase difference and time delay between signals received by the receivers (320) arranged in the azimuth direction, and can calculate the angle of the object in the elevation direction based on the phase difference and time delay between signals received by the receivers (320) arranged in the elevation direction.
  • a transmitter (310) may include one or more transmitters (310).
  • a transmitter (310) included in one sensor (300) may include one transmitter (310).
  • the receiver (320) may include one or more receivers (320).
  • the receiver (320) may include a first receiver (321), a second receiver (322), and a third receiver (323).
  • a plurality of receivers (320) may be arranged around one transmitter (310). For example, as shown in FIG.
  • the transmitter (310) may be at a corner of the sensor (300) (e.g., an upper right corner), the first receiver (321) may be arranged below the transmitter (310) (e.g., an upper right corner of the sensor (300)), the second receiver (322) may be arranged diagonally below the transmitter (310) (e.g., a lower left corner of the sensor (300)), and the third receiver (323) may be arranged to the left of the transmitter (310) (e.g., an upper left corner of the sensor (300)).
  • the signal reflected by an object or person after being emitted from the receiver (320) can be received by the first receiver (321), the second receiver (322), and the third receiver (323), respectively.
  • the sensor (300) may include a plurality of sensor arrays.
  • the sensor (300) may include a first sensor array (301) and a second sensor array (302).
  • the first sensor array (301) and the second sensor array (302) may detect the position (or angle) and speed of an object or person in different directions.
  • the first sensor array (301) may detect an object or person in an azimuth direction (azimuth plane)
  • the second sensor array (302) may detect an object or person in an altitude direction (altitude plane).
  • the first sensor array (301) and the second sensor array (302) may include a plurality of receivers (320).
  • the first sensor array (301) and the second sensor array (302) may each include a plurality of receivers (320) arranged side by side in a first direction (e.g., a left-right direction or an azimuth direction of FIG. 6).
  • the second sensor array (302) may include two receivers (320) (e.g., a second receiver (322) and a third receiver (323)) arranged side by side in a second direction (e.g., a vertical direction or an elevation direction of FIG. 6). Therefore, as shown in FIG.
  • the signals Sr1 and Sr2 reflected from an object are received by the first receiver (321) and the second receiver (322) included in the first sensor array (301), so that the sensor (300) can detect an obstacle (O) on a plane (PA) in the azimuth direction based on the phase difference of each signal.
  • the signals Sr2 and Sr3 reflected from an object are received by the second receiver (322) and the third receiver (323) included in the second sensor array (302), so that the sensor (300) can detect an obstacle (O) on a plane (PA) in the elevation direction based on the phase difference of each signal. Therefore, as shown in FIG.
  • the sensor (300) can detect the position of the obstacle (O). In addition, the sensor (300) can detect the speed and angle of the obstacle (O) based on the time between the emitted signal and the received signal (the difference in time at which the receivers (320) receive the signal) and the frequency modulated while reflected.
  • the first sensor array (301) and the second sensor array (302) can share at least one receiver (320) (e.g., the second receiver (322)).
  • the communication controller (400) may be accommodated in the internal space (110) of the body (100) and supported by the body (100).
  • the communication controller (400) may be located below the sensor controller (200) and supported by the rib (120), the first body boss (130), and the second body boss (140).
  • the communication controller (400) may be connected to external devices such as the sensor controller (200) and the platform controller (20) via wires or wirelessly.
  • the communication controller (400) may receive a control signal from the platform controller (20) and transmit it to the sensor controller (200), and may receive an object detection signal from the sensor controller (200) and transmit it to the platform controller (20).
  • the communication controller (400) may connect the sensor controller (200) and the sensor (300) so that they can communicate with each other.
  • the communication controller (400) may include a second substrate (410) and a second substrate hole (420).
  • the second substrate (410) is a substrate including various electronic components and circuit patterns, and may be, for example, a printed circuit board.
  • the second substrate (410) is depicted as a circle, but the second substrate (410) may have various shapes depending on the shape and size of the body (100) or radar (10).
  • the second substrate hole (420) may be formed in the second substrate (410) and may be a portion that is fastened to the body (100).
  • the second substrate hole (420) may correspond to the first body boss (130) and the second fastening hole (211).
  • the communication controller (400) may be fixed to the body (100).
  • a fastening member such as a bolt inserted through the second fastening hole (211) may be inserted into the first body boss (130) through the second substrate hole (420), thereby fixing the sensor controller (200) to the body (100).
  • the second substrate hole (420) may include a plurality of second substrate holes (420).
  • a plurality of second substrate holes (420) e.g., four) can be formed along the edge of the second substrate (410).
  • the connector (500) can connect the radar (10) to an external device such as a platform controller (20).
  • a platform controller (20) For example, as shown in FIG. 3, the connector (500) can be mounted on the body (100).
  • a cable or the like can be connected to the connector (500) so that the sensor controller (200) and the communication controller (400) can be connected to the platform controller (20).
  • the connector (500) is not an essential component, and the sensor controller (200) and the communication controller (400) can be wirelessly connected to the platform controller (20) without the connector (500).
  • the cover (600) can be mounted on the body (100) to open and close the internal space (110).
  • the cover (600) can be detachably mounted on the open upper surface of the body (100) and can hold and support the sensor controller (200) and the communication controller (400) on the inside together with the body (100).
  • the cover (600) can include a cover protrusion (610) and a cover hole (620).
  • a plurality of cover protrusions (610) are formed on the edge of the cover (600) and can extend outward in the radial direction of the cover (600).
  • the cover protrusion (610) can include a plurality of cover protrusions (610) (for example, seven).
  • Each cover protrusion (610) is fitted into a mounting groove (150) of the body (100), and a fastening member such as a bolt inserted through the protrusion hole (611) of the cover protrusion (610) can be inserted into the third fastening hole (151) of the mounting groove (150).
  • the radar (10) may further include an interaction button (700).
  • the interaction button (700) is a member for interaction between a user and the radar (10) or the steering system (1), and the user may instruct the radar (10) or the steering system (1) to perform a specific operation by touching or pressing the interaction button (700).
  • the interaction button (700) is connected to the sensor controller (200) and the communication controller (400), and when the user interacts with the interaction button (700), the sensor controller (200) and the communication controller (400) may operate to transmit a signal to the platform controller (20).
  • the platform controller (20) may stop or operate the steering system (1), change the position of the platform (30), or perform a gripping operation of the EOAT (40) according to a pre-stored algorithm.
  • the interaction button (700) may include a plurality of interaction buttons (700).
  • the plurality of interaction buttons (700) may be mounted on the outer surface of the body (100) and may be located between a plurality of sensors (300).
  • the interaction button (700) may include three interaction buttons (700).
  • the three interaction buttons (700) may each be located between a plurality of sensors (300) and a connector (500).
  • the radar (10) may further include a connection PCB (800).
  • the connection PCB (800) may connect a plurality of sensors (300) to the sensor controller (200) and may include a flexible material that can be bent.
  • the connection PCB (800) may connect a plurality of sensors (300) in parallel to the sensor controller (200).
  • a plurality (e.g., four) connection PCBs (800) may be respectively connected around the sensor controller (200), and a sensor (300) may be connected to the end of each connection PCB (800).
  • connection PCB (800) may connect a plurality of sensors (300) in series with the sensor controller (200).
  • each connection PCB (800) is located between a plurality of sensors (300), and a first end of one connection PCB (800) may be connected to the sensor controller (200) and a second end may be connected to the sensor (300) closest to the sensor controller (200). Therefore, as shown in FIG. 10, the plurality of sensors (300) and the plurality of connection PCBs (800) may have a band shape extending in a single row.
  • connection method of the sensor (300) and the sensor controller (200) can be freely changed in consideration of the size, shape, specifications, or installation location of the radar (10).
  • the radar (10) can be completed by winding the plurality of connection PCBs (800) and the plurality of sensors (300) around the outer surface of the body (100).
  • the radar (10) may be installed outside, rather than inside, the steering system (1), including the platform (30). Furthermore, the radar (10) may be mounted on the platform (30) by assembling it to the end of the platform (30) using bolts or the like without a separate adapter or the like. Therefore, the radar (10) may be universally used in various types of robots or manipulators.
  • the platform controller (20) is connected to the radar (10), the platform (30), and the EOAT (40) by wire and/or wirelessly, and can control the radar (10), the platform (30), and the EOAT (40).
  • the platform controller (20) may be a user terminal such as a smartphone, a laptop, a desktop, a tablet PC, or a server.
  • the platform controller (20) may control the steering system (1) based on the detection information received from the radar (10). Alternatively, when the interaction button (700) is touched or pressed, the platform controller (20) may control the steering system (1) according to a predetermined algorithm.
  • the sensor controller (200), the communication controller (400), and the platform controller (20) may utilize a direct circuit structure that executes each control function through one or more microprocessors or other control devices such as a memory, a processor, a logic circuit, a look-up table, etc.
  • the sensor controller (200), the communication controller (400), and the platform controller (20) may be implemented as a part of a module, program, or code that includes one or more executable instructions for executing a specific logic function.
  • the sensor controller (200), the communication controller (400), and the platform controller (20) may include or be implemented by a processor such as a central processing unit that executes each function or a microprocessor, etc.
  • the sensor controller (200), the communication controller (400), and the platform controller (20) may include a communication device that can transmit and receive data with an external device, etc.
  • the communication device may include one or more combinations of a digital modem, an RF modem, an antenna circuit, a Wi-Fi chip, and related software and/or firmware.
  • the platform (30) includes a plurality of joints and an EOAT (40) can be connected to the end thereof.
  • the platform (30) can be a six-axis robot arm that moves the EOAT (40) in various directions and positions.
  • a radar (10) can be mounted between the end of the platform (30) and the EOAT (40).
  • the EOAT (40) is connected to the platform (30) and can perform gripping, assembling, or other processing operations on an object.
  • the EOAT (40) can be mounted on an end portion of a plurality of joints of the platform (30).
  • the EOAT (40) can have various shapes depending on the field in which the steering system (1) is used.
  • the EOAT (40) can include a finger or suction type gripper, the end portion of a surgical robot, or a tool used for other finishing operations such as welding.
  • the sensor (300) may have various arrangements.
  • the sensor (300) may include a greater number of receivers (320).
  • the sensor (300) may include five receivers (320).
  • the receivers (320) may include a first receiver (321), a second receiver (322), a third receiver (323), a fourth receiver (324), and a fifth receiver (325).
  • the first receiver (321), the second receiver (322), and the third receiver (323) may be included in a first sensor array (301), and the third receiver (323), the fourth receiver (324), and the fifth receiver (325) may be included in a second sensor array (302). That is, the first sensor array (301) and the second sensor array (302) may each include three receivers (320).
  • the first receiver (321), the second receiver (322), the third receiver (323), the fourth receiver (324), and the fifth receiver (325) are arranged clockwise starting from the lower right corner of the sensor (300), and the fifth receiver (325) may be located at the upper left corner of the sensor (300).
  • the first receiver (321), the second receiver (322), and the third receiver (323) included in the first sensor array (301) can receive signals in the azimuth direction
  • the third receiver (323), the fourth receiver (324), and the fifth receiver (325) included in the first sensor array (301) can receive signals in the elevation direction. Therefore, the sensor (300) can include a greater number of receivers (320) in the azimuth direction and the elevation direction, thereby reducing the deviation of each receiver (320) and increasing the measurement precision.
  • the first sensor array (301) and the second sensor array (302) can share at least one receiver (320) (for example, the third receiver (323)).
  • the sensor (300) may include eight receivers (320).
  • the receivers (320) may include a first receiver (321), a second receiver (322), a third receiver (323), a fourth receiver (324), a fifth receiver (325), a sixth receiver (326), a seventh receiver (327), and an eighth receiver (328).
  • the sensor (300) may include four sensor arrays.
  • the first sensor array (301) and the third sensor array (303) are respectively located above and below the transmitter (310) and can receive signals in the azimuth direction.
  • the second sensor array (302) and the fourth sensor array (304) are respectively located to the left and right of the transmitter (310) and can receive signals in the elevation direction. Accordingly, as shown in Fig. 13, a transmitter (310) is located at the center of the sensor (300), and eight receivers (320) can be arranged around the transmitter (310).
  • the first receiver (321), the second receiver (322), and the third receiver (323) may be included in the first sensor array (301), and the third receiver (323), the fourth receiver (324), and the fifth receiver (325) may be included in the second sensor array (302).
  • the fifth receiver (325), the sixth receiver (326), and the seventh receiver (327) may be included in the third sensor array (303), and the seventh receiver (327), the eighth receiver (328), and the first receiver (321) may be included in the fourth sensor array (304). That is, the first sensor array (301) and the second sensor array (302) may each include three receivers (320).
  • the first receiver (321) to the eighth receiver (328) can be arranged clockwise starting from the lower right corner of the sensor (300).
  • the sensor (300) may include a greater number of receivers (320) in the azimuth direction and the elevation direction, and may include a plurality of sensor arrays that detect objects in the azimuth direction and the elevation direction, respectively. Therefore, the deviation of each receiver (320) and sensor array can be reduced and the measurement precision can be increased. In addition, the sensor (300) can detect objects using other sensor arrays even if one sensor array fails.
  • the first sensor array (301) and the second sensor array (302) can share the third receiver (323), the second sensor array (302) and the third sensor array (303) can share the fifth receiver (325), and the third sensor array (303) and the fourth sensor array (304) can share the seventh receiver (327).
  • the sensor (300) may include a greater number of transmitters (310) and receivers (320).
  • the sensor (300) may include four transmitters (310), a first transmitter (311), a second transmitter (312), a third transmitter (313), and a fourth transmitter (314).
  • the first transmitter (311), the second transmitter (312), the third transmitter (313), and the fourth transmitter (314) may be arranged clockwise from the center of the sensor (300).
  • the sensor (300) may include five receivers (320), a first receiver (321), a second receiver (322), a third receiver (323), a fourth receiver (324), and a fifth receiver (325).
  • the first receiver (321), the second receiver (322), and the third receiver (323) may be included in the first sensor array (301), and the third receiver (323), the fourth receiver (324), and the fifth receiver (325) may be included in the second sensor array (302).
  • each transmitter (310) and reflected by the object can be received by each receiver (320). Therefore, by including a greater number of transmitters (310) and receivers (320), the sensor (300) can reduce the deviation of each transmitter (310), receiver (320), and sensor array and increase the measurement precision. In addition, even if one transmitter (310) fails, the sensor (300) can detect the object using the other transmitter (310).
  • the radar (10) may include a greater number of sensors (300).
  • the sensor (300) may include a plurality of first sensors (300a) and a plurality of second sensors (300b).
  • each of the sensors (300) may include four first sensors (300a) and four second sensors (300b), and the plurality of first sensors (300a) and second sensors (300b) may be arranged alternately.
  • the plurality of first sensors (300a) and second sensors (300b) may be individually controlled, and their respective detection areas (SA) may overlap. Therefore, as illustrated in FIG. 15, the blind area of the radar (10) may be significantly reduced.
  • eight first sensors (300a) and eight second sensors (300b) are arranged at equal intervals, and the angle between them can be 45 degrees.
  • the first sensor (300a) and the second sensor (300b) may have an arrangement as shown in FIG. 16.
  • the first sensor (300a) may be at the same position as the previous sensor (300), and the second sensor (300b) may be located between the first sensors (300a).
  • the second sensor (300b) may be located above or below the connector (500) so as not to interfere with other components of the radar (10), such as the connector (500).
  • the first sensor (300a) and the second sensor (300b) may be arranged on a line L1 extending along the outer circumference of the body (100), and the connector (500) may be arranged on a line L3 below the line L1.
  • the interaction button (700) may be arranged on a line L2 between the lines L1 and L3.
  • the plurality of sensors (300) may be positioned at different locations in the height direction of the radar (10).
  • the plurality of first sensors (300a) may be positioned at the lower portion of the body (100) in the height direction and may be positioned on line L3.
  • the plurality of second sensors (300b) may be positioned at the lower portion of the body (100) in the height direction and may be positioned on line L1.
  • the plurality of first sensors (300a) and second sensors (300b) are arranged to be staggered in the height direction, thereby preventing the sensors (300) from being biased to one side along the height direction.
  • the radar (10) may include a greater number of sensors (300).
  • the sensors (300) may include a plurality of first sensors (300a), a plurality of second sensors (300b), and a plurality of third sensors (300c).
  • the sensors (300) may each include four first sensors (300a), four second sensors (300b), and eight third sensors (300c), and the plurality of first sensors (300a), second sensors (300b), and third sensors (300c) may be arranged alternately.
  • the plurality of first sensors (300a), second sensors (300b), and third sensors (300c) may be individually controlled, and their respective detection areas (SA) may overlap.
  • a plurality of third sensors (300c) may be respectively positioned between the first sensor (300a) and the second sensor (300b). Therefore, as shown in FIG. 18, a plurality of first sensors (300a), second sensors (300b), and third sensors (300c) are arranged continuously along the circumferential direction of the body (100), and the radar (10) can eliminate the blind area of the detection area (SA). For example, 16 first sensors (300a), second sensors (300b), and third sensors (300c) may be arranged at equal intervals, and the angle between them may be 22.5 degrees.
  • the platform controller (20) is connected to the radar (10), the platform (30), and the EOAT (40) by wire and/or wirelessly, and can control the radar (10), the platform (30), and the EOAT (40).
  • the platform controller (20) may be a user terminal such as a smartphone, a laptop, a desktop, a tablet PC, or a server.
  • the platform controller (20) may control the steering system (1) based on the detection information received from the radar (10). Alternatively, when the interaction button (700) is touched or pressed, the platform controller (20) may control the steering system (1) according to a predetermined algorithm.
  • the platform controller (20) can control the platform (30) based on information about an obstacle detected by the radar (10).
  • the platform controller (20) can steer, not steer, decelerate, stop, or maintain operation of the platform (30) based on the distance and/or relative speed between the platform (30) and the obstacle, and the angle (position) of the obstacle.
  • the platform controller (20) can receive information about an obstacle (O) from the radar (10).
  • the radar (10) can detect an obstacle (O) around the platform (30) and transmit a signal to the platform controller (20).
  • the platform controller (20) can calculate, from the received signal, information about the obstacle (O), such as the distance between the obstacle (O) and the radar (10) or the platform (30), the relative speed of the obstacle (O) (the speed of the obstacle (O) with respect to the radar (10) or the platform (30)), and the angle of the obstacle (O) (for example, the angle in the azimuth direction).
  • the information about the obstacle (O) may be a value calculated by the radar (10) and transmitted to the platform controller (20).
  • the platform controller (20) can determine whether to operate the platform (30) based on the information about the received obstacle (O). For example, the platform controller (20) may not operate the platform (30) if the distance to the obstacle (O) is greater than a predetermined distance. In other words, the platform controller (20) can determine that there is no possibility of collision between the platform (30) and the obstacle (O) and cause the platform (30) to maintain its current operation (determined movement trajectory).
  • the platform controller (20) can set a plurality of virtual areas according to the distance between the obstacle (O) and the platform (30) based on the center C of the radar (10). For example, as shown in FIG. 19, the platform controller (20) can set a first area Z1 divided between a first distance r1 and a second distance r2 based on the center C, a second area Z2 divided between a second distance r2 and a third distance r3, and a third area Z3 divided by the third distance r3.
  • the first area Z1, the second area Z2, and the third area Z3 can each be concentric with respect to the center C.
  • the platform controller (20) can control the platform (30) differently depending on which area among the plurality of areas the obstacle (O) is in.
  • the first area Z1 may be an observing zone.
  • the first area Z1 is divided between a first distance r1 and a second distance r2 based on the center C, and the first distance r1 corresponds to the outer radius of the first area Z1 and may be the maximum detection distance of the radar (10).
  • the first distance r1 may vary depending on the specifications, type, sensitivity, etc. of the sensor (300) included in the radar (10).
  • the second distance r2 corresponds to the inner radius of the first area Z1 and may vary depending on the type and size of the platform (30), the purpose of use, the field of application, etc. For example, when the platform (30) needs to be operated more agilely, the second distance r2 may have a larger value. For example, as shown in FIG.
  • the platform controller (20) may not operate the platform (30). That is, the first region Z1 may be an area in which the obstacle (O) is observed and tracked, but the platform (30) is not manipulated (e.g., steered, stopped, or decelerated). When the obstacle (O) is in the first region Z1, the platform controller (20) may cause the platform (30) to move along the original movement trajectory.
  • the second zone Z2 may be a steering zone.
  • the second zone Z2 is divided between the second distance r2 and the third distance r3 with respect to the center C, and may be between the first zone Z1 and the third zone Z3.
  • the second distance r2 may correspond to the outer radius of the second zone Z2.
  • the third distance r3 may correspond to the inner radius of the second zone Z2.
  • the platform controller (20) may steer the platform (30). That is, the second zone Z2 may be a zone in which the platform controller (20) changes the movement trajectory of the platform (30) to avoid a collision between the obstacle (O) and the platform (30).
  • the radar (10) may transmit an obstacle detection signal to the platform controller (20).
  • the platform controller (20) can issue a steering command to the platform (30) to avoid colliding with an obstacle (O).
  • the platform controller (20) can steer the platform (30) by reflecting the distance and relative speed of the obstacle (O) detected by the radar (10) and the position (e.g., angle in the azimuth direction) of the obstacle (O). That is, the platform controller (20) can dynamically steer the platform (30) in real time based on information about the obstacle (O) detected by the radar (10) in real time. Therefore, collision between the obstacle (O) and the platform (30) can be efficiently avoided.
  • the platform controller (20) can steer the platform (30) by changing the yaw rate of the platform (30).
  • the platform controller (20) can change the current velocity vector of the platform (30) (Fig. 19). ) and the distance vector to the obstacle (O) (Fig. 19) ) on a plane formed by the angular velocity vector for the platform (30) to avoid an obstacle (O), and the platform (30) can be rotated based on the calculated angular velocity vector (wz in FIG. 19).
  • the plane formed by the current velocity vector of the platform (30) and the distance vector to the obstacle (O) can be represented as a steering plane SP, as shown in FIG. 19.
  • the yaw axis of the platform (30) can be rotated from the Z-axis to the Z'-axis, as shown in FIG. 19, by the calculated yaw rate.
  • the platform controller (20) can calculate the angular velocity vector (yaw rate) using the equation (1) below.
  • w z is the angular velocity vector (yaw rate)
  • r is the distance to the detected obstacle (O)
  • r3 is the minimum safe distance as the radius of the third area Z3
  • is the azimuth angle of the detected obstacle (O)
  • r2 is the maximum steering distance as the inner radius of the first area Z1 (or the outer radius of the second area Z2)
  • v is the current velocity vector of the platform (30)
  • sign( ⁇ ) is the sign of ⁇ .
  • the platform controller (20) can provide a standardized reference frame for determining the direction of the steering operation with respect to the direction of the platform (30) by converting the azimuth angle ⁇ of the obstacle (O) into the range of [-180, 180].
  • the numerator r3v can allow the platform (30) to maintain a safe distance r3 from the obstacle (O) during steering.
  • the denominator (r-r3)r in Equation (1) can adjust the size of the yaw rate based on the distance r from the obstacle (O).
  • the sign of ⁇ in Equation (1) can allow the platform (30) to be steered in an appropriate direction (left or right) for the azimuth angle ⁇ of the obstacle (O).
  • the platform controller (20) may not steer the platform (30) if the distance r to the detected obstacle (O) is greater than or equal to the second distance r2, which is the maximum steering distance, i.e., if the obstacle (O) is at the boundary between the first area Z1 and the second area Z2, or is further than the second area Z2. If the distance r to the detected obstacle (O) is less than the second distance r2, i.e., if the obstacle (O) is within the second area Z2, the platform controller (20) can steer the platform (30) according to the above equation (1).
  • the platform controller (20) can steer the platform (30) based on the above equation (1), thereby preventing a collision between the platform (30) and the obstacle (O) by maintaining a safe distance between the platform (30) and the obstacle (O).
  • the platform (30) can be efficiently steered by changing the yaw rate of the platform (30).
  • the platform controller (20) can calculate the yaw rate for steering the platform (30) by reflecting the relative speed of the obstacle (O) and/or the speed gain considering the approaching direction of the obstacle (O). For example, the platform controller (20) can calculate the yaw rate using the following equation (2).
  • k is the speed gain
  • k is calculated by equation (3) below.
  • v r represents the relative velocity of the obstacle (O), i.e., the velocity of the obstacle (O) with respect to the radar (10) or platform (30).
  • ⁇ r represents r k -r (k-1) , i.e., the difference between the distance to the obstacle (O) measured by the radar (10) at a certain point in time and the distance to the obstacle (O) measured in the immediately previous cycle.
  • sign( ⁇ r) represents the sign of ⁇ r.
  • the platform controller (20) may calculate the corrected yaw rate by applying the calculated speed gain k value to Equation (1).
  • the obstacle (O) moves faster than the platform (30) but moves in a direction away from the platform (30).
  • the platform controller (20) can calculate the corrected yaw rate by applying the calculated speed gain k value to equation (1).
  • the value of the speed gain k may be 1. Or, in this case, since there is no need to compensate for the yaw rate, the platform controller (20) may calculate the yaw rate in the same manner as in equation (1).
  • the third zone Z3 may be a safety zone.
  • the third zone Z3 is divided by a third distance r3 based on the center C, and the third distance r3 may form a boundary between the second zone Z2 and the third zone Z3.
  • the third zone Z3 is a minimum safety zone to prevent the platform (30) from colliding with the obstacle (O), and the third distance r3 may vary depending on the type and size of the platform (30), the purpose of use, the field of application, etc. For example, as shown in FIG. 22, when the radar (10) detects an obstacle (O) in the third zone Z3, the radar (10) may transmit an obstacle detection signal to the platform controller (20). In addition, the platform controller (20) may issue a speed control command to the platform (30) to reduce the impact generated when colliding with the obstacle (O).
  • the platform controller (20) can adjust the speed of the platform (30). For example, the platform controller (20) can determine whether to adjust the speed of the platform (30) according to the expected collision time between the obstacle (O) and the platform (30). For example, when the obstacle (O) has entered the third area Z3, that is, when the distance r ⁇ the third distance r3, the platform controller (20) can immediately stop the platform (30) if the expected collision time t c between the obstacle (O) and the platform (30) is less than or equal to the critical time t s .
  • the critical time t s may be a value determined in advance in consideration of the size, weight, shape, application target, maximum acceleration, etc. of the platform (30). Additionally, the expected collision time t c can be calculated as r/v r .
  • the platform controller (20) may not immediately stop the platform (30). For example, if the expected collision time t c is greater than the critical time t s , and the distance between the platform (30) and the obstacle (O) is less than or equal to the deceleration distance r sl , the platform controller (20) may decelerate the platform (30).
  • the deceleration distance r sl is a predetermined value considering the size, weight, shape, application target, maximum acceleration, etc. of the platform (30), and may be less than r3.
  • the deceleration distance r sl may be 10% to 80%, or 20% to 70% of r3 .
  • r sl may be half of r3 .
  • the platform controller (20) may move the platform (30).
  • moving the platform (30) may mean moving the platform (30) along its original movement trajectory or steering the platform (30). Accordingly, as the speed of the platform (30) decreases, the impact resulting from a subsequent expected collision between the platform (30) and the obstacle (O) can be reduced.
  • the collision between the platform (30) and the obstacle (O) can be avoided depending on the subsequent behavior of the obstacle (O).
  • the platform controller (20) decelerates the platform (30) and the distance between the platform (30) and the obstacle (O) is less than or equal to the deceleration distance r sl , the platform controller (20) can immediately stop the platform (30). Afterwards, if the distance between the platform (30) and the obstacle (O) becomes greater than the stopping distance r st , the platform (30) can be decelerated again.
  • the stopping distance r st is a value predetermined in consideration of the size, weight, shape, application target, maximum acceleration, etc. of the platform (30), and may be less than r3 and the deceleration distance r sl .
  • the stopping distance r sl may be 10% to 80%, or 20% to 70%, of the deceleration distance r sl .
  • the stopping distance r sl may be half of the deceleration distance r sl .
  • the platform controller (20) can move the platform (30).
  • the platform controller (20) When determining whether to steer the platform (30), if the platform controller (20) determines that the obstacle (O) is in the third area Z3, it may perform a speed control operation (stopping or slowing down the platform (30)) without steering the platform (30), or if the obstacle (O) is in the third area Z3 after steering the platform (30), it may perform a speed control operation.
  • the platform controller (20) can determine whether to operate the platform (30) based on the obstacle (O) closest to the platform (30) among the multiple obstacles (O).
  • the obstacle (O) closest to the platform (30) may vary depending on the information detected in real time by the radar (10).
  • the sensor controller (200), the communication controller (400), and the platform controller (20) may utilize a direct circuit structure that executes each control function through one or more microprocessors or other control devices such as a memory, a processor, a logic circuit, a look-up table, etc.
  • the sensor controller (200), the communication controller (400), and the platform controller (20) may be implemented as a part of a module, program, or code that includes one or more executable instructions for executing a specific logic function.
  • the sensor controller (200), the communication controller (400), and the platform controller (20) may include or be implemented by a processor such as a central processing unit that executes each function or a microprocessor, etc.
  • the sensor controller (200), the communication controller (400), and the platform controller (20) may include a communication device that can transmit and receive data with an external device, etc.
  • the communication device may include one or more combinations of a digital modem, an RF modem, an antenna circuit, a Wi-Fi chip, and related software and/or firmware.
  • the steering system (1) may further include an EOAT (40).
  • an EOAT (40) may be connected to the end thereof.
  • the platform (30) may be a six-axis robot arm capable of moving the EOAT (40) in various directions and positions.
  • a radar (10) may be mounted between the end of the platform (30) and the EOAT (40).
  • the EOAT (40) is connected to the platform (30) and can perform operations such as gripping, assembling, or other processing of obstacles.
  • the EOAT (40) can be mounted on an end portion of a plurality of joints of the platform (30).
  • the EOAT (40) can have various shapes depending on the field in which the steering system (1) is used.
  • the EOAT (40) can include a finger or suction type gripper, a distal end portion of a surgical robot, or a tool used for other finishing processing such as welding.
  • the EOAT (40) can be a corresponding manipulation device or interaction device of the platform (30).
  • the following describes a method of steering a platform (30) according to embodiments of the present disclosure using a steering system (1).
  • a method for steering a platform (30) includes a step of collecting information about an obstacle (O) by a radar (10) mounted on the platform (30), a step of determining whether to steer the platform (30) based on the collected information by the platform controller (20), and a step of steering the platform (30) by the platform controller (20), wherein the step of determining whether to steer the platform (30) includes not steering the platform (30) if the obstacle (O) is in a first area Z1 or outside the first area Z1, and steering the platform (30) so that the obstacle (O) does not enter a third area Z3 if the obstacle (O) is in a second area Z2, and the step of steering the platform (30) includes calculating a yaw rate for steering the platform (30) away from the obstacle (O) by the platform controller (20), and steering the platform (30) so as to correspond to the calculated yaw rate.
  • the radar (10) mounted on the platform (30) detects an obstacle (O) around the platform (30) and collects information about the distance and relative speed between the obstacle (O) and the platform (30), the angle of the obstacle (O), etc., and transmits the collected information to the platform controller (20).
  • the platform controller (20) determines in which area the obstacle (O) is located based on the information about the obstacle (O) received. If the obstacle (O) has not yet approached the second area Z2, i.e., if the obstacle (O) is determined to be in the first area Z1 or outside, the platform controller (20) does not steer the platform (30) and allows the platform (30) to move along the current movement trajectory. In addition, information about the obstacle (O) is continuously transmitted from the radar (10).
  • the platform controller (20) determines that the obstacle (O) has approached the second area Z2, the platform controller (20) steers the platform (30) to avoid collision between the platform (30) and the obstacle (O).
  • the platform controller (20) calculates the yaw rate for steering the platform (30) based on information about the obstacle (O), including the relative speed and distance between the platform (30) and the obstacle (O) and the position (azimuth) of the obstacle (O).
  • the platform controller (20) steers the platform (30) by changing the yaw rate of the platform (30).
  • the platform controller (20) steers the platform (30) by rotating the platform (30) using the above equation (1).
  • the platform controller (20) calculates the yaw rate using equation (2).
  • the platform (30) is not steered and the platform (30) is allowed to move along the current movement trajectory.
  • the steering method of the platform (30) further includes a speed control step.
  • the speed control step if the obstacle (O) is in the third area Z3, the platform controller (20) stops the platform (30) or decelerates the platform (30). If the obstacle (O) approaches within the third area Z3, the platform controller (20) determines whether the platform (30) can avoid the obstacle (O). The platform controller (20) determines whether the platform (30) can avoid the obstacle (O) based on information about the obstacle (O), including the relative speed and distance between the platform (30) and the obstacle (O) and the position (azimuth) of the obstacle (O). If it is determined that the platform (30) can avoid the obstacle (O), the platform controller (20) maintains the steering state of the platform (30). On the other hand, if it is determined that the platform (30) can avoid the obstacle (O), the platform controller (20) adjusts the speed of the platform (30) to reduce the impact resulting from the collision between the platform (30) and the obstacle (O) (see Fig. 23).
  • the platform controller (20) determines the operation mode of the platform (30) by comparing the expected collision time t c with the critical time t s in the speed control step.
  • the platform controller (20) calculates the expected collision time t c between the platform (30) and the obstacle (O) from the relative speed and distance between the platform (30) and the obstacle (O) and the position of the obstacle (O ) . If the expected collision time t c is less than or equal to the critical time t s , the platform controller (20) stops the platform (30).
  • the platform controller (20) compares the distance between the platform (30) and the obstacle (O) with the deceleration distance r sl . If the distance between the platform (30) and the obstacle (O) is greater than the deceleration distance r sl , the platform controller (20) steers the platform (30) or maintains the current movement trajectory. On the other hand, if the distance between the platform (30) and the obstacle (O) is less than the deceleration distance r sl , the platform controller (20) decelerates the platform (30) to reduce the impact caused by the collision between the platform (30) and the obstacle (O).
  • the platform controller (20) steers the platform (30) or maintains the current movement trajectory.
  • the platform controller (20) stops the platform (30) to reduce the impact caused by the collision between the platform (30) and the obstacle (O).
  • the platform controller (20) causes the platform (30) to move at a deceleration speed again.
  • the deceleration movement means movement at a speed slower than the normal speed when moving along the original movement trajectory. If the distance between the obstacle (O) and the platform (30) becomes less than the stopping distance r st , the platform controller (20) maintains the platform (30) in a stopped state (see FIG. 24).
  • Fig. 25 illustrates an example of a control algorithm of a platform controller (20) according to embodiments of the present disclosure.
  • the platform controller (20) compares the expected collision time with a threshold time. If the expected collision time is less than or equal to the threshold time, the platform controller (20) stops the platform (30).
  • the platform controller (20) moves the platform (30). Thereafter, if the distance between the obstacle (O) and the platform (30) is less than the deceleration distance, the platform controller (20) decelerates the platform (30). Alternatively, if a deceleration command is given to the platform (30), and the distance between the obstacle (O) and the platform (30) is greater than the deceleration distance, the platform controller (20) moves the platform (30). On the other hand, if the distance between the obstacle (O) and the platform (30) is less than the deceleration distance, the platform controller (20) stops the platform (30). Alternatively, if a stop command is given to the platform (30), and the distance between the obstacle (O) and the platform (30) is greater than the stopping distance, the platform controller (20) decelerates the platform (30).
  • the present disclosure can be used in industries related to radar, steering systems and steering methods.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

A panoramic radar according to embodiments of the present disclosure includes: a body mounted on an arm of a robot; a sensor controller accommodated in the body; a plurality of sensors each connected to the sensor controller; and a communication controller which is connected to the body and the sensor controller and communicates with an external device, wherein the sensor controller calculates the position and speed of a nearby object on the basis of signals transmitted and received by the plurality of sensors, and the plurality of sensors are arranged along the circumference of the body, wherein the respective sensing regions may overlap or the boundaries of the respective sensing regions may be in contact with each other.

Description

파노라믹 레이더, 조향 시스템 및 플랫폼의 조향 방법Panoramic radar, steering system and steering method of the platform

본 개시는 파노라믹 레이더, 조향 시스템 및 플랫폼의 조향 방법에 관한 것이다.The present disclosure relates to a panoramic radar, a steering system and a method for steering a platform.

협동 로봇은 사람과 같은 공간에서 작업하면서 사람과 물리적으로 상호작용할 수 있는 로봇으로, 생산성 향상에 대한 요구와 맞물려 최근 그 수요가 폭발적으로 증가하고 있다. 안전 영역 내에서 동작하는 기존의 산업용 로봇과 달리 협동 로봇은 사람 또는 주변 사물 등과 인접한 영역에서 동작하기 때문에 협동 로봇 주변에 있는 사람의 안전을 확보하는 것이 중요하다. 안전을 위해 협동 로봇은 하나 이상의 센서 또는 레이더를 포함하는데, 종래의 센서는 감지 거리가 짧고 감지 범위가 협소한 문제가 있다. 따라서 협동 로봇과 가까운 거리에서 빠르게 접근하거나 센서의 사각 지대에서 접근하는 사람이나 사물이 있을 경우, 협동 로봇이 신속하게 반응하지 못해 사람이나 사물과 충돌하는 문제가 있다.Collaborative robots are robots capable of working in the same space and physically interacting with people. Demand for collaborative robots has been explosively increasing recently, driven by the need for increased productivity. Unlike conventional industrial robots, which operate within a safe zone, collaborative robots operate in close proximity to people and surrounding objects, making it crucial to ensure the safety of those around them. To ensure safety, collaborative robots incorporate one or more sensors or radars. However, conventional sensors have short detection ranges and limited coverage. Consequently, when a person or object approaches the collaborative robot at close range or from a blind spot, the collaborative robot cannot react quickly, potentially leading to collisions with the person or object.

특히 종래의 센서는 방위각 방향(azimuth direction)으로 센서의 감지 범위에 공백이 있어 사각 지대가 존재한다. 예를 들어 종래의 센서는 로봇의 팔의 어느 한 쪽에만 위치하여 로봇 팔에 의해 감지 영역이 가려지거나, 여러 개의 센서의 감지 범위 사이에 공백이 발생한다. 또한 종래의 센서는 고도 방향(elevation direction)으로도 감지 범위(elevation angle)가 좁아, 로봇 팔의 바로 위 또는 아래에서 접근하는 사람이나 물체를 감지하기 어렵다.In particular, conventional sensors have blind spots due to gaps in their detection range in the azimuth direction. For example, conventional sensors are positioned only on one side of a robot arm, resulting in their detection area being obscured by the robot arm, or gaps between the detection ranges of multiple sensors. Furthermore, conventional sensors have narrow detection ranges (elevation angles) in the elevation direction, making it difficult to detect people or objects approaching directly above or below the robot arm.

또한, 협동 로봇을 포함해 자율주행 차량, 로봇, 공장 자동화 설비, 무인기, 보안 및 추적 시스템 등을 포함하는 플랫폼은 주변의 사물이나 사람 등 장애물을 감지하고 감지한 장애물의 정보에 기반해 플랫폼을 실시간으로 조향할 필요가 있다.Additionally, platforms including autonomous vehicles, robots, factory automation equipment, drones, security and tracking systems, and collaborative robots need to detect obstacles such as objects or people in the surroundings and steer the platform in real time based on information about the detected obstacles.

그런데 종래의 조향 알고리즘은 미리 정의된 경로나 센서 데이터를 기반으로 플랫폼을 제어하기 때문에, 동적 환경에 대한 빠른 반응성과 적응성을 기대하기 어렵다. 또한 센서나 레이더 자체의 감지 성능을 완전히 활용하기 어렵다.However, conventional steering algorithms control the platform based on predefined paths or sensor data, making it difficult to expect rapid responsiveness and adaptability to dynamic environments. Furthermore, it's difficult to fully utilize the detection capabilities of the sensors or radar themselves.

이러한 발명의 배경이 되는 기술에 개시된 상술한 정보는 본 발명의 배경에 대한 이해도를 향상시키기 위한 것뿐이며, 따라서 종래 기술을 구성하지 않는 정보를 포함할 수도 있다.The above-described information disclosed in the background technology of this invention is only intended to improve understanding of the background of the present invention, and therefore may include information that does not constitute prior art.

본 개시의 실시예들에 따른 파노라믹 레이더는 방위각 방향으로 사각 지대를 없애고 고도 방향으로 감지 범위를 넓히면서, 충분히 긴 감지 거리를 확보해 근거리에서 빠르게 접근하는 사람이나 물체도 신속하고 용이하게 감지할 수 있는 파노라믹 레이더를 제공할 수 있다.The panoramic radar according to embodiments of the present disclosure can provide a panoramic radar that eliminates blind spots in the azimuth direction, expands the detection range in the elevation direction, and secures a sufficiently long detection distance, thereby enabling the rapid and easy detection of people or objects approaching at close range.

본 개시의 실시예들에 따른 조향 시스템 및 플랫폼의 조향 방법은 동적으로 장애물을 회피하면서 원하는 궤적으로 플랫폼을 조향할 수 있는 조향 시스템 및 플랫폼의 조향 방법을 제공할 수 있다.The steering system and the steering method of the platform according to the embodiments of the present disclosure can provide a steering system and a steering method of the platform capable of steering the platform along a desired trajectory while dynamically avoiding obstacles.

다만, 본 개시의 실시예들이 해결하고자 하는 기술적 과제는 상술한 과제에 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래에 기재된 발명의 설명으로부터 통상의 기술자에게 명확하게 이해될 수 있다.However, the technical problems to be solved by the embodiments of the present disclosure are not limited to the problems described above, and other problems not mentioned can be clearly understood by those skilled in the art from the description of the invention described below.

본 개시의 실시예들에 따른 파노라믹 레이더는 로봇의 암에 장착되는 바디, 상기 바디에 수용되는 센서 컨트롤러, 상기 센서 컨트롤러와 각각 연결되는 복수 개의 센서 및 상기 바디 및 상기 센서 컨트롤러와 연결되며 외부 장치와 통신하는 통신 컨트롤러를 포함하고, 상기 센서 컨트롤러는 상기 복수 개의 센서가 송수신한 신호에 기반해 주변에 있는 물체의 위치 및 속도를 계산하고, 상기 복수 개의 센서는 상기 바디의 둘레를 따라 배열되며 각각의 감지 영역이 중첩되거나 각각의 감지 영역의 경계가 서로 맞닿아 있을 수 있다.A panoramic radar according to embodiments of the present disclosure includes a body mounted on an arm of a robot, a sensor controller accommodated in the body, a plurality of sensors each connected to the sensor controller, and a communication controller connected to the body and the sensor controller and communicating with an external device, wherein the sensor controller calculates a position and a velocity of an object in the vicinity based on signals transmitted and received by the plurality of sensors, and the plurality of sensors are arranged along the periphery of the body, and each detection area may overlap or the boundaries of each detection area may be in contact with each other.

상기 복수 개의 센서는 상기 바디의 둘레를 따라 서로 90도의 각도를 이루며, 각각의 감지 영역은 방위각 방향(azimuth direction)으로 전방위를 커버할 수 있다.The above plurality of sensors form a 90 degree angle with respect to each other along the perimeter of the body, and each detection area can cover an omnidirectional area in the azimuth direction.

상기 복수 개의 센서는 송신기 및 상기 송신기의 주위에 제1방향 및 상기 제1방향과 수직인 제2방향으로 배열되는 복수 개의 수신기를 포함하고, 상기 제1방향으로 배열된 복수 개의 수신기는 방위각 평면(azimuth plane)을 감지하는 제1센서 어레이를 형성하고, 제2방향으로 배열된 복수 개의 수신기는 고도 평면(elevation plane)을 감지하는 제2센서 어레이를 형성하고, 상기 제1센서 어레이와 상기 제2센서 어레이는 적어도 하나의 수신기를 공유하고, 상기 센서 컨트롤러는, 상기 제1센서 어레이가 방위각 방향으로 수신한 신호에 기초해 감지된 물체의 방위각 방향으로의 각도를 계산하고, 상기 제2센서 어레이가 고도 방향으로 수신한 신호에 기초해 물체의 고도 방향으로의 각도를 계산할 수 있다.The plurality of sensors include a transmitter and a plurality of receivers arranged around the transmitter in a first direction and a second direction perpendicular to the first direction, the plurality of receivers arranged in the first direction form a first sensor array for detecting an azimuth plane, the plurality of receivers arranged in the second direction form a second sensor array for detecting an elevation plane, the first sensor array and the second sensor array share at least one receiver, and the sensor controller can calculate an angle of a detected object in an azimuth direction based on a signal received by the first sensor array in an azimuth direction, and can calculate an angle of the object in an elevation direction based on a signal received by the second sensor array in an elevation direction.

상기 송신기는 상기 센서의 중심에 위치하고, 상기 제1센서 어레이, 상기 제2센서 어레이, 상기 제3센서 어레이, 및 상기 제4센서 어레이는 상기 송신기를 중심으로 상하좌우에 대칭으로 배열될 수 있다.The transmitter is located at the center of the sensor, and the first sensor array, the second sensor array, the third sensor array, and the fourth sensor array can be arranged symmetrically in the upper, lower, left, and right directions with the transmitter as the center.

상기 복수 개의 수신기는, 상기 송신기를 기준으로 상기 제1센서 어레이의 반대측에 있으며 방위각 평면을 감지하는 제3센서 어레이를 형성하고, 상기 송신기를 기준으로 상기 제2센서 어레이의 반대측에 있으며 고도 평면을 감지하는 제4센서 어레이를 형성하고, 상기 제1센서 어레이와 상기 제2센서 어레이, 상기 제2센서 어레이와 상기 제3센서 어레이, 상기 제3센서 어레이와 상기 제4센서 어레이, 상기 제4센서 어레이와 상기 제1센서 어레이는 각각 하나 이상의 수신기를 공유하고, 상기 센서 컨트롤러는, 상기 제1센서 어레이 및 제3센서 어레이가 방위각 방향으로 수신한 신호에 기초해 감지된 물체의 방위각 방향으로의 각도를 계산하고, 상기 제2센서 어레이 및 제4센서 어레이가 고도 방향으로 수신한 신호에 기초해 물체의 고도 방향으로의 각도를 계산할 수 있다.The plurality of receivers form a third sensor array that is located on the opposite side of the first sensor array with respect to the transmitter and detects an azimuth plane, and a fourth sensor array that is located on the opposite side of the second sensor array with respect to the transmitter and detects an elevation plane, and the first sensor array and the second sensor array, the second sensor array and the third sensor array, the third sensor array and the fourth sensor array, and the fourth sensor array and the first sensor array each share one or more receivers, and the sensor controller can calculate an angle in the azimuth direction of a detected object based on signals received in the azimuth direction by the first sensor array and the third sensor array, and can calculate an angle in the elevation direction of the object based on signals received in the elevation direction by the second sensor array and the fourth sensor array.

상기 복수 개의 센서 중 적어도 하나는 상기 바디의 높이 방향으로 다른 위치에 배열될 수 있다.At least one of the plurality of sensors may be arranged at a different position in the height direction of the body.

상기 송신기는 복수 개의 송신기를 포함하고, 상기 제1센서 어레이는 상기 복수 개의 송신기의 아래에 상기 센서의 제1모서리와 인접하고, 상기 제2센서 어레이는 상기 복수 개의 수신기의 옆에 상기 제1모서리와 연결되는 상기 센서의 제2모서리와 인접할 수 있다.The transmitter may include a plurality of transmitters, the first sensor array may be adjacent to a first edge of the sensors below the plurality of transmitters, and the second sensor array may be adjacent to a second edge of the sensors next to the plurality of receivers and connected to the first edge.

상기 레이더는 복수 개의 연결용 PCB를 포함하고, 상기 복수 개의 센서는 상기 센서 컨트롤러를 중심으로 상기 바디의 외주면에 배열되며 상기 복수 개의 연결용 PCB를 통해 각각 상기 센서 컨트롤러와 병렬 연결될 수 있다.The radar includes a plurality of connection PCBs, and the plurality of sensors are arranged on the outer surface of the body centered around the sensor controller and can be connected in parallel with the sensor controller through the plurality of connection PCBs.

상기 레이더는 복수 개의 연결용 PCB를 포함하고, 상기 복수 개의 센서는 상기 복수 개의 연결용 PCB를 통해 각각 상기 센서 컨트롤러와 직렬 연결되고, 상기 복수 개의 센서와 상기 복수 개의 연결용 PCB는 서로 직렬 연결되어 벨트(belt) 형상을 이루고, 상기 복수 개의 센서와 상기 복수 개의 연결용 PCB가 상기 바디의 외주면을 감쌀 수 있다.The radar includes a plurality of connection PCBs, and the plurality of sensors are each connected in series with the sensor controller through the plurality of connection PCBs, and the plurality of sensors and the plurality of connection PCBs are connected in series to each other to form a belt shape, and the plurality of sensors and the plurality of connection PCBs can wrap around the outer circumference of the body.

상기 파노라믹 레이더는 상기 복수 개의 센서 사이에 각각 있으며 상기 센서 컨트롤러 및 상기 통신 컨트롤러와 각각 연결되는 복수 개의 상호작용 버튼을 더 포함하고, 상기 복수 개의 상호작용 버튼 중 적어도 하나가 터치 또는 가압되면, 상기 센서 컨트롤러는 상기 로봇에 제어 신호를 전달할 수 있다.The above panoramic radar further includes a plurality of interaction buttons, each of which is positioned between the plurality of sensors and each of which is connected to the sensor controller and the communication controller, and when at least one of the plurality of interaction buttons is touched or pressed, the sensor controller can transmit a control signal to the robot.

본 개시의 실시예들에 따른 플랫폼의 조향 방법은 플랫폼에 장착된 레이더가 장애물에 관한 정보를 수집하는 단계, 수집된 정보에 기반해 플랫폼 컨트롤러가 상기 플랫폼의 조향 여부를 결정하는 단계 및 상기 플랫폼 컨트롤러가 상기 플랫폼을 조향하는 단계를 포함하고, 상기 플랫폼의 조향 여부를 결정하는 단계는, 장애물이 제1영역에 있거나 상기 제1영역보다 밖에 있으면 상기 플랫폼을 조향하지 않고, 장애물이 제2영역에 있으면 장애물이 제3영역으로 진입하지 않도록 상기 플랫폼을 조향하고, 상기 플랫폼을 조향하는 단계는, 상기 플랫폼 컨트롤러가 상기 플랫폼이 장애물로부터 멀어지도록 조향하기 위한 요 레이트 (yaw rate)를 계산하고, 계산된 요 레이트에 대응되도록 상기 플랫폼을 조향할 수 있다. 여기서 제1영역, 제2영역 및 제3영역은 아래와 같다. (i) 상기 레이더의 최대 감지 거리인 상기 제1거리 및 상기 제1거리보다 작은 제2거리로 구획되는 제1영역 (ii) 상기 제2거리 및 상기 제2거리보다 작은 제3거리로 구획되는 제2영역 (iii) 상기 제3거리로 구획되는 제3영역 A method for steering a platform according to embodiments of the present disclosure includes a step of collecting information about an obstacle by a radar mounted on the platform, a step of determining by the platform controller whether to steer the platform based on the collected information, and a step of steering by the platform controller, wherein the step of determining whether to steer the platform comprises not steering the platform if the obstacle is in a first area or outside the first area, and steering the platform if the obstacle is in a second area so that the obstacle does not enter a third area, and the step of steering the platform comprises calculating a yaw rate for steering the platform away from the obstacle by the platform controller, and steering the platform so as to correspond to the calculated yaw rate. Here, the first area, the second area, and the third area are as follows. (i) a first area divided into the first distance, which is a maximum detection distance of the radar, and a second distance smaller than the first distance; (ii) a second area divided into the second distance and a third distance smaller than the second distance; and (iii) a third area divided into the third distance.

상기 플랫폼을 조향하는 단계는, 상기 플랫폼 컨트롤러가, 상기 플랫폼과 장애물의 거리, 장애물의 방위각(azimuth angle) 및 장애물과 상기 플랫폼의 상대 속도를 포함하는 장애물에 관한 정보에 기반해, 요 레이트를 계산할 수 있다.The step of steering the platform may include allowing the platform controller to calculate a yaw rate based on information about the obstacle, including a distance between the platform and the obstacle, an azimuth angle of the obstacle, and a relative velocity between the obstacle and the platform.

상기 플랫폼 컨트롤러가 상기 플랫폼을 조향하는 단계는, 상기 플랫폼 컨트롤러가 식 (1)로 요 레이트를 계산할 수 있다.The step of steering the platform by the platform controller can calculate the yaw rate using Equation (1).

, 식 (1) , Equation (1)

여기서 wz는 각속도 벡터(요 레이트), r은 감지한 장애물까지의 거리, r3는 제3거리, θ는 감지한 장애물의 방위 각도, r2는 제2거리, v는 현재의 플랫폼의 속도 벡터이고, sign(θ)는 θ의 부호이다.Here, w z is the angular velocity vector (yaw rate), r is the distance to the detected obstacle, r3 is the third distance, θ is the azimuth angle of the detected obstacle, r2 is the second distance, v is the current velocity vector of the platform, and sign(θ) is the sign of θ.

상기 플랫폼 컨트롤러가 상기 플랫폼을 조향하는 단계는, 식 (2)로 요 레이트를 계산할 수 있다.The step of the platform controller steering the platform can calculate the yaw rate using Equation (2).

, 식 (2) , Equation (2)

여기서 k는 스피드 게인이고, k는 아래의 식 (3)으로 계산된다.Here, k is the speed gain, and k is calculated by equation (3) below.

, 식 (3) , equation (3)

여기서 vr은 장애물의 상대 속도이고, Δr은 rk-r(k-1)이고, sign(Δr)은 Δr의 부호이다.Here, v r is the relative velocity of the obstacle, Δr is r k -r (k-1) , and sign(Δr) is the sign of Δr.

장애물이 상기 제3영역에 있으면, 상기 플랫폼 컨트롤러가 상기 플랫폼을 정지시키거나 상기 플랫폼을 감속하는 속도 조절 단계를 더 포함하고, 상기 속도 조절 단계는, 상기 플랫폼의 조향 여부를 결정하는 단계에서 장애물이 상기 제3영역 내에 있는 것으로 판단되면 상기 플랫폼을 조향하는 단계를 대신하여 실시되거나, 상기 플랫폼 컨트롤러가 상기 플랫폼을 조향하는 단계 후에 장애물이 상기 제3영역에 있으면 실시될 수 있다.If an obstacle is in the third area, the platform controller may further include a speed control step of stopping or slowing down the platform, and the speed control step may be performed instead of the step of steering the platform if the obstacle is determined to be in the third area in the step of determining whether to steer the platform, or may be performed if the obstacle is in the third area after the step of steering the platform by the platform controller.

본 개시의 실시예들에 따른 조향 시스템은 플랫폼, 상기 플랫폼에 장착되며 장애물에 관한 정보를 수집하는 레이더 및 상기 레이더로부터 전달받은 장애물에 관한 정보에 기반해 상기 플랫폼을 조작하는 플랫폼 컨트롤러를 포함하고, 상기 플랫폼 컨트롤러는, 상기 레이더가 수집한 장애물에 관한 정보에 기반해 컨트롤러가 상기 플랫폼의 조향 여부를 결정하며, 상기 플랫폼을 조향하고, 상기 플랫폼 컨트롤러는, 장애물이 제1영역에 있거나 상기 제1영역보다 밖에 있으면 상기 플랫폼을 조향하지 않고, 장애물이 제2영역에 있으면 장애물이 제3영역으로 진입하지 않도록 상기 플랫폼을 조향하고, 상기 플랫폼 컨트롤러는, 상기 플랫폼이 장애물로부터 멀어지도록 조향하기 위한 요 레이트를 계산하고, 계산된 요 레이트에 대응되도록 상기 플랫폼을 조향할 수 있다. 여기서 제1영역, 제2영역 및 제3영역은 아래와 같다. (i) 상기 레이더의 최대 감지 거리인 상기 제1거리 및 상기 제1거리보다 작은 제2거리로 구획되는 제1영역 (ii) 상기 제2거리 및 상기 제2거리보다 작은 제3거리로 구획되는 제2영역 (iii) 상기 제3거리로 구획되는 제3영역A steering system according to embodiments of the present disclosure includes a platform, a radar mounted on the platform that collects information about an obstacle, and a platform controller that operates the platform based on information about the obstacle received from the radar, wherein the platform controller determines whether to steer the platform based on the information about the obstacle collected by the radar, and steers the platform, and the platform controller does not steer the platform if the obstacle is in a first area or outside the first area, and steers the platform if the obstacle is in a second area so that the obstacle does not enter a third area, and the platform controller calculates a yaw rate for steering the platform away from the obstacle, and steers the platform so as to correspond to the calculated yaw rate. Here, the first area, the second area, and the third area are as follows. (i) a first area divided into the first distance, which is the maximum detection distance of the radar, and a second distance smaller than the first distance; (ii) a second area divided into the second distance and a third distance smaller than the second distance; (iii) a third area divided into the third distance;

상기 플랫폼 컨트롤러는 상기 플랫폼과 장애물의 거리, 장애물의 방위각 및 장애물과 상기 플랫폼의 상대 속도를 포함하는 장애물에 관한 정보에 기반해, 요 레이트를 계산할 수 있다.The platform controller can calculate the yaw rate based on information about the obstacle, including the distance between the platform and the obstacle, the azimuth of the obstacle, and the relative velocity of the obstacle and the platform.

상기 플랫폼 컨트롤러는, 식 (1)로 요 레이트를 계산할 수 있다.The above platform controller can calculate the rate using Equation (1).

, 식 (1) , Equation (1)

여기서 wz는 각속도 벡터(요 레이트), r은 감지한 장애물까지의 거리, r3는 제3거리, θ는 감지한 장애물의 방위 각도, r2는 제2거리, v는 현재의 플랫폼의 속도 벡터이고, sign(θ)는 θ의 부호이다.Here, w z is the angular velocity vector (yaw rate), r is the distance to the detected obstacle, r3 is the third distance, θ is the azimuth angle of the detected obstacle, r2 is the second distance, v is the current velocity vector of the platform, and sign(θ) is the sign of θ.

상기 플랫폼 컨트롤러는, 식 (2)로 요 레이트를 계산할 수 있다.The above platform controller can calculate the rate using Equation (2).

, 식 (2) , Equation (2)

여기서 k는 스피드 게인이고, k는 아래의 식 (3)으로 계산된다.Here, k is the speed gain, and k is calculated by equation (3) below.

, 식 (3) , equation (3)

여기서 vr은 장애물의 상대 속도이고, Δr은 rk-r(k-1)이고, sign(Δr)은 Δr의 부호이다.Here, v r is the relative velocity of the obstacle, Δr is r k -r (k-1) , and sign(Δr) is the sign of Δr.

상기 플랫폼 컨트롤러는, 장애물이 상기 제3영역에 있으면 상기 플랫폼을 정지시키거나 감속하는 속도 조절 동작을 실시하고, 상기 플랫폼 컨트롤러는, 상기 플랫폼의 조향 여부를 결정할 때 장애물이 상기 제3영역에 있는 것으로 판단되면 상기 플랫폼을 조향하지 않고 상기 속도 조절 동작을 실시하거나, 상기 플랫폼을 조향한 후에 장애물이 상기 제3영역에 있으면 상기 속도 조절 동작을 실시할 수 있다.The platform controller performs a speed control operation to stop or slow down the platform when an obstacle is in the third area, and when determining whether to steer the platform, the platform controller may perform the speed control operation without steering the platform when it is determined that an obstacle is in the third area, or may perform the speed control operation when the obstacle is in the third area after steering the platform.

본 개시의 실시예들에 따른 파노라믹 레이더는 복수 개의 센서가 레이더의 둘레 방향으로 배열되며, 전방위에 걸쳐 주변의 물체와 사람 등을 감지할 수 있다. 본 개시의 실시예들에 따른 파노라믹 레이더는 밀리미터파를 이용하는 FMCW 레이더로서 주변의 물체 또는 사람의 위치, 속도 등을 감지할 수 있다. 본 개시의 실시예들에 따른 파노라믹 레이더는 센서들의 감지 영역이 방위각 방향으로 중첩되거나 적어도 경계가 서로 맞닿아 사각 영역을 줄일 수 있으며, 넓은 감지 범위가 긴 감지 거리를 확보할 수 있다. 본 개시의 실시예들에 따른 파노라믹 레이더는 센서에 포함된 송신기와 수신기가 다양한 배열을 가져, 감지 정밀도를 높일 수 있다. 본 개시의 실시예들에 따른 파노라믹 레이더는 다양한 형태의 로봇 또는 매니퓰레이터에 범용적으로 적용될 수 있다.Panoramic radar according to embodiments of the present disclosure has multiple sensors arranged in the circumferential direction of the radar, and can detect surrounding objects and people in all directions. Panoramic radar according to embodiments of the present disclosure is an FMCW radar using millimeter waves, and can detect the position, speed, etc. of surrounding objects or people. Panoramic radar according to embodiments of the present disclosure can reduce blind spots by having detection areas of sensors overlap in the azimuth direction or at least have their boundaries touch each other, and can secure a wide detection range and a long detection distance. Panoramic radar according to embodiments of the present disclosure can increase detection precision by having transmitters and receivers included in the sensors in various arrangements. Panoramic radar according to embodiments of the present disclosure can be universally applied to various types of robots or manipulators.

본 개시의 실시예들에 따른 조향 시스템 및 플랫폼의 조향 방법은 장애물에 관한 정보를 수집하고 수집된 정보에 기반해 플랫폼의 조향 여부를 결정하여 플랫폼과 장애물의 충돌을 회피하거나 플랫폼과 장애물의 충돌 충격을 줄일 수 있다.The steering system and the steering method of the platform according to the embodiments of the present disclosure can avoid collision between the platform and the obstacle or reduce the impact of collision between the platform and the obstacle by collecting information about an obstacle and determining whether to steer the platform based on the collected information.

본 개시의 실시예들에 따른 조향 시스템 및 플랫폼의 조향 방법은 장애물과 플랫폼의 거리에 따라 플랫폼의 이동 방법을 달리하여 플랫폼을 효율적으로 조작할 수 있다.The steering system and the steering method of the platform according to the embodiments of the present disclosure can efficiently operate the platform by changing the movement method of the platform depending on the distance between the obstacle and the platform.

본 개시의 실시예들에 따른 조향 시스템 및 플랫폼의 조향 방법은 플랫폼의 요 레이트를 변화시켜 플랫폼과 장애물의 충돌을 회피할 수 있다.The steering system and the steering method of the platform according to the embodiments of the present disclosure can avoid collision between the platform and an obstacle by changing the yaw rate of the platform.

본 개시의 실시예들에 따른 조향 시스템 및 플랫폼의 조향 방법은 장애물이 미리 정해진 거리 내로 진입하면 플랫폼을 감속 또는 정지하여 플랫폼과 장애물의 충돌 충격을 줄일 수 있다.The steering system and the steering method of the platform according to embodiments of the present disclosure can reduce the impact of a collision between the platform and the obstacle by decelerating or stopping the platform when the obstacle enters within a predetermined distance.

다만, 본 발명을 통해 얻을 수 있는 효과는 상술한 효과들에 제한되지 않으며, 언급되지 않은 또 다른 기술적인 효과들은 아래에 기재된 발명의 설명으로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.However, the effects that can be obtained through the present invention are not limited to the effects described above, and other technical effects that are not mentioned can be clearly understood by those skilled in the art from the description of the invention described below.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 실시예를 예시하는 것이며, 후술되는 발명의 설명과 함께 본 발명의 기술사상을 이해시키는 역할을 하는 것이다. 본 발명은 도면에 기재된 사항에 한정되어 해석되지 않는다.The following drawings, attached to this specification, illustrate embodiments of the present invention and, together with the description of the invention described below, serve to facilitate understanding of the technical concepts of the present invention. The present invention is not limited to the matters described in the drawings.

도 1은 본 개시의 실시예들에 따른 파노라믹 레이더를 포함하는 로봇을 나타낸다.FIG. 1 illustrates a robot including a panoramic radar according to embodiments of the present disclosure.

도 2는 본 개시의 실시예들에 따른 파노라믹 레이더의 사시도를 나타낸다.FIG. 2 illustrates a perspective view of a panoramic radar according to embodiments of the present disclosure.

도 3은 본 개시의 실시예들에 따른 파노라믹 레이더의 분해 사시도를 나타낸다.FIG. 3 shows an exploded perspective view of a panoramic radar according to embodiments of the present disclosure.

도 4는 본 개시의 실시예들에 따른 파노라믹 레이더의 평면도를 개략적으로 나타낸다.FIG. 4 schematically illustrates a plan view of a panoramic radar according to embodiments of the present disclosure.

도 5는 본 개시의 실시예들에 따른 파노라믹 레이더의 측면도를 개략적으로 나타낸다.FIG. 5 schematically illustrates a side view of a panoramic radar according to embodiments of the present disclosure.

도 6은 본 개시의 실시예들에 따른 센서의 배열을 나타낸다.Figure 6 illustrates an arrangement of sensors according to embodiments of the present disclosure.

도 7은 본 개시의 실시예들에 따른 제1센서 어레이 및 제2센서 어레이의 동작을 나타낸다.FIG. 7 illustrates the operation of the first sensor array and the second sensor array according to embodiments of the present disclosure.

도 8은 본 개시의 실시예들에 따른 파노라믹 레이더의 동작을 나타낸다.FIG. 8 illustrates the operation of a panoramic radar according to embodiments of the present disclosure.

도 9 및 도 10은 본 개시의 실시예들에 따른 센서 컨트롤러와 센서의 배열을 나타낸다.FIGS. 9 and 10 illustrate arrangements of sensor controllers and sensors according to embodiments of the present disclosure.

도 11은 도 10에 따른 본 개시의 실시예들에 따른 센서 컨트롤러 및 센서가 바디에 장착된 상태를 나타낸다.FIG. 11 illustrates a state in which a sensor controller and a sensor according to embodiments of the present disclosure according to FIG. 10 are mounted on a body.

도 12 내지 도 18은 본 개시의 실시예들에 따른 다른 형태의 센서 배열을 나타낸다.Figures 12 to 18 illustrate other types of sensor arrays according to embodiments of the present disclosure.

도 19은 본 개시의 실시예들에 따른 레이더 및 플랫폼과 그 주변에 구획된 복수 개의 영역을 나타낸다.FIG. 19 illustrates a radar and a platform and a plurality of zones defined around the radar and the platform according to embodiments of the present disclosure.

도 20, 도 21 및 도 22은 본 개시의 실시예들에 따른 장애물의 위치에 따른 플랫폼 컨트롤러의 제어 동작을 나타낸다.FIG. 20, FIG. 21 and FIG. 22 illustrate control operations of a platform controller according to the location of an obstacle according to embodiments of the present disclosure.

도 23은 본 개시의 실시예들에 따른 조향 시스템의 전체적인 제어 단계를 나타낸다.Figure 23 shows the overall control steps of the steering system according to embodiments of the present disclosure.

도 24는 본 개시의 실시예들에 따른 조향 시스템의 속도 제어 단계를 나타낸다.Figure 24 illustrates a speed control step of a steering system according to embodiments of the present disclosure.

도 25는 본 개시의 실시예들에 따른 조향 시스템의 제어에 관한 일 실시예를 나타낸다.FIG. 25 illustrates an embodiment of control of a steering system according to embodiments of the present disclosure.

본 개시의 실시예들에 따른 파노라믹 레이더는 로봇의 암에 장착되는 바디, 상기 바디에 수용되는 센서 컨트롤러, 상기 센서 컨트롤러와 각각 연결되는 복수 개의 센서 및 상기 바디 및 상기 센서 컨트롤러와 연결되며 외부 장치와 통신하는 통신 컨트롤러를 포함하고, 상기 센서 컨트롤러는 상기 복수 개의 센서가 송수신한 신호에 기반해 주변에 있는 물체의 위치 및 속도를 계산하고, 상기 복수 개의 센서는 상기 바디의 둘레를 따라 배열되며 각각의 감지 영역이 중첩되거나 각각의 감지 영역의 경계가 서로 맞닿아 있을 수 있다.A panoramic radar according to embodiments of the present disclosure includes a body mounted on an arm of a robot, a sensor controller accommodated in the body, a plurality of sensors each connected to the sensor controller, and a communication controller connected to the body and the sensor controller and communicating with an external device, wherein the sensor controller calculates a position and a velocity of an object in the vicinity based on signals transmitted and received by the plurality of sensors, and the plurality of sensors are arranged along the periphery of the body, and each detection area may overlap or the boundaries of each detection area may be in contact with each other.

본 개시의 실시예들에 따른 플랫폼의 조향 방법은 플랫폼에 장착된 레이더가 장애물에 관한 정보를 수집하는 단계, 수집된 정보에 기반해 플랫폼 컨트롤러가 상기 플랫폼의 조향 여부를 결정하는 단계 및 상기 플랫폼 컨트롤러가 상기 플랫폼을 조향하는 단계를 포함하고, 상기 플랫폼의 조향 여부를 결정하는 단계는, 장애물이 제1영역에 있거나 상기 제1영역보다 밖에 있으면 상기 플랫폼을 조향하지 않고, 장애물이 제2영역에 있으면 장애물이 제3영역으로 진입하지 않도록 상기 플랫폼을 조향하고, 상기 플랫폼을 조향하는 단계는, 상기 플랫폼 컨트롤러가 상기 플랫폼이 장애물로부터 멀어지도록 조향하기 위한 요 레이트 (yaw rate)를 계산하고, 계산된 요 레이트에 대응되도록 상기 플랫폼을 조향할 수 있다. 여기서 제1영역, 제2영역 및 제3영역은 아래와 같다. (i) 상기 레이더의 최대 감지 거리인 상기 제1거리 및 상기 제1거리보다 작은 제2거리로 구획되는 제1영역 (ii) 상기 제2거리 및 상기 제2거리보다 작은 제3거리로 구획되는 제2영역 (iii) 상기 제3거리로 구획되는 제3영역 A method for steering a platform according to embodiments of the present disclosure includes a step of collecting information about an obstacle by a radar mounted on the platform, a step of determining by the platform controller whether to steer the platform based on the collected information, and a step of steering by the platform controller, wherein the step of determining whether to steer the platform comprises not steering the platform if the obstacle is in a first area or outside the first area, and steering the platform if the obstacle is in a second area so that the obstacle does not enter a third area, and the step of steering the platform comprises calculating a yaw rate for steering the platform away from the obstacle by the platform controller, and steering the platform so as to correspond to the calculated yaw rate. Here, the first area, the second area, and the third area are as follows. (i) a first area divided into the first distance, which is a maximum detection distance of the radar, and a second distance smaller than the first distance; (ii) a second area divided into the second distance and a third distance smaller than the second distance; and (iii) a third area divided into the third distance.

본 개시의 실시예들에 따른 조향 시스템은 플랫폼, 상기 플랫폼에 장착되며 장애물에 관한 정보를 수집하는 레이더 및 상기 레이더로부터 전달받은 장애물에 관한 정보에 기반해 상기 플랫폼을 조작하는 플랫폼 컨트롤러를 포함하고, 상기 플랫폼 컨트롤러는, 상기 레이더가 수집한 장애물에 관한 정보에 기반해 컨트롤러가 상기 플랫폼의 조향 여부를 결정하며, 상기 플랫폼을 조향하고, 상기 플랫폼 컨트롤러는, 장애물이 제1영역에 있거나 상기 제1영역보다 밖에 있으면 상기 플랫폼을 조향하지 않고, 장애물이 제2영역에 있으면 장애물이 제3영역으로 진입하지 않도록 상기 플랫폼을 조향하고, 상기 플랫폼 컨트롤러는, 상기 플랫폼이 장애물로부터 멀어지도록 조향하기 위한 요 레이트를 계산하고, 계산된 요 레이트에 대응되도록 상기 플랫폼을 조향할 수 있다. 여기서 제1영역, 제2영역 및 제3영역은 아래와 같다. (i) 상기 레이더의 최대 감지 거리인 상기 제1거리 및 상기 제1거리보다 작은 제2거리로 구획되는 제1영역 (ii) 상기 제2거리 및 상기 제2거리보다 작은 제3거리로 구획되는 제2영역 (iii) 상기 제3거리로 구획되는 제3영역A steering system according to embodiments of the present disclosure includes a platform, a radar mounted on the platform that collects information about an obstacle, and a platform controller that operates the platform based on information about the obstacle received from the radar, wherein the platform controller determines whether to steer the platform based on the information about the obstacle collected by the radar, and steers the platform, and the platform controller does not steer the platform if the obstacle is in a first area or outside the first area, and steers the platform if the obstacle is in a second area so that the obstacle does not enter a third area, and the platform controller calculates a yaw rate for steering the platform away from the obstacle, and steers the platform so as to correspond to the calculated yaw rate. Here, the first area, the second area, and the third area are as follows. (i) a first area divided into the first distance, which is the maximum detection distance of the radar, and a second distance smaller than the first distance; (ii) a second area divided into the second distance and a third distance smaller than the second distance; (iii) a third area divided into the third distance;

본 개시의 실시예들과 이를 달성하는 방법들은 첨부되는 도면과 함께 실시예의 상세한 설명을 참조해 더욱 쉽게 이해될 수 있다. 이하에서 첨부된 도면을 참조하여 실시예를 상세하게 설명한다. 그러나 설명된 실시예는 다양한 변형이 가능하고 다른 형태로 구현될 수 있으며, 여기에서 설명되는 실시예로 한정하여 해석되지 않는다. 또한 본 개시의 다양한 실시예의 각각의 특징은 전체적으로 또는 부분적으로 서로 결합될 수 있으며, 기술적으로 다양한 연동 및 구동이 가능하다. 각 실시예는 서로 독립적으로 실시될 수도 있고, 결합하여 함께 실시될 수도 있다. 설명된 실시예는 본 개시가 완전해질 수 있도록, 그리고 기술 분야에서 통상의 지식을 가진 자에게 본 개시의 사상을 완전하게 전달하기 위해 예시로서 제공되는 것이다. 본 개시는 모든 변형예와 균등물을 포함하는 것으로 이해되어야 하며 본 개시의 사상 및 기술 범위 내에서 대체가 가능하다. 따라서 본 개시의 실시예들의 완전한 이해를 위해 통상의 기술자에게 필요하지 않은 과정, 구성요소 및 기술 등은 설명되지 않을 수 있다.Embodiments of the present disclosure and methods for achieving them can be more easily understood by referring to the detailed description of the embodiments together with the accompanying drawings. Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the described embodiments can be variously modified and implemented in different forms, and should not be construed as limited to the embodiments described herein. Furthermore, each feature of the various embodiments of the present disclosure can be combined with each other, in whole or in part, and various technically related and operational aspects are possible. Each embodiment can be implemented independently or in combination. The described embodiments are provided as examples so that the present disclosure can be complete and fully convey the spirit of the present disclosure to those skilled in the art. It should be understood that the present disclosure includes all modifications and equivalents, and substitutions are possible within the spirit and technical scope of the present disclosure. Therefore, processes, components, and techniques that are not necessary for a person skilled in the art to fully understand the embodiments of the present disclosure may not be described.

별도의 언급이 없는 한, 첨부된 도면 및 그 설명 전반에 걸쳐 동일한 도면부호, 문자 또는 이들의 조합은 동일한 구성요소를 나타내며, 이에 대한 설명은 생략한다. 또한 실시예를 설명함에 있어서 관계없는 부분은 설명을 명확하게 하기 위하여 도면에 도시하지 아니할 수 있다.Unless otherwise specified, the same reference numerals, letters, or combinations thereof throughout the attached drawings and their descriptions represent identical components, and their descriptions are omitted. Furthermore, in describing the embodiments, irrelevant parts may not be depicted in the drawings for clarity.

도면에 도시된 영역은 도식적이며 그 형상은 장치 영역의 실제 형상을 예시하거나 한정하지 않는다. 도면에서 요소, 층 및 영역 등의 상대적인 크기는 명확성을 위해 과장되어 도시될 수 있다. 또한 첨부된 도면에서 해칭 및/또는 음영의 사용은 일반적으로 인접한 요소 사이의 경계를 명확하게 하기 위해 제공될 수 있다. 따라서 특별히 한정하지 않는 한, 해칭이나 음영의 유무는 특정한 재료, 재료의 특성, 치수, 비율, 예시된 요소 간의 공통성 및/또는 기타 특성, 속성, 특성 등에 대한 선호도나 요구 사항을 나타내지 않는다.The areas depicted in the drawings are schematic and their shapes do not illustrate or limit the actual shape of the device area. The relative sizes of elements, layers, and areas in the drawings may be exaggerated for clarity. Furthermore, the use of hatching and/or shading in the attached drawings may generally serve to clarify boundaries between adjacent elements. Therefore, unless specifically stated otherwise, the presence or absence of hatching or shading does not imply a preference or requirement for any particular material, material properties, dimensions, proportions, commonalities between the illustrated elements, and/or any other characteristics, properties, or characteristics.

실시예 및/또는 중간 구조의 개략적 예시인 단면 예시를 참조하여 다양한 실시예가 본 명세서에서 설명된다. 예를 들어 제조 기술 및/또는 공차의 결과로 도면의 모양이 달라질 수 있다. 또한 본 명세서에 개시된 구체적인 구조적 또는 기능적 설명은 본 개시의 개념에 따른 실시예를 설명하기 위한 예시에 불과하다. 따라서 본 명세서에 개시된 실시예들은 도시된 영역의 형상에 한정되지 않고 제조 공정 등에 따른 형상의 편차를 포함하는 것으로 해석되어야 한다.Various embodiments are described herein with reference to cross-sectional examples that are schematic illustrations of embodiments and/or intermediate structures. For example, the shapes of the drawings may vary as a result of manufacturing techniques and/or tolerances. Furthermore, specific structural or functional descriptions disclosed herein are merely examples for illustrating embodiments according to the concepts of the present disclosure. Therefore, the embodiments disclosed herein should be construed as not being limited to the shapes of the illustrated regions, but rather to include variations in shape due to manufacturing processes, etc.

명세서에서 여러 실시예에 대한 이해를 위해 특정한 세부사항들이 제시될 수 있다. 또는 여러 실시예가 특정한 세부사항들 없이 또는 하나 이상의 세부사항을 포함하여 실시될 수 있다. 다른 경우에, 잘 알려진 구조 및 장치는 다양한 실시예를 불필요하게 모호하게 하는 것을 피하기 위해 블록도 형태로 도시될 수 있다.Specific details may be presented in the specification to facilitate understanding of various embodiments. Alternatively, various embodiments may be practiced without specific details or with one or more of the details. In other cases, well-known structures and devices may be shown in block diagram form to avoid unnecessarily obscuring the various embodiments.

도면에 예시된 바와 같이 하나의 요소 또는 특징과 다른 요소 또는 특징의 관계를 설명하기 위해 여기에서 설명을 쉽게 하기 위해, "아래", "위", "하부", "상부" 등과 같은 공간적으로 상대적인 용어가 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시된 방향에 추가하여 사용 또는 작동 중인 장치의 다양한 방향을 포함하도록 의도된 것이다. 예를 들어, 도면의 장치가 뒤집힌 경우 "아래" 또는 "하부"로 설명된 다른 요소 또는 특징은 다른 요소 또는 특징의 "위"를 향하게 된다. 따라서 예시적인 용어로서 "아래" 및 "하부"는 위와 아래의 방향을 모두 포함할 수 있다. 장치는 다른 방향(예를 들어, 90도 회전 또는 다른 방향)으로 향할 수 있으며 본 명세서에서 사용되는 공간적으로 상대적인 설명은 그에 따라 해석되어야 한다. 마찬가지로 제1부분이 제2부분의 "위"에 배치되어 있다고 기재한 경우, 이는 제1부분이 제2부분의 상측 또는 하측에 배치되는 것을 의미한다.To facilitate discussion herein, spatially relative terms such as "below," "above," "lower," "top," and the like may be used to describe the relationship of one element or feature to another, as illustrated in the drawings. Spatially relative terms are intended to encompass various orientations of the device in use or operation in addition to the orientations depicted in the drawings. For example, if the device in the drawings were flipped over, another element or feature described as "below" or "lower" would face "above" the other element or feature. Thus, as exemplary terms, "below" and "lower" can encompass both above and below orientations. The device can be oriented in other orientations (e.g., rotated 90 degrees or in other directions), and the spatially relative descriptions used herein should be interpreted accordingly. Similarly, if it is described that a first part is disposed "above" a second part, this means that the first part is disposed above or below the second part.

또한 "평면에서 본"이라는 표현은 물체를 위에서 본 경우를 의미하고, "개략적인 단면도에서"라는 표현은 물체를 수직 또는 수평으로 절단하여 개략적인 단면을 취한 경우를 의미한다. "측면에서 본"이라는 용어는 제1물체가 제2물체의 위 또는 아래 또는 측면에 있을 수 있고 그 반대의 경우도 가능함을 의미한다. 추가로, "겹침" 또는 "중첩"이라는 용어는 층, 적층, 면, 연장, 덮음, 또는 부분적으로 덮음 또는 통상의 기술자가 이해하고 이해할 수 있는 임의의 다른 적합한 용어를 포함할 수 있다. "겹치지 않는다"라는 표현은 "~로부터 떨어져 있는" 또는 "~로부터 이격된"과 같은 의미 및 통상의 기술자에 의해 인식되고 이해되는 임의의 다른 적합한 등가물을 포함할 수 있다. "면" 및 "표면"이라는 용어는 제1물체가 제2물체와 직접적으로 또는 간접적으로 대향할 수 있음을 의미할 수 있다. 제1물체와 제2물체 사이에 제3물체가 있는 경우, 제1물체와 제2물체는 서로 마주보지만 간접적으로 서로 대향하는 것으로 이해될 수 있다.Also, the expression "in plan view" means when an object is viewed from above, and the expression "in schematic cross-section" means when a schematic cross-section is taken by cutting the object vertically or horizontally. The term "in side view" means that the first object can be above, below, or to the side of the second object, and vice versa. Additionally, the term "overlapping" or "superimposing" can include layer, laminate, plane, extension, covering, or partially covering, or any other suitable term that a person of ordinary skill in the art would understand and understand. The expression "does not overlap" can include meanings such as "away from" or "spaced from", and any other suitable equivalents that a person of ordinary skill in the art would recognize and understand. The terms "plane" and "surface" can mean that the first object can directly or indirectly face the second object. When a third object is between a first object and a second object, the first object and the second object can be understood as facing each other but indirectly opposing each other.

요소, 층, 영역 또는 구성요소(이하 "요소 등"이라고도 함)가 다른 요소 등에 "형성된", "연결된" 또는 "결합된" 것으로 언급될 때, 이는 요소 등에 직접 형성되거나, 다른 요소 등에 형성되거나, 다른 요소 등에 간접적으로 형성되거나, 연결되거나, 결합될 수 있음을 포함한다. 또한 "형성된", "연결된" 또는 "결합된"은 하나 이상의 요소 등이 존재할 수 있도록 요소 등의 직접적이거나 간접적 결합, 또는 연결, 또는 일체형이나 비일체형 결합 또는 연결을 총칭할 수 있다. 예를 들어 요소 등이 다른 요소 등에 "전기적으로 연결된" 또는 "전기적으로 결합된" 것으로 언급될 때, 이는 다른 요소 등에 직접 전기적으로 연결되거나 결합되거나 다른 요소 등이 존재할 수 있음을 포함한다. 다만, "직접 연결" 또는 "직접 결합"이라 함은 하나의 요소 등이 중간 요소 등 없이 다른 요소 등을 직접 연결 또는 결합하거나 다른 요소 등에 있는 것을 의미한다. 또한, 본 명세서에서 층, 필름, 영역, 가이드 플레이트 등의 일부가 다른 부분에 형성되는 경우, 형성 방향은 상부 방향에 한정되지 않고, 그 부분이 측면이나 하부에 형성되는 것을 포함한다. 반대로 층, 필름, 영역, 가이드 플레이트 등의 일부가 다른 부분의 "아래"에 형성되어 있는 경우에는 그 부분이 다른 부분의 "바로 아래"에 있는 경우뿐만 아니라 부분과 다른 부분 사이에 또 다른 부분이 있는 경우를 포함한다. 한편, "사이에", "바로 사이에" 또는 "~에 인접한" 및 "~에 바로 인접한"과 같이 요소 등의 관계를 설명하는 다른 표현들도 유사하게 해석될 수 있다. 또한, 요소 등이 2개의 요소 등의 사이에 있는 것으로 언급될 때, 이는 2개의 요소 등의 사이의 유일한 요소 등이거나 그 사이에 다른 요소 등이 있을 수 있다.When an element, layer, region, or component (hereinafter also referred to as an "element, etc.") is referred to as being "formed with," "connected with," or "coupled to," another element, etc., this includes that it can be directly formed with, formed with, or indirectly formed with, connected to, or coupled to another element, etc. Furthermore, "formed with," "connected with," or "coupled" can collectively refer to direct or indirect combinations or connections, or integral or non-integral combinations or connections, of the elements, etc., such that one or more elements, etc. can be present. For example, when an element, etc. is referred to as being "electrically connected with" or "electrically coupled to" another element, etc., this includes that it can be directly electrically connected to or coupled with, or that other elements, etc. can be present. However, "direct connection" or "direct coupling" means that one element, etc. is directly connected or coupled to, or is present in, another element, etc., without any intermediate elements, etc. In addition, when a part of a layer, film, region, guide plate, etc. in the present specification is formed on another part, the formation direction is not limited to the upper direction, and includes the part being formed on the side or bottom. Conversely, when a part of a layer, film, region, guide plate, etc. is formed "under" another part, it includes not only the case where the part is "directly under" the other part, but also the case where there is another part between the part and the other part. Meanwhile, other expressions that describe the relationship of elements, etc., such as "between," "directly between," or "adjacent to" and "directly adjacent to" can be interpreted similarly. In addition, when an element, etc. is mentioned as being between two elements, etc., it can be the only element, etc. between the two elements, etc., or there can be another element, etc. between them.

"적어도 하나 이상의" 또는 "어느 하나"와 같은 표현은 개별 요소의 순서를 한정하지 않는다. 예를 들어, "X, Y 및 Z 중 적어도 하나", "X, Y 또는 Z 중 적어도 하나", "X, Y 및 Z로 이루어진 그룹으로부터 선택된 적어도 하나"는 X 단독, Y 단독, Z 단독, X, Y 및 Z 중 둘 이상의 임의의 조합을 포함할 수 있다. 유사하게, "A 및 B 중 적어도 하나" 및 "A 또는 B 중 적어도 하나"와 같은 표현은 A, B 또는 A 및 B를 포함할 수 있다. 본 명세서에서 일반적으로 "및/또는"이라는 용어는 하나 이상의 관련 목록 항목의 모든 조합을 포함한다. 예를 들어, "A 및/또는 B"와 같은 표현은 A, B 또는 A와 B를 포함할 수 있다. Expressions such as "at least one or more" or "any one" do not limit the order of the individual elements. For example, expressions such as "at least one of X, Y, and Z," "at least one of X, Y, or Z," or "at least one selected from the group consisting of X, Y, and Z" can include X alone, Y alone, Z alone, or any combination of two or more of X, Y, and Z. Similarly, expressions such as "at least one of A and B" and "at least one of A or B" can include A, B, or A and B. As used herein, the term "and/or" generally includes any combination of one or more associated list items. For example, expressions such as "A and/or B" can include A, B, or A and B.

"제1", "제2", "제3" 등의 용어가 본원에서 다양한 요소 등을 설명하기 위해 사용될 수 있지만, 이러한 요소 등은 이러한 용어에 의해 제한되지 않는다. 이러한 용어는 하나의 요소 등을 다른 요소 등과 구별하는 데 사용된다. 따라서, 아래에서 설명되는 제1의 요소 등은 본 발명의 사상 및 범위를 벗어나지 않고 제2의 등으로 지칭될 수 있다. 요소를 "제1" 요소로 설명하는 것은 제2 요소 또는 다른 요소의 존재를 요구하거나 암시하지 않을 수 있다. "제1", "제2" 등의 용어는 상이한 카테고리 또는 요소 등의 세트를 구별하기 위해 본 명세서에서 사용될 수도 있다. 명확하게 표현하기 위해, "제1", "제2" 등의 용어는 각각 "제1 카테고리(또는 제1 세트)", "제2 카테고리(또는 제2 세트)" 등을 나타낼 수 있다.Although terms such as "first," "second," "third," etc. may be used herein to describe various elements, etc., such elements, etc. are not limited by such terms. These terms are used to distinguish one element, etc. from other elements, etc. Accordingly, a first element, etc. described below may be referred to as a second element, etc., without departing from the spirit and scope of the present invention. Describing an element as a "first" element may not require or imply the presence of a second element or other elements. Terms such as "first," "second," etc. may also be used herein to distinguish different categories or sets of elements, etc. For clarity, terms such as "first," "second," etc. may represent "a first category (or first set)," "a second category (or second set)," etc., respectively.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 본 명세서에서 사용된 단수 표현은 복수 표현도 포함할 수 있으며, 복수 표현도 문맥상 명백하게 달리 나타내지 않는 한 단수형을 포함할 수 있다. "포함하다", "구비하다", "가지다"라는 용어는 본 명세서에서 사용될 때 명시된 특징, 정수, 단계의 존재를 지정하는 것을 의미한다. 이들 표현은 하나 이상의 다른 기능, 단계, 동작, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the present disclosure. As used herein, the singular forms may also include the plural forms, and the plural forms may also include the singular form, unless the context clearly dictates otherwise. The terms "comprise," "include," and "have," when used herein, are meant to specify the presence of specified features, integers, or steps. These expressions do not exclude the presence or addition of one or more other functions, steps, operations, components, and/or groups thereof.

하나 이상의 실시예가 다르게 구현될 수 있는 경우, 특정 프로세스 순서는 설명된 순서와 다르게 수행될 수 있다. 예를 들어, 연속하여 설명되는 두 개의 공정이 실질적으로 동시에 수행되거나 설명된 순서와 반대의 순서로 수행될 수 있다.If one or more embodiments can be implemented differently, a particular process sequence may be performed differently from the order described. For example, two processes described in succession may be performed substantially simultaneously or in the reverse order from the described order.

용어 "실질적으로", "약", "대략" 및 이와 유사한 용어는 정도의 용어가 아니라 근사의 용어로 사용되며, 측정되거나 계산된 값의 내재적 편차(예를 들어 측정 시스템의 한계로 인한 편차 범위) 범위를 만족함을 의미한다. 예를 들어, "약"은 하나 이상의 표준 편차 이내 또는 명시된 값의 ±30%, ±20%, ±10%, ±5% 이내를 의미할 수 있다. The terms "substantially," "about," "approximately," and similar terms are used as terms of approximation, not degree, and imply that the measured or calculated value satisfies the inherent range of variation (e.g., variation due to limitations of the measurement system). For example, "about" could mean within one or more standard deviations, or within ±30%, ±20%, ±10%, or ±5% of the stated value.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의된 용어와 같은 용어는 관련 기술 및/또는 본 명세서의 맥락에서 그 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 여기에서 명시적으로 정의되지 않는 한 이상화되거나 지나치게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention pertains. Terms defined in commonly used dictionaries, for example, should be interpreted as having a meaning consistent with their meaning in the relevant art and/or the context of this specification, and will not be interpreted in an idealized or overly formal sense unless explicitly defined herein.

도 1은 파노라믹 레이더(10)를 포함하는 조향 시스템(1)을 나타내고, 도 2는 파노라믹 레이더(10)의 사시도를 나타내고, 도 3은 파노라믹 레이더(10)의 분해 사시도를 나타내고, 도 4는 파노라믹 레이더(10)의 평면도를 개략적으로 나타내고, 도 5는 파노라믹 레이더(10)의 측면도를 개략적으로 나타내고, 도 6은 센서(300)의 배열을 나타내고, 도 7은 제1센서 어레이(301) 및 제2센서 어레이(302)의 동작을 나타내고, 도 8은 파노라믹 레이더(10)의 동작을 나타내고, 도 9 및 도 10은 센서 컨트롤러(200)와 센서(300)의 배열을 나타내고, 도 11은 도 10에 따른 센서 컨트롤러(200) 및 센서(300)가 바디(100)에 장착된 상태를 나타낸다.FIG. 1 shows a steering system (1) including a panoramic radar (10), FIG. 2 shows a perspective view of the panoramic radar (10), FIG. 3 shows an exploded perspective view of the panoramic radar (10), FIG. 4 shows a schematic plan view of the panoramic radar (10), FIG. 5 shows a schematic side view of the panoramic radar (10), FIG. 6 shows an arrangement of a sensor (300), FIG. 7 shows the operation of a first sensor array (301) and a second sensor array (302), FIG. 8 shows the operation of the panoramic radar (10), FIGS. 9 and 10 show an arrangement of a sensor controller (200) and a sensor (300), and FIG. 11 shows a state in which a sensor controller (200) and a sensor (300) according to FIG. 10 are mounted on a body (100).

파노라믹 레이더(10, 이하 '레이더(10)'라고도 함)는 조향 시스템(1)에 포함되어 조향 시스템(1) 주위의 환경을 감지할 수 있다. 예를 들어 도 1에 나타낸 바와 같이, 레이더(10)는 조향 시스템(1)의 플랫폼(30)에 장착될 수 있다. 여기서 플랫폼(30)은 협동 로봇으로서 다축(예를 들어 6축) 병진/회전 운동이 가능하며 말단부에 EOAT (End Of Arm Tool, (40))이 장착될 수 있다. 도면에는 레이더(10)가 플랫폼(30)에 연결된 EOAT(40)(예를 들어 플랫폼(30)의 말단부)에 있는 것으로 나타냈으나, 레이더(10)는 플랫폼(30)의 다른 관절 부위에 있을 수도 있다. 또는 플랫폼(30)은 유/무인 자동차, AGV, 선박, 항공기 등 여러 모빌리티를 포함할 수 있다.A panoramic radar (10, hereinafter also referred to as 'radar (10)') is included in the steering system (1) and can detect the environment around the steering system (1). For example, as shown in FIG. 1, the radar (10) may be mounted on a platform (30) of the steering system (1). Here, the platform (30) is a collaborative robot capable of multi-axis (e.g., 6-axis) translational/rotatory movement and may be equipped with an EOAT (End Of Arm Tool, (40)) at the distal end. Although the drawing shows that the radar (10) is at the EOAT (40) connected to the platform (30) (e.g., at the distal end of the platform (30)), the radar (10) may be at another joint part of the platform (30). Alternatively, the platform (30) may include various mobility such as manned/unmanned vehicles, AGVs, ships, and aircraft.

조향 시스템(1)은 레이더(10), 플랫폼 컨트롤러(20), 플랫폼(30) 및 EOAT(40)를 포함할 수 있다.The steering system (1) may include a radar (10), a platform controller (20), a platform (30), and an EOAT (40).

레이더(10)는 조향 시스템(1)에 포함되며 조향 시스템(1) 주위의 사람이나 물체 등을 감지할 수 있다. 예를 들어 도 1에 나타낸 바와 같이, 레이더(10)는 플랫폼(30)에 장착되며 플랫폼(30)이 회전하거나 움직일 때 주위에 있는 사람이나 물체 등을 감지해 플랫폼 컨트롤러(20)로 감지된 정보를 전달하여, 충돌이나 간섭을 예방할 수 있다. 예를 들어 레이더(10)는 FMCW 레이더일 수 있다. 레이더(10)의 주파수는 0.1kHz 내지 1,000kHz일 수 있다. 예를 들어 레이더(10)의 주파수는 1kHZ일 수 있다. 레이더(10)는 장애물과 레이더(10)의 거리, 장애물의 속도, 장애물의 위치(각도) 등에 관한 정보를 수집해 플랫폼 컨트롤러(20)로 전달할 수 있다.The radar (10) is included in the steering system (1) and can detect people or objects around the steering system (1). For example, as shown in FIG. 1, the radar (10) is mounted on the platform (30) and detects people or objects around the platform (30) when the platform (30) rotates or moves, and transmits the detected information to the platform controller (20), thereby preventing collisions or interference. For example, the radar (10) may be an FMCW radar. The frequency of the radar (10) may be 0.1 kHz to 1,000 kHz. For example, the frequency of the radar (10) may be 1 kHz. The radar (10) can collect information about the distance between an obstacle and the radar (10), the speed of the obstacle, the position (angle) of the obstacle, and transmit the collected information to the platform controller (20).

레이더(10)는 방위각 방향(azimuth direction)과 고도 방향(elevation direction)으로 주위의 사람이나 물체를 감지할 수 있다. 여기서 방위각 방향은 레이더(10)의 높이 방향으로의 중심축과 수직인 평면 방향을 의미하고, 고도 방향은 레이더(10)의 높이 방향을 의미할 수 있다. 레이더(10)는 방위각 방향으로 전방위에 걸쳐 사람이나 물체를 감지할 수 있다. 예를 들어 레이더(10)는 방위각 방향으로 360도의 감지 영역을 가질 수 있다. 따라서 레이더(10)는 방위각 방향으로 사각 지대 없이 주변의 사람이나 물체를 감지할 수 있다. 범용성을 위해 레이더(10)는 납작한 원통 형상을 가질 수 있다. 따라서 다양한 종류와 크기의 플랫폼(30)에 쉽게 장착될 수 있다. 레이더(10)는 플랫폼(30)의 주위에 있는 장애물 등에 관한 정보를 수집할 수 있다. 예를 들어 레이더(10)는 장애물의 방위각 방향으로의 각도 및/또는 고도 방향으로의 각도에 관한 정보를 수집할 수 있다. 레이더(10)는 그 자체로 장애물을 감지하고 감지된 장애물의 정보를 계산 및/또는 수집할 수 있다. 또는 레이더(10)는 장애물을 감지하고 플랫폼 컨트롤러(20)에 신호를 전달하며, 플랫폼 컨트롤러(20)는 수신한 신호에 기반해 장애물의 정보를 계산할 수 있다. 플랫폼 컨트롤러(20)는 장애물의 거리, 장애물의 각도(위치) 및 장애물의 상대 속도 등을 고려해 플랫폼(30)을 방향을 조정(조향)하거나 속도를 조절할 수 있다.The radar (10) can detect people or objects in the surroundings in the azimuth direction and the elevation direction. Here, the azimuth direction refers to a plane direction perpendicular to the central axis of the radar (10) in the height direction, and the elevation direction may refer to the height direction of the radar (10). The radar (10) can detect people or objects in all directions in the azimuth direction. For example, the radar (10) can have a detection area of 360 degrees in the azimuth direction. Therefore, the radar (10) can detect people or objects in the surroundings without any blind spots in the azimuth direction. For versatility, the radar (10) can have a flat cylindrical shape. Therefore, it can be easily mounted on platforms (30) of various types and sizes. The radar (10) can collect information about obstacles around the platform (30). For example, the radar (10) can collect information about the angle of the obstacle in the azimuth direction and/or the angle of the obstacle in the elevation direction. The radar (10) can detect obstacles on its own and calculate and/or collect information about the detected obstacles. Alternatively, the radar (10) can detect obstacles and transmit signals to the platform controller (20), and the platform controller (20) can calculate information about the obstacle based on the received signals. The platform controller (20) can adjust the direction (steering) or control the speed of the platform (30) by considering the distance to the obstacle, the angle (position) of the obstacle, and the relative speed of the obstacle.

예를 들어 레이더(10)는 조향 시스템(1)의 플랫폼(30)에 장착되는 바디(100), 바디(100)에 수용되는 센서 컨트롤러(200), 센서 컨트롤러(200)와 각각 연결되는 복수 개의 센서(300) 및 바디(100) 및 센서 컨트롤러(200)와 연결되며 외부 장치와 통신하는 통신 컨트롤러(400)를 포함하고, 센서 컨트롤러(200)는 복수 개의 센서(300)가 송수신한 신호에 기반해 주변에 있는 물체의 위치(또는 각도) 및 속도를 계산하고, 복수 개의 센서(300)는 바디(100)의 둘레를 따라 배열되며 각각의 감지 영역(SA)이 중첩되거나 각각의 감지 영역(SA)의 경계가 서로 맞닿아 있을 수 있다.For example, the radar (10) includes a body (100) mounted on a platform (30) of a steering system (1), a sensor controller (200) accommodated in the body (100), a plurality of sensors (300) each connected to the sensor controller (200), and a communication controller (400) connected to the body (100) and the sensor controller (200) and communicating with an external device, and the sensor controller (200) calculates the position (or angle) and speed of an object in the vicinity based on signals transmitted and received by the plurality of sensors (300), and the plurality of sensors (300) are arranged along the periphery of the body (100), and each detection area (SA) may overlap or the boundaries of each detection area (SA) may be in contact with each other.

레이더(10)는 바디(100), 센서 컨트롤러(200), 센서(300), 통신 컨트롤러(400), 커넥터(500) 및 커버(600)를 포함할 수 있다.The radar (10) may include a body (100), a sensor controller (200), a sensor (300), a communication controller (400), a connector (500), and a cover (600).

바디(100)는 레이더(10)의 다른 구성요소(예를 들어 센서 컨트롤러(200), 센서(300), 통신 컨트롤러(400), 커넥터(500) 및 커버(600))를 보유 또는 지지할 수 있다. 예를 들어 도 3 및 도 4에 나타낸 바와 같이, 바디(100)는 납작한 원통 형상을 가질 수 있다. 바디(100)의 내부에는 센서 컨트롤러(200) 및 통신 컨트롤러(400)가 수용되며, 바디(100)의 외주면에는 복수 개의 센서(300)가 장착될 수 있다. 또한 바디(100)에는 커넥터(500) 및 커버(600)가 장착될 수 있다. 다만 바디(100)의 형상은 플랫폼(30) 또는 EOAT(40)의 형상과 크기에 따라 달라질 수 있으며, 예를 들어 직육면체와 같은 다면체 형상을 가질 수 있다.The body (100) may hold or support other components of the radar (10) (e.g., a sensor controller (200), a sensor (300), a communication controller (400), a connector (500), and a cover (600)). For example, as shown in FIGS. 3 and 4 , the body (100) may have a flat cylindrical shape. A sensor controller (200) and a communication controller (400) are accommodated inside the body (100), and a plurality of sensors (300) may be mounted on the outer surface of the body (100). In addition, a connector (500) and a cover (600) may be mounted on the body (100). However, the shape of the body (100) may vary depending on the shape and size of the platform (30) or the EOAT (40), and may have, for example, a polyhedral shape such as a rectangular parallelepiped.

바디(100)는 내부 공간(110), 리브(120), 제1바디보스(130), 제2바디보스(140) 및 안착홈(150)을 포함할 수 있다.The body (100) may include an internal space (110), a rib (120), a first body boss (130), a second body boss (140), and a mounting groove (150).

내부 공간(110)은 바디(100)의 외벽에 둘러싸여 그 내측에 구획된 공간으로서, 센서 컨트롤러(200), 통신 컨트롤러(400) 및 센서 컨트롤러(200)와 통신 컨트롤러(400)가 연결되는 배선 등이 수용될 수 있다. 내부 공간(110)은 바디(100)의 내측면과 저면에 의해 구획되며 리브(120), 제1바디보스(130), 제2바디보스(140)가 내부 공간(110)에 있을 수 있다.The internal space (110) is a space surrounded by the outer wall of the body (100) and partitioned on the inside thereof, and can accommodate a sensor controller (200), a communication controller (400), and wiring connecting the sensor controller (200) and the communication controller (400). The internal space (110) is partitioned by the inner surface and the bottom surface of the body (100), and a rib (120), a first body boss (130), and a second body boss (140) can be located in the internal space (110).

리브(120)는 바디(100)의 중심부에 있으며 통신 컨트롤러(400)를 지지할 수 있다. 예를 들어 도 3에 나타낸 바와 같이, 리브(120)는 바디(100)의 저면에서 위로 돌출되며 원형 형상을 가질 수 있다. 리브(120)의 내측에는 복수 개의 제1바디보스(130)가 있으며, 통신 컨트롤러(400)가 제1바디보스(130)와 연결된 상태에서 리브(120)의 상면이 통신 컨트롤러(400)의 하면을 지지할 수 있다. 따라서 통신 컨트롤러(400)가 바디(100)의 저면에서 이격되고, 바디(100)의 진동 또는 충격으로부터 통신 컨트롤러(400)를 보호할 수 있다.The rib (120) is located at the center of the body (100) and can support the communication controller (400). For example, as shown in FIG. 3, the rib (120) may protrude upward from the bottom surface of the body (100) and have a circular shape. There are a plurality of first body bosses (130) on the inside of the rib (120), and the upper surface of the rib (120) can support the lower surface of the communication controller (400) when the communication controller (400) is connected to the first body bosses (130). Therefore, the communication controller (400) can be spaced apart from the bottom surface of the body (100) and the communication controller (400) can be protected from vibration or shock of the body (100).

제1바디보스(130)는 통신 컨트롤러(400)와 연결될 수 있다. 예를 들어 도 3에 나타낸 바와 같이, 제1바디보스(130)는 복수 개의 제1바디보스(130)를 포함하며, 리브(120)에 의해 구획된 영역에 있을 수 있다. 복수 개의 제1바디보스(130)는 바디(100)의 저면에서 위로 돌출되며, 통신 컨트롤러(400)의 복수 개의 제2기판홀(420)에 각각 삽입될 수 있다. 따라서 통신 컨트롤러(400)의 위치가 결정되고 통신 컨트롤러(400)가 제1바디보스(130)에 지지될 수 있다. 제1바디보스(130)의 내측에는 나사산이 형성되어, 제1바디보스(130)와 제2기판홀(420)이 나사 결합될 수 있다.The first body boss (130) can be connected to the communication controller (400). For example, as shown in FIG. 3, the first body boss (130) includes a plurality of first body bosses (130) and can be located in an area partitioned by a rib (120). The plurality of first body bosses (130) protrude upward from the bottom surface of the body (100) and can be inserted into a plurality of second substrate holes (420) of the communication controller (400), respectively. Accordingly, the position of the communication controller (400) can be determined and the communication controller (400) can be supported by the first body boss (130). Screw threads are formed on the inside of the first body boss (130), so that the first body boss (130) and the second substrate hole (420) can be screw-coupled.

제2바디보스(140)는 센서 컨트롤러(200)와 연결될 수 있다. 예를 들어 도 3에 나타낸 바와 같이, 제2바디보스(140)는 복수 개의 제2바디보스(140)를 포함하며, 리브(120)와 바디(100)의 외벽 사이에 있을 수 있다. 복수 개의 제2바디보스(140)는 바디(100)의 저면에서 위로 돌출되며, 센서 컨트롤러(200)의 복수 개의 제1기판홀(220)에 각각 삽입될 수 있다. 예를 들어 제2바디보스(140)는 제1기판홀(220)을 통과한 후 상단이 및 커버(600)의 커버홀(620)에 대응되는 커버(600)의 하면과 접촉할 수 있다. 따라서 센서 컨트롤러(200)의 위치가 결정되고 센서 컨트롤러(200)가 제2바디보스(140)에 지지될 수 있다. 제2바디보스(140)의 내측에는 나사산이 형성되어, 제2바디보스(140), 제1기판홀(220) 및 커버홀(620)이 나사 결합될 수 있다. 예를 들어 제2바디보스(140)는 리브(120) 및 제1바디보스(130)보다 높은 높이를 가질 수 있다. 따라서 통신 컨트롤러(400) 및 센서 컨트롤러(200)가 서로 간섭하지 않고 레이더(10)의 높이 방향으로 이격된 상태에서 적층될 수 있다.The second body boss (140) may be connected to the sensor controller (200). For example, as shown in FIG. 3, the second body boss (140) may include a plurality of second body bosses (140) and may be located between the rib (120) and the outer wall of the body (100). The plurality of second body bosses (140) may protrude upward from the bottom surface of the body (100) and may be inserted into a plurality of first substrate holes (220) of the sensor controller (200), respectively. For example, the second body boss (140) may pass through the first substrate hole (220) and then come into contact with the lower surface of the cover (600) corresponding to the cover hole (620) of the cover (600). Accordingly, the position of the sensor controller (200) may be determined and the sensor controller (200) may be supported by the second body boss (140). A screw thread is formed on the inner side of the second body boss (140), so that the second body boss (140), the first substrate hole (220), and the cover hole (620) can be screw-connected. For example, the second body boss (140) can have a higher height than the rib (120) and the first body boss (130). Accordingly, the communication controller (400) and the sensor controller (200) can be stacked while being spaced apart in the height direction of the radar (10) without interfering with each other.

안착홈(150)은 바디(100)의 외벽에 복수 개 형성될 수 있다. 예를 들어 도 3에 나타낸 바와 같이, 복수 개의 안착홈(150)은 바디(100)의 외벽의 상면을 따라 형성되며 커버(600)의 복수 개의 커버 돌기(610)를 각각 수용할 수 있다. 예를 들어 복수 개의 안착홈(150)은 복수 개의 제1바디보스(130) 및 복수 개의 제2바디보스(140)보다 레이더(10)의 반경 방향으로 더 외측에 있을 수 있다. 안착홈(150)은 제3체결홀(151)을 포함할 수 있다. 제3체결홀(151)은 안착홈(150)마다 각각 형성되며, 커버 돌기(610)의 돌기홀(611)과 나사 결합될 수 있다.A plurality of mounting grooves (150) may be formed on the outer wall of the body (100). For example, as shown in FIG. 3, the plurality of mounting grooves (150) are formed along the upper surface of the outer wall of the body (100) and may each accommodate a plurality of cover protrusions (610) of the cover (600). For example, the plurality of mounting grooves (150) may be located further outward in the radial direction of the radar (10) than the plurality of first body bosses (130) and the plurality of second body bosses (140). The mounting grooves (150) may include a third fastening hole (151). The third fastening hole (151) is formed in each mounting groove (150) and may be screw-coupled with the protrusion hole (611) of the cover protrusion (610).

센서 컨트롤러(200)는 센서(300)와 연결되며 센서(300)가 감지한 신호에 기반해 레이더(10) 주변의 물체 또는 사람의 위치(또는 각도), 속도, 거리 등을 계산할 수 있다. 예를 들어 센서 컨트롤러(200)는 바디(100)의 내부 공간(110)에 수용 및 지지되며, 센서(300)가 감지한 신호를 전달받을 수 있다. 또한 센서 컨트롤러(200)는 통신 컨트롤러(400)와 연결되며, 통신 컨트롤러(400)를 통해 플랫폼 컨트롤러(20) 등 외부 장치와 통신할 수 있다. 예를 들어 센서 컨트롤러(200)는 센서(300)가 감지한 신호에 기반해 주변의 물체 또는 사람의 위치 및 거리 등을 계산한 후 통신 컨트롤러(400)로 전달하고, 통신 컨트롤러(400)는 전달받은 계산값을 플랫폼 컨트롤러(20)로 전달할 수 있다. 또한 플랫폼 컨트롤러(20)가 통신 컨트롤러(400)를 통해 센서 컨트롤러(200)로 제어 신호를 전달할 수 있다.The sensor controller (200) is connected to the sensor (300) and can calculate the position (or angle), speed, distance, etc. of an object or person around the radar (10) based on the signal detected by the sensor (300). For example, the sensor controller (200) is accommodated and supported in the internal space (110) of the body (100) and can receive the signal detected by the sensor (300). In addition, the sensor controller (200) is connected to the communication controller (400) and can communicate with an external device such as a platform controller (20) through the communication controller (400). For example, the sensor controller (200) calculates the position and distance, etc. of an object or person around the sensor based on the signal detected by the sensor (300) and then transmits the calculated value to the communication controller (400), and the communication controller (400) can transmit the received calculated value to the platform controller (20). In addition, the platform controller (20) can transmit a control signal to the sensor controller (200) through the communication controller (400).

센서 컨트롤러(200)는 제1기판(210) 및 제1기판홀(220)을 포함할 수 있다.The sensor controller (200) may include a first substrate (210) and a first substrate hole (220).

제1기판(210)은 각종 전자 부품 및 회로 패턴을 포함하는 기판으로서, 예를 들어 인쇄 회로 기판일 수 있다. 도 3에는 제1기판(210)을 원형으로 나타냈으나, 제1기판(210)은 바디(100) 또는 레이더(10)의 형상과 크기에 따라 다양한 형상을 가질 수 있다. 제1기판(210)은 제2체결홀(211)을 포함할 수 있다. 예를 들어 도 3에 나타낸 바와 같이, 제2체결홀(211)은 복수 개의 제2체결홀(211)을 포함하며, 복수 개의 제2체결홀(211)은 제1기판홀(220)보다 제1기판(210)의 반경 방향으로 내측에 형성될 수 있다. 복수 개의 제2체결홀(211)은 제1바디보스(130) 및 제2기판홀(420)에 대응되며, 볼트 등의 체결부재가 제2체결홀(211)에 삽입되어 제2기판홀(420)을 지나 제1바디보스(130)에 체결될 수 있다.The first substrate (210) is a substrate including various electronic components and circuit patterns, and may be, for example, a printed circuit board. In FIG. 3, the first substrate (210) is shown as a circle, but the first substrate (210) may have various shapes depending on the shape and size of the body (100) or the radar (10). The first substrate (210) may include a second fastening hole (211). For example, as shown in FIG. 3, the second fastening hole (211) includes a plurality of second fastening holes (211), and the plurality of second fastening holes (211) may be formed radially inward of the first substrate hole (220). A plurality of second fastening holes (211) correspond to the first body boss (130) and the second substrate hole (420), and a fastening member such as a bolt can be inserted into the second fastening hole (211) and fastened to the first body boss (130) through the second substrate hole (420).

제1기판홀(220)은 제1기판(210)에 형성되며 바디(100) 및 커버(600)와 체결되는 부분일 수 있다. 예를 들어 도 3에 나타낸 바와 같이, 제1기판홀(220)에 제2바디보스(140)가 삽입되고, 커버홀(620)을 통해 삽입된 나사 등의 체결부재가 제1기판홀(220)에 삽입 및 체결될 수 있다. 제1기판홀(220)에 제2바디보스(140)가 삽입되어, 센서 컨트롤러(200)가 바디(100)에 위치 결정 및 지지될 수 있다. 제1기판홀(220)은 복수 개의 제1기판홀(220)을 포함할 수 있다. 예를 들어 도 3에 나타낸 바와 같이, 제1기판홀(220)은 제1기판(210)의 가장자리를 따라 복수 개(예를 들어 4개) 형성될 수 있다.The first substrate hole (220) is formed in the first substrate (210) and may be a portion that is fastened to the body (100) and the cover (600). For example, as shown in FIG. 3, a second body boss (140) may be inserted into the first substrate hole (220), and a fastening member such as a screw inserted through the cover hole (620) may be inserted and fastened to the first substrate hole (220). By inserting the second body boss (140) into the first substrate hole (220), the sensor controller (200) may be positioned and supported on the body (100). The first substrate hole (220) may include a plurality of first substrate holes (220). For example, as shown in FIG. 3, a plurality (for example, four) of first substrate holes (220) may be formed along the edge of the first substrate (210).

센서(300)는 레이더(10)의 주변에 있는 물체 또는 사람 등의 위치(또는 각도), 속도 또는 거리를 감지할 수 있다. 예를 들어 센서(300)는 플랫폼(30)이나 EOAT(40) 등 조향 시스템(1)에 장착되며, 주위로 신호(전자기파)를 방사하고 물체 또는 사람에서 반사된 신호를 수신해 물체 또는 사람을 감지할 수 있다. 예를 들어 센서(300)는 바디(100)(예를 들어 바디(100)의 외주면)에 장착되며 센서 컨트롤러(200)와 유/무선으로 연결되고, 센서(300)가 방사하고 수신한 신호에 관한 정보는 센서 컨트롤러(200)로 전달될 수 있다. 센서 컨트롤러(200)는 센서(300)가 방사하고 수신한 신호에 기반해 물체 또는 사람의 위치(또는 각도), 속도 또는 거리 등을 계산할 수 있다. 예를 들어 센서(300)는 FMCW 센서로서 밀리미터파를 이용할 수 있다. FMCW 센서에 관한 구성은 종래 공지된 기술을 포함할 수 있다.The sensor (300) can detect the position (or angle), speed, or distance of an object or person around the radar (10). For example, the sensor (300) is mounted on the steering system (1) such as the platform (30) or the EOAT (40), and can detect the object or person by radiating a signal (electromagnetic wave) to the surroundings and receiving a signal reflected from the object or person. For example, the sensor (300) is mounted on the body (100) (e.g., the outer surface of the body (100)) and is connected to the sensor controller (200) by wire or wirelessly, and information about the signal radiated and received by the sensor (300) can be transmitted to the sensor controller (200). The sensor controller (200) can calculate the position (or angle), speed, or distance of the object or person based on the signal radiated and received by the sensor (300). For example, the sensor (300) can use millimeter waves as an FMCW sensor. The configuration of the FMCW sensor may include a conventionally known technology.

센서(300)는 방위각 방향 및/또는 고도 방향으로 주변의 물체나 사람을 감지할 수 있다. 예를 들어 도 4에 나타낸 바와 같이, 센서(300)는 방위각 방향으로 θ1의 감지 각도를 가질 수 있다. θ1은 미리 정해진 값이거나 센서 컨트롤러(200)에 의해 실시간으로 조절될 수 있다. 예를 들어 θ1은 10도 이상 150도 이하일 수 있다. 예를 들어 θ1은 20도 이상 120도 이하일 수 있다. 예를 들어 도 5에 나타낸 바와 같이, 센서(300)는 고도 방향으로 θ2의 감지 각도를 가질 수 있다. θ2는 미리 정해진 값이거나 센서 컨트롤러(200)에 의해 실시간으로 조절될 수 있다. 예를 들어 θ2는 10도 이상 150도 이하일 수 있다. 예를 들어 θ2는 20도 이상 120도 이하일 수 있다.The sensor (300) can detect surrounding objects or people in the azimuth direction and/or the elevation direction. For example, as shown in FIG. 4, the sensor (300) can have a detection angle of θ1 in the azimuth direction. θ1 can be a predetermined value or can be adjusted in real time by the sensor controller (200). For example, θ1 can be 10 degrees or more and 150 degrees or less. For example, θ1 can be 20 degrees or more and 120 degrees or less. For example, as shown in FIG. 5, the sensor (300) can have a detection angle of θ2 in the elevation direction. θ2 can be a predetermined value or can be adjusted in real time by the sensor controller (200). For example, θ2 can be 10 degrees or more and 150 degrees or less. For example, θ2 can be 20 degrees or more and 120 degrees or less.

센서(300)는 복수 개의 센서(300)를 포함할 수 있다. 예를 들어 센서(300)는 도 3 및 도 4에 나타낸 바와 같이, 4개의 센서(300)를 포함할 수 있다. 복수 개의 센서(300)는 각각 바디(100)의 외주면에 장착될 수 있다. 복수 개의 센서(300)는 바디(100)의 중심에 대해 서로 동일 또는 다른 간격으로 배열될 수 있다. 예를 들어 도 4에 나타낸 바와 같이, 4개의 센서(300)가 서로 90도 각도를 이루며 배열될 수 있다.The sensor (300) may include a plurality of sensors (300). For example, the sensor (300) may include four sensors (300), as shown in FIGS. 3 and 4. The plurality of sensors (300) may each be mounted on the outer surface of the body (100). The plurality of sensors (300) may be arranged at equal or different intervals relative to the center of the body (100). For example, as shown in FIG. 4, the four sensors (300) may be arranged at a 90-degree angle to each other.

복수 개의 센서(300)는 개별적으로 제어될 수 있다. 예를 들어 센서 컨트롤러(200)에 의해 복수 개의 센서(300)의 감지 각도 θ1 및 θ2는 서로 동일 또는 다른 각도로 제어될 수 있다. 또한 각각의 센서에서 신호를 방사하는 시간, 주기, 신호의 주파수 등도 모두 개별적으로 제어될 수 있다.The plurality of sensors (300) can be individually controlled. For example, the detection angles θ1 and θ2 of the plurality of sensors (300) can be controlled to be the same or different angles by the sensor controller (200). In addition, the time, period, and frequency of the signal emitted by each sensor can all be individually controlled.

복수 개의 센서(300)는 감지 영역(SA)을 형성할 수 있다. 예를 들어 도 4 및 도 5에 나타낸 바와 같이, 복수 개의 센서(300)는 방위각 방향 및 고도 방향으로 감지 영역(SA)을 각각 형성할 수 있다. 따라서 복수 개의 센서(300)가 각각 형성한 감지 영역(SA)은 서로 동일 또는 다른 범위를 가질 수 있다.A plurality of sensors (300) can form a detection area (SA). For example, as illustrated in FIGS. 4 and 5 , the plurality of sensors (300) can form detection areas (SA) in the azimuth and elevation directions, respectively. Accordingly, the detection areas (SA) formed by the plurality of sensors (300) can have the same or different ranges.

복수 개의 센서(300)가 형성한 감지 영역(SA)들은 적어도 일부가 중첩되거나 경계가 서로 맞닿을 수 있다. 예를 들어 도 4에 나타낸 바와 같이, 방위각 방향으로 복수 개의 센서(300)가 형성한 감지 영역(SA)들은 서로 경계가 맞닿을 수 있다. 따라서 평면 방향 또는 방위각 방향으로 전방위에서 레이더(10)가 주변의 물체나 사람을 감지할 수 있다. 도면에는 감지 영역(SA)들의 경계가 서로 맞닿은 상태만을 나타냈으나, 복수 개의 센서(300)가 형성한 감지 영역(SA)들은 서로 중첩되도록 제어될 수도 있다. 따라서 레이더(10)는 평면 방향 또는 방위각 방향으로 360도의 감지 영역(SA)을 확보할 수 있다.The detection areas (SA) formed by the plurality of sensors (300) may overlap at least partially or their boundaries may touch each other. For example, as shown in FIG. 4, the detection areas (SA) formed by the plurality of sensors (300) in the azimuth direction may have boundaries touching each other. Therefore, the radar (10) can detect surrounding objects or people from all directions in the planar direction or the azimuth direction. Although the drawing only shows a state where the boundaries of the detection areas (SA) touch each other, the detection areas (SA) formed by the plurality of sensors (300) may be controlled to overlap each other. Therefore, the radar (10) can secure a detection area (SA) of 360 degrees in the planar direction or the azimuth direction.

센서(300)는 송신기(310) 및 수신기(320)를 포함할 수 있다. 송신기(310)는 주변으로 신호(전자기파)를 방사하고, 수신기(320)는 물체 또는 사람에서 반사된 신호를 수신할 수 있다. 예를 들어 송신기(310) 및 수신기(320)는 도플러 센서를 구성할 수 있다. 송신기(310)의 오실레이터에서 발진된 무변조 연속파(CW, Continuous Wave)가 물체 또는 사람에 의해 반사되고, 반사된 신호를 수신기(320)가 수신해 위상차에 기반해 물체 또는 사람의 위치(또는 각도), 속도 등을 감지할 수 있다. 즉, 송신기(310)에 의해 방사된 신호가 물체에 의해 반사되면서 도플러 시프트에 의해 주파수가 변조되고, 수신기(320)가 이를 수신하여 주파수 차이에 기반해 물체의 속도와 방향 등에 관한 정보를 제공할 수 있다. 또한 센서(300)(또는 센서(300)로부터 정보를 전달받은 센서 컨트롤러(200))는 방위각 방향으로 배열된 수신기(320)들이 수신한 신호 간의 위상 차이와 시간 지연에 기반해 물체의 방위각 방향으로의 각도를 계산하고, 고도 방향으로 배열된 수신기(320)들이 수신한 신호 간의 위상 차이와 시간 지연에 기반해 물체의 고도 방향으로의 각도를 계산할 수 있다.The sensor (300) may include a transmitter (310) and a receiver (320). The transmitter (310) may radiate a signal (electromagnetic wave) to the surroundings, and the receiver (320) may receive a signal reflected from an object or a person. For example, the transmitter (310) and the receiver (320) may constitute a Doppler sensor. An unmodulated continuous wave (CW) oscillated from an oscillator of the transmitter (310) is reflected by an object or a person, and the receiver (320) receives the reflected signal and can detect the position (or angle), speed, etc. of the object or person based on the phase difference. That is, when a signal radiated by the transmitter (310) is reflected by an object, its frequency is modulated by a Doppler shift, and the receiver (320) can receive this and provide information on the speed and direction of the object based on the frequency difference. In addition, the sensor (300) (or the sensor controller (200) that receives information from the sensor (300)) can calculate the angle of the object in the azimuth direction based on the phase difference and time delay between signals received by the receivers (320) arranged in the azimuth direction, and can calculate the angle of the object in the elevation direction based on the phase difference and time delay between signals received by the receivers (320) arranged in the elevation direction.

송신기(310)는 하나 이상의 송신기(310)를 포함할 수 있다. 예를 들어 도 6에 나타낸 바와 같이, 1개의 센서(300)에 포함된 송신기(310)는 1개의 송신기(310)를 포함할 수 있다.A transmitter (310) may include one or more transmitters (310). For example, as shown in FIG. 6, a transmitter (310) included in one sensor (300) may include one transmitter (310).

수신기(320)는 하나 이상의 수신기(320)를 포함할 수 있다. 예를 들어 수신기(320)는 제1수신기(321), 제2수신기(322) 및 제3수신기(323)를 포함할 수 있다. 복수 개의 수신기(320)는 1개의 송신기(310) 주위에 배열될 수 있다. 예를 들어 도 6에 나타낸 바와 같이, 송신기(310)가 센서(300)의 코너부(예를 들어 우측 상단 코너부)에 있고, 제1수신기(321)가 송신기(310)의 아래(예를 들어 센서(300)의 우측 상단 코너부), 제2수신기(322)가 송신기(310)의 대각선 아래(예를 들어 센서(300)의 좌측 하단 코너부) 및 제3수신기(323)가 송신기(310)의 좌측(예를 들어 센서(300)의 좌측 상단 코너부)에 각각 배열될 수 있다. 수신기(320)에서 방사된 후 물체 또는 사람에 의해 반사된 신호는 제1수신기(321), 제2수신기(322) 및 제3수신기(323)로 각각 수신될 수 있다.The receiver (320) may include one or more receivers (320). For example, the receiver (320) may include a first receiver (321), a second receiver (322), and a third receiver (323). A plurality of receivers (320) may be arranged around one transmitter (310). For example, as shown in FIG. 6, the transmitter (310) may be at a corner of the sensor (300) (e.g., an upper right corner), the first receiver (321) may be arranged below the transmitter (310) (e.g., an upper right corner of the sensor (300)), the second receiver (322) may be arranged diagonally below the transmitter (310) (e.g., a lower left corner of the sensor (300)), and the third receiver (323) may be arranged to the left of the transmitter (310) (e.g., an upper left corner of the sensor (300)). The signal reflected by an object or person after being emitted from the receiver (320) can be received by the first receiver (321), the second receiver (322), and the third receiver (323), respectively.

센서(300)는 복수 개의 센서 어레이를 포함할 수 있다. 예를 들어 센서(300)는 제1센서 어레이(301) 및 제2센서 어레이(302)를 포함할 수 있다. 제1센서 어레이(301)와 제2센서 어레이(302)는 서로 다른 방향으로 물체 또는 사람의 위치(또는 각도)와 속도 등을 감지할 수 있다. 예를 들어 제1센서 어레이(301)는 방위각 방향(방위각 평면), 제2센서 어레이(302)는 고도 방향(고도 평면)으로 물체 또는 사람을 감지할 수 있다.The sensor (300) may include a plurality of sensor arrays. For example, the sensor (300) may include a first sensor array (301) and a second sensor array (302). The first sensor array (301) and the second sensor array (302) may detect the position (or angle) and speed of an object or person in different directions. For example, the first sensor array (301) may detect an object or person in an azimuth direction (azimuth plane), and the second sensor array (302) may detect an object or person in an altitude direction (altitude plane).

제1센서 어레이(301) 및 제2센서 어레이(302)는 복수 개의 수신기(320)를 포함할 수 있다. 예를 들어 제1센서 어레이(301) 및 제2센서 어레이(302)는 각각 어느 방향으로 나란히 배열되어 있는 복수 개의 수신기(320)를 포함할 수 있다. 예를 들어 도 6에 나타낸 바와 같이, 제1센서 어레이(301)는 제1방향(예를 들어 도 6의 좌우 방향 또는 방위각 방향)으로 나란히 배열된 2개의 수신기(320)(예를 들어 제1수신기(321) 및 제2수신기(322))를 포함할 수 있다. 제2센서 어레이(302)는 제2방향(예를 들어 도 6의 상하 방향 또는 고도 방향)으로 나란히 배열된 2개의 수신기(320)(예를 들어 제2수신기(322) 및 제3수신기(323))를 포함할 수 있다. 따라서 도 7에 나타낸 바와 같이, 송신기(310)에서 신호 St를 방사하면 물체에 반사된 신호 Sr1 및 Sr2를 제1센서 어레이(301)에 포함된 제1수신기(321) 및 제2수신기(322)가 수신하여, 센서(300)가 각각의 신호의 위상차 등에 기반해 방위각 방향으로의 평면(PA) 상에 있는 장애물(O)를 감지할 수 있다. 또한 물체에 반사된 신호 Sr2 및 Sr3를 제2센서 어레이(302)에 포함된 제2수신기(322) 및 제3수신기(323)가 수신하여, 센서(300)가 각각의 신호의 위상차 등에 기반해 고도 방향으로의 평면(PA) 상에 있는 장애물(O)를 감지할 수 있다. 따라서 도 8에 나타낸 바와 같이, 센서(300)가 장애물(O)의 위치를 감지할 수 있다. 또한 방사한 신호와 수신한 신호의 시간(수신기(320)들이 신호를 수신한 시간의 차이) 및 반사되면서 변조된 주파수에 기반해 센서(300)가 장애물(O)의 속도와 각도 등을 감지할 수 있다. 제1센서 어레이(301)와 제2센서 어레이(302)는 적어도 하나의 수신기(320)(예를 들어 제2수신기(322))를 공유할 수 있다.The first sensor array (301) and the second sensor array (302) may include a plurality of receivers (320). For example, the first sensor array (301) and the second sensor array (302) may each include a plurality of receivers (320) arranged side by side in a first direction (e.g., a left-right direction or an azimuth direction of FIG. 6). The second sensor array (302) may include two receivers (320) (e.g., a second receiver (322) and a third receiver (323)) arranged side by side in a second direction (e.g., a vertical direction or an elevation direction of FIG. 6). Therefore, as shown in FIG. 7, when a signal St is radiated from a transmitter (310), the signals Sr1 and Sr2 reflected from an object are received by the first receiver (321) and the second receiver (322) included in the first sensor array (301), so that the sensor (300) can detect an obstacle (O) on a plane (PA) in the azimuth direction based on the phase difference of each signal. In addition, the signals Sr2 and Sr3 reflected from an object are received by the second receiver (322) and the third receiver (323) included in the second sensor array (302), so that the sensor (300) can detect an obstacle (O) on a plane (PA) in the elevation direction based on the phase difference of each signal. Therefore, as shown in FIG. 8, the sensor (300) can detect the position of the obstacle (O). In addition, the sensor (300) can detect the speed and angle of the obstacle (O) based on the time between the emitted signal and the received signal (the difference in time at which the receivers (320) receive the signal) and the frequency modulated while reflected. The first sensor array (301) and the second sensor array (302) can share at least one receiver (320) (e.g., the second receiver (322)).

통신 컨트롤러(400)는 바디(100)의 내부 공간(110)에 수용되며 바디(100)에 지지될 수 있다. 예를 들어 도 3에 나타낸 바와 같이, 통신 컨트롤러(400)는 센서 컨트롤러(200)의 아래에 있으며, 리브(120), 제1바디보스(130) 및 제2바디보스(140)에 지지될 수 있다. 통신 컨트롤러(400)는 센서 컨트롤러(200) 및 플랫폼 컨트롤러(20) 등 외부 장치와 유/무선으로 연결될 수 있다. 통신 컨트롤러(400)는 플랫폼 컨트롤러(20)로부터 제어 신호를 받아 센서 컨트롤러(200)로 전달하고, 센서 컨트롤러(200)로부터 물체 감지 신호를 받아 플랫폼 컨트롤러(20)로 전달할 수 있다. 또는 통신 컨트롤러(400)는 센서 컨트롤러(200)와 센서(300)를 서로 통신 가능하게 연결할 수 있다.The communication controller (400) may be accommodated in the internal space (110) of the body (100) and supported by the body (100). For example, as shown in FIG. 3, the communication controller (400) may be located below the sensor controller (200) and supported by the rib (120), the first body boss (130), and the second body boss (140). The communication controller (400) may be connected to external devices such as the sensor controller (200) and the platform controller (20) via wires or wirelessly. The communication controller (400) may receive a control signal from the platform controller (20) and transmit it to the sensor controller (200), and may receive an object detection signal from the sensor controller (200) and transmit it to the platform controller (20). Alternatively, the communication controller (400) may connect the sensor controller (200) and the sensor (300) so that they can communicate with each other.

통신 컨트롤러(400)는 제2기판(410) 및 제2기판홀(420)을 포함할 수 있다.The communication controller (400) may include a second substrate (410) and a second substrate hole (420).

제2기판(410)은 각종 전자 부품 및 회로 패턴을 포함하는 기판으로서, 예를 들어 인쇄 회로 기판일 수 있다. 도 3에는 제2기판(410)을 원형으로 나타냈으나, 제2기판(410)은 바디(100) 또는 레이더(10)의 형상과 크기에 따라 다양한 형상을 가질 수 있다.The second substrate (410) is a substrate including various electronic components and circuit patterns, and may be, for example, a printed circuit board. In FIG. 3, the second substrate (410) is depicted as a circle, but the second substrate (410) may have various shapes depending on the shape and size of the body (100) or radar (10).

제2기판홀(420)은 제2기판(410)에 형성되며 바디(100)와 체결되는 부분일 수 있다. 예를 들어 도 3에 나타낸 바와 같이, 제2기판홀(420)은 제1바디보스(130)와 제2체결홀(211)에 대응될 수 있다. 제2기판홀(420)에 제1바디보스(130)가 삽입되면 통신 컨트롤러(400)가 바디(100)에 고정될 수 있다. 또한 제2체결홀(211)을 통해 삽입된 볼트 등의 체결부재가 제2기판홀(420)을 지나 제1바디보스(130)에 삽입되어, 센서 컨트롤러(200)가 바디(100)에 고정될 수 있다. 제2기판홀(420)은 복수 개의 제2기판홀(420)을 포함할 수 있다. 예를 들어 도 3에 나타낸 바와 같이, 제2기판홀(420)은 제2기판(410)의 가장자리를 따라 복수 개(예를 들어 4개) 형성될 수 있다.The second substrate hole (420) may be formed in the second substrate (410) and may be a portion that is fastened to the body (100). For example, as shown in FIG. 3, the second substrate hole (420) may correspond to the first body boss (130) and the second fastening hole (211). When the first body boss (130) is inserted into the second substrate hole (420), the communication controller (400) may be fixed to the body (100). In addition, a fastening member such as a bolt inserted through the second fastening hole (211) may be inserted into the first body boss (130) through the second substrate hole (420), thereby fixing the sensor controller (200) to the body (100). The second substrate hole (420) may include a plurality of second substrate holes (420). For example, as shown in FIG. 3, a plurality of second substrate holes (420) (e.g., four) can be formed along the edge of the second substrate (410).

커넥터(500)는 레이더(10)를 플랫폼 컨트롤러(20) 등 외부 장치와 연결할 수 있다. 예를 들어 도 3에 나타낸 바와 같이, 커넥터(500)는 바디(100)에 장착될 수 있다. 커넥터(500)에 케이블 등이 연결되어 센서 컨트롤러(200) 및 통신 컨트롤러(400)가 플랫폼 컨트롤러(20)와 연결될 수 있다. 다만 커넥터(500)는 필수 구성요소는 아니며, 커넥터(500) 없이 센서 컨트롤러(200) 및 통신 컨트롤러(400)가 플랫폼 컨트롤러(20)와 무선으로 연결될 수 있다.The connector (500) can connect the radar (10) to an external device such as a platform controller (20). For example, as shown in FIG. 3, the connector (500) can be mounted on the body (100). A cable or the like can be connected to the connector (500) so that the sensor controller (200) and the communication controller (400) can be connected to the platform controller (20). However, the connector (500) is not an essential component, and the sensor controller (200) and the communication controller (400) can be wirelessly connected to the platform controller (20) without the connector (500).

커버(600)는 바디(100)에 장착되어 내부 공간(110)을 개폐할 수 있다. 예를 들어 도 3에 나타낸 바와 같이, 커버(600)는 바디(100)의 개방된 상면에 탈착 가능하며 바디(100)와 함께 내측에 센서 컨트롤러(200) 및 통신 컨트롤러(400)를 보유 및 지지할 수 있다. 커버(600)는 커버 돌기(610) 및 커버홀(620)을 포함할 수 있다. 커버 돌기(610)는 커버(600)의 가장자리에 복수 개 형성되며 커버(600)의 반경 방향으로 외측을 향해 연장될 수 있다. 커버 돌기(610)는 복수 개의 커버 돌기(610)(예를 들어 7개)를 포함할 수 있다. 각각의 커버 돌기(610)는 바디(100)의 안착홈(150)에 끼워지며, 커버 돌기(610)의 돌기홀(611)을 통해 삽입된 볼트 등의 체결부재가 안착홈(150)의 제3체결홀(151)에 삽입될 수 있다.The cover (600) can be mounted on the body (100) to open and close the internal space (110). For example, as shown in FIG. 3, the cover (600) can be detachably mounted on the open upper surface of the body (100) and can hold and support the sensor controller (200) and the communication controller (400) on the inside together with the body (100). The cover (600) can include a cover protrusion (610) and a cover hole (620). A plurality of cover protrusions (610) are formed on the edge of the cover (600) and can extend outward in the radial direction of the cover (600). The cover protrusion (610) can include a plurality of cover protrusions (610) (for example, seven). Each cover protrusion (610) is fitted into a mounting groove (150) of the body (100), and a fastening member such as a bolt inserted through the protrusion hole (611) of the cover protrusion (610) can be inserted into the third fastening hole (151) of the mounting groove (150).

레이더(10)는 상호작용 버튼(700)을 더 포함할 수 있다. 상호작용 버튼(700)은 사용자와 레이더(10) 또는 조향 시스템(1)이 상호작용하기 위한 부재로서, 사용자는 상호작용 버튼(700)을 터치 또는 가압해 레이더(10) 또는 조향 시스템(1)에 특정 동작을 지시할 수 있다. 상호작용 버튼(700)은 센서 컨트롤러(200) 및 통신 컨트롤러(400)와 연결되어 있으며, 사용자가 상호작용 버튼(700)과 상호작용하면, 센서 컨트롤러(200) 및 통신 컨트롤러(400)가 동작하여 플랫폼 컨트롤러(20)로 신호를 전달할 수 있다. 플랫폼 컨트롤러(20)는 미리 저장된 알고리즘에 따라 조향 시스템(1)을 정지 또는 작동하거나, 플랫폼(30)의 위치를 변경하거나, EOAT(40)의 파지 동작을 실시할 수 있다.The radar (10) may further include an interaction button (700). The interaction button (700) is a member for interaction between a user and the radar (10) or the steering system (1), and the user may instruct the radar (10) or the steering system (1) to perform a specific operation by touching or pressing the interaction button (700). The interaction button (700) is connected to the sensor controller (200) and the communication controller (400), and when the user interacts with the interaction button (700), the sensor controller (200) and the communication controller (400) may operate to transmit a signal to the platform controller (20). The platform controller (20) may stop or operate the steering system (1), change the position of the platform (30), or perform a gripping operation of the EOAT (40) according to a pre-stored algorithm.

상호작용 버튼(700)은 복수 개의 상호작용 버튼(700)을 포함할 수 있다. 예를 들어 도 4에 나타낸 바와 같이, 복수 개의 상호작용 버튼(700)은 바디(100)의 외주면에 장착되며 복수 개의 센서(300) 사이에 있을 수 있다. 예를 들어 상호작용 버튼(700)은 3개의 상호작용 버튼(700)을 포함할 수 있다. 3개의 상호작용 버튼(700)은 복수 개의 센서(300)와 커넥터(500) 사이에 각각 있을 수 있다.The interaction button (700) may include a plurality of interaction buttons (700). For example, as shown in FIG. 4, the plurality of interaction buttons (700) may be mounted on the outer surface of the body (100) and may be located between a plurality of sensors (300). For example, the interaction button (700) may include three interaction buttons (700). The three interaction buttons (700) may each be located between a plurality of sensors (300) and a connector (500).

레이더(10)는 연결용 PCB(800)를 더 포함할 수 있다. 연결용 PCB(800)는 복수 개의 센서(300)를 센서 컨트롤러(200)와 연결할 수 있으며, 구부러질 수 있는 유연한 재질을 포함할 수 있다. 연결용 PCB(800)는 복수 개의 센서(300)를 센서 컨트롤러(200)와 병렬 연결할 수 있다. 예를 들어 도 9에 나타낸 바와 같이, 센서 컨트롤러(200)의 주위로 복수 개(예를 들어 4개)의 연결용 PCB(800)가 각각 연결되고, 각각의 연결용 PCB(800)의 말단에는 센서(300)가 연결될 수 있다.The radar (10) may further include a connection PCB (800). The connection PCB (800) may connect a plurality of sensors (300) to the sensor controller (200) and may include a flexible material that can be bent. The connection PCB (800) may connect a plurality of sensors (300) in parallel to the sensor controller (200). For example, as shown in FIG. 9, a plurality (e.g., four) connection PCBs (800) may be respectively connected around the sensor controller (200), and a sensor (300) may be connected to the end of each connection PCB (800).

또는 연결용 PCB(800)는 복수 개의 센서(300)를 센서 컨트롤러(200)와 직렬 연결할 수 있다. 예를 들어 도 10에 나타낸 바와 같이, 각각의 연결용 PCB(800)는 복수 개의 센서(300) 사이에 각각 있으며, 어느 하나의 연결용 PCB(800)의 제1단부는 센서 컨트롤러(200)와 연결되며 제2단부는 센서 컨트롤러(200)와 가장 가까운 센서(300)와 연결될 수 있다. 따라서 도 10에 나타낸 바와 같이, 복수 개의 센서(300)와 복수 개의 연결용 PCB(800)는 일렬로 나란히 연장되는 띠 형상을 가질 수 있다.Alternatively, the connection PCB (800) may connect a plurality of sensors (300) in series with the sensor controller (200). For example, as shown in FIG. 10, each connection PCB (800) is located between a plurality of sensors (300), and a first end of one connection PCB (800) may be connected to the sensor controller (200) and a second end may be connected to the sensor (300) closest to the sensor controller (200). Therefore, as shown in FIG. 10, the plurality of sensors (300) and the plurality of connection PCBs (800) may have a band shape extending in a single row.

따라서 레이더(10)의 크기와 형상, 사양 또는 설치 위치 등을 고려해 센서(300)와 센서 컨트롤러(200)의 연결 방식을 자유롭게 변경할 수 있다. 예를 들어 도 11에 나타낸 바와 같이, 복수 개의 연결용 PCB(800)와 복수 개의 센서(300)를 센서 컨트롤러(200)에 직렬 연결한 상태에서, 복수 개의 연결용 PCB(800)와 복수 개의 센서(300)를 바디(100)의 외주면에 감아 레이더(10)를 완성할 수 있다.Therefore, the connection method of the sensor (300) and the sensor controller (200) can be freely changed in consideration of the size, shape, specifications, or installation location of the radar (10). For example, as shown in Fig. 11, when a plurality of connection PCBs (800) and a plurality of sensors (300) are connected in series to the sensor controller (200), the radar (10) can be completed by winding the plurality of connection PCBs (800) and the plurality of sensors (300) around the outer surface of the body (100).

레이더(10)는 플랫폼(30)을 비롯해 조향 시스템(1)의 내부가 아닌 외부에 구비될 수 있다. 또한 레이더(10)는 별도의 어댑터 등 없이 플랫폼(30)의 말단부에 볼트 등으로 조립하여, 플랫폼(30)이 장착될 수 있다. 따라서 레이더(10)는 다양한 유형의 로봇이나 매니퓰레이터에 범용적으로 사용될 수 있다.The radar (10) may be installed outside, rather than inside, the steering system (1), including the platform (30). Furthermore, the radar (10) may be mounted on the platform (30) by assembling it to the end of the platform (30) using bolts or the like without a separate adapter or the like. Therefore, the radar (10) may be universally used in various types of robots or manipulators.

플랫폼 컨트롤러(20)는 레이더(10), 플랫폼(30) 및 EOAT(40)와 유선 및/또는 무선으로 연결되어, 레이더(10), 플랫폼(30) 및 EOAT(40)를 제어할 수 있다. 예를 들어 플랫폼 컨트롤러(20)는 스마트폰, 랩탑, 데스크탑, 태블릿 PC 등 사용자 단말이거나 서버일 수 있다. 플랫폼 컨트롤러(20)는 레이더(10)로부터 전달받은 감지 정보에 기반해 조향 시스템(1)을 제어할 수 있다. 또는 상호작용 버튼(700)이 터치 또는 가압되면 플랫폼 컨트롤러(20)는 미리 정해진 알고리즘에 따라 조향 시스템(1)을 제어할 수 있다.The platform controller (20) is connected to the radar (10), the platform (30), and the EOAT (40) by wire and/or wirelessly, and can control the radar (10), the platform (30), and the EOAT (40). For example, the platform controller (20) may be a user terminal such as a smartphone, a laptop, a desktop, a tablet PC, or a server. The platform controller (20) may control the steering system (1) based on the detection information received from the radar (10). Alternatively, when the interaction button (700) is touched or pressed, the platform controller (20) may control the steering system (1) according to a predetermined algorithm.

센서 컨트롤러(200), 통신 컨트롤러(400) 및 플랫폼 컨트롤러(20)는 메모리, 프로세서, 논리 회로, 룩업(look-up) 테이블 등 하나 이상의 마이크로프로세서 또는 다른 제어 장치를 통해 각각의 제어 기능을 실행하는 직접 회로 구조를 이용할 수 있다. 센서 컨트롤러(200), 통신 컨트롤러(400) 및 플랫폼 컨트롤러(20)는 특정 논리 기능을 실행하기 위한 하나 이상의 실행 가능한 지시를 포함하는 모듈, 프로그램 또는 코드의 일부로 구현될 수 있다. 센서 컨트롤러(200), 통신 컨트롤러(400) 및 플랫폼 컨트롤러(20)는 각각의 기능이나 마이크로프로세서 등을 실행하는 중앙 처리 장치와 같은 프로세서를 포함하거나 이에 의해 구현될 수 있다. 센서 컨트롤러(200), 통신 컨트롤러(400) 및 플랫폼 컨트롤러(20)는 외부 장치 등과 데이터를 송수신할 수 있는 통신 장치를 포함할 수 있다. 통신 장치는 디지털 모뎀, RF 모뎀, 안테나 회로, 와이파이 칩 및 관련 소프트웨어 및/또는 펌웨어의 하나 이상의 조합을 포함할 수 있다.The sensor controller (200), the communication controller (400), and the platform controller (20) may utilize a direct circuit structure that executes each control function through one or more microprocessors or other control devices such as a memory, a processor, a logic circuit, a look-up table, etc. The sensor controller (200), the communication controller (400), and the platform controller (20) may be implemented as a part of a module, program, or code that includes one or more executable instructions for executing a specific logic function. The sensor controller (200), the communication controller (400), and the platform controller (20) may include or be implemented by a processor such as a central processing unit that executes each function or a microprocessor, etc. The sensor controller (200), the communication controller (400), and the platform controller (20) may include a communication device that can transmit and receive data with an external device, etc. The communication device may include one or more combinations of a digital modem, an RF modem, an antenna circuit, a Wi-Fi chip, and related software and/or firmware.

플랫폼(30)은 복수 개의 조인트를 포함하며 말단에 EOAT(40)가 연결될 수 있다. 예를 들어 플랫폼(30)은 6축 로봇 암으로서 EOAT(40)를 다양한 방향과 위치로 이동시킬 수 있다. 플랫폼(30)의 말단과 EOAT(40) 사이에는 레이더(10)가 장착될 수 있다.The platform (30) includes a plurality of joints and an EOAT (40) can be connected to the end thereof. For example, the platform (30) can be a six-axis robot arm that moves the EOAT (40) in various directions and positions. A radar (10) can be mounted between the end of the platform (30) and the EOAT (40).

EOAT(40)는 플랫폼(30)에 연결되며 물체를 파지, 조립 또는 기타 가공 동작을 실시할 수 있다. 예를 들어 도 1에 나타낸 바와 같이, EOAT(40)는 플랫폼(30)의 복수 개의 조인트 중 말단부에 장착될 수 있다. EOAT(40)는 조향 시스템(1)이 이용되는 분야에 따라 다양한 형상을 가질 수 있다. 예를 들어 EOAT(40)는 핑거 또는 석션 타입의 그리퍼, 수술용 로봇의 말단부 또는 용접 등 기타 사상 가공에 이용되는 툴을 포함할 수 있다.The EOAT (40) is connected to the platform (30) and can perform gripping, assembling, or other processing operations on an object. For example, as shown in FIG. 1, the EOAT (40) can be mounted on an end portion of a plurality of joints of the platform (30). The EOAT (40) can have various shapes depending on the field in which the steering system (1) is used. For example, the EOAT (40) can include a finger or suction type gripper, the end portion of a surgical robot, or a tool used for other finishing operations such as welding.

앞서 설명한 실시예 외에도 센서(300)는 다양한 배열을 가질 수 있다. 예를 들어 도 12에 나타낸 바와 같이, 센서(300)는 보다 많은 수의 수신기(320)를 포함할 수 있다. 예를 들어 센서(300)는 5개의 수신기(320)를 포함할 수 있다. 수신기(320)는 제1수신기(321), 제2수신기(322), 제3수신기(323), 제4수신기(324) 및 제5수신기(325)를 포함할 수 있다. 제1수신기(321), 제2수신기(322), 제3수신기(323)는 제1센서 어레이(301)에 포함되며, 제3수신기(323), 제4수신기(324) 및 제5수신기(325)는 제2센서 어레이(302)에 포함될 수 있다. 즉, 제1센서 어레이(301) 및 제2센서 어레이(302)는 각각 3개의 수신기(320)를 포함할 수 있다. 제1수신기(321), 제2수신기(322), 제3수신기(323), 제4수신기(324) 및 제5수신기(325)는 센서(300)의 우측 하단 코너부에서 시작해 시계 방향으로 각각 배열되며, 제5수신기(325)는 센서(300)의 좌측 상단 코너부에 있을 수 있다.In addition to the embodiments described above, the sensor (300) may have various arrangements. For example, as illustrated in FIG. 12, the sensor (300) may include a greater number of receivers (320). For example, the sensor (300) may include five receivers (320). The receivers (320) may include a first receiver (321), a second receiver (322), a third receiver (323), a fourth receiver (324), and a fifth receiver (325). The first receiver (321), the second receiver (322), and the third receiver (323) may be included in a first sensor array (301), and the third receiver (323), the fourth receiver (324), and the fifth receiver (325) may be included in a second sensor array (302). That is, the first sensor array (301) and the second sensor array (302) may each include three receivers (320). The first receiver (321), the second receiver (322), the third receiver (323), the fourth receiver (324), and the fifth receiver (325) are arranged clockwise starting from the lower right corner of the sensor (300), and the fifth receiver (325) may be located at the upper left corner of the sensor (300).

제1센서 어레이(301)에 포함된 제1수신기(321), 제2수신기(322), 제3수신기(323)는 방위각 방향으로의 신호를 수신하고, 제1센서 어레이(301)에 포함된 제3수신기(323), 제4수신기(324) 및 제5수신기(325)는 고도 방향으로의 신호를 수신할 수 있다. 따라서 센서(300)는 방위각 방향 및 고도 방향으로 보다 많은 수의 수신기(320)를 포함하여, 각각의 수신기(320)의 편차를 줄이고 측정 정밀도를 높일 수 있다. 제1센서 어레이(301)와 제2센서 어레이(302)는 적어도 하나의 수신기(320)(예를 들어 제3수신기(323))를 공유할 수 있다.The first receiver (321), the second receiver (322), and the third receiver (323) included in the first sensor array (301) can receive signals in the azimuth direction, and the third receiver (323), the fourth receiver (324), and the fifth receiver (325) included in the first sensor array (301) can receive signals in the elevation direction. Therefore, the sensor (300) can include a greater number of receivers (320) in the azimuth direction and the elevation direction, thereby reducing the deviation of each receiver (320) and increasing the measurement precision. The first sensor array (301) and the second sensor array (302) can share at least one receiver (320) (for example, the third receiver (323)).

또는 도 13에 나타낸 바와 같이, 센서(300)는 8개의 수신기(320)를 포함할 수 있다. 수신기(320)는 제1수신기(321), 제2수신기(322), 제3수신기(323), 제4수신기(324), 제5수신기(325), 제6수신기(326), 제7수신기(327) 및 제8수신기(328)를 포함할 수 있다. 또한 센서(300)는 4개의 센서 어레이를 포함할 수 있다. 제1센서 어레이(301) 및 제3센서 어레이(303)는 송신기(310)를 기준으로 각각 아래와 위에 있으며, 방위각 방향으로의 신호를 수신할 수 있다. 제2센서 어레이(302) 및 제4센서 어레이(304)는 송신기(310)를 기준으로 각각 좌측과 우측에 있으며, 고도 방향으로의 신호를 수신할 수 있다. 따라서 도 13에 나타낸 바와 같이, 센서(300)의 중심에 송신기(310)가 있고, 송신기(310)를 중심으로 8개의 수신기(320)가 배열될 수 있다.Alternatively, as illustrated in FIG. 13, the sensor (300) may include eight receivers (320). The receivers (320) may include a first receiver (321), a second receiver (322), a third receiver (323), a fourth receiver (324), a fifth receiver (325), a sixth receiver (326), a seventh receiver (327), and an eighth receiver (328). In addition, the sensor (300) may include four sensor arrays. The first sensor array (301) and the third sensor array (303) are respectively located above and below the transmitter (310) and can receive signals in the azimuth direction. The second sensor array (302) and the fourth sensor array (304) are respectively located to the left and right of the transmitter (310) and can receive signals in the elevation direction. Accordingly, as shown in Fig. 13, a transmitter (310) is located at the center of the sensor (300), and eight receivers (320) can be arranged around the transmitter (310).

제1수신기(321), 제2수신기(322), 제3수신기(323)는 제1센서 어레이(301)에 포함되며, 제3수신기(323), 제4수신기(324) 및 제5수신기(325)는 제2센서 어레이(302)에 포함될 수 있다. 또한 제5수신기(325), 제6수신기(326) 및 제7수신기(327)는 제3센서 어레이(303)에 포함되고, 제7수신기(327), 제8수신기(328) 및 제1수신기(321)는 제4센서 어레이(304)에 포함될 수 있다. 즉, 제1센서 어레이(301) 및 제2센서 어레이(302)는 각각 3개의 수신기(320)를 포함할 수 있다. 제1수신기(321)부터 제8수신기(328)는 센서(300)의 우측 하단 코너부에서 시작해 시계 방향으로 각각 배열될 수 있다.The first receiver (321), the second receiver (322), and the third receiver (323) may be included in the first sensor array (301), and the third receiver (323), the fourth receiver (324), and the fifth receiver (325) may be included in the second sensor array (302). In addition, the fifth receiver (325), the sixth receiver (326), and the seventh receiver (327) may be included in the third sensor array (303), and the seventh receiver (327), the eighth receiver (328), and the first receiver (321) may be included in the fourth sensor array (304). That is, the first sensor array (301) and the second sensor array (302) may each include three receivers (320). The first receiver (321) to the eighth receiver (328) can be arranged clockwise starting from the lower right corner of the sensor (300).

따라서 센서(300)는 방위각 방향 및 고도 방향으로 보다 많은 수의 수신기(320)를 포함하며, 방위각 방향 및 고도 방향으로 각각 물체를 감지하는 복수 개의 센서 어레이를 포함할 수 있다. 따라서 각각의 수신기(320) 및 센서 어레이의 편차를 줄이고 측정 정밀도를 높일 수 있다. 또한 센서(300)는 어느 하나의 센서 어레이가 고장 나더라도 다른 센서 어레이를 이용해 물체를 감지할 수 있다. 제1센서 어레이(301)와 제2센서 어레이(302)는 제3수신기(323)를 공유하고, 제2센서 어레이(302)와 제3센서 어레이(303)는 제5수신기(325)를 공유하고, 제3센서 어레이(303)와 제4센서 어레이(304)는 제7수신기(327)를 공유할 수 있다.Therefore, the sensor (300) may include a greater number of receivers (320) in the azimuth direction and the elevation direction, and may include a plurality of sensor arrays that detect objects in the azimuth direction and the elevation direction, respectively. Therefore, the deviation of each receiver (320) and sensor array can be reduced and the measurement precision can be increased. In addition, the sensor (300) can detect objects using other sensor arrays even if one sensor array fails. The first sensor array (301) and the second sensor array (302) can share the third receiver (323), the second sensor array (302) and the third sensor array (303) can share the fifth receiver (325), and the third sensor array (303) and the fourth sensor array (304) can share the seventh receiver (327).

또는 도 14에 나타낸 바와 같이, 센서(300)는 보다 많은 수의 송신기(310) 및 수신기(320)를 포함할 수 있다. 예를 들어 센서(300)는 4개의 송신기(310)로서, 제1송신기(311), 제2송신기(312), 제3송신기(313) 및 제4송신기(314)를 포함할 수 있다. 제1송신기(311), 제2송신기(312), 제3송신기(313) 및 제4송신기(314)는 센서(300)의 중앙에서 시계 방향으로 배열될 수 있다. 또한 센서(300)는 5개의 수신기(320)로서 제1수신기(321), 제2수신기(322), 제3수신기(323), 제4수신기(324) 및 제5수신기(325)를 포함할 수 있다. 제1수신기(321), 제2수신기(322), 제3수신기(323)는 제1센서 어레이(301)에 포함되며, 제3수신기(323), 제4수신기(324) 및 제5수신기(325)는 제2센서 어레이(302)에 포함될 수 있다.Alternatively, as illustrated in FIG. 14, the sensor (300) may include a greater number of transmitters (310) and receivers (320). For example, the sensor (300) may include four transmitters (310), a first transmitter (311), a second transmitter (312), a third transmitter (313), and a fourth transmitter (314). The first transmitter (311), the second transmitter (312), the third transmitter (313), and the fourth transmitter (314) may be arranged clockwise from the center of the sensor (300). Additionally, the sensor (300) may include five receivers (320), a first receiver (321), a second receiver (322), a third receiver (323), a fourth receiver (324), and a fifth receiver (325). The first receiver (321), the second receiver (322), and the third receiver (323) may be included in the first sensor array (301), and the third receiver (323), the fourth receiver (324), and the fifth receiver (325) may be included in the second sensor array (302).

각각의 송신기(310)에서 송신된 후 물체에 반사된 신호는 각각의 수신기(320)가 수신할 수 있다. 따라서 센서(300)는 보다 많은 수의 송신기(310) 및 수신기(320)를 포함함으로써, 각각의 송신기(310), 수신기(320) 및 센서 어레이의 편차를 줄이고 측정 정밀도를 높일 수 있다. 또한 센서(300)는 어느 하나의 송신기(310)가 고장 나더라도 다른 송신기(310)를 이용해 물체를 감지할 수 있다. The signal transmitted from each transmitter (310) and reflected by the object can be received by each receiver (320). Therefore, by including a greater number of transmitters (310) and receivers (320), the sensor (300) can reduce the deviation of each transmitter (310), receiver (320), and sensor array and increase the measurement precision. In addition, even if one transmitter (310) fails, the sensor (300) can detect the object using the other transmitter (310).

또는 도 15에 나타낸 바와 같이, 레이더(10)는 보다 많은 수의 센서(300)를 포함할 수 있다. 예를 들어 센서(300)는 복수 개의 제1센서(300a) 및 복수 개의 제2센서(300b)를 포함할 수 있다. 예를 들어 센서(300)는 각각 4개의 제1센서(300a) 및 제2센서(300b)를 포함하며, 복수 개의 제1센서(300a) 및 제2센서(300b)는 교대로 배열될 수 있다. 복수 개의 제1센서(300a) 및 제2센서(300b)는 서로 개별적으로 제어될 수 있으며, 각각의 감지 영역(SA)은 중첩될 수 있다. 따라서 도 15에 나타낸 바와 같이, 레이더(10)의 사각 영역을 대폭 줄일 수 있다. 예를 들어 8개의 제1센서(300a) 및 제2센서(300b)는 등간격으로 배열되며, 사잇각은 45도를 이룰 수 있다.Alternatively, as illustrated in FIG. 15, the radar (10) may include a greater number of sensors (300). For example, the sensor (300) may include a plurality of first sensors (300a) and a plurality of second sensors (300b). For example, each of the sensors (300) may include four first sensors (300a) and four second sensors (300b), and the plurality of first sensors (300a) and second sensors (300b) may be arranged alternately. The plurality of first sensors (300a) and second sensors (300b) may be individually controlled, and their respective detection areas (SA) may overlap. Therefore, as illustrated in FIG. 15, the blind area of the radar (10) may be significantly reduced. For example, eight first sensors (300a) and eight second sensors (300b) are arranged at equal intervals, and the angle between them can be 45 degrees.

제1센서(300a)와 제2센서(300b)는 도 16에 나타낸 것과 같은 배열을 가질 수 있다. 예를 들어 제1센서(300a)는 앞의 센서(300)와 동일한 위치에 있으며, 제2센서(300b)는 제1센서(300a)의 사이에 각각 있을 수 있다. 또한 제2센서(300b)는 커넥터(500) 등 레이더(10)의 다른 구성요소와 간섭하지 않도록 커넥터(500)보다 위 또는 아래에 있을 수 있다. 도 16에 나타낸 바와 같이, 제1센서(300a)와 제2센서(300b)는 바디(100)의 외주면을 따라 연장되는 선 L1 상에 배열되며, 커넥터(500)는 선 L1 아래에 있는 선 L3 상에 배열될 수 있다. 또한 상호작용 버튼(700)은 선 L1과 선 L3 사이에 있는 선 L2 상에 배열될 수 있다.The first sensor (300a) and the second sensor (300b) may have an arrangement as shown in FIG. 16. For example, the first sensor (300a) may be at the same position as the previous sensor (300), and the second sensor (300b) may be located between the first sensors (300a). In addition, the second sensor (300b) may be located above or below the connector (500) so as not to interfere with other components of the radar (10), such as the connector (500). As shown in FIG. 16, the first sensor (300a) and the second sensor (300b) may be arranged on a line L1 extending along the outer circumference of the body (100), and the connector (500) may be arranged on a line L3 below the line L1. In addition, the interaction button (700) may be arranged on a line L2 between the lines L1 and L3.

또는 도 17에 나타낸 바와 같이, 복수 개의 센서(300)는 레이더(10)의 높이 방향으로 서로 다른 위치에 있을 수 있다. 예를 들어 복수 개의 제1센서(300a)는 바디(100)의 높이 방향으로 하부에 있으며, 선 L3 상에 있을 수 있다. 복수 개의 제2센서(300b)는 바디(100)의 높이 방향으로 하부에 있으며, 선 L1 상에 있을 수 있다. 이처럼 복수 개의 제1센서(300a) 및 제2센서(300b)가 높이 방향으로 엇갈리도록 배열됨으로써, 센서(300)가 높이 방향을 따라 일측으로 편중되지 않도록 할 수 있다.Alternatively, as illustrated in FIG. 17, the plurality of sensors (300) may be positioned at different locations in the height direction of the radar (10). For example, the plurality of first sensors (300a) may be positioned at the lower portion of the body (100) in the height direction and may be positioned on line L3. The plurality of second sensors (300b) may be positioned at the lower portion of the body (100) in the height direction and may be positioned on line L1. In this way, the plurality of first sensors (300a) and second sensors (300b) are arranged to be staggered in the height direction, thereby preventing the sensors (300) from being biased to one side along the height direction.

또는 도 18에 나타낸 바와 같이, 레이더(10)는 보다 많은 수의 센서(300)를 포함할 수 있다. 예를 들어 센서(300)는 복수 개의 제1센서(300a), 복수 개의 제2센서(300b) 및 복수 개의 제3센서(300c)를 포함할 수 있다. 예를 들어 센서(300)는 각각 4개의 제1센서(300a), 제2센서(300b) 및 8개의 제3센서(300c)를 포함하며, 복수 개의 제1센서(300a), 제2센서(300b) 및 제3센서(300c)는 교대로 배열될 수 있다. 복수 개의 제1센서(300a), 제2센서(300b) 및 제3센서(300c)는 서로 개별적으로 제어될 수 있으며, 각각의 감지 영역(SA)은 중첩될 수 있다. 예를 들어 복수 개의 제3센서(300c)는 제1센서(300a) 및 제2센서(300b) 사이에 각각 있을 수 있다. 따라서 도 18에 나타낸 바와 같이, 복수 개의 제1센서(300a), 제2센서(300b) 및 제3센서(300c)는 바디(100)의 둘레 방향을 따라 연속적으로 배열되며, 레이더(10)는 감지 영역(SA)의 사각 영역을 없앨 수 있다. 예를 들어 16개의 제1센서(300a), 제2센서(300b) 및 제3센서(300c)는 등간격으로 배열되며, 사잇각은 22.5도를 이룰 수 있다.Alternatively, as illustrated in FIG. 18, the radar (10) may include a greater number of sensors (300). For example, the sensors (300) may include a plurality of first sensors (300a), a plurality of second sensors (300b), and a plurality of third sensors (300c). For example, the sensors (300) may each include four first sensors (300a), four second sensors (300b), and eight third sensors (300c), and the plurality of first sensors (300a), second sensors (300b), and third sensors (300c) may be arranged alternately. The plurality of first sensors (300a), second sensors (300b), and third sensors (300c) may be individually controlled, and their respective detection areas (SA) may overlap. For example, a plurality of third sensors (300c) may be respectively positioned between the first sensor (300a) and the second sensor (300b). Therefore, as shown in FIG. 18, a plurality of first sensors (300a), second sensors (300b), and third sensors (300c) are arranged continuously along the circumferential direction of the body (100), and the radar (10) can eliminate the blind area of the detection area (SA). For example, 16 first sensors (300a), second sensors (300b), and third sensors (300c) may be arranged at equal intervals, and the angle between them may be 22.5 degrees.

플랫폼 컨트롤러(20)는 레이더(10), 플랫폼(30) 및 EOAT(40)와 유선 및/또는 무선으로 연결되어, 레이더(10), 플랫폼(30) 및 EOAT(40)를 제어할 수 있다. 예를 들어 플랫폼 컨트롤러(20)는 스마트폰, 랩탑, 데스크탑, 태블릿 PC 등 사용자 단말이거나 서버일 수 있다. 플랫폼 컨트롤러(20)는 레이더(10)로부터 전달받은 감지 정보에 기반해 조향 시스템(1)을 제어할 수 있다. 또는 상호작용 버튼(700)이 터치 또는 가압되면 플랫폼 컨트롤러(20)는 미리 정해진 알고리즘에 따라 조향 시스템(1)을 제어할 수 있다.The platform controller (20) is connected to the radar (10), the platform (30), and the EOAT (40) by wire and/or wirelessly, and can control the radar (10), the platform (30), and the EOAT (40). For example, the platform controller (20) may be a user terminal such as a smartphone, a laptop, a desktop, a tablet PC, or a server. The platform controller (20) may control the steering system (1) based on the detection information received from the radar (10). Alternatively, when the interaction button (700) is touched or pressed, the platform controller (20) may control the steering system (1) according to a predetermined algorithm.

플랫폼 컨트롤러(20)는 레이더(10)가 감지한 장애물에 관한 정보에 기반해 플랫폼(30)을 제어할 수 있다. 플랫폼 컨트롤러(20)는 플랫폼(30)과 장애물 간의 거리 및/또는 상대 속도, 장애물의 각도(위치)에 기반해 플랫폼(30)을 조향하거나, 조향하지 않거나, 감속하거나, 정지하거나 동작을 유지할 수 있다.The platform controller (20) can control the platform (30) based on information about an obstacle detected by the radar (10). The platform controller (20) can steer, not steer, decelerate, stop, or maintain operation of the platform (30) based on the distance and/or relative speed between the platform (30) and the obstacle, and the angle (position) of the obstacle.

플랫폼 컨트롤러(20)는 레이더(10)로부터 장애물(O)에 관한 정보를 수신할 수 있다. 예를 들어 레이더(10)는 플랫폼(30)의 주변에 있는 장애물(O)을 감지하고 신호를 플랫폼 컨트롤러(20)로 전달할 수 있다. 플랫폼 컨트롤러(20)는 수신한 신호로부터 장애물(O)에 관한 정보로서, 장애물(O)과 레이더(10) 또는 플랫폼(30)의 거리, 장애물(O)의 상대 속도(장애물(O)의 레이더(10) 또는 플랫폼(30)에 대한 속도), 장애물(O)의 각도(예를 들어 방위각 방향으로의 각도)를 계산할 수 있다. 또는 장애물(O)에 관한 정보는 레이더(10)가 계산하여 플랫폼 컨트롤러(20)로 전달한 값일 수 있다.The platform controller (20) can receive information about an obstacle (O) from the radar (10). For example, the radar (10) can detect an obstacle (O) around the platform (30) and transmit a signal to the platform controller (20). The platform controller (20) can calculate, from the received signal, information about the obstacle (O), such as the distance between the obstacle (O) and the radar (10) or the platform (30), the relative speed of the obstacle (O) (the speed of the obstacle (O) with respect to the radar (10) or the platform (30)), and the angle of the obstacle (O) (for example, the angle in the azimuth direction). Alternatively, the information about the obstacle (O) may be a value calculated by the radar (10) and transmitted to the platform controller (20).

플랫폼 컨트롤러(20)는 수신한 장애물(O)에 관한 정보에 기반해 플랫폼(30)을 조작할지 판단할 수 있다. 예를 들어 플랫폼 컨트롤러(20)는 장애물(O)의 거리가 미리 정해진 거리 이상이면, 플랫폼(30)을 조작하지 않을 수 있다. 즉, 플랫폼 컨트롤러(20)는 플랫폼(30)과 장애물(O)의 충돌 가능성이 없는 것으로 판단하고, 플랫폼(30)이 현재의 동작(정해진 이동 궤적)을 유지하도록 할 수 있다. The platform controller (20) can determine whether to operate the platform (30) based on the information about the received obstacle (O). For example, the platform controller (20) may not operate the platform (30) if the distance to the obstacle (O) is greater than a predetermined distance. In other words, the platform controller (20) can determine that there is no possibility of collision between the platform (30) and the obstacle (O) and cause the platform (30) to maintain its current operation (determined movement trajectory).

플랫폼 컨트롤러(20)는 레이더(10)의 중심 C를 기준으로 장애물(O)과 플랫폼(30) 간의 거리에 따른 복수 개의 가상의 영역을 설정할 수 있다. 예를 들어 도 19에 나타낸 바와 같이, 플랫폼 컨트롤러(20)는 중심 C를 기준으로 제1거리 r1 및 제2거리 r2 사이에 구획되는 제1영역 Z1, 제2거리 r2 및 제3거리 r3 사이에 구획되는 제2영역 Z2 및 제3거리 r3로 구획되는 제3영역 Z3를 설정할 수 있다. 제1영역 Z1, 제2영역 Z2 및 제3영역 Z3는 각각 중심 C에 대해 동심을 이룰 수 있다. 플랫폼 컨트롤러(20)는 장애물(O)이 복수 개의 영역 중 어느 영역에 있는지에 따라 플랫폼(30)을 서로 다르게 제어할 수 있다.The platform controller (20) can set a plurality of virtual areas according to the distance between the obstacle (O) and the platform (30) based on the center C of the radar (10). For example, as shown in FIG. 19, the platform controller (20) can set a first area Z1 divided between a first distance r1 and a second distance r2 based on the center C, a second area Z2 divided between a second distance r2 and a third distance r3, and a third area Z3 divided by the third distance r3. The first area Z1, the second area Z2, and the third area Z3 can each be concentric with respect to the center C. The platform controller (20) can control the platform (30) differently depending on which area among the plurality of areas the obstacle (O) is in.

제1영역 Z1은 관찰 영역(observing zone)일 수 있다. 제1영역 Z1은 중심 C를 기준으로 제1거리 r1 및 제2거리 r2 사이에 구획되며, 제1거리 r1은 제1영역 Z1의 외측 반경에 해당하며 레이더(10)의 최대 감지 거리일 수 있다. 제1거리 r1은 레이더(10)에 포함된 센서(300)의 사양, 종류 및 감도 등에 따라 달라질 수 있다. 제2거리 r2는 제1영역 Z1의 내측 반경에 해당하며 플랫폼(30)의 종류와 크기, 사용 목적 및 적용 분야 등에 따라 달라질 수 있다. 예를 들어 플랫폼(30)을 보다 민첩하게 조작해야 하는 경우, 제2거리 r2은 보다 큰 값을 가질 수 있다. 예를 들어 도 20에 나타낸 바와 같이, 레이더(10)가 제1영역 Z1에 있는 장애물(O)을 감지했을 때, 플랫폼 컨트롤러(20)는 플랫폼(30)을 조작하지 않을 수 있다. 즉, 제1영역 Z1은 장애물(O)을 관찰 및 추적하되 플랫폼(30)을 조작(예를 들어 조향, 정지 또는 감속)하지 않는 영역일 수 있다. 장애물(O)이 제1영역 Z1에 있을 때, 플랫폼 컨트롤러(20)는 플랫폼(30)이 원래의 이동 궤적을 따라 이동하도록 할 수 있다.The first area Z1 may be an observing zone. The first area Z1 is divided between a first distance r1 and a second distance r2 based on the center C, and the first distance r1 corresponds to the outer radius of the first area Z1 and may be the maximum detection distance of the radar (10). The first distance r1 may vary depending on the specifications, type, sensitivity, etc. of the sensor (300) included in the radar (10). The second distance r2 corresponds to the inner radius of the first area Z1 and may vary depending on the type and size of the platform (30), the purpose of use, the field of application, etc. For example, when the platform (30) needs to be operated more agilely, the second distance r2 may have a larger value. For example, as shown in FIG. 20, when the radar (10) detects an obstacle (O) in the first area Z1, the platform controller (20) may not operate the platform (30). That is, the first region Z1 may be an area in which the obstacle (O) is observed and tracked, but the platform (30) is not manipulated (e.g., steered, stopped, or decelerated). When the obstacle (O) is in the first region Z1, the platform controller (20) may cause the platform (30) to move along the original movement trajectory.

제2영역 Z2는 조향 영역(steering zone)일 수 있다. 제2영역 Z2는 중심 C를 기준으로 제2거리 r2 및 제3거리 r3 사이에 구획되며, 제1영역 Z1과 제3영역 Z3 사이에 있을 수 있다. 제2거리 r2는 제2영역 Z2의 외측 반경에 해당할 수 있다. 제3거리 r3는 제2영역 Z2의 내측 반경에 해당할 수 있다. 레이더(10)가 제2영역 Z2에 있는 장애물(O)을 감지했을 때, 플랫폼 컨트롤러(20)는 플랫폼(30)을 조향할 수 있다. 즉, 제2영역 Z2는 장애물(O)과 플랫폼(30)의 충돌을 피하기 위해 플랫폼 컨트롤러(20)가 플랫폼(30)의 이동 궤적을 바꾸는 영역일 수 있다. 예를 들어 도 21에 나타낸 바와 같이, 레이더(10)가 제2영역 Z2에 있는 장애물(O)을 감지했을 때, 레이더(10)는 플랫폼 컨트롤러(20)에 장애물 감지 신호를 전달할 수 있다. 그리고 플랫폼 컨트롤러(20)는 장애물(O)과 충돌하지 않기 위해 플랫폼(30)에 조향 명령을 내릴 수 있다.The second zone Z2 may be a steering zone. The second zone Z2 is divided between the second distance r2 and the third distance r3 with respect to the center C, and may be between the first zone Z1 and the third zone Z3. The second distance r2 may correspond to the outer radius of the second zone Z2. The third distance r3 may correspond to the inner radius of the second zone Z2. When the radar (10) detects an obstacle (O) in the second zone Z2, the platform controller (20) may steer the platform (30). That is, the second zone Z2 may be a zone in which the platform controller (20) changes the movement trajectory of the platform (30) to avoid a collision between the obstacle (O) and the platform (30). For example, as shown in FIG. 21, when the radar (10) detects an obstacle (O) in the second zone Z2, the radar (10) may transmit an obstacle detection signal to the platform controller (20). And the platform controller (20) can issue a steering command to the platform (30) to avoid colliding with an obstacle (O).

플랫폼 컨트롤러(20)는 레이더(10)가 감지한 장애물(O)의 거리 및 상대 속도, 장애물(O)의 위치(예를 들어 방위각 방향으로의 각도)를 반영해 플랫폼(30)을 조향할 수 있다. 즉, 플랫폼 컨트롤러(20)는 레이더(10)가 실시간으로 감지한 장애물(O)의 정보에 기반해 플랫폼(30)을 실시간으로, 동적으로 조향할 수 있다. 따라서 장애물(O)과 플랫폼(30)의 충돌을 효율적으로 회피할 수 있다.The platform controller (20) can steer the platform (30) by reflecting the distance and relative speed of the obstacle (O) detected by the radar (10) and the position (e.g., angle in the azimuth direction) of the obstacle (O). That is, the platform controller (20) can dynamically steer the platform (30) in real time based on information about the obstacle (O) detected by the radar (10) in real time. Therefore, collision between the obstacle (O) and the platform (30) can be efficiently avoided.

플랫폼 컨트롤러(20)는 플랫폼(30)의 요 레이트(yaw rate)를 변화시켜 플랫폼(30)을 조향할 수 있다. 예를 들어 플랫폼 컨트롤러(20)는 플랫폼(30)의 현재 속도 벡터(도 19의 ) 및 장애물(O)까지의 거리 벡터(도 19의 )에 의해 형성된 평면 상에서 플랫폼(30)이 장애물(O)을 회피하기 위한 각속도 벡터를 계산하고, 계산된 각속도 벡터(도 19의 wz)에 기반해 플랫폼(30)을 회전시킬 수 있다. 플랫폼(30)의 현재 속도 벡터 및 장애물(O)까지의 거리 벡터에 의해 형성된 평면은 도 19에 나타낸 바와 같이, 조향 평면 (steering plane) SP로 나타낼 수 있다. 계산된 요 레이트에 의해 플랫폼(30)의 요 축은 도 19에 나타낸 바와 같이 Z축에서 Z'축으로 회전할 수 있다. The platform controller (20) can steer the platform (30) by changing the yaw rate of the platform (30). For example, the platform controller (20) can change the current velocity vector of the platform (30) (Fig. 19). ) and the distance vector to the obstacle (O) (Fig. 19) ) on a plane formed by the angular velocity vector for the platform (30) to avoid an obstacle (O), and the platform (30) can be rotated based on the calculated angular velocity vector (wz in FIG. 19). The plane formed by the current velocity vector of the platform (30) and the distance vector to the obstacle (O) can be represented as a steering plane SP, as shown in FIG. 19. The yaw axis of the platform (30) can be rotated from the Z-axis to the Z'-axis, as shown in FIG. 19, by the calculated yaw rate.

플랫폼 컨트롤러(20)는 아래의 식 (1)로 각속도 벡터(요 레이트)를 계산할 수 있다.The platform controller (20) can calculate the angular velocity vector (yaw rate) using the equation (1) below.

, 식 (1) , Equation (1)

식 (1)에서 wz는 각속도 벡터(요 레이트), r은 감지한 장애물(O)까지의 거리, r3는 최소 안전 거리로서 제3영역 Z3의 반경, θ는 감지한 장애물(O)의 방위 각도, r2는 최대 조향 거리로서 제1영역 Z1의 내측 반경(또는 제2영역 Z2의 외측 반경), v는 플랫폼(30)의 현재의 속도 벡터이고, sign(θ)는 θ의 부호이다. 플랫폼 컨트롤러(20)는 장애물(O)의 방위각 θ를 [-180, 180] 범위로 변환하여 플랫폼(30)의 방향에 대한 조향 동작의 방향을 결정하기 위한 표준화된 기준 프레임을 제공할 수 있다.In Equation (1), w z is the angular velocity vector (yaw rate), r is the distance to the detected obstacle (O), r3 is the minimum safe distance as the radius of the third area Z3, θ is the azimuth angle of the detected obstacle (O), r2 is the maximum steering distance as the inner radius of the first area Z1 (or the outer radius of the second area Z2), v is the current velocity vector of the platform (30), and sign(θ) is the sign of θ. The platform controller (20) can provide a standardized reference frame for determining the direction of the steering operation with respect to the direction of the platform (30) by converting the azimuth angle θ of the obstacle (O) into the range of [-180, 180].

식 (1)에서 분자 r3v는 조향 중 플랫폼(30)이 장애물(O)로부터 안전 거리 r3를 유지하도록 할 수 있다. 식 (1)에서 분모 (r-r3)r은 장애물(O)로부터의 거리 r에 기반해 요 레이트의 크기를 조절할 수 있다. 식 (1)에서 θ의 부호는 장애물(O)의 방위 각도 θ에 대해 적절한 방향(왼쪽 또는 오른쪽)으로 플랫폼(30)을 조향하도록 할 수 있다. 앞서 설명한 바와 같이, 플랫폼 컨트롤러(20)는 감지한 장애물(O)까지의 거리 r이 최대 조향 거리인 제2거리 r2 이상이면, 즉, 장애물(O)이 제1영역 Z1과 제2영역 Z2의 경계에 있거나, 제2영역 Z2보다 멀리 있으면 플랫폼 컨트롤러(20)는 플랫폼(30)을 조향하지 않을 수 있다. 감지한 장애물(O)까지의 거리 r이 제2거리 r2보다 작으면, 즉, 장애물(O)이 제2영역 Z2 내에 있으면 플랫폼 컨트롤러(20)는 위 식 (1)에 따라 플랫폼(30)을 조향할 수 있다.In Equation (1), the numerator r3v can allow the platform (30) to maintain a safe distance r3 from the obstacle (O) during steering. The denominator (r-r3)r in Equation (1) can adjust the size of the yaw rate based on the distance r from the obstacle (O). The sign of θ in Equation (1) can allow the platform (30) to be steered in an appropriate direction (left or right) for the azimuth angle θ of the obstacle (O). As described above, the platform controller (20) may not steer the platform (30) if the distance r to the detected obstacle (O) is greater than or equal to the second distance r2, which is the maximum steering distance, i.e., if the obstacle (O) is at the boundary between the first area Z1 and the second area Z2, or is further than the second area Z2. If the distance r to the detected obstacle (O) is less than the second distance r2, i.e., if the obstacle (O) is within the second area Z2, the platform controller (20) can steer the platform (30) according to the above equation (1).

플랫폼 컨트롤러(20)는 위 식 (1)에 기반해 플랫폼(30)을 조향함으로써, 플랫폼(30)과 장애물(O)의 안전 거리를 유지하면서 플랫폼(30)을 조향해 플랫폼(30)과 장애물(O)의 충돌을 방지할 수 있다. 또한 플랫폼(30)의 요 레이트를 변화시켜 플랫폼(30)을 효율적으로 조향할 수 있다.The platform controller (20) can steer the platform (30) based on the above equation (1), thereby preventing a collision between the platform (30) and the obstacle (O) by maintaining a safe distance between the platform (30) and the obstacle (O). In addition, the platform (30) can be efficiently steered by changing the yaw rate of the platform (30).

플랫폼 컨트롤러(20)는 장애물(O)의 상대 속도 및/또는 장애물(O)의 접근 방향을 고려한 스피드 게인(speed gain)을 반영해 플랫폼(30)을 조향하기 위한 요 레이트를 계산할 수 있다. 예를 들어 플랫폼 컨트롤러(20)는 아래의 식 (2)로 요 레이트를 계산할 수 있다.The platform controller (20) can calculate the yaw rate for steering the platform (30) by reflecting the relative speed of the obstacle (O) and/or the speed gain considering the approaching direction of the obstacle (O). For example, the platform controller (20) can calculate the yaw rate using the following equation (2).

, 식 (2) , Equation (2)

여기서 k는 스피드 게인이고, k는 아래의 식 (3)으로 계산된다.Here, k is the speed gain, and k is calculated by equation (3) below.

, 식 (3) , equation (3)

여기서 vr은 장애물(O)의 상대 속도, 즉 장애물(O)의 레이더(10) 또는 플랫폼(30)에 대한 속도를 나타낸다. Δr은 rk-r(k-1), 즉 레이더(10)가 어느 시점에 측정한 장애물(O)의 거리와 바로 이전 주기에 측정한 장애물(O)의 거리의 차이를 나타낸다. sign(Δr)은 Δr의 부호이다.Here, v r represents the relative velocity of the obstacle (O), i.e., the velocity of the obstacle (O) with respect to the radar (10) or platform (30). Δr represents r k -r (k-1) , i.e., the difference between the distance to the obstacle (O) measured by the radar (10) at a certain point in time and the distance to the obstacle (O) measured in the immediately previous cycle. sign(Δr) represents the sign of Δr.

예를 들어, vr > v이고, Δr < 0일 때, 장애물(O)은 플랫폼(30)에 보다 빠르게 접근한다. 따라서 장애물(O)과 플랫폼(30)의 충돌을 보다 확실하게 방지하기 위해 플랫폼 컨트롤러(20)는 플랫폼(30)을 보다 빠르게 조향해야 한다. 이때 스피드 게인 k은 0보다 큰 값을 가질 수 있다. 플랫폼 컨트롤러(20)는 계산된 스피드 게인 k값을 식 (1)에 적용해 보정된 요 레이트를 계산할 수 있다. 또는 vr > v이고, Δr > 0일 경우, 장애물(O)은 플랫폼(30)보다 빠르게 움직이지만 플랫폼(30)에서 멀어지는 방향으로 움직인다. 따라서 장애물(O)과 플랫폼(30)의 충돌 위험이 낮아, 플랫폼 컨트롤러(20)는 플랫폼(30)을 빠르게 가속하기 보다는 낮은 가속도로 안정적으로 조향하는 것이 바람직하다. 이때 스피드 게인 k은 0보다 작은 값을 가질 수 있다. 플랫폼 컨트롤러(20)는 계산된 스피드 게인 k값을 식 (1)에 적용해 보정된 요 레이트를 계산할 수 있다.For example, when v r > v and Δr < 0, the obstacle (O) approaches the platform (30) faster. Therefore, in order to more reliably prevent a collision between the obstacle (O) and the platform (30), the platform controller (20) must steer the platform (30) faster. At this time, the speed gain k may have a value greater than 0. The platform controller (20) may calculate the corrected yaw rate by applying the calculated speed gain k value to Equation (1). Alternatively, when v r > v and Δr > 0, the obstacle (O) moves faster than the platform (30) but moves in a direction away from the platform (30). Therefore, since the risk of collision between the obstacle (O) and the platform (30) is low, it is desirable for the platform controller (20) to steer the platform (30) stably with low acceleration rather than rapidly accelerating it. At this time, the speed gain k may have a value less than 0. The platform controller (20) can calculate the corrected yaw rate by applying the calculated speed gain k value to equation (1).

플랫폼(30)의 속도가 장애물(O)의 상대 속도와 같거나 그보다 클 때(즉, vr ≤ v일 때는 스피드 게인 k의 값은 1일 수 있다. 또는 이 경우, 요 레이트를 보정할 필요가 없으므로 플랫폼 컨트롤러(20)는 식 (1)과 동일하게 요 레이트를 계산할 수 있다.When the speed of the platform (30) is equal to or greater than the relative speed of the obstacle (O) (i.e., when v r ≤ v), the value of the speed gain k may be 1. Or, in this case, since there is no need to compensate for the yaw rate, the platform controller (20) may calculate the yaw rate in the same manner as in equation (1).

제3영역 Z3는 안전 영역(safety zone)일 수 있다. 제3영역 Z3는 중심 C를 기준으로 제3거리 r3에 의해 구획되며, 제3거리 r3는 제2영역 Z2와 제3영역 Z3의 경계를 형성할 수 있다. 제3영역 Z3은 플랫폼(30)과 장애물(O)이 충돌하지 않도록 하기 위한 최소한의 안전 영역으로서, 제3거리 r3는 플랫폼(30)의 종류와 크기, 사용 목적 및 적용 분야 등에 따라 달라질 수 있다. 예를 들어 도 22에 나타낸 바와 같이, 레이더(10)가 제3영역 Z3에 있는 장애물(O)을 감지했을 때, 레이더(10)는 플랫폼 컨트롤러(20)에 장애물 감지 신호를 전달할 수 있다. 그리고 플랫폼 컨트롤러(20)는 장애물(O)과 충돌 시 발생하는 충격을 줄이기 위해 플랫폼(30)에 속도 조절 명령을 내릴 수 있다.The third zone Z3 may be a safety zone. The third zone Z3 is divided by a third distance r3 based on the center C, and the third distance r3 may form a boundary between the second zone Z2 and the third zone Z3. The third zone Z3 is a minimum safety zone to prevent the platform (30) from colliding with the obstacle (O), and the third distance r3 may vary depending on the type and size of the platform (30), the purpose of use, the field of application, etc. For example, as shown in FIG. 22, when the radar (10) detects an obstacle (O) in the third zone Z3, the radar (10) may transmit an obstacle detection signal to the platform controller (20). In addition, the platform controller (20) may issue a speed control command to the platform (30) to reduce the impact generated when colliding with the obstacle (O).

플랫폼 컨트롤러(20)는 장애물(O)이 제3영역 Z3에 진입한 상태에서, 플랫폼(30)과 장애물(O)의 충돌을 회피할 수 없다고 판단되면 플랫폼(30)의 속도를 조절할 수 있다. 예를 들어 플랫폼 컨트롤러(20)는 장애물(O)과 플랫폼(30)의 예상 충돌 시간에 따라 플랫폼(30)의 속도 조절 여부를 결정할 수 있다. 예를 들어 장애물(O)이 제3영역 Z3에 진입한 경우, 즉, 거리 r < 제3거리 r3일 때, 플랫폼 컨트롤러(20)는 장애물(O)과 플랫폼(30)의 예상 충돌 시간 tc이 임계 시간 ts 이하면, 플랫폼(30)을 즉시 정지할 수 있다. 따라서 장애물(O)과 충돌에 따른 플랫폼(30)의 충격과 손상을 최소화할 수 있다. 여기서 임계 시간 ts는 플랫폼(30)의 크기, 무게, 형상, 적용 대상, 최대 가속도 등을 고려해 미리 정해진 값일 수 있다. 또한 예상 충돌 시간 tc는 r/vr로 계산될 수 있다.When the platform controller (20) determines that the collision between the platform (30) and the obstacle (O) cannot be avoided while the obstacle (O) has entered the third area Z3, the platform controller (20) can adjust the speed of the platform (30). For example, the platform controller (20) can determine whether to adjust the speed of the platform (30) according to the expected collision time between the obstacle (O) and the platform (30). For example, when the obstacle (O) has entered the third area Z3, that is, when the distance r < the third distance r3, the platform controller (20) can immediately stop the platform (30) if the expected collision time t c between the obstacle (O) and the platform (30) is less than or equal to the critical time t s . Therefore, the impact and damage to the platform (30) due to the collision with the obstacle (O) can be minimized. Here, the critical time t s may be a value determined in advance in consideration of the size, weight, shape, application target, maximum acceleration, etc. of the platform (30). Additionally, the expected collision time t c can be calculated as r/v r .

만약 예상 충돌 시간 tc가 임계 시간 ts보다 크면 플랫폼 컨트롤러(20)는 플랫폼(30)을 즉시 정지시키지 않을 수 있다. 예를 들어 예상 충돌 시간 tc이 임계 시간 ts보다 크고, 플랫폼(30)과 장애물(O)의 거리가 감속 거리 rsl 이하면, 플랫폼 컨트롤러(20)는 플랫폼(30)을 감속할 수 있다. 여기서 감속 거리 rsl는 플랫폼(30)의 크기, 무게, 형상, 적용 대상, 최대 가속도 등을 고려해 미리 정해진 값이며 r3보다 작을 수 있다. 예를 들어 감속 거리 rsl는 r3의 10% 내지 80%, 또는 20% 내지 70%일 수 있다. 또는 rsl는 r3의 절반일 수 있다. 이후 플랫폼(30)과 장애물(O)의 거리가 감속 거리 rsl보다 커지면 플랫폼 컨트롤러(20)는 플랫폼(30)을 이동시킬 수 있다. 여기서 "플랫폼(30)을 이동"시킨다는 의미는 플랫폼(30)을 원래 이동 궤적에 따라 이동시키거나 플랫폼(30)을 조향하는 것을 의미할 수 있다. 따라서 플랫폼(30)의 속도가 줄어듦에 따라 이후 예상되는 플랫폼(30)과 장애물(O)의 충돌에 따른 충격을 줄일 수 있다. 또한 플랫폼(30)과 장애물(O)의 예상 충돌 시간을 더 길게 확보하여 이후 장애물(O)의 거동에 따라 플랫폼(30)과 장애물(O)의 충돌을 회피할 수 있다.If the expected collision time t c is greater than the critical time t s , the platform controller (20) may not immediately stop the platform (30). For example, if the expected collision time t c is greater than the critical time t s , and the distance between the platform (30) and the obstacle (O) is less than or equal to the deceleration distance r sl , the platform controller (20) may decelerate the platform (30). Here, the deceleration distance r sl is a predetermined value considering the size, weight, shape, application target, maximum acceleration, etc. of the platform (30), and may be less than r3. For example, the deceleration distance r sl may be 10% to 80%, or 20% to 70% of r3 . Alternatively, r sl may be half of r3 . Thereafter, if the distance between the platform (30) and the obstacle (O) becomes greater than the deceleration distance r sl , the platform controller (20) may move the platform (30). Here, "moving the platform (30)" may mean moving the platform (30) along its original movement trajectory or steering the platform (30). Accordingly, as the speed of the platform (30) decreases, the impact resulting from a subsequent expected collision between the platform (30) and the obstacle (O) can be reduced. In addition, by securing a longer expected collision time between the platform (30) and the obstacle (O), the collision between the platform (30) and the obstacle (O) can be avoided depending on the subsequent behavior of the obstacle (O).

만약 플랫폼 컨트롤러(20)가 플랫폼(30)을 감속한 후, 플랫폼(30)과 장애물(O)의 거리가 감속 거리 rsl 이하면, 플랫폼 컨트롤러(20)가 플랫폼(30)을 즉시 정지할 수 있다. 이후 플랫폼(30)과 장애물(O)의 거리가 정지 거리 rst보다 커지면 다시 플랫폼(30)을 감속 이동할 수 있다. 여기서 정지 거리 rst는 플랫폼(30)의 크기, 무게, 형상, 적용 대상, 최대 가속도 등을 고려해 미리 정해진 값이며 r3 및 감속 거리 rsl보다 작을 수 있다. 예를 들어 정지 거리 rsl는 감속 거리 rsl의 10% 내지 80%, 또는 20% 내지 70%일 수 있다. 또는 정지 거리 rsl는 감속 거리 rsl의 절반일 수 있다. 반면 플랫폼(30)과 장애물(O)의 거리가 정지 거리 rst 이하면 플랫폼(30)의 정지 상태를 유지할 수 있다.If the platform controller (20) decelerates the platform (30) and the distance between the platform (30) and the obstacle (O) is less than or equal to the deceleration distance r sl , the platform controller (20) can immediately stop the platform (30). Afterwards, if the distance between the platform (30) and the obstacle (O) becomes greater than the stopping distance r st , the platform (30) can be decelerated again. Here, the stopping distance r st is a value predetermined in consideration of the size, weight, shape, application target, maximum acceleration, etc. of the platform (30), and may be less than r3 and the deceleration distance r sl . For example, the stopping distance r sl may be 10% to 80%, or 20% to 70%, of the deceleration distance r sl . Alternatively, the stopping distance r sl may be half of the deceleration distance r sl . On the other hand, if the distance between the platform (30) and the obstacle (O) is less than or equal to the stopping distance r st , the platform (30) can be maintained in a stopped state.

또는 예상 충돌 시간 tc이 임계 시간 ts보다 크고, 플랫폼(30)과 장애물(O)의 거리가 감속 거리 rsl보다 크면, 플랫폼 컨트롤러(20)는 플랫폼(30)을 이동시킬 수 있다.Alternatively, if the expected collision time t c is greater than the critical time t s and the distance between the platform (30) and the obstacle (O) is greater than the deceleration distance r sl , the platform controller (20) can move the platform (30).

플랫폼 컨트롤러(20)는 플랫폼(30)의 조향 여부를 결정할 때 장애물(O)이 제3영역 Z3에 있는 것으로 판단되면 플랫폼(30)을 조향하지 않고 속도 조절 동작(플랫폼(30)을 정지 또는 감속)을 실시하거나, 플랫폼(30)을 조향한 후에 장애물(O)이 제3영역 Z3에 있으면 속도 조절 동작을 실시할 수 있다.When determining whether to steer the platform (30), if the platform controller (20) determines that the obstacle (O) is in the third area Z3, it may perform a speed control operation (stopping or slowing down the platform (30)) without steering the platform (30), or if the obstacle (O) is in the third area Z3 after steering the platform (30), it may perform a speed control operation.

플랫폼 컨트롤러(20)는 레이더(10)가 복수 개의 장애물(O)에 관한 정보를 감지할 경우, 복수 개의 장애물(O) 중 플랫폼(30)과 가장 가까이 있는 장애물(O)을 기준으로 플랫폼(30)의 조작 여부를 결정할 수 있다. 플랫폼(30)과 가장 가까이 있는 장애물(O)은 레이더(10)가 실시간으로 감지하는 정보에 따라 달라질 수 있다.When the radar (10) detects information about multiple obstacles (O), the platform controller (20) can determine whether to operate the platform (30) based on the obstacle (O) closest to the platform (30) among the multiple obstacles (O). The obstacle (O) closest to the platform (30) may vary depending on the information detected in real time by the radar (10).

센서 컨트롤러(200), 통신 컨트롤러(400) 및 플랫폼 컨트롤러(20)는 메모리, 프로세서, 논리 회로, 룩업(look-up) 테이블 등 하나 이상의 마이크로프로세서 또는 다른 제어 장치를 통해 각각의 제어 기능을 실행하는 직접 회로 구조를 이용할 수 있다. 센서 컨트롤러(200), 통신 컨트롤러(400) 및 플랫폼 컨트롤러(20)는 특정 논리 기능을 실행하기 위한 하나 이상의 실행 가능한 지시를 포함하는 모듈, 프로그램 또는 코드의 일부로 구현될 수 있다. 센서 컨트롤러(200), 통신 컨트롤러(400) 및 플랫폼 컨트롤러(20)는 각각의 기능이나 마이크로프로세서 등을 실행하는 중앙 처리 장치와 같은 프로세서를 포함하거나 이에 의해 구현될 수 있다. 센서 컨트롤러(200), 통신 컨트롤러(400) 및 플랫폼 컨트롤러(20)는 외부 장치 등과 데이터를 송수신할 수 있는 통신 장치를 포함할 수 있다. 통신 장치는 디지털 모뎀, RF 모뎀, 안테나 회로, 와이파이 칩 및 관련 소프트웨어 및/또는 펌웨어의 하나 이상의 조합을 포함할 수 있다.The sensor controller (200), the communication controller (400), and the platform controller (20) may utilize a direct circuit structure that executes each control function through one or more microprocessors or other control devices such as a memory, a processor, a logic circuit, a look-up table, etc. The sensor controller (200), the communication controller (400), and the platform controller (20) may be implemented as a part of a module, program, or code that includes one or more executable instructions for executing a specific logic function. The sensor controller (200), the communication controller (400), and the platform controller (20) may include or be implemented by a processor such as a central processing unit that executes each function or a microprocessor, etc. The sensor controller (200), the communication controller (400), and the platform controller (20) may include a communication device that can transmit and receive data with an external device, etc. The communication device may include one or more combinations of a digital modem, an RF modem, an antenna circuit, a Wi-Fi chip, and related software and/or firmware.

조향 시스템(1)은 EOAT(40)를 더 포함할 수 있다. 예를 들어 플랫폼(30)이 복수 개의 조인트를 포함하는 경우, 그 말단에 EOAT(40)가 연결될 수 있다. 예를 들어 플랫폼(30)은 6축 로봇 암으로서 EOAT(40)를 다양한 방향과 위치로 이동시킬 수 있다. 플랫폼(30)의 말단과 EOAT(40) 사이에는 레이더(10)가 장착될 수 있다.The steering system (1) may further include an EOAT (40). For example, if the platform (30) includes multiple joints, an EOAT (40) may be connected to the end thereof. For example, the platform (30) may be a six-axis robot arm capable of moving the EOAT (40) in various directions and positions. A radar (10) may be mounted between the end of the platform (30) and the EOAT (40).

EOAT(40)는 플랫폼(30)에 연결되며 장애물을 파지, 조립 또는 기타 가공 동작을 실시할 수 있다. 예를 들어 도 1에 나타낸 바와 같이, EOAT(40)는 플랫폼(30)의 복수 개의 조인트 중 말단부에 장착될 수 있다. EOAT(40)는 조향 시스템(1)이 이용되는 분야에 따라 다양한 형상을 가질 수 있다. 예를 들어 EOAT(40)는 핑거 또는 석션 타입의 그리퍼, 수술용 로봇의 말단부 또는 용접 등 기타 사상 가공에 이용되는 툴을 포함할 수 있다. 또는 플랫폼(30)이 6축 로봇 암이 아닌 자율주행 차량, 무인기, 산업 자동화 설비, 각종 보안 및 추적 시스템인 경우, EOAT(40)는 해당 플랫폼(30)의 대응되는 조작 기기 또는 상호작용 기기일 수 있다.The EOAT (40) is connected to the platform (30) and can perform operations such as gripping, assembling, or other processing of obstacles. For example, as shown in FIG. 1, the EOAT (40) can be mounted on an end portion of a plurality of joints of the platform (30). The EOAT (40) can have various shapes depending on the field in which the steering system (1) is used. For example, the EOAT (40) can include a finger or suction type gripper, a distal end portion of a surgical robot, or a tool used for other finishing processing such as welding. Alternatively, if the platform (30) is not a six-axis robot arm but an autonomous vehicle, an unmanned aerial vehicle, an industrial automation facility, or various security and tracking systems, the EOAT (40) can be a corresponding manipulation device or interaction device of the platform (30).

다음 본 개시의 실시예들에 따른 조향 시스템(1)이 플랫폼(30)을 조향하는 방법을 설명한다.The following describes a method of steering a platform (30) according to embodiments of the present disclosure using a steering system (1).

도 23에 나타낸 바와 같이, 본 개시의 실시예들에 따른 플랫폼(30)의 조향 방법은 플랫폼(30)에 장착된 레이더(10)가 장애물(O)에 관한 정보를 수집하는 단계, 수집된 정보에 기반해 플랫폼 컨트롤러(20)가 플랫폼(30)의 조향 여부를 결정하는 단계 및 플랫폼 컨트롤러(20)가 플랫폼(30)을 조향하는 단계를 포함하고, 플랫폼(30)의 조향 여부를 결정하는 단계는, 장애물(O)이 제1영역 Z1에 있거나 제1영역 Z1보다 밖에 있으면 플랫폼(30)을 조향하지 않고, 장애물(O)이 제2영역 Z2에 있으면 장애물(O)이 제3영역 Z3으로 진입하지 않도록 플랫폼(30)을 조향하고, 플랫폼(30)을 조향하는 단계는, 플랫폼 컨트롤러(20)가 플랫폼(30)이 장애물(O)로부터 멀어지도록 조향하기 위한 요 레이트를 계산하고, 계산된 요 레이트에 대응되도록 플랫폼(30)을 조향할 수 있다.As shown in FIG. 23, a method for steering a platform (30) according to embodiments of the present disclosure includes a step of collecting information about an obstacle (O) by a radar (10) mounted on the platform (30), a step of determining whether to steer the platform (30) based on the collected information by the platform controller (20), and a step of steering the platform (30) by the platform controller (20), wherein the step of determining whether to steer the platform (30) includes not steering the platform (30) if the obstacle (O) is in a first area Z1 or outside the first area Z1, and steering the platform (30) so that the obstacle (O) does not enter a third area Z3 if the obstacle (O) is in a second area Z2, and the step of steering the platform (30) includes calculating a yaw rate for steering the platform (30) away from the obstacle (O) by the platform controller (20), and steering the platform (30) so as to correspond to the calculated yaw rate.

먼저 장애물(O)에 관한 정보를 수집하는 단계에서, 플랫폼(30)에 장착된 레이더(10)는 플랫폼(30)의 주변에 있는 장애물(O)을 감지하고 장애물(O)과 플랫폼(30) 간의 거리 및 상대 속도, 장애물(O)의 각도 등에 관한 정보를 수집해 플랫폼 컨트롤러(20)로 전달한다.First, in the step of collecting information about an obstacle (O), the radar (10) mounted on the platform (30) detects an obstacle (O) around the platform (30) and collects information about the distance and relative speed between the obstacle (O) and the platform (30), the angle of the obstacle (O), etc., and transmits the collected information to the platform controller (20).

플랫폼(30)의 조향 여부를 결정하는 단계에서, 플랫폼 컨트롤러(20)는 전달받은 장애물(O)에 관한 정보로부터 장애물(O)이 어느 영역에 있는지 판단한다. 플랫폼 컨트롤러(20)는 장애물(O)이 아직 제2영역 Z2 내로 접근하지 못한 경우, 즉 장애물(O)이 제1영역 Z1이나 그 밖에 있는 것으로 판단되면 플랫폼(30)을 조향하지 않고 플랫폼(30)이 현재의 이동 궤적을 따라 이동하도록 한다. 그리고 레이더(10)로부터 장애물(O)에 관한 정보를 지속적으로 전달 받는다. In the step of determining whether to steer the platform (30), the platform controller (20) determines in which area the obstacle (O) is located based on the information about the obstacle (O) received. If the obstacle (O) has not yet approached the second area Z2, i.e., if the obstacle (O) is determined to be in the first area Z1 or outside, the platform controller (20) does not steer the platform (30) and allows the platform (30) to move along the current movement trajectory. In addition, information about the obstacle (O) is continuously transmitted from the radar (10).

플랫폼(30)을 조향하는 단계에서, 플랫폼 컨트롤러(20)는 장애물(O)이 제2영역 Z2 내로 접근한 것으로 판단하면 플랫폼(30)과 장애물(O)의 충돌을 회피하기 위해 플랫폼(30)을 조향한다. 플랫폼 컨트롤러(20)는 플랫폼(30)과 장애물(O)의 상대 속도 및 거리, 장애물(O)의 위치(방위각)를 포함하는 장애물(O)에 관한 정보에 기반해 플랫폼(30)을 조향하기 위한 요 레이트를 계산한다. 플랫폼 컨트롤러(20)는 플랫폼(30)의 요 레이트를 변화시켜 플랫폼(30)을 조향한다. 플랫폼 컨트롤러(20)는 위의 식 (1)을 이용해 플랫폼(30)을 회전시켜 플랫폼(30)을 조향한다. 또는 플랫폼(30)을 조향하는 단계에서, 플랫폼 컨트롤러(20)는 식 (2)로 요 레이트를 계산한다.In the step of steering the platform (30), if the platform controller (20) determines that the obstacle (O) has approached the second area Z2, the platform controller (20) steers the platform (30) to avoid collision between the platform (30) and the obstacle (O). The platform controller (20) calculates the yaw rate for steering the platform (30) based on information about the obstacle (O), including the relative speed and distance between the platform (30) and the obstacle (O) and the position (azimuth) of the obstacle (O). The platform controller (20) steers the platform (30) by changing the yaw rate of the platform (30). The platform controller (20) steers the platform (30) by rotating the platform (30) using the above equation (1). Alternatively, in the step of steering the platform (30), the platform controller (20) calculates the yaw rate using equation (2).

이후 장애물(O)이 다시 제1영역 Z1에 있거나 제1영역 Z1의 밖에 있는 것으로 판단되면, 플랫폼(30)을 조향하지 않고 플랫폼(30)이 현재의 이동 궤적을 따라 이동하도록 한다. Afterwards, if the obstacle (O) is determined to be in the first area Z1 again or outside the first area Z1, the platform (30) is not steered and the platform (30) is allowed to move along the current movement trajectory.

본 개시의 실시예들에 따른 플랫폼(30)의 조향 방법은 속도 조절 단계를 더 포함한다. 속도 조절 단계에서, 장애물(O)이 제3영역 Z3에 있으면, 플랫폼 컨트롤러(20)가 플랫폼(30)을 정지시키거나 플랫폼(30)을 감속한다. 만약 장애물(O)이 제3영역 Z3 내로 접근하면 플랫폼 컨트롤러(20)는 플랫폼(30)이 장애물(O)을 회피할 수 있는지 판단한다. 플랫폼 컨트롤러(20)는 플랫폼(30)과 장애물(O)의 상대 속도 및 거리, 장애물(O)의 위치(방위각)를 포함하는 장애물(O)에 관한 정보에 기반해 플랫폼(30)이 장애물(O)을 회피할 수 있는지 판단한다. 플랫폼(30)이 장애물(O)을 회피할 수 있다고 판단되면, 플랫폼 컨트롤러(20)는 플랫폼(30)의 조향 상태를 유지한다. 반면 플랫폼(30)이 장애물(O)을 회피할 수 있다고 판단되면, 플랫폼 컨트롤러(20)는 플랫폼(30)의 속도를 조절해 플랫폼(30)과 장애물(O)의 충돌에 따른 충격을 줄인다(도 23 참조).The steering method of the platform (30) according to embodiments of the present disclosure further includes a speed control step. In the speed control step, if the obstacle (O) is in the third area Z3, the platform controller (20) stops the platform (30) or decelerates the platform (30). If the obstacle (O) approaches within the third area Z3, the platform controller (20) determines whether the platform (30) can avoid the obstacle (O). The platform controller (20) determines whether the platform (30) can avoid the obstacle (O) based on information about the obstacle (O), including the relative speed and distance between the platform (30) and the obstacle (O) and the position (azimuth) of the obstacle (O). If it is determined that the platform (30) can avoid the obstacle (O), the platform controller (20) maintains the steering state of the platform (30). On the other hand, if it is determined that the platform (30) can avoid the obstacle (O), the platform controller (20) adjusts the speed of the platform (30) to reduce the impact resulting from the collision between the platform (30) and the obstacle (O) (see Fig. 23).

플랫폼 컨트롤러(20)는 속도 조절 단계에서 예상 충돌 시간 tc와 임계 시간 ts를 비교해 플랫폼(30)의 조작 모드를 결정한다. 플랫폼 컨트롤러(20)는 플랫폼(30)과 장애물(O)의 상대 속도 및 거리, 장애물(O)의 위치로부터 플랫폼(30)과 장애물(O)의 예상 충돌 시간 tc을 계산한다. 만약 예상 충돌 시간 tc가 임계 시간 ts 이하면, 플랫폼 컨트롤러(20)는 플랫폼(30)을 정지한다.The platform controller (20) determines the operation mode of the platform (30) by comparing the expected collision time t c with the critical time t s in the speed control step. The platform controller (20) calculates the expected collision time t c between the platform (30) and the obstacle (O) from the relative speed and distance between the platform (30) and the obstacle (O) and the position of the obstacle (O ) . If the expected collision time t c is less than or equal to the critical time t s , the platform controller (20) stops the platform (30).

만약 예상 충돌 시간 tc가 임계 시간 ts보다 크면, 플랫폼 컨트롤러(20)는 플랫폼(30)과 장애물(O)의 거리를 감속 거리 rsl와 비교한다. 플랫폼(30)과 장애물(O)의 거리가 감속 거리 rsl보다 크면 플랫폼 컨트롤러(20)는 플랫폼(30)을 조향하거나 현재의 이동 궤적을 유지한다. 반면 플랫폼(30)과 장애물(O)의 거리가 감속 거리 rsl 이하면, 플랫폼 컨트롤러(20)는 플랫폼(30)과 장애물(O)의 충돌에 따른 충격을 줄이기 위해 플랫폼(30)을 감속한다. 이후 플랫폼(30)의 감속에 따라 장애물(O)과 플랫폼(30)의 거리가 감속 거리 rsl보다 커지면 플랫폼 컨트롤러(20)는 플랫폼(30)을 조향하거나 현재의 이동 궤적을 유지한다. 반면 장애물(O)과 플랫폼(30)의 거리가 감속 거리 rsl 이하면, 플랫폼(30)과 장애물(O)의 충돌에 따른 충격을 줄이기 위해 플랫폼 컨트롤러(20)는 플랫폼(30)을 정지시킨다. 이후 장애물(O)과 플랫폼(30)의 거리가 정지 거리 rst보다 커지면 플랫폼 컨트롤러(20)는 플랫폼(30)을 다시 감속 이동시킨다. 여기서 감속 이동은 원래의 이동 궤적을 이동할 때의 정상 속도보다 느린 속도의 이동을 의미한다. 만약 장애물(O)과 플랫폼(30)의 거리가 정지 거리 rst 이하가 되면, 플랫폼 컨트롤러(20)는 플랫폼(30)의 정지 상태를 유지한다(도 24 참조).If the expected collision time t c is greater than the critical time t s , the platform controller (20) compares the distance between the platform (30) and the obstacle (O) with the deceleration distance r sl . If the distance between the platform (30) and the obstacle (O) is greater than the deceleration distance r sl , the platform controller (20) steers the platform (30) or maintains the current movement trajectory. On the other hand, if the distance between the platform (30) and the obstacle (O) is less than the deceleration distance r sl , the platform controller (20) decelerates the platform (30) to reduce the impact caused by the collision between the platform (30) and the obstacle (O). Thereafter, as the platform (30) decelerates, if the distance between the obstacle (O) and the platform (30) becomes greater than the deceleration distance r sl , the platform controller (20) steers the platform (30) or maintains the current movement trajectory. On the other hand, if the distance between the obstacle (O) and the platform (30) is less than the deceleration distance r sl , the platform controller (20) stops the platform (30) to reduce the impact caused by the collision between the platform (30) and the obstacle (O). Afterwards, if the distance between the obstacle (O) and the platform (30) becomes greater than the stopping distance r st , the platform controller (20) causes the platform (30) to move at a deceleration speed again. Here, the deceleration movement means movement at a speed slower than the normal speed when moving along the original movement trajectory. If the distance between the obstacle (O) and the platform (30) becomes less than the stopping distance r st , the platform controller (20) maintains the platform (30) in a stopped state (see FIG. 24).

도 25은 본 개시의 실시예들에 따른 플랫폼 컨트롤러(20)의 제어 알고리즘의 일 예를 나타낸다. 도 25에 나타낸 바와 같이, 장애물(O)과 플랫폼(30)의 거리가 제3거리 r3보다 작을 때, 즉 장애물(O)이 제3영역 Z3에 진입한 상태에서, 플랫폼 컨트롤러(20)는 예상 충돌 시간과 임계 시간을 비교한다. 예상 충돌 시간이 임계 시간 이하면 플랫폼 컨트롤러(20)는 플랫폼(30)을 정지시킨다. Fig. 25 illustrates an example of a control algorithm of a platform controller (20) according to embodiments of the present disclosure. As illustrated in Fig. 25, when the distance between an obstacle (O) and a platform (30) is less than a third distance r3, i.e., when the obstacle (O) enters a third area Z3, the platform controller (20) compares the expected collision time with a threshold time. If the expected collision time is less than or equal to the threshold time, the platform controller (20) stops the platform (30).

예상 충돌 시간이 임계 시간보다 크면 플랫폼 컨트롤러(20)는 플랫폼(30)을 이동시킨다. 이후 장애물(O)과 플랫폼(30)의 거리가 감속 거리 이하면, 플랫폼 컨트롤러(20)는 플랫폼(30)을 감속한다. 또는 플랫폼(30)에 감속 명령을 내린 상태에서, 장애물(O)과 플랫폼(30)의 거리가 감속 거리보다 크면, 플랫폼 컨트롤러(20)는 플랫폼(30)을 이동시킨다. 반면 장애물(O)과 플랫폼(30)의 거리가 감속 거리 이하면, 플랫폼 컨트롤러(20)는 플랫폼(30)을 정지시킨다. 또는 플랫폼(30)에 정지 명령을 내린 상태에서, 장애물(O)과 플랫폼(30)의 거리가 정지 거리보다 커지면, 플랫폼 컨트롤러(20)는 플랫폼(30)을 감속한다.If the expected collision time is greater than the critical time, the platform controller (20) moves the platform (30). Thereafter, if the distance between the obstacle (O) and the platform (30) is less than the deceleration distance, the platform controller (20) decelerates the platform (30). Alternatively, if a deceleration command is given to the platform (30), and the distance between the obstacle (O) and the platform (30) is greater than the deceleration distance, the platform controller (20) moves the platform (30). On the other hand, if the distance between the obstacle (O) and the platform (30) is less than the deceleration distance, the platform controller (20) stops the platform (30). Alternatively, if a stop command is given to the platform (30), and the distance between the obstacle (O) and the platform (30) is greater than the stopping distance, the platform controller (20) decelerates the platform (30).

이와 같이 도면에 도시된 실시예를 참고로 본 발명을 설명하였으나, 이는 예시에 불과하다. 해당 기술 분야에서 통상의 지식을 갖는 자라면 실시예로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 충분히 이해할 수 있다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위에 기초하여 정해져야 한다.While the present invention has been described with reference to the embodiments illustrated in the drawings, these are merely examples. Those skilled in the art will readily appreciate that various modifications and equivalent alternative embodiments are possible based on the embodiments described herein. Therefore, the true scope of technical protection of the present invention should be determined based on the appended claims.

본 개시는 레이더, 조향 시스템 및 조향 방법에 관한 산업에 이용될 수 있다.The present disclosure can be used in industries related to radar, steering systems and steering methods.

Claims (20)

로봇의 암에 장착되는 바디;A body mounted on the robot's arm; 상기 바디에 수용되는 센서 컨트롤러;A sensor controller accommodated in the above body; 상기 센서 컨트롤러와 각각 연결되는 복수 개의 센서; 및A plurality of sensors each connected to the above sensor controller; and 상기 바디 및 상기 센서 컨트롤러와 연결되며 외부 장치와 통신하는 통신 컨트롤러;를 포함하고,A communication controller connected to the body and the sensor controller and communicating with an external device; 상기 센서 컨트롤러는 상기 복수 개의 센서가 송수신한 신호에 기반해 주변에 있는 물체의 위치 및 속도를 계산하고,The above sensor controller calculates the position and speed of objects in the vicinity based on signals transmitted and received by the plurality of sensors, 상기 복수 개의 센서는 상기 바디의 둘레를 따라 배열되며 각각의 감지 영역이 중첩되거나 각각의 감지 영역의 경계가 서로 맞닿아 있는, 파노라믹 레이더.A panoramic radar in which the plurality of sensors are arranged along the perimeter of the body and the respective detection areas overlap or the boundaries of the respective detection areas touch each other. 제1항에 있어서,In the first paragraph, 상기 복수 개의 센서는 상기 바디의 둘레를 따라 서로 90도의 각도를 이루며, 각각의 감지 영역은 방위각 방향(azimuth direction)으로 전방위를 커버하는, 파노라믹 레이더.A panoramic radar in which the plurality of sensors are arranged at 90-degree angles to each other along the perimeter of the body, and each detection area covers the entire azimuth direction. 제1항에 있어서,In the first paragraph, 상기 복수 개의 센서는The above multiple sensors 송신기; 및transmitter; and 상기 송신기의 주위에 제1방향 및 상기 제1방향과 수직인 제2방향으로 배열되는 복수 개의 수신기;를 포함하고,A plurality of receivers arranged around the transmitter in a first direction and a second direction perpendicular to the first direction; 상기 제1방향으로 배열된 복수 개의 수신기는 방위각 평면(azimuth plane)을 감지하는 제1센서 어레이를 형성하고, 제2방향으로 배열된 복수 개의 수신기는 고도 평면(elevation plane)을 감지하는 제2센서 어레이를 형성하고,The plurality of receivers arranged in the first direction form a first sensor array that detects an azimuth plane, and the plurality of receivers arranged in the second direction form a second sensor array that detects an elevation plane. 상기 제1센서 어레이와 상기 제2센서 어레이는 적어도 하나의 수신기를 공유하고,The first sensor array and the second sensor array share at least one receiver, 상기 센서 컨트롤러는, 상기 제1센서 어레이가 방위각 방향으로 수신한 신호에 기초해 감지된 물체의 방위각 방향으로의 각도를 계산하고, 상기 제2센서 어레이가 고도 방향으로 수신한 신호에 기초해 물체의 고도 방향으로의 각도를 계산하는, 파노라믹 레이더.A panoramic radar wherein the sensor controller calculates an angle in the azimuth direction of a detected object based on a signal received in the azimuth direction by the first sensor array, and calculates an angle in the elevation direction of the object based on a signal received in the elevation direction by the second sensor array. 제3항에 있어서,In the third paragraph, 상기 복수 개의 수신기는, 상기 송신기를 기준으로 상기 제1센서 어레이의 반대측에 있으며 방위각 평면을 감지하는 제3센서 어레이를 형성하고, 상기 송신기를 기준으로 상기 제2센서 어레이의 반대측에 있으며 고도 평면을 감지하는 제4센서 어레이를 형성하고,The plurality of receivers form a third sensor array that is located on the opposite side of the first sensor array with respect to the transmitter and detects an azimuth plane, and a fourth sensor array that is located on the opposite side of the second sensor array with respect to the transmitter and detects an elevation plane. 상기 제1센서 어레이와 상기 제2센서 어레이, 상기 제2센서 어레이와 상기 제3센서 어레이, 상기 제3센서 어레이와 상기 제4센서 어레이, 상기 제4센서 어레이와 상기 제1센서 어레이는 각각 하나 이상의 수신기를 공유하고,The first sensor array and the second sensor array, the second sensor array and the third sensor array, the third sensor array and the fourth sensor array, and the fourth sensor array and the first sensor array each share one or more receivers, 상기 센서 컨트롤러는, 상기 제1센서 어레이 및 제3센서 어레이가 방위각 방향으로 수신한 신호에 기초해 감지된 물체의 방위각 방향으로의 각도를 계산하고, 상기 제2센서 어레이 및 제4센서 어레이가 고도 방향으로 수신한 신호에 기초해 물체의 고도 방향으로의 각도를 계산하는, 파노라믹 레이더.A panoramic radar wherein the sensor controller calculates an angle in the azimuth direction of a detected object based on signals received in the azimuth direction by the first sensor array and the third sensor array, and calculates an angle in the elevation direction of the object based on signals received in the elevation direction by the second sensor array and the fourth sensor array. 제4항에 있어서,In paragraph 4, 상기 송신기는 상기 센서의 중심에 위치하고,The transmitter is located at the center of the sensor, 상기 제1센서 어레이, 상기 제2센서 어레이, 상기 제3센서 어레이, 및 상기 제4센서 어레이는 상기 송신기를 중심으로 상하좌우에 대칭으로 배열되는, 파노라믹 레이더.A panoramic radar wherein the first sensor array, the second sensor array, the third sensor array, and the fourth sensor array are arranged symmetrically in the upper, lower, left, and right directions centered on the transmitter. 제3항에 있어서,In the third paragraph, 상기 송신기는 복수 개의 송신기를 포함하고,The transmitter comprises a plurality of transmitters, 상기 제1센서 어레이는 상기 복수 개의 송신기의 아래에 상기 센서의 제1모서리와 인접하고,The first sensor array is adjacent to the first edge of the sensor below the plurality of transmitters, 상기 제2센서 어레이는 상기 복수 개의 수신기의 옆에 상기 제1모서리와 연결되는 상기 센서의 제2모서리와 인접한, 파노라믹 레이더.The second sensor array is a panoramic radar, adjacent to the second edge of the sensor connected to the first edge next to the plurality of receivers. 제1항에 있어서,In the first paragraph, 상기 복수 개의 센서 중 적어도 하나는 상기 바디의 높이 방향으로 다른 위치에 배열되는, 파노라믹 레이더.A panoramic radar, wherein at least one of the plurality of sensors is arranged at a different position in the height direction of the body. 제1항에 있어서,In the first paragraph, 상기 레이더는 복수 개의 연결용 PCB를 포함하고,The above radar comprises a plurality of connecting PCBs, 상기 복수 개의 센서는 상기 센서 컨트롤러를 중심으로 상기 바디의 외주면에 배열되며 상기 복수 개의 연결용 PCB를 통해 각각 상기 센서 컨트롤러와 병렬 연결되는, 파노라믹 레이더.A panoramic radar in which the plurality of sensors are arranged on the outer surface of the body centered around the sensor controller and are each connected in parallel to the sensor controller through the plurality of connection PCBs. 제1항에 있어서,In the first paragraph, 상기 레이더는 복수 개의 연결용 PCB를 포함하고,The above radar comprises a plurality of connecting PCBs, 상기 복수 개의 센서는 상기 복수 개의 연결용 PCB를 통해 각각 상기 센서 컨트롤러와 직렬 연결되고,The above plurality of sensors are each serially connected to the sensor controller through the above plurality of connection PCBs, 상기 복수 개의 센서와 상기 복수 개의 연결용 PCB는 서로 직렬 연결되어 벨트(belt) 형상을 이루고,The above plurality of sensors and the above plurality of connection PCBs are connected in series to form a belt shape, 상기 복수 개의 센서와 상기 복수 개의 연결용 PCB가 상기 바디의 외주면을 감싸는, 파노라믹 레이더.A panoramic radar in which the plurality of sensors and the plurality of connection PCBs surround the outer surface of the body. 제1항에 있어서,In the first paragraph, 상기 파노라믹 레이더는 상기 복수 개의 센서 사이에 각각 있으며 상기 센서 컨트롤러 및 상기 통신 컨트롤러와 각각 연결되는 복수 개의 상호작용 버튼을 더 포함하고,The above panoramic radar further includes a plurality of interaction buttons, each of which is located between the plurality of sensors and each of which is connected to the sensor controller and the communication controller, 상기 복수 개의 상호작용 버튼 중 적어도 하나가 터치 또는 가압되면, 상기 센서 컨트롤러는 상기 로봇에 제어 신호를 전달하는, 파노라믹 레이더.A panoramic radar, wherein when at least one of the plurality of interaction buttons is touched or pressed, the sensor controller transmits a control signal to the robot. 플랫폼에 장착된 레이더가 장애물에 관한 정보를 수집하는 단계;A step in which a radar mounted on a platform collects information about obstacles; 수집된 정보에 기반해 플랫폼 컨트롤러가 상기 플랫폼의 조향 여부를 결정하는 단계; 및A step in which the platform controller determines whether to steer the platform based on the collected information; and 상기 플랫폼 컨트롤러가 상기 플랫폼을 조향하는 단계;를 포함하고,The step of the platform controller steering the platform includes; 상기 플랫폼의 조향 여부를 결정하는 단계는, 장애물이 제1영역에 있거나 상기 제1영역보다 밖에 있으면 상기 플랫폼을 조향하지 않고, 장애물이 제2영역에 있으면 장애물이 제3영역으로 진입하지 않도록 상기 플랫폼을 조향하고,The step of determining whether to steer the platform comprises: not steering the platform if the obstacle is in the first area or outside the first area; and steering the platform so that the obstacle does not enter the third area if the obstacle is in the second area. 상기 플랫폼을 조향하는 단계는, 상기 플랫폼 컨트롤러가 상기 플랫폼이 장애물로부터 멀어지도록 조향하기 위한 요 레이트 (yaw rate)를 계산하고, 계산된 요 레이트에 대응되도록 상기 플랫폼을 조향하는, 플랫폼의 조향 방법.A method for steering a platform, wherein the step of steering the platform comprises calculating a yaw rate for steering the platform away from an obstacle by the platform controller, and steering the platform to correspond to the calculated yaw rate. 여기서 제1영역, 제2영역 및 제3영역은 아래와 같다.Here, the first, second and third areas are as follows. (i) 상기 레이더의 최대 감지 거리인 제1거리 및 상기 제1거리보다 작은 제2거리로 구획되는 제1영역(i) A first area divided into a first distance, which is the maximum detection distance of the radar, and a second distance, which is smaller than the first distance. (ii) 상기 제2거리 및 상기 제2거리보다 작은 제3거리로 구획되는 제2영역(ii) A second area divided into the second distance and a third distance smaller than the second distance. (iii) 상기 제3거리로 구획되는 제3영역(iii) The third area divided by the third street above 제11항에 있어서, In Article 11, 상기 플랫폼을 조향하는 단계는, 상기 플랫폼 컨트롤러가, 상기 플랫폼과 장애물의 거리, 장애물의 방위각(azimuth angle) 및 장애물과 상기 플랫폼의 상대 속도를 포함하는 장애물에 관한 정보에 기반해, 요 레이트를 계산하는, 플랫폼의 조향 방법.A method for steering a platform, wherein the step of steering the platform comprises calculating a yaw rate based on information about an obstacle, the information including a distance between the platform and the obstacle, an azimuth angle of the obstacle, and a relative velocity between the obstacle and the platform. 제12항에 있어서,In paragraph 12, 상기 플랫폼 컨트롤러가 상기 플랫폼을 조향하는 단계는, 상기 플랫폼 컨트롤러가 식 (1)로 요 레이트를 계산하는, 플랫폼의 조향 방법.A method for steering a platform, wherein the step of steering the platform by the platform controller comprises calculating a yaw rate using Equation (1). , 식 (1) , Equation (1) 여기서 wz는 각속도 벡터(요 레이트), r은 감지한 장애물까지의 거리, r3는 제3거리, θ는 감지한 장애물의 방위 각도, r2는 제2거리, v는 현재의 플랫폼의 속도 벡터이고, sign(θ)는 θ의 부호이다.Here, w z is the angular velocity vector (yaw rate), r is the distance to the detected obstacle, r3 is the third distance, θ is the azimuth angle of the detected obstacle, r2 is the second distance, v is the current velocity vector of the platform, and sign(θ) is the sign of θ. 제13항에 있어서,In Article 13, 상기 플랫폼 컨트롤러가 상기 플랫폼을 조향하는 단계는, 식 (2)로 요 레이트를 계산하는, 플랫폼의 조향 방법.A method for steering a platform, wherein the step of steering the platform by the platform controller calculates the yaw rate using equation (2). , 식 (2) , Equation (2) 여기서 k는 스피드 게인이고, k는 아래의 식 (3)으로 계산된다.Here, k is the speed gain, and k is calculated by equation (3) below. , 식 (3) , equation (3) 여기서 vr은 플랫폼과 장애물의 상대 속도이고, Δr은 r-r3이고, sign(Δr)은 Δr의 부호이다.Here, v r is the relative velocity of the platform and the obstacle, Δr is rr 3 , and sign(Δr) is the sign of Δr. 제11항에 있어서,In Article 11, 장애물이 상기 제3영역에 있으면, 상기 플랫폼 컨트롤러가 상기 플랫폼을 정지시키거나 상기 플랫폼을 감속하는 속도 조절 단계를 더 포함하고,If an obstacle is in the third area, the platform controller further includes a speed control step of stopping the platform or slowing down the platform. 상기 속도 조절 단계는, 상기 플랫폼의 조향 여부를 결정하는 단계에서 장애물이 상기 제3영역 내에 있는 것으로 판단되면 상기 플랫폼을 조향하는 단계를 대신하여 실시되거나, 상기 플랫폼 컨트롤러가 상기 플랫폼을 조향하는 단계 후에 장애물이 상기 제3영역에 있으면 실시되는, 플랫폼의 조향 방법.A method for steering a platform, wherein the speed control step is performed instead of the step of steering the platform if it is determined that an obstacle is within the third area in the step of determining whether to steer the platform, or is performed if an obstacle is within the third area after the step of the platform controller steering the platform. 플랫폼; platform; 상기 플랫폼에 장착되며 장애물에 관한 정보를 수집하는 레이더; 및 A radar mounted on the platform and collecting information about obstacles; and 상기 레이더로부터 전달받은 장애물에 관한 정보에 기반해 상기 플랫폼을 조작하는 플랫폼 컨트롤러;를 포함하고,A platform controller that operates the platform based on information about obstacles received from the radar; 상기 플랫폼 컨트롤러는, 상기 레이더가 수집한 장애물에 관한 정보에 기반해 컨트롤러가 상기 플랫폼의 조향 여부를 결정하며, 상기 플랫폼을 조향하고,The platform controller determines whether to steer the platform based on information about obstacles collected by the radar, and steers the platform. 상기 플랫폼 컨트롤러는, 장애물이 제1영역에 있거나 상기 제1영역보다 밖에 있으면 상기 플랫폼을 조향하지 않고, 장애물이 제2영역에 있으면 장애물이 제3영역으로 진입하지 않도록 상기 플랫폼을 조향하고, The platform controller does not steer the platform if an obstacle is in the first area or outside the first area, and steers the platform so that the obstacle does not enter the third area if the obstacle is in the second area. 상기 플랫폼 컨트롤러는, 상기 플랫폼이 장애물로부터 멀어지도록 조향하기 위한 요 레이트를 계산하고, 계산된 요 레이트에 대응되도록 상기 플랫폼을 조향하는, 조향 시스템.A steering system in which the platform controller calculates a yaw rate for steering the platform away from an obstacle and steers the platform in response to the calculated yaw rate. 여기서 제1영역, 제2영역 및 제3영역은 아래와 같다.Here, the first, second and third areas are as follows. (i) 상기 레이더의 최대 감지 거리인 제1거리 및 상기 제1거리보다 작은 제2거리로 구획되는 제1영역(i) A first area divided into a first distance, which is the maximum detection distance of the radar, and a second distance, which is smaller than the first distance. (ii) 상기 제2거리 및 상기 제2거리보다 작은 제3거리로 구획되는 제2영역(ii) A second area divided into the second distance and a third distance smaller than the second distance. (iii) 상기 제3거리로 구획되는 제3영역(iii) The third area divided by the third street above 제16항에 있어서, In Article 16, 상기 플랫폼 컨트롤러는 상기 플랫폼과 장애물의 거리, 장애물의 방위각 및 장애물과 상기 플랫폼의 상대 속도를 포함하는 장애물에 관한 정보에 기반해, 요 레이트를 계산하는, 조향 시스템.A steering system in which the platform controller calculates a yaw rate based on information about the obstacle, including the distance between the platform and the obstacle, the azimuth of the obstacle, and the relative velocity of the obstacle and the platform. 제17항에 있어서,In Article 17, 상기 플랫폼 컨트롤러는, 식 (1)로 요 레이트를 계산하는, 조향 시스템.The above platform controller is a steering system that calculates the yaw rate using Equation (1). , 식 (1) , Equation (1) 여기서 wz는 각속도 벡터(요 레이트), r은 감지한 장애물까지의 거리, r3는 제3거리, θ는 감지한 장애물의 방위 각도, r2는 제2거리, v는 현재의 플랫폼의 속도 벡터이고, sign(θ)는 θ의 부호이다.Here, w z is the angular velocity vector (yaw rate), r is the distance to the detected obstacle, r3 is the third distance, θ is the azimuth angle of the detected obstacle, r2 is the second distance, v is the current velocity vector of the platform, and sign(θ) is the sign of θ. 제18항에 있어서,In Article 18, 상기 플랫폼 컨트롤러는, 식 (2)로 요 레이트를 계산하는, 조향 시스템.The above platform controller is a steering system that calculates the yaw rate using Equation (2). , 식 (2) , Equation (2) 여기서 k는 스피드 게인이고, k는 아래의 식 (3)으로 계산된다.Here, k is the speed gain, and k is calculated by equation (3) below. , 식 (3) , equation (3) 여기서 vr은 장애물의 상대 속도이고, Δr은 rk-r(k-1)이고, sign(Δr)은 Δr의 부호이다.Here, v r is the relative velocity of the obstacle, Δr is r k -r (k-1) , and sign(Δr) is the sign of Δr. 제11항에 있어서,In Article 11, 상기 플랫폼 컨트롤러는, 장애물이 상기 제3영역에 있으면 상기 플랫폼을 정지시키거나 감속하는 속도 조절 동작을 실시하고,The platform controller performs a speed control operation to stop or slow down the platform when an obstacle is in the third area. 상기 플랫폼 컨트롤러는, 상기 플랫폼의 조향 여부를 결정할 때 장애물이 상기 제3영역에 있는 것으로 판단되면 상기 플랫폼을 조향하지 않고 상기 속도 조절 동작을 실시하거나, 상기 플랫폼을 조향한 후에 장애물이 상기 제3영역에 있으면 상기 속도 조절 동작을 실시하는, 조향 시스템.The platform controller is a steering system that performs the speed control operation without steering the platform when determining whether to steer the platform and determines that an obstacle is in the third area, or performs the speed control operation if an obstacle is in the third area after steering the platform.
PCT/KR2025/099694 2024-03-13 2025-03-12 Panoramic radar, steering system, and platform steering method Pending WO2025193054A2 (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2024-0035369 2024-03-13
KR20240035369 2024-03-13
KR1020240062735A KR20250138607A (en) 2024-03-13 2024-05-13 Panoramic radar for robot
KR10-2024-0062735 2024-05-13
KR20240110497 2024-08-19
KR10-2024-0110497 2024-08-19

Publications (2)

Publication Number Publication Date
WO2025193054A2 true WO2025193054A2 (en) 2025-09-18
WO2025193054A3 WO2025193054A3 (en) 2025-10-30

Family

ID=97064295

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2025/099694 Pending WO2025193054A2 (en) 2024-03-13 2025-03-12 Panoramic radar, steering system, and platform steering method

Country Status (1)

Country Link
WO (1) WO2025193054A2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101040528B1 (en) * 2011-02-17 2011-06-16 국방과학연구소 Terrain sensor assembly and autonomous mobile platform
KR102648103B1 (en) * 2016-12-23 2024-03-18 엘지전자 주식회사 Guidance robot
JP2020075308A (en) * 2018-11-06 2020-05-21 ファナック株式会社 Robot device
DE102020211745A1 (en) * 2020-09-21 2022-03-24 Robert Bosch Gesellschaft mit beschränkter Haftung Method for evaluating radar signals in a radar system with multiple sensor units
EP4313514A1 (en) * 2021-03-26 2024-02-07 Boston Dynamics, Inc. Safety systems and methods for an integrated mobile manipulator robot

Also Published As

Publication number Publication date
WO2025193054A3 (en) 2025-10-30

Similar Documents

Publication Publication Date Title
EP3246137B1 (en) Sensorized covering for an industrial device
WO2020101097A1 (en) Mobile robot platform system for process and production management
EP3829830A1 (en) Moving robot, system of moving robot and method for moving to charging station of moving robot
EP3829833A1 (en) Moving robot and controlling method thereof
US7208900B2 (en) Industrial robot system
CN108349078B (en) Protection zone adjustment of the manipulator system
US20150012137A1 (en) Production apparatus
WO2018230852A1 (en) Method for identifying moving object in three-dimensional space and robot for implementing same
WO2014133246A1 (en) Mini integrated control device
KR101015192B1 (en) Jig for position detection
BR112020003453B1 (en) AUTOMATED DEVICE INCLUDING SENSORIZED COVERAGE
WO2017119537A1 (en) Aerial vehicle including ladar system
WO2020241950A1 (en) Mobile robot and method for controlling same
WO2018043780A1 (en) Mobile robot and control method thereof
WO2023120867A1 (en) Method and system for controlling robot by using reinforcement learning-based algorithm and path planning-based algorithm, and building having robot arranged therein
EP1892456A1 (en) Work station
US20210016447A1 (en) Robot
WO2025193054A2 (en) Panoramic radar, steering system, and platform steering method
WO2017179851A1 (en) Target driving object
EP3569366A1 (en) Robot control method and apparatus
WO2022030923A1 (en) Angle of arrival data acquisition method and electronic device supporting same
WO2023043049A1 (en) Robot cleaner using uwb communication, and control method for same
Caroleo et al. A proxy-tactile reactive control for robots moving in clutter
WO2021177752A1 (en) Micro-lidar sensor
WO2024210286A1 (en) Method for controlling logistics robot, and control device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 25772140

Country of ref document: EP

Kind code of ref document: A2