[go: up one dir, main page]

WO2025159225A1 - Signal processing device, and vehicle display device comprising same - Google Patents

Signal processing device, and vehicle display device comprising same

Info

Publication number
WO2025159225A1
WO2025159225A1 PCT/KR2024/001303 KR2024001303W WO2025159225A1 WO 2025159225 A1 WO2025159225 A1 WO 2025159225A1 KR 2024001303 W KR2024001303 W KR 2024001303W WO 2025159225 A1 WO2025159225 A1 WO 2025159225A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal processing
recognition service
processing device
data
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/KR2024/001303
Other languages
French (fr)
Korean (ko)
Inventor
김상헌
유은혜
이주영
정준영
이철희
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Priority to PCT/KR2024/001303 priority Critical patent/WO2025159225A1/en
Publication of WO2025159225A1 publication Critical patent/WO2025159225A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines

Definitions

  • the present disclosure relates to a signal processing device and a vehicle display device having the same, and more particularly, to a signal processing device capable of improving the stability of a recognition service and a vehicle display device having the same.
  • a vehicle is a device that allows the user to move in the desired direction.
  • a representative example is an automobile.
  • a vehicle signal processing device is installed inside the vehicle.
  • the signal processing device inside the vehicle receives and processes sensor data from various sensor devices inside the vehicle.
  • ADAS advanced driver assistance systems
  • autonomous driving the amount of data that needs to be processed is also increasing.
  • ADAS vehicle driver assistance systems
  • autonomous driving there is a possibility of malfunction due to defects or failures when running applications, etc., and the possibility of vehicle accidents occurring due to such malfunctions increases.
  • the problem to be solved by the present disclosure is to provide a signal processing device capable of improving the stability of a recognition service and a vehicle display device equipped with the same.
  • Another problem that the present disclosure seeks to solve is to provide a signal processing device capable of improving the usability of a sensor data-based recognition service and a vehicle display device equipped with the same.
  • Another problem that the present disclosure seeks to solve is to provide a signal processing device capable of efficiently performing data processing using microservices and a vehicle display device equipped with the same.
  • a signal processing device and a vehicle display device having the same for solving the above technical problem include a processor executing a hypervisor, and the processor executes, on the hypervisor, a recognition service that performs recognition based on sensor data and a safety monitor service that monitors the recognition service, and, when executing the recognition service, performs a recovery mode using a redundant recognition service.
  • the safety monitor service controls the operation of a redundant recognition service during the operation of the recognition service, and when a recognition service failure occurs, it can send a recovery command to the recognition service and an activity command to the redundant recognition service.
  • the safety monitor service can control the operation of the redundant recognition service to be temporarily suspended during the operation of the recognition service, and, when a recognition service failure occurs, can send a recovery command to the recognition service and a start command to the redundant recognition service.
  • the safety monitor service can control the switching of operations between the recognition service or the redundant recognition service based on monitoring data or analysis data from the recognition service or the redundant recognition service.
  • the safety monitor service may vary the operation switching criteria between the recognition service or the redundant recognition service based on monitoring data or analysis data from the recognition service or the redundant recognition service.
  • the safety monitor service can control updating of a monitoring module or management module within the recognition service or redundant recognition service.
  • the processor can vary the mode for planning or controlling the vehicle based on the confidence level.
  • the processor can control whether normal mode, degradation mode, emergency mode, or manual driving mode is performed based on the confidence level.
  • the processor can perform recognition services for autonomous driving, vehicle assisted driving, or driver monitoring based on sensor data.
  • the processor can perform recognition services for active steering, lane keeping, emergency braking, automatic lane change, or traffic jam pilot based on sensor data.
  • the processor can execute localization based on vehicle driving status or weather information and sensor data, execute a recognition service based on the localization, execute planning based on the recognition service, and output a vehicle control signal based on the planning.
  • the recognition service can be any one of multiple microservices for running the application.
  • the recognition service can correspond to a microservice for executing object detection or object tracking or lane detection or lane maintenance.
  • the processor can control switching from normal mode to degradation mode based on the recognition service, or performing emergency mode or manual driving mode according to a switching request while performing degradation mode.
  • the processor can control the vehicle to stop after performing the emergency mode based on a transition request while performing the degradation mode based on the recognition service.
  • the processor can perform object detection or object tracking based on the recognition service.
  • the processor can be controlled to perform a fail-safe mode, a degradation mode, or a fail-operation mode based on the recognition service.
  • the processor may perform a fail-safe mode if a monitoring signal is not received while performing autonomous driving mode, perform a degradation mode if the fail-safe mode fails, and perform an alternative operation or control the vehicle to stop after the degradation mode.
  • the processor can reset the component in fail-safe mode.
  • the processor can control the vehicle to reduce speed or perform steering adjustments in degradation mode.
  • a signal processing device and a vehicle display device including the same include a processor executing a hypervisor, wherein the processor executes, on the hypervisor, a recognition service that performs recognition based on sensor data and a safety monitor service that monitors the recognition service, and, when the recognition service is executed, performs a recovery mode using a redundant recognition service. Accordingly, the stability of the sensor data-based recognition service can be improved. Furthermore, the usability of the sensor data-based recognition service can be improved.
  • the safety monitor service controls the operation of a redundant recognition service during recognition service operation. In the event of a recognition service failure, it can send recovery commands to the recognition service and action commands to the redundant recognition service. This improves the stability of sensor data-based recognition services.
  • the safety monitor service can control the suspension of the redundant recognition service during recognition service operation. In the event of a recognition service failure, it can send a recovery command to the recognition service and a start command to the redundant recognition service. This improves the stability of sensor data-based recognition services.
  • the safety monitoring service can control the transition between the recognition service or the redundant recognition service based on monitoring or analysis data from the recognition service or the redundant recognition service. This improves the stability of the sensor data-based recognition service.
  • the safety monitoring service can vary the operational transition criteria between the recognition service or redundant recognition service based on monitoring or analysis data from the recognition service or redundant recognition service. This can improve the stability of sensor data-based recognition services.
  • the safety monitoring service can control updates to the monitoring or management modules within the recognition service or redundant recognition service. This improves the stability of sensor data-based recognition services.
  • the processor can vary the planning or control mode for vehicle control based on the confidence level. Accordingly, the reliability of sensor data-based recognition services can be improved based on the confidence level.
  • the processor can control the execution of normal mode, degradation mode, emergency mode, or manual driving mode based on the confidence level. Accordingly, the stability of sensor data-based recognition services can be improved based on the confidence level.
  • the processor can perform recognition services for autonomous driving, vehicle assisted driving, or driver monitoring based on sensor data. This improves the usability of recognition services.
  • the processor can perform recognition services for active steering, lane keeping, emergency braking, automatic lane change, or traffic jam pilot based on sensor data. This improves the usability of recognition services.
  • the processor can perform localization based on vehicle driving conditions, weather information, and sensor data, execute a recognition service based on the localization, perform planning based on the recognition service, and output a vehicle control signal based on the planning. Accordingly, the usability of the recognition service can be improved in response to various situations.
  • the recognition service can be any one of multiple microservices for application execution. This allows for efficient performance of the recognition service.
  • the recognition service can respond to microservices for object detection, object tracking, lane detection, or lane maintenance. This allows for efficient performance of the recognition service.
  • the processor can control switching from normal mode to degradation mode based on the recognition service, or switching to emergency mode or manual driving mode upon a switching request while performing degradation mode. This can improve the usability of the recognition service.
  • the processor can control the vehicle to stop after executing the emergency mode based on a transition request while performing degradation mode based on the recognition service. This improves the usability of the recognition service.
  • the processor can perform object detection or object tracking based on the recognition service. This improves the usability of the recognition service.
  • the processor can be controlled to perform fail-safe mode, degradation mode, or fail-operation mode based on the recognition service. This can improve the usability of the recognition service.
  • the processor can execute fail-safe mode. If fail-safe mode fails, the processor can execute degradation mode. After degradation mode, the processor can perform alternative operations or control the vehicle to stop. This can improve the usability of the recognition service.
  • the processor can reset components in fail-safe mode, thereby improving the usability of the recognition service.
  • the processor can control vehicle speed reduction or steering adjustment in degradation mode, thereby improving the usability of recognition services.
  • Figure 1 is a drawing showing an example of the exterior and interior of a vehicle.
  • Figure 2 is a diagram illustrating various architectures of a vehicle communication gateway.
  • Figure 3a is a drawing showing an example of the arrangement of a vehicle display device inside a vehicle.
  • Figure 3b is a drawing showing another example of the arrangement of a vehicle display device inside a vehicle.
  • Fig. 4 is an example of an internal block diagram of the vehicle display device of Fig. 3b.
  • FIGS. 5A to 5D are drawings showing various examples of vehicle display devices.
  • FIG. 6 is an example of a block diagram of a vehicle display device according to an embodiment of the present disclosure.
  • FIGS. 7A and 7B are drawings for reference in the description of a signal processing device related to the present disclosure.
  • FIGS. 8A to 8E are diagrams illustrating various examples of execution of microservices according to embodiments of the present disclosure.
  • FIG. 9 is an example of an internal block diagram of a signal processing device according to an embodiment of the present disclosure.
  • FIG. 10 is an example of an internal block diagram of a signal processing device according to another embodiment of the present disclosure.
  • FIG. 11 is a diagram illustrating the operation of a signal processing device according to an embodiment of the present disclosure.
  • FIGS 12a to 19b are drawings referenced in the operation description of Figure 11.
  • FIG. 20 is an example of a flowchart showing an operation method of a signal processing device according to an embodiment of the present disclosure.
  • Figure 21 is a drawing referenced in the description of Figure 20.
  • module and “part” used in the following description are given solely for the convenience of writing this specification and do not impart any particularly significant meaning or role to the components themselves. Therefore, the terms “module” and “part” may be used interchangeably.
  • Figure 1 is a drawing showing an example of the exterior and interior of a vehicle.
  • the vehicle (200) is operated by a plurality of wheels (103FR, 103FL, 103RL, etc.) that rotate by a power source and a steering wheel (150) for controlling the direction of travel of the vehicle (200).
  • the vehicle (200) may further be equipped with a camera (195) for capturing images of the front of the vehicle.
  • the vehicle (200) may be equipped with multiple displays (180a, 180b) for displaying images, information, etc. inside.
  • a cluster display (180a) and an AVN (Audio Video Navigation) display (180b) are exemplified as multiple displays (180a, 180b).
  • AVN Audio Video Navigation
  • HUD Head Up Display
  • the AVN (Audio Video Navigation) display (180b) may also be named a center information display.
  • the vehicle (200) described in this specification may be a concept that includes all of a vehicle equipped with an engine as a power source, a hybrid vehicle equipped with an engine and an electric motor as a power source, and an electric vehicle equipped with an electric motor as a power source.
  • Figure 2 is a diagram illustrating various architectures of a vehicle communication gateway.
  • Fig. 2 is a drawing illustrating the first architecture of a vehicle communication gateway.
  • the first architecture (300a) can correspond to a zone-based architecture.
  • sensor devices and processors inside the vehicle may be placed in each of the plurality of zones (Z1 to Z4), and a signal processing device (170a) including a vehicle communication gateway (GWDa) may be placed in the central area of the plurality of zones (Z1 to Z4).
  • GWDa vehicle communication gateway
  • the signal processing device (170a) may further include, in addition to the vehicle communication gateway (GWDa), an autonomous driving control module (ACC), a cockpit control module (CPG), etc.
  • GWDa vehicle communication gateway
  • ACC autonomous driving control module
  • CPG cockpit control module
  • the vehicle communication gateway (GWDa) within the signal processing device (170a) may be an HPC (High Performance Computing) gateway.
  • the signal processing device (170a) of FIG. 2 is an integrated HPC and can exchange data with an external communication module (not shown) or a processor (not shown) within a plurality of zones (Z1 to Z4).
  • Figure 3a is a drawing showing an example of the arrangement of a vehicle display device inside a vehicle.
  • the interior of the vehicle may be equipped with a cluster display (180a), an AVN (Audio Video Navigation) display (180b), a rear seat entertainment display (180c, 180d), a room mirror display (not shown), etc.
  • a cluster display 180a
  • an AVN Audio Video Navigation
  • a rear seat entertainment display 180c, 180d
  • a room mirror display not shown
  • Figure 3b is a drawing showing another example of the arrangement of a vehicle display device inside a vehicle.
  • a vehicle display device (100) may include a plurality of displays (180a to 180b), and a signal processing device (170) that performs signal processing for displaying images, information, etc. on the plurality of displays (180a to 180b) and outputs an image signal to at least one display (180a to 180b).
  • the first display (180a) may be a cluster display (180a) for displaying driving status, operation information, etc.
  • the second display (180b) may be an AVN (Audio Video Navigation) display (180b) for displaying vehicle driving information, a navigation map, various entertainment information, or images.
  • AVN Audio Video Navigation
  • the signal processing device (170) has a processor (175) therein and can execute a first virtual machine to a third virtual machine (not shown) on a hypervisor (not shown) within the processor (175).
  • a second virtual machine (not shown) can operate for the first display (180a), and a third virtual machine (not shown) can operate for the second display (180b).
  • the first virtual machine (not shown) within the processor (175) can control the shared memory (508) based on the hypervisor (505) to be set for the same data transmission to the second virtual machine (not shown) and the third virtual machine (not shown). Accordingly, the same information or the same image can be displayed in synchronization on the first display (180a) and the second display (180b) within the vehicle.
  • the first virtual machine (not shown) within the processor (175) shares at least a portion of data with the second virtual machine (not shown) and the third virtual machine (not shown) for data sharing processing. Accordingly, data can be shared and processed among multiple virtual machines for multiple displays within the vehicle.
  • a first virtual machine (not shown) within a processor (175) may receive and process vehicle wheel speed sensor data, and transmit the processed wheel speed sensor data to at least one of a second virtual machine (not shown) or a third virtual machine (not shown). Accordingly, the vehicle wheel speed sensor data may be shared with at least one virtual machine.
  • the vehicle display device (100) may further include a rear seat entertainment display (180c) for displaying driving status information, simple navigation information, various entertainment information, or images.
  • a rear seat entertainment display (180c) for displaying driving status information, simple navigation information, various entertainment information, or images.
  • the signal processing device (170) can control the RSE display (180c) by executing a fourth virtual machine (not shown) in addition to the first virtual machine to the third virtual machine (not shown) on a hypervisor (not shown) within the processor (175).
  • some of the multiple displays may operate under Linux OS, while others may operate under Web OS.
  • the signal processing device (170) can control the same information or the same image to be displayed in synchronization on displays (180a to 180c) operating under various operating systems (OS).
  • OS operating systems
  • a vehicle speed indicator (212a) and a vehicle interior temperature indicator (213a) are displayed on a first display (180a)
  • a home screen (222) including a plurality of applications and a vehicle speed indicator (212b) and a vehicle interior temperature indicator (213b) are displayed on a second display (180b)
  • a second home screen (222b) including a plurality of applications and a vehicle interior temperature indicator (213c) are displayed on a third display (180c).
  • Fig. 4 is an example of an internal block diagram of the vehicle display device of Fig. 3b.
  • a vehicle display device (100) may include an input unit (110), a communication unit (120) for communication with an external device, a plurality of communication modules (EMa to EMd) for internal communication, a memory (140), a signal processing unit (170), a plurality of displays (180a to 180c), an audio output unit (185), and a power supply unit (190).
  • a plurality of communication modules (EMa to EMd) can be arranged, for example, in a plurality of zones (Z1 to Z4) of FIG. 2, respectively.
  • the signal processing device (170) may have a communication switch (736b) for data communication with each communication module (EM1 to EM4) inside.
  • Each communication module (EM1 to EM4) can perform data communication with multiple sensor devices (SN) or ECUs (770) or area signal processing devices (170Z).
  • the plurality of sensor devices may include a camera (195), a lidar (196), a radar (197), or a position sensor (198).
  • the input unit (110) may be equipped with physical buttons, pads, etc. for button input, touch input, etc.
  • the input unit (110) may be equipped with a microphone (not shown) for user voice input.
  • the communication unit (120) can exchange data wirelessly with a mobile terminal (800) or a server (900).
  • the communication unit (120) can wirelessly exchange data with the vehicle driver's mobile terminal.
  • Various data communication methods are possible, such as Bluetooth, WiFi, WiFi Direct, and APiX.
  • the communication unit (120) can receive weather information, road traffic information, for example, TPEG (Transport Protocol Expert Group) information, from a mobile terminal (800) or a server (900). To this end, the communication unit (120) may be equipped with a mobile communication module (not shown).
  • TPEG Transport Protocol Expert Group
  • a plurality of communication modules can receive sensor data, etc. from an ECU (770), a sensor device (SN), or an area signal processing device (170Z), and transmit the received sensor data to the signal processing device (170).
  • the sensor data may include at least one of vehicle direction data, vehicle location data (GPS data), vehicle angle data, vehicle speed data, vehicle acceleration data, vehicle inclination data, vehicle forward/backward data, battery data, fuel data, tire data, vehicle lamp data, vehicle interior temperature data, and vehicle interior humidity data.
  • GPS data vehicle location data
  • vehicle angle data vehicle speed data
  • vehicle acceleration data vehicle acceleration data
  • vehicle inclination data vehicle forward/backward data
  • battery data fuel data
  • tire data tire data
  • vehicle lamp data vehicle interior temperature data
  • vehicle interior humidity data vehicle interior humidity data
  • Such sensor data can be obtained from a heading sensor, a yaw sensor, a gyro sensor, a position module, a vehicle forward/backward sensor, a wheel sensor, a vehicle speed sensor, a body tilt detection sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor by steering wheel rotation, a vehicle interior temperature sensor, a vehicle interior humidity sensor, etc.
  • the position module may include a GPS module or a position sensor (198) for receiving GPS information.
  • At least one of the plurality of communication modules can transmit location information data sensed by a GPS module or location sensor (198) to a signal processing device (170).
  • At least one of the plurality of communication modules can receive vehicle front image data, vehicle side image data, vehicle rear image data, vehicle surrounding obstacle distance information, etc. from a camera (195), lidar (196), radar (197), etc., and transmit the received information to a signal processing device (170).
  • the memory (140) can store various data for the overall operation of the vehicle display device (100), such as a program for processing or controlling the signal processing device (170).
  • the memory (140) may store data regarding a hypervisor, a first virtual machine, a third virtual machine, or the like, for execution within the processor (175).
  • the audio output unit (185) converts an electric signal from the signal processing device (170) into an audio signal and outputs it.
  • a speaker or the like may be provided.
  • the power supply unit (190) can supply power required for the operation of each component under the control of the signal processing device (170).
  • the power supply unit (190) can receive power from a battery or the like inside the vehicle.
  • the signal processing device (170) controls the overall operation of each unit within the vehicle display device (100).
  • the signal processing device (170) may include a processor (175) that performs signal processing for a vehicle display (180a, 180b).
  • the processor (175) can execute a first virtual machine to a third virtual machine (not shown) on a hypervisor (not shown) within the processor (175).
  • the first virtual machine (not shown) may be named a server virtual machine (Server Virtual maschine), and the second virtual machine to the third virtual machine (not shown) may be named a guest virtual machine (Guest Virtual maschine).
  • Server Virtual maschine server virtual machine
  • Guest Virtual maschine guest virtual machine
  • a first virtual machine within a processor (175) may receive, process, or output sensor data from a plurality of sensor devices, such as vehicle sensor data, location information data, camera image data, audio data, or touch input data.
  • sensor data such as vehicle sensor data, location information data, camera image data, audio data, or touch input data.
  • a first virtual machine can directly receive and process CAN data, Ethernet data, audio data, radio data, USB data, and wireless communication data for a second virtual machine or a third virtual machine (not shown).
  • the first virtual machine (not shown) can transmit processed data to the second virtual machine or the third virtual machine (not shown).
  • the first virtual machine receives sensor data, communication data, or external input data from multiple sensor devices and performs signal processing, thereby reducing the signal processing burden on other virtual machines, enabling 1:N data communication, and enabling synchronization when sharing data.
  • the first virtual machine can control the second virtual machine (not shown) and the third virtual machine (not shown) to share the same data by writing data to the shared memory (508).
  • a first virtual machine can record vehicle sensor data, the location information data, the camera image data, or the touch input data in shared memory (508) and control the same data to be shared with a second virtual machine (not shown) and a third virtual machine (not shown). Accordingly, data sharing in a 1:N manner becomes possible.
  • the first virtual machine (not shown) within the processor (175) can control the shared memory (508) based on the hypervisor (505) to be set for the same data transmission to the second virtual machine (not shown) and the third virtual machine (not shown).
  • the signal processing device (170) can process various signals such as audio signals, video signals, and data signals.
  • the signal processing device (170) can be implemented in the form of a system on chip (SOC).
  • the signal processing device (170) in the display device (100) of FIG. 4 may be the same as the signal processing device (170, 170a1, 170a2) of the vehicle display device of FIG. 5a or lower.
  • FIGS. 5A to 5D are drawings showing various examples of vehicle display devices.
  • FIG. 5A illustrates an example of a vehicle display device according to an embodiment of the present disclosure.
  • a vehicle display device (800a) includes a signal processing device (170a1, 170a2) and a plurality of area signal processing devices (170Z1 to 170Z4).
  • the signal processing device (170a1, 170a2) may also be named an HPC (High Performance Computing) signal processing device.
  • Multiple area signal processing devices (170Z1 to 170Z4) are arranged in each area (Z1 to Z4) and can transmit sensor data to signal processing devices (170a1, 170a2).
  • the signal processing device (170a1, 170a2) receives data via a wire from multiple area signal processing devices (170Z1 to 170Z4) or a communication device (120).
  • data is exchanged based on wired communication between a signal processing device (170a1, 170a2) and multiple area signal processing devices (170Z1 to 170Z4), and the signal processing device (170a1, 170a2) and the server (400) exchange data based on wireless communication.
  • data may be exchanged based on wireless communication between a communication device (120) and a server (400), and the signal processing device (170a1, 170a2) and the communication device (120) may exchange data based on wired communication.
  • data received by the signal processing device (170a1, 170a2) may include camera data or sensor data.
  • sensor data within a vehicle may include at least one of vehicle wheel speed data, vehicle direction data, vehicle location data (GPS data), vehicle angle data, vehicle speed data, vehicle acceleration data, vehicle inclination data, vehicle forward/backward data, battery data, fuel data, tire data, vehicle lamp data, vehicle interior temperature data, vehicle interior humidity data, vehicle exterior radar data, and vehicle exterior lidar data.
  • GPS data vehicle location data
  • vehicle angle data vehicle speed data
  • vehicle acceleration data vehicle acceleration data
  • vehicle inclination data vehicle forward/backward data
  • battery data fuel data
  • tire data vehicle lamp data
  • vehicle interior temperature data vehicle interior humidity data
  • vehicle exterior radar data vehicle exterior lidar data
  • camera data may include vehicle exterior camera data and vehicle interior camera data.
  • the signal processing device (170a1, 170a2) can execute multiple virtual machines (820, 830, 840) based on safety standards.
  • a processor (175) within a signal processing device (170a) executes a hypervisor (505) and, on the hypervisor (505), executes first to third virtual machines (820 to 840) according to an automotive safety integrity level (Automotive SIL; ASIL).
  • SIL Automotive safety integrity level
  • the first virtual machine (820) may be a virtual machine corresponding to Quality Management (QM), which is the lowest safety level in the Automotive Safety Integrity Level (ASIL) and is a non-enforceable grade.
  • QM Quality Management
  • the first virtual machine (820) can execute an operating system (822), a container runtime (824) on the operating system (822), and containers (827, 829) on the container runtime (824).
  • the second virtual machine (820) may be a virtual machine corresponding to ASIL A or ASIL B, where the sum of severity, exposure, and controllability is 7 or 8 in the automotive safety integrity level (ASIL).
  • ASIL automotive safety integrity level
  • the second virtual machine (820) can execute an operating system (832), a container runtime (834) on the operating system (832), and containers (837, 839) on the container runtime (834).
  • the third virtual machine (840) may be a virtual machine corresponding to ASIL C or ASIL D, in which the sum of severity, exposure, and controllability is 9 or 10 in the automotive safety integrity level (ASIL).
  • ASIL automotive safety integrity level
  • ASIL D can correspond to the grade that requires the highest safety level.
  • the third virtual machine (840) can run a safety operating system (842) and an application (845) on the operating system (842).
  • the third virtual machine (840) may also execute a safety operating system (842), a container runtime (844) on the safety operating system (842), and a container (847) on the container runtime (844).
  • the third virtual machine (840) can also be executed through a separate core rather than the processor (175). This will be described later with reference to FIG. 5b.
  • FIG. 5b illustrates another example of a vehicle display device according to an embodiment of the present disclosure.
  • a vehicle display device (800b) includes a signal processing device (170a1, 170a2) and a plurality of area signal processing devices (170Z1 to 170Z4).
  • the vehicle display device (800b) of FIG. 5b is similar to the vehicle display device (800a) of FIG. 5a, but the signal processing device (170a1) has some differences from the signal processing device (170a1) of FIG. 5a.
  • the signal processing device (170a1) may include a processor (175) and a second processor (177).
  • the processor (175) within the signal processing unit (170a1) executes a hypervisor (505), and executes first and second virtual machines (820 to 830) on the hypervisor (505) according to the automotive safety integrity level (Automotive SIL; ASIL).
  • SIL Automotive safety integrity level
  • the first virtual machine (820) can execute an operating system (822), a container runtime (824) on the operating system (822), and containers (827, 829) on the container runtime (824).
  • the second virtual machine (820) can execute an operating system (832), a container runtime (834) on the operating system (832), and containers (837, 839) on the container runtime (834).
  • the second processor (177) within the signal processing device (170a1) can execute a third virtual machine (840).
  • the third virtual machine (840) can execute a safety operating system (842), an auto-execution (845) on the operating system (842), and an application (845) on the auto-execution (845). That is, unlike FIG. 5A, an auto-execution (846) on the operating system (842) can be executed.
  • the third virtual machine (840) may, similarly to FIG. 5a, execute a safety operating system (842), a container runtime (844) on the safety operating system (842), and a container (847) on the container runtime (844).
  • the third virtual machine (840) requiring a high level of security is preferably executed on a second processor (177), which is a different core or different processor, unlike the first and second virtual machines (820 to 830).
  • the second signal processing device (170a2) which is a backup device, can operate.
  • the signal processing devices (170a1, 170a2) can operate simultaneously, with the first signal processing device (170a) operating as the main device and the second signal processing device (170a2) operating as the sub device. This will be described with reference to FIGS. 5c and 5d.
  • FIG. 5c illustrates another example of a vehicle display device according to an embodiment of the present disclosure.
  • a vehicle display device (800c) includes a signal processing device (170a1, 170a2) and a plurality of area signal processing devices (170Z1 to 170Z4).
  • the signal processing device (170a1, 170a2) may also be named an HPC (High Performance Computing) signal processing device.
  • Multiple area signal processing devices (170Z1 to 170Z4) are arranged in each area (Z1 to Z4) and can transmit sensor data to signal processing devices (170a1, 170a2).
  • the signal processing device (170a1, 170a2) receives data via a wire from multiple area signal processing devices (170Z1 to 170Z4) or a communication device (120).
  • data is exchanged based on wired communication between a signal processing device (170a1, 170a2) and multiple area signal processing devices (170Z1 to 170Z4), and the signal processing device (170a1, 170a2) and the server (400) exchange data based on wireless communication.
  • data may be exchanged based on wireless communication between a communication device (120) and a server (400), and the signal processing device (170a1, 170a2) and the communication device (120) may exchange data based on wired communication.
  • data received by the signal processing device (170a1, 170a2) may include camera data or sensor data.
  • the processor (175) in the first signal processing device (170a1) executes a hypervisor (505) and can execute a safety virtualization machine (860) and a non-safety virtualization machine (870) on the hypervisor (505), respectively.
  • the processor (175b) in the second signal processing device (170a2) executes the hypervisor (505b) and can execute only the safety virtualization machine (880) on the hypervisor (505).
  • FIG. 5d illustrates another example of a vehicle display device according to an embodiment of the present disclosure.
  • a vehicle display device (800d) includes a signal processing device (170a1, 170a2) and a plurality of area signal processing devices (170Z1 to 170Z4).
  • the vehicle display device (800d) of FIG. 5d is similar to the vehicle display device (800c) of FIG. 5c, but the second signal processing device (170a2) has some differences from the second signal processing device (170a2) of FIG. 5c.
  • the processor (175b) in the second signal processing device (170a2) of FIG. 5d executes a hypervisor (505b) and can execute a safety virtualization machine (880) and a non-safety virtualization machine (890) on the hypervisor (505).
  • the difference is that the processor (175b) within the second signal processing device (170a2) further executes a non-safety virtualization machine (890).
  • FIG. 6 is an example of a block diagram of a vehicle display device according to an embodiment of the present disclosure.
  • a vehicle display device (900) includes a signal processing device (170) and at least one display.
  • At least one display is illustrated, a cluster display (180a) and an AVN display (180b).
  • the vehicle display device (900) may further include a plurality of area signal processing devices (170Z1 to 170Z4).
  • the signal processing device (170) at this time is a high-performance centralized signal processing and control device having multiple CPUs (175), GPUs (178), NPUs (179), etc., and may be called an HPC (High Performance Computing) signal processing device or a central signal processing device.
  • HPC High Performance Computing
  • a plurality of area signal processing devices (170Z1 to 170Z4) and a signal processing device (170) are connected by wired cables (CB1 to CB4).
  • multiple area signal processing devices (170Z1 to 170Z4) can be connected to each other with wired cables (CBa to CBd).
  • the wired cable (CBa ⁇ CBd) at this time may include a CAN communication cable, an Ethernet communication cable, or a PCI Express cable.
  • a signal processing device (170) may be equipped with at least one processor (175, 178, 177) and a large-capacity storage device (925).
  • a signal processing device (170) may include a central processor (175, 177), a graphics processor (178), and a neural processor (179).
  • sensor data may be transmitted from at least one of the multiple area signal processing devices (170Z1 to 170Z4) to the signal processing device (170).
  • the sensor data may be stored in a storage device (925) within the signal processing device (170).
  • the sensor data at this time may include at least one of camera data, lidar data, radar data, vehicle direction data, vehicle location data (GPS data), vehicle angle data, vehicle speed data, vehicle acceleration data, vehicle inclination data, vehicle forward/backward data, battery data, fuel data, tire data, vehicle lamp data, vehicle interior temperature data, and vehicle interior humidity data.
  • camera data from a camera (195a) and lidar data from a lidar sensor (196) are input to a first area signal processing device (170Z1), and the camera data and lidar data are transmitted to a signal processing device (170) via a second area signal processing device (170Z2), a third area signal processing device (170Z3), etc.
  • radar data from a radar sensor (197) and an actuator from an actuator (193) can be input to a signal processing device (170) via a first region signal processing device (170Z1), etc.
  • the data read speed or write speed to the storage device (925) is faster than the network speed when sensor data is transmitted from at least one of the plurality of area signal processing devices (170Z1 to 170Z4) to the signal processing device (170), it is preferable that multi-path routing be performed so that a network bottleneck does not occur.
  • the signal processing device (170) can perform multi-path routing based on a Software Defined Network (SDN). Accordingly, a stable network environment can be secured when reading or writing data from the storage device (925). Furthermore, since data can be transmitted to the storage device (925) using multiple paths, the network configuration can be dynamically changed to transmit data.
  • SDN Software Defined Network
  • Data communication between a plurality of area signal processing devices (170Z1 to 170Z4) and a signal processing device (170) in a vehicle display device (900) is preferably Peripheral Component Interconnect Express communication for high-bandwidth, low-latency communication.
  • FIGS. 7A and 7B are drawings for reference in the description of a signal processing device related to the present disclosure.
  • Figure 7a illustrates an application based on camera data, etc., running on a signal processing device.
  • a signal processing device (170x) related to the present disclosure can execute a Driver Monitoring Systems (DMS) application (785) based on camera data from an in-vehicle camera (195i), sensor data from a pressure sensor (SNp), and sensor data from a gas sensor (SNc), and can control a warning sound to be output to an audio output unit (185) based on the result data.
  • DMS Driver Monitoring Systems
  • Figure 7b is a drawing referenced in the operation description of Figure 7a.
  • a signal processing device (170x) related to the present disclosure includes a processor (175x), and the processor (175x) can execute a hypervisor (505).
  • a processor (175x) related to the present disclosure executes a plurality of virtual machines (520x, 530x, 540x) on a hypervisor (505), and a second virtual machine (530x) among the plurality of virtual machines (520x, 530x, 540x) executes a driver monitoring system (DMS) application (785) based on camera data from an internal vehicle camera (195i), sensor data from a pressure sensor (SNp), and sensor data from a gas sensor (SNc), and executes a lane keeping assist system (LKAS) application (787) based on camera data outside the vehicle.
  • DMS driver monitoring system
  • SNp sensor data from a pressure sensor
  • SNc sensor data from a gas sensor
  • LKAS lane keeping assist system
  • a third virtual machine (540x) can execute a forward collision warning (FCW) application (789) based on vehicle external camera data.
  • FCW forward collision warning
  • the third virtual machine (540x) runs on a separate virtual machine from the lane keeping assist system (787), which is based on vehicle external camera data when executing the forward collision warning (FCW) application (789), so there is a problem that the workload is performed inefficiently.
  • FCW forward collision warning
  • the signal processing device (170) divides the application into a plurality of micro services, and executes other micro services based on the results of the micro services, etc., thereby efficiently distributing the workload.
  • a signal processing device (170) may control a plurality of micro services, wherein a first micro service is performed in a first virtual machine and a second micro service is performed in a second virtual machine, and the result of the first micro service is shared using a shared memory (508) or the like, so that the second micro service is executed based on the result data of the first virtual machine. Accordingly, data processing can be performed efficiently.
  • the signal processing device (170) according to the embodiment of the present disclosure can execute multiple virtual machines by distinguishing them according to the safety level.
  • the signal processing device (170) can execute applications or microservices by distinguishing them according to the safety level.
  • ASIL Automotive Safety Integrity Level
  • ADAS advanced driver assistance systems
  • FIGS. 8A to 8E are diagrams illustrating various examples of execution of microservices according to embodiments of the present disclosure.
  • Figure 8a illustrates that multiple microservices corresponding to ASIL B are executed based on camera data from an internal camera (195i).
  • a signal processing device (170) can execute a driver monitoring system (DMS) application (905) corresponding to ASIL B.
  • DMS driver monitoring system
  • a signal processing device (170) can execute a driver monitoring system (DMS) application (905) by separating it into multiple microservices.
  • DMS driver monitoring system
  • the drawing illustrates multiple microservices for a driver monitoring system (DMS) application (905), including a face detection microservice (910b), an eye movement microservice (915b), an eye tracking microservice (920b), and an alert microservice (930b).
  • DMS driver monitoring system
  • the signal processing device (170) can execute a face detection microservice (910b), an eye movement microservice (915b), a gaze tracking microservice (920b), and a warning microservice (930b) as a plurality of microservices for a driver monitoring system (DMS) application (905) corresponding to ASIL B.
  • DMS driver monitoring system
  • the face detection microservice (910b) is executed based on camera data from the internal camera (195i), and the result data of the face detection microservice (910b) is transmitted to the eye movement microservice (915b).
  • the eye movement microservice (915b) is executed based on the result data of the face detection microservice (910b), and the result data of the eye movement microservice (915b) is transmitted to the gaze tracking microservice (920b).
  • the gaze tracking microservice (920b) is executed based on the result data of the eye movement microservice (915b), and the result data of the gaze tracking microservice (920b) is transmitted to the alert microservice (930b).
  • the warning microservice (930b) is executed based on the result data of the gaze tracking microservice (920b), and the result data is input to the audio output unit (185), so that a warning sound can be output from the audio output unit (185).
  • the signal processing device (170) can further execute a second face detection microservice (910c) and a head movement microservice (915c) for a driver monitoring system (DMS) application (905) corresponding to ASIL B.
  • DMS driver monitoring system
  • the second face detection microservice (910c) is executed based on camera data from the internal camera (195i), and the result data of the second face detection microservice (910c) is transmitted to the head movement microservice (915c).
  • the head movement microservice (915c) is executed based on the result data of the second face detection microservice (910c), and the result data of the head movement microservice (915c) is transmitted to the gaze tracking microservice (920b).
  • the gaze tracking microservice (920b) is executed based on the result data of the head movement microservice (915c) and the result data of the eye movement microservice (915b), and the result data of the gaze tracking microservice (920b) can be transmitted to the warning microservice (930b).
  • the signal processing device (170) can further execute a plurality of micro-services that are not related to ASIL B, for example, corresponding to QM (Quality Management).
  • a third face detection microservice (910a), a face recognition microservice (915a), and a personal microservice (920a) can each be executed as multiple microservices, not related to ASIL B.
  • Figure 8b illustrates an example of execution of multiple microservices corresponding to ASIL B and microservices corresponding to QM based on camera data from an internal camera (195i).
  • the signal processing device (170) can execute a driver monitoring system (DMS) application (905) corresponding to ASIL B, similar to FIG. 8A.
  • DMS driver monitoring system
  • a signal processing device (170) can execute a face detection microservice (910b), an eye movement microservice (915b), a gaze tracking microservice (920b), and a warning microservice (930b) as a plurality of microservices for a driver monitoring system (DMS) application (905) corresponding to ASIL B.
  • DMS driver monitoring system
  • the signal processing device (170) can further execute a second face detection microservice (910c) and a head movement microservice (915c) for a driver monitoring system (DMS) application (905) corresponding to ASIL B.
  • DMS driver monitoring system
  • the signal processing device (170) can execute a third face detection microservice (910a), a face recognition microservice (915a), and a personal microservice (920a) as a plurality of microservices, which are not related to ASIL B.
  • the signal processing device (170) can execute an augmented reality microservice (930c), which is an example of a graphic provision microservice, as a microservice corresponding to QM.
  • the signal processing device (170) can transmit the result data of the eye tracking microservice (920b) among the microservices in the application (905) corresponding to ASIL B to the augmented reality microservice (930c) corresponding to QM, which has a lower safety level.
  • the augmented reality microservice (930c) corresponding to QM is executed based on the result data of the gaze tracking microservice (920b), and the result data of the augmented reality microservice (930c) can be transmitted to the display (180) and displayed.
  • Figure 8c illustrates the execution of multiple microservices corresponding to QM.
  • a signal processing device (170) can execute a passenger monitoring application (940) corresponding to QM.
  • a signal processing device (170) can execute a passenger monitoring application (940) by separating it into multiple micro-services.
  • the drawing illustrates multiple microservices for a passenger monitoring application (940), including a passenger press detection microservice (950b), a passenger movement microservice (955b), a passenger detection microservice (960b), and a graphics provision microservice (965b).
  • a passenger press detection microservice 950b
  • a passenger movement microservice 955b
  • a passenger detection microservice 960b
  • a graphics provision microservice 965b
  • the signal processing device (170) can execute a plurality of microservices, namely, a passenger seating microservice (950b), a passenger movement microservice (955b), a passenger detection microservice (960b), and a graphics provision microservice (965b), for a passenger monitoring application (940) corresponding to QM.
  • a passenger seating microservice 950b
  • a passenger movement microservice 955b
  • a passenger detection microservice 960b
  • a graphics provision microservice (965b for a passenger monitoring application (940) corresponding to QM.
  • the passenger seating microservice (950b) is executed based on sensor data from the pressure sensor (SNp), and the result data of the passenger seating microservice (950b) is transmitted to the passenger movement microservice (955b).
  • the passenger movement microservice (955b) is executed based on the result data of the passenger seating microservice (950b), and the result data of the passenger movement microservice (955b) is transmitted to the passenger detection microservice (960b).
  • the passenger detection microservice (960b) is executed based on the result data of the passenger movement microservice (955b), and the result data of the passenger detection microservice (960b) is transmitted to the graphics provision microservice (965b).
  • the graphic provision microservice (965b) is executed based on the result data of the passenger detection microservice (960b), and the result data of the graphic provision microservice (965b) can be transmitted to the display (180) and displayed.
  • the signal processing device (170) can further execute a gas detection (CO2 detection) microservice (950c) for a passenger monitoring application (940) corresponding to QM.
  • CO2 detection gas detection
  • 950c gas detection microservice
  • the gas detection (CO2 detection) microservice (950c) is executed based on sensor data from the gas sensor (SNc), and the result data of the gas detection (CO2 detection) microservice (950c) is transmitted to the passenger movement microservice (955b).
  • the passenger movement microservice (955b) is executed based on the result data of the gas detection (CO2 detection) microservice (950c), and the result data of the passenger movement microservice (955b) is transmitted to the passenger detection microservice (960b).
  • the signal processing device (170) can further execute a plurality of micro-services unrelated to the passenger monitoring application (940).
  • the signal processing unit (170) is illustrated as executing a plurality of microservices, each of which is unrelated to the passenger monitoring application (940), including a face detection microservice (910a), a face recognition microservice (915a), and a personal microservice (920a) based on camera data from an in-vehicle camera (195i).
  • Figure 8d illustrates the execution of multiple microservices corresponding to ASIL B and microservices corresponding to QM.
  • the signal processing device (170) can execute a passenger monitoring application (940) corresponding to QM, similar to FIG. 8c.
  • a signal processing device (170) can execute a plurality of microservices, for a passenger monitoring application (940) corresponding to QM, including a passenger seating microservice (950b), a passenger movement microservice (955b), a passenger detection microservice (960b), and a graphics provision microservice (965b).
  • a passenger monitoring application 940
  • a passenger movement microservice 955b
  • a passenger detection microservice 960b
  • a graphics provision microservice 965b
  • the signal processing device (170) can further execute a gas detection (CO2 detection) microservice (950c) for a passenger monitoring application (940) corresponding to QM.
  • CO2 detection gas detection
  • 950c gas detection microservice
  • the signal processing device (170) can execute a plurality of micro-services, including a face detection micro-service (910a), a face recognition micro-service (915a), and a personal micro-service (920a), which are not related to the passenger monitoring application (940).
  • the signal processing device (170) can further execute a passenger monitoring application (945) corresponding to ASIL B.
  • microservices for an occupant monitoring application (945) corresponding to ASIL B are illustrated, including an occupant seating microservice (950d), an occupant movement microservice (955d), an occupant detection microservice (960d), and an alert microservice (965d).
  • the passenger seating microservice (950d) is executed based on sensor data from the pressure sensor (SNp), and the result data of the passenger seating microservice (950d) is transmitted to the passenger movement microservice (955d).
  • the passenger movement microservice (955d) is executed based on the result data of the passenger seating microservice (950d), and the result data of the passenger movement microservice (955d) is transmitted to the passenger detection microservice (960d).
  • the passenger detection microservice (960d) is executed based on the result data of the passenger movement microservice (955d), and the result data of the passenger detection microservice (960d) is transmitted to the warning microservice (965d).
  • the warning microservice (965d) is executed based on the result data of the passenger detection microservice (960d), and the result data of the warning microservice (965d) can be transmitted to and output by the audio output unit (185).
  • the signal processing device (170) can further execute a gas detection (CO2 detection) microservice (950e) for a passenger monitoring application (945) corresponding to ASIL B.
  • CO2 detection gas detection
  • a passenger monitoring application 955 corresponding to ASIL B.
  • the gas detection (CO2 detection) microservice (950e) is executed based on sensor data from the gas sensor (SNc), and the result data of the gas detection (CO2 detection) microservice (950e) can be transmitted to the passenger movement microservice (955d).
  • the signal processing device (170) may not transmit the result data of the passenger detection microservice (960b) among the microservices in the passenger monitoring application (940) corresponding to QM to the warning microservice (965d) in the passenger monitoring application (945) corresponding to ASIL B.
  • the signal processing device (170) since the safety level of the passenger detection microservice (960b) within the passenger monitoring application (940) corresponding to QM is lower than the safety level of the warning microservice (965d) within the passenger monitoring application (945) corresponding to ASIL B, the signal processing device (170) according to the embodiment of the present disclosure cannot transmit the result data of the passenger detection microservice (960b) to the warning microservice (965d) within the passenger monitoring application (945) corresponding to ASIL B. Accordingly, each safety level can be maintained.
  • Figure 8e illustrates another example of execution of multiple microservices corresponding to ASIL B and microservices corresponding to QM based on camera data from an internal camera (195i).
  • the signal processing device (170) can execute a driver monitoring system (DMS) application (985) corresponding to ASIL B, similarly to FIG. 8b.
  • DMS driver monitoring system
  • the Driver Monitoring System (DMS) application (985) is similar to the Driver Monitoring System (DMS) application (905) of FIG. 8b, but differs in that the second face detection microservice (910c) is not performed.
  • a signal processing device (170) can execute a plurality of microservices, including a face detection microservice (910b), an eye movement microservice (915b), a head movement microservice (915c), a gaze tracking microservice (920b), and a warning microservice (930b), for a driver monitoring system (DMS) application (985) corresponding to ASIL B.
  • a face detection microservice (910b) an eye movement microservice (915b), a head movement microservice (915c), a gaze tracking microservice (920b), and a warning microservice (930b)
  • DMS driver monitoring system
  • the head movement microservice (915c) is executed based on the result data of the face detection microservice (910b), and the result data of the head movement microservice (915c) is transmitted to the gaze tracking microservice (920b).
  • the signal processing device (170) can execute a third face detection microservice (910a), a face recognition microservice (915a), and a personal microservice (920a) as a plurality of microservices, which are not related to ASIL B.
  • the signal processing device (170) can execute an augmented reality microservice (930c) as a microservice corresponding to QM.
  • the signal processing device (170) can transmit the result data of the eye tracking microservice (920b) among the microservices in the application (985) corresponding to ASIL B to the augmented reality microservice (930c) corresponding to QM, which has a lower safety level.
  • the augmented reality microservice (930c) corresponding to QM is executed based on the result data of the gaze tracking microservice (920b), and the result data of the augmented reality microservice (930c) can be transmitted to the display (180) and displayed.
  • FIG. 9 is an example of an internal block diagram of a signal processing device according to an embodiment of the present disclosure.
  • a signal processing device (170) in a system (1000) includes a processor (175) that executes a hypervisor (505).
  • processor (175) can correspond to the central processor (CPU) of FIG. 6.
  • the processor (175) may have multiple processor cores.
  • the drawing illustrates multiple processor cores each operating based on a safety level of ASIL B, but various variations are possible.
  • some of the multiple processor cores may operate based on a safety level of ASIL B, while others may operate based on a safety level of QM.
  • a signal processing device (170) may further include a second processor (177) including an M core or MCU (micom tool) for executing applications of the highest safety level, ASIL D.
  • a second processor (177) including an M core or MCU (micom tool) for executing applications of the highest safety level, ASIL D.
  • processor (175) executes multiple virtual machines (810 to 830) on the hypervisor (505).
  • the first virtualization machine (830) executes multiple microservices (910b, 915b, 920b, 930b) corresponding to the first safety level such as ASIL B.
  • the first virtual machine (830) transmits the result data of the first microservice (920b) among the plurality of microservices to the second virtual machine (820) among the plurality of virtual machines (810 to 830) corresponding to the second security level lower than the first security level or to the virtual machine within the second signal processing device (170Z). Accordingly, data processing can be performed efficiently using the microservice.
  • the first virtual machine (830) can execute multiple microservices separately to execute the first application corresponding to the first security level.
  • the first virtual machine (830) can separately execute a face detection microservice (910b), an eye movement microservice (915b), a gaze tracking microservice (920b), and a warning microservice (930b) as a plurality of microservices for a driver monitoring system (DMS) application (905) corresponding to a first safety level such as ASIL B.
  • DMS driver monitoring system
  • the second virtual machine (820) executes a second application corresponding to the second security level, and the second application can be executed based on the result data of the first microservice (920b).
  • the second virtualization machine (820) can execute an augmented reality microservice (930c) as a microservice corresponding to the second safety level, QM, as shown in FIG. 8b.
  • an augmented reality microservice (930c) as a microservice corresponding to the second safety level, QM, as shown in FIG. 8b.
  • the second virtualization machine (820) can further execute a facial recognition microservice (915a) as a microservice corresponding to the second security level, QM, as shown in FIG. 8b.
  • the second virtualization machine (820) can execute an augmented reality microservice (930c) as a microservice corresponding to QM.
  • the first virtual machine (830) can transmit the result data of the eye tracking microservice (920b) among the microservices in the application (905) corresponding to ASIL B to the augmented reality microservice (930c) corresponding to QM, which has a lower safety level.
  • the first virtual machine (830) can transmit the result data of the eye tracking microservice (920b) among the microservices within the application (905) corresponding to ASIL B to the augmented reality microservice (930c) within the second virtual machine (820), which has a lower safety level, as shown in FIG. 8b.
  • the first virtual machine (830) may execute a face detection microservice (910b), an eye movement microservice (915b), a gaze tracking microservice (920b), and a warning microservice (930b) based on the received camera data, and transmit the result data of the gaze tracking microservice (920b) to the second virtual machine (820) corresponding to the second safety level.
  • the second virtual machine (820) can be controlled to execute the augmented reality microservice (930c) based on the result data of the eye tracking microservice (920b), as shown in FIG. 8b, and display the result data of the augmented reality microservice (930c) on the display (180).
  • the first virtual machine (830) can transmit the result data of the first microservice (920b) to at least one virtual machine corresponding to a second safety level lower than the first safety level using the shared memory (508).
  • the first virtual machine (830) can transmit the result data of the first micro service (920b) to the second virtual machine (820) corresponding to the second safety level lower than the first safety level using the shared memory (508).
  • the first virtual machine (830) can transmit the result data of the eye tracking microservice (920b) to the augmented reality microservice (930c) within the second virtual machine (820) using the shared memory within the hypervisor (505).
  • the second virtual machine (820) may not transmit the result data of the microservice being executed or the result data of the application to the first virtual machine (830).
  • the second virtual machine (820) may not transmit data to the first virtual machine (830) with a higher security level.
  • the result data of the facial recognition microservice (915a) within the second virtual machine (820) is not transmitted to the first virtual machine (830). Accordingly, the security level of each virtual machine can be maintained.
  • the first virtual machine (830) may not transmit the result data of the first micro service (920b) among the plurality of micro services to a virtual machine of a third safety level higher than the first safety level.
  • the first virtual machine (830) may not transmit the result data of the first microservice (920b) among the plurality of microservices to the third virtual machine (810) or the fourth virtual machine (840) at the third safety level higher than the first safety level. Accordingly, the safety level of each virtual machine can be maintained.
  • some cores of the processor (175) may execute a first virtual machine (830), and other cores of the processor (175) may execute a second virtual machine (820).
  • some cores of the processor (175) execute a first virtual machine (830) corresponding to the first safety level, ASIL B, and other cores of the processor (175) execute a second virtual machine (820) corresponding to the second safety level, QM. Accordingly, data processing can be performed efficiently using microservices.
  • the second processor (177) can execute an application or virtual machine of ASIL D, the highest safety level.
  • the security level of the application or virtual machine running on the second processor (177) may be higher than the first security level. Accordingly, the stability of the recognition service can be improved.
  • the second virtual machine (820) can execute a face recognition microservice (915a) based on the received camera data, as shown in FIG. 8d, and execute a personal microservice (920a), which is an additional microservice, based on the result data of the face recognition microservice.
  • the second virtual machine (820) may execute the passenger seating microservice (950b), the passenger movement microservice (955b), the passenger detection microservice (960b), and the graphics provision microservice (965b) for the passenger monitoring application (940) corresponding to QM, as shown in FIG. 8d, based on the received sensor data or camera data, and may not transmit the service result data of the passenger detection microservice (960b) to the first virtual machine (830).
  • the first virtual machine (830) can execute the passenger seating microservice (950d), the passenger movement microservice (955d), the passenger detection microservice (960d), and the warning microservice (965d) for the passenger monitoring application (945) corresponding to ASIL B, based on the received sensor data or camera data, as shown in FIG. 8d. Accordingly, data processing can be performed efficiently using the microservices.
  • the first virtual machine (830) within the signal processing device (170) executes the first application and transmits the result data or intermediate result data of the first application to the second virtual machine (820) or the virtual machine within the second signal processing device (170Z) corresponding to the second security level. Accordingly, data processing can be efficiently performed using microservices.
  • the first virtual machine (830) may execute a first application including a plurality of microservices and transmit result data of at least some of the plurality of microservices to the second virtual machine (820) or the second signal processing device (170Z).
  • FIG. 10 is an example of an internal block diagram of a signal processing device according to another embodiment of the present disclosure.
  • a signal processing device (170) in a system (1000b) can transmit data to a second signal processing device (170) or receive data from the second signal processing device (170).
  • the second signal processing device (170z) may be an area signal processing device.
  • the second signal processing device (170z) has a processor (175z) that executes a hypervisor (505z).
  • the processor (175z) in the second signal processing device (170z) may have multiple processor cores.
  • the second signal processing device (170z) may further include a separate processor (177z) including an M core or MCU (micomcut) for executing applications of the highest safety level, ASIL D.
  • processor (175z) can execute at least one virtualization machine (830z) on the hypervisor (505).
  • a separate processor can run a virtual machine (840z) corresponding to ASIL D, the highest safety level on the M core.
  • camera data from the internal camera (195i) can be transmitted to the signal processing device (170) or the second signal processing device (170z).
  • a virtual machine (830z) within a processor (175z) is illustrated executing a camera data-based video stream application (9993).
  • the processor (175) in the signal processing device (170) can receive sensor data or camera data from the second signal processing device (170Z).
  • the first virtual machine (830) within the signal processing device (170) may execute a plurality of micro-services corresponding to the first safety level based on sensor data or camera data, and, as shown in FIG. 8b, may transmit the result data of the first micro-service (920b) among the plurality of micro-services to the second virtual machine (820) corresponding to the second safety level lower than the first safety level.
  • the first virtual machine (830) within the signal processing device (170) may execute a plurality of microservices corresponding to the first safety level based on sensor data or camera data, and transmit the result data of the first microservice (920b) among the plurality of microservices to the virtual machine within the second signal processing device (170Z) corresponding to the second safety level lower than the first safety level.
  • a first virtual machine (830) within a signal processing device (170) can transmit the result data of the gaze tracking microservice (920b) to a virtual machine (830z) within a second signal processing device (170Z) corresponding to the same safety level, ASIL B.
  • the virtual machine (830z) within the second signal processing device (170Z) can perform data processing efficiently without having to separately execute the gaze tracking microservice (920b).
  • FIG. 11 is a diagram illustrating the operation of a signal processing device according to an embodiment of the present disclosure.
  • a signal processing device (170) includes a processor (175) that executes a hypervisor (505).
  • the processor (175) executes, on the hypervisor (505), a recognition service (1210) that performs recognition based on sensor data, and a safety monitor service (1120) that monitors the recognition service (1210), and, when the recognition service (1210) is executed, performs a recovery mode using a redundant recognition service (1210b).
  • the stability of sensor data-based recognition services can be improved. Furthermore, the usability of sensor data-based recognition services (1210) can be improved.
  • the processor (175) may run an operating system (1103), such as an RTOS, on a hypervisor (505), and may run a workload orchestrator (1110) on the operating system (1103).
  • an operating system (1103 such as an RTOS
  • hypervisor (505) such as an RTOS
  • a workload orchestrator (1110) on the operating system (1103).
  • processor (175) can execute at least one application on the orchestrator (1110).
  • the processor (175) can execute an autonomous driving service (1140), a vehicle driving assistance service (1150), a driver monitoring service (1160), or a cockpit service (1170) on the orchestrator (1110).
  • the processor (175) may execute a second operating system (1104) having a lower safety level than the operating system (1103) corresponding to ASIL B or ASIL D on the hypervisor (505), execute a workload orchestrator (1110) on the second operating system (1104), execute a container runtime (1181) on the orchestrator (1110), and execute an IVI service (1180) for an IVI display on the container runtime (1181).
  • the processor (175) executes a container runtime (1141 to 1171) for execution of each service (1140 to 1170), and can execute a service-oriented architecture (SOA) middleware (1143 to 1173), a platform library (1144 to 1174), etc. on each container runtime (1141 to 1171).
  • SOA service-oriented architecture
  • the processor (175) can execute an autonomous driving application (1145), a vehicle driving assistance application (1155), a driver monitoring application (1165), or a cockpit application (1175) on each platform library (1144 to 1174).
  • the processor (175) can execute a configuration service (1184) and an IVI application, etc., on the container runtime (1181).
  • the processor (175) can execute a safety monitor service (1120) within the orchestrator (1110).
  • the safety monitor service (1120) at this time may be a perception safety monitor service.
  • the safety monitor service (1120) can monitor the recognition service (1210) running in at least one application (1145 to 1185).
  • the safety monitor service (1120) controls the operation of the redundant recognition service (1210b) during the operation of the recognition service (1210), and when a failure occurs in the recognition service (1210), it can transmit a recovery command to the recognition service (1210) and an activity command to the redundant recognition service (1210b). Accordingly, the stability of the sensor data-based recognition service can be improved.
  • the safety monitoring service (1120) can control the operation transition between the recognition service (1210) or the redundant recognition service (1210b) based on monitoring data or analysis data from the recognition service (1210) or the redundant recognition service (1210b). Accordingly, the stability of the sensor data-based recognition service can be improved.
  • the safety monitoring service (1120) can vary the operation switching criteria between the recognition service (1210) or the redundant recognition service (1210b) based on monitoring data or analysis data from the recognition service (1210) or the redundant recognition service (1210b). Accordingly, the stability of the sensor data-based recognition service can be improved.
  • the processor (175) can perform a recognition service (1210) for autonomous driving (1140), vehicle assisted driving (1150), or driver monitoring (1160) based on sensor data. Accordingly, the usability of the recognition service (1210) can be improved.
  • the processor (175) can perform a recognition service (1210) for active steering, lane keeping, emergency braking, automatic lane change, or traffic jam pilot based on sensor data. Accordingly, the usability of the recognition service (1210) can be improved.
  • the recognition service (1210) may be any one of multiple microservices for application execution.
  • the recognition service (1210) may correspond to a microservice for executing object detection or object tracking or lane detection or lane maintenance.
  • the processor (175) can perform object detection or object tracking based on the recognition service (1210). Accordingly, the usability of the recognition service can be improved.
  • the processor (175) can execute multiple microservices as described above when executing each application (1145 to 1185). Accordingly, the applications can be executed efficiently.
  • the processor (175) may execute a microservice for executing object detection or object tracking or lane detection or lane maintenance based on sensor data received from a sensor device (SN).
  • SN sensor device
  • the processor (175) may execute a microservice for object detection, object tracking, or lane detection based on sensor data received from a sensor device (SN) when executing a vehicle driving assistance application (1155).
  • the processor (175) may execute a microservice for object detection or object tracking based on sensor data received from a sensor device (SN) when executing a driver monitoring application (1165).
  • the signal processing device (170) of FIG. 11 may further include, in addition to the processor (175), a second processor (177) including an MCU (micom unit).
  • a second processor (177) including an MCU (micom unit).
  • the safety level of the second processor (177) may be higher than or equal to that of the processor (175).
  • the safety level of the second processor (177) may be ASIL D
  • the safety level of the processor (175) may be ASIL B or ASIL D.
  • the second processor (177) executes AUTOSAR (1106) and can execute a power and temperature monitor (1191), a workload monitor (1192), a fail-operational service (1194), a take-over service (1195), an arbitrator service (1196), a safety monitor (1197), or an active safety (1198) on AUTOSAR (1106).
  • the second processor (177) can control the degradation or emergency mode to be performed through the fail operational service (1194).
  • the processor (175) may execute a fail operational service (1194), or the processor (175) may control the execution of a degradation or emergency mode.
  • FIGS 12a to 19b are drawings referenced in the operation description of Figure 11.
  • FIG. 12a is a diagram illustrating various services within the autonomous driving application of FIG. 11.
  • the processor (175) in the signal processing device (170) can execute the Active Steering (1261), Lane Keeping (1263), Emergency Braking (1265), Automatic Lane Change (1267), or Traffic Jam Pilot (1269) service based on sensor data when executing the autonomous driving application (1145).
  • Active Steering (1261), Lane Keeping (1263), Emergency Braking (1265), Automatic Lane Change (1267), or Traffic Jam Pilot (1269) services may be microservices for executing an autonomous driving application (1145).
  • the processor (175) can perform a recognition service (1210) for active steering (1261), lane keeping (1263), emergency braking (1265), automatic lane change (1267), or traffic jam pilot (1269) based on sensor data. Accordingly, the usability of the recognition service (1210) can be improved.
  • Figure 12b is a drawing referenced in the operation description of the safety monitor service of Figure 11.
  • the interface (1205) within the signal processing device (170) can receive sensor data from various sensor devices (SN).
  • the processor (175) can perform a recognition service (1210) for an autonomous driving application (1145), a vehicle assisted driving application (1155), or a driver monitoring application (1165) based on map data stored in a memory (925), etc., or sensor data from an interface (1205).
  • the processor (175) may execute localization (1250) based on vehicle driving status or weather information and sensor data, execute recognition service (1210) based on localization (1250), execute planning (1220) based on recognition service (1210), and output a vehicle control signal based on planning (1220).
  • the safety monitor service (1120) may transmit vehicle driving conditions such as tunnel driving or weather information such as light rain for localization (1250) processing.
  • the processor (175) can perform localization (1250) based on vehicle driving status or weather information, and sensor data.
  • the safety monitor service (1120) can transmit information such as confidence level, weather condition, or sensor corruption to the interface (1205).
  • the safety monitor service (1120) can transmit workload information, such as delay, to the recognition service (1210).
  • the processor (175) can execute a recognition service (1210) based on workload information such as the result of localization (1250) or delay.
  • the processor (175) can execute dynamic object processing such as detection, tracking, and prediction, and traffic light processing such as detection and classification, for executing the recognition service (1210).
  • the processor (175) can execute planning (1220) based on the result of the recognition service (1210) or the result of localization.
  • the processor (175) can perform mission processing, scenario processing, etc., to execute planning (1220).
  • the processor (175) can perform processing such as scenario selection, lane driving, and parking when processing a scenario.
  • the processor (175) can output a vehicle control signal for vehicle control (1230) based on the result of planning (1220).
  • the vehicle control signal can be transmitted to each device in the vehicle through the vehicle interface (1270).
  • the vehicle control signal may be a steering control signal, a lane keeping signal, an emergency braking signal, or a lane change signal.
  • the processor (175) can perform vehicle control suitable for vehicle driving conditions or weather information, etc., based on sensor data.
  • the processor (175) can vary the mode for planning (1220) or control (1230) for vehicle control based on the confidence level.
  • the processor (175) can control the execution of normal mode, degradation mode, emergency mode, or manual driving mode based on the confidence level. Accordingly, the stability of a sensor data-based recognition service can be improved based on the confidence level.
  • the processor (175) can control the recovery mode to be enabled by utilizing the redundant recognition service, as described above, when executing the recognition service (1210). Accordingly, the stability of the recognition service can be improved, ultimately enabling stable vehicle control.
  • Figure 13a is a drawing referenced in the description of the operation of the orchestrator.
  • the orchestrator (1110) can receive fail-safe data (1305).
  • fail-safe data may include a main recognition service and a redundant recognition service for the recognition service.
  • the orchestrator (1110) can monitor (1310) the main recognition service (1210a) based on the reception of fail-safe data (1305).
  • the processor (175) can control the main recognition service (1210a) to be kept in an active state and the redundant recognition service (1210b) to be in a standby state based on the fail-safe data (1305).
  • the safety monitor service (1120) can control the operation of the redundant recognition service (1210b) to be temporarily suspended during the operation of the recognition service (1210).
  • the main recognition service (1210a) within the processor (175) can perform recognition based on sensor data from the interface (1205) and transmit the recognition result to planning (1220).
  • Figure 13b illustrates that both the main service and the redundant service are active.
  • the processor (175) can execute an orchestrator (1110), a main service, and a redundant service.
  • the main service may be a main recognition service (1210a)
  • the redundant service may be a redundant recognition service (1210b).
  • the processor (175) can execute the main recognition service (1210a) or the redundant recognition service (1210b) based on the sensor data.
  • the processor (175) can control the main recognition service (1210a) and the redundant recognition service (1210b) to be performed in different containers.
  • the first application (1226) is executed within the main recognition service (1210a) and the second application (1236) is executed within the redundant recognition service (1210b), but various modifications are possible.
  • the processor (175) can run the main recognition service (1210a) and the redundant recognition service (1210b) within the same container or the same application.
  • a proxy router (1324) within the main recognition service (1210a) or a proxy router (1334) within the redundant recognition service (1210b) can transmit data to the simulator (1330).
  • the monitor (1322) within the main recognition service (1210a) or the monitor (1324) within the redundant recognition service (1210b) can monitor the proxy router (1324) or the proxy router (1334), respectively.
  • a monitor (1322) within the main recognition service (1210a) or a monitor (1324) within the redundant recognition service (1210b) may send a failure notification to the orchestrator (1110) when a data error occurs.
  • the monitor (1322) within the main recognition service (1210a) or the monitor (1324) within the redundant recognition service (1210b) can detect a failure or perform error detection through periodic monitoring.
  • the orchestrator (1110) can control the updating of the monitoring module (1322, 1332) or management module within the recognition service (1210) or the redundant recognition service (1210b). Accordingly, the stability of the sensor data-based recognition service can be improved.
  • Figure 13c is a drawing referenced in the operation description of the main recognition service or redundant recognition service of Figure 13b.
  • the processor (175) can control the main recognition service (1210a) and the redundant recognition service (1210b) to attempt data transmission in the default state, which is the running state (1392).
  • the processor (175) can control data transmitted by the redundant recognition service (1210b) to be blocked.
  • the processor (175) can control the orchestrator (1110) to transmit a restart command to the main recognition service (1210a).
  • the processor (175) can control the pause state (1394) to be deactivated when both the main recognition service (1210a) and the redundant recognition service (1210b) are active.
  • Figure 13d illustrates that the main service is active and the redundant service is passive.
  • the processor (175) can execute an orchestrator (1110), a main recognition service (1210a), and a redundant recognition service (1210b), as shown in FIG. 13b.
  • the processor (175) can control the main recognition service (1210a) to be in an operating state (1392) and the redundant recognition service (1210b) to be in a paused state (1394) based on sensor data.
  • the main recognition service (1210a) performs data transmission
  • the redundant recognition service (1210b) may temporarily suspend data transmission.
  • the processor (175) can control the orchestrator (1110) to transmit a recovery command to the redundant recognition service (1210b).
  • the redundant recognition service (1210b) begins operation based on the recovery command. This improves the stability of the sensor data-based recognition service.
  • the processor (175) can disable a restart command to the main recognition service (1210a) when transmission is interrupted (1396) due to a failure of the main recognition service (1210a).
  • Figure 14 is a drawing referenced in the description of the operation of the safety monitor service within the orchestrator.
  • the processor (175) can receive sensor data through the interface (1205), perform a recognition service (1210) based on the sensor data, and execute planning (1220) based on the result of the recognition service (1210).
  • the recognition service (1210) can receive fail-safe data (1305b), as shown in the drawing.
  • fail-safe data (1305b) may include a main recognition service and a redundant recognition service for the recognition service.
  • the orchestrator (1110) can execute a safety monitor service (1120), as shown in FIG. 11.
  • the safety monitor service (1120) within the orchestrator (1110) can receive fail-safe data (1305b) from the safety monitor service (1120).
  • the processor (175) can control the main recognition service (1210a) to be in an active state and the redundant recognition service (1210b) to be in a standby state based on the fail-safe data (1305b).
  • the processor (175) can control the operation of the redundant recognition service (1210b) to be temporarily suspended during the operation of the main recognition service (1210a).
  • the first recognition service (1327) is executed within the main recognition service (1210a), and the second recognition service (1337) is executed within the redundant recognition service (1210b), but various modifications are possible.
  • a proxy router (1324) within the main recognition service (1210a) or a proxy router (1334) within the redundant recognition service (1210b) can transmit recognition result data to planning (1220).
  • the analysis module (1325) within the main recognition service (1210a) or the analysis module (1335) within the redundant recognition service (1210b) can calculate and output the confidence level or confidence score of the main recognition service (1210a) or the redundant recognition service (1210b), respectively.
  • the orchestrator (1110) can further execute the gateway (1505).
  • the gateway (1505) within the orchestrator (1110) can receive fail-safe data (1305b) and distribute, monitor, or manage the fail-safe data (1305b) to a recognition service (1210), etc.
  • the gateway (1505) can receive the confidence level or confidence score of the main recognition service (1210a) or the redundant recognition service (1210b) from the analysis module (1325) or the analysis module (1335).
  • FIG 15 is a drawing referenced in the description of the operation of the gateway of Figure 14.
  • the gateway (1505) can process or calculate the operation result data (1305c) based on the confidence level or confidence score from the analysis module (1325) or the analysis module (1335).
  • the gateway (1505) can control the recovery operation to be performed sequentially based on the confidence level or confidence score of the main recognition service (1210a).
  • the gateway (1505) can control the redundant recognition service (1210b) to be prepared when the confidence level or confidence score of the main recognition service (1210a) is the first level (e.g., 70).
  • the gateway (1505) may control the redundant recognition service (1210b) to take action when the confidence level or confidence score of the main recognition service (1210a) is at the second level (e.g., 40).
  • the gateway (1505) can control the redundant recognition service (1210b) to be sequentially converted to an operational state in a ready state when the confidence level or confidence score sequentially decreases from the first level to the second level.
  • a recovery mode can be performed using the redundant recognition service (1210b). Consequently, the stability of the sensor data-based recognition service can be improved.
  • Figure 16 is a drawing referenced in the description of the operation of multiple signal processing devices for autonomous driving.
  • a processor (175a) within a first signal processing device (170a) may execute an operating system (1605) and execute middleware (1610) on the operating system (1605).
  • the processor (175a) in the first signal processing device (170a) can execute, on the middleware (1610), a sensor fusion service (1620) that processes sensor data such as a camera, radar, and lidar, a mapping service (1626) such as an HD map, road geometry, and lane marking, a localization service (1630) such as location information and 3D geometry, an analysis service (1640) such as internal monitoring (1643) and external monitoring (1644), a recognition service (1210), a planning service (1220), a control service (1645), etc.
  • a sensor fusion service (1620) that processes sensor data such as a camera, radar, and lidar
  • a mapping service (1626) such as an HD map, road geometry, and lane marking
  • a localization service (1630) such as location information and 3D geometry
  • an analysis service (1640) such as internal monitoring (1643) and external monitoring (1644
  • a recognition service (1210) a planning service (1220), a control service (1645), etc.
  • the processor (175a) in the first signal processing device (170a) can execute a safety monitor service (1120) in addition to the recognition service (1210).
  • the processor (175a) within the first signal processing device (170a) can execute applications (1670) such as object detection (1672), object tracking (1674), lane detection (1674), and lane centering (1678) for traffic jam assist (1670).
  • applications (1670) such as object detection (1672), object tracking (1674), lane detection (1674), and lane centering (1678) for traffic jam assist (1670).
  • the second signal processing device (170b) that performs communication such as Ethernet with the first signal processing device (170a) may be equipped with a processor (175b).
  • the processor (175b) within the second signal processing device (170b) can execute a hypervisor (505b), execute a first operating system (1605b) on the hypervisor (505b), and execute middleware (1610b) on the first operating system (1605b).
  • the processor (175b) in the second signal processing device (170b) can execute driver monitoring (1680), intelligent cockpit (1682), vehicle driving assistance (ADAS) (1684), etc. on the middleware (1610b).
  • driver monitoring (1680
  • intelligent cockpit (1682
  • vehicle driving assistance ADAS
  • the processor (175b) in the second signal processing device (170b) can execute a second operating system (1605c) separate from the first operating system (1605b) on the hypervisor (505b), and can execute a setting service (1683), an IVI application (1685), etc. on the second operating system (1605c).
  • the processor (175b) in the second signal processing device (170b) can execute a recognition service (1210) and a safety monitor service (1120).
  • Figure 17a is a diagram illustrating various modes being performed.
  • the processor (175) within the signal processing device (170) may perform a normal mode (S1710) and then perform a degradation mode based on the confidence level (S1715).
  • the processor (175) can switch from normal mode to degradation mode based on the recognition service (1210).
  • the processor (175) within the signal processing device (170) can be controlled to perform normal mode when the confidence level is the first level, as shown in FIG. 15, and to stop normal mode and perform degradation mode when the confidence level is the second level lower than the first level.
  • the degradation mode may include a recovery mode based on the operation of the redundant recognition service (1210b).
  • the processor (175) can control the vehicle to reduce speed or adjust steering in degradation mode. Accordingly, the usability of the recognition service can be improved.
  • the processor (175) can control the execution of an emergency mode or a manual driving mode according to a switching request while performing the degradation mode.
  • the processor (175) can control the manual driving mode to be performed (S1728) when a switching request is received within a predetermined time while performing the degradation mode (S1720).
  • the processor (175) may control the emergency mode to be executed if a transition request is not received within a predetermined time while performing the degradation mode (S1725). In addition, the processor (175) may control the vehicle to stop according to the emergency mode (S1735).
  • the processor (175) can control the vehicle to stop after performing the emergency mode based on a transition request while performing the degradation mode based on the recognition service (1210). Accordingly, the usability of the recognition service can be improved.
  • the processor (175) can control the normal mode for autonomous driving to be performed again (S1710) when there is a request for autonomous driving (S1730) while performing manual driving mode.
  • Figure 17b is a drawing referenced in the description of Figure 17a.
  • the processor (175) can control the normal mode to be performed until the Ta1 point. Accordingly, the vehicle speed can be approximately Ya3.
  • the processor (175) can switch from normal mode to degradation mode based on the recognition service (1210).
  • the processor (175) can control the vehicle speed to decrease to approximately Ya2, depending on the degradation mode, from the Ta1 point in time.
  • the processor (175) can control the vehicle speed to be maintained at a constant speed Ya2 for a predetermined period of time after the vehicle speed decreases, depending on the degradation mode.
  • the processor (175) can control the execution of an emergency mode or a manual driving mode according to a switching request while performing the degradation mode.
  • the processor (175) can control to switch to manual driving mode when a switching request is received within a predetermined time while performing degradation mode.
  • the drawing illustrates that the vehicle speed increases from the Ts3 point by switching to manual driving mode.
  • the processor (175) can control the emergency mode to be performed if a transition request is not received within a predetermined time while performing the degradation mode.
  • the drawing illustrates that, depending on the emergency mode execution, the vehicle speed decreases from the Ta4 point.
  • the processor (175) can control the vehicle speed to be reduced depending on the emergency mode execution.
  • the processor (175) can control the vehicle to eventually stop after reducing the vehicle speed according to the emergency mode execution. Accordingly, vehicle safety can be ensured.
  • the vehicle speed is exemplified as Ya1 at time Ta5, but Ya1 can correspond to the vehicle stopping.
  • Figure 18 is a drawing for reference in explaining the operation of a processor for vehicle driving.
  • the sensor device (SN) may include a vehicle sensor (1802), an inertial sensor (1804), a lidar (196), a radar (197), a camera (195), a position sensor (1806), a speed sensor (1808), etc.
  • Various sensor data from the sensor device (SN) can be input to the processor (175) in the signal processing device (170).
  • the interface (1205) within the processor (175) can receive sensor data from a sensor device (SN) and transmit the sensor data to a recognition service (1210).
  • the interface (1205) may run or be equipped with a ROS bridge (1813) or an autoware bridge (1815).
  • the ROS bridge (1813) can transmit sensor data from a sensor device (SN) to a recognition service (1210) and transmit control commands from the recognition service (1210) or a safety monitor service (1120) to the sensor device (SN).
  • the ROS bridge (1813) can transmit sensor data from an inertial sensor (1804) or sensor data from a position sensor (1806) to localization (1822) within the perception service (1210).
  • the ROS bridge (1813) can transmit sensor data from a lidar (196) or radar (197) or camera (195) to object detection tracking (1824) within the recognition service (1210).
  • the autoware bridge (1815) can transmit speed data or vehicle status data from the speed sensor (1808) to the planning (1220).
  • the recognition service (1210) can execute localization (1822), object detection tracking (1824), etc. for autonomous driving or vehicle driving assistance.
  • the safety monitor service (1120) can monitor the recognition service (1210).
  • planning (1220) can execute planning based on the result data of the recognition service (1210), for example, obstacles or poses.
  • planning (1220) can execute global path planning (1832), local path planning (1834), and pure pursuit (1836) related to vehicle paths.
  • global path planning (1832) and local path planning (1834) can compute or execute path planning based on obstacle and pose data from the recognition service (1210).
  • path following (1836) can execute path following based on local trajectory data from local path planning (1834) and speed data or vehicle status data from autoware bridge (1815).
  • the processor (175) can perform object detection, such as a pedestrian or bicycle, which is a close-range object, based on camera data from the camera (195).
  • the processor (175) can perform long-distance object recognition, night-time vehicle recognition, or object recognition in rainy conditions, based on radar data from the radar (197).
  • the detection distance is shorter than that of radar (197) and there is a disadvantage in that it is sensitive to weather conditions.
  • the processor (175) can perform mid-range object recognition, night-time vehicle recognition, or small object recognition on the ground, based on the rider data from the rider (196).
  • the processor (175) can perform sensor fusion processing based on multiple sensor data.
  • the processor (175) may perform first object detection based on rider data from the rider (196), detect a second object based on camera data from the camera (195), and perform object matching based on the first object detection and the second object detection. Accordingly, more precise object detection or matching may be performed.
  • Figure 19a is a drawing referenced in the description of localization of Figure 18.
  • an interface (1205) within a processor (175) can receive sensor data from a sensor device (SN) and transmit the sensor data to a recognition service (1210).
  • the interface (1205) within the processor (175) can receive rider data from a rider (196) and position data from a position sensor (1806).
  • the rider driver (1902) within the processor (175) can process rider data and output 3D rider data.
  • the location information driver (1912) within the processor (175) can process location data and output sample location data.
  • the reference localization map loader (1914) within the processor (175) can output a Lidar reference map based on the reference localization map (1916) and sample location data.
  • Lidar Odometry within the processor (175) can calculate the position of an object and output the calculated position information.
  • the first corrector (1906) within the processor (175) can execute the first correction, which is a global correction, based on the position information calculated with the lidar reference map.
  • the second corrector (1908) within the processor (175) can perform a second correction based on the result data of the first corrector (1906) and the lidar reference map.
  • the output filter (1909) within the processor (175) can filter and output the result data of the second compensator (1908).
  • the localization (1822) within the processor (175) can execute localization based on the rider data or the location data from the location sensor (1806).
  • Figure 19b is a diagram illustrating various modes executed on the processor.
  • the processor (175) can be controlled to perform a fail-safe mode, a degradation mode, or a fail operation mode based on the recognition service (1210).
  • the processor (175) can control the execution of a fail-safe mode, a degradation mode, or a fail-operation mode based on a confidence level, etc.
  • the fail operation mode can correspond to the above-described normal mode
  • the fail safe mode can correspond to the above-described emergency mode or manual driving mode.
  • the processor (175) may execute a redundancy service, for example, a redundant recognition service (1210b), depending on the fail operation mode.
  • a redundancy service for example, a redundant recognition service (1210b), depending on the fail operation mode.
  • the processor (175) can control the vehicle to reduce speed or perform steering adjustment in the degradation mode, depending on the degradation mode.
  • the processor (175) can be controlled to operate in a manual driving mode that depends on the driver, depending on the fail-safe mode.
  • the fail-safe mode when the confidence level is 0 or 1, the fail-safe mode is performed, when the confidence level is 2 or 3, the degradation mode is performed, and when the confidence level is 4 or 5, the fail-operation mode is performed.
  • the processor (175) can be controlled to perform fail-safe mode when the confidence level is the lowest, and can be controlled to perform fail-operation mode when the confidence level is the highest.
  • FIG. 20 is an example of a flowchart showing an operation method of a signal processing device according to an embodiment of the present disclosure.
  • the processor (175) within the signal processing device (170) can execute an autonomous driving or vehicle driving assistance application (S2010).
  • S2010 autonomous driving or vehicle driving assistance application
  • the processor (175) can execute a recognition service (1210) that performs recognition based on sensor data and a safety monitor service (1120) that monitors the recognition service (1210).
  • the safety monitor service (1120) within the processor (175) can determine whether a monitoring signal is received (S2015) and, if so, control the dynamic driving task to be performed (S2044).
  • the safety monitor service (1120) within the processor (175) can reset the component if a monitoring signal is not received.
  • the processor (175) can reset a component running on the processor (175) in fail-safe mode. Accordingly, the usability of the recognition service can be improved.
  • the safety monitor service (1120) within the processor (175) determines whether a monitoring signal is not received and a switching request is made within a predetermined time (Ts) (S2022), and if so, controls a switching alarm notification to be executed (S2025).
  • the transition request at this time may be a transition request to degradation mode.
  • the safety monitor service (1120) within the processor (175) can control the degradation mode to be performed (S2030).
  • the processor (175) can control the speed of the vehicle to be reduced depending on the degradation mode.
  • the processor (175) can determine whether there is a switching request within a second predetermined time (Tsb) while performing the degradation mode, and if so, control the manual driving mode to be performed (S2035).
  • the processor (175) when performing degradation mode, if there is no switching request or if the switching request has passed the second predetermined time (Tsb), determines whether the vehicle is in a safe state (S2037), and if not in a safe state, controls the vehicle to stop in the lane as an emergency mode (S2040).
  • the processor (175) in step 2037 (S2037), if in a safe state, can control the lane to be changed to move to the shoulder (S2042).
  • the stability of driving services can be improved while performing various modes.
  • the processor (175) performs fail-safe mode. If the fail-safe mode fails, the processor performs degradation mode. After the degradation mode, the processor performs an alternative operation or controls the vehicle to stop. Accordingly, the usability of the recognition service can be improved.
  • Figure 21 is a drawing referenced in the description of Figure 20.
  • the lane control module (2140) within the signal processing device (170) can receive yaw rate (2131), roll rate (2133), pitch rate (2135), acceleration information (2137), etc. from the vehicle sensor devices (2130).
  • the external environment data driver (2105) can provide the collected external environment data to rain detection sensors (2120) or a display (180).
  • the rain control module (2140) within the signal processing device (170) can receive sensor data from an offline sensor (2121) or an online sensor (2123) among the rain detection sensors (2120).
  • sensor data from an offline sensor (2121) or an online sensor (2123) may include road curvature, lane markings, lane width, location information, road hazards, local map data, etc.
  • the rain control module (2140) can control the rain control to be performed based on sensor data from the vehicle sensor devices (2130) or the rain control module (2140).
  • the lane control module (2140) can output steering information, braking information, torque information, etc. based on sensor data.
  • the steering module (2151) within the control module (2150) can output a steering control signal to the vehicle interface (2160) based on steering information.
  • the steering module (2151) within the control module (2150) can output a steering control signal to the vehicle interface (2160) based on the steering information.
  • the braking module (2153) within the control module (2150) can output a braking control signal to the vehicle interface (2160) based on the braking information.
  • the propulsion module (2157) within the control module (2150) can output a propulsion control signal based on propulsion information.
  • the active differential module (2158) within the control module (2150) can output an acceleration control signal to the vehicle interface (2160) based on propulsion information, etc.
  • vehicle status information output from the rain control module (2140) can be transmitted to the display interface (2110).
  • the display interface (2110) can output main control information (2113), sub-control information (2112), cockpit information (2115), driver status monitoring information (2117), etc., and display them on the display (180).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)

Abstract

A signal processing device and a vehicle display device comprising same, according to an embodiment of the present disclosure, comprise a processor for executing a hypervisor, wherein the processor: executes, on the hypervisor, a recognition service for performing recognition on the basis of sensor data and a safety monitor service for monitoring the recognition service; and performs a recovery mode by using a redundant recognition service when the recognition service is executed. Accordingly, the stability of the recognition service can be improved.

Description

신호 처리 장치 및 이를 구비하는 차량용 디스플레이 장치Signal processing device and vehicle display device having the same

본 개시는 신호 처리 장치 및 이를 구비하는 차량용 디스플레이 장치에 관한 것이며, 더욱 상세하게는 인식 서비스의 안정성을 향상시킬 수 있는 신호 처리 장치 및 이를 구비하는 차량용 디스플레이 장치에 관한 것이다.The present disclosure relates to a signal processing device and a vehicle display device having the same, and more particularly, to a signal processing device capable of improving the stability of a recognition service and a vehicle display device having the same.

차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예로 들 수 있다.A vehicle is a device that allows the user to move in the desired direction. A representative example is an automobile.

한편, 차량을 이용하는 사용자의 편의를 위해, 차량 내부에 차량용 신호 처리 장치가 탑재되고 있다.Meanwhile, for the convenience of vehicle users, a vehicle signal processing device is installed inside the vehicle.

차량 내부의 신호 처리 장치는, 내부의 다양한 센서 장치로부터 센서 데이터를 수신하여 처리한다.The signal processing device inside the vehicle receives and processes sensor data from various sensor devices inside the vehicle.

한편, 차량 운전 보조(ADAS) 또는 자율 주행 등으로 인해, 차량에 장착되는 센서의 종류와 개수가 증가하면서, 처리되어야 하는 데이터가 증가하는 추세이다.Meanwhile, as the types and number of sensors installed in vehicles increase due to advanced driver assistance systems (ADAS) and autonomous driving, the amount of data that needs to be processed is also increasing.

한편, 차량 운전 보조(ADAS) 또는 자율 주행 등과 관련하여, 애플리케이션 등의 실행시, 결함 또는 고장으로 인한 오작동 가능성이 있으며, 이러한 오작동 등으로 인한 차량 사고 발생 가능성이 높아지게 된다.Meanwhile, in relation to vehicle driver assistance systems (ADAS) or autonomous driving, there is a possibility of malfunction due to defects or failures when running applications, etc., and the possibility of vehicle accidents occurring due to such malfunctions increases.

본 개시가 해결하고자 하는 과제는, 인식 서비스의 안정성을 향상시킬 수 있는 신호 처리 장치 및 이를 구비하는 차량용 디스플레이 장치를 제공하는 것이다.The problem to be solved by the present disclosure is to provide a signal processing device capable of improving the stability of a recognition service and a vehicle display device equipped with the same.

본 개시가 해결하고자 하는 다른 과제는, 센서 데이터 기반의 인식 서비스의 활용성을 향상시킬 수 있는 신호 처리 장치 및 이를 구비하는 차량용 디스플레이 장치를 제공하는 것이다.Another problem that the present disclosure seeks to solve is to provide a signal processing device capable of improving the usability of a sensor data-based recognition service and a vehicle display device equipped with the same.

본 개시가 해결하고자 하는 다른 과제는, 마이크로 서비스를 이용하여 효율적으로 데이터 처리를 수행할 수 있는 신호 처리 장치 및 이를 구비하는 차량용 디스플레이 장치를 제공하는 것이다.Another problem that the present disclosure seeks to solve is to provide a signal processing device capable of efficiently performing data processing using microservices and a vehicle display device equipped with the same.

상기 기술적 과제를 해결하기 위한 본 개시의 일 실시예에 따른 신호 처리 장치 및 이를 구비하는 차량용 디스플레이 장치는, 하이퍼바이저를 실행하는 프로세서를 포함하고, 프로세서는, 하이퍼바이저 상에, 센서 데이터에 기초하여 인식을 수행하는 인식 서비스와, 인식 서비스를 모니터링하는 안전 모니터 서비스를 실행하고, 인식 서비스 실행시에, 리던던트 인식 서비스를 이용하여, 복구 모드를 수행한다.A signal processing device and a vehicle display device having the same according to one embodiment of the present disclosure for solving the above technical problem include a processor executing a hypervisor, and the processor executes, on the hypervisor, a recognition service that performs recognition based on sensor data and a safety monitor service that monitors the recognition service, and, when executing the recognition service, performs a recovery mode using a redundant recognition service.

한편, 안전 모니터 서비스는, 인식 서비스 동작 중에, 리던던트 인식 서비스가 동작하도록 제어하며, 인식 서비스 장애 발생시, 인식 서비스로 복구 명령을 전송하고, 리던던트 인식 서비스로 활동 명령을 전송할 수 있다.Meanwhile, the safety monitor service controls the operation of a redundant recognition service during the operation of the recognition service, and when a recognition service failure occurs, it can send a recovery command to the recognition service and an activity command to the redundant recognition service.

한편, 안전 모니터 서비스는, 인식 서비스 동작 중에, 리던던트 인식 서비스의 동작이 일시 정지하도록 제어하며, 인식 서비스 장애 발생시, 인식 서비스로 복구 명령을 전송하고, 리던던트 인식 서비스로 시작 명령을 전송할 수 있다.Meanwhile, the safety monitor service can control the operation of the redundant recognition service to be temporarily suspended during the operation of the recognition service, and, when a recognition service failure occurs, can send a recovery command to the recognition service and a start command to the redundant recognition service.

한편, 안전 모니터 서비스는, 인식 서비스 또는 리던던트 인식 서비스로부터의 모니터링 데이터 또는 분석 데이터에 기초하여, 인식 서비스 또는 리던던트 인식 서비스 사이의 동작 전환을 제어할 수 있다.Meanwhile, the safety monitor service can control the switching of operations between the recognition service or the redundant recognition service based on monitoring data or analysis data from the recognition service or the redundant recognition service.

한편, 안전 모니터 서비스는, 인식 서비스 또는 리던던트 인식 서비스로부터의 모니터링 데이터 또는 분석 데이터에 기초하여, 인식 서비스 또는 리던던트 인식 서비스 사이의 동작 전환 기준을 가변할 수 있다.Meanwhile, the safety monitor service may vary the operation switching criteria between the recognition service or the redundant recognition service based on monitoring data or analysis data from the recognition service or the redundant recognition service.

한편, 안전 모니터 서비스는, 인식 서비스 또는 리던던트 인식 서비스 내의 모니터링 모듈 또는 관리 모듈을 업데이트하도록 제어할 수 있다. Meanwhile, the safety monitor service can control updating of a monitoring module or management module within the recognition service or redundant recognition service.

한편, 프로세서는, 컨피던스 레벨에 기초하여, 차량 제어를 위한 플래닝 또는 컨트롤을 위한 모드를 가변할 수 있다.Meanwhile, the processor can vary the mode for planning or controlling the vehicle based on the confidence level.

한편, 프로세서는, 컨피던스 레벨에 기초하여, 노말 모드 또는 디그라데이션 모드 또는 긴급 모드 또는 수동 주행 모드가 수행되도록 제어할 수 있다.Meanwhile, the processor can control whether normal mode, degradation mode, emergency mode, or manual driving mode is performed based on the confidence level.

한편, 프로세서는, 센서 데이터에 기초하여 자율 주행 또는 차량 보조 운전 또는 운전자 모니터링을 위한 인식 서비스를 수행할 수 있다.Meanwhile, the processor can perform recognition services for autonomous driving, vehicle assisted driving, or driver monitoring based on sensor data.

한편, 프로세서는, 센서 데이터에 기초하여, 액티브 스티어링, 레인 유지, 긴급 브레이킹, 자동 레인 변환 또는 트래픽 잼 파일럿을 위한 인식 서비스를 수행할 수 있다.Meanwhile, the processor can perform recognition services for active steering, lane keeping, emergency braking, automatic lane change, or traffic jam pilot based on sensor data.

한편, 프로세서는, 차량 주행 상태 또는 날씨 정보, 및 센서 데이터에 기초하여 로컬라이제이션을 실행하고, 로컬라이제이션에 기초하여, 인식 서비스를 실행하고, 인식 서비스에 기초하여 플래닝을 실행하고, 플래닝에 기초하여, 차량 제어 신호를 출력할 수 있다.Meanwhile, the processor can execute localization based on vehicle driving status or weather information and sensor data, execute a recognition service based on the localization, execute planning based on the recognition service, and output a vehicle control signal based on the planning.

한편, 인식 서비스는, 애플리케이션 실행을 위한 복수의 마이크로 서비스 중 어느 하나일 수 있다. Meanwhile, the recognition service can be any one of multiple microservices for running the application.

한편, 인식 서비스는, 오브젝트 검출 또는 오브젝트 트래킹 또는 레인 검출 또는 레인 유지의 실행을 위한 마이크로 서비스에 대응할 수 있다.Meanwhile, the recognition service can correspond to a microservice for executing object detection or object tracking or lane detection or lane maintenance.

한편, 프로세서는, 인식 서비스에 기초하여, 노말 모드에서 디그라데이션 모드로 전환하거나, 디그라데이션 모드 수행 중에 전환 요청에 따라 긴급 모드 또는 수동 운전 모드가 수행되도록 제어할 수 있다.Meanwhile, the processor can control switching from normal mode to degradation mode based on the recognition service, or performing emergency mode or manual driving mode according to a switching request while performing degradation mode.

한편, 프로세서는, 인식 서비스에 기초하여, 디그라데이션 모드를 수행하는 중에 전환 요청에 기초하여 긴급 모드를 수행한 이후, 차량이 정지하도록 제어할 수 있다.Meanwhile, the processor can control the vehicle to stop after performing the emergency mode based on a transition request while performing the degradation mode based on the recognition service.

한편, 프로세서는, 인식 서비스에 기초하여, 오브젝트 검출 또는 오브젝트 트래킹을 수행할 수 있다.Meanwhile, the processor can perform object detection or object tracking based on the recognition service.

한편, 프로세서는, 인식 서비스에 기초하여, 페일 세이프 모드 또는 디그라데이션 모드 또는 페일 오퍼레이션 모드를 수행하도록 제어할 수 있다.Meanwhile, the processor can be controlled to perform a fail-safe mode, a degradation mode, or a fail-operation mode based on the recognition service.

한편, 프로세서는, 자율 주행 모드 수행 중에 모니터링 신호가 수신되지 않는 경우, 페일 세이프 모드를 수행하며, 페일 세이프 모드가 실패하는 경우, 디그라데이션 모드를 수행하고, 디그라데이션 모드 이후, 대체 동작을 수행하거나, 차량을 정지하도록 제어할 수 있다.Meanwhile, the processor may perform a fail-safe mode if a monitoring signal is not received while performing autonomous driving mode, perform a degradation mode if the fail-safe mode fails, and perform an alternative operation or control the vehicle to stop after the degradation mode.

한편, 프로세서는, 페일 세이프 모드에서 컴포넌트를 리셋할 수 있다.Meanwhile, the processor can reset the component in fail-safe mode.

한편, 프로세서는, 디그라데이션 모드에서 차량 속도를 저감하거나 스티어링 조정을 수행하도록 제어할 수 있다.Meanwhile, the processor can control the vehicle to reduce speed or perform steering adjustments in degradation mode.

본 개시의 일 실시예에 따른 신호 처리 장치 및 이를 구비하는 차량용 디스플레이 장치는, 하이퍼바이저를 실행하는 프로세서를 포함하고, 프로세서는, 하이퍼바이저 상에, 센서 데이터에 기초하여 인식을 수행하는 인식 서비스와, 인식 서비스를 모니터링하는 안전 모니터 서비스를 실행하고, 인식 서비스 실행시에, 리던던트 인식 서비스를 이용하여, 복구 모드를 수행한다. 이에 따라, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. 나아가, 센서 데이터 기반의 인식 서비스의 활용성을 향상시킬 수 있게 된다. A signal processing device and a vehicle display device including the same according to one embodiment of the present disclosure include a processor executing a hypervisor, wherein the processor executes, on the hypervisor, a recognition service that performs recognition based on sensor data and a safety monitor service that monitors the recognition service, and, when the recognition service is executed, performs a recovery mode using a redundant recognition service. Accordingly, the stability of the sensor data-based recognition service can be improved. Furthermore, the usability of the sensor data-based recognition service can be improved.

한편, 안전 모니터 서비스는, 인식 서비스 동작 중에, 리던던트 인식 서비스가 동작하도록 제어하며, 인식 서비스 장애 발생시, 인식 서비스로 복구 명령을 전송하고, 리던던트 인식 서비스로 활동 명령을 전송할 수 있다. 이에 따라, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. Meanwhile, the safety monitor service controls the operation of a redundant recognition service during recognition service operation. In the event of a recognition service failure, it can send recovery commands to the recognition service and action commands to the redundant recognition service. This improves the stability of sensor data-based recognition services.

한편, 안전 모니터 서비스는, 인식 서비스 동작 중에, 리던던트 인식 서비스의 동작이 일시 정지하도록 제어하며, 인식 서비스 장애 발생시, 인식 서비스로 복구 명령을 전송하고, 리던던트 인식 서비스로 시작 명령을 전송할 수 있다. 이에 따라, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. Meanwhile, the safety monitor service can control the suspension of the redundant recognition service during recognition service operation. In the event of a recognition service failure, it can send a recovery command to the recognition service and a start command to the redundant recognition service. This improves the stability of sensor data-based recognition services.

한편, 안전 모니터 서비스는, 인식 서비스 또는 리던던트 인식 서비스로부터의 모니터링 데이터 또는 분석 데이터에 기초하여, 인식 서비스 또는 리던던트 인식 서비스 사이의 동작 전환을 제어할 수 있다. 이에 따라, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. Meanwhile, the safety monitoring service can control the transition between the recognition service or the redundant recognition service based on monitoring or analysis data from the recognition service or the redundant recognition service. This improves the stability of the sensor data-based recognition service.

한편, 안전 모니터 서비스는, 인식 서비스 또는 리던던트 인식 서비스로부터의 모니터링 데이터 또는 분석 데이터에 기초하여, 인식 서비스 또는 리던던트 인식 서비스 사이의 동작 전환 기준을 가변할 수 있다. 이에 따라, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. Meanwhile, the safety monitoring service can vary the operational transition criteria between the recognition service or redundant recognition service based on monitoring or analysis data from the recognition service or redundant recognition service. This can improve the stability of sensor data-based recognition services.

한편, 안전 모니터 서비스는, 인식 서비스 또는 리던던트 인식 서비스 내의 모니터링 모듈 또는 관리 모듈을 업데이트하도록 제어할 수 있다. 이에 따라, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. Meanwhile, the safety monitoring service can control updates to the monitoring or management modules within the recognition service or redundant recognition service. This improves the stability of sensor data-based recognition services.

한편, 프로세서는, 컨피던스 레벨에 기초하여, 차량 제어를 위한 플래닝 또는 컨트롤을 위한 모드를 가변할 수 있다. 이에 따라, 컨피던스 레벨에 기초하여, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. Meanwhile, the processor can vary the planning or control mode for vehicle control based on the confidence level. Accordingly, the reliability of sensor data-based recognition services can be improved based on the confidence level.

한편, 프로세서는, 컨피던스 레벨에 기초하여, 노말 모드 또는 디그라데이션 모드 또는 긴급 모드 또는 수동 주행 모드가 수행되도록 제어할 수 있다. 이에 따라, 컨피던스 레벨에 기초하여, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. Meanwhile, the processor can control the execution of normal mode, degradation mode, emergency mode, or manual driving mode based on the confidence level. Accordingly, the stability of sensor data-based recognition services can be improved based on the confidence level.

한편, 프로세서는, 센서 데이터에 기초하여 자율 주행 또는 차량 보조 운전 또는 운전자 모니터링을 위한 인식 서비스를 수행할 수 있다. 이에 따라, 인식 서비스의 활용성을 향상시킬 수 있게 된다. Meanwhile, the processor can perform recognition services for autonomous driving, vehicle assisted driving, or driver monitoring based on sensor data. This improves the usability of recognition services.

한편, 프로세서는, 센서 데이터에 기초하여, 액티브 스티어링, 레인 유지, 긴급 브레이킹, 자동 레인 변환 또는 트래픽 잼 파일럿을 위한 인식 서비스를 수행할 수 있다. 이에 따라, 인식 서비스의 활용성을 향상시킬 수 있게 된다. Meanwhile, the processor can perform recognition services for active steering, lane keeping, emergency braking, automatic lane change, or traffic jam pilot based on sensor data. This improves the usability of recognition services.

한편, 프로세서는, 차량 주행 상태 또는 날씨 정보, 및 센서 데이터에 기초하여 로컬라이제이션을 실행하고, 로컬라이제이션에 기초하여, 인식 서비스를 실행하고, 인식 서비스에 기초하여 플래닝을 실행하고, 플래닝에 기초하여, 차량 제어 신호를 출력할 수 있다. 이에 따라, 다양한 상황에 대응하여 인식 서비스의 활용성을 향상시킬 수 있게 된다. Meanwhile, the processor can perform localization based on vehicle driving conditions, weather information, and sensor data, execute a recognition service based on the localization, perform planning based on the recognition service, and output a vehicle control signal based on the planning. Accordingly, the usability of the recognition service can be improved in response to various situations.

한편, 인식 서비스는, 애플리케이션 실행을 위한 복수의 마이크로 서비스 중 어느 하나일 수 있다. 이에 따라, 인식 서비스를 효율적으로 수행할 수 있게 된다. Meanwhile, the recognition service can be any one of multiple microservices for application execution. This allows for efficient performance of the recognition service.

한편, 인식 서비스는, 오브젝트 검출 또는 오브젝트 트래킹 또는 레인 검출 또는 레인 유지의 실행을 위한 마이크로 서비스에 대응할 수 있다. 이에 따라, 인식 서비스를 효율적으로 수행할 수 있게 된다. Meanwhile, the recognition service can respond to microservices for object detection, object tracking, lane detection, or lane maintenance. This allows for efficient performance of the recognition service.

한편, 프로세서는, 인식 서비스에 기초하여, 노말 모드에서 디그라데이션 모드로 전환하거나, 디그라데이션 모드 수행 중에 전환 요청에 따라 긴급 모드 또는 수동 운전 모드가 수행되도록 제어할 수 있다. 이에 따라, 인식 서비스의 활용성을 향상시킬 수 있게 된다. Meanwhile, the processor can control switching from normal mode to degradation mode based on the recognition service, or switching to emergency mode or manual driving mode upon a switching request while performing degradation mode. This can improve the usability of the recognition service.

한편, 프로세서는, 인식 서비스에 기초하여, 디그라데이션 모드를 수행하는 중에 전환 요청에 기초하여 긴급 모드를 수행한 이후, 차량이 정지하도록 제어할 수 있다. 이에 따라, 인식 서비스의 활용성을 향상시킬 수 있게 된다. Meanwhile, the processor can control the vehicle to stop after executing the emergency mode based on a transition request while performing degradation mode based on the recognition service. This improves the usability of the recognition service.

한편, 프로세서는, 인식 서비스에 기초하여, 오브젝트 검출 또는 오브젝트 트래킹을 수행할 수 있다. 이에 따라, 인식 서비스의 활용성을 향상시킬 수 있게 된다. Meanwhile, the processor can perform object detection or object tracking based on the recognition service. This improves the usability of the recognition service.

한편, 프로세서는, 인식 서비스에 기초하여, 페일 세이프 모드 또는 디그라데이션 모드 또는 페일 오퍼레이션 모드를 수행하도록 제어할 수 있다. 이에 따라, 인식 서비스의 활용성을 향상시킬 수 있게 된다. Meanwhile, the processor can be controlled to perform fail-safe mode, degradation mode, or fail-operation mode based on the recognition service. This can improve the usability of the recognition service.

한편, 프로세서는, 자율 주행 모드 수행 중에 모니터링 신호가 수신되지 않는 경우, 페일 세이프 모드를 수행하며, 페일 세이프 모드가 실패하는 경우, 디그라데이션 모드를 수행하고, 디그라데이션 모드 이후, 대체 동작을 수행하거나, 차량을 정지하도록 제어할 수 있다. 이에 따라, 인식 서비스의 활용성을 향상시킬 수 있게 된다. Meanwhile, if a monitoring signal is not received while the autonomous driving mode is in effect, the processor can execute fail-safe mode. If fail-safe mode fails, the processor can execute degradation mode. After degradation mode, the processor can perform alternative operations or control the vehicle to stop. This can improve the usability of the recognition service.

한편, 프로세서는, 페일 세이프 모드에서 컴포넌트를 리셋할 수 있다. 이에 따라, 인식 서비스의 활용성을 향상시킬 수 있게 된다. Meanwhile, the processor can reset components in fail-safe mode, thereby improving the usability of the recognition service.

한편, 프로세서는, 디그라데이션 모드에서 차량 속도를 저감하거나 스티어링 조정을 수행하도록 제어할 수 있다. 이에 따라, 인식 서비스의 활용성을 향상시킬 수 있게 된다. Meanwhile, the processor can control vehicle speed reduction or steering adjustment in degradation mode, thereby improving the usability of recognition services.

도 1은 차량 외부 및 차량 내부의 일예를 도시한 도면이다.Figure 1 is a drawing showing an example of the exterior and interior of a vehicle.

도 2는 차량용 통신 게이트웨이의 다양한 아키텍쳐를 도시한 도면이다.Figure 2 is a diagram illustrating various architectures of a vehicle communication gateway.

도 3a는 차량 내부의 차량용 디스플레이 장치의 배치의 일예를 도시한 도면이다.Figure 3a is a drawing showing an example of the arrangement of a vehicle display device inside a vehicle.

도 3b는 차량 내부의 차량용 디스플레이 장치의 배치의 다른 예를 도시한 도면이다.Figure 3b is a drawing showing another example of the arrangement of a vehicle display device inside a vehicle.

도 4는 도 3b의 차량용 디스플레이 장치의 내부 블록도의 일예이다.Fig. 4 is an example of an internal block diagram of the vehicle display device of Fig. 3b.

도 5a 내지 도 5d는 차량용 디스플레이 장치의 다양한 예를 도시하는 도면이다.FIGS. 5A to 5D are drawings showing various examples of vehicle display devices.

도 6은 본 개시의 실시예에 따른 차량용 디스플레이 장치의 블록도의 일 예이다.FIG. 6 is an example of a block diagram of a vehicle display device according to an embodiment of the present disclosure.

도 7a 내지 도 7b는 본 개시와 관련한 신호 처리 장치의 설명에 참조되는 도면이다.FIGS. 7A and 7B are drawings for reference in the description of a signal processing device related to the present disclosure.

도 8a 내지 도 8e는 본 개시의 실시예에 따른 마이크로 서비스의 실행의 다양한 예를 도시하는 도면이다.FIGS. 8A to 8E are diagrams illustrating various examples of execution of microservices according to embodiments of the present disclosure.

도 9는 본 개시의 실시예에 따른 신호 처리 장치의 내부 블록도의 일예이다.FIG. 9 is an example of an internal block diagram of a signal processing device according to an embodiment of the present disclosure.

도 10은 본 개시의 다른 실시예에 따른 신호 처리 장치의 내부 블록도의 일예이다.FIG. 10 is an example of an internal block diagram of a signal processing device according to another embodiment of the present disclosure.

도 11은 본 개시의 실시예에 따른 신호 처리 장치의 동작을 예시하는 도면이다.FIG. 11 is a diagram illustrating the operation of a signal processing device according to an embodiment of the present disclosure.

도 12a 내지 도 19b는 도 11의 동작 설명에 참조되는 도면이다.Figures 12a to 19b are drawings referenced in the operation description of Figure 11.

도 20은 본 개시의 실시예에 따른 신호 처리 장치의 동작방법을 나타내는 순서도의 일예이다.FIG. 20 is an example of a flowchart showing an operation method of a signal processing device according to an embodiment of the present disclosure.

도 21은 도 20의 설명에 참조되는 도면이다.Figure 21 is a drawing referenced in the description of Figure 20.

이하에서는 도면을 참조하여 본 개시를 보다 상세하게 설명한다. Hereinafter, the present disclosure will be described in more detail with reference to the drawings.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffixes "module" and "part" used in the following description are given solely for the convenience of writing this specification and do not impart any particularly significant meaning or role to the components themselves. Therefore, the terms "module" and "part" may be used interchangeably.

도 1은 차량 외부 및 차량 내부의 일예를 도시한 도면이다.Figure 1 is a drawing showing an example of the exterior and interior of a vehicle.

도면을 참조하면, 차량(200)은, 동력원에 의해 회전하는 복수의 바퀴(103FR,103FL,103RL,..), 차량(200)의 진행 방향을 조절하기 위한 스티어링휠(150)에 의해 동작한다. Referring to the drawing, the vehicle (200) is operated by a plurality of wheels (103FR, 103FL, 103RL, etc.) that rotate by a power source and a steering wheel (150) for controlling the direction of travel of the vehicle (200).

한편, 차량(200)은, 차량 전방의 영상 획득을 위한 카메라(195) 등을 더 구비할 수 있다.Meanwhile, the vehicle (200) may further be equipped with a camera (195) for capturing images of the front of the vehicle.

한편, 차량(200)은, 내부에 영상, 정보 등의 표시를 위한 복수의 디스플레이(180a,180b)를 구비할 수 있다.Meanwhile, the vehicle (200) may be equipped with multiple displays (180a, 180b) for displaying images, information, etc. inside.

도 1에서는, 복수의 디스플레이(180a,180b)로, 클러스터 디스플레이(180a), AVN(Audio Video Navigation) 디스플레이(180b)를 예시한다. 그 외, HUD(Head Up Display) 등도 가능하다.In Fig. 1, a cluster display (180a) and an AVN (Audio Video Navigation) display (180b) are exemplified as multiple displays (180a, 180b). In addition, a HUD (Head Up Display) is also possible.

한편, AVN(Audio Video Navigation) 디스플레이(180b)는, 센터 정보 디스플레이(Center Information Dislpay)라 명명할 수도 있다.Meanwhile, the AVN (Audio Video Navigation) display (180b) may also be named a center information display.

한편, 본 명세서에서 기술되는 차량(200)은, 동력원으로서 엔진을 구비하는 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다. Meanwhile, the vehicle (200) described in this specification may be a concept that includes all of a vehicle equipped with an engine as a power source, a hybrid vehicle equipped with an engine and an electric motor as a power source, and an electric vehicle equipped with an electric motor as a power source.

도 2는 차량용 통신 게이트웨이의 다양한 아키텍쳐를 도시한 도면이다.Figure 2 is a diagram illustrating various architectures of a vehicle communication gateway.

먼저, 도 2는 차량용 통신 게이트웨이의 제1 아키텍쳐를 도시한 도면이다.First, Fig. 2 is a drawing illustrating the first architecture of a vehicle communication gateway.

도면을 참조하면, 제1 아키텍쳐(300a)는, 존(zone) 기반의 아키텍쳐에 대응할 수 있다. Referring to the drawing, the first architecture (300a) can correspond to a zone-based architecture.

이에 따라, 복수의 존(zone)(Z1~Z4)에, 각각 차량 내부의 센서 장치와 프로세서가 배치될 수 있으며, 복수의 존(zone)(Z1~Z4)의 중앙 영역에, 차량용 통신 게이트웨이(GWDa)를 포함하는 신호 처리 장치(170a)가 배치될 수 있다.Accordingly, sensor devices and processors inside the vehicle may be placed in each of the plurality of zones (Z1 to Z4), and a signal processing device (170a) including a vehicle communication gateway (GWDa) may be placed in the central area of the plurality of zones (Z1 to Z4).

한편, 신호 처리 장치(170a)는, 차량용 통신 게이트웨이(GWDa) 외에, 추가로, 자율 주행 제어 모듈(ACC), 칵핏 제어 모듈(CPG) 등을 더 포함할 수 있다.Meanwhile, the signal processing device (170a) may further include, in addition to the vehicle communication gateway (GWDa), an autonomous driving control module (ACC), a cockpit control module (CPG), etc.

이러한, 신호 처리 장치(170a) 내의 차량용 통신 게이트웨이(GWDa)는, HPC(High Performance Computing) 게이트웨이일 수 있다.The vehicle communication gateway (GWDa) within the signal processing device (170a) may be an HPC (High Performance Computing) gateway.

즉, 도 2의 신호 처리 장치(170a)는 통합형 HPC로서, 외부의 통신 모듈(미도시) 또는 복수의 존(zone)(Z1~Z4) 내의 프로세서(미도시)와 데이터를 교환할 수 있다.That is, the signal processing device (170a) of FIG. 2 is an integrated HPC and can exchange data with an external communication module (not shown) or a processor (not shown) within a plurality of zones (Z1 to Z4).

도 3a는 차량 내부의 차량용 디스플레이 장치의 배치의 일예를 도시한 도면이다.Figure 3a is a drawing showing an example of the arrangement of a vehicle display device inside a vehicle.

도면을 참조하면, 차량 내부에는, 클러스터 디스플레이(180a), AVN(Audio Video Navigation) 디스플레이(180b), 뒷 좌석 엔터테인먼트(Rear Seat Entertainment) 디스플레이(180c,180d), 룸미러 디스플레이(미도시) 등이 장착될 수 있다.Referring to the drawing, the interior of the vehicle may be equipped with a cluster display (180a), an AVN (Audio Video Navigation) display (180b), a rear seat entertainment display (180c, 180d), a room mirror display (not shown), etc.

도 3b는 차량 내부의 차량용 디스플레이 장치의 배치의 다른 예를 도시한 도면이다.Figure 3b is a drawing showing another example of the arrangement of a vehicle display device inside a vehicle.

본 개시의 실시예에 따른 차량용 디스플레이 장치(100)는, 복수의 디스플레이(180a~180b), 및 복수의 디스플레이(180a~180b)에 영상, 정보 등을 표시하기 위한 신호 처리를 수행하고, 적어도 하나의 디스플레이(180a~180b)에 영상 신호를 출력하는 신호 처리 장치(170)를 구비할 수 있다.A vehicle display device (100) according to an embodiment of the present disclosure may include a plurality of displays (180a to 180b), and a signal processing device (170) that performs signal processing for displaying images, information, etc. on the plurality of displays (180a to 180b) and outputs an image signal to at least one display (180a to 180b).

복수의 디스플레이(180a~180b) 중 제1 디스플레이(180a)는, 주행 상태, 동작 정보 등의 표시를 위한 클러스터 디스플레이(180a)이고, 제2 디스플레이(180b)는, 챠량 운행 정보, 네비게이션 지도, 다양한 엔터테인먼트 정보 또는 영상의 표시를 위한 AVN(Audio Video Navigation) 디스플레이(180b)일 수 있다. Among the plurality of displays (180a to 180b), the first display (180a) may be a cluster display (180a) for displaying driving status, operation information, etc., and the second display (180b) may be an AVN (Audio Video Navigation) display (180b) for displaying vehicle driving information, a navigation map, various entertainment information, or images.

신호 처리 장치(170)는, 내부에 프로세서(175)를 구비하며, 프로세서(175) 내의 하이퍼바이저(미도시) 상에서, 제1 가상화 머신 내지 제3 가상화 머신(미도시)을 실행할 수 있다.The signal processing device (170) has a processor (175) therein and can execute a first virtual machine to a third virtual machine (not shown) on a hypervisor (not shown) within the processor (175).

제2 가상화 머신(미도시)은 제1 디스플레이(180a)를 위해 동작하며, 제3 가상화 머신(미도시)은, 제2 디스플레이(180b)를 위해 동작할 수 있다.A second virtual machine (not shown) can operate for the first display (180a), and a third virtual machine (not shown) can operate for the second display (180b).

한편, 프로세서(175) 내의 제1 가상화 머신(미도시)은, 제2 가상화 머신(미도시) 및 제3 가상화 머신(미도시)으로, 동일한 데이터 전송을 위해, 하이퍼바이저(505) 기반의 공유 메모리(508)가 설정되도록 제어할 수 있다. 이에 따라, 차량 내의 제1 디스플레이(180a)와 제2 디스플레이(180b)에 동일한 정보 또는 동일한 영상을 동기화하여 표시할 수 있게 된다.Meanwhile, the first virtual machine (not shown) within the processor (175) can control the shared memory (508) based on the hypervisor (505) to be set for the same data transmission to the second virtual machine (not shown) and the third virtual machine (not shown). Accordingly, the same information or the same image can be displayed in synchronization on the first display (180a) and the second display (180b) within the vehicle.

한편, 프로세서(175) 내의 제1 가상화 머신(미도시)은, 데이터 분담 처리를 위해, 제2 가상화 머신(미도시)과 제3 가상화 머신(미도시)에 데이터의 적어도 일부를 공유한다. 이에 따라, 차량 내의 복수의 디스플레이를 위한 복수의 가상화 머신에서 데이터를 분담하여 처리할 수 있게 된다. Meanwhile, the first virtual machine (not shown) within the processor (175) shares at least a portion of data with the second virtual machine (not shown) and the third virtual machine (not shown) for data sharing processing. Accordingly, data can be shared and processed among multiple virtual machines for multiple displays within the vehicle.

한편, 프로세서(175) 내의 제1 가상화 머신(미도시)은, 차량의 휠 속도 센서 데이터를 수신하고, 처리하여, 제2 가상화 머신(미도시) 또는 제3 가상화 머신(미도시) 중 적어도 하나로, 처리된 휠 속도 센서 데이터를 전송할 수 있다. 이에 따라, 차량의 휠 속도 센서 데이터를, 적어도 하나의 가상화 머신 등에 공유할 수 있게 된다.Meanwhile, a first virtual machine (not shown) within a processor (175) may receive and process vehicle wheel speed sensor data, and transmit the processed wheel speed sensor data to at least one of a second virtual machine (not shown) or a third virtual machine (not shown). Accordingly, the vehicle wheel speed sensor data may be shared with at least one virtual machine.

한편, 본 개시의 실시예에 따른 차량용 디스플레이 장치(100)는, 주행 상태 정보, 간이 네비게이션 정보, 다양한 엔터테인먼트 정보 또는 영상의 표시를 위한 뒷 좌석 엔터테인먼트(Rear Seat Entertainment) 디스플레이(180c)를 더 구비할 수 있다. Meanwhile, the vehicle display device (100) according to the embodiment of the present disclosure may further include a rear seat entertainment display (180c) for displaying driving status information, simple navigation information, various entertainment information, or images.

신호 처리 장치(170)는, 프로세서(175) 내의 하이퍼바이저(미도시) 상에서, 제1 가상화 머신 내지 제3 가상화 머신(미도시) 외에 추가로 제4 가상화 머신(미도시)를 실행하여, RSE 디스플레이(180c)를 제어할 수 있다. The signal processing device (170) can control the RSE display (180c) by executing a fourth virtual machine (not shown) in addition to the first virtual machine to the third virtual machine (not shown) on a hypervisor (not shown) within the processor (175).

이에 따라, 하나의 신호 처리 장치(170)를 이용하여, 다양한 디스플레이(180a~180c)를 제어할 수 있게 된다.Accordingly, it is possible to control various displays (180a to 180c) using one signal processing device (170).

한편, 복수의 디스플레이(180a~180c) 중 일부는, 리눅스 OS 기반 하에 동작하며, 다른 일부는 웹 OS 기반 하에 동작할 수 있다. Meanwhile, some of the multiple displays (180a~180c) may operate under Linux OS, while others may operate under Web OS.

본 개시의 실시예에 따른 신호 처리 장치(170)는, 다양한 운영 체제(Operating system;OS) 하에 동작하는 디스플레이(180a~180c)에서도, 동일한 정보 또는 동일한 영상을 동기화하여 표시하도록 제어할 수 있다. The signal processing device (170) according to the embodiment of the present disclosure can control the same information or the same image to be displayed in synchronization on displays (180a to 180c) operating under various operating systems (OS).

한편, 도 3b에서는, 제1 디스플레이(180a)에, 차량 속도 인디케이터(212a), 차량 내부 온도 인디케이터(213a)가 표시되고, 제2 디스플레이(180b)에, 복수의 애플리케이션과 차량 속도 인디케이터(212b)와 차량 내부 온도 인디케이터(213b)를 포함하는 홈 화면(222)이 표시되고, 제3 디스플레이(180c)에, 복수의 애플리케이션과 차량 내부 온도 인디케이터(213c)를 포함하는 제2 홈 화면(222b)이 표시되는 것을 예시한다.Meanwhile, in FIG. 3b, a vehicle speed indicator (212a) and a vehicle interior temperature indicator (213a) are displayed on a first display (180a), a home screen (222) including a plurality of applications and a vehicle speed indicator (212b) and a vehicle interior temperature indicator (213b) are displayed on a second display (180b), and a second home screen (222b) including a plurality of applications and a vehicle interior temperature indicator (213c) are displayed on a third display (180c).

도 4는 도 3b의 차량용 디스플레이 장치의 내부 블록도의 일예이다.Fig. 4 is an example of an internal block diagram of the vehicle display device of Fig. 3b.

도면을 참조하면, 본 개시의 실시예에 따른 차량용 디스플레이 장치(100)는, 입력부(110), 외부 장치와의 통신을 위한 통신부(120), 내부 통신을 위한 복수의 통신 모듈(EMa~EMd), 메모리(140), 신호 처리 장치(170), 복수의 디스플레이(180a~180c), 오디오 출력부(185), 전원 공급부(190)를 구비할 수 있다.Referring to the drawings, a vehicle display device (100) according to an embodiment of the present disclosure may include an input unit (110), a communication unit (120) for communication with an external device, a plurality of communication modules (EMa to EMd) for internal communication, a memory (140), a signal processing unit (170), a plurality of displays (180a to 180c), an audio output unit (185), and a power supply unit (190).

복수의 통신 모듈(EMa~EMd)은, 예를 들어, 도 2의 복수의 존(zone)(Z1~Z4)에 각각 배치될 수 있다.A plurality of communication modules (EMa to EMd) can be arranged, for example, in a plurality of zones (Z1 to Z4) of FIG. 2, respectively.

한편, 신호 처리 장치(170)는, 내부에, 각 통신 모듈(EM1~EM4)과의 데이터 통신을 위한 통신 스위치(736b)를 구비할 수 있다.Meanwhile, the signal processing device (170) may have a communication switch (736b) for data communication with each communication module (EM1 to EM4) inside.

각 통신 모듈(EM1~EM4)은, 복수의 센서 장치(SN) 또는 ECU(770) 또는 영역 신호 처리 장치(170Z)와 데이터 통신을 수행할 수 있다.Each communication module (EM1 to EM4) can perform data communication with multiple sensor devices (SN) or ECUs (770) or area signal processing devices (170Z).

한편, 복수의 센서 장치(SN)는, 카메라(195), 라이다(196), 레이더(197) 또는 위치 센서(198)를 포함할 수 있다.Meanwhile, the plurality of sensor devices (SN) may include a camera (195), a lidar (196), a radar (197), or a position sensor (198).

입력부(110)는, 버튼 입력, 터치 입력 등을 위한 물리적인 버튼, 패드 등을 구비할 수 있다.The input unit (110) may be equipped with physical buttons, pads, etc. for button input, touch input, etc.

한편, 입력부(110)는, 사용자 음성 입력을 위한 마이크(미도시)를 구비할 수 있다.Meanwhile, the input unit (110) may be equipped with a microphone (not shown) for user voice input.

통신부(120)는, 이동 단말기(800) 또는 서버(900)와 무선(wireless) 방식으로, 데이터를 교환할 수 있다. The communication unit (120) can exchange data wirelessly with a mobile terminal (800) or a server (900).

특히, 통신부(120)는, 차량 운전자의 이동 단말기와, 무선으로 데이터를 교환할 수 있다. 무선 데이터 통신 방식으로는, 블루투스(Bluetooth), WiFi, WiFi Direct, APiX 등 다양한 데이터 통신 방식이 가능하다.In particular, the communication unit (120) can wirelessly exchange data with the vehicle driver's mobile terminal. Various data communication methods are possible, such as Bluetooth, WiFi, WiFi Direct, and APiX.

통신부(120)는, 이동 단말기(800) 또는 서버(900)로부터, 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다. 이를 위해, 통신부(120)는, 이동 통신 모듈(미도시)를 구비할 수 있다.The communication unit (120) can receive weather information, road traffic information, for example, TPEG (Transport Protocol Expert Group) information, from a mobile terminal (800) or a server (900). To this end, the communication unit (120) may be equipped with a mobile communication module (not shown).

복수의 통신 모듈(EM1~EM4)은, ECU(770) 또는 센서 장치(SN) 또는 영역 신호 처리 장치(170Z)로부터, 센서 데이터 등을 수신하고, 수신한 센서 데이터를 신호 처리 장치(170)로 전송할 수 있다.A plurality of communication modules (EM1 to EM4) can receive sensor data, etc. from an ECU (770), a sensor device (SN), or an area signal processing device (170Z), and transmit the received sensor data to the signal processing device (170).

여기서, 센서 데이터는, 차량 방향 데이터, 차량 위치 데이터(GPS 데이터), 차량 각도 데이터, 차량 속도 데이터, 차량 가속도 데이터, 차량 기울기 데이터, 차량 전진/후진 데이터, 배터리 데이터, 연료 데이터, 타이어 데이터, 차량 램프 데이터, 차량 내부 온도 데이터, 차량 내부 습도 데이터 중 적어도 하나를 포함할 수 있다.Here, the sensor data may include at least one of vehicle direction data, vehicle location data (GPS data), vehicle angle data, vehicle speed data, vehicle acceleration data, vehicle inclination data, vehicle forward/backward data, battery data, fuel data, tire data, vehicle lamp data, vehicle interior temperature data, and vehicle interior humidity data.

이러한 센서 데이터는, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 휠 센서(wheel sensor), 차량 속도 센서, 차체 경사 감지센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서 등으로부터 획득될 수 있다. Such sensor data can be obtained from a heading sensor, a yaw sensor, a gyro sensor, a position module, a vehicle forward/backward sensor, a wheel sensor, a vehicle speed sensor, a body tilt detection sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor by steering wheel rotation, a vehicle interior temperature sensor, a vehicle interior humidity sensor, etc.

한편, 포지션 모듈은, GPS 정보 수신을 위한 GPS 모듈 또는 위치 센서(198)을 포함할 수 있다.Meanwhile, the position module may include a GPS module or a position sensor (198) for receiving GPS information.

한편, 복수의 통신 모듈(EM1~EM4) 중 적어도 하나는, GPS 모듈 또는 위치 센서(198)에서 센싱된 위치 정보 데이터를 신호 처리 장치(170)로 전송할 수 있다.Meanwhile, at least one of the plurality of communication modules (EM1 to EM4) can transmit location information data sensed by a GPS module or location sensor (198) to a signal processing device (170).

한편, 복수의 통신 모듈(EM1~EM4) 중 적어도 하나는, 카메라(195) 또는 라이다(196) 또는 레이더(197) 등으로부터 차량 전방 영상 데이터, 차량 측방 영상 데이터, 차량 후방 영상 데이터, 차량 주변 장애물 거리 정보 등을 수신하고, 수신한 정보를 신호 처리 장치(170)로 전송할 수 있다.Meanwhile, at least one of the plurality of communication modules (EM1 to EM4) can receive vehicle front image data, vehicle side image data, vehicle rear image data, vehicle surrounding obstacle distance information, etc. from a camera (195), lidar (196), radar (197), etc., and transmit the received information to a signal processing device (170).

메모리(140)는, 신호 처리 장치(170)의 처리 또는 제어를 위한 프로그램 등, 차량용 디스플레이 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. The memory (140) can store various data for the overall operation of the vehicle display device (100), such as a program for processing or controlling the signal processing device (170).

예를 들어, 메모리(140)는, 프로세서(175) 내에서 실행하기 위한, 하이퍼바이저, 제1 가상화 머신 내지 제3 가상화 머신에 관한 데이터를 저장할 수 있다.For example, the memory (140) may store data regarding a hypervisor, a first virtual machine, a third virtual machine, or the like, for execution within the processor (175).

오디오 출력부(185)는, 신호 처리 장치(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 스피커 등을 구비할 수 있다. The audio output unit (185) converts an electric signal from the signal processing device (170) into an audio signal and outputs it. For this purpose, a speaker or the like may be provided.

전원 공급부(190)는, 신호 처리 장치(170)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다. The power supply unit (190) can supply power required for the operation of each component under the control of the signal processing device (170). In particular, the power supply unit (190) can receive power from a battery or the like inside the vehicle.

신호 처리 장치(170)는, 차량용 디스플레이 장치(100) 내의 각 유닛의 전반적인 동작을 제어한다. The signal processing device (170) controls the overall operation of each unit within the vehicle display device (100).

예를 들어, 신호 처리 장치(170)는, 차량용 디스플레이(180a,180b)를 위한 신호 처리를 수행하는 프로세서(175)를 포함할 수 있다.For example, the signal processing device (170) may include a processor (175) that performs signal processing for a vehicle display (180a, 180b).

프로세서(175)는, 프로세서(175) 내의 하이퍼바이저(미도시) 상에서, 제1 가상화 머신 내지 제3 가상화 머신(미도시)을 실행할 수 있다.The processor (175) can execute a first virtual machine to a third virtual machine (not shown) on a hypervisor (not shown) within the processor (175).

제1 가상화 머신 내지 제3 가상화 머신(미도시) 중 제1 가상화 머신(미도시)은, 서버 가상화 머신(Server Virtual Maschine)이라 명명할 수 있으며, 제2 가상화 머신 내지 제3 가상화 머신(미도시)은 게스트 가상화 머신(Guest Virtual Maschine)이라 명명할 수 있다.Among the first virtual machine to the third virtual machine (not shown), the first virtual machine (not shown) may be named a server virtual machine (Server Virtual Maschine), and the second virtual machine to the third virtual machine (not shown) may be named a guest virtual machine (Guest Virtual Maschine).

예를 들어, 프로세서(175) 내의 제1 가상화 머신(미도시)은, 복수의 센서 장치로부터의 센서 데이터, 예를 들어, 차량 센서 데이터, 위치 정보 데이터, 카메라 영상 데이터, 오디오 데이터 또는 터치 입력 데이터를 수신하고, 처리 또는 가공하여 출력할 수 있다. For example, a first virtual machine (not shown) within a processor (175) may receive, process, or output sensor data from a plurality of sensor devices, such as vehicle sensor data, location information data, camera image data, audio data, or touch input data.

이와 같이, 제1 가상화 머신(미도시)에서 대부분의 데이터 처리를 수행함으로써, 1:N 방식의 데이터의 공유가 가능하게 된다.In this way, by performing most of the data processing in the first virtual machine (not shown), data sharing in a 1:N manner becomes possible.

다른 예로, 제1 가상화 머신(미도시)은, 제2 가상화 머신 내지 제3 가상화 머신(미도시)을 위해, CAN 데이터, 이더넷 데이터, 오디오 데이터, 라디오 데이터, USB 데이터, 무선 통신 데이터를 직접 수신하고 처리할 수 있다. As another example, a first virtual machine (not shown) can directly receive and process CAN data, Ethernet data, audio data, radio data, USB data, and wireless communication data for a second virtual machine or a third virtual machine (not shown).

그리고, 제1 가상화 머신(미도시)은, 처리된 데이터를 제2 가상화 머신 내지 제3 가상화 머신(미도시)으로 전송할 수 있다. And, the first virtual machine (not shown) can transmit processed data to the second virtual machine or the third virtual machine (not shown).

이에 따라, 제1 가상화 머신 내지 제3 가상화 머신(미도시) 중 제1 가상화 머신(미도시)만, 복수의 센서 장치로부터의 센서 데이터, 통신 데이터, 또는 외부 입력 데이터를 수신하여, 신호 처리를 수행할 수행함으로써, 다른 가상화 머신에서의 신호 처리 부담이 경감되며, 1:N 데이터 통신이 가능하게 되어, 데이터 공유시의 동기화가 가능하게 된다.Accordingly, among the first virtual machine to the third virtual machine (not shown), only the first virtual machine (not shown) receives sensor data, communication data, or external input data from multiple sensor devices and performs signal processing, thereby reducing the signal processing burden on other virtual machines, enabling 1:N data communication, and enabling synchronization when sharing data.

한편, 제1 가상화 머신(미도시)은, 데이터를 공유 메모리(508)에 기록하여, 제2 가상화 머신(미도시) 및 제3 가상화 머신(미도시)으로 동일한 데이터를 공유하도록 제어할 수 있다.Meanwhile, the first virtual machine (not shown) can control the second virtual machine (not shown) and the third virtual machine (not shown) to share the same data by writing data to the shared memory (508).

예를 들어, 제1 가상화 머신(미도시)은, 차량 센서 데이터, 상기 위치 정보 데이터, 상기 카메라 영상 데이터, 또는 상기 터치 입력 데이터를 공유 메모리(508)에 기록하여, 제2 가상화 머신(미도시) 및 제3 가상화 머신(미도시)으로 동일한 데이터를 공유하도록 제어할 수 있다. 이에 따라, 1:N 방식의 데이터의 공유가 가능하게 된다.For example, a first virtual machine (not shown) can record vehicle sensor data, the location information data, the camera image data, or the touch input data in shared memory (508) and control the same data to be shared with a second virtual machine (not shown) and a third virtual machine (not shown). Accordingly, data sharing in a 1:N manner becomes possible.

결국, 제1 가상화 머신(미도시)에서 대부분의 데이터 처리를 수행함으로써, 1:N 방식의 데이터의 공유가 가능하게 된다.Ultimately, by performing most of the data processing on the first virtual machine (not shown), data sharing in a 1:N manner becomes possible.

한편, 프로세서(175) 내의 제1 가상화 머신(미도시)은, 제2 가상화 머신(미도시) 및 제3 가상화 머신(미도시)으로, 동일한 데이터 전송을 위해, 하이퍼바이저(505) 기반의 공유 메모리(508)가 설정되도록 제어할 수 있다.Meanwhile, the first virtual machine (not shown) within the processor (175) can control the shared memory (508) based on the hypervisor (505) to be set for the same data transmission to the second virtual machine (not shown) and the third virtual machine (not shown).

한편, 신호 처리 장치(170)는, 오디오 신호, 영상 신호, 데이터 신호 등 다양한 신호를 처리할 수 있다. 이를 위해, 신호 처리 장치(170)는, 시스템 온 칩(System On Chip,SOC)의 형태로 구현될 수 있다. Meanwhile, the signal processing device (170) can process various signals such as audio signals, video signals, and data signals. To this end, the signal processing device (170) can be implemented in the form of a system on chip (SOC).

한편, 도 4의 디스플레이 장치(100) 내의 신호 처리 장치(170)는, 도 5a 이하 등의 차량용 디스플레이 장치의 신호 처리 장치(170,170a1,170a2)와 동일할 수 있다.Meanwhile, the signal processing device (170) in the display device (100) of FIG. 4 may be the same as the signal processing device (170, 170a1, 170a2) of the vehicle display device of FIG. 5a or lower.

도 5a 내지 도 5d는 차량용 디스플레이 장치의 다양한 예를 도시하는 도면이다.FIGS. 5A to 5D are drawings showing various examples of vehicle display devices.

도 5a는 본 개시의 실시예에 따른 차량용 디스플레이 장치의 일예를 도시한다.FIG. 5A illustrates an example of a vehicle display device according to an embodiment of the present disclosure.

도면을 참조하면, 본 개시의 실시예에 따른 차량용 디스플레이 장치(800a)는, 신호 처리 장치(170a1,170a2), 복수의 영역 신호 처리 장치(170Z1~170Z4)를 포함한다.Referring to the drawings, a vehicle display device (800a) according to an embodiment of the present disclosure includes a signal processing device (170a1, 170a2) and a plurality of area signal processing devices (170Z1 to 170Z4).

한편, 도면에서는, 신호 처리 장치(170a1,170a2)로 2개를 예시하나, 이는 백업 등을 위해서 예시한 것이며, 1개도 가능하다.Meanwhile, in the drawing, two signal processing devices (170a1, 170a2) are exemplified, but this is for backup purposes, etc., and one is also possible.

한편, 신호 처리 장치(170a1,170a2)는, HPC(High Performance Computing) 신호 처리 장치로 명명될 수도 있다.Meanwhile, the signal processing device (170a1, 170a2) may also be named an HPC (High Performance Computing) signal processing device.

복수의 영역 신호 처리 장치(170Z1~170Z4)는, 각 영역(Z1~Z4)에 배치되어, 센서 데이터를, 신호 처리 장치(170a1,170a2)로 전송할 수 있다.Multiple area signal processing devices (170Z1 to 170Z4) are arranged in each area (Z1 to Z4) and can transmit sensor data to signal processing devices (170a1, 170a2).

신호 처리 장치(170a1,170a2)는, 복수의 영역 신호 처리 장치(170Z1~170Z4) 또는 통신 장치(120)로부터 유선으로 데이터를 수신한다.The signal processing device (170a1, 170a2) receives data via a wire from multiple area signal processing devices (170Z1 to 170Z4) or a communication device (120).

도면에서는, 신호 처리 장치(170a1,170a2)와 복수의 영역 신호 처리 장치(170Z1~170Z4) 사이에서 유선 통신에 기반하여 데이터를 교환하고, 신호 처리 장치(170a1,170a2)와 서버(400)는 무선 통신에 기반하여 데이터를 교환하는 것을 예시하나, 통신 장치(120)와 서버(400) 사이에서 무선 통신에 기반하여 데이터를 교환하고, 신호 처리 장치(170a1,170a2)와 통신 장치(120)는, 유선 통신에 기반하여 데이터를 교환할 수 있다.In the drawing, data is exchanged based on wired communication between a signal processing device (170a1, 170a2) and multiple area signal processing devices (170Z1 to 170Z4), and the signal processing device (170a1, 170a2) and the server (400) exchange data based on wireless communication. However, data may be exchanged based on wireless communication between a communication device (120) and a server (400), and the signal processing device (170a1, 170a2) and the communication device (120) may exchange data based on wired communication.

한편, 신호 처리 장치(170a1,170a2)에 수신되는 데이터는, 카메라 데이터 또는 센서 데이터를 포함할 수 있다.Meanwhile, data received by the signal processing device (170a1, 170a2) may include camera data or sensor data.

예를 들어, 차량 내의 센서 데이터는, 차량 휠 속도 데이터, 차량 방향 데이터, 차량 위치 데이터(GPS 데이터), 차량 각도 데이터, 차량 속도 데이터, 차량 가속도 데이터, 차량 기울기 데이터, 차량 전진/후진 데이터, 배터리 데이터, 연료 데이터, 타이어 데이터, 차량 램프 데이터, 차량 내부 온도 데이터, 차량 내부 습도 데이터, 차량 외부 레이더 데이터, 차량 외부 라이다 데이터 중 적어도 하나를 포함할 수 있다.For example, sensor data within a vehicle may include at least one of vehicle wheel speed data, vehicle direction data, vehicle location data (GPS data), vehicle angle data, vehicle speed data, vehicle acceleration data, vehicle inclination data, vehicle forward/backward data, battery data, fuel data, tire data, vehicle lamp data, vehicle interior temperature data, vehicle interior humidity data, vehicle exterior radar data, and vehicle exterior lidar data.

한편, 카메라 데이터는, 차량 외부 카메라 데이터, 차량 내부 카메라 데이터를 포함할 수 있다.Meanwhile, camera data may include vehicle exterior camera data and vehicle interior camera data.

한편, 신호 처리 장치(170a1,170a2)는, 세이프티(safety) 기준으로 복수의 가상화 머신(820,830,840)을 실행할 수 있다.Meanwhile, the signal processing device (170a1, 170a2) can execute multiple virtual machines (820, 830, 840) based on safety standards.

도면에서는, 신호 처리 장치(170a) 내의 프로세서(175)가, 하이퍼바이저(505)를 실행하고, 하이퍼바이저(505) 상에서, 자동차 안전 무결성 수준(Automotive SIL;ASIL)에 따라, 제1 내지 제3 가상화 머신(820~840)을 실행하는 것을 예시한다.In the drawing, it is illustrated that a processor (175) within a signal processing device (170a) executes a hypervisor (505) and, on the hypervisor (505), executes first to third virtual machines (820 to 840) according to an automotive safety integrity level (Automotive SIL; ASIL).

제1 가상화 머신(820)은, 자동차 안전 무결성 수준(ASIL)에서 가장 낮은 안전 레벨이며 강제성이 없는 등급인, QM(Quality Management)에 대응하는 가상화 머신일 수 있다.The first virtual machine (820) may be a virtual machine corresponding to Quality Management (QM), which is the lowest safety level in the Automotive Safety Integrity Level (ASIL) and is a non-enforceable grade.

제1 가상화 머신(820)은, 운영 체제(822), 운영 체제(822) 상의 컨테이너 런타임(824), 컨테이너 런타임(824) 상의 컨테이너(827,829)를 실행할 수 있다.The first virtual machine (820) can execute an operating system (822), a container runtime (824) on the operating system (822), and containers (827, 829) on the container runtime (824).

제2 가상화 머신(820)은, 자동차 안전 무결성 수준(ASIL)에서, 심각도 (Severity), 발생 빈도 (Exposure) 및 제어 가능성 (Contrallability)의 합이 7 또는 8인, ASIL A 또는 ASIL B에 대응하는 가상화 머신일 수 있다.The second virtual machine (820) may be a virtual machine corresponding to ASIL A or ASIL B, where the sum of severity, exposure, and controllability is 7 or 8 in the automotive safety integrity level (ASIL).

제2 가상화 머신(820)은, 운영 체제(832), 운영 체제(832) 상의 컨테이너 런타임(834), 컨테이너 런타임(834) 상의 컨테이너(837,839)를 실행할 수 있다.The second virtual machine (820) can execute an operating system (832), a container runtime (834) on the operating system (832), and containers (837, 839) on the container runtime (834).

제3 가상화 머신(840)은, 자동차 안전 무결성 수준(ASIL)에서, 심각도 (Severity), 발생 빈도 (Exposure) 및 제어 가능성 (Contrallability)의 합이 9 또는 10인, ASIL C 또는 ASIL D에 대응하는 가상화 머신일 수 있다.The third virtual machine (840) may be a virtual machine corresponding to ASIL C or ASIL D, in which the sum of severity, exposure, and controllability is 9 or 10 in the automotive safety integrity level (ASIL).

한편, ASIL D는, 가장 높은 안전 레벨을 요구하는 등급에 대응할 수 있다.Meanwhile, ASIL D can correspond to the grade that requires the highest safety level.

제3 가상화 머신(840)은, 세이프티 운영 체제(842), 운영 체제(842) 상의 어플리케이션(845)를 실행할 수 있다.The third virtual machine (840) can run a safety operating system (842) and an application (845) on the operating system (842).

한편, 제3 가상화 머신(840)은, 세이프티 운영 체제(842), 세이프티 운영 체제(842) 상의 컨테이너 런타임(844), 컨테이너 런타임(844) 상의 컨테이너(847)를 실행할 수도 있다.Meanwhile, the third virtual machine (840) may also execute a safety operating system (842), a container runtime (844) on the safety operating system (842), and a container (847) on the container runtime (844).

한편, 도면과 달리, 제3 가상화 머신(840)은, 프로세서(175)가 아닌, 별도의 코어를 통해 실행되는 것도 가능하다. 이에 대해서는 도 5b를 참조하여 후술한다.Meanwhile, unlike the drawing, the third virtual machine (840) can also be executed through a separate core rather than the processor (175). This will be described later with reference to FIG. 5b.

도 5b는 본 개시의 실시예에 따른 차량용 디스플레이 장치의 다른 예를 도시한다.FIG. 5b illustrates another example of a vehicle display device according to an embodiment of the present disclosure.

도면을 참조하면, 본 개시의 실시예에 따른 차량용 디스플레이 장치(800b)는, 신호 처리 장치(170a1,170a2), 복수의 영역 신호 처리 장치(170Z1~170Z4)를 포함한다.Referring to the drawings, a vehicle display device (800b) according to an embodiment of the present disclosure includes a signal processing device (170a1, 170a2) and a plurality of area signal processing devices (170Z1 to 170Z4).

도 5b의 차량용 디스플레이 장치(800b)는, 도 5a의 차량용 디스플레이 장치(800a)와 유사하나, 신호 처리 장치(170a1)가 도 5a의 신호 처리 장치(170a1)와 일부 차이가 있다.The vehicle display device (800b) of FIG. 5b is similar to the vehicle display device (800a) of FIG. 5a, but the signal processing device (170a1) has some differences from the signal processing device (170a1) of FIG. 5a.

그 차이를 중심으로 기술하면, 신호 처리 장치(170a1)는, 프로세서(175)와 제2 프로세서(177)를 구비할 수 있다.To describe the difference, the signal processing device (170a1) may include a processor (175) and a second processor (177).

신호 처리 장치(170a1) 내의 프로세서(175)는, 하이퍼바이저(505)를 실행하고, 하이퍼바이저(505) 상에서, 자동차 안전 무결성 수준(Automotive SIL;ASIL)에 따라, 제1 내지 제2 가상화 머신(820~830)을 실행한다.The processor (175) within the signal processing unit (170a1) executes a hypervisor (505), and executes first and second virtual machines (820 to 830) on the hypervisor (505) according to the automotive safety integrity level (Automotive SIL; ASIL).

제1 가상화 머신(820)은, 운영 체제(822), 운영 체제(822) 상의 컨테이너 런타임(824), 컨테이너 런타임(824) 상의 컨테이너(827,829)를 실행할 수 있다.The first virtual machine (820) can execute an operating system (822), a container runtime (824) on the operating system (822), and containers (827, 829) on the container runtime (824).

제2 가상화 머신(820)은, 운영 체제(832), 운영 체제(832) 상의 컨테이너 런타임(834), 컨테이너 런타임(834) 상의 컨테이너(837,839)를 실행할 수 있다.The second virtual machine (820) can execute an operating system (832), a container runtime (834) on the operating system (832), and containers (837, 839) on the container runtime (834).

한편, 신호 처리 장치(170a1) 내의 제2 프로세서(177)는, 제3 가상화 머신(840)을 실행할 수 있다.Meanwhile, the second processor (177) within the signal processing device (170a1) can execute a third virtual machine (840).

제3 가상화 머신(840)은, 세이프티 운영 체제(842), 운영 체제(842) 상의 오토사(845), 오토사(845) 상의 어플리케이션(845)를 실행할 수 있다. 즉, 도 5a와 달리, 운영 체제(842) 상의 오토사(846)를 더 실행할 수 있다.The third virtual machine (840) can execute a safety operating system (842), an auto-execution (845) on the operating system (842), and an application (845) on the auto-execution (845). That is, unlike FIG. 5A, an auto-execution (846) on the operating system (842) can be executed.

한편, 제3 가상화 머신(840)은, 도 5a와 유사하게, 세이프티 운영 체제(842), 세이프티 운영 체제(842) 상의 컨테이너 런타임(844), 컨테이너 런타임(844) 상의 컨테이너(847)를 실행할 수도 있다.Meanwhile, the third virtual machine (840) may, similarly to FIG. 5a, execute a safety operating system (842), a container runtime (844) on the safety operating system (842), and a container (847) on the container runtime (844).

한편, 높은 안전 레벨을 요구하는 제3 가상화 머신(840)은, 제1 내지 제2 가상화 머신(820~830)과 달리, 다른 코어 또는 다른 프로세서인 제2 프로세서(177)에서 실행되는 것이 바람직하다.Meanwhile, the third virtual machine (840) requiring a high level of security is preferably executed on a second processor (177), which is a different core or different processor, unlike the first and second virtual machines (820 to 830).

한편, 도 5a와 도 5b의 신호 처리 장치(170a1,170a2)는, 제1 신호 처리 장치(170a)의 이상시, 백업용인 제2 신호 처리 장치(170a2)가 동작할 수 있다.Meanwhile, in the signal processing devices (170a1, 170a2) of FIGS. 5a and 5b, when the first signal processing device (170a) malfunctions, the second signal processing device (170a2), which is a backup device, can operate.

이와 달리, 신호 처리 장치(170a1,170a2)가 동시에 동작하며, 그 중 제1 신호 처리 장치(170a)가 메인으로 동작하고, 제2 신호 처리 장치(170a2)가 서브로 동작하는 것도 가능하다. 이에 대해서는 도 5c와 도 5d를 참조하여 기술한다.Alternatively, it is also possible for the signal processing devices (170a1, 170a2) to operate simultaneously, with the first signal processing device (170a) operating as the main device and the second signal processing device (170a2) operating as the sub device. This will be described with reference to FIGS. 5c and 5d.

도 5c는 본 개시의 실시예에 따른 차량용 디스플레이 장치의 또 다른 예를 도시한다.FIG. 5c illustrates another example of a vehicle display device according to an embodiment of the present disclosure.

도면을 참조하면, 본 개시의 실시예에 따른 차량용 디스플레이 장치(800c)는, 신호 처리 장치(170a1,170a2), 복수의 영역 신호 처리 장치(170Z1~170Z4)를 포함한다.Referring to the drawings, a vehicle display device (800c) according to an embodiment of the present disclosure includes a signal processing device (170a1, 170a2) and a plurality of area signal processing devices (170Z1 to 170Z4).

한편, 도면에서는, 신호 처리 장치(170a1,170a2)로 2개를 예시하나, 이는 백업 등을 위해서 예시한 것이며, 1개도 가능하다.Meanwhile, in the drawing, two signal processing devices (170a1, 170a2) are exemplified, but this is for backup purposes, etc., and one is also possible.

한편, 신호 처리 장치(170a1,170a2)는, HPC(High Performance Computing) 신호 처리 장치로 명명될 수도 있다.Meanwhile, the signal processing device (170a1, 170a2) may also be named an HPC (High Performance Computing) signal processing device.

복수의 영역 신호 처리 장치(170Z1~170Z4)는, 각 영역(Z1~Z4)에 배치되어, 센서 데이터를, 신호 처리 장치(170a1,170a2)로 전송할 수 있다.Multiple area signal processing devices (170Z1 to 170Z4) are arranged in each area (Z1 to Z4) and can transmit sensor data to signal processing devices (170a1, 170a2).

신호 처리 장치(170a1,170a2)는, 복수의 영역 신호 처리 장치(170Z1~170Z4) 또는 통신 장치(120)로부터 유선으로 데이터를 수신한다.The signal processing device (170a1, 170a2) receives data via a wire from multiple area signal processing devices (170Z1 to 170Z4) or a communication device (120).

도면에서는, 신호 처리 장치(170a1,170a2)와 복수의 영역 신호 처리 장치(170Z1~170Z4) 사이에서 유선 통신에 기반하여 데이터를 교환하고, 신호 처리 장치(170a1,170a2)와 서버(400)는 무선 통신에 기반하여 데이터를 교환하는 것을 예시하나, 통신 장치(120)와 서버(400) 사이에서 무선 통신에 기반하여 데이터를 교환하고, 신호 처리 장치(170a1,170a2)와 통신 장치(120)는, 유선 통신에 기반하여 데이터를 교환할 수 있다.In the drawing, data is exchanged based on wired communication between a signal processing device (170a1, 170a2) and multiple area signal processing devices (170Z1 to 170Z4), and the signal processing device (170a1, 170a2) and the server (400) exchange data based on wireless communication. However, data may be exchanged based on wireless communication between a communication device (120) and a server (400), and the signal processing device (170a1, 170a2) and the communication device (120) may exchange data based on wired communication.

한편, 신호 처리 장치(170a1,170a2)에 수신되는 데이터는, 카메라 데이터 또는 센서 데이터를 포함할 수 있다.Meanwhile, data received by the signal processing device (170a1, 170a2) may include camera data or sensor data.

한편, 신호 처리 장치(170a1,170a2) 중 제1 신호 처리 장치(170a1) 내의 프로세서(175)는, 하이퍼바이저(505)를 실행하고, 하이퍼바이저(505) 상에서, 세이프티(safety) 가상화 머신(860)과, non-safety 가상화 머신(870)을 각각 실행할 수 있다.Meanwhile, among the signal processing devices (170a1, 170a2), the processor (175) in the first signal processing device (170a1) executes a hypervisor (505) and can execute a safety virtualization machine (860) and a non-safety virtualization machine (870) on the hypervisor (505), respectively.

한편, 신호 처리 장치(170a1,170a2) 중 제2 신호 처리 장치(170a2) 내의 프로세서(175b)는, 하이퍼바이저(505b)를 실행하고, 하이퍼바이저(505) 상에서, 세이프티(safety) 가상화 머신(880)만을 실행할 수 있다.Meanwhile, among the signal processing devices (170a1, 170a2), the processor (175b) in the second signal processing device (170a2) executes the hypervisor (505b) and can execute only the safety virtualization machine (880) on the hypervisor (505).

이러한 방식에 의하면, 세이프티(safety)에 대한 처리가 제1 신호 처리 장치(170a1)와 제2 신호 처리 장치(170a2)가 분리되므로, 안정성 및 처리 속도 향상을 도모할 수 있게 된다.In this way, since the processing for safety is separated between the first signal processing device (170a1) and the second signal processing device (170a2), it is possible to improve stability and processing speed.

한편, 제1 신호 처리 장치(170a1)와 제2 신호 처리 장치(170a2) 사이에는 고속의 네트워크 통신이 수행될 수 있다.Meanwhile, high-speed network communication can be performed between the first signal processing device (170a1) and the second signal processing device (170a2).

도 5d는 본 개시의 실시예에 따른 차량용 디스플레이 장치의 또 다른 예를 도시한다.FIG. 5d illustrates another example of a vehicle display device according to an embodiment of the present disclosure.

도면을 참조하면, 본 개시의 실시예에 따른 차량용 디스플레이 장치(800d)는, 신호 처리 장치(170a1,170a2), 복수의 영역 신호 처리 장치(170Z1~170Z4)를 포함한다.Referring to the drawings, a vehicle display device (800d) according to an embodiment of the present disclosure includes a signal processing device (170a1, 170a2) and a plurality of area signal processing devices (170Z1 to 170Z4).

도 5d의 차량용 디스플레이 장치(800d)는, 도 5c의 차량용 디스플레이 장치(800c)와 유사하나, 제2 신호 처리 장치(170a2)가 도 5c의 제2 신호 처리 장치(170a2)와 일부 차이가 있다.The vehicle display device (800d) of FIG. 5d is similar to the vehicle display device (800c) of FIG. 5c, but the second signal processing device (170a2) has some differences from the second signal processing device (170a2) of FIG. 5c.

도 5d의 제2 신호 처리 장치(170a2) 내의 프로세서(175b)는, 하이퍼바이저(505b)를 실행하고, 하이퍼바이저(505) 상에서, 세이프티(safety) 가상화 머신(880)과 non-safety 가상화 머신(890)을 각각 실행할 수 있다.The processor (175b) in the second signal processing device (170a2) of FIG. 5d executes a hypervisor (505b) and can execute a safety virtualization machine (880) and a non-safety virtualization machine (890) on the hypervisor (505).

즉, 도 5c와 달리, 제2 신호 처리 장치(170a2) 내의 프로세서(175b)가, non-safety 가상화 머신(890)을 더 실행하는 것에 그 차이가 있다.That is, unlike FIG. 5c, the difference is that the processor (175b) within the second signal processing device (170a2) further executes a non-safety virtualization machine (890).

이러한 방식에 의하면, 세이프티(safety)와 non-safety에 대한 처리가, 제1 신호 처리 장치(170a1)와 제2 신호 처리 장치(170a2)가 분리되므로, 안정성 및 처리 속도 향상을 도모할 수 있게 된다.In this way, since the processing for safety and non-safety is separated into the first signal processing device (170a1) and the second signal processing device (170a2), it is possible to improve stability and processing speed.

도 6은 본 개시의 실시예에 따른 차량용 디스플레이 장치의 블록도의 일 예이다.FIG. 6 is an example of a block diagram of a vehicle display device according to an embodiment of the present disclosure.

도면을 참조하면, 본 개시의 실시예에 따른 차량용 디스플레이 장치(900)는, 신호 처리 장치(170)와 적어도 하나의 디스플레이를 구비한다.Referring to the drawings, a vehicle display device (900) according to an embodiment of the present disclosure includes a signal processing device (170) and at least one display.

도면에서는, 적어도 하나의 디스플레이로, 클러스터 디스플레이(180a)와, AVN 디스플레이(180b)를 예시한다.In the drawing, at least one display is illustrated, a cluster display (180a) and an AVN display (180b).

한편, 차량용 디스플레이 장치(900)는, 복수의 영역 신호 처리 장치(170Z1~170Z4)를 더 구비할 수 있다.Meanwhile, the vehicle display device (900) may further include a plurality of area signal processing devices (170Z1 to 170Z4).

이때의 신호 처리 장치(170)는, 복수의 CPU(175), GPU(178), NPU(179) 등을 갖는 고성능의 중앙 집중식 신호 처리 및 제어 장치로서, HPC(High Performance Computing) 신호 처리 장치 또는 중앙 신호 처리 장치라 명명할 수 있다. The signal processing device (170) at this time is a high-performance centralized signal processing and control device having multiple CPUs (175), GPUs (178), NPUs (179), etc., and may be called an HPC (High Performance Computing) signal processing device or a central signal processing device.

복수의 영역 신호 처리 장치(170Z1~170Z4)와 신호 처리 장치(170) 사이는 유선 케이블(CB1~CB4)로 연결된다.A plurality of area signal processing devices (170Z1 to 170Z4) and a signal processing device (170) are connected by wired cables (CB1 to CB4).

한편, 복수의 영역 신호 처리 장치(170Z1~170Z4) 사이에는, 각각 유선 케이블(CBa~CBd)로 연결될 수 있다.Meanwhile, multiple area signal processing devices (170Z1 to 170Z4) can be connected to each other with wired cables (CBa to CBd).

이때의 유선 케이블(CBa~CBd)은, 캔(CAN) 통신 케이블 또는 이더넷(Ethernet) 통신 케이블 또는 PCI Express 케이블을 포함할 수 있다.The wired cable (CBa~CBd) at this time may include a CAN communication cable, an Ethernet communication cable, or a PCI Express cable.

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 적어도 하나의 프로세서(175,178,177)와, 대용량의 저장 장치(925)를 구비할 수 있다.Meanwhile, a signal processing device (170) according to an embodiment of the present disclosure may be equipped with at least one processor (175, 178, 177) and a large-capacity storage device (925).

예를 들어, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 중앙 프로세서(175, 177), 그래픽 프로세서(178), 및 뉴럴 프로세서(179)를 포함할 수 있다.For example, a signal processing device (170) according to an embodiment of the present disclosure may include a central processor (175, 177), a graphics processor (178), and a neural processor (179).

한편, 복수의 영역 신호 처리 장치(170Z1~170Z4) 중 적어도 하나에서 센서 데이터가, 신호 처리 장치(170)로 전송될 수 있다. 특히, 센서 데이터가, 신호 처리 장치(170) 내의 저장 장치(925)로 저장될 수 있다.Meanwhile, sensor data may be transmitted from at least one of the multiple area signal processing devices (170Z1 to 170Z4) to the signal processing device (170). In particular, the sensor data may be stored in a storage device (925) within the signal processing device (170).

이때의 센서 데이터는, 카메라 데이터, 라이다 데이터, 레이더 데이터, 차량 방향 데이터, 차량 위치 데이터(GPS 데이터), 차량 각도 데이터, 차량 속도 데이터, 차량 가속도 데이터, 차량 기울기 데이터, 차량 전진/후진 데이터, 배터리 데이터, 연료 데이터, 타이어 데이터, 차량 램프 데이터, 차량 내부 온도 데이터, 차량 내부 습도 데이터 중 적어도 하나를 포함할 수 있다.The sensor data at this time may include at least one of camera data, lidar data, radar data, vehicle direction data, vehicle location data (GPS data), vehicle angle data, vehicle speed data, vehicle acceleration data, vehicle inclination data, vehicle forward/backward data, battery data, fuel data, tire data, vehicle lamp data, vehicle interior temperature data, and vehicle interior humidity data.

도면에서는, 카메라(195a)로부터의 카메라 데이터와, 라이다 센서(196)로부터의 라이다 데이터가, 제1 영역 신호 처리 장치(170Z1)로 입력되고, 카메라 데이터와 라이다 데이터가, 제2 영역 신호 처리 장치(170Z2)와 제3 영역 신호 처리 장치(170Z3) 등을 경유하여, 신호 처리 장치(170)로 전송되는 것을 예시한다.In the drawing, it is exemplified that camera data from a camera (195a) and lidar data from a lidar sensor (196) are input to a first area signal processing device (170Z1), and the camera data and lidar data are transmitted to a signal processing device (170) via a second area signal processing device (170Z2), a third area signal processing device (170Z3), etc.

한편, 도면에서와 같이, 레이더 센서(197)로부터의 레이더 데이터와, 액츄에이터(193)로부터의 액츄에이터가, 제1 영역 신호 처리 장치(170Z1) 등을 경유하여, 신호 처리 장치(170)로 입력될 수 있다.Meanwhile, as shown in the drawing, radar data from a radar sensor (197) and an actuator from an actuator (193) can be input to a signal processing device (170) via a first region signal processing device (170Z1), etc.

한편, 저장 장치(925)로의 데이터 읽기 속도 또는 쓰기 속도가, 복수의 영역 신호 처리 장치(170Z1~170Z4) 중 적어도 하나에서 센서 데이터가, 신호 처리 장치(170)로 전송될 때의 네트워크 속도 보다 빠르므로, 네트워크 병목 현상이 발생하지 않도록, 멀티 패쓰 라우팅이 수행되는 것이 바람직하다.Meanwhile, since the data read speed or write speed to the storage device (925) is faster than the network speed when sensor data is transmitted from at least one of the plurality of area signal processing devices (170Z1 to 170Z4) to the signal processing device (170), it is preferable that multi-path routing be performed so that a network bottleneck does not occur.

이를 위해 본 개시의 실시예에 따른 신호 처리 장치(170)는, 소프트웨어 정의 네트워크(Software Defined Network; SDN) 기반의 멀티 패쓰 라우팅을 수행할 수 있다. 이에 따라, 저장 장치(925)의 데이터 읽기 또는 쓰기시의 안정적인 네트워크 환경을 확보할 수 있게 된다. 나아가, 다중 경로를 사용하여 저장 장치(925)로 데이터를 전송할 수 있으므로, 동적으로 네트워크 구성을 변경하여 데이터를 전송할 수 있게 된다. To this end, the signal processing device (170) according to the embodiment of the present disclosure can perform multi-path routing based on a Software Defined Network (SDN). Accordingly, a stable network environment can be secured when reading or writing data from the storage device (925). Furthermore, since data can be transmitted to the storage device (925) using multiple paths, the network configuration can be dynamically changed to transmit data.

본 개시의 실시예에 따른 차량용 디스플레이 장치(900) 내의 복수의 영역 신호 처리 장치(170Z1~170Z4)와 신호 처리 장치(170) 사이의 데이터 통신은, 고대역 저지연의 통신을 위해, 외장 컴포넌트 고속 연결(Peripheral Component Interconnect Express) 통신인 것이 바람직하다.Data communication between a plurality of area signal processing devices (170Z1 to 170Z4) and a signal processing device (170) in a vehicle display device (900) according to an embodiment of the present disclosure is preferably Peripheral Component Interconnect Express communication for high-bandwidth, low-latency communication.

도 7a 내지 도 7b는 본 개시와 관련한 신호 처리 장치의 설명에 참조되는 도면이다.FIGS. 7A and 7B are drawings for reference in the description of a signal processing device related to the present disclosure.

도 7a는 카메라 데이터 등에 기반한 애플리케이션이 신호 처리 장치에서 실행되는 것을 예시한다.Figure 7a illustrates an application based on camera data, etc., running on a signal processing device.

도면을 참조하면, 본 개시와 관련한 신호 처리 장치(170x)는, 차량 내부 카메라(195i)로부터의 카메라 데이터, 압력 센서(SNp)로부터의 센서 데이터, 가스 센서(SNc)로부터의 센서 데이터에 기초하여, 운전자 모니터링 시스템(Driver Monitoring Systems ;DMS) 애플리케이션(785)을 실행하고, 결과 데이터에 기초하여, 오디오 출력부(185)로 경고 사운드가 출력되도록 제어할 수 있다.Referring to the drawing, a signal processing device (170x) related to the present disclosure can execute a Driver Monitoring Systems (DMS) application (785) based on camera data from an in-vehicle camera (195i), sensor data from a pressure sensor (SNp), and sensor data from a gas sensor (SNc), and can control a warning sound to be output to an audio output unit (185) based on the result data.

도 7b는 도 7a의 동작 설명에 참조되는 도면이다.Figure 7b is a drawing referenced in the operation description of Figure 7a.

도면을 참조하면, 본 개시와 관련한 신호 처리 장치(170x)는, 프로세서(175x)를 구비하고, 프로세서(175x)는 하이퍼바이저(505)를 실행할 수 있다.Referring to the drawing, a signal processing device (170x) related to the present disclosure includes a processor (175x), and the processor (175x) can execute a hypervisor (505).

한편, 본 개시와 관련한 프로세서(175x)는 하이퍼바이저(505) 상에서, 복수의 가상화 머신(520x, 530x, 540x)을 실행하며, 복수의 가상화 머신(520x, 530x, 540x) 중 제2 가상화 머신(530x)은, 차량 내부 카메라(195i)로부터의 카메라 데이터, 압력 센서(SNp)로부터의 센서 데이터, 가스 센서(SNc)로부터의 센서 데이터에 기초하여, 운전자 모니터링 시스템(DMS) 애플리케이션(785)를 실행하고, 차량 외부 카메라 데이터에 기초하여 차선 유지 보조 시스템(Lane Keep Assist System; LKAS) 애플리케이션(787)을 실행할 수 있다.Meanwhile, a processor (175x) related to the present disclosure executes a plurality of virtual machines (520x, 530x, 540x) on a hypervisor (505), and a second virtual machine (530x) among the plurality of virtual machines (520x, 530x, 540x) executes a driver monitoring system (DMS) application (785) based on camera data from an internal vehicle camera (195i), sensor data from a pressure sensor (SNp), and sensor data from a gas sensor (SNc), and executes a lane keeping assist system (LKAS) application (787) based on camera data outside the vehicle.

한편, 복수의 가상화 머신(520x, 530x, 540x) 중 제3 가상화 머신(540x)은, 차량 외부 카메라 데이터에 기초하여, 전방 추돌 경고(Forward Collision Warning; FCW) 애플리케이션(789)을 실행할 수 있다.Meanwhile, among the multiple virtual machines (520x, 530x, 540x), a third virtual machine (540x) can execute a forward collision warning (FCW) application (789) based on vehicle external camera data.

한편, 도 7a 및 도 7b와 같이, 제2 가상화 머신(530x) 내에서, 운전자 모니터링 시스템(DMS) 애플리케이션(785)과, 차선 유지 보조 시스템(787)을 실행하는 경우, 제2 가상화 머신(530x)의 워크로드(Workload)가 상당하다는 문제가 있다.Meanwhile, as shown in FIGS. 7a and 7b, when a driver monitoring system (DMS) application (785) and a lane keeping assist system (787) are executed within a second virtual machine (530x), there is a problem that the workload of the second virtual machine (530x) is significant.

특히, 운전자 모니터링 시스템(DMS) 애플리케이션(785)의 실행을 위해, 차량 내부 카메라(195i)로부터의 카메라 데이터, 압력 센서(SNp)로부터의 센서 데이터, 가스 센서(SNc)로부터의 센서 데이터를 수신하고, 이를 처리하여야 하므로, 제2 가상화 머신(530x)의 워크로드(Workload)가 상당하다는 문제가 있다.In particular, in order to execute the driver monitoring system (DMS) application (785), camera data from an in-vehicle camera (195i), sensor data from a pressure sensor (SNp), and sensor data from a gas sensor (SNc) must be received and processed, so there is a problem that the workload of the second virtual machine (530x) is considerable.

한편, 제3 가상화 머신(540x)은, 전방 추돌 경고(FCW) 애플리케이션(789)의 실행시, 차량 외부 카메라 데이터에 공통으로 기초하는, 차선 유지 보조 시스템(787)과 별도의 가상화 머신에서 실행되므로, 워크로드(Workload)가 비효율적으로 수행되는 문제가 있다.Meanwhile, the third virtual machine (540x) runs on a separate virtual machine from the lane keeping assist system (787), which is based on vehicle external camera data when executing the forward collision warning (FCW) application (789), so there is a problem that the workload is performed inefficiently.

이에 본 개시에서는, 유사한 애플리케이션의 실행시에, 애플리케이션의 중간 결과 데이터 등을 공유하는 방안을 제안한다.Accordingly, in this disclosure, a method for sharing intermediate result data of an application, etc., when executing a similar application is proposed.

이를 위해, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 애플리케이션을 복수의 마이크로 서비스(Micro service)로 분리하고, 마이크로 서비스의 결과 등에 기초하여 다른 마이크로 서비스를 실행시켜, 워크로드(Workload)를 효율적으로 분담하도록 한다.To this end, the signal processing device (170) according to the embodiment of the present disclosure divides the application into a plurality of micro services, and executes other micro services based on the results of the micro services, etc., thereby efficiently distributing the workload.

예를 들어, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 복수의 마이크로 서비스(Micro service) 증 제1 마이크로 서비스는, 제1 가상화 머신에서 수행하고, 제2 마이크로 서비스는 제2 가상화 머신에서 수행하되, 제1 마이크로 서비스의 결과를 공유 메모리(508) 등을 이용하여 공유하여, 제2 마이크로 서비스가 제1 가상화 머신의 결과 데이터에 기초하여 실행되도록 제어할 수 있다. 이에 따라, 효율적으로 데이터 처리를 수행할 수 있게 된다. For example, a signal processing device (170) according to an embodiment of the present disclosure may control a plurality of micro services, wherein a first micro service is performed in a first virtual machine and a second micro service is performed in a second virtual machine, and the result of the first micro service is shared using a shared memory (508) or the like, so that the second micro service is executed based on the result data of the first virtual machine. Accordingly, data processing can be performed efficiently.

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 안전 레벨 별로, 복수의 가상화 머신을 구분하여 실행할 수 있다. Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can execute multiple virtual machines by distinguishing them according to the safety level.

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 안전 레벨 별로, 애플리케이션 또는 마이크로 서비스를 구분하여 실행할 수 있다. Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can execute applications or microservices by distinguishing them according to the safety level.

이에 따라, 차량 운전 보조(ADAS) 또는 자율 주행 등과 관련하여, 자동차 안전 무결성 수준(Automotive SIL;ASIL)에 따라, 데이터 처리를 안정적으로 수행할 수 있게 된다. Accordingly, data processing can be performed stably according to the Automotive Safety Integrity Level (ASIL) in relation to advanced driver assistance systems (ADAS) or autonomous driving.

도 8a 내지 도 8e는 본 개시의 실시예에 따른 마이크로 서비스의 실행의 다양한 예를 도시하는 도면이다.FIGS. 8A to 8E are diagrams illustrating various examples of execution of microservices according to embodiments of the present disclosure.

도 8a는 내부 카메라(195i)로부터의 카메라 데이터에 기초하여 ASIL B에 대응하는 복수의 마이크로 서비스가 실행되는 것을 예시한다.Figure 8a illustrates that multiple microservices corresponding to ASIL B are executed based on camera data from an internal camera (195i).

도면을 참조하면, 본 개시의 실시예에 따른 신호 처리 장치(170)는, ASIL B에 대응하는 운전자 모니터링 시스템(DMS) 애플리케이션(905)을 실행할 수 있다.Referring to the drawing, a signal processing device (170) according to an embodiment of the present disclosure can execute a driver monitoring system (DMS) application (905) corresponding to ASIL B.

예를 들어, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 운전자 모니터링 시스템(DMS) 애플리케이션(905)을 복수의 마이크로 서비스로 분리하여 실행할 수 잇다.For example, a signal processing device (170) according to an embodiment of the present disclosure can execute a driver monitoring system (DMS) application (905) by separating it into multiple microservices.

도면에서는, 운전자 모니터링 시스템(DMS) 애플리케이션(905)을 위한 복수의 마이크로 서비스로, 얼굴 검출(face detection) 마이크로 서비스(910b), 눈 움직임(eye movement) 마이크로 서비스(915b), 시선 추적(eye tracking) 마이크로 서비스(920b), 경고(alert) 마이크로 서비스(930b)를 예시한다.The drawing illustrates multiple microservices for a driver monitoring system (DMS) application (905), including a face detection microservice (910b), an eye movement microservice (915b), an eye tracking microservice (920b), and an alert microservice (930b).

즉, 본 개시의 실시예에 따른 신호 처리 장치(170)는, ASIL B에 대응하는 운전자 모니터링 시스템(DMS) 애플리케이션(905)을 위해, 복수의 마이크로 서비스로서, 얼굴 검출 마이크로 서비스(910b), 눈 움직임 마이크로 서비스(915b), 시선 추적 마이크로 서비스(920b), 경고 마이크로 서비스(930b)를 각각 실행할 수 있다. That is, the signal processing device (170) according to the embodiment of the present disclosure can execute a face detection microservice (910b), an eye movement microservice (915b), a gaze tracking microservice (920b), and a warning microservice (930b) as a plurality of microservices for a driver monitoring system (DMS) application (905) corresponding to ASIL B.

한편, 얼굴 검출 마이크로 서비스(910b)는, 내부 카메라(195i)로부터의 카메라 데이터에 기초하여, 실행되며, 얼굴 검출 마이크로 서비스(910b)의 결과 데이터는 눈 움직임 마이크로 서비스(915b)로 전송된다. Meanwhile, the face detection microservice (910b) is executed based on camera data from the internal camera (195i), and the result data of the face detection microservice (910b) is transmitted to the eye movement microservice (915b).

한편, 눈 움직임 마이크로 서비스(915b)는, 얼굴 검출 마이크로 서비스(910b)의 결과 데이터에 기초하여 실행되며, 눈 움직임 마이크로 서비스(915b)의 결과 데이터는 시선 추적 마이크로 서비스(920b)로 전송된다. Meanwhile, the eye movement microservice (915b) is executed based on the result data of the face detection microservice (910b), and the result data of the eye movement microservice (915b) is transmitted to the gaze tracking microservice (920b).

한편, 시선 추적 마이크로 서비스(920b)는, 눈 움직임 마이크로 서비스(915b)의 결과 데이터에 기초하여 실행되며, 시선 추적 마이크로 서비스(920b)의 결과 데이터는 경고 마이크로 서비스(930b)로 전송된다. Meanwhile, the gaze tracking microservice (920b) is executed based on the result data of the eye movement microservice (915b), and the result data of the gaze tracking microservice (920b) is transmitted to the alert microservice (930b).

한편, 경고 마이크로 서비스(930b)는, 시선 추적 마이크로 서비스(920b)의 결과 데이터에 기초하여 실행되며, 결과 데이터는 오디오 출력부(185)로 입력되어, 경고 사운드가 오디오 출력부(185)에서 출력될 수 있다.Meanwhile, the warning microservice (930b) is executed based on the result data of the gaze tracking microservice (920b), and the result data is input to the audio output unit (185), so that a warning sound can be output from the audio output unit (185).

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, ASIL B에 대응하는 운전자 모니터링 시스템(DMS) 애플리케이션(905)을 위해, 제2 얼굴 검출 마이크로 서비스(910c), 헤드 움직임 마이크로 서비스(915c)를 각각 더 실행할 수 있다. Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can further execute a second face detection microservice (910c) and a head movement microservice (915c) for a driver monitoring system (DMS) application (905) corresponding to ASIL B.

제2 얼굴 검출 마이크로 서비스(910c)는, 내부 카메라(195i)로부터의 카메라 데이터에 기초하여, 실행되며, 제2 얼굴 검출 마이크로 서비스(910c)의 결과 데이터는 헤드 움직임 마이크로 서비스(915c)로 전송된다. The second face detection microservice (910c) is executed based on camera data from the internal camera (195i), and the result data of the second face detection microservice (910c) is transmitted to the head movement microservice (915c).

한편, 헤드 움직임 마이크로 서비스(915c)는, 제2 얼굴 검출 마이크로 서비스(910c)의 결과 데이터에 기초하여 실행되며, 헤드 움직임 마이크로 서비스(915c)의 결과 데이터는 시선 추적 마이크로 서비스(920b)로 전송된다. Meanwhile, the head movement microservice (915c) is executed based on the result data of the second face detection microservice (910c), and the result data of the head movement microservice (915c) is transmitted to the gaze tracking microservice (920b).

한편, 시선 추적 마이크로 서비스(920b)는, 헤드 움직임 마이크로 서비스(915c)의 결과 데이터와, 눈 움직임 마이크로 서비스(915b)의 결과 데이터에 기초하여 실행되며, 시선 추적 마이크로 서비스(920b)의 결과 데이터는 경고 마이크로 서비스(930b)로 전송될 수 있다.Meanwhile, the gaze tracking microservice (920b) is executed based on the result data of the head movement microservice (915c) and the result data of the eye movement microservice (915b), and the result data of the gaze tracking microservice (920b) can be transmitted to the warning microservice (930b).

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, ASIL B와 관련 없는, 예를 들어, QM(Quality Management)에 대응하는 복수의 마이크로 서비스를 더 실행할 수 있다.Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can further execute a plurality of micro-services that are not related to ASIL B, for example, corresponding to QM (Quality Management).

도면에서는, ASIL B와 관련 없는, 복수의 마이크로 서비스로, 제3 얼굴 검출 마이크로 서비스(910a), 얼굴 인식 마이크로 서비스(915a), 개인용 마이크로 서비스(920a)를 각각 실행할 수 있다. In the drawing, a third face detection microservice (910a), a face recognition microservice (915a), and a personal microservice (920a) can each be executed as multiple microservices, not related to ASIL B.

도 8b는 내부 카메라(195i)로부터의 카메라 데이터에 기초하여 ASIL B에 대응하는 복수의 마이크로 서비스와 QM에 대응하는 마이크로 서비스 실행의 일예를 예시한다.Figure 8b illustrates an example of execution of multiple microservices corresponding to ASIL B and microservices corresponding to QM based on camera data from an internal camera (195i).

도면을 참조하면, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 도 8a와 유사하게, ASIL B에 대응하는 운전자 모니터링 시스템(DMS) 애플리케이션(905)을 실행할 수 있다.Referring to the drawing, the signal processing device (170) according to the embodiment of the present disclosure can execute a driver monitoring system (DMS) application (905) corresponding to ASIL B, similar to FIG. 8A.

예를 들어, 본 개시의 실시예에 따른 신호 처리 장치(170)는, ASIL B에 대응하는 운전자 모니터링 시스템(DMS) 애플리케이션(905)을 위해, 복수의 마이크로 서비스로서, 얼굴 검출 마이크로 서비스(910b), 눈 움직임 마이크로 서비스(915b), 시선 추적 마이크로 서비스(920b), 경고 마이크로 서비스(930b)를 각각 실행할 수 있다. For example, a signal processing device (170) according to an embodiment of the present disclosure can execute a face detection microservice (910b), an eye movement microservice (915b), a gaze tracking microservice (920b), and a warning microservice (930b) as a plurality of microservices for a driver monitoring system (DMS) application (905) corresponding to ASIL B.

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, ASIL B에 대응하는 운전자 모니터링 시스템(DMS) 애플리케이션(905)을 위해, 제2 얼굴 검출 마이크로 서비스(910c), 헤드 움직임 마이크로 서비스(915c)를 각각 더 실행할 수 있다. Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can further execute a second face detection microservice (910c) and a head movement microservice (915c) for a driver monitoring system (DMS) application (905) corresponding to ASIL B.

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, ASIL B와 관련 없는, 복수의 마이크로 서비스로, 제3 얼굴 검출 마이크로 서비스(910a), 얼굴 인식 마이크로 서비스(915a), 개인용 마이크로 서비스(920a)를 각각 실행할 수 있다. Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can execute a third face detection microservice (910a), a face recognition microservice (915a), and a personal microservice (920a) as a plurality of microservices, which are not related to ASIL B.

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, QM에 대응하는 마이크로 서비스로, 그래픽 제공 마이크로 서비스의 일예인 증강 현실 마이크로 서비스(930c)를 실행할 수 있다. Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can execute an augmented reality microservice (930c), which is an example of a graphic provision microservice, as a microservice corresponding to QM.

이때, 본 개시의 실시예에 따른 신호 처리 장치(170)는, ASIL B에 대응하는 애플리케이션(905) 내의 마이크로 서비스 중 시선 추적 마이크로 서비스(920b)의 결과 데이터를, 안전 레벨이 더 낮은, QM에 대응하는 증강 현실 마이크로 서비스(930c)로 전송할 수 있다.At this time, the signal processing device (170) according to the embodiment of the present disclosure can transmit the result data of the eye tracking microservice (920b) among the microservices in the application (905) corresponding to ASIL B to the augmented reality microservice (930c) corresponding to QM, which has a lower safety level.

이에 따라, QM에 대응하는 증강 현실 마이크로 서비스(930c)는, 시선 추적 마이크로 서비스(920b)의 결과 데이터에 기초하여 실행되며, 증강 현실 마이크로 서비스(930c)의 결과 데이터는 디스플레이(180)로 전송되어 표시될 수 있다.Accordingly, the augmented reality microservice (930c) corresponding to QM is executed based on the result data of the gaze tracking microservice (920b), and the result data of the augmented reality microservice (930c) can be transmitted to the display (180) and displayed.

도 8c는 QM에 대응하는 복수의 마이크로 서비스가 실행되는 것을 예시한다.Figure 8c illustrates the execution of multiple microservices corresponding to QM.

도면을 참조하면, 본 개시의 실시예에 따른 신호 처리 장치(170)는, QM에 대응하는 탑승자 모니터링 애플리케이션(940)을 실행할 수 있다.Referring to the drawing, a signal processing device (170) according to an embodiment of the present disclosure can execute a passenger monitoring application (940) corresponding to QM.

예를 들어, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 탑승자 모니터링 애플리케이션(940)을 복수의 마이크로 서비스로 분리하여 실행할 수 잇다.For example, a signal processing device (170) according to an embodiment of the present disclosure can execute a passenger monitoring application (940) by separating it into multiple micro-services.

도면에서는, 탑승자 모니터링 애플리케이션(940)을 위한 복수의 마이크로 서비스로, 탑승자 착석(press detection) 마이크로 서비스(950b), 탑승자 움직임(passenger movement) 마이크로 서비스(955b), 탑승자 검출(passenger detection) 마이크로 서비스(960b), 그래픽 제공 마이크로 서비스(965b)를 예시한다.The drawing illustrates multiple microservices for a passenger monitoring application (940), including a passenger press detection microservice (950b), a passenger movement microservice (955b), a passenger detection microservice (960b), and a graphics provision microservice (965b).

즉, 본 개시의 실시예에 따른 신호 처리 장치(170)는, QM에 대응하는 탑승자 모니터링 애플리케이션(940)을 위해, 복수의 마이크로 서비스로서, 탑승자 착석 마이크로 서비스(950b), 탑승자 움직임 마이크로 서비스(955b), 탑승자 검출 마이크로 서비스(960b), 그래픽 제공 마이크로 서비스(965b)를 각각 실행할 수 있다. That is, the signal processing device (170) according to the embodiment of the present disclosure can execute a plurality of microservices, namely, a passenger seating microservice (950b), a passenger movement microservice (955b), a passenger detection microservice (960b), and a graphics provision microservice (965b), for a passenger monitoring application (940) corresponding to QM.

한편, 탑승자 착석 마이크로 서비스(950b)는, 압력 센서(SNp)로부터의 센서 데이터에 기초하여, 실행되며, 탑승자 착석 마이크로 서비스(950b)의 결과 데이터는 탑승자 움직임 마이크로 서비스(955b)로 전송된다. Meanwhile, the passenger seating microservice (950b) is executed based on sensor data from the pressure sensor (SNp), and the result data of the passenger seating microservice (950b) is transmitted to the passenger movement microservice (955b).

한편, 탑승자 움직임 마이크로 서비스(955b)는, 탑승자 착석 마이크로 서비스(950b)의 결과 데이터에 기초하여 실행되며, 탑승자 움직임 마이크로 서비스(955b)의 결과 데이터는 탑승자 검출 마이크로 서비스(960b)로 전송된다. Meanwhile, the passenger movement microservice (955b) is executed based on the result data of the passenger seating microservice (950b), and the result data of the passenger movement microservice (955b) is transmitted to the passenger detection microservice (960b).

한편, 탑승자 검출 마이크로 서비스(960b)는, 탑승자 움직임 마이크로 서비스(955b)의 결과 데이터에 기초하여 실행되며, 탑승자 검출 마이크로 서비스(960b)의 결과 데이터는 그래픽 제공 마이크로 서비스(965b)로 전송된다. Meanwhile, the passenger detection microservice (960b) is executed based on the result data of the passenger movement microservice (955b), and the result data of the passenger detection microservice (960b) is transmitted to the graphics provision microservice (965b).

한편, 그래픽 제공 마이크로 서비스(965b)는, 탑승자 검출 마이크로 서비스(960b)의 결과 데이터에 기초하여 실행되며, 그래픽 제공 마이크로 서비스(965b)의 결과 데이터는 디스플레이(180)로 전송되어 표시될 수 있다.Meanwhile, the graphic provision microservice (965b) is executed based on the result data of the passenger detection microservice (960b), and the result data of the graphic provision microservice (965b) can be transmitted to the display (180) and displayed.

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, QM에 대응하는 탑승자 모니터링 애플리케이션(940)을 위해, 기체 검출(co2 detection) 마이크로 서비스(950c)를 더 실행할 수 있다. Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can further execute a gas detection (CO2 detection) microservice (950c) for a passenger monitoring application (940) corresponding to QM.

기체 검출(co2 detection) 마이크로 서비스(950c)는, 가스 센서(SNc)로부터의 센서 데이터에 기초하여, 실행되며, 기체 검출(co2 detection) 마이크로 서비스(950c)의 결과 데이터는 탑승자 움직임 마이크로 서비스(955b)로 전송된다. The gas detection (CO2 detection) microservice (950c) is executed based on sensor data from the gas sensor (SNc), and the result data of the gas detection (CO2 detection) microservice (950c) is transmitted to the passenger movement microservice (955b).

한편, 탑승자 움직임 마이크로 서비스(955b)는, 기체 검출(co2 detection) 마이크로 서비스(950c)의 결과 데이터에 기초하여 실행되며, 탑승자 움직임 마이크로 서비스(955b)의 결과 데이터는 탑승자 검출 마이크로 서비스(960b)로 전송된다. Meanwhile, the passenger movement microservice (955b) is executed based on the result data of the gas detection (CO2 detection) microservice (950c), and the result data of the passenger movement microservice (955b) is transmitted to the passenger detection microservice (960b).

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 탑승자 모니터링 애플리케이션(940)과 관련 없는 복수의 마이크로 서비스를 더 실행할 수 있다.Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can further execute a plurality of micro-services unrelated to the passenger monitoring application (940).

도면에서는, 신호 처리 장치(170)가, 탑승자 모니터링 애플리케이션(940)과 관련 없는, 복수의 마이크로 서비스로, 차량 내부 카메라(195i)로부터의 카메라 데이터에 기반한 얼굴 검출 마이크로 서비스(910a), 얼굴 인식 마이크로 서비스(915a), 개인용 마이크로 서비스(920a)를 각각 실행하는 것을 예시한다. In the drawing, the signal processing unit (170) is illustrated as executing a plurality of microservices, each of which is unrelated to the passenger monitoring application (940), including a face detection microservice (910a), a face recognition microservice (915a), and a personal microservice (920a) based on camera data from an in-vehicle camera (195i).

도 8d는 ASIL B에 대응하는 복수의 마이크로 서비스와 QM에 대응하는 마이크로 서비스가 실행되는 것을 예시한다. Figure 8d illustrates the execution of multiple microservices corresponding to ASIL B and microservices corresponding to QM.

도면을 참조하면, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 도 8c와 유사하게, QM에 대응하는 탑승자 모니터링 애플리케이션(940)을 실행할 수 있다.Referring to the drawing, the signal processing device (170) according to the embodiment of the present disclosure can execute a passenger monitoring application (940) corresponding to QM, similar to FIG. 8c.

예를 들어, 본 개시의 실시예에 따른 신호 처리 장치(170)는, QM에 대응하는 탑승자 모니터링 애플리케이션(940)을 위해, 복수의 마이크로 서비스로서, 탑승자 착석 마이크로 서비스(950b), 탑승자 움직임 마이크로 서비스(955b), 탑승자 검출 마이크로 서비스(960b), 그래픽 제공 마이크로 서비스(965b)를 각각 실행할 수 있다. For example, a signal processing device (170) according to an embodiment of the present disclosure can execute a plurality of microservices, for a passenger monitoring application (940) corresponding to QM, including a passenger seating microservice (950b), a passenger movement microservice (955b), a passenger detection microservice (960b), and a graphics provision microservice (965b).

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, QM에 대응하는 탑승자 모니터링 애플리케이션(940)을 위해, 기체 검출(co2 detection) 마이크로 서비스(950c)를 더 실행할 수 있다. Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can further execute a gas detection (CO2 detection) microservice (950c) for a passenger monitoring application (940) corresponding to QM.

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 탑승자 모니터링 애플리케이션(940)과 관련 없는, 복수의 마이크로 서비스로, 얼굴 검출 마이크로 서비스(910a), 얼굴 인식 마이크로 서비스(915a), 개인용 마이크로 서비스(920a)를 각각 실행할 수 있다. Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can execute a plurality of micro-services, including a face detection micro-service (910a), a face recognition micro-service (915a), and a personal micro-service (920a), which are not related to the passenger monitoring application (940).

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, ASIL B에 대응하는 탑승자 모니터링 애플리케이션(945)을 더 실행할 수 있다.Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can further execute a passenger monitoring application (945) corresponding to ASIL B.

도면에서는, ASIL B에 대응하는 탑승자 모니터링 애플리케이션(945)을 위한 복수의 마이크로 서비스로, 탑승자 착석 마이크로 서비스(950d), 탑승자 움직임 마이크로 서비스(955d), 탑승자 검출 마이크로 서비스(960d), 경고 마이크로 서비스(965d)를 예시한다. In the drawing, multiple microservices for an occupant monitoring application (945) corresponding to ASIL B are illustrated, including an occupant seating microservice (950d), an occupant movement microservice (955d), an occupant detection microservice (960d), and an alert microservice (965d).

한편, 탑승자 착석 마이크로 서비스(950d)는, 압력 센서(SNp)로부터의 센서 데이터에 기초하여, 실행되며, 탑승자 착석 마이크로 서비스(950d)의 결과 데이터는 탑승자 움직임 마이크로 서비스(955d)로 전송된다. Meanwhile, the passenger seating microservice (950d) is executed based on sensor data from the pressure sensor (SNp), and the result data of the passenger seating microservice (950d) is transmitted to the passenger movement microservice (955d).

한편, 탑승자 움직임 마이크로 서비스(955d)는, 탑승자 착석 마이크로 서비스(950d)의 결과 데이터에 기초하여 실행되며, 탑승자 움직임 마이크로 서비스(955d)의 결과 데이터는 탑승자 검출 마이크로 서비스(960d)로 전송된다. Meanwhile, the passenger movement microservice (955d) is executed based on the result data of the passenger seating microservice (950d), and the result data of the passenger movement microservice (955d) is transmitted to the passenger detection microservice (960d).

한편, 탑승자 검출 마이크로 서비스(960d)는, 탑승자 움직임 마이크로 서비스(955d)의 결과 데이터에 기초하여 실행되며, 탑승자 검출 마이크로 서비스(960d)의 결과 데이터는 경고 마이크로 서비스(965d)로 전송된다. Meanwhile, the passenger detection microservice (960d) is executed based on the result data of the passenger movement microservice (955d), and the result data of the passenger detection microservice (960d) is transmitted to the warning microservice (965d).

한편, 경고 마이크로 서비스(965d)는, 탑승자 검출 마이크로 서비스(960d)의 결과 데이터에 기초하여 실행되며, 경고 마이크로 서비스(965d)의 결과 데이터는 오디오 출력부(185)로 전송되어 출력될 수 있다.Meanwhile, the warning microservice (965d) is executed based on the result data of the passenger detection microservice (960d), and the result data of the warning microservice (965d) can be transmitted to and output by the audio output unit (185).

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, ASIL B에 대응하는 탑승자 모니터링 애플리케이션(945)을 위해, 기체 검출(co2 detection) 마이크로 서비스(950e)를 더 실행할 수 있다. Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can further execute a gas detection (CO2 detection) microservice (950e) for a passenger monitoring application (945) corresponding to ASIL B.

한편, 기체 검출(co2 detection) 마이크로 서비스(950e)는, 가스 센서(SNc)로부터의 센서 데이터에 기초하여, 실행되며, 기체 검출(co2 detection) 마이크로 서비스(950e)의 결과 데이터는 탑승자 움직임 마이크로 서비스(955d)로 전송될 수 있다. Meanwhile, the gas detection (CO2 detection) microservice (950e) is executed based on sensor data from the gas sensor (SNc), and the result data of the gas detection (CO2 detection) microservice (950e) can be transmitted to the passenger movement microservice (955d).

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, QM에 대응하는 탑승자 모니터링 애플리케이션(940) 내의 마이크로 서비스 중 탑승자 검출 마이크로 서비스(960b)의 결과 데이터를, ASIL B에 대응하는 탑승자 모니터링 애플리케이션(945) 내의 경고 마이크로 서비스(965d)로 전송하지 않을 수 있다.Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure may not transmit the result data of the passenger detection microservice (960b) among the microservices in the passenger monitoring application (940) corresponding to QM to the warning microservice (965d) in the passenger monitoring application (945) corresponding to ASIL B.

즉, QM에 대응하는 탑승자 모니터링 애플리케이션(940) 내의 탑승자 검출 마이크로 서비스(960b)의 안전 레벨이, ASIL B에 대응하는 탑승자 모니터링 애플리케이션(945) 내의 경고 마이크로 서비스(965d)의 안전 레벨 보다 낮으므로, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 탑승자 검출 마이크로 서비스(960b)의 결과 데이터를 ASIL B에 대응하는 탑승자 모니터링 애플리케이션(945) 내의 경고 마이크로 서비스(965d)로 전송하지 못하게 된다. 이에 따라, 각각의 안전 레벨을 유지할 수 있게 된다. That is, since the safety level of the passenger detection microservice (960b) within the passenger monitoring application (940) corresponding to QM is lower than the safety level of the warning microservice (965d) within the passenger monitoring application (945) corresponding to ASIL B, the signal processing device (170) according to the embodiment of the present disclosure cannot transmit the result data of the passenger detection microservice (960b) to the warning microservice (965d) within the passenger monitoring application (945) corresponding to ASIL B. Accordingly, each safety level can be maintained.

도 8e는 내부 카메라(195i)로부터의 카메라 데이터에 기초하여 ASIL B에 대응하는 복수의 마이크로 서비스와 QM에 대응하는 마이크로 서비스 실행의 또 다른 예를 예시한다.Figure 8e illustrates another example of execution of multiple microservices corresponding to ASIL B and microservices corresponding to QM based on camera data from an internal camera (195i).

도면을 참조하면, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 도 8b와 유사하게, ASIL B에 대응하는 운전자 모니터링 시스템(DMS) 애플리케이션(985)을 실행할 수 있다.Referring to the drawing, the signal processing device (170) according to the embodiment of the present disclosure can execute a driver monitoring system (DMS) application (985) corresponding to ASIL B, similarly to FIG. 8b.

운전자 모니터링 시스템(DMS) 애플리케이션(985)는, 도 8b의 운전자 모니터링 시스템(DMS) 애플리케이션(905)와 유사하나, 제2 얼굴 검출 마이크로 서비스(910c)가 수행되지 않는 차이가 있다.The Driver Monitoring System (DMS) application (985) is similar to the Driver Monitoring System (DMS) application (905) of FIG. 8b, but differs in that the second face detection microservice (910c) is not performed.

예를 들어, 본 개시의 실시예에 따른 신호 처리 장치(170)는, ASIL B에 대응하는 운전자 모니터링 시스템(DMS) 애플리케이션(985)을 위해, 복수의 마이크로 서비스로서, 얼굴 검출 마이크로 서비스(910b), 눈 움직임 마이크로 서비스(915b), 헤드 움직임 마이크로 서비스(915c), 시선 추적 마이크로 서비스(920b), 경고 마이크로 서비스(930b)를 각각 실행할 수 있다. For example, a signal processing device (170) according to an embodiment of the present disclosure can execute a plurality of microservices, including a face detection microservice (910b), an eye movement microservice (915b), a head movement microservice (915c), a gaze tracking microservice (920b), and a warning microservice (930b), for a driver monitoring system (DMS) application (985) corresponding to ASIL B.

한편, 헤드 움직임 마이크로 서비스(915c)는, 얼굴 검출 마이크로 서비스(910b)의 결과 데이터에 기초하여 실행되며, 헤드 움직임 마이크로 서비스(915c)의 결과 데이터는 시선 추적 마이크로 서비스(920b)로 전송된다.Meanwhile, the head movement microservice (915c) is executed based on the result data of the face detection microservice (910b), and the result data of the head movement microservice (915c) is transmitted to the gaze tracking microservice (920b).

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, ASIL B와 관련 없는, 복수의 마이크로 서비스로, 제3 얼굴 검출 마이크로 서비스(910a), 얼굴 인식 마이크로 서비스(915a), 개인용 마이크로 서비스(920a)를 각각 실행할 수 있다. Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can execute a third face detection microservice (910a), a face recognition microservice (915a), and a personal microservice (920a) as a plurality of microservices, which are not related to ASIL B.

한편, 본 개시의 실시예에 따른 신호 처리 장치(170)는, QM에 대응하는 마이크로 서비스로, 증강 현실 마이크로 서비스(930c)를 실행할 수 있다. Meanwhile, the signal processing device (170) according to the embodiment of the present disclosure can execute an augmented reality microservice (930c) as a microservice corresponding to QM.

이때, 본 개시의 실시예에 따른 신호 처리 장치(170)는, ASIL B에 대응하는 애플리케이션(985) 내의 마이크로 서비스 중 시선 추적 마이크로 서비스(920b)의 결과 데이터를, 안전 레벨이 더 낮은, QM에 대응하는 증강 현실 마이크로 서비스(930c)로 전송할 수 있다.At this time, the signal processing device (170) according to the embodiment of the present disclosure can transmit the result data of the eye tracking microservice (920b) among the microservices in the application (985) corresponding to ASIL B to the augmented reality microservice (930c) corresponding to QM, which has a lower safety level.

이에 따라, QM에 대응하는 증강 현실 마이크로 서비스(930c)는, 시선 추적 마이크로 서비스(920b)의 결과 데이터에 기초하여 실행되며, 증강 현실 마이크로 서비스(930c)의 결과 데이터는 디스플레이(180)로 전송되어 표시될 수 있다.Accordingly, the augmented reality microservice (930c) corresponding to QM is executed based on the result data of the gaze tracking microservice (920b), and the result data of the augmented reality microservice (930c) can be transmitted to the display (180) and displayed.

도 9는 본 개시의 실시예에 따른 신호 처리 장치의 내부 블록도의 일예이다.FIG. 9 is an example of an internal block diagram of a signal processing device according to an embodiment of the present disclosure.

도면을 참조하면, 본 개시의 일 실시예에 따른 시스템(1000) 내의 신호 처리 장치(170)는, 하이퍼바이저(505)를 실행하는 프로세서(175)를 구비한다.Referring to the drawing, a signal processing device (170) in a system (1000) according to one embodiment of the present disclosure includes a processor (175) that executes a hypervisor (505).

한편, 프로세서(175)는, 도 6의 중앙 프로세서(CPU)에 대응할 수 있다.Meanwhile, the processor (175) can correspond to the central processor (CPU) of FIG. 6.

한편, 프로세서(175)는, 복수의 프로세서 코어(core)를 구비할 수 있다.Meanwhile, the processor (175) may have multiple processor cores.

도면에서는, 복수의 프로세서 코어(core)가, 각각 ASIL B의 안전 레벨에 기초하여 동작하는 것을 예시하나, 이와 달리 다양한 변형이 가능하다.The drawing illustrates multiple processor cores each operating based on a safety level of ASIL B, but various variations are possible.

예를 들어, 복수의 프로세서 코어(core) 중 일부는 ASIL B의 안전 레벨에 기초하여 동작하며, 다른 일부는 QM의 안전 레벨에 기초하여 동작할 수 있다.For example, some of the multiple processor cores may operate based on a safety level of ASIL B, while others may operate based on a safety level of QM.

한편, 본 개시의 일 실시예에 따른 신호 처리 장치(170)는, 가장 높은 안전 레벨인 ASIL D의 애플리케이션 등의 실행을 위해, M 코어(core) 또는 MCU(micom nuit)를 포함하는 제2 프로세서(177)를 더 포함할 수 있다.Meanwhile, a signal processing device (170) according to one embodiment of the present disclosure may further include a second processor (177) including an M core or MCU (micom nuit) for executing applications of the highest safety level, ASIL D.

한편, 프로세서(175)는, 하이퍼바이저(505) 상에 복수의 가상화 머신(810~830)을 실행한다.Meanwhile, the processor (175) executes multiple virtual machines (810 to 830) on the hypervisor (505).

한편, 복수의 가상화 머신(810~830) 중 제1 가상화 머신(830)은, ASIL B와 같은 제1 안전 레벨에 대응하는 복수의 마이크로 서비스(910b,915b,920b,930b)를 실행한다.Meanwhile, among the multiple virtualization machines (810 to 830), the first virtualization machine (830) executes multiple microservices (910b, 915b, 920b, 930b) corresponding to the first safety level such as ASIL B.

한편, 복수의 가상화 머신(810~830) 중 제1 가상화 머신(830)은, 복수의 마이크로 서비스 중 제1 마이크로 서비스(920b)의 결과 데이터를, 제1 안전 레벨 이하인 제2 안전 레벨에 대응하는 복수의 가상화 머신(810~830) 중 제2 가상화 머신(820) 또는 제2 신호 처리 장치(170Z) 내의 가상화 머신으로 전송한다. 이에 따라, 마이크로 서비스를 이용하여 효율적으로 데이터 처리를 수행할 수 있게 된다.Meanwhile, among the plurality of virtual machines (810 to 830), the first virtual machine (830) transmits the result data of the first microservice (920b) among the plurality of microservices to the second virtual machine (820) among the plurality of virtual machines (810 to 830) corresponding to the second security level lower than the first security level or to the virtual machine within the second signal processing device (170Z). Accordingly, data processing can be performed efficiently using the microservice.

한편, 제1 가상화 머신(830)은, 제1 안전 레벨에 대응하는 제1 애플리케이션의 실행을 위해, 복수의 마이크로 서비스를 구분하여 실행할 수 있다. Meanwhile, the first virtual machine (830) can execute multiple microservices separately to execute the first application corresponding to the first security level.

즉, 복수의 가상화 머신(810~830) 중 제1 가상화 머신(830)은, ASIL B와 같은 제1 안전 레벨에 대응하는 운전자 모니터링 시스템(DMS) 애플리케이션(905)을 위해, 복수의 마이크로 서비스로서, 얼굴 검출 마이크로 서비스(910b), 눈 움직임 마이크로 서비스(915b), 시선 추적 마이크로 서비스(920b), 경고 마이크로 서비스(930b)를 각각 구분하여 실행할 수 있다. That is, among the plurality of virtual machines (810 to 830), the first virtual machine (830) can separately execute a face detection microservice (910b), an eye movement microservice (915b), a gaze tracking microservice (920b), and a warning microservice (930b) as a plurality of microservices for a driver monitoring system (DMS) application (905) corresponding to a first safety level such as ASIL B.

한편, 제2 가상화 머신(820)은, 제2 안전 레벨에 대응하는 제2 애플리케이션을 실행하며, 제2 애플리케이션은, 제1 마이크로 서비스(920b)의 결과 데이터에 기초하여, 실행될 수 있다. Meanwhile, the second virtual machine (820) executes a second application corresponding to the second security level, and the second application can be executed based on the result data of the first microservice (920b).

예를 들어, 복수의 가상화 머신(810~830) 중 제2 가상화 머신(820)은, 제2 안전 레벨인 QM에 대응하는 마이크로 서비스로, 도 8b와 같이, 증강 현실 마이크로 서비스(930c)를 실행할 수 있다. For example, among multiple virtualization machines (810 to 830), the second virtualization machine (820) can execute an augmented reality microservice (930c) as a microservice corresponding to the second safety level, QM, as shown in FIG. 8b.

한편, 복수의 가상화 머신(810~830) 중 제2 가상화 머신(820)은, 제2 안전 레벨인 QM에 대응하는 마이크로 서비스로, 도 8b와 같이, 얼굴 인식 마이크로 서비스(915a)를 더 실행할 수 있다.Meanwhile, among the multiple virtualization machines (810 to 830), the second virtualization machine (820) can further execute a facial recognition microservice (915a) as a microservice corresponding to the second security level, QM, as shown in FIG. 8b.

한편, 복수의 가상화 머신(810~830) 중 제2 가상화 머신(820)은, QM에 대응하는 마이크로 서비스로, 증강 현실 마이크로 서비스(930c)를 실행할 수 있다. Meanwhile, among the multiple virtualization machines (810 to 830), the second virtualization machine (820) can execute an augmented reality microservice (930c) as a microservice corresponding to QM.

한편, 제1 가상화 머신(830)은, ASIL B에 대응하는 애플리케이션(905) 내의 마이크로 서비스 중 시선 추적 마이크로 서비스(920b)의 결과 데이터를, 안전 레벨이 더 낮은, QM에 대응하는 증강 현실 마이크로 서비스(930c)로 전송할 수 있다.Meanwhile, the first virtual machine (830) can transmit the result data of the eye tracking microservice (920b) among the microservices in the application (905) corresponding to ASIL B to the augmented reality microservice (930c) corresponding to QM, which has a lower safety level.

즉, 제1 가상화 머신(830)은, ASIL B에 대응하는 애플리케이션(905) 내의 마이크로 서비스 중 시선 추적 마이크로 서비스(920b)의 결과 데이터를, 도 8b와 같이, 안전 레벨이 더 낮은, 제2 가상화 머신(820) 내의 증강 현실 마이크로 서비스(930c)로 전송할 수 있다. That is, the first virtual machine (830) can transmit the result data of the eye tracking microservice (920b) among the microservices within the application (905) corresponding to ASIL B to the augmented reality microservice (930c) within the second virtual machine (820), which has a lower safety level, as shown in FIG. 8b.

구체적으로, 제1 가상화 머신(830)은, 수신되는 카메라 데이터에 기초하여, 얼굴 검출 마이크로 서비스(910b), 눈 움직임 마이크로 서비스(915b), 시선 추적 마이크로 서비스(920b), 경고 마이크로 서비스(930b)를 각각 실행하고, 시선 추적 마이크로 서비스(920b)의 결과 데이터를 제2 안전 레벨에 대응하는 제2 가상화 머신(820)으로 전송할 수 있다.Specifically, the first virtual machine (830) may execute a face detection microservice (910b), an eye movement microservice (915b), a gaze tracking microservice (920b), and a warning microservice (930b) based on the received camera data, and transmit the result data of the gaze tracking microservice (920b) to the second virtual machine (820) corresponding to the second safety level.

한편, 제2 가상화 머신(820)은, 시선 추적 마이크로 서비스(920b)의 결과 데이터에 기초하여, 도 8b와 같이, 증강 현실 마이크로 서비스(930c)를 실행하고, 증강 현실 마이크로 서비스(930c)의 결과 데이터를 디스플레이(180)에 표시하도록 제어할 수 있다. Meanwhile, the second virtual machine (820) can be controlled to execute the augmented reality microservice (930c) based on the result data of the eye tracking microservice (920b), as shown in FIG. 8b, and display the result data of the augmented reality microservice (930c) on the display (180).

이와 같이, 제2 가상화 머신(820) 내에서 별도의 시선 추적 마이크로 서비스(920b) 등을 실행하지 않아도 되므로, 효율적으로 데이터 처리를 수행할 수 있게 된다.In this way, since there is no need to run a separate eye tracking microservice (920b) within the second virtual machine (820), data processing can be performed efficiently.

한편, 제1 가상화 머신(830)은, 공유 메모리(508)를 이용하여, 제1 마이크로 서비스(920b)의 결과 데이터를, 제1 안전 레벨 이하인 제2 안전 레벨에 대응하는 적어도 하나의 가상화 머신으로 전송할 수 있다. Meanwhile, the first virtual machine (830) can transmit the result data of the first microservice (920b) to at least one virtual machine corresponding to a second safety level lower than the first safety level using the shared memory (508).

한편, 제1 가상화 머신(830)은, 공유 메모리(508)를 이용하여, 제1 마이크로 서비스(920b)의 결과 데이터를, 제1 안전 레벨 이하인 제2 안전 레벨에 대응하는 제2 가상화 머신(820)으로 전송할 수 있다. Meanwhile, the first virtual machine (830) can transmit the result data of the first micro service (920b) to the second virtual machine (820) corresponding to the second safety level lower than the first safety level using the shared memory (508).

한편, 제1 가상화 머신(830)은, 시선 추적 마이크로 서비스(920b)의 결과 데이터를, 하이퍼바이저(505 ) 내의 공유 메모리를 이용하여 제2 가상화 머신(820) 내의 증강 현실 마이크로 서비스(930c)로 전송할 수 있다. Meanwhile, the first virtual machine (830) can transmit the result data of the eye tracking microservice (920b) to the augmented reality microservice (930c) within the second virtual machine (820) using the shared memory within the hypervisor (505).

이와 같이, 결과 데이터 전송시 공유 메모리(508)를 이용는 경우, 1:n의 결과 데이터 전송이 가능하게 된다.In this way, when using shared memory (508) to transmit result data, 1:n result data transmission becomes possible.

한편, 제2 가상화 머신(820)은, 실행되는 마이크로 서비스의 결과 데이터 또는 애플리케이션의 결과 데이터를 제1 가상화 머신(830)으로 전송하지 않을 수 있다.Meanwhile, the second virtual machine (820) may not transmit the result data of the microservice being executed or the result data of the application to the first virtual machine (830).

즉, 제2 가상화 머신(820)은, 안전 레벨이 더 높은 제1 가상화 머신(830)으로 데이터를 전송하지 않을 수 있다.That is, the second virtual machine (820) may not transmit data to the first virtual machine (830) with a higher security level.

예를 들어, 제2 가상화 머신(820) 내의 얼굴 인식 마이크로 서비스(915a)의 결과 데이터를 제1 가상화 머신(830)로 전송하지 않게 된다. 이에 따라, 각 가상화 머신의 안전 레벨을 유지할 수 있게 된다.For example, the result data of the facial recognition microservice (915a) within the second virtual machine (820) is not transmitted to the first virtual machine (830). Accordingly, the security level of each virtual machine can be maintained.

한편, 복수의 가상화 머신(810~830) 중 제1 가상화 머신(830)은, 복수의 마이크로 서비스 중 제1 마이크로 서비스(920b)의 결과 데이터를, 제1 안전 레벨 보다 높은 제3 안전 레벨의 가상화 머신으로 전송하지 않을 수 있다. Meanwhile, among the plurality of virtual machines (810 to 830), the first virtual machine (830) may not transmit the result data of the first micro service (920b) among the plurality of micro services to a virtual machine of a third safety level higher than the first safety level.

예를 들어, 복수의 가상화 머신(810~830) 중 제3 가상화 머신(810)이 ASIL D로서 제1 안전 레벨 보다 높은 제3 안전 레벨인 경우, 제1 가상화 머신(830)은, 복수의 마이크로 서비스 중 제1 마이크로 서비스(920b)의 결과 데이터를, 제1 안전 레벨 보다 높은 제3 안전 레벨의 제3 가상화 머신(810) 또는 제4 가상화 머신(840)으로 전송하지 않을 수 있다. 이에 따라, 각 가상화 머신의 안전 레벨을 유지할 수 있게 된다.For example, if the third virtual machine (810) among the plurality of virtual machines (810 to 830) has a third safety level higher than the first safety level, such as ASIL D, the first virtual machine (830) may not transmit the result data of the first microservice (920b) among the plurality of microservices to the third virtual machine (810) or the fourth virtual machine (840) at the third safety level higher than the first safety level. Accordingly, the safety level of each virtual machine can be maintained.

한편, 프로세서(175)의 일부 코어는, 제1 가상화 머신(830)을 실행하고, 프로세서(175)의 다른 코어는, 제2 기상화 머신(820)을 실행할 수 있다. Meanwhile, some cores of the processor (175) may execute a first virtual machine (830), and other cores of the processor (175) may execute a second virtual machine (820).

도면에서는, 프로세서(175)의 일부 코어가, 제1 안전 레벨인 ASIL B에 대응하는 제1 가상화 머신(830)을 실행하고, 프로세서(175)의 다른 코어가, 제2 안전 레벨인 QM에 대응하는 제2 기상화 머신(820)을 실행하는 것을 예시한다. 이에 따라, 마이크로 서비스를 이용하여 효율적으로 데이터 처리를 수행할 수 있게 된다. In the drawing, some cores of the processor (175) execute a first virtual machine (830) corresponding to the first safety level, ASIL B, and other cores of the processor (175) execute a second virtual machine (820) corresponding to the second safety level, QM. Accordingly, data processing can be performed efficiently using microservices.

한편, 제2 프로세서(177)는, 가장 높은 안전 레벨인 ASIL D의 애플리케이션 또는 가상화 머신을 실행할 수 있다.Meanwhile, the second processor (177) can execute an application or virtual machine of ASIL D, the highest safety level.

한편, 제2 프로세서(177)에서 실행되는 애플리케이션 또는 가상화 머신의 안전 레벨은, 제1 안전 레벨 보다 더 높을 수 있다. 이에 따라, 인식 서비스의 안정성을 향상시킬 수 있게 된다. Meanwhile, the security level of the application or virtual machine running on the second processor (177) may be higher than the first security level. Accordingly, the stability of the recognition service can be improved.

한편, 제2 가상화 머신(820)은, 수신되는 카메라 데이터에 기초하여, 도 8d와 같이, 얼굴 인식 마이크로 서비스(915a)를 실행하고, 얼굴 인식 마이크로 서비스의 결과 데이터에 기초하여, 추가 마이크로 서비스인 개인용 마이크로 서비스(920a)를 실행할 수 있다. Meanwhile, the second virtual machine (820) can execute a face recognition microservice (915a) based on the received camera data, as shown in FIG. 8d, and execute a personal microservice (920a), which is an additional microservice, based on the result data of the face recognition microservice.

한편, 제2 가상화 머신(820)은, 수신되는 센서 데이터 또는 카메라 데이터에 기초하여, 도 8d와 같이, QM에 대응하는 탑승자 모니터링 애플리케이션(940)을 위해, 탑승자 착석 마이크로 서비스(950b), 탑승자 움직임 마이크로 서비스(955b), 탑승자 검출 마이크로 서비스(960b), 그래픽 제공 마이크로 서비스(965b)를 각각 실행하고, 탑승자 검출 마이크로 서비스(960b)의 서비스 결과 데이터를 제1 가상화 머신(830)으로 전송하지 않을 수 있다. Meanwhile, the second virtual machine (820) may execute the passenger seating microservice (950b), the passenger movement microservice (955b), the passenger detection microservice (960b), and the graphics provision microservice (965b) for the passenger monitoring application (940) corresponding to QM, as shown in FIG. 8d, based on the received sensor data or camera data, and may not transmit the service result data of the passenger detection microservice (960b) to the first virtual machine (830).

한편, 제1 가상화 머신(830)은, 제2 가상화 머신(820)으로부터 탑승자 검출 마이크로 서비스(960b)의 서비스 결과 데이터가 수신되지 않는 경우, 도 8d와 같이, 수신되는 센서 데이터 또는 카메라 데이터에 기초하여, ASIL B에 대응하는 탑승자 모니터링 애플리케이션(945)을 위해, 탑승자 착석 마이크로 서비스(950d), 탑승자 움직임 마이크로 서비스(955d), 탑승자 검출 마이크로 서비스(960d), 경고 마이크로 서비스(965d)를 각각 실행할 수 있다. 이에 따라, 마이크로 서비스를 이용하여 효율적으로 데이터 처리를 수행할 수 있게 된다.Meanwhile, if the service result data of the passenger detection microservice (960b) is not received from the second virtual machine (820), the first virtual machine (830) can execute the passenger seating microservice (950d), the passenger movement microservice (955d), the passenger detection microservice (960d), and the warning microservice (965d) for the passenger monitoring application (945) corresponding to ASIL B, based on the received sensor data or camera data, as shown in FIG. 8d. Accordingly, data processing can be performed efficiently using the microservices.

한편, 본 개시의 다른 실시예에 따른 신호 처리 장치(170) 내의 제1 가상화 머신(830)은, 제1 애플리케이션을 실행하고, 제1 애플리케이션의 결과 데이터 또는 중간 결과 데이터를 제2 가상화 머신(820) 또는 제2 안전 레벨에 대응하는 제2 신호 처리 장치(170Z) 내의 가상화 머신으로 전송한다. 이에 따라, 마이크로 서비스를 이용하여 효율적으로 데이터 처리를 수행할 수 있게 된다.Meanwhile, the first virtual machine (830) within the signal processing device (170) according to another embodiment of the present disclosure executes the first application and transmits the result data or intermediate result data of the first application to the second virtual machine (820) or the virtual machine within the second signal processing device (170Z) corresponding to the second security level. Accordingly, data processing can be efficiently performed using microservices.

한편, 제1 가상화 머신(830)은, 복수의 마이크로 서비스를 포함하는 제1 애플리케이션을 실행하고, 복수의 마이크로 서비스 중 적어도 일부의 결과 데이터를, 제2 가상화 머신(820) 또는 제2 신호 처리 장치(170Z)로 전송할 수 있다. Meanwhile, the first virtual machine (830) may execute a first application including a plurality of microservices and transmit result data of at least some of the plurality of microservices to the second virtual machine (820) or the second signal processing device (170Z).

도 10은 본 개시의 다른 실시예에 따른 신호 처리 장치의 내부 블록도의 일예이다.FIG. 10 is an example of an internal block diagram of a signal processing device according to another embodiment of the present disclosure.

도면을 참조하면, 본 개시의 다른 실시예에 따른 시스템(1000b) 내의 신호 처리 장치(170)는, 제2 신호 처리 장치(170)로 데이터를 전송하거나, 제2 신호 처리 장치(170)로부터 데이터를 수신할 수 있다.Referring to the drawing, a signal processing device (170) in a system (1000b) according to another embodiment of the present disclosure can transmit data to a second signal processing device (170) or receive data from the second signal processing device (170).

도 9와의 차이를 중심으로 기술하면, 제2 신호 처리 장치(170z)는, 영역 신호 처리 장치일 수 있다.Describing the difference from Fig. 9, the second signal processing device (170z) may be an area signal processing device.

제2 신호 처리 장치(170z)는, 하이퍼바이저(505z)를 실행하는 프로세서(175z)를 구비한다.The second signal processing device (170z) has a processor (175z) that executes a hypervisor (505z).

한편, 제2 신호 처리 장치(170z) 내의 프로세서(175z)는, 복수의 프로세서 코어(core)를 구비할 수 있다.Meanwhile, the processor (175z) in the second signal processing device (170z) may have multiple processor cores.

한편, 제2 신호 처리 장치(170z)는, 가장 높은 안전 레벨인 ASIL D의 애플리케이션 등의 실행을 위해, M 코어(core) 또는 MCU(micom nuit)를 포함하는 별도의 프로세서(177z)를 더 포함할 수 있다.Meanwhile, the second signal processing device (170z) may further include a separate processor (177z) including an M core or MCU (micom nuit) for executing applications of the highest safety level, ASIL D.

한편, 프로세서(175z)는, 하이퍼바이저(505) 상에 적어도 하나의 가상화 머신(830z)을 실행할 수 있다.Meanwhile, the processor (175z) can execute at least one virtualization machine (830z) on the hypervisor (505).

한편, 별도의 프로세서(177z)는, M 코어 상에 가장 높은 안전 레벨인 ASIL D에 대응하는 가상화 머신(840z)을 실행할 수 있다.Meanwhile, a separate processor (177z) can run a virtual machine (840z) corresponding to ASIL D, the highest safety level on the M core.

한편, 내부 카메라(195i)로부터의 카메라 데이터는, 신호 처리 장치(170) 또는 제2 신호 처리 장치(170z)로 전송될 수 있다.Meanwhile, camera data from the internal camera (195i) can be transmitted to the signal processing device (170) or the second signal processing device (170z).

도면에서는, 프로세서(175z) 내의 가상화 머신(830z)이 카메라 데이터 기반의 비디오 스트림 애플리케이션9993)을 실행하는 것을 예시한다.In the drawing, a virtual machine (830z) within a processor (175z) is illustrated executing a camera data-based video stream application (9993).

한편, 신호 처리 장치(170) 내의 프로세서(175)는, 제2 신호 처리 장치(170Z)로부터 센서 데이터 또는 카메라 데이터를 수신할 수 있다.Meanwhile, the processor (175) in the signal processing device (170) can receive sensor data or camera data from the second signal processing device (170Z).

한편, 신호 처리 장치(170) 내의 제1 가상화 머신(830)은, 센서 데이터 또는 카메라 데이터에 기초하여, 제1 안전 레벨에 대응하는 복수의 마이크로 서비스를 실행하고, 도 8b와 같이, 복수의 마이크로 서비스 중 제1 마이크로 서비스(920b)의 결과 데이터를, 제1 안전 레벨 이하인 제2 안전 레벨에 대응하는 제2 가상화 머신(820)으로 전송할 수 있다. Meanwhile, the first virtual machine (830) within the signal processing device (170) may execute a plurality of micro-services corresponding to the first safety level based on sensor data or camera data, and, as shown in FIG. 8b, may transmit the result data of the first micro-service (920b) among the plurality of micro-services to the second virtual machine (820) corresponding to the second safety level lower than the first safety level.

한편, 신호 처리 장치(170) 내의 제1 가상화 머신(830)은, 센서 데이터 또는 카메라 데이터에 기초하여, 제1 안전 레벨에 대응하는 복수의 마이크로 서비스를 실행하고, 복수의 마이크로 서비스 중 제1 마이크로 서비스(920b)의 결과 데이터를, 제1 안전 레벨 이하인 제2 안전 레벨에 대응하는 제2 신호 처리 장치(170Z) 내의 가상화 머신으로 전송할 수 있다. Meanwhile, the first virtual machine (830) within the signal processing device (170) may execute a plurality of microservices corresponding to the first safety level based on sensor data or camera data, and transmit the result data of the first microservice (920b) among the plurality of microservices to the virtual machine within the second signal processing device (170Z) corresponding to the second safety level lower than the first safety level.

예를 들어, 신호 처리 장치(170) 내의 제1 가상화 머신(830)은, 시선 추적 마이크로 서비스(920b)의 결과 데이터를, 동일한 안전 레벨인 ASIL B에 대응하는 제2 신호 처리 장치(170Z) 내의 가상화 머신(830z)로 전송할 수 있다.For example, a first virtual machine (830) within a signal processing device (170) can transmit the result data of the gaze tracking microservice (920b) to a virtual machine (830z) within a second signal processing device (170Z) corresponding to the same safety level, ASIL B.

이에 따라, 제2 신호 처리 장치(170Z) 내의 가상화 머신(830z)은, 시선 추적 마이크로 서비스(920b)를 별도로 실행하지 않아도 되므로, 효율적으로 데이터 처리를 수행할 수 있게 된다.Accordingly, the virtual machine (830z) within the second signal processing device (170Z) can perform data processing efficiently without having to separately execute the gaze tracking microservice (920b).

도 11은 본 개시의 실시예에 따른 신호 처리 장치의 동작을 예시하는 도면이다.FIG. 11 is a diagram illustrating the operation of a signal processing device according to an embodiment of the present disclosure.

도면을 참조하면, 본 개시의 실시예에 따른 신호 처리 장치(170)는, 하이퍼바이저(505)를 실행하는 프로세서(175)를 포함한다.Referring to the drawing, a signal processing device (170) according to an embodiment of the present disclosure includes a processor (175) that executes a hypervisor (505).

한편, 본 개시의 실시예에 따른 프로세서(175)는, 하이퍼바이저(505) 상에, 센서 데이터에 기초하여 인식을 수행하는 인식 서비스(1210)와, 인식 서비스(1210)를 모니터링하는 안전 모니터 서비스(1120)를 실행하고, 인식 서비스(1210) 실행시에, 리던던트 인식 서비스(1210b)를 이용하여, 복구 모드를 수행한다. Meanwhile, the processor (175) according to the embodiment of the present disclosure executes, on the hypervisor (505), a recognition service (1210) that performs recognition based on sensor data, and a safety monitor service (1120) that monitors the recognition service (1210), and, when the recognition service (1210) is executed, performs a recovery mode using a redundant recognition service (1210b).

이에 따라, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. 나아가, 센서 데이터 기반의 인식 서비스(1210)의 활용성을 향상시킬 수 있게 된다. Accordingly, the stability of sensor data-based recognition services can be improved. Furthermore, the usability of sensor data-based recognition services (1210) can be improved.

예를 들어, 프로세서(175)는, 하이퍼바이저(505) 상에, RTOS와 같은 운영 체제(1103)를 실행하고, 운영 체제(1103) 상에, 워크로드 오케스트레이터(Workload Orchestrator)(1110)를 실행할 수 있다.For example, the processor (175) may run an operating system (1103), such as an RTOS, on a hypervisor (505), and may run a workload orchestrator (1110) on the operating system (1103).

한편, 프로세서(175)는, 오케스트레이터(1110) 상에 적어도 하나의 애플리케이션을 실행할 수 있다.Meanwhile, the processor (175) can execute at least one application on the orchestrator (1110).

예를 들어, 프로세서(175)는, 오케스트레이터(1110) 상에, 자율 주행 서비스(1140), 차량 운전 보조 서비스(1150), 운전자 모니터링 서비스(1160), 또는 칵핏(Cockpit) 서비스(1170) 등을 실행할 수 있다.For example, the processor (175) can execute an autonomous driving service (1140), a vehicle driving assistance service (1150), a driver monitoring service (1160), or a cockpit service (1170) on the orchestrator (1110).

한편, 프로세서(175)는, 하이퍼바이저(505) 상에, ASIL B 또는 ASIL D에 대응하는 운영 체제(1103) 보다 안전 레벨이 낮은 제2 운영 체제(1104)를 실행하고, 제2 운영 체제(1104) 상에, 워크로드 오케스트레이터(1110)를 실행하고, 오케스트레이터(1110) 상에, 컨테이너 런타임(1181)을 실행하고, 컨테이너 런타임(1181) 상에, IVI 디스플레이를 위한 IVI 서비스(1180)를 실행할 수 있다.Meanwhile, the processor (175) may execute a second operating system (1104) having a lower safety level than the operating system (1103) corresponding to ASIL B or ASIL D on the hypervisor (505), execute a workload orchestrator (1110) on the second operating system (1104), execute a container runtime (1181) on the orchestrator (1110), and execute an IVI service (1180) for an IVI display on the container runtime (1181).

한편, 프로세서(175)는, 각 서비스(1140~1170)의 실행을 위해, 각각 컨테이너 런타임(1141~1171)을 실행하고, 각 컨테이너 런타임(1141~1171) 상에서, 서비스 지향 아키텍쳐(Service Oriented Architecture; SOA) 미들웨어(1143~1173), 플랫폼 라이브러리(1144~1174) 등을 실행할 수 있다.Meanwhile, the processor (175) executes a container runtime (1141 to 1171) for execution of each service (1140 to 1170), and can execute a service-oriented architecture (SOA) middleware (1143 to 1173), a platform library (1144 to 1174), etc. on each container runtime (1141 to 1171).

한편, 프로세서(175)는, 각 플랫폼 라이브러리(1144~1174) 상에, 자율 주행 애플리케이션(1145), 차량 운전 보조 애플리케이션(1155), 운전자 모니터링 애플리케이션(1165) 또는 칵핏(Cockpit) 애플리케이션(1175) 등을 실행할 수 있다.Meanwhile, the processor (175) can execute an autonomous driving application (1145), a vehicle driving assistance application (1155), a driver monitoring application (1165), or a cockpit application (1175) on each platform library (1144 to 1174).

한편, 프로세서(175)는, 컨테이너 런타임(1181) 상에서, 설정 서비스(1184)와 IVI 애플리케이션 등을 실행할 수 있다.Meanwhile, the processor (175) can execute a configuration service (1184) and an IVI application, etc., on the container runtime (1181).

한편, 프로세서(175)는, 오케스트레이터(1110) 내에서, 안전 모니터 서비스(1120)를 실행할 수 있다. Meanwhile, the processor (175) can execute a safety monitor service (1120) within the orchestrator (1110).

이때의 안전 모니터 서비스(1120)는, 인식 안전 모니터 서비스(Perception Safety Monitor Service)일 수 있다.The safety monitor service (1120) at this time may be a perception safety monitor service.

한편, 안전 모니터 서비스(1120)는, 적어도 하나의 애플리케이션(1145~1185)에서 실행되는 인식 서비스(1210)를 모니터링할 수 있다.Meanwhile, the safety monitor service (1120) can monitor the recognition service (1210) running in at least one application (1145 to 1185).

예를 들어, 안전 모니터 서비스(1120)는, 인식 서비스(1210) 동작 중에, 리던던트 인식 서비스(1210b)가 동작하도록 제어하며, 인식 서비스(1210) 장애 발생시, 인식 서비스(1210)로 복구 명령을 전송하고, 리던던트 인식 서비스(1210b)로 활동 명령을 전송할 수 있다. 이에 따라, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. For example, the safety monitor service (1120) controls the operation of the redundant recognition service (1210b) during the operation of the recognition service (1210), and when a failure occurs in the recognition service (1210), it can transmit a recovery command to the recognition service (1210) and an activity command to the redundant recognition service (1210b). Accordingly, the stability of the sensor data-based recognition service can be improved.

한편, 안전 모니터 서비스(1120)는, 인식 서비스(1210) 또는 리던던트 인식 서비스(1210b)로부터의 모니터링 데이터 또는 분석 데이터에 기초하여, 인식 서비스(1210) 또는 리던던트 인식 서비스(1210b) 사이의 동작 전환을 제어할 수 있다. 이에 따라, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. Meanwhile, the safety monitoring service (1120) can control the operation transition between the recognition service (1210) or the redundant recognition service (1210b) based on monitoring data or analysis data from the recognition service (1210) or the redundant recognition service (1210b). Accordingly, the stability of the sensor data-based recognition service can be improved.

한편, 안전 모니터 서비스(1120)는, 인식 서비스(1210) 또는 리던던트 인식 서비스(1210b)로부터의 모니터링 데이터 또는 분석 데이터에 기초하여, 인식 서비스(1210) 또는 리던던트 인식 서비스(1210b) 사이의 동작 전환 기준을 가변할 수 있다. 이에 따라, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. Meanwhile, the safety monitoring service (1120) can vary the operation switching criteria between the recognition service (1210) or the redundant recognition service (1210b) based on monitoring data or analysis data from the recognition service (1210) or the redundant recognition service (1210b). Accordingly, the stability of the sensor data-based recognition service can be improved.

한편, 프로세서(175)는, 센서 데이터에 기초하여 자율 주행(1140) 또는 차량 보조 운전(1150) 또는 운전자 모니터링(1160)을 위한 인식 서비스(1210)를 수행할 수 있다. 이에 따라, 인식 서비스(1210)의 활용성을 향상시킬 수 있게 된다. Meanwhile, the processor (175) can perform a recognition service (1210) for autonomous driving (1140), vehicle assisted driving (1150), or driver monitoring (1160) based on sensor data. Accordingly, the usability of the recognition service (1210) can be improved.

한편, 프로세서(175)는, 센서 데이터에 기초하여, 액티브 스티어링, 레인 유지, 긴급 브레이킹, 자동 레인 변환 또는 트래픽 잼 파일럿(traffic jam pilot)을 위한 인식 서비스(1210)를 수행할 수 있다. 이에 따라, 인식 서비스(1210)의 활용성을 향상시킬 수 있게 된다. Meanwhile, the processor (175) can perform a recognition service (1210) for active steering, lane keeping, emergency braking, automatic lane change, or traffic jam pilot based on sensor data. Accordingly, the usability of the recognition service (1210) can be improved.

한편, 인식 서비스(1210)는, 애플리케이션 실행을 위한 복수의 마이크로 서비스 중 어느 하나일 수 있다. Meanwhile, the recognition service (1210) may be any one of multiple microservices for application execution.

예를 들어, 인식 서비스(1210)는, 오브젝트 검출 또는 오브젝트 트래킹 또는 레인 검출 또는 레인 유지의 실행을 위한 마이크로 서비스에 대응할 수 있다. For example, the recognition service (1210) may correspond to a microservice for executing object detection or object tracking or lane detection or lane maintenance.

즉, 프로세서(175)는, 인식 서비스(1210)에 기초하여, 오브젝트 검출 또는 오브젝트 트래킹을 수행할 수 있다. 이에 따라, 인식 서비스의 활용성을 향상시킬 수 있게 된다. That is, the processor (175) can perform object detection or object tracking based on the recognition service (1210). Accordingly, the usability of the recognition service can be improved.

한편, 프로세서(175)는, 각 애플리케이션(1145~1185)의 실행시, 상술한 바와 같이, 복수의 마이크로 서비스를 실행할 수 있다. 이에 따라, 효율적으로 애플리케이션을 실행할 수 있게 된다.Meanwhile, the processor (175) can execute multiple microservices as described above when executing each application (1145 to 1185). Accordingly, the applications can be executed efficiently.

예를 들어, 프로세서(175)는, 자율 주행 애플리케이션(1145) 실행시, 센서 장치(SN)으로부터 수신되는 센서 데이터 등에 기초하여, 오브젝트 검출 또는 오브젝트 트래킹 또는 레인 검출 또는 레인 유지의 실행을 위한 마이크로 서비스를 실행할 수 있다.For example, when executing an autonomous driving application (1145), the processor (175) may execute a microservice for executing object detection or object tracking or lane detection or lane maintenance based on sensor data received from a sensor device (SN).

다른 예로, 프로세서(175)는, 차량 운전 보조 애플리케이션(1155) 실행시, 센서 장치(SN)으로부터 수신되는 센서 데이터 등에 기초하여, 오브젝트 검출 또는 오브젝트 트래킹 또는 레인 검출을 위한 마이크로 서비스를 실행할 수 있다.As another example, the processor (175) may execute a microservice for object detection, object tracking, or lane detection based on sensor data received from a sensor device (SN) when executing a vehicle driving assistance application (1155).

또 다른 예로, 프로세서(175)는, 운전자 모니터링 애플리케이션(1165) 실행시, 센서 장치(SN)으로부터 수신되는 센서 데이터 등에 기초하여, 오브젝트 검출 또는 오브젝트 트래킹을 위한 마이크로 서비스를 실행할 수 있다.As another example, the processor (175) may execute a microservice for object detection or object tracking based on sensor data received from a sensor device (SN) when executing a driver monitoring application (1165).

한편, 도 11의 신호 처리 장치(170)는, 프로세서(175) 외에, 추가로 MCU(micom unit)를 포함하는 제2 프로세서(177)를 더 포함할 수 있다.Meanwhile, the signal processing device (170) of FIG. 11 may further include, in addition to the processor (175), a second processor (177) including an MCU (micom unit).

이때, 제2 프로세서(177)의 안전 레벨은, 프로세서(175) 보다 높거나 동일할 수 있다. At this time, the safety level of the second processor (177) may be higher than or equal to that of the processor (175).

예를 들어, 제2 프로세서(177)의 안전 레벨은, ASIL D일 수 있으며, 프로세서(175)의 안전 레벨은, ASIL B 또는 ASIL D일 수 있다.For example, the safety level of the second processor (177) may be ASIL D, and the safety level of the processor (175) may be ASIL B or ASIL D.

한편, 제2 프로세서(177)는, 오토사(AUTOSAR)(1106)를 실행하고, 오토사(1106) 상에서, 파워 및 온도 모니터(1191), 워크로드 모니터(1192), 페일 오퍼레이셔널 서비스(1194), 전환(take-over) 서비스(1195), 중재(Arbitrator) 서비스(1196), 세이프티 모니터(1197) 또는 액티브 세이프티(1198) 등을 실행할 수 있다.Meanwhile, the second processor (177) executes AUTOSAR (1106) and can execute a power and temperature monitor (1191), a workload monitor (1192), a fail-operational service (1194), a take-over service (1195), an arbitrator service (1196), a safety monitor (1197), or an active safety (1198) on AUTOSAR (1106).

한편, 제2 프로세서(177)는, 페일 오퍼레이셔널 서비스(1194)를 통해, 디그라데이션(Degradation) 또는 긴급(Emergency) 모드가 수행되도록 제어할 수 있다.Meanwhile, the second processor (177) can control the degradation or emergency mode to be performed through the fail operational service (1194).

한편, 도면과 달리, 프로세서(175)가, 페일 오퍼레이셔널 서비스(1194)를 실행할 수도 있으며, 또는 프로세서(175)가, 디그라데이션(Degradation) 또는 긴급(Emergency) 모드가 수행되도록 제어하는 것도 가능하다.Meanwhile, unlike the drawing, the processor (175) may execute a fail operational service (1194), or the processor (175) may control the execution of a degradation or emergency mode.

도 12a 내지 도 19b는 도 11의 동작 설명에 참조되는 도면이다.Figures 12a to 19b are drawings referenced in the operation description of Figure 11.

도 12a는 도 11의 자율 주행 애플리케이션 내의 다양한 서비스를 예시하는 도면이다.FIG. 12a is a diagram illustrating various services within the autonomous driving application of FIG. 11.

도면을 참조하면, 신호 처리 장치(170) 내의 프로세서(175)는, 자율 주행 애플리케이션(1145)의 실행시, 센서 데이터에 기초하여, 액티브 스티어링(Active steering)(1261), 레인 유지(Lane Keeping)(1263), 긴급 브레이킹(Emwrgency Braking)(1265), 자동 레인 변환(Automatic Lane Change)(1267) 또는 트래픽 잼 파일럿(Traffic Jam Pilot)(1269) 서비스를 실행할 수 있다.Referring to the drawing, the processor (175) in the signal processing device (170) can execute the Active Steering (1261), Lane Keeping (1263), Emergency Braking (1265), Automatic Lane Change (1267), or Traffic Jam Pilot (1269) service based on sensor data when executing the autonomous driving application (1145).

예를 들어, 액티브 스티어링(Active steering)(1261), 레인 유지(Lane Keeping)(1263), 긴급 브레이킹(Emwrgency Braking)(1265), 자동 레인 변환(Automatic Lane Change)(1267) 또는 트래픽 잼 파일럿(Traffic Jam Pilot)(1269) 서비스는, 자율 주행 애플리케이션(1145)의 실행을 위한 마이크로 서비스일 수 있다.For example, Active Steering (1261), Lane Keeping (1263), Emergency Braking (1265), Automatic Lane Change (1267), or Traffic Jam Pilot (1269) services may be microservices for executing an autonomous driving application (1145).

한편, 프로세서(175)는, 센서 데이터에 기초하여, 액티브 스티어링(1261), 레인 유지(1263), 긴급 브레이킹(1265), 자동 레인 변환(1267) 또는 트래픽 잼 파일럿(1269)을 위한 인식 서비스(1210)를 수행할 수 있다. 이에 따라, 인식 서비스(1210)의 활용성을 향상시킬 수 있게 된다. Meanwhile, the processor (175) can perform a recognition service (1210) for active steering (1261), lane keeping (1263), emergency braking (1265), automatic lane change (1267), or traffic jam pilot (1269) based on sensor data. Accordingly, the usability of the recognition service (1210) can be improved.

도 12b는 도 11의 안전 모니터 서비스의 동작 설명에 참조되는 도면이다.Figure 12b is a drawing referenced in the operation description of the safety monitor service of Figure 11.

도면을 참조하면, 신호 처리 장치(170) 내의 인터페이스(1205)는, 다양한 센서 장치(SN)으로부터 센서 데이터를 수신할 수 있다.Referring to the drawing, the interface (1205) within the signal processing device (170) can receive sensor data from various sensor devices (SN).

한편, 프로세서(175)는, 메모리(925) 등에 저장되는 맵 데이터 또는 인터페이스(1205)로부터의 센서 데이터에 기초하여, 자율 주행 애플리케이션(1145) 또는 차량 보조 운전 애플리케이션(1155) 또는 운전자 모니터링 애플리케이션(1165)을 위한 인식 서비스(1210)를 수행할 수 있다.Meanwhile, the processor (175) can perform a recognition service (1210) for an autonomous driving application (1145), a vehicle assisted driving application (1155), or a driver monitoring application (1165) based on map data stored in a memory (925), etc., or sensor data from an interface (1205).

한편, 프로세서(175)는, 차량 주행 상태 또는 날씨 정보, 및 센서 데이터에 기초하여 로컬라이제이션(1250)을 실행하고, 로컬라이제이션(1250)에 기초하여, 인식 서비스(1210)를 실행하고, 인식 서비스(1210)에 기초하여 플래닝(1220)을 실행하고, 플래닝(1220)에 기초하여, 차량 제어 신호를 출력할 수 있다. Meanwhile, the processor (175) may execute localization (1250) based on vehicle driving status or weather information and sensor data, execute recognition service (1210) based on localization (1250), execute planning (1220) based on recognition service (1210), and output a vehicle control signal based on planning (1220).

예를 들어, 안전 모니터 서비스(1120)는, 터널 주행 등과 같은 차량 주행 상태 또는 약한 비(light rain)와 같은 날씨 정보를 로컬라이제이션(1250) 처리를 위해 전송할 수 있다.For example, the safety monitor service (1120) may transmit vehicle driving conditions such as tunnel driving or weather information such as light rain for localization (1250) processing.

한편, 프로세서(175)는, 차량 주행 상태 또는 날씨 정보, 및 센서 데이터에 기초하여 로컬라이제이션(1250)을 수행할 수 있다.Meanwhile, the processor (175) can perform localization (1250) based on vehicle driving status or weather information, and sensor data.

한편, 안전 모니터 서비스(1120)는, 컨피던스 레벨(Confidence Level) 또는 날씨 정보(Weather Condition) 또는 센서 손상(sensor corruption) 등과 같은 정보를 인터페이스(1205)로 전송할 수 있다.Meanwhile, the safety monitor service (1120) can transmit information such as confidence level, weather condition, or sensor corruption to the interface (1205).

한편, 안전 모니터 서비스(1120)는, 딜레이(delay)와 같은 워크로드(workload) 정보를 인식 서비스(1210)로 전송할 수 있다.Meanwhile, the safety monitor service (1120) can transmit workload information, such as delay, to the recognition service (1210).

한편, 프로세서(175)는, 로컬라이제이션(1250)의 결과 또는 딜레이(delay)와 같은 워크로드(workload) 정보에 기초하여, 인식 서비스(1210)를 실행할 수 있다.Meanwhile, the processor (175) can execute a recognition service (1210) based on workload information such as the result of localization (1250) or delay.

예를 들어, 프로세서(175)는, 인식 서비스(1210) 실행을 위해, 검출, 트래킹, 예측과 같은 다이나믹 오브젝트 처리와, 검출, 분류 등과 같은 트래픽 라이트 처리 등을 실행할 수 있다.For example, the processor (175) can execute dynamic object processing such as detection, tracking, and prediction, and traffic light processing such as detection and classification, for executing the recognition service (1210).

한편, 프로세서(175)는, 인식 서비스(1210)의 결과 또는 로컬라이제이션의 결과 등에 기초하여, 플래닝(1220)을 실행할 수 있다.Meanwhile, the processor (175) can execute planning (1220) based on the result of the recognition service (1210) or the result of localization.

구체적으로, 프로세서(175)는, 플래닝(1220) 실행을 위해, 미션 처리, 및 시나리오 처리 등을 수행할 수 있다.Specifically, the processor (175) can perform mission processing, scenario processing, etc., to execute planning (1220).

예를 들어, 프로세서(175)는, 시나리오 처리시, 시나리어 선택, 레인 드라이빙, 파킹 등의 처리를 수행할 수 있다.For example, the processor (175) can perform processing such as scenario selection, lane driving, and parking when processing a scenario.

한편, 프로세서(175)는, 플래닝(1220)의 결과에 기초하여, 차량 컨트롤(1230)을 위한 차량 제어 신호를 출력할 수 있다. Meanwhile, the processor (175) can output a vehicle control signal for vehicle control (1230) based on the result of planning (1220).

이때의 차량 제어 신호는, 차량 인터페이스(1270)를 통해, 차량 내의 각 디바이스로 전달될 수 있다.At this time, the vehicle control signal can be transmitted to each device in the vehicle through the vehicle interface (1270).

예를 들어, 차량 제어 신호는, 스티어링 조절 신호, 레인 유지 신호, 긴급 브레이킹 신호 또는 레인 변경 신호 등일 수 있다.For example, the vehicle control signal may be a steering control signal, a lane keeping signal, an emergency braking signal, or a lane change signal.

이에 따라, 프로세서(175)는, 센서 데이터에 기초하여, 차량 주행 상태 또는 날씨 정보 등에 적합한, 차량 제어를 수행할 수 있게 된다.Accordingly, the processor (175) can perform vehicle control suitable for vehicle driving conditions or weather information, etc., based on sensor data.

한편, 프로세서(175)는, 컨피던스 레벨에 기초하여, 차량 제어를 위한 플래닝(1220) 또는 컨트롤(1230)을 위한 모드를 가변할 수 있다. Meanwhile, the processor (175) can vary the mode for planning (1220) or control (1230) for vehicle control based on the confidence level.

예를 들어, 프로세서(175)는, 컨피던스 레벨에 기초하여, 노말 모드 또는 디그라데이션 모드 또는 긴급 모드 또는 수동 주행 모드가 수행되도록 제어할 수 있다. 이에 따라, 컨피던스 레벨에 기초하여, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. For example, the processor (175) can control the execution of normal mode, degradation mode, emergency mode, or manual driving mode based on the confidence level. Accordingly, the stability of a sensor data-based recognition service can be improved based on the confidence level.

한편, 프로세서(175)는, 인식 서비스(1210) 실행시, 상술한 바와 같이, 리던던트 인식 서비스를 이용하여, 복구 모드가 가능하도록 제어할 수 있다. 이에 따라, 인식 서비스의 안정성을 향상시킬 수 있으며, 결국 안정적인 차량 제어를 수행할 수 있게 된다.Meanwhile, the processor (175) can control the recovery mode to be enabled by utilizing the redundant recognition service, as described above, when executing the recognition service (1210). Accordingly, the stability of the recognition service can be improved, ultimately enabling stable vehicle control.

도 13a는 오케스트레이터의 동작 설명에 참조되는 도면이다.Figure 13a is a drawing referenced in the description of the operation of the orchestrator.

도면을 참조하면, 오케스트레이터(1110)는, 페일 세이프 데이터(1305)를 수신할 수 있다.Referring to the drawing, the orchestrator (1110) can receive fail-safe data (1305).

예를 들어, 페일 세이프 데이터(1305)는, 인식 서비스를 위해, 메인 인식 서비스와 리던던트 인식 서비스를 포함할 수 있다.For example, fail-safe data (1305) may include a main recognition service and a redundant recognition service for the recognition service.

오케스트레이터(1110)는, 페일 세이프 데이터(1305)의 수신에 기초하여, 메인 인식 서비스(1210a)를 모니터링(1310)할 수 있다.The orchestrator (1110) can monitor (1310) the main recognition service (1210a) based on the reception of fail-safe data (1305).

한편, 프로세서(175)는, 페일 세이프 데이터(1305)에 기초하여, 메인 인식 서비스(1210a)를 액티브한 상태로 유지하고, 리던던트 인식 서비스(1210b)를 스탠 바이 상태가 되도록 제어할 수 있다.Meanwhile, the processor (175) can control the main recognition service (1210a) to be kept in an active state and the redundant recognition service (1210b) to be in a standby state based on the fail-safe data (1305).

즉, 안전 모니터 서비스(1120)는, 인식 서비스(1210) 동작 중에, 리던던트 인식 서비스(1210b)의 동작이 일시 정지하도록 제어할 수 있다.That is, the safety monitor service (1120) can control the operation of the redundant recognition service (1210b) to be temporarily suspended during the operation of the recognition service (1210).

한편, 프로세서(175) 내의 메인 인식 서비스(1210a)는, 인터페이스(1205)로부터의 센서 데이터에 기초하여 인식을 수행하고, 인식 결과를 플래닝(1220)으로 전송할 수 있다.Meanwhile, the main recognition service (1210a) within the processor (175) can perform recognition based on sensor data from the interface (1205) and transmit the recognition result to planning (1220).

도 13b는 메인 서비스와 리던던트 서비스가 모두 액티브한 상태인 것을 예시한다.Figure 13b illustrates that both the main service and the redundant service are active.

도면을 참조하면, 프로세서(175)는, 오케스트레이터(1110), 메인 서비스, 리던던트 서비스를 실행할 수 있다.Referring to the drawing, the processor (175) can execute an orchestrator (1110), a main service, and a redundant service.

예를 들어, 메인 서비스는, 메인 인식 서비스(1210a)이고, 리던던트 서비스는, 리던던트 인식 서비스(1210b)일 수 있다.For example, the main service may be a main recognition service (1210a), and the redundant service may be a redundant recognition service (1210b).

즉, 프로세서(175)는, 센서 데이터에 기초하여, 메인 인식 서비스(1210a) 또는 리던던트 인식 서비스(1210b)를 실행할 수 있다.That is, the processor (175) can execute the main recognition service (1210a) or the redundant recognition service (1210b) based on the sensor data.

한편, 프로세서(175)는, 메인 인식 서비스(1210a)와 리던던트 인식 서비스(1210b)를 각각 서로 다른 컨테이너에서 수행되도록 제어할 수 있다.Meanwhile, the processor (175) can control the main recognition service (1210a) and the redundant recognition service (1210b) to be performed in different containers.

도면에서는, 메인 인식 서비스(1210a) 내에 제1 애플리케이션(1226)이 실행되고, 리던던트 인식 서비스(1210b) 내에서 제2 애플리케이션(1236)이 실행되는 것을 예시하나, 다양한 변형이 가능하다.In the drawing, the first application (1226) is executed within the main recognition service (1210a) and the second application (1236) is executed within the redundant recognition service (1210b), but various modifications are possible.

예를 들어, 프로세서(175)는, 메인 인식 서비스(1210a)와 리던던트 인식 서비스(1210b)를 동일한 컨테이너 또는 동일한 애플리케이션 내에서 실행할 수 있다.For example, the processor (175) can run the main recognition service (1210a) and the redundant recognition service (1210b) within the same container or the same application.

한편, 메인 인식 서비스(1210a) 내의 프록시 라우터(1324) 또는 리던던트 인식 서비스(1210b) 내의 프록시 라우터(1334)는, 데이터를 시뮬레이터(1330)로 전송할 수 있다.Meanwhile, a proxy router (1324) within the main recognition service (1210a) or a proxy router (1334) within the redundant recognition service (1210b) can transmit data to the simulator (1330).

한편, 메인 인식 서비스(1210a) 내의 모니터(1322) 또는 리던던트 인식 서비스(1210b) 내의 모니터(1324)는, 각각, 프록시 라우터(1324) 또는 프록시 라우터(1334)를 모니터링할 수 있다.Meanwhile, the monitor (1322) within the main recognition service (1210a) or the monitor (1324) within the redundant recognition service (1210b) can monitor the proxy router (1324) or the proxy router (1334), respectively.

예를 들어, 메인 인식 서비스(1210a) 내의 모니터(1322) 또는 리던던트 인식 서비스(1210b) 내의 모니터(1324)는, 데이터 오류 발생 시, 오케스트레이터(1110)에 실패(Failure) 통지를 전송할 수 있다.For example, a monitor (1322) within the main recognition service (1210a) or a monitor (1324) within the redundant recognition service (1210b) may send a failure notification to the orchestrator (1110) when a data error occurs.

한편, 메인 인식 서비스(1210a) 내의 모니터(1322) 또는 리던던트 인식 서비스(1210b) 내의 모니터(1324)는, 주기적인 모니터링을 통해 장애를 감지하거나, 에러 검출을 수행할 수 있다.Meanwhile, the monitor (1322) within the main recognition service (1210a) or the monitor (1324) within the redundant recognition service (1210b) can detect a failure or perform error detection through periodic monitoring.

한편, 오케스트레이터(1110)는, 인식 서비스(1210) 또는 리던던트 인식 서비스(1210b) 내의 모니터링 모듈(1322,1332) 또는 관리 모듈을 업데이트하도록 제어할 수 있다. 이에 따라, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. Meanwhile, the orchestrator (1110) can control the updating of the monitoring module (1322, 1332) or management module within the recognition service (1210) or the redundant recognition service (1210b). Accordingly, the stability of the sensor data-based recognition service can be improved.

도 13c는 도 13b의 메인 인식 서비스 또는 리던던트 인식 서비스의 동작 설명에 참조되는 도면이다.Figure 13c is a drawing referenced in the operation description of the main recognition service or redundant recognition service of Figure 13b.

도면을 참조하면, 프로세서(175)는, 메인 인식 서비스(1210a)와 리던던트 인식 서비스(1210b)가, 기본 상태인 동작(running) 상태(1392)에서 데이터 전송을 시도하도록 제어할 수 있다.Referring to the drawing, the processor (175) can control the main recognition service (1210a) and the redundant recognition service (1210b) to attempt data transmission in the default state, which is the running state (1392).

한편, 프로세서(175)는, 리던던트 인식 서비스(1210b)에 의해 전송되는 데이터는 차단(block)되도록 제어할 수 있다.Meanwhile, the processor (175) can control data transmitted by the redundant recognition service (1210b) to be blocked.

한편, 프로세서(175)는, 메인 인식 서비스(1210a)의 장애 발생으로 전송이 중단 상태(1396)인 경우, 오케스트레이터(1110)를 통해, 재시작(restart) 명령을 메인 인식 서비스(1210a)로 전송하도록 제어할 수 있다.Meanwhile, if the transmission is interrupted (1396) due to a failure of the main recognition service (1210a), the processor (175) can control the orchestrator (1110) to transmit a restart command to the main recognition service (1210a).

한편, 프로세서(175)는, 메인 인식 서비스(1210a)와 리던던트 인식 서비스(1210b)가 모두 액티브 상태인 경우, 일시 정지 상태(1394)는 비활성화되도록 제어할 수 있다.Meanwhile, the processor (175) can control the pause state (1394) to be deactivated when both the main recognition service (1210a) and the redundant recognition service (1210b) are active.

도 13d는 메인 서비스가 액티브 상태이고 리던던트 서비스가 패시브 상태인 것을 예시한다.Figure 13d illustrates that the main service is active and the redundant service is passive.

도면을 참조하면, 프로세서(175)는, 도 13b와 같이, 오케스트레이터(1110), 메인 인식 서비스(1210a), 리던던트 인식 서비스(1210b)를 실행할 수 있다.Referring to the drawing, the processor (175) can execute an orchestrator (1110), a main recognition service (1210a), and a redundant recognition service (1210b), as shown in FIG. 13b.

한편, 프로세서(175)는, 센서 데이터에 기초하여, 메인 인식 서비스(1210a)가 동작 상태(1392)가 되도록 제어하고, 리던던트 인식 서비스(1210b)가 일시 정지 상태((1394)가 되도록 제어할 수 있다.Meanwhile, the processor (175) can control the main recognition service (1210a) to be in an operating state (1392) and the redundant recognition service (1210b) to be in a paused state (1394) based on sensor data.

이에 따라, 메인 인식 서비스(1210a)는, 데이터 전송을 수행하며, 리던던트 인식 서비스(1210b)는 데이터 전송이 일시 정지될 수 있다.Accordingly, the main recognition service (1210a) performs data transmission, and the redundant recognition service (1210b) may temporarily suspend data transmission.

한편, 프로세서(175)는, 메인 인식 서비스(1210a)의 장애 발생으로 전송이 중단 상태(1396)인 경우, 오케스트레이터(1110)를 통해, 복구(recovery) 명령을 리던던트 인식 서비스(1210b)로 전송하도록 제어할 수 있다.Meanwhile, if the transmission is interrupted (1396) due to a failure of the main recognition service (1210a), the processor (175) can control the orchestrator (1110) to transmit a recovery command to the redundant recognition service (1210b).

이에 따라, 리던던트 인식 서비스(1210b)는, 복구(recovery) 명령에 기초하여, 동작을 시작하게 된다. 이에 따라, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다. Accordingly, the redundant recognition service (1210b) begins operation based on the recovery command. This improves the stability of the sensor data-based recognition service.

한편, 프로세서(175)는, 메인 인식 서비스(1210a)의 장애 발생으로 전송이 중단 상태(1396)인 경우, 메인 인식 서비스(1210a)로의 재시작 명령을 비활성화할 수 있다.Meanwhile, the processor (175) can disable a restart command to the main recognition service (1210a) when transmission is interrupted (1396) due to a failure of the main recognition service (1210a).

도 14는 오케스트레이터 내의 안전 모니터 서비스의 동작 설명에 참조되는 도면이다.Figure 14 is a drawing referenced in the description of the operation of the safety monitor service within the orchestrator.

도면을 참조하면, 프로세서(175)는, 인터페이스(1205)를 통해 센서 데이터를 수신하고, 센서 데이터에 기초하여 인식 서비스(1210)를 수행하고, 인식 서비스(1210)의 결과에 기초하여 플래닝(1220)을 실행할 수 있다.Referring to the drawing, the processor (175) can receive sensor data through the interface (1205), perform a recognition service (1210) based on the sensor data, and execute planning (1220) based on the result of the recognition service (1210).

한편, 인식 서비스(1210)는, 도면과 같이, 페일 세이프 데이터(1305b)를 수신할 수 있다. Meanwhile, the recognition service (1210) can receive fail-safe data (1305b), as shown in the drawing.

예를 들어, 페일 세이프 데이터(1305b)는, 인식 서비스를 위해, 메인 인식 서비스와 리던던트 인식 서비스를 포함할 수 있다.For example, fail-safe data (1305b) may include a main recognition service and a redundant recognition service for the recognition service.

한편, 오케스트레이터(1110)는, 도 11과 같이, 안전 모니터 서비스(1120)를 실행할 수 있다.Meanwhile, the orchestrator (1110) can execute a safety monitor service (1120), as shown in FIG. 11.

한편, 오케스트레이터(1110) 내의 안전 모니터 서비스(1120)는, 페일 세이프 데이터(1305b)를 안전 모니터 서비스(1120)로부터 수신할 수 있다.Meanwhile, the safety monitor service (1120) within the orchestrator (1110) can receive fail-safe data (1305b) from the safety monitor service (1120).

한편, 프로세서(175)는, 페일 세이프 데이터(1305b)에 기초하여, 메인 인식 서비스(1210a)를 액티브한 상태로 유지하고, 리던던트 인식 서비스(1210b)를 스탠 바이 상태가 되도록 제어할 수 있다.Meanwhile, the processor (175) can control the main recognition service (1210a) to be in an active state and the redundant recognition service (1210b) to be in a standby state based on the fail-safe data (1305b).

즉, 프로세서(175)는, 메인 인식 서비스(1210a) 동작 중에, 리던던트 인식 서비스(1210b)의 동작이 일시 정지하도록 제어할 수 있다.That is, the processor (175) can control the operation of the redundant recognition service (1210b) to be temporarily suspended during the operation of the main recognition service (1210a).

도면에서는, 메인 인식 서비스(1210a) 내에 제1 인식 서비스(1327)가 실행되고, 리던던트 인식 서비스(1210b) 내에서 제2 인식 서비스(1337)이 실행되는 것을 예시하나, 다양한 변형이 가능하다.In the drawing, the first recognition service (1327) is executed within the main recognition service (1210a), and the second recognition service (1337) is executed within the redundant recognition service (1210b), but various modifications are possible.

한편, 메인 인식 서비스(1210a) 내의 프록시 라우터(1324) 또는 리던던트 인식 서비스(1210b) 내의 프록시 라우터(1334)는, 인식 결과 데이터를 플래닝(1220)으로 전송할 수 있다.Meanwhile, a proxy router (1324) within the main recognition service (1210a) or a proxy router (1334) within the redundant recognition service (1210b) can transmit recognition result data to planning (1220).

한편, 메인 인식 서비스(1210a) 내의 분석 모듈(1325) 또는 리던던트 인식 서비스(1210b) 내의 분석 모듈(1335)은, 각각, 메인 인식 서비스(1210a) 또는 리던던트 인식 서비스(1210b)의 컨피던스 레벨 또는 컨피던스 스코어를 연산하여 출력할 수 있다. Meanwhile, the analysis module (1325) within the main recognition service (1210a) or the analysis module (1335) within the redundant recognition service (1210b) can calculate and output the confidence level or confidence score of the main recognition service (1210a) or the redundant recognition service (1210b), respectively.

한편, 오케스트레이터(1110)는 게이트웨이(1505)를 더 실행할 수 있다.Meanwhile, the orchestrator (1110) can further execute the gateway (1505).

도면과 달리, 오케스트레이터(1110) 내의 게이트웨이(1505)는, 페일 세이프 데이터(1305b)를 수신할 수 있으며, 페일 세이프 데이터(1305b)를 인식 서비스(1210) 등에 배포하거나 모니터링하거나 관리할 수 있다.Unlike the drawing, the gateway (1505) within the orchestrator (1110) can receive fail-safe data (1305b) and distribute, monitor, or manage the fail-safe data (1305b) to a recognition service (1210), etc.

한편, 게이트웨이(1505)는, 분석 모듈(1325) 또는 분석 모듈(1335)로부터, 메인 인식 서비스(1210a) 또는 리던던트 인식 서비스(1210b)의 컨피던스 레벨 또는 컨피던스 스코어를 수신할 수 있다.Meanwhile, the gateway (1505) can receive the confidence level or confidence score of the main recognition service (1210a) or the redundant recognition service (1210b) from the analysis module (1325) or the analysis module (1335).

도 15는 도 14의 게이트웨이의 동작 설명에 참조되는 도면이다.Figure 15 is a drawing referenced in the description of the operation of the gateway of Figure 14.

도면을 참조하면, 게이트웨이(1505)는, 분석 모듈(1325) 또는 분석 모듈(1335)로부터의 컨피던스 레벨 또는 컨피던스 스코어에 기초하여, 동작 결과 데이터(1305c)를 처리 또는 연산할 수 있다.Referring to the drawing, the gateway (1505) can process or calculate the operation result data (1305c) based on the confidence level or confidence score from the analysis module (1325) or the analysis module (1335).

한편, 게이트웨이(1505)는, 메인 인식 서비스(1210a)의 컨피던스 레벨 또는 컨피던스 스코어 등에 기초하여 복구 동작이 순차적으로 수행되도록 제어할 수 있다.Meanwhile, the gateway (1505) can control the recovery operation to be performed sequentially based on the confidence level or confidence score of the main recognition service (1210a).

예를 들어, 게이트웨이(1505)는, 메인 인식 서비스(1210a)의 컨피던스 레벨 또는 컨피던스 스코어가 제1 레벨(예를 들어, 70)인 경우, 리던던트 인식 서비스(1210b)가 준비되도록 제어할 수 있다.For example, the gateway (1505) can control the redundant recognition service (1210b) to be prepared when the confidence level or confidence score of the main recognition service (1210a) is the first level (e.g., 70).

다른 예로, 게이트웨이(1505)는, 메인 인식 서비스(1210a)의 컨피던스 레벨 또는 컨피던스 스코어가 제2 레벨(예를 들어, 40)인 경우, 리던던트 인식 서비스(1210b)를 동작(action)시키도록 제어할 수 있다.As another example, the gateway (1505) may control the redundant recognition service (1210b) to take action when the confidence level or confidence score of the main recognition service (1210a) is at the second level (e.g., 40).

즉, 게이트웨이(1505)는, 컨피던스 레벨 또는 컨피던스 스코어가, 제1 레벨에서 제2 레벨로 순차적으로 낮아지는 경우, 리던던트 인식 서비스(1210b)가 준비된 상태에서, 동작 상태로 순차적으로 변환되도록 제어할 수 있다.That is, the gateway (1505) can control the redundant recognition service (1210b) to be sequentially converted to an operational state in a ready state when the confidence level or confidence score sequentially decreases from the first level to the second level.

이에 따라, 인식 서비스(1210) 실행시에, 리던던트 인식 서비스(1210b)를 이용하여, 복구 모드를 수행할 수 있게 된다. 결국, 센서 데이터 기반의 인식 서비스의 안정성을 향상시킬 수 있게 된다.Accordingly, when executing the recognition service (1210), a recovery mode can be performed using the redundant recognition service (1210b). Consequently, the stability of the sensor data-based recognition service can be improved.

도 16은 자율 주행을 위한 복수의 신호 처리 장치의 동작 설명에 참조되는 도면이다.Figure 16 is a drawing referenced in the description of the operation of multiple signal processing devices for autonomous driving.

도면을 참조하면, 자율 주행 애플리케이션의 실행을 위해, 제1 신호 처리 장치(170a) 내의 프로세서(175a)는, 운영 체제(1605)를 실행하고, 운영 체제(1605) 상에, 미들웨어(1610)를 실행할 수 있다.Referring to the drawing, for executing an autonomous driving application, a processor (175a) within a first signal processing device (170a) may execute an operating system (1605) and execute middleware (1610) on the operating system (1605).

한편, 제1 신호 처리 장치(170a) 내의 프로세서(175a)는, 미들웨어(1610) 상에서, 카메라, 레이더, 라이더 등의 센서 데이터를 처리하는 센서 퓨전 서비스(1620), HD 맵, 로드 지오메트리, 레인 마킹 등의 매핑 서비스(1626), 위치 정보, 3D 지오 메트리 등의 로컬라이제이션 서비스(1630), 내부 모니터링(1643)와 외부 모니터링(1644) 등의 분석 서비스(1640), 인식 서비스(1210), 플래닝 서비스(1220), 컨트롤 서비스(1645) 등을 실행할 수 있다.Meanwhile, the processor (175a) in the first signal processing device (170a) can execute, on the middleware (1610), a sensor fusion service (1620) that processes sensor data such as a camera, radar, and lidar, a mapping service (1626) such as an HD map, road geometry, and lane marking, a localization service (1630) such as location information and 3D geometry, an analysis service (1640) such as internal monitoring (1643) and external monitoring (1644), a recognition service (1210), a planning service (1220), a control service (1645), etc.

한편, 제1 신호 처리 장치(170a) 내의 프로세서(175a)는, 인식 서비스(1210) 외에 추가로 안전 모니터 서비스(1120)를 실행할 수 있다.Meanwhile, the processor (175a) in the first signal processing device (170a) can execute a safety monitor service (1120) in addition to the recognition service (1210).

한편, 제1 신호 처리 장치(170a) 내의 프로세서(175a)는, 트래픽 잼 어시스트(1670)를 위한, 오브젝트 검출(1672), 오브젝트 트래킹(1674), 레인 검출(1674), 및 레인 센터링(1678) 등과 같은 애플리케이션(1670)을 실행할 수 있다. Meanwhile, the processor (175a) within the first signal processing device (170a) can execute applications (1670) such as object detection (1672), object tracking (1674), lane detection (1674), and lane centering (1678) for traffic jam assist (1670).

한편, 제1 신호 처리 장치(170a)와 이더넷 등의 통신을 수행하는 제2 신호 처리 장치(170b)는 프로세서(175b)를 구비할 수 있다.Meanwhile, the second signal processing device (170b) that performs communication such as Ethernet with the first signal processing device (170a) may be equipped with a processor (175b).

한편, 제2 신호 처리 장치(170b) 내의 프로세서(175b)는, 하이퍼바이저(505b)를 실행하고, 하이퍼바이저(505b) 상에, 제1 운영 체제(1605b)를 실행하고, 제1 운영 체제(1605b) 상에 미들웨어(1610b)를 실행할 수 있다.Meanwhile, the processor (175b) within the second signal processing device (170b) can execute a hypervisor (505b), execute a first operating system (1605b) on the hypervisor (505b), and execute middleware (1610b) on the first operating system (1605b).

한편, 제2 신호 처리 장치(170b) 내의 프로세서(175b)는, 미들웨어(1610b) 상에, 운전자 모니터링(1680), 인텔리전트 칵핏(1682), 차량 운전 보조(ADAS)(1684) 등을 실행할 수 있다.Meanwhile, the processor (175b) in the second signal processing device (170b) can execute driver monitoring (1680), intelligent cockpit (1682), vehicle driving assistance (ADAS) (1684), etc. on the middleware (1610b).

한편, 제2 신호 처리 장치(170b) 내의 프로세서(175b)는, 하이퍼바이저(505b) 상에, 제1 운영 체제(1605b)과 별도의 제2 운영 체제(1605c)를 실행하고, 제2 운영 체제(1605c) 상에 설정 서비스(1683), IVI 애플리케이션(1685) 등을 실행할 수 있다.Meanwhile, the processor (175b) in the second signal processing device (170b) can execute a second operating system (1605c) separate from the first operating system (1605b) on the hypervisor (505b), and can execute a setting service (1683), an IVI application (1685), etc. on the second operating system (1605c).

한편, 제2 신호 처리 장치(170b) 내의 프로세서(175b)는, 인식 서비스(1210)와, 안전 모니터 서비스(1120)를 실행할 수 있다.Meanwhile, the processor (175b) in the second signal processing device (170b) can execute a recognition service (1210) and a safety monitor service (1120).

도 17a는 다양한 모드가 수행되는 것을 예시하는 도면이다.Figure 17a is a diagram illustrating various modes being performed.

도면을 참조하면, 신호 처리 장치(170) 내의 프로세서(175)는, 노말 모드를 수행하다가(S1710), 컨피던스 레벨에 기초하여, 디그라데이션(degradation) 모드를 수행할 수 있다(S1715).Referring to the drawing, the processor (175) within the signal processing device (170) may perform a normal mode (S1710) and then perform a degradation mode based on the confidence level (S1715).

예를 들어, 프로세서(175)는, 인식 서비스(1210)에 기초하여, 노말 모드에서 디그라데이션 모드로 전환할 수 있다.For example, the processor (175) can switch from normal mode to degradation mode based on the recognition service (1210).

구체적으로, 신호 처리 장치(170) 내의 프로세서(175)는, 도 15와 같이, 컨피던스 레벨이 제1 레벨인 경우, 노말 모드를 수행하다가, 컨피던스 레벨이 제1 레벨 보다 낮은 제2 레벨인 경우, 노말 모드를 중지하고, 디그라데이션(degradation) 모드를 수행하도록 제어할 수 있다.Specifically, the processor (175) within the signal processing device (170) can be controlled to perform normal mode when the confidence level is the first level, as shown in FIG. 15, and to stop normal mode and perform degradation mode when the confidence level is the second level lower than the first level.

여기서, 디그라데이션(degradation) 모드는, 리던던트 인식 서비스(1210b)의 동작에 기초한 복구 모드를 포함할 수 있다.Here, the degradation mode may include a recovery mode based on the operation of the redundant recognition service (1210b).

한편, 프로세서(175)는, 디그라데이션 모드에서 차량 속도를 저감하거나 스티어링 조정을 수행하도록 제어할 수 있다. 이에 따라, 인식 서비스의 활용성을 향상시킬 수 있게 된다. Meanwhile, the processor (175) can control the vehicle to reduce speed or adjust steering in degradation mode. Accordingly, the usability of the recognition service can be improved.

한편, 프로세서(175)는, 디그라데이션 모드 수행 중에 전환 요청에 따라 긴급 모드 또는 수동 운전 모드가 수행되도록 제어할 수 있다. Meanwhile, the processor (175) can control the execution of an emergency mode or a manual driving mode according to a switching request while performing the degradation mode.

예를 들어, 프로세서(175)는, 디그라데이션 모드 수행 중에 전환 요청이 소정 시간 이내에 수신되는 경우(S1720), 수동 운전 모드가 수행되도록 제어할 수 있다(S1728). For example, the processor (175) can control the manual driving mode to be performed (S1728) when a switching request is received within a predetermined time while performing the degradation mode (S1720).

다른 예로, 프로세서(175)는, 디그라데이션 모드 수행 중에 전환 요청이 소정 시간 이내에 수신되지 않는 경우, 긴급 모드가 수행되도록 제어할 수 있다(S1725). 그리고, 프로세서(175)는, 긴급 모드에 따라, 차량이 정지하도록 제어할 수 있다(S1735).As another example, the processor (175) may control the emergency mode to be executed if a transition request is not received within a predetermined time while performing the degradation mode (S1725). In addition, the processor (175) may control the vehicle to stop according to the emergency mode (S1735).

즉, 프로세서(175)는, 인식 서비스(1210)에 기초하여, 디그라데이션 모드를 수행하는 중에 전환 요청에 기초하여, 긴급 모드를 수행한 이후, 차량이 정지하도록 제어할 수 있다. 이에 따라, 인식 서비스의 활용성을 향상시킬 수 있게 된다. That is, the processor (175) can control the vehicle to stop after performing the emergency mode based on a transition request while performing the degradation mode based on the recognition service (1210). Accordingly, the usability of the recognition service can be improved.

한편, 프로세서(175)는, 수동 운전 모드 수행 중에, 자율 주행 요청이 있는 경우(S1730), 다시 자율 주행을 위한 노말 모드가 수행되도록 제어할 수 있다(S1710). Meanwhile, the processor (175) can control the normal mode for autonomous driving to be performed again (S1710) when there is a request for autonomous driving (S1730) while performing manual driving mode.

도 17b는 도 17a의 설명에 참조되는 도면이다.Figure 17b is a drawing referenced in the description of Figure 17a.

도면을 참조하면, 프로세서(175)는, Ta1 시점까지, 노말 모드가 수행되도록 제어할 수 있다. 이에 따라, 차량 속도는 대략 Ya3일 수 있다.Referring to the drawing, the processor (175) can control the normal mode to be performed until the Ta1 point. Accordingly, the vehicle speed can be approximately Ya3.

한편, 프로세서(175)는, 인식 서비스(1210)에 기초하여, 노말 모드에서 디그라데이션 모드로 전환할 수 있다.Meanwhile, the processor (175) can switch from normal mode to degradation mode based on the recognition service (1210).

즉, 프로세서(175)는, Ta1 시점 이후 부터, 디그라데이션 모드에 따라, 차량 속도가 하강하여 대략 Ya2 까지 하강하도록 제어할 수 있다.That is, the processor (175) can control the vehicle speed to decrease to approximately Ya2, depending on the degradation mode, from the Ta1 point in time.

한편, 프로세서(175)는, 디그라데이션 모드에 따라, 차량 속도가 하강한 이후 일정 속도은 Ya2를 소정 기간 동안 유지하도록 제어할 수 있다.Meanwhile, the processor (175) can control the vehicle speed to be maintained at a constant speed Ya2 for a predetermined period of time after the vehicle speed decreases, depending on the degradation mode.

한편, 프로세서(175)는, 디그라데이션 모드 수행 중에 전환 요청에 따라 긴급 모드 또는 수동 운전 모드가 수행되도록 제어할 수 있다. Meanwhile, the processor (175) can control the execution of an emergency mode or a manual driving mode according to a switching request while performing the degradation mode.

예를 들어, 프로세서(175)는, 디그라데이션 모드 수행 중에 전환 요청이 소정 시간 이내에 수신되는 경우, 수동 운전 모드로 전환되도록 제어할 수 있다.For example, the processor (175) can control to switch to manual driving mode when a switching request is received within a predetermined time while performing degradation mode.

도면에서는 수동 운전 모드 전환에 의해, Ts3 시점부터, 차량 속도가 상승하는 것을 예시한다.The drawing illustrates that the vehicle speed increases from the Ts3 point by switching to manual driving mode.

다른 예로, 프로세서(175)는, 디그라데이션 모드 수행 중에 전환 요청이 소정 시간 이내에 수신되지 않는 경우, 긴급 모드가 수행되도록 제어할 수 있다. As another example, the processor (175) can control the emergency mode to be performed if a transition request is not received within a predetermined time while performing the degradation mode.

도면에서는, 긴급 모드 수행에 따라, Ta4 시점부터, 차량 속도가 하강하는 것을 예시한다. The drawing illustrates that, depending on the emergency mode execution, the vehicle speed decreases from the Ta4 point.

즉, 프로세서(175)는, 긴급 모드 수행에 따라, 차량 속도를 저감하도록 제어할 수 있다.That is, the processor (175) can control the vehicle speed to be reduced depending on the emergency mode execution.

한편, 프로세서(175)는, 긴급 모드 수행에 따라, 차량 속도 저감 이후에, 결국 차량이 정지하도록 제어할 수 있다. 이에 따라, 차량 안전을 도모할 수 있게 된다. Meanwhile, the processor (175) can control the vehicle to eventually stop after reducing the vehicle speed according to the emergency mode execution. Accordingly, vehicle safety can be ensured.

도면에서는, 차량 속도가 Ta5 시점에, Ya1인 것을 예시하나, Ya1는 차량 정지에 대응할 수 있다. In the drawing, the vehicle speed is exemplified as Ya1 at time Ta5, but Ya1 can correspond to the vehicle stopping.

도 18은 차량 주행을 위한 프로세서의 동작 설명에 참조되는 도면이다.Figure 18 is a drawing for reference in explaining the operation of a processor for vehicle driving.

도면을 참조하면, 센서 장치(SN)는, 차량 센서(1802), 관성 센서(1804), 라이더(196), 레이더(197), 카메라(195), 위치 센서(1806), 속도 센서(1808) 등을 포함할 수 있다.Referring to the drawing, the sensor device (SN) may include a vehicle sensor (1802), an inertial sensor (1804), a lidar (196), a radar (197), a camera (195), a position sensor (1806), a speed sensor (1808), etc.

센서 장치(SN)로부터의 다양한 센서 데이터는, 신호 처리 장치(170) 내의 프로세서(175)로 입력될 수 있다.Various sensor data from the sensor device (SN) can be input to the processor (175) in the signal processing device (170).

한편, 프로세서(175) 내의 인터페이스(1205)는, 센서 장치(SN)로부터의 센서 데이터를 수신하고, 센서 데이터를 인식 서비스(1210)로 전송할 수 있다.Meanwhile, the interface (1205) within the processor (175) can receive sensor data from a sensor device (SN) and transmit the sensor data to a recognition service (1210).

이를 위해, 인터페이스(1205)는, ROS 브릿지(1813), 오토웨어 브릿지(autoware bridge)(1815)를 실행 또는 구비할 수 있다.For this purpose, the interface (1205) may run or be equipped with a ROS bridge (1813) or an autoware bridge (1815).

예를 들어, ROS 브릿지(1813)는, 센서 장치(SN)로부터의 센서 데이터를 인식 서비스(1210)로 전송하고, 인식 서비스(1210) 또는 안전 모니터 서비스(1120)로부터의 제어 명령(command)을 센서 장치(SN)로 전송할 수 있다.For example, the ROS bridge (1813) can transmit sensor data from a sensor device (SN) to a recognition service (1210) and transmit control commands from the recognition service (1210) or a safety monitor service (1120) to the sensor device (SN).

구체적으로, ROS 브릿지(1813)는, 관성 센서(1804)로부터의 센서 데이터 또는 위치 센서(1806)로부터의 센서 데이터를 인식 서비스(1210) 내의 로컬라이제이션(1822)로 전송할 수 있다.Specifically, the ROS bridge (1813) can transmit sensor data from an inertial sensor (1804) or sensor data from a position sensor (1806) to localization (1822) within the perception service (1210).

한편, ROS 브릿지(1813)는, 라이더(196) 또는 레이더(197) 또는 카메라(195)로부터의 센서 데이터를 인식 서비스(1210) 내의 오브젝트 검출 트래킹(1824)으로 전송할 수 있다.Meanwhile, the ROS bridge (1813) can transmit sensor data from a lidar (196) or radar (197) or camera (195) to object detection tracking (1824) within the recognition service (1210).

한편, 오토웨어 브릿지(1815)는, 속도 센서(1808)로부터의 속도 데이터 또는 차량 상태 데이터를 플래닝(1220)으로 전송할 수 있다.Meanwhile, the autoware bridge (1815) can transmit speed data or vehicle status data from the speed sensor (1808) to the planning (1220).

한편, 인식 서비스(1210)는, 자율 주행 또는 차량 운전 보조 등을 위해, 로컬라이제이션(1822), 오브젝트 검출 트래킹(1824) 등을 실행할 수 있다.Meanwhile, the recognition service (1210) can execute localization (1822), object detection tracking (1824), etc. for autonomous driving or vehicle driving assistance.

한편, 안전 모니터 서비스(1120)는, 인식 서비스(1210)를 모니터링할 수 있다.Meanwhile, the safety monitor service (1120) can monitor the recognition service (1210).

한편, 플래닝(1220)은, 인식 서비스(1210)의 결과 데이터, 예를 들어, 장애물 또는 포즈 등에 기초하여, 플래닝을 실행할 수 있다.Meanwhile, planning (1220) can execute planning based on the result data of the recognition service (1210), for example, obstacles or poses.

이를 위해, 플래닝(1220)은, 차량 패쓰와 관련한 글러벌 패쓰 플래닝(global path planning)(1832), 로컬 패쓰 플래닝(local path planning)(1834), 경로 추종(pure pursuit)(1836) 등을 실행할 수 있다.To this end, planning (1220) can execute global path planning (1832), local path planning (1834), and pure pursuit (1836) related to vehicle paths.

예를 들어, 글러벌 패쓰 플래닝(1832)와 로컬 패쓰 플래닝(1834)은, 인식 서비스(1210)로부터 장애물 및 포즈 데이터에 기초하여, 패쓰 플래닝을 연산 또는 실행할 수 있다.For example, global path planning (1832) and local path planning (1834) can compute or execute path planning based on obstacle and pose data from the recognition service (1210).

한편, 경로 추종(1836)은, 로컬 패쓰 플래닝(1834)으로부터의 로컬 궤적(Local Trajectory) 데이터와, 오토웨어 브릿지(1815)로부터의 속도 데이터 또는 차량 상태 데이터에 기초하여, 경로 추종을 실행할 수 있다.Meanwhile, path following (1836) can execute path following based on local trajectory data from local path planning (1834) and speed data or vehicle status data from autoware bridge (1815).

한편, 센서 장치(SN) 내의 카메라(195)로부터의 카메라 데이터에 기초하여 신호 처리 수행시, 물체와의 정확한 거리를 알기 어려우며, 날씨 상태에 상당히 의존하는 단점이 있다.Meanwhile, when performing signal processing based on camera data from a camera (195) within a sensor device (SN), it is difficult to know the exact distance to an object, and there is a disadvantage in that it is significantly dependent on weather conditions.

이에, 프로세서(175)는, 카메라(195)로부터의 카메라 데이터에 기초하여, 근거리 오브젝트인, 보행자, 자전거 등의 오브젝트 검출을 수행할 수 있다.Accordingly, the processor (175) can perform object detection, such as a pedestrian or bicycle, which is a close-range object, based on camera data from the camera (195).

한편, 센서 장치(SN) 내의 레이더(197)로부터의 레이터 데이터에 기초하여, 신호 처리 수행시, 작은 물체 식별이 어려우며, 물체의 종류를 판독할 수 없다는 단점이 있다.Meanwhile, when performing signal processing based on radar data from a radar (197) within a sensor device (SN), there is a disadvantage in that it is difficult to identify small objects and the type of object cannot be read.

이에, 프로세서(175)는, 레이더(197)로부터의 레이터 데이터에 기초하여, 원거리 오브젝트 인지, 야간 차량 인지 또는 우천 상태에서의 오브젝트 인지 등을 수행할 수 있다.Accordingly, the processor (175) can perform long-distance object recognition, night-time vehicle recognition, or object recognition in rainy conditions, based on radar data from the radar (197).

한편, 센서 장치(SN) 내의 라이더(196)로부터의 라이더 데이터에 기초하여, 신호 처리 수행시, 레이더(197)에 비해 탐지 거리가 짧으며, 기상 상황에 민감한 단점이 있다.Meanwhile, when performing signal processing based on lidar data from lidar (196) within a sensor device (SN), the detection distance is shorter than that of radar (197) and there is a disadvantage in that it is sensitive to weather conditions.

이에, 프로세서(175)는, 라이더(196)로부터의 라이더 데이터에 기초하여, 중거리 오브젝트 인지, 야간 차량 인지 또는 바닥의 소형 오브젝트 인지 등을 수행할 수 있다.Accordingly, the processor (175) can perform mid-range object recognition, night-time vehicle recognition, or small object recognition on the ground, based on the rider data from the rider (196).

한편, 프로세서(175)는, 복수의 센서 데이터에 기반한 센서 퓨전 처리를 수행할 수 있다.Meanwhile, the processor (175) can perform sensor fusion processing based on multiple sensor data.

예를 들어, 프로세서(175)는, 라이더(196)로부터의 라이더 데이터에 기초하여 제1 오브젝트 검출을 수행하고, 카메라(195)로부터의 카메라 데이터에 기초하여 제2 오브젝트 검출하고, 제1 오브젝트 검출과 제2 오브젝트 검출에 기초하여 오브젝트 매칭을 수행할 수 있다. 이에 따라, 보다 정밀한 오브젝트 검출 또는 매칭이 수행될 수 있게 된다.For example, the processor (175) may perform first object detection based on rider data from the rider (196), detect a second object based on camera data from the camera (195), and perform object matching based on the first object detection and the second object detection. Accordingly, more precise object detection or matching may be performed.

도 19a는 도 18의 로컬라이제이션의 설명에 참조되는 도면이다.Figure 19a is a drawing referenced in the description of localization of Figure 18.

도면을 참조하면, 프로세서(175) 내의 인터페이스(1205)는, 센서 장치(SN)로부터의 센서 데이터를 수신하고, 센서 데이터를 인식 서비스(1210)로 전송할 수 있다.Referring to the drawing, an interface (1205) within a processor (175) can receive sensor data from a sensor device (SN) and transmit the sensor data to a recognition service (1210).

예를 들어, 프로세서(175) 내의 인터페이스(1205)는, 라이더(196)로부터의 라이더 데이터, 위치 센서(1806)으로부터의 위치 데이터를 수신할 수 있다.For example, the interface (1205) within the processor (175) can receive rider data from a rider (196) and position data from a position sensor (1806).

한편, 프로세서(175) 내의 라이더 드라이버(1902)는, 라이더 데이터를 처리하여, 3차원 라이더 데이터를 출력할 수 있다.Meanwhile, the rider driver (1902) within the processor (175) can process rider data and output 3D rider data.

한편, 프로세서(175) 내의 위치 정보 드라이버(1912)는, 위치 데이터를 처리하여, 샘플 위치 데이터를 출력할 수 있다.Meanwhile, the location information driver (1912) within the processor (175) can process location data and output sample location data.

한편, 프로세서(175) 내의 기준 로컬라이제이션 맵 로더(1914)는, 기준 로컬라이제이션 맵(1916)과 샘플 위치 데이터에 기초하여, 라이다 기준 맵(Lidar reference map)을 출력할 수 있다.Meanwhile, the reference localization map loader (1914) within the processor (175) can output a Lidar reference map based on the reference localization map (1916) and sample location data.

한편, 프로세서(175) 내의 라이더 오도메트리(Lidar Odometry)는, 오브젝트의 위치를 연산하고, 연산된 위치 정보를 출력할 수 있다.Meanwhile, Lidar Odometry within the processor (175) can calculate the position of an object and output the calculated position information.

한편, 프로세서(175) 내의 제1 보정기(1906)는, 라이다 기준 맵과 연산된 위치 정보에 기초하여, 글로벌 보정인 제1차 보정(correction)을 실행할 수 있다.Meanwhile, the first corrector (1906) within the processor (175) can execute the first correction, which is a global correction, based on the position information calculated with the lidar reference map.

한편, 프로세서(175) 내의 제2 보정기(1908)는, 제1 보정기(1906)의 결과 데이터와 라이다 기준 맵에 기초하여, 제2차 보정(correction)을 실행할 수 있다.Meanwhile, the second corrector (1908) within the processor (175) can perform a second correction based on the result data of the first corrector (1906) and the lidar reference map.

한편, 프로세서(175) 내의 출력 필터(1909)는, 제2 보정기(1908)의 결과 데이터를 필터링하여 출력할 수 있다.Meanwhile, the output filter (1909) within the processor (175) can filter and output the result data of the second compensator (1908).

이에 따라, 프로세서(175) 내의 로컬라이제이션(1822)은, 라이더 데이터 또는 위치 센서(1806)으로부터의 위치 데이터에 기반한 로컬라이제이션을 실행할 수 있다.Accordingly, the localization (1822) within the processor (175) can execute localization based on the rider data or the location data from the location sensor (1806).

도 19b는 프로세서에서 실행되는 다양한 모드를 예시하는 도면이다.Figure 19b is a diagram illustrating various modes executed on the processor.

도면을 참조하면, 한편, 프로세서(175)는, 인식 서비스(1210)에 기초하여, 페일 세이프 모드 또는 디그라데이션 모드 또는 페일 오퍼레이션 모드를 수행하도록 제어할 수 있다.Referring to the drawing, on the other hand, the processor (175) can be controlled to perform a fail-safe mode, a degradation mode, or a fail operation mode based on the recognition service (1210).

특히, 프로세서(175)는, 컨피던스 레벨 등에 기초하여, 페일 세이프(fail safe) 모드 또는 디그라데이션 모드 또는 페일 오퍼레이션(Fail-operationa) 모드가 수행되도록 제어할 수 있다. In particular, the processor (175) can control the execution of a fail-safe mode, a degradation mode, or a fail-operation mode based on a confidence level, etc.

이때, 페일 오퍼레이션 모드는, 상술한 노말 모드에 대응할 수 있으며, 페일 세이프 모드는, 상술한 긴급(emergency) 모드 또는 수동 주행 모드에 대응할 수 있다.At this time, the fail operation mode can correspond to the above-described normal mode, and the fail safe mode can correspond to the above-described emergency mode or manual driving mode.

예를 들어, 프로세서(175)는, 페일 오퍼레이션 모드에 따라, 리던던시 서비스, 예를 들어, 리던던트 인식 서비스(1210b) 등을 실행할 수 있다.For example, the processor (175) may execute a redundancy service, for example, a redundant recognition service (1210b), depending on the fail operation mode.

한편, 프로세서(175)는, 디그라데이션 모드에 따라, 디그라데이션 모드에서 차량 속도를 저감하거나 스티어링 조정을 수행하도록 제어할 수 있다.Meanwhile, the processor (175) can control the vehicle to reduce speed or perform steering adjustment in the degradation mode, depending on the degradation mode.

한편, 프로세서(175)는, 페일 세이프 모드에 따라, 운전자에 의존하는 수동 주행 모드로 동작하도록 제어할 수 있다.Meanwhile, the processor (175) can be controlled to operate in a manual driving mode that depends on the driver, depending on the fail-safe mode.

한편, 도면에서는, 설명의 편의를 위해, 컨피던스 레벨이 0 또는 1인 경우, 페일 세이프 모드가 수행되고, 컨피던스 레벨이 2 또는 3인 경우, 디그라데이션 모드가 수행되고, 컨피던스 레벨이 4 또는 5인 경우, 페일 오퍼레이션 모드가 수행되는 것을 예시한다.Meanwhile, in the drawing, for convenience of explanation, it is illustrated that when the confidence level is 0 or 1, the fail-safe mode is performed, when the confidence level is 2 or 3, the degradation mode is performed, and when the confidence level is 4 or 5, the fail-operation mode is performed.

즉, 프로세서(175)는, 컨피던스 레벨이 가장 낮은 경우, 페일 세이프 모드를 수행하도록 제어하고, 컨피던스 레벨이 가장 높은 경우, 페일 오퍼레이션 모드를 수행하도록 제어할 수 있다.That is, the processor (175) can be controlled to perform fail-safe mode when the confidence level is the lowest, and can be controlled to perform fail-operation mode when the confidence level is the highest.

도 20은 본 개시의 실시예에 따른 신호 처리 장치의 동작방법을 나타내는 순서도의 일예이다.FIG. 20 is an example of a flowchart showing an operation method of a signal processing device according to an embodiment of the present disclosure.

도면을 참조하면, 신호 처리 장치(170) 내의 프로세서(175)는, 자율 주행 또는 차량 운전 보조 애플리케이션을 실행할 수 있다(S2010).Referring to the drawing, the processor (175) within the signal processing device (170) can execute an autonomous driving or vehicle driving assistance application (S2010).

이때, 프로세서(175)는, 센서 데이터에 기초하여 인식을 수행하는 인식 서비스(1210)와, 인식 서비스(1210)를 모니터링하는 안전 모니터 서비스(1120)를 실행할 수 있다.At this time, the processor (175) can execute a recognition service (1210) that performs recognition based on sensor data and a safety monitor service (1120) that monitors the recognition service (1210).

한편, 프로세서(175) 내의 안전 모니터 서비스(1120)는, 모니터링 신호가 수신되는 지 여부를 판단하고(S2015), 해당하는 경우, 다이나믹 주행 태스크(dynamic driving task)가 수행되도록 제어할 수 있다(S2044).Meanwhile, the safety monitor service (1120) within the processor (175) can determine whether a monitoring signal is received (S2015) and, if so, control the dynamic driving task to be performed (S2044).

한편, 프로세서(175) 내의 안전 모니터 서비스(1120)는, 모니터링 신호가 수신되지 않는 경우, 컴포넌트를 리셋할 수 있다.Meanwhile, the safety monitor service (1120) within the processor (175) can reset the component if a monitoring signal is not received.

예를 들어, 프로세서(175)는, 페일 세이프 모드에서 프로세서(175)에서 실행되는 컴포넌트를 리셋할 수 있다. 이에 따라, 인식 서비스의 활용성을 향상시킬 수 있게 된다. For example, the processor (175) can reset a component running on the processor (175) in fail-safe mode. Accordingly, the usability of the recognition service can be improved.

한편, 프로세서(175) 내의 안전 모니터 서비스(1120)는, 모니터링 신호가 수신되지 않으며, 소정 시간(Ts) 이내에 전환 요청이 있는 지 여부를 판단하고(S2022), 해당하는 경우, 전환 알람 통지가 실행되도록 제어할 수 있다(S2025).Meanwhile, the safety monitor service (1120) within the processor (175) determines whether a monitoring signal is not received and a switching request is made within a predetermined time (Ts) (S2022), and if so, controls a switching alarm notification to be executed (S2025).

이때의 전환 요청은, 디그라데이션 모드로의 전환 요청일 수 있다.The transition request at this time may be a transition request to degradation mode.

그리고, 프로세서(175) 내의 안전 모니터 서비스(1120)는, 디그라데이션 모드가 수행되도록 제어할 수 있다(S2030).And, the safety monitor service (1120) within the processor (175) can control the degradation mode to be performed (S2030).

예를 들어, 프로세서(175)는, 디그라데이션 모드에 따라, 차량의 속도가 저감되도록 제어할 수 있다.For example, the processor (175) can control the speed of the vehicle to be reduced depending on the degradation mode.

다음, 프로세서(175)는, 디그라데이션 모드 수행 중에, 제2 소정 시간(Tsb) 이내에 전환 요청이 있는 지 여부를 판단하고, 해당하는 경우, 수동 주행 모드가 수행되도록 제어할 수 있다(S2035).Next, the processor (175) can determine whether there is a switching request within a second predetermined time (Tsb) while performing the degradation mode, and if so, control the manual driving mode to be performed (S2035).

한편, 프로세서(175)는, 디그라데이션 모드 수행 중에, 전환 요청이 없거나, 전환 요청이 제2 소정 시간(Tsb)을 도과한 경우, 세이프 상태인 지 여부를 판단하고(S2037), 세이프 상태가 아닌 경우, 긴급 모드로서 레인에 차량이 정지하도록 제어할 수 있다(S2040).Meanwhile, the processor (175), when performing degradation mode, if there is no switching request or if the switching request has passed the second predetermined time (Tsb), determines whether the vehicle is in a safe state (S2037), and if not in a safe state, controls the vehicle to stop in the lane as an emergency mode (S2040).

한편, 프로세서(175)는, 제2037 단계(S2037)에서, 세이프 상태인 경우, 레인을 변경하여 갓길(shoulder)로 이동하도록 제어할 수 있다(S2042).Meanwhile, the processor (175), in step 2037 (S2037), if in a safe state, can control the lane to be changed to move to the shoulder (S2042).

이에 따라, 다양한 모드를 수행하면서, 주행 서비스의 안정성을 향상시킬 수 있게 된다. Accordingly, the stability of driving services can be improved while performing various modes.

결국, 도 20에 따르면, 프로세서(175)는, 자율 주행 모드 수행 중에 모니터링 신호가 수신되지 않는 경우, 페일 세이프 모드를 수행하며, 페일 세이프 모드가 실패하는 경우, 디그라데이션 모드를 수행하고, 디그라데이션 모드 이후, 대체 동작을 수행하거나, 차량을 정지하도록 제어할 수 있다. 이에 따라, 인식 서비스의 활용성을 향상시킬 수 있게 된다. Finally, according to FIG. 20, if a monitoring signal is not received while the autonomous driving mode is being performed, the processor (175) performs fail-safe mode. If the fail-safe mode fails, the processor performs degradation mode. After the degradation mode, the processor performs an alternative operation or controls the vehicle to stop. Accordingly, the usability of the recognition service can be improved.

도 21은 도 20의 설명에 참조되는 도면이다.Figure 21 is a drawing referenced in the description of Figure 20.

도면을 참조하면, 신호 처리 장치(170) 내의 레인 컨트롤 모듈(2140)은, 차량 센서 장치들(2130)로부터 요 레이트(2131), 롤 레이트(2133), 피치 레이트(2135), 가속 정보(2137) 등을 수신할 수 있다.Referring to the drawing, the lane control module (2140) within the signal processing device (170) can receive yaw rate (2131), roll rate (2133), pitch rate (2135), acceleration information (2137), etc. from the vehicle sensor devices (2130).

한편, 외부 환경 데이터 드라이버(2105)는, 수집되는 외부 환경 데이터를 레인 검출 센서들(2120) 또는 디스플레이(180)로 제공할 수 있다.Meanwhile, the external environment data driver (2105) can provide the collected external environment data to rain detection sensors (2120) or a display (180).

한편, 신호 처리 장치(170) 내의 레인 컨트롤 모듈(2140)은, 레인 검출 센서들(2120) 중 오프 라인 센서(2121) 또는 온 라인 센서(2123)로부터 센서 데이터를 수신할 수 있다.Meanwhile, the rain control module (2140) within the signal processing device (170) can receive sensor data from an offline sensor (2121) or an online sensor (2123) among the rain detection sensors (2120).

예를 들어, 오프 라인 센서(2121) 또는 온 라인 센서(2123)로부터 센서 데이터는, 로드 곡률(Road Curvature), 레인 마킹, 레인 폭, 위치 정보, 도로 위험, 로컬 맵 데이터 등을 포함할 수 있다.For example, sensor data from an offline sensor (2121) or an online sensor (2123) may include road curvature, lane markings, lane width, location information, road hazards, local map data, etc.

한편, 레인 컨트롤 모듈(2140)은, 차량 센서 장치들(2130) 또는 레인 컨트롤 모듈(2140)로부터의 센서 데이터에 기초하여, 레인 컨트롤이 수행되도록 제어할 수 있다.Meanwhile, the rain control module (2140) can control the rain control to be performed based on sensor data from the vehicle sensor devices (2130) or the rain control module (2140).

예를 들어, 레인 컨트롤 모듈(2140)은, 센서 데이터에 기초하여, 스티어링 정보, 브레이킹 정보, 토크 정보 등을 출력할 수 있다.For example, the lane control module (2140) can output steering information, braking information, torque information, etc. based on sensor data.

한편, 컨트롤 모듈(2150) 내의 스티어링 모듈(2151)은, 스티어링 정보에 기초하여, 스티어링 제어 신호를 차량 인터페이스(2160)로 출력할 수 있다.Meanwhile, the steering module (2151) within the control module (2150) can output a steering control signal to the vehicle interface (2160) based on steering information.

한편, 컨트롤 모듈(2150) 내의 스티어링 모듈(2151)은, 스티어링 정보에 기초하여, 스티어링 제어 신호를 차량 인터페이스(2160)로 출력할 수 있다.Meanwhile, the steering module (2151) within the control module (2150) can output a steering control signal to the vehicle interface (2160) based on the steering information.

한편, 컨트롤 모듈(2150) 내의 브레이킹 모듈(2153)은, 브레이킹 정보에 기초하여, 브레이킹 제어 신호를 차량 인터페이스(2160)로 출력할 수 있다.Meanwhile, the braking module (2153) within the control module (2150) can output a braking control signal to the vehicle interface (2160) based on the braking information.

한편, 컨트롤 모듈(2150) 내의 추진 모듈(2157)은, 추진 정보에 기초하여, 추진 제어 신호를 출력할 수 있다.Meanwhile, the propulsion module (2157) within the control module (2150) can output a propulsion control signal based on propulsion information.

한편, 컨트롤 모듈(2150) 내의 액티브 차등 모듈(2158)은, 추진 정보 등에 기초하여, 가속 제어 신호를 차량 인터페이스(2160)로 출력할 수 있다.Meanwhile, the active differential module (2158) within the control module (2150) can output an acceleration control signal to the vehicle interface (2160) based on propulsion information, etc.

한편, 레인 컨트롤 모듈(2140)에서 출력되는 차량 상태 정보 등은, 디스플레이 인터페이스(2110)로 전송될 수 있다.Meanwhile, vehicle status information output from the rain control module (2140) can be transmitted to the display interface (2110).

한편, 디스플레이 인터페이스(2110)는, 메인 컨트롤 정보(2113), 서브 컨트롤 정보(2112), 칵핏 정보(2115), 운전자 상태 모니터링 정보(2117) 등을 출력하여, 디스플레이(180)에 표시되도록 할 수 있다.Meanwhile, the display interface (2110) can output main control information (2113), sub-control information (2112), cockpit information (2115), driver status monitoring information (2117), etc., and display them on the display (180).

이상에서는 본 개시의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.Although the preferred embodiments of the present disclosure have been illustrated and described above, the present disclosure is not limited to the specific embodiments described above, and various modifications may be made by a person skilled in the art to which the present invention pertains without departing from the gist of the present disclosure as claimed in the claims, and such modifications should not be understood individually from the technical idea or prospect of the present disclosure.

Claims (20)

하이퍼바이저를 실행하는 프로세서;를 포함하고,a processor running a hypervisor; 상기 프로세서는,The above processor, 하이퍼바이저 상에, 센서 데이터에 기초하여 인식을 수행하는 인식 서비스와, 상기 인식 서비스를 모니터링하는 안전 모니터 서비스를 실행하고,On the hypervisor, a recognition service that performs recognition based on sensor data and a safety monitor service that monitors the recognition service are executed, 상기 인식 서비스 실행시에, 리던던트 인식 서비스를 이용하여, 복구 모드를 수행하는 신호 처리 장치.A signal processing device that performs recovery mode by using a redundant recognition service when executing the above recognition service. 제1항에 있어서,In the first paragraph, 상기 안전 모니터 서비스는,The above safety monitoring service is, 상기 인식 서비스 동작 중에, 상기 리던던트 인식 서비스가 동작하도록 제어하며,During the operation of the above recognition service, the redundant recognition service is controlled to operate, 상기 인식 서비스 장애 발생시, 상기 인식 서비스로 복구 명령을 전송하고, 상기 리던던트 인식 서비스로 활동 명령을 전송하는 것인 신호 처리 장치.A signal processing device that transmits a recovery command to the recognition service and an activity command to the redundant recognition service when the above recognition service failure occurs. 제1항에 있어서,In the first paragraph, 상기 안전 모니터 서비스는,The above safety monitoring service is, 상기 인식 서비스 동작 중에, 상기 리던던트 인식 서비스의 동작이 일시 정지하도록 제어하며,During the operation of the above recognition service, the operation of the redundant recognition service is controlled to be temporarily suspended, 상기 인식 서비스 장애 발생시, 상기 인식 서비스로 복구 명령을 전송하고, 상기 리던던트 인식 서비스로 시작 명령을 전송하는 것인 신호 처리 장치.A signal processing device that transmits a recovery command to the recognition service and a start command to the redundant recognition service when the above recognition service failure occurs. 제1항에 있어서,In the first paragraph, 상기 안전 모니터 서비스는,The above safety monitoring service is, 상기 인식 서비스 또는 상기 리던던트 인식 서비스로부터의 모니터링 데이터 또는 분석 데이터에 기초하여, 상기 인식 서비스 또는 상기 리던던트 인식 서비스 사이의 동작 전환을 제어하는 것인 신호 처리 장치.A signal processing device that controls the switching of operations between the recognition service or the redundant recognition service based on monitoring data or analysis data from the recognition service or the redundant recognition service. 제1항에 있어서,In the first paragraph, 상기 안전 모니터 서비스는,The above safety monitoring service is, 상기 인식 서비스 또는 상기 리던던트 인식 서비스로부터의 모니터링 데이터 또는 분석 데이터에 기초하여, 상기 인식 서비스 또는 상기 리던던트 인식 서비스 사이의 동작 전환 기준을 가변하는 것인 신호 처리 장치.A signal processing device that varies the operation switching criteria between the recognition service or the redundant recognition service based on monitoring data or analysis data from the recognition service or the redundant recognition service. 제1항에 있어서,In the first paragraph, 상기 안전 모니터 서비스는,The above safety monitoring service is, 상기 인식 서비스 또는 상기 리던던트 인식 서비스 내의 모니터링 모듈 또는 관리 모듈을 업데이트하도록 제어하는 것인 신호 처리 장치.A signal processing device that controls updating of a monitoring module or a management module within the above recognition service or the above redundant recognition service. 제1항에 있어서,In the first paragraph, 상기 안전 모니터 서비스는,The above safety monitoring service is, 컨피던스 레벨에 기초하여, 차량 제어를 위한 플래닝 또는 컨트롤을 위한 모드를 가변하는 것인 신호 처리 장치.A signal processing device that varies a mode for planning or controlling vehicle control based on a confidence level. 제1항에 있어서,In the first paragraph, 상기 프로세서는,The above processor, 상기 센서 데이터에 기초하여 자율 주행 또는 차량 보조 운전 또는 운전자 모니터링을 위한 상기 인식 서비스를 수행하는 것인 신호 처리 장치.A signal processing device that performs the recognition service for autonomous driving or vehicle assisted driving or driver monitoring based on the above sensor data. 제1항에 있어서,In the first paragraph, 상기 프로세서는,The above processor, 상기 센서 데이터에 기초하여, 액티브 스티어링, 레인 유지, 긴급 브레이킹, 자동 레인 변환 또는 트래픽 잼 파일럿을 위한 상기 인식 서비스를 수행하는 것인 신호 처리 장치.A signal processing device that performs the recognition service for active steering, lane keeping, emergency braking, automatic lane change or traffic jam pilot based on the above sensor data. 제1항에 있어서,In the first paragraph, 상기 프로세서는,The above processor, 차량 주행 상태 또는 날씨 정보, 및 상기 센서 데이터에 기초하여 로컬라이제이션을 실행하고, 상기 로컬라이제이션에 기초하여, 상기 인식 서비스를 실행하고, 상기 인식 서비스에 기초하여 플래닝을 실행하고, 상기 플래닝에 기초하여, 차량 제어 신호를 출력하는 것인 신호 처리 장치.A signal processing device that executes localization based on vehicle driving status or weather information and the sensor data, executes the recognition service based on the localization, executes planning based on the recognition service, and outputs a vehicle control signal based on the planning. 제1항에 있어서,In the first paragraph, 상기 인식 서비스는,The above recognition service is, 애플리케이션 실행을 위한 복수의 마이크로 서비스 중 어느 하나인 것인 신호 처리 장치.A signal processing unit that is one of multiple microservices for running an application. 제1항에 있어서,In the first paragraph, 상기 인식 서비스는,The above recognition service is, 오브젝트 검출 또는 오브젝트 트래킹 또는 레인 검출 또는 레인 유지의 실행을 위한 마이크로 서비스에 대응하는 것인 신호 처리 장치.A signal processing device corresponding to a microservice for executing object detection or object tracking or lane detection or lane maintenance. 제1항에 있어서,In the first paragraph, 상기 프로세서는,The above processor, 상기 인식 서비스에 기초하여, 노말 모드에서 디그라데이션 모드로 전환하거나, 상기 디그라데이션 모드 수행 중에 전환 요청에 따라 긴급 모드 또는 수동 운전 모드가 수행되도록 제어하는 것인 신호 처리 장치.A signal processing device that controls switching from normal mode to degradation mode based on the above recognition service, or performing emergency mode or manual driving mode according to a switching request while performing the degradation mode. 제1항에 있어서,In the first paragraph, 상기 프로세서는,The above processor, 상기 인식 서비스에 기초하여, 디그라데이션 모드를 수행하는 중에 전환 요청에 기초하여 긴급 모드를 수행한 이후, 차량이 정지하도록 제어하는 것인 신호 처리 장치.A signal processing device that controls the vehicle to stop after performing an emergency mode based on a transition request while performing a degradation mode based on the above recognition service. 제1항에 있어서,In the first paragraph, 상기 프로세서는,The above processor, 상기 인식 서비스에 기초하여, 오브젝트 검출 또는 상기 오브젝트 트래킹을 수행하는 것인 신호 처리 장치.A signal processing device that performs object detection or object tracking based on the above recognition service. 제1항에 있어서,In the first paragraph, 상기 프로세서는,The above processor, 상기 인식 서비스에 기초하여, 페일 세이프 모드 또는 디그라데이션 모드 또는 페일 오퍼레이션 모드를 수행하도록 제어하는 것인 신호 처리 장치.A signal processing device that controls to perform fail-safe mode, degradation mode, or fail operation mode based on the above recognition service. 제1항에 있어서,In the first paragraph, 상기 프로세서는,The above processor, 자율 주행 모드 수행 중에 모니터링 신호가 수신되지 않는 경우, 페일 세이프 모드를 수행하며, 상기 페일 세이프 모드가 실패하는 경우, 디그라데이션 모드를 수행하고, 상기 디그라데이션 모드 이후, 대체 동작을 수행하거나, 차량을 정지하도록 제어하는 것인 신호 처리 장치.A signal processing device that performs a fail-safe mode when a monitoring signal is not received while performing an autonomous driving mode, performs a degradation mode when the fail-safe mode fails, and performs an alternative operation or controls the vehicle to stop after the degradation mode. 제17항에 있어서,In Article 17, 상기 프로세서는,The above processor, 상기 페일 세이프 모드에서 컴포넌트를 리셋하는 것인 신호 처리 장치.A signal processing device that resets a component in the above fail-safe mode. 제17항에 있어서,In Article 17, 상기 프로세서는,The above processor, 상기 디그라데이션 모드에서 차량 속도를 저감하거나 스티어링 조정을 수행하도록 제어하는 것인 신호 처리 장치.A signal processing device that controls to reduce vehicle speed or perform steering adjustment in the above degradation mode. 적어도 하나의 디스플레이;At least one display; 상기 디스플레이에 영상 신호를 출력하는 신호 처리 장치;를 포함하고,A signal processing device for outputting a video signal to the display; 상기 신호 처리 장치는,The above signal processing device, 제1항 내지 제19항의 신호 처리 장치를 포함하는 차량용 디스플레이 장치.A vehicle display device comprising a signal processing device according to any one of claims 1 to 19.
PCT/KR2024/001303 2024-01-26 2024-01-26 Signal processing device, and vehicle display device comprising same Pending WO2025159225A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2024/001303 WO2025159225A1 (en) 2024-01-26 2024-01-26 Signal processing device, and vehicle display device comprising same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2024/001303 WO2025159225A1 (en) 2024-01-26 2024-01-26 Signal processing device, and vehicle display device comprising same

Publications (1)

Publication Number Publication Date
WO2025159225A1 true WO2025159225A1 (en) 2025-07-31

Family

ID=96545082

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2024/001303 Pending WO2025159225A1 (en) 2024-01-26 2024-01-26 Signal processing device, and vehicle display device comprising same

Country Status (1)

Country Link
WO (1) WO2025159225A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20250115259A1 (en) * 2022-03-29 2025-04-10 Hitachi Astemo, Ltd. Arithmetic processing device and arithmetic processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021162602A (en) * 2020-03-30 2021-10-11 パナソニックIpマネジメント株式会社 Display control apparatus, display control system, and display control method
US20220363276A1 (en) * 2020-01-31 2022-11-17 Zf Cv Systems Global Gmbh Asymmetric failsafe system architecture
KR20230030029A (en) * 2018-10-30 2023-03-03 모셔널 에이디 엘엘씨 Redundancy in autonomous vehicles
US20230159042A1 (en) * 2021-11-22 2023-05-25 Kia Corporation Redundant Control System and Method for Autonomous Steering
US20240001967A1 (en) * 2020-12-04 2024-01-04 Nissan Motor Co., Ltd. Redundant System

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230030029A (en) * 2018-10-30 2023-03-03 모셔널 에이디 엘엘씨 Redundancy in autonomous vehicles
US20220363276A1 (en) * 2020-01-31 2022-11-17 Zf Cv Systems Global Gmbh Asymmetric failsafe system architecture
JP2021162602A (en) * 2020-03-30 2021-10-11 パナソニックIpマネジメント株式会社 Display control apparatus, display control system, and display control method
US20240001967A1 (en) * 2020-12-04 2024-01-04 Nissan Motor Co., Ltd. Redundant System
US20230159042A1 (en) * 2021-11-22 2023-05-25 Kia Corporation Redundant Control System and Method for Autonomous Steering

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20250115259A1 (en) * 2022-03-29 2025-04-10 Hitachi Astemo, Ltd. Arithmetic processing device and arithmetic processing method

Similar Documents

Publication Publication Date Title
WO2022182103A1 (en) Signal processing device, and vehicle display device comprising same
WO2025159225A1 (en) Signal processing device, and vehicle display device comprising same
WO2016153224A1 (en) Autonomous calibration device for vehicles and vehicle having same
WO2023277632A1 (en) Signal processing device and communication device for vehicle having same
WO2024262745A1 (en) Signal processing device and vehicle display device comprising same
WO2025154829A1 (en) Signal processing device and vehicle display device comprising same
WO2024071942A1 (en) Signal processing device and vehicle display device comprising same
WO2025244154A1 (en) Signal processing apparatus and vehicle control apparatus including same
WO2023136374A1 (en) Signal processing device and vehicle display device having same
WO2025089431A2 (en) Signal processing device and vehicle display device comprising same
WO2024085580A1 (en) Signal processing device and vehicle display device comprising same
WO2024071944A1 (en) Signal processing device and vehicle display device including same
WO2025150584A1 (en) Signal processing device and vehicle display device comprising same
WO2025135377A1 (en) Signal processing device and vehicle control device including same
WO2023136376A1 (en) Display device for vehicle
WO2025127438A1 (en) Signal processing device, vehicle control device having same, and operation method thereof
WO2023239008A1 (en) Signal processing device of vehicle and communication device for vehicle communication device including same
WO2025159227A1 (en) Signal processing device and vehicle display device comprising same
WO2025154843A1 (en) Signal processing device and vehicle display device having same
WO2024253223A1 (en) Signal processing apparatus and display apparatus equipped with same for vehicles
WO2024034751A1 (en) Signal processing device and automotive augmented reality device having same
WO2024071945A1 (en) Signal processing device, and display device for vehicle, comprising same
WO2024253210A1 (en) Signal processing device for vehicle and vehicle display device comprising same
WO2025075228A1 (en) Signal processing device and vehicle communication device including same
WO2024253209A1 (en) Signal processing device and communication device for vehicle comprising same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24920642

Country of ref document: EP

Kind code of ref document: A1