[go: up one dir, main page]

WO2020091385A1 - Virtual reality device for medical training including microsurgery and injection - Google Patents

Virtual reality device for medical training including microsurgery and injection Download PDF

Info

Publication number
WO2020091385A1
WO2020091385A1 PCT/KR2019/014381 KR2019014381W WO2020091385A1 WO 2020091385 A1 WO2020091385 A1 WO 2020091385A1 KR 2019014381 W KR2019014381 W KR 2019014381W WO 2020091385 A1 WO2020091385 A1 WO 2020091385A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
phantom
medical device
rendering
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2019/014381
Other languages
French (fr)
Korean (ko)
Inventor
김일
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maniamind Co
Original Assignee
Maniamind Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maniamind Co filed Critical Maniamind Co
Publication of WO2020091385A1 publication Critical patent/WO2020091385A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/285Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/30Anatomical models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00707Dummies, phantoms; Devices simulating patient or parts of patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image

Definitions

  • the present invention relates to a medical training virtual reality device and method, including microsurgery and injection.
  • the surgical time required to become a skilled surgeon amounts to 1.5 million hours. However, due to the resident's statutory working hours, sufficient training of up to 150,000 hours is physically impossible. Residents are limited to 80 hours per week in the United States, 80 hours per week in the United States, and 48 hours per week in the EU in the United States. Especially in the case of the first year of residency, the opportunity to participate in the surgery is gradually disappearing.
  • microsurgery is mainly performed in ophthalmology such as cataracts, otolaryngology such as mastoid surgery, and cosmetic plastic surgery such as skin / urinary / plastic surgery. Most of these microsurgery are more likely to result in medical accidents, as there is little opportunity to participate in surgical operations during the major. For example, the fact that 40% of domestic medical accidents are concentrated in dermatology, urinary surgery, and plastic surgery proves this.
  • simulation-based microsurgical training and injection training were required. According to the simulation-based microsurgery training and injection training, it is possible to repeatedly perform professional surgical training without the risk of a human accident, and to solve the problem of insufficient professional educators through numerical objective evaluation.
  • simulation-based microsurgical training system has not been able to provide a surgical environment close to reality, including injection simulation, and accordingly, simulation of microsurgery and injection is progressing only to a system in which image and reality are not matched. .
  • an object of the present invention is a virtual training device and method for medical training, including microsurgery and injection, in which virtual reality and phantom / medical device reality are precisely matched in a simulation of microsurgery or injection to provide a realistic user experience. To provide.
  • An object of the present invention a memory module for storing a program code configured to receive real image data of a phantom and a medical device for simulation of microsurgery and output virtual reality image data of microsurgery; And a processing module configured to output the virtual reality image data by using the real image data, which is pose data of the second image data input by processing the program code.
  • the program code includes: a reference plane generating phantom reference plane data based on the phantom marker configured on the phantom in the real image data, and generating medical instrument reference plane data based on the medical instrument marker configured on the medical instrument.
  • Another object of the present invention is a medical training virtual reality device configured to receive real image data of a phantom and a medical instrument for microsurgery simulation and to output virtual reality image data of microsurgery, from the real image data.
  • the medical training virtual reality device, 3D rendering data for the phantom based on the phantom reference surface data, the medical device reference surface data and the matching data, and medical device rendering data as 3D rendering data for the medical device A rendering step of generating and outputting;
  • a medical device movement step of the medical training virtual reality device updating the medical device reference surface data according to the movement of the medical device, and generating and outputting the medical device rendering data based
  • An object of the present invention a memory module for storing a program code configured to receive real image data of a phantom and a medical device for injection simulation and output virtual reality image data of the injection; And a processing module configured to output the virtual reality image data by using the real image data, which is pose data of the second image data input by processing the program code.
  • the program code includes: a reference plane generating phantom reference plane data based on the phantom marker configured on the phantom in the real image data, and generating medical instrument reference plane data based on the medical instrument marker configured on the medical instrument.
  • Another object of the present invention is an injection virtual reality device configured to receive virtual image data of a phantom for injection simulation and a medical device and output virtual reality image data of the injection, to the phantom in the real image data.
  • the injection virtual reality device based on the phantom reference surface data, the medical device reference surface data and the matching data, the phantom rendering data, which is 3D rendering data for the phantom, and medical device rendering data, which is 3D rendering data for the medical device.
  • a rendering step of generating and outputting A medical device movement step of the injection virtual reality device updating the medical device reference surface data according to the movement of the medical device, and generating and outputting the medical device rendering data based on the updated medical device reference surface data; And an evaluation step in which the injection virtual reality device evaluates the movement of the medical device according to a predetermined curriculum and generates and outputs evaluation data.
  • the output of the virtual reality image data is configured to be performed on a computer. It can be achieved by providing an injection virtual reality method, characterized in that the output as a microscope image enlarged at a specific magnification.
  • Another object of the present invention is a memory module for storing a program code configured to receive real image data of a phantom and a medical device for microsurgery or injection simulation and to output virtual reality image data of the phantom and the medical device. ; And a processing module that processes the program code and outputs the virtual reality image data to a connected output module.
  • the program code includes phantom marker data based on the phantom marker configured in the phantom in the real image data.
  • a marker detection step of generating and generating medical device marker data based on the medical device marker configured in the medical device Divide the real image data into a plurality of grid cells, generate a plurality of bounding boxes composed of at least one of the grid cells, and predict class for the phantom and the medical device for each of the grid cells to obtain class prediction data.
  • a rendering step of outputting the virtual reality image data And updating the reference vector data of the medical device according to the movement of the medical device, and outputting the virtual reality image data by updating the medical device rendering data based on the updated reference vector data of the medical device. step; It is configured to be performed on a computer, including, the overlapping data, the phantom marker data or the medical device marker data refers to the data about the degree of overlap with the bounding box, the object detection step of generating the class prediction data
  • the class prediction data for the grid cell is generated by a learned class reliability prediction CNN (Convolutional Neural Network) using the grid cell as input data and the class for the phantom and the medical device as output data.
  • CNN Convolutional Neural Network
  • the generation of the reference vector data includes: a reference vector learned by using the bounding box in which the class is determined and the class reliability of the bounding box as input data and the reference vector data as output data.
  • Predictive Convolutional Neur al Network to generate the reference vector data for the bounding box of the class, and in the matching step, the environment renders the phantom rendering data and the medical device having the same view point as the real image data.
  • the data is the matched data, which is the matched data, the state is the difference vector from the matched data having the same view point as the real image data, and the agent is the location of the reference vector data and The reference vector by the reinforcement learning module that was previously learned by using a matching module for correcting the direction, an action as a correction to the reference vector data, and a reward as a reduction rate of the difference vector.
  • Data is corrected, and the virtual reality image data in the rendering step and the simulation step
  • the output of can be achieved by providing a medical training virtual reality device and method, including microsurgery and injection, characterized by being output to a client connected to an HMD, an AR HMD, and a display in the form of a microscope enlarged at a specific magnification. .
  • an effect that enables to learn the microsurgical environment or the injection environment empirically is generated.
  • the effect of being able to accurately evaluate and feedback the simulation results with a numerical objective evaluation is generated.
  • FIG. 1 is a schematic diagram showing the driving of the medical training virtual reality device 1 according to an embodiment of the present invention
  • Figure 2 is a schematic diagram showing the detailed configuration of a medical training virtual reality device 1 according to an embodiment of the present invention
  • Figure 3 is a flow chart showing a method of microsurgical virtual reality according to an embodiment of the present invention
  • FIG. 4 is a schematic diagram showing a medical training virtual reality device 1 according to a modification of the present invention.
  • FIG. 1 is a schematic diagram showing the operation of the medical training virtual reality device 1 according to an embodiment of the present invention.
  • the medical training virtual reality device 1 is connected to the camera module 2, a head mounted display (HMD) 3 or other display through a wired / wireless network, and the phantom
  • the medical training virtual reality is output to the HMD 3 through the image data of the (10) and the medical device (11).
  • the camera module 2 may be configured to generate a real image data 200 by photographing a pre-installed phantom 10 and a medical instrument 11 for microsurgery / injection.
  • the generated real image data 200 is transmitted to the medical training virtual reality device 1 and used for registration, rendering, and microsurgery / injection evaluation of phantoms and medical devices.
  • an optical camera such as an OptiTrack Flex 13 model capable of precise motion capture of 0.5 mm or less may be used for the camera module 2 according to an embodiment of the present invention.
  • the HMD 3 is a display worn on the user's head and provides 3D virtual reality to the user through the virtual reality image data output from the medical training virtual reality device 1.
  • Typical products include Oculus Rift, PlayStation VR, Gear VR, and HTC Vive.
  • HMD is mainly described for convenience of description, but the scope of the present invention is not limited to HMD and may include AR HMD, general display, and the like.
  • the phantom 10 refers to a body mimic that is a target of simulation of a specific microsurgery / specific injection.
  • the phantom 10 may include a plurality of markers, the first marker 20.
  • a torso in a lying down form may be constructed, and a phantom of a tactile feel similar to an actual skin texture may be constructed.
  • at least one hole in which one end of the medical instrument 11 is inserted into the position of the eyeball may be configured to provide a tactile feel similar to that of a real surgery.
  • a plurality of layers having different textures on the phantom may be configured to provide a tactile feel similar to an actual injection.
  • the medical device 11 refers to a medical device for simulation of a specific microsurgery / specific injection, and the medical device 11 according to an embodiment of the present invention may include a plurality of markers, the second marker 21. have.
  • markers the second marker 21. have.
  • the medical device 11 may be configured in the form of a handpiece simulating.
  • a simulation product in which an intravenous syringe is simulated may be used as a medical device.
  • FIG. 2 is a schematic diagram showing the detailed configuration of the medical training virtual reality device 1 according to an embodiment of the present invention.
  • the medical training virtual reality device 1 receives the real image data 200 and outputs the virtual reality image data 300, the phantom detection module 100 ), A medical device detection module 101, a phantom output module 102, a medical device output module 103, a matching module 104, a surgical effect output module 105, and a surgical evaluation module 106. .
  • the phantom detection module 100 is a component that generates position data based on a specific point such as a reference plane vector and a camera module 2 of the phantom based on a plurality of first markers 20 configured in the phantom 10. According to an embodiment of the present invention, the phantom detection module 100 matches 3D position data of the first marker 20 pre-stored and position data of the first marker 20 received from the real image data 200.
  • the camera module 2 may be configured to generate reference vector data of the phantom 10 including the position data of the phantom 10 and the angle data of the phantom 10.
  • the medical device detection module 101 is based on a plurality of second markers 21 configured in the medical device 11, position data based on a specific point such as a reference plane vector and the camera module 2 of the medical device 11 It is a configuration that generates. According to an embodiment of the present invention, the medical device detection module 101 matches 3D position data of the pre-stored second marker 21 with the position data of the second marker 21 received from the real image data 200.
  • the camera module 2 may be configured to generate reference surface vector data of the medical device 11 including the position data of the medical device 11 and the angle data of the medical device 11.
  • the matching module 104 matches the reference plane of the phantom 10 and the reference plane of the medical instrument 11 based on the reference plane vector data of the phantom 10 and the reference plane vector data of the medical instrument 11 to generate matching data It is a configuration.
  • the registration data according to an embodiment of the present invention may be composed of vector data between the reference plane of the phantom 10 and the reference plane of the medical instrument 11.
  • the phantom output module 102 is a module that 3D renders a phantom based on the reference plane vector data of the phantom 10 and the matching data.
  • the phantom output module 102 may be configured to output 3D rendering of the eye in an enlarged state by a microscope.
  • the medical device output module 103 is a module for 3D rendering the medical device 11 with the phantom 10 based on the reference plane vector data of the medical device 11 and the matching data.
  • the medical device output module 103 may be configured to output a medical device in an enlarged state by a microscope in 3D rendering in relation to the eyeball.
  • the surgical effect output module 105 is a model that outputs a surgical effect generated according to the movement of the medical device 11.
  • the surgical effect output module 105 may include a rigid body & destruction simulation model, a cloth simulation model, a soft body & tear simulation model, and a fluid simulation model.
  • it may be configured to output the surgical effect according to the specific curriculum of the medical device 11, including the curriculum data, the surgical effect to proceed to the next curriculum, success and failure of the curriculum.
  • the surgical evaluation module 106 is a module for evaluating the motion of the medical device 11 for a specific step based on the curriculum data and evaluating and outputting the motion of the medical device 11 of the corresponding user as success or failure.
  • the medical training virtual reality method is a real image data receiving step (S10), a phantom reference plane vector generating step (S11), a medical device reference plane vector generating step (S12), Matching and 3D rendering data output step (S13), medical device movement step (S14), and may include an evaluation step (S15).
  • the medical training virtual reality device 1 receives the real image data 200 of the phantom 10 and the medical device 11 from the camera module 2.
  • the medical training virtual reality device 1 In the phantom reference plane vector generation step (S11), the medical training virtual reality device 1 generates a reference plane vector of the phantom 10 using the first marker 20 of the phantom 10 of the real image data 200. to be.
  • the medical training virtual reality device 1 uses the second marker 21 of the medical device 11 of the real image data 200 to obtain the reference plane vector of the medical device 11. It is a step to create.
  • the medical training virtual reality device 1 In the matching and 3D rendering data output step (S13), the medical training virtual reality device 1 generates registration data using the reference plane vector of the phantom 10 and the reference plane vector of the medical device 11, and the phantom 10 and This is a step of outputting 3D rendering data generated by 3D rendering of the medical device 11 to a display such as the HMD 3.
  • the user moves the medical device 11, the reference plane vector of the medical device 11 and 3D rendering data of the medical device 11 are updated and displayed on the display according to the motion of the medical device 11. This is the output stage.
  • the evaluation step S15 evaluates the motion of the user's medical device 11 according to a pre-stored curriculum based on the updated reference plane vector of the medical device 11 and the 3D rendering data of the medical device 11 to evaluate data. It is a step of generating and outputting the generated evaluation data.
  • the medical training virtual reality device 1 receives the real image data 200 and the motion detection sensor data 201 and evaluates the virtual reality image data 300 and It can be configured to output data 301.
  • the medical training virtual reality device 1 includes a marker detection module 400, an object detection module 401, a detailed adjustment module 402, a matching module 403, a simulation module 404, and an object output module ( 405), an effect output module 406, and an evaluation module 407.
  • the marker detection module 400 receives the real image data 200 and detects a plurality of markers (identification markers and position markers) configured in the phantom 10 and the medical device 11 based on the real image data 200. It is a module that generates phantom marker data (identification data and marker position data) and medical device marker data (identification data and marker position data).
  • the marker may include an identification marker and a location marker, and may include a plurality of markers to be configured to detect a change in the axis of the corresponding object.
  • the identification marker means a marker capable of identifying which object is for each object, and may be distinguished by color or shape, code, listed shape, and attachment location.
  • the object detection module 401 may be configured to receive the real image data 200, detect an object based on the real image data 200, configure a bounding box, classify objects, and generate reference plane vector data of the object. Can be.
  • the object detection module 401 according to an embodiment of the present invention divides the real image data 200 received from the camera module 2 into a plurality of nxn grid cells, and is composed of at least one grid cell.
  • a plurality of bounding boxes are generated, and a class prediction data is generated by predicting one class (what object, ie, what kind of phantom, and which medical device) for each grid cell, and each bounding box creates a bounding box It may be configured to output reliability, generate class reliability for a corresponding bounding box based on the class prediction data and the bounding box reliability, and predict reference vector data based on the class reliability of the bounding box.
  • data for a specific grid cell includes object position data (position x, y), object size data (width w, height h) for a plurality of bounding boxes containing the grid cell, and each bounding box included.
  • the bounding box reliability for the class may include class prediction data predicted from the corresponding grid cell.
  • the reliability of the bounding box is the overlapping data of the bounding box and the reference box when the reference box generated by the probability that the corresponding bounding box includes the object and the reference box generated by the marker position data is ground truth (intersection area width / union area) Area) and may be generated by the object detection module 401.
  • the class prediction data uses a specific grid cell as input data and a specific class (each class of phantom and medical devices) as output data to predict the learned class reliability to a convolutional neural network (CNN) object detection module 401.
  • CNN convolutional neural network
  • It may mean a class predicted value output for the corresponding grid cell.
  • the object detection module 401 may be configured to output a class reliability for a specific bounding box based on the product of the bounding box reliability and the class prediction data.
  • Each class of phantoms and medical instruments includes, for example, ophthalmic microsurgery phantom, otorhinolaryngology microsurgery phantom, lower extremity injection phantom, upper limb injection phantom, ophthalmic microsurgery medical instrument, otolaryngology microsurgery medical instrument, Injection medical devices, and the like.
  • the class reliability prediction CNN limits the class to data class-labeled by an identification marker identifying an object among markers, and a class identified by an identification marker among output nodes of the class reliability prediction CNN It can be configured to null for an output node that predicts a class other than.
  • the object detection module 401 determines a specific object as a specific class (each class of a phantom and a medical device) based on class reliability for a specific bounding box, and outputs reference vector data of the bounding box in which the class is determined.
  • the reference vector data means a vector value that is a reference for rendering in order to precisely render the object, and may include a position (x, y, z) and direction of the 3D axis.
  • the reference vector data in the object detection module 401 according to an embodiment of the present invention is a reference vector prediction CNN (Convolutional) by which the class bounding box and class reliability are input data and the reference vector data is output data.
  • Neural Network (included in the object detection module 401) may mean a reference vector prediction value output for a corresponding bounding box of the corresponding class.
  • the configuration of the bounding box is not predicted, but the class reliability of the bounding box is generated. And generate an effect that can generate reference vector data. According to this, when a plurality of medical devices are used in one medical training, a virtual reality rendering effect is generated.
  • the object detection module 401 when a medical training virtual reality is used by a user (inference step), the reference vector data of the phantom and the reference vector data of the medical device are rendered closest to each other.
  • the distance between the phantom region and the rendered medical device region may be used to re-learn the reference vector prediction CNN.
  • the detailed adjustment module 402 receives the motion detection sensor data 201 input from a motion detection sensor such as an IR sensor, a microwave sensor, etc. configured at a specific location outside, and based on the motion detection sensor data 201, a medical device ( It is a module that detects the displacement of 11) and compares the displacement of the medical instrument 11 with the displacement of the reference vector data output by the object detection module 401 to fine-tune the reference vector data.
  • a motion detection sensor such as an IR sensor, a microwave sensor, etc. configured at a specific location outside
  • a medical device It is a module that detects the displacement of 11
  • the matching module 403 is a module that performs virtual object matching and spatial location reflection in a simulation space based on the reference vector data of the phantom and the reference vector data of the medical device. For example, the matching module 403 generates a virtual matching space using the reference vector data of the phantom as a reference axis, projects the reference vector data of the medical device into the space, and converts it into a simulation space. Through this, it can be configured to execute a task of matching a real object (phantom, medical device) to a simulation space.
  • the matching module 403 uses 2D real image data 200 input by the camera module 2 and object rendering data generated by the object output module 405 at the same view point. It can be configured to compare and correct the reference vector data of each object so that the difference between the real image data 200 and the object rendering data is reduced. With respect to a method for the matching module 403 to find the same view point in the object rendering data as the real image data 200 according to an embodiment of the present invention, the reference vector data in the real image data 200 of a specific object The view point of the object rendering data in which the reference vector data in the simulation environment is identically output may be calculated as the same view point as the real image data 200.
  • the matching module 403 may include a reinforcement learning module that corrects reference vector data of each object, and the reinforcement learning module has an environment in which the real image data 200 and the same view are identical. Difference vector between object rendering data that has points and object view data whose state is the same as real image data 200, and agent corrects for reference vector data of each object (3D position x , y, z and direction), the matching module 403, the action performs correction (3D position x, y, z and direction) for the reference vector data of each object, and the reward is recalled. As a reduction rate of the difference vector, it may mean a reinforcement learning module that is trained to act in the direction in which the agent takes the reward.
  • the matching module 403 since the objects of the reality and the virtual reality are consistently matched by the reinforcement learning, the effect of solving the above problems of the virtual reality medical training is generated.
  • the simulation module 404 is a module for generating simulation data through the movement of the reference vector data of the medical device and the positional relationship between the reference vector data of the phantom and the reference vector data of the medical device.
  • the object output module 405 is an object rendering data that is a 3D rendered object based on the reference vector data of the medical device and the reference vector data of the phantom matched by the matching module 403 and simulated by the simulation module 404. And a module for generating and outputting effect data.
  • the object output module 405 may be configured to output 3D rendering of the eye in an enlarged state by a microscope.
  • the object output module 405 may be configured to output a 3D rendered surgical instrument in a state enlarged by a microscope in relation to the eyeball.
  • the effect output module 406 is a model that outputs effect data, which is a surgical effect generated according to the movement of the medical device 11.
  • the effect output module 406 may include a rigid body & destruction simulation model, a cloth simulation model, a soft body & tear simulation model, and a fluid simulation model.
  • it may be configured to output the surgical effect according to the specific curriculum of the medical device 11, including the curriculum data, the surgical effect proceeding to the next curriculum, success and failure of the curriculum.
  • the evaluation module 407 evaluates the movement of the medical device 11 for a specific step based on the curriculum data, and evaluates the movement of the medical device 11 of the corresponding user as success or failure to output the evaluation data 301 It is a module.
  • the object rendering data and effect data output from the object output module 405 and the effect output module 406 may be configured to be output to HMD, general display, beam projection, etc. connected to the object output module 405 and the effect output module 406. Can be.
  • the evaluation data may be output to a client of a trainee who has undergone medical training and a client of a leader through a web server connected to the evaluation module 407.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pure & Applied Mathematics (AREA)
  • Medicinal Chemistry (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Optimization (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Pulmonology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a virtual reality device and method for medical training. To this end, provided are: a reference plane data generation step of generating phantom reference plane data on the basis of phantom markers formed on a phantom in real image data and generating medical appliance reference plane data on the basis of medical appliance markers formed on a medical appliance; a matching step of generating matching data by matching the phantom reference plane data and the medical appliance reference plane data to each other; a rendering step of generating and outputting phantom rendering data, which is 3D rendering data for the phantom, and medical appliance rendering data, which is 3D rendering data for the medical appliance, on the basis of the phantom reference plane data, the medical appliance reference plane data, and the matching data; and a medical appliance movement step of updating the medical appliance reference plane data according to the motion of the medical appliance and generating and outputting medical appliance rendering data in reference to the updated medical appliance reference plane data.

Description

미세수술 및 인젝션을 포함한 메디컬 트레이닝 가상현실 장치Medical training virtual reality device including microsurgery and injection

본 발명은 미세수술 및 인젝션을 포함한 메디컬 트레이닝 가상현실 장치 및 방법에 관한 것이다. The present invention relates to a medical training virtual reality device and method, including microsurgery and injection.

숙련된 외과의사가 되기 위해 필요한 수술시간은 1.5만 시간에 이른다. 하지만 실질적으로 레지던트의 법정 근무시간 때문에 1.5만 시간에 이르는 충분한 트레이닝이 물리적으로 불가능한 실정이다. 레지던트의 주당 근무 시간 제한은 대한민국의 경우 주당 80시간, 미국의 경우 주당 80시간, EU의 경우 주당 48시간으로 법정되어 있다. 특히 레지던트 1년차들의 경우, 수술 참여 기회가 점점 사라지고 있는 실정이다. The surgical time required to become a skilled surgeon amounts to 1.5 million hours. However, due to the resident's statutory working hours, sufficient training of up to 150,000 hours is physically impossible. Residents are limited to 80 hours per week in the United States, 80 hours per week in the United States, and 48 hours per week in the EU in the United States. Especially in the case of the first year of residency, the opportunity to participate in the surgery is gradually disappearing.

이러한 레지던트들의 수술 참여 기회 부족은 의료 사고로 직결될 수 있다. 특히 미세수술의 경우에 이러한 경향성이 높다. 미세수술은 백내장 등의 안과, 유양돌기수술 등의 이비인후과, 피부/비뇨/성형외과와 같은 미용 성형 외과에서 주로 진행된다. 이러한 미세수술은 대부분 전공의 시절 외과 수술 참여 기회가 거의 없기 때문에 의료 사고가 발생될 가능성이 더 높다. 일예로 국내 발생 의료사고의 40%가 피부/비뇨/성형외과에 집중되어 있는 점이 이를 반증한다. The lack of opportunities for these residents to participate in surgery can be directly linked to medical accidents. Especially in the case of microsurgery, this tendency is high. Microsurgery is mainly performed in ophthalmology such as cataracts, otolaryngology such as mastoid surgery, and cosmetic plastic surgery such as skin / urinary / plastic surgery. Most of these microsurgery are more likely to result in medical accidents, as there is little opportunity to participate in surgical operations during the major. For example, the fact that 40% of domestic medical accidents are concentrated in dermatology, urinary surgery, and plastic surgery proves this.

이에 따라, 시뮬레이션 기반 미세수술 트레이닝, 인젝션 트레이닝이 필요한 실정이었다. 시뮬레이션 기반 미세수술 트레이닝, 인젝션 트레이닝에 따르면 인명 사고의 위험이 없으면서도 반복적으로 전문 수술 교육을 수행할 수 있게 되고, 수치화된 객관적인 평가로 전문 교육자 부족 문제를 해결할 수 있었다.Accordingly, simulation-based microsurgical training and injection training were required. According to the simulation-based microsurgery training and injection training, it is possible to repeatedly perform professional surgical training without the risk of a human accident, and to solve the problem of insufficient professional educators through numerical objective evaluation.

하지만, 이러한 시뮬레이션 기반 미세수술 트레이닝 시스템은 인젝션 시뮬레이션을 포함하여 실제에 가까운 수술 환경을 제공하지 못하고 있었고, 이에 따라 미세수술 및 인젝션의 시뮬레이션은 영상과 현실이 정합되지 않은 시스템으로만 진행되고 있는 실정이었다. However, such a simulation-based microsurgical training system has not been able to provide a surgical environment close to reality, including injection simulation, and accordingly, simulation of microsurgery and injection is progressing only to a system in which image and reality are not matched. .

따라서, 본 발명의 목적은 미세수술이나 인젝션의 시뮬레이션에서 가상현실과 팬텀/의료기구 등의 현실이 상호 정밀하게 정합되어 현실감 높은 사용자 경험을 제공하는 미세수술 및 인젝션을 포함한 메디컬 트레이닝 가상현실 장치 및 방법을 제공하는 데에 있다. Accordingly, an object of the present invention is a virtual training device and method for medical training, including microsurgery and injection, in which virtual reality and phantom / medical device reality are precisely matched in a simulation of microsurgery or injection to provide a realistic user experience. To provide.

이하 본 발명의 목적을 달성하기 위한 구체적 수단에 대하여 설명한다.Hereinafter, specific means for achieving the object of the present invention will be described.

본 발명의 목적은, 미세수술 시뮬레이션을 위한 팬텀과 의료기구를 촬영한 리얼 영상 데이터를 수신하고 미세수술의 가상현실 영상 데이터를 출력하도록 구성되는 프로그램 코드를 저장하는 메모리 모듈; 및 상기 프로그램 코드를 처리하여 입력되는 제2영상 데이터의 포즈 데이터인상기 리얼 영상 데이터를 이용하여 상기 가상현실 영상 데이터를 출력하는 처리 모듈; 을 포함하고, 상기 프로그램 코드는, 상기 리얼 영상 데이터에서의 상기 팬텀에 구성된 팬텀 마커를 기초로 팬텀 기준면 데이터를 생성하고, 상기 의료기구에 구성된 의료기구 마커를 기초로 의료기구 기준면 데이터를 생성하는 기준면 데이터 생성 단계; 상기 팬텀 기준면 데이터와 상기 의료기구 기준면 데이터를 상호 정합하여 정합 데이터를 생성하는 정합 단계; 상기 팬텀 기준면 데이터, 상기 의료기구 기준면 데이터 및 상기 정합 데이터를 기초로 상기 팬텀에 대한 3D 렌더링 데이터인 팬텀 렌더링 데이터 및 상기 의료기구에 대한 3D 렌더링 데이터인 의료기구 렌더링 데이터를 생성하고 출력하는 렌더링 단계; 상기 의료기구의 움직임에 따라 상기 의료기구 기준면 데이터를 업데이트하고, 업데이트된 상기 의료기구 기준면 데이터를 기준으로 상기 의료기구 렌더링 데이터를 생성하고 출력하는 의료기구 움직임 단계; 및 상기 의료기구의 상기 움직임을 기설정된 커리큘럼에 따라 평가하고 평가 데이터를 생성 및 출력하는 평가 단계;를 포함하여 컴퓨터 상에서 수행되도록 구성되고, 상기 가상현실 영상 데이터의 출력은 특정 배율로 확대된 현미경 영상으로 출력하는 것을 특징으로 하는, 메디컬 트레이닝 가상현실 장치를 제공하여 달성될 수 있다. An object of the present invention, a memory module for storing a program code configured to receive real image data of a phantom and a medical device for simulation of microsurgery and output virtual reality image data of microsurgery; And a processing module configured to output the virtual reality image data by using the real image data, which is pose data of the second image data input by processing the program code. The program code includes: a reference plane generating phantom reference plane data based on the phantom marker configured on the phantom in the real image data, and generating medical instrument reference plane data based on the medical instrument marker configured on the medical instrument. Data generation step; A matching step of generating matching data by matching the phantom reference surface data and the medical device reference surface data; A rendering step of generating and outputting phantom rendering data, which is 3D rendering data for the phantom, and medical equipment rendering data, which is 3D rendering data for the medical device, based on the phantom reference surface data, the medical device reference surface data, and the registration data; A medical device movement step of updating the medical device reference surface data according to the movement of the medical device, and generating and outputting the medical device rendering data based on the updated medical device reference surface data; And an evaluation step of evaluating the movement of the medical device according to a predetermined curriculum and generating and outputting evaluation data; and configured to be performed on a computer, and outputting the virtual reality image data at a specific magnification. Characterized in that the output, it can be achieved by providing a medical training virtual reality device.

본 발명의 다른 목적은, 미세수술 시뮬레이션을 위한 팬텀과 의료기구를 촬영한 리얼 영상 데이터를 수신하고 미세수술의 가상현실 영상 데이터를 출력하도록 구성되는 메디컬 트레이닝 가상현실 장치가, 상기 리얼 영상 데이터에서의 상기 팬텀에 구성된 팬텀 마커를 기초로 팬텀 기준면 데이터를 생성하고, 상기 의료기구에 구성된 의료기구 마커를 기초로 의료기구 기준면 데이터를 생성하는 기준면 데이터 생성 단계; 상기 메디컬 트레이닝 가상현실 장치가, 상기 팬텀 기준면 데이터와 상기 의료기구 기준면 데이터를 상호 정합하여 정합 데이터를 생성하는 정합 단계; 상기 메디컬 트레이닝 가상현실 장치가, 상기 팬텀 기준면 데이터, 상기 의료기구 기준면 데이터 및 상기 정합 데이터를 기초로 상기 팬텀에 대한 3D 렌더링 데이터인 팬텀 렌더링 데이터 및 상기 의료기구에 대한 3D 렌더링 데이터인 의료기구 렌더링 데이터를 생성하고 출력하는 렌더링 단계; 상기 메디컬 트레이닝 가상현실 장치가, 상기 의료기구의 움직임에 따라 상기 의료기구 기준면 데이터를 업데이트하고, 업데이트된 상기 의료기구 기준면 데이터를 기준으로 상기 의료기구 렌더링 데이터를 생성하고 출력하는 의료기구 움직임 단계; 및 상기 메디컬 트레이닝 가상현실 장치가, 상기 의료기구의 상기 움직임을 기설정된 커리큘럼에 따라 평가하고 평가 데이터를 생성 및 출력하는 평가 단계;를 포함하여 컴퓨터 상에서 수행되도록 구성되고, 상기 가상현실 영상 데이터의 출력은 특정 배율로 확대된 현미경 영상으로 출력하는 것을 특징으로 하는, 미세수술 가상현실 방법을 제공하여 달성될 수 있다. Another object of the present invention is a medical training virtual reality device configured to receive real image data of a phantom and a medical instrument for microsurgery simulation and to output virtual reality image data of microsurgery, from the real image data. A reference plane data generating step of generating phantom reference plane data based on the phantom marker configured on the phantom and generating medical instrument reference plane data based on the medical instrument marker configured on the medical instrument; A matching step in which the medical training virtual reality device matches the phantom reference surface data and the medical device reference surface data to generate matching data; The medical training virtual reality device, 3D rendering data for the phantom based on the phantom reference surface data, the medical device reference surface data and the matching data, and medical device rendering data as 3D rendering data for the medical device A rendering step of generating and outputting; A medical device movement step of the medical training virtual reality device updating the medical device reference surface data according to the movement of the medical device, and generating and outputting the medical device rendering data based on the updated medical device reference surface data; And an evaluation step in which the medical training virtual reality device evaluates the movement of the medical device according to a predetermined curriculum and generates and outputs evaluation data, and is configured to be performed on a computer, and outputs the virtual reality image data. It can be achieved by providing a microsurgical virtual reality method, characterized in that the output as a microscope image enlarged at a specific magnification.

본 발명의 목적은, 인젝션 시뮬레이션을 위한 팬텀과 의료기구를 촬영한 리얼 영상 데이터를 수신하고 인젝션의 가상현실 영상 데이터를 출력하도록 구성되는 프로그램 코드를 저장하는 메모리 모듈; 및 상기 프로그램 코드를 처리하여 입력되는 제2영상 데이터의 포즈 데이터인상기 리얼 영상 데이터를 이용하여 상기 가상현실 영상 데이터를 출력하는 처리 모듈; 을 포함하고, 상기 프로그램 코드는, 상기 리얼 영상 데이터에서의 상기 팬텀에 구성된 팬텀 마커를 기초로 팬텀 기준면 데이터를 생성하고, 상기 의료기구에 구성된 의료기구 마커를 기초로 의료기구 기준면 데이터를 생성하는 기준면 데이터 생성 단계; 상기 팬텀 기준면 데이터와 상기 의료기구 기준면 데이터를 상호 정합하여 정합 데이터를 생성하는 정합 단계; 상기 팬텀 기준면 데이터, 상기 의료기구 기준면 데이터 및 상기 정합 데이터를 기초로 상기 팬텀에 대한 3D 렌더링 데이터인 팬텀 렌더링 데이터 및 상기 의료기구에 대한 3D 렌더링 데이터인 의료기구 렌더링 데이터를 생성하고 출력하는 렌더링 단계; 상기 의료기구의 움직임에 따라 상기 의료기구 기준면 데이터를 업데이트하고, 업데이트된 상기 의료기구 기준면 데이터를 기준으로 상기 의료기구 렌더링 데이터를 생성하고 출력하는 의료기구 움직임 단계; 및 상기 의료기구의 상기 움직임을 기설정된 커리큘럼에 따라 평가하고 평가 데이터를 생성 및 출력하는 평가 단계;를 포함하여 컴퓨터 상에서 수행되도록 구성되고, 상기 가상현실 영상 데이터의 출력은 특정 배율로 확대된 현미경 영상으로 출력하는 것을 특징으로 하는, 인젝션 가상현실 장치를 제공하여 달성될 수 있다. An object of the present invention, a memory module for storing a program code configured to receive real image data of a phantom and a medical device for injection simulation and output virtual reality image data of the injection; And a processing module configured to output the virtual reality image data by using the real image data, which is pose data of the second image data input by processing the program code. The program code includes: a reference plane generating phantom reference plane data based on the phantom marker configured on the phantom in the real image data, and generating medical instrument reference plane data based on the medical instrument marker configured on the medical instrument. Data generation step; A matching step of generating matching data by matching the phantom reference surface data and the medical device reference surface data; A rendering step of generating and outputting phantom rendering data, which is 3D rendering data for the phantom, and medical equipment rendering data, which is 3D rendering data for the medical device, based on the phantom reference surface data, the medical device reference surface data, and the registration data; A medical device movement step of updating the medical device reference surface data according to the movement of the medical device, and generating and outputting the medical device rendering data based on the updated medical device reference surface data; And an evaluation step of evaluating the movement of the medical device according to a predetermined curriculum and generating and outputting evaluation data; and configured to be performed on a computer, and outputting the virtual reality image data at a specific magnification. Characterized in that the output, it can be achieved by providing an injection virtual reality device.

본 발명의 다른 목적은, 인젝션 시뮬레이션을 위한 팬텀과 의료기구를 촬영한 리얼 영상 데이터를 수신하고 인젝션의 가상현실 영상 데이터를 출력하도록 구성되는 인젝션 가상현실 장치가, 상기 리얼 영상 데이터에서의 상기 팬텀에 구성된 팬텀 마커를 기초로 팬텀 기준면 데이터를 생성하고, 상기 의료기구에 구성된 의료기구 마커를 기초로 의료기구 기준면 데이터를 생성하는 기준면 데이터 생성 단계; 상기 인젝션 가상현실 장치가, 상기 팬텀 기준면 데이터와 상기 의료기구 기준면 데이터를 상호 정합하여 정합 데이터를 생성하는 정합 단계; 상기 인젝션 가상현실 장치가, 상기 팬텀 기준면 데이터, 상기 의료기구 기준면 데이터 및 상기 정합 데이터를 기초로 상기 팬텀에 대한 3D 렌더링 데이터인 팬텀 렌더링 데이터 및 상기 의료기구에 대한 3D 렌더링 데이터인 의료기구 렌더링 데이터를 생성하고 출력하는 렌더링 단계; 상기 인젝션 가상현실 장치가, 상기 의료기구의 움직임에 따라 상기 의료기구 기준면 데이터를 업데이트하고, 업데이트된 상기 의료기구 기준면 데이터를 기준으로 상기 의료기구 렌더링 데이터를 생성하고 출력하는 의료기구 움직임 단계; 및 상기 인젝션 가상현실 장치가, 상기 의료기구의 상기 움직임을 기설정된 커리큘럼에 따라 평가하고 평가 데이터를 생성 및 출력하는 평가 단계;를 포함하여 컴퓨터 상에서 수행되도록 구성되고, 상기 가상현실 영상 데이터의 출력은 특정 배율로 확대된 현미경 영상으로 출력하는 것을 특징으로 하는, 인젝션 가상현실 방법을 제공하여 달성될 수 있다.Another object of the present invention is an injection virtual reality device configured to receive virtual image data of a phantom for injection simulation and a medical device and output virtual reality image data of the injection, to the phantom in the real image data. A reference plane data generating step of generating phantom reference plane data based on the configured phantom marker and generating medical instrument reference plane data based on the medical instrument marker configured on the medical instrument; A matching step in which the injection virtual reality device matches the phantom reference surface data and the medical device reference surface data to generate matching data; The injection virtual reality device, based on the phantom reference surface data, the medical device reference surface data and the matching data, the phantom rendering data, which is 3D rendering data for the phantom, and medical device rendering data, which is 3D rendering data for the medical device. A rendering step of generating and outputting; A medical device movement step of the injection virtual reality device updating the medical device reference surface data according to the movement of the medical device, and generating and outputting the medical device rendering data based on the updated medical device reference surface data; And an evaluation step in which the injection virtual reality device evaluates the movement of the medical device according to a predetermined curriculum and generates and outputs evaluation data. The output of the virtual reality image data is configured to be performed on a computer. It can be achieved by providing an injection virtual reality method, characterized in that the output as a microscope image enlarged at a specific magnification.

본 발명의 다른 목적은, 미세수술 또는 인젝션 시뮬레이션을 위한 팬텀과 의료기구를 촬영한 리얼 영상 데이터를 수신하고 상기 팬텀 및 상기 의료기구의 가상현실 영상 데이터를 출력하도록 구성되는 프로그램 코드를 저장하는 메모리 모듈; 및 상기 프로그램 코드를 처리하여 상기 가상현실 영상 데이터를 연결된 출력 모듈에 출력하는 처리 모듈;을 포함하고, 상기 프로그램 코드는, 상기 리얼 영상 데이터에서의 상기 팬텀에 구성된 팬텀 마커를 기초로 팬텀 마커 데이터를 생성하고, 상기 의료기구에 구성된 의료기구 마커를 기초로 의료기구 마커 데이터를 생성하는 마커 디텍션 단계; 상기 리얼 영상 데이터를 복수개의 그리드 셀로 구획하고, 적어도 하나 이상의 상기 그리드 셀로 구성되는 복수개의 바운딩 박스를 생성하며, 상기 그리드 셀 각각에 대해 상기 팬텀 및 상기 의료기구에 대한 클래스를 예측하여 클래스 예측 데이터를 생성하고, 상기 바운딩 박스 각각에 대해 상기 팬텀 또는 상기 의료기구가 상기 바운딩 박스 내에 포함될 확률과 겹침 데이터를 곱한 바운딩 박스 신뢰도를 생성하며, 상기 클래스 예측 데이터 및 상기 바운딩 박스 신뢰도의 곱을 기초로 상기 바운딩 박스에 대한 클래스 신뢰도를 출력하며, 상기 바운딩 박스에 대한 상기 클래스 신뢰도를 기초로 확정된 오브젝트인 상기 팬텀 및 상기 의료기구에 대해 기준 벡터 데이터를 생성하는 오브젝트 디텍션 단계; 상기 팬텀의 상기 기준 벡터 데이터 및 상기 의료기구의 상기 기준 벡터 데이터를 기초로 시뮬레이션 공간내에서 가상의 오브젝트 매칭 및 공간 위치 반영을 수행하여 정합 데이터를 생성하는 정합 단계; 상기 팬텀의 상기 기준 벡터 데이터, 상기 의료기구의 상기 기준 벡터 데이터 및 상기 정합 데이터를 기초로 상기 팬텀에 대한 3D 렌더링 데이터인 팬텀 렌더링 데이터 및 상기 의료기구에 대한 3D 렌더링 데이터인 의료기구 렌더링 데이터를 생성하고 상기 가상현실 영상 데이터를 출력하는 렌더링 단계; 및 상기 의료기구의 움직임에 따라 상기 의료기구의 상기 기준 벡터 데이터를 업데이트하고, 업데이트된 상기 의료기구의 상기 기준 벡터 데이터를 기준으로 상기 의료기구 렌더링 데이터를 업데이트하여 상기 가상현실 영상 데이터를 출력하는 시뮬레이션 단계; 를 포함하여 컴퓨터 상에서 수행되도록 구성되고, 상기 겹침 데이터는, 상기 팬텀 마커 데이터 또는 상기 의료기구 마커 데이터가 상기 바운딩 박스와 겹치는 정도에 대한 데이터를 의미하고, 상기 오브젝트 디텍션 단계에서 상기 클래스 예측 데이터의 생성은, 상기 그리드 셀을 입력데이터로 하고 상기 팬텀 및 상기 의료기구에 대한 상기 클래스를 출력데이터로 하여 기학습된 클래스 신뢰도 예측 CNN(Convolutional Neural Network)에 의해 상기 그리드 셀에 대한 상기 클래스 예측 데이터가 생성되며, 상기 오브젝트 디텍션 단계에서 상기 기준 벡터 데이터의 생성은, 상기 클래스가 확정된 상기 바운딩 박스 및 상기 바운딩 박스의 상기 클래스 신뢰도를 입력데이터로 하고 상기 기준 벡터 데이터를 출력데이터로 하여 기학습된 기준 벡터 예측 CNN(Convolutional Neural Network)에 의해 상기 클래스의 상기 바운딩 박스에 대한 상기 기준 벡터 데이터가 생성되고, 상기 정합 단계에서, 환경(Environment)을 상기 리얼 영상 데이터와 동일한 뷰 포인트를 가지는 상기 팬텀 렌더링 데이터 및 상기 의료기구 렌더링 데이터를 정합한 데이터인 상기 정합 데이터로 하고, 상태(State)를 상기 리얼 영상 데이터와 동일한 뷰 포인트를 가지는 상기 정합 데이터와의 차이 벡터로 하며, 에이전트(Agent)를 상기 기준 벡터 데이터에 대한 위치 및 방향의 보정을 수행하는 정합 모듈로 하며, 액션(Action)을 상기 기준 벡터 데이터에 대한 보정으로 하고, 리워드(Reward)를 상기 차이 벡터의 저감률로 하여 기학습된 강화학습 모듈에 의해 상기 기준 벡터 데이터가 보정되며, 상기 렌더링 단계 및 상기 시뮬레이션 단계에서의 상기 가상현실 영상 데이터의 출력은 특정 배율로 확대된 현미경 형태의 인터페이스로 HMD, AR HMD 및 디스플레이에 연결된 클라이언트에 출력되는 것을 특징으로 하는, 미세수술 및 인젝션을 포함한 메디컬 트레이닝 가상현실 장치 및 방법을 제공하여 달성될 수 있다.Another object of the present invention is a memory module for storing a program code configured to receive real image data of a phantom and a medical device for microsurgery or injection simulation and to output virtual reality image data of the phantom and the medical device. ; And a processing module that processes the program code and outputs the virtual reality image data to a connected output module. The program code includes phantom marker data based on the phantom marker configured in the phantom in the real image data. A marker detection step of generating and generating medical device marker data based on the medical device marker configured in the medical device; Divide the real image data into a plurality of grid cells, generate a plurality of bounding boxes composed of at least one of the grid cells, and predict class for the phantom and the medical device for each of the grid cells to obtain class prediction data. Generates, a bounding box reliability multiplied by the overlapping data and a probability that the phantom or the medical device will be included in the bounding box for each of the bounding boxes, and based on the product of the class prediction data and the bounding box reliability, the bounding box An object detection step of outputting a class reliability for the, and generating reference vector data for the phantom and the medical device, which are objects determined based on the class reliability for the bounding box; A matching step of generating matching data by performing virtual object matching and spatial location reflection in a simulation space based on the reference vector data of the phantom and the reference vector data of the medical device; Phantom rendering data, which is 3D rendering data for the phantom, and medical device rendering data, which is 3D rendering data for the medical device, are generated based on the reference vector data of the phantom, the reference vector data of the medical device, and the matching data. And a rendering step of outputting the virtual reality image data; And updating the reference vector data of the medical device according to the movement of the medical device, and outputting the virtual reality image data by updating the medical device rendering data based on the updated reference vector data of the medical device. step; It is configured to be performed on a computer, including, the overlapping data, the phantom marker data or the medical device marker data refers to the data about the degree of overlap with the bounding box, the object detection step of generating the class prediction data The class prediction data for the grid cell is generated by a learned class reliability prediction CNN (Convolutional Neural Network) using the grid cell as input data and the class for the phantom and the medical device as output data. In the object detection step, the generation of the reference vector data includes: a reference vector learned by using the bounding box in which the class is determined and the class reliability of the bounding box as input data and the reference vector data as output data. Predictive Convolutional Neur al Network) to generate the reference vector data for the bounding box of the class, and in the matching step, the environment renders the phantom rendering data and the medical device having the same view point as the real image data. The data is the matched data, which is the matched data, the state is the difference vector from the matched data having the same view point as the real image data, and the agent is the location of the reference vector data and The reference vector by the reinforcement learning module that was previously learned by using a matching module for correcting the direction, an action as a correction to the reference vector data, and a reward as a reduction rate of the difference vector. Data is corrected, and the virtual reality image data in the rendering step and the simulation step The output of can be achieved by providing a medical training virtual reality device and method, including microsurgery and injection, characterized by being output to a client connected to an HMD, an AR HMD, and a display in the form of a microscope enlarged at a specific magnification. .

상기한 바와 같이, 본 발명에 의하면 이하와 같은 효과가 있다.As described above, according to the present invention, the following effects are obtained.

첫째, 본 발명의 일실시예에 따르면, 미세수술 환경이나 인젝션 환경을 체험적으로 학습할 수 있게 되는 효과가 발생된다. First, according to an embodiment of the present invention, an effect that enables to learn the microsurgical environment or the injection environment empirically is generated.

둘째, 본 발명의 일실시예에 따르면, 수치화된 객관적인 평가로 시뮬레이션 결과를 정밀하게 평가 및 피드백할 수 있게 되는 효과가 발생된다. Second, according to an embodiment of the present invention, the effect of being able to accurately evaluate and feedback the simulation results with a numerical objective evaluation is generated.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.The following drawings attached to the present specification illustrate preferred embodiments of the present invention, and serve to further understand the technical idea of the present invention together with the detailed description of the present invention, so the present invention is limited only to those described in those drawings. And should not be interpreted.

도 1은 본 발명의 일실시예에 따른 메디컬 트레이닝 가상현실 장치(1)의 구동을 도시한 모식도,1 is a schematic diagram showing the driving of the medical training virtual reality device 1 according to an embodiment of the present invention,

도 2는 본 발명의 일실시예에 따른 메디컬 트레이닝 가상현실 장치(1)의 상세 구성을 도시한 모식도,Figure 2 is a schematic diagram showing the detailed configuration of a medical training virtual reality device 1 according to an embodiment of the present invention,

도 3은 본 발명의 일실시예에 따른 미세수술 가상현실 방법을 도시한 흐름도,Figure 3 is a flow chart showing a method of microsurgical virtual reality according to an embodiment of the present invention,

도 4는 본 발명의 변형예에 따른 메디컬 트레이닝 가상현실 장치(1)를 도시한 모식도이다.4 is a schematic diagram showing a medical training virtual reality device 1 according to a modification of the present invention.

이하 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 쉽게 실시할 수 있는 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예에 대한 동작원리를 상세하게 설명함에 있어서 관련된 공지기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.Hereinafter, exemplary embodiments in which a person having ordinary skill in the art to which the present invention pertains may easily implement the present invention will be described in detail with reference to the accompanying drawings. However, in the detailed description of the operation principle for the preferred embodiment of the present invention, if it is determined that a detailed description of related known functions or configurations may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

또한, 도면 전체에 걸쳐 유사한 기능 및 작용을 하는 부분에 대해서는 동일한 도면 부호를 사용한다. 명세서 전체에서, 특정 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고, 간접적으로 연결되어 있는 경우도 포함한다. 또한, 특정 구성요소를 포함한다는 것은 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, the same reference numerals are used for parts having similar functions and functions throughout the drawings. Throughout the specification, when a specific part is said to be connected to another part, this includes not only the case of being directly connected, but also the case of being connected indirectly with another element in between. In addition, the inclusion of specific components does not exclude other components unless specifically stated otherwise, and means that other components may be further included.

미세수술 및 인젝션을 포함한 메디컬 트레이닝 가상현실 장치 및 방법Medical training virtual reality devices and methods, including microsurgery and injection

본 발명의 일실시예에 따른 메디컬 트레이닝 가상현실 장치(1)와 관련하여, 도 1은 본 발명의 일실시예에 따른 메디컬 트레이닝 가상현실 장치(1)의 구동을 도시한 모식도이다. 도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 메디컬 트레이닝 가상현실 장치(1)는 카메라 모듈(2), HMD(Head Mounted Display, 3) 또는 기타 디스플레이와 유무선 네트워크로 연결되고, 팬텀(10)과 의료기구(11)에 대한 영상 데이터를 통해 HMD(3)에 메디컬 트레이닝 가상현실을 출력하게 된다. Regarding the medical training virtual reality device 1 according to an embodiment of the present invention, FIG. 1 is a schematic diagram showing the operation of the medical training virtual reality device 1 according to an embodiment of the present invention. As shown in FIG. 1, the medical training virtual reality device 1 according to an embodiment of the present invention is connected to the camera module 2, a head mounted display (HMD) 3 or other display through a wired / wireless network, and the phantom The medical training virtual reality is output to the HMD 3 through the image data of the (10) and the medical device (11).

카메라 모듈(2)은 기설치된 팬텀(10)과 미세수술/인젝션을 위한 의료기구(11)를 촬영하여 리얼 영상 데이터(200)를 생성하도록 구성될 수 있다. 생성된 리얼 영상 데이터(200)는 메디컬 트레이닝 가상현실 장치(1)에 송신되어 팬텀 및 의료기구의 정합, 렌더링 및 미세수술/인젝션 평가에 이용된다. 예를 들어, 본 발명의 일실시예에 따른 카메라 모듈(2)에는 0.5mm 이하의 정밀한 모션 캡쳐가 가능한 OptiTrack Flex 13 모델과 같은 광학 카메라가 이용될 수 있다. The camera module 2 may be configured to generate a real image data 200 by photographing a pre-installed phantom 10 and a medical instrument 11 for microsurgery / injection. The generated real image data 200 is transmitted to the medical training virtual reality device 1 and used for registration, rendering, and microsurgery / injection evaluation of phantoms and medical devices. For example, an optical camera such as an OptiTrack Flex 13 model capable of precise motion capture of 0.5 mm or less may be used for the camera module 2 according to an embodiment of the present invention.

HMD(3)는 사용자의 머리에 착용하는 디스플레이로서, 메디컬 트레이닝 가상현실 장치(1)에서 출력되는 가상현실 영상 데이터를 통해 사용자에게 3D 가상현실을 제공하게 된다. 대표적인 제품으로는 오큘러스 리프트, 플레이스테이션 VR, 기어 VR, HTC Vive 등이 이용될 수 있다. 본 발명에서는 설명의 편의를 위해 HMD 위주로 기재하였으나, 본 발명의 범위는 HMD에 한정되지 않고 AR HMD, 일반 디스플레이 등을 포함할 수 있다. The HMD 3 is a display worn on the user's head and provides 3D virtual reality to the user through the virtual reality image data output from the medical training virtual reality device 1. Typical products include Oculus Rift, PlayStation VR, Gear VR, and HTC Vive. In the present invention, HMD is mainly described for convenience of description, but the scope of the present invention is not limited to HMD and may include AR HMD, general display, and the like.

팬텀(10)은 특정 미세수술/특정 인젝션의 시뮬레이션의 대상이 되는 신체 모사체를 의미한다. 본 발명의 일실시예에 따른 팬텀(10)에는 복수개의 마커인 제1마커(20)가 구성될 수 있다. 예를 들어, 백내장 수술 시뮬레이션인 경우 눕혀진 형태의 토르소가 구성될 수 있고, 실제 피부 텍스쳐와 비슷한 촉감의 팬텀이 구성될 수 있다. 또한, 예를 들어, 백내장 수술 시뮬레이션의 경우 실제 수술과 유사한 촉감을 제공하기 위해 안구의 위치에 의료기구(11)의 일단이 삽입되는 적어도 하나 이상의 홀이 구성될 수 있다. 또한, 예를 들어, 정맥 주사의 경우 실제 주사와 유사한 촉감을 제공하기 위해 팬텀에 서로 다른 텍스쳐를 가지는 복수개의 Layer가 구성될 수 있다.The phantom 10 refers to a body mimic that is a target of simulation of a specific microsurgery / specific injection. The phantom 10 according to an embodiment of the present invention may include a plurality of markers, the first marker 20. For example, in the case of a cataract surgery simulation, a torso in a lying down form may be constructed, and a phantom of a tactile feel similar to an actual skin texture may be constructed. In addition, for example, in the case of a cataract surgery simulation, at least one hole in which one end of the medical instrument 11 is inserted into the position of the eyeball may be configured to provide a tactile feel similar to that of a real surgery. In addition, for example, in the case of intravenous injection, a plurality of layers having different textures on the phantom may be configured to provide a tactile feel similar to an actual injection.

의료기구(11)는 특정 미세수술/특정 인젝션의 시뮬레이션을 위한 의료기구를 의미하며, 본 발명의 일실시예에 따른 의료기구(11)에는 복수개의 마커인 제2마커(21)가 구성될 수 있다. 예를 들어, 백내장 수술 시뮬레이션인 경우, Discission Knife, Nucleus Spatula, Cataract Knife, Capsul Extractive Forceps, Capsulorhexis Forceps, Infusion Handpiece, Irrigation/aspiration Cannula, Lens Loop, IOL Implantation Forceps, Cataract Scissors Membrance, Micro-needle Holder 등을 모사하는 핸드피스의 형태로 의료기구(11)가 구성될 수 있다. 또한, 예를 들어 정맥 주사인 경우, 정맥 주사기가 모사된 시뮬레이션 제품이 의료기구로 이용될 수 있다. The medical device 11 refers to a medical device for simulation of a specific microsurgery / specific injection, and the medical device 11 according to an embodiment of the present invention may include a plurality of markers, the second marker 21. have. For example, for cataract surgery simulation, Discission Knife, Nucleus Spatula, Cataract Knife, Capsul Extractive Forceps, Capsulorhexis Forceps, Infusion Handpiece, Irrigation / aspiration Cannula, Lens Loop, IOL Implantation Forceps, Cataract Scissors Membrance, Micro-needle Holder, etc. The medical device 11 may be configured in the form of a handpiece simulating. In addition, for example, in the case of intravenous injection, a simulation product in which an intravenous syringe is simulated may be used as a medical device.

메디컬 트레이닝 가상현실 장치(1)의 상세 구성과 관련하여, 도 2는 본 발명의 일실시예에 따른 메디컬 트레이닝 가상현실 장치(1)의 상세 구성을 도시한 모식도이다. 도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 메디컬 트레이닝 가상현실 장치(1)는 리얼 영상 데이터(200)를 수신하고 가상현실 영상 데이터(300)를 출력하며, 팬텀 디텍션 모듈(100), 의료기구 디텍션 모듈(101), 팬텀 출력 모듈(102), 의료기구 출력 모듈(103), 정합 모듈(104), 수술효과 출력 모듈(105), 수술 평가 모듈(106)을 포함할 수 있다. Regarding the detailed configuration of the medical training virtual reality device 1, FIG. 2 is a schematic diagram showing the detailed configuration of the medical training virtual reality device 1 according to an embodiment of the present invention. 2, the medical training virtual reality device 1 according to an embodiment of the present invention receives the real image data 200 and outputs the virtual reality image data 300, the phantom detection module 100 ), A medical device detection module 101, a phantom output module 102, a medical device output module 103, a matching module 104, a surgical effect output module 105, and a surgical evaluation module 106. .

팬텀 디텍션 모듈(100)은 팬텀(10)에 구성된 복수개의 제1마커(20)를 기초로 팬텀의 기준면 벡터 및 카메라 모듈(2)과 같은 특정 지점을 기준으로 하는 위치 데이터를 생성하는 구성이다. 본 발명의 일실시예에 따르면, 팬텀 디텍션 모듈(100)은 기저장된 제1마커(20)의 3D 위치 데이터와 리얼 영상 데이터(200)에서 수신되는 제1마커(20)의 위치 데이터를 매칭하여 카메라 모듈(2)에서 팬텀(10)의 위치 데이터와 팬텀(10)의 각도 데이터가 포함된 팬텀(10)의 기준면 벡터 데이터를 생성하도록 구성될 수 있다. The phantom detection module 100 is a component that generates position data based on a specific point such as a reference plane vector and a camera module 2 of the phantom based on a plurality of first markers 20 configured in the phantom 10. According to an embodiment of the present invention, the phantom detection module 100 matches 3D position data of the first marker 20 pre-stored and position data of the first marker 20 received from the real image data 200. The camera module 2 may be configured to generate reference vector data of the phantom 10 including the position data of the phantom 10 and the angle data of the phantom 10.

의료기구 디텍션 모듈(101)은 의료기구(11)에 구성된 복수개의 제2마커(21)를 기초로 의료기구(11)의 기준면 벡터 및 카메라 모듈(2)과 같은 특정 지점을 기준으로 하는 위치 데이터를 생성하는 구성이다. 본 발명의 일실시예에 따르면, 의료기구 디텍션 모듈(101)은 기저장된 제2마커(21)의 3D 위치 데이터와 리얼 영상 데이터(200)에서 수신되는 제2마커(21)의 위치 데이터를 매칭하여 카메라 모듈(2)에서 의료기구(11)의 위치 데이터와 의료기구(11)의 각도 데이터가 포함된 의료기구(11)의 기준면 벡터 데이터를 생성하도록 구성될 수 있다. The medical device detection module 101 is based on a plurality of second markers 21 configured in the medical device 11, position data based on a specific point such as a reference plane vector and the camera module 2 of the medical device 11 It is a configuration that generates. According to an embodiment of the present invention, the medical device detection module 101 matches 3D position data of the pre-stored second marker 21 with the position data of the second marker 21 received from the real image data 200. The camera module 2 may be configured to generate reference surface vector data of the medical device 11 including the position data of the medical device 11 and the angle data of the medical device 11.

정합 모듈(104)은 상기 팬텀(10)의 기준면 벡터 데이터 및 상기 의료기구(11)의 기준면 벡터 데이터를 기초로 팬텀(10)의 기준면과 의료기구(11)의 기준면을 정합하여 정합 데이터를 생성하는 구성이다. 본 발명의 일실시예에 따른 정합 데이터는 상기 팬텀(10)의 기준면과 상기 의료기구(11)의 기준면 사이의 벡터 데이터로 구성될 수 있다. The matching module 104 matches the reference plane of the phantom 10 and the reference plane of the medical instrument 11 based on the reference plane vector data of the phantom 10 and the reference plane vector data of the medical instrument 11 to generate matching data It is a configuration. The registration data according to an embodiment of the present invention may be composed of vector data between the reference plane of the phantom 10 and the reference plane of the medical instrument 11.

팬텀 출력 모듈(102)은 팬텀(10)의 기준면 벡터 데이터 및 상기 정합 데이터를 기초로 팬텀을 3D 렌더링하는 모듈이다. 예를 들어, 백내장 수술 시뮬레이션의 경우, 팬텀 출력 모듈(102)은 현미경에 의해 확대된 상태의 안구를 3D 렌더링하여 출력하도록 구성될 수 있다. The phantom output module 102 is a module that 3D renders a phantom based on the reference plane vector data of the phantom 10 and the matching data. For example, in the case of cataract surgery simulation, the phantom output module 102 may be configured to output 3D rendering of the eye in an enlarged state by a microscope.

의료기구 출력 모듈(103)은 의료기구(11)의 기준면 벡터 데이터 및 상기 정합 데이터를 기초로 의료기구(11)를 팬텀(10)과 정합하여 3D 렌더링하는 모듈이다. 예를 들어, 백내장 수술 시뮬레이션의 경우, 의료기구 출력 모듈(103)은 현미경에 의해 확대된 상태의 의료기구를 안구와의 관계에서 3D 렌더링하여 출력하도록 구성될 수 있다. The medical device output module 103 is a module for 3D rendering the medical device 11 with the phantom 10 based on the reference plane vector data of the medical device 11 and the matching data. For example, in the case of cataract surgery simulation, the medical device output module 103 may be configured to output a medical device in an enlarged state by a microscope in 3D rendering in relation to the eyeball.

수술효과 출력 모듈(105)은 의료기구(11)의 움직임에 따라 발생되는 수술효과를 출력하는 모델이다. 수술효과 출력 모듈(105)에는 Rigid body & 파괴 시뮬레이션 모델, Cloth 시뮬레이션 모델, Soft body & Tear 시뮬레이션 모델, Fluid 시뮬레이션 모델을 포함할 수 있다. 또한, 커리큘럼 데이터를 포함하여 의료기구(11)의 특정 움직임에 따라 다음 커리큘럼으로 진행되는 수술효과, 해당 커리큘럼의 성공 및 실패에 따른 수술효과가 출력되도록 구성될 수 있다. The surgical effect output module 105 is a model that outputs a surgical effect generated according to the movement of the medical device 11. The surgical effect output module 105 may include a rigid body & destruction simulation model, a cloth simulation model, a soft body & tear simulation model, and a fluid simulation model. In addition, it may be configured to output the surgical effect according to the specific curriculum of the medical device 11, including the curriculum data, the surgical effect to proceed to the next curriculum, success and failure of the curriculum.

수술 평가 모듈(106)은 커리큘럼 데이터를 기초로 특정 단계에 대해 의료기구(11)의 움직임을 평가하고 성공 또는 실패로 해당 사용자의 의료기구(11)의 움직임을 평가하여 출력하는 모듈이다. The surgical evaluation module 106 is a module for evaluating the motion of the medical device 11 for a specific step based on the curriculum data and evaluating and outputting the motion of the medical device 11 of the corresponding user as success or failure.

메디컬 트레이닝 가상현실 방법과 관련하여, 도 3은 본 발명의 일실시예에 따른 메디컬 트레이닝 가상현실 방법을 도시한 흐름도이다. 도 3에 도시된 바와 같이, 본 발명의 일실시예에 따른 메디컬 트레이닝 가상현실 방법은 리얼 영상 데이터 수신 단계(S10), 팬텀 기준면 벡터 생성 단계(S11), 의료기구 기준면 벡터 생성 단계(S12), 정합 및 3D 렌더링 데이터 출력 단계(S13), 의료기구 움직임 단계(S14), 평가 단계(S15)를 포함할 수 있다. 3 is a flowchart illustrating a medical training virtual reality method according to an embodiment of the present invention. As shown in Figure 3, the medical training virtual reality method according to an embodiment of the present invention is a real image data receiving step (S10), a phantom reference plane vector generating step (S11), a medical device reference plane vector generating step (S12), Matching and 3D rendering data output step (S13), medical device movement step (S14), and may include an evaluation step (S15).

리얼 영상 데이터 수신 단계(S10)는 메디컬 트레이닝 가상현실 장치(1)가 카메라 모듈(2)에서 팬텀(10) 및 의료기구(11)를 촬영한 리얼 영상 데이터(200)를 수신하는 단계이다. In the real image data receiving step (S10), the medical training virtual reality device 1 receives the real image data 200 of the phantom 10 and the medical device 11 from the camera module 2.

팬텀 기준면 벡터 생성 단계(S11)는 메디컬 트레이닝 가상현실 장치(1)가 리얼 영상 데이터(200)의 팬텀(10)의 제1마커(20)를 이용하여 팬텀(10)의 기준면 벡터를 생성하는 단계이다. In the phantom reference plane vector generation step (S11), the medical training virtual reality device 1 generates a reference plane vector of the phantom 10 using the first marker 20 of the phantom 10 of the real image data 200. to be.

의료기구 기준면 벡터 생성 단계(S12)는 메디컬 트레이닝 가상현실 장치(1)가 리얼 영상 데이터(200)의 의료기구(11)의 제2마커(21)를 이용하여 의료기구(11)의 기준면 벡터를 생성하는 단계이다. In the medical device reference plane vector generation step (S12), the medical training virtual reality device 1 uses the second marker 21 of the medical device 11 of the real image data 200 to obtain the reference plane vector of the medical device 11. It is a step to create.

정합 및 3D 렌더링 데이터 출력 단계(S13)는 메디컬 트레이닝 가상현실 장치(1)가 팬텀(10)의 기준면 벡터 및 의료기구(11)의 기준면 벡터를 이용하여 정합 데이터를 생성하고, 팬텀(10) 및 의료기구(11)를 3D 렌더링하여 생성한 3D 렌더링 데이터를 HMD(3) 등의 디스플레이에 출력하는 단계이다. In the matching and 3D rendering data output step (S13), the medical training virtual reality device 1 generates registration data using the reference plane vector of the phantom 10 and the reference plane vector of the medical device 11, and the phantom 10 and This is a step of outputting 3D rendering data generated by 3D rendering of the medical device 11 to a display such as the HMD 3.

의료기구 움직임 단계(S14)는 사용자가 의료기구(11)를 움직이고, 의료기구(11)의 움직임에 다라 의료기구(11)의 기준면 벡터 및 의료기구(11)의 3D 렌더링 데이터가 업데이트되어 디스플레이에 출력되는 단계이다.In the medical device movement step (S14), the user moves the medical device 11, the reference plane vector of the medical device 11 and 3D rendering data of the medical device 11 are updated and displayed on the display according to the motion of the medical device 11. This is the output stage.

평가 단계(S15)는 업데이트된 의료기구(11)의 기준면 벡터 및 의료기구(11)의 3D 렌더링 데이터를 기초로 기저장된 커리큘럼에 따라 사용자의 의료기구(11)에 대한 움직임을 평가하여 평가 데이터를 생성하고, 생성된 평가 데이터를 출력하는 단계이다. The evaluation step S15 evaluates the motion of the user's medical device 11 according to a pre-stored curriculum based on the updated reference plane vector of the medical device 11 and the 3D rendering data of the medical device 11 to evaluate data. It is a step of generating and outputting the generated evaluation data.

본 발명의 변형예와 관련하여, 도 4는 본 발명의 변형예에 따른 메디컬 트레이닝 가상현실 장치(1)를 도시한 모식도이다. 도 4에 도시된 바와 같이, 본 발명의 변형예에 따른 메디컬 트레이닝 가상현실 장치(1)는 리얼 영상 데이터(200) 및 동작 감지 센서 데이터(201)을 입력받아 가상현실 영상 데이터(300) 및 평가 데이터(301)를 출력하도록 구성될 수 있다. 또한, 이를 위하여 메디컬 트레이닝 가상현실 장치(1)는 마커 디텍션 모듈(400), 오브젝트 디텍션 모듈(401), 세부 조정 모듈(402), 정합 모듈(403), 시뮬레이션 모듈(404), 오브젝트 출력 모듈(405), 효과 출력 모듈(406), 평가 모듈(407)을 포함할 수 있다. 4 is a schematic view showing a medical training virtual reality device 1 according to a modification of the present invention. As shown in FIG. 4, the medical training virtual reality device 1 according to a modification of the present invention receives the real image data 200 and the motion detection sensor data 201 and evaluates the virtual reality image data 300 and It can be configured to output data 301. In addition, for this, the medical training virtual reality device 1 includes a marker detection module 400, an object detection module 401, a detailed adjustment module 402, a matching module 403, a simulation module 404, and an object output module ( 405), an effect output module 406, and an evaluation module 407.

마커 디텍션 모듈(400)은 리얼 영상 데이터(200)를 수신하고, 리얼 영상 데이터(200)를 기초로 팬텀(10) 및 의료기구(11)에 구성된 복수개의 마커(식별마커 및 위치 마커)를 디텍션하여 팬텀 마커 데이터(식별 데이터 및 마커 위치 데이터) 및 의료기구 마커 데이터(식별 데이터 및 마커 위치 데이터)를 생성하는 모듈이다. 본 발명의 일실시예에 따른 마커는 식별 마커 및 위치 마커를 포함할 수 있고, 복수개의 마커를 포함하여 해당 오브젝트의 축 변화를 디텍션 할 수 있도록 구성될 수 있다. 식별 마커는 각 오브젝트별로 어떤 오브젝트인지 식별할 수 있는 마커를 의미하고, 색상 또는 모양, 코드, 나열된 모양, 부착 위치 등으로 구별될 수 있다. The marker detection module 400 receives the real image data 200 and detects a plurality of markers (identification markers and position markers) configured in the phantom 10 and the medical device 11 based on the real image data 200. It is a module that generates phantom marker data (identification data and marker position data) and medical device marker data (identification data and marker position data). The marker according to an embodiment of the present invention may include an identification marker and a location marker, and may include a plurality of markers to be configured to detect a change in the axis of the corresponding object. The identification marker means a marker capable of identifying which object is for each object, and may be distinguished by color or shape, code, listed shape, and attachment location.

오브젝트 디텍션 모듈(401)은 리얼 영상 데이터(200)를 수신하고, 리얼 영상 데이터(200)를 기초로 오브젝트를 디텍션하여 바운딩 박스를 구성하고 오브젝트를 분류하며, 오브젝트의 기준면 벡터 데이터를 생성하도록 구성될 수 있다. 본 발명의 일실시예에 따른 오브젝트 디텍션 모듈(401)은 카메라 모듈(2)에서 수신된 리얼 영상 데이터(200)를 복수개의 n x n 그리드 셀(Grid Cell)로 구획하고, 적어도 하나 이상의 그리드 셀로 구성되는 복수개의 바운딩 박스를 생성하며, 각 그리드 셀 별로 하나의 클래스(어떤 오브젝트인지, 즉 어떤 팬텀인지 및 어떤 의료기구인지)를 예측하여 클래스 예측 데이터를 생성하며, 기생성된 각각의 바운딩 박스마다 바운딩 박스 신뢰도를 출력하고, 상기 클래스 예측 데이터와 상기 바운딩 박스 신뢰도를 기초로 해당 바운딩 박스에 대한 클래스 신뢰도를 생성하며, 해당 바운딩 박스의 클래스 신뢰도를 기초로 기준 벡터 데이터를 예측하도록 구성될 수 있다. (The object detection module 401 may be configured to receive the real image data 200, detect an object based on the real image data 200, configure a bounding box, classify objects, and generate reference plane vector data of the object. Can be. The object detection module 401 according to an embodiment of the present invention divides the real image data 200 received from the camera module 2 into a plurality of nxn grid cells, and is composed of at least one grid cell. A plurality of bounding boxes are generated, and a class prediction data is generated by predicting one class (what object, ie, what kind of phantom, and which medical device) for each grid cell, and each bounding box creates a bounding box It may be configured to output reliability, generate class reliability for a corresponding bounding box based on the class prediction data and the bounding box reliability, and predict reference vector data based on the class reliability of the bounding box. (

구체적으로, 특정 그리드 셀에 대한 데이터는 오브젝트 위치 데이터(위치 x, y), 해당 그리드 셀이 포함된 복수개의 바운딩 박스에 대한 오브젝트 크기 데이터(너비 w, 높이 h), 포함된 각각의 바운딩 박스에 대한 바운딩 박스 신뢰도, 해당 그리드 셀에서 예측되는 클래스 예측 데이터를 포함할 수 있다. 이때, 바운딩 박스 신뢰도는 해당 바운딩 박스가 오브젝트를 포함할 확률 및 상기 마커 위치 데이터에 의해 생성되는 기준 박스를 Ground Truth로 할 때의 상기 바운딩 박스와 상기 기준 박스의 겹침 데이터(교집합 영역 넓이/합집합 영역 넓이)의 곱을 의미할 수 있고 오브젝트 디텍션 모듈(401)에 의해 생성될 수 있다. 또한, 클래스 예측 데이터는 특정 그리드 셀을 입력데이터로 하고 특정 클래스(팬텀 및 의료기구의 각 클래스들)를 출력데이터로 하여 기학습된 클래스 신뢰도 예측 CNN(Convolutional Neural Network, 오브젝트 디텍션 모듈(401)에 포함)에 의해 해당 그리드 셀에 대해 출력되는 클래스 예측값을 의미할 수 있다. 또한, 오브젝트 디텍션 모듈(401)은 상기 바운딩 박스 신뢰도 및 상기 클래스 예측 데이터의 곱을 기초로 특정 바운딩 박스에 대한 클래스 신뢰도를 출력하도록 구성될 수 있다. 본 발명의 일실시예에 따른 팬텀 및 의료기구의 각 클래스들은 예를 들어, 안과 미세수술 팬텀, 이비인후과 미세수술 팬텀, 하지 인젝션 팬텀, 상지 인젝션 팬텀, 안과 미세수술 의료기구, 이비인후과 미세수술 의료기구, 인젝션 의료기구 등을 포함할 수 있다. 또한, 본 발명의 일실시예에 따른 클래스 신뢰도 예측 CNN은 마커 중 오브젝트를 식별하는 식별 마커에 의해 클래스 레이블링 된 데이터로 클래스를 한정하고, 클래스 신뢰도 예측 CNN의 출력 노드 중 식별 마커에 의해 식별된 클래스가 아닌 다른 클래스를 예측하는 출력 노드에 대해 nulling 하도록 구성될 수 있다. Specifically, data for a specific grid cell includes object position data (position x, y), object size data (width w, height h) for a plurality of bounding boxes containing the grid cell, and each bounding box included. The bounding box reliability for the class may include class prediction data predicted from the corresponding grid cell. At this time, the reliability of the bounding box is the overlapping data of the bounding box and the reference box when the reference box generated by the probability that the corresponding bounding box includes the object and the reference box generated by the marker position data is ground truth (intersection area width / union area) Area) and may be generated by the object detection module 401. In addition, the class prediction data uses a specific grid cell as input data and a specific class (each class of phantom and medical devices) as output data to predict the learned class reliability to a convolutional neural network (CNN) object detection module 401. ), It may mean a class predicted value output for the corresponding grid cell. Also, the object detection module 401 may be configured to output a class reliability for a specific bounding box based on the product of the bounding box reliability and the class prediction data. Each class of phantoms and medical instruments according to an embodiment of the present invention includes, for example, ophthalmic microsurgery phantom, otorhinolaryngology microsurgery phantom, lower extremity injection phantom, upper limb injection phantom, ophthalmic microsurgery medical instrument, otolaryngology microsurgery medical instrument, Injection medical devices, and the like. In addition, the class reliability prediction CNN according to an embodiment of the present invention limits the class to data class-labeled by an identification marker identifying an object among markers, and a class identified by an identification marker among output nodes of the class reliability prediction CNN It can be configured to null for an output node that predicts a class other than.

오브젝트 디텍션 모듈(401)은 특정 바운딩 박스에 대한 클래스 신뢰도를 기초로 특정 오브젝트를 특정 클래스(팬텀 및 의료기구의 각 클래스들)로 확정하고, 클래스가 확정된 상기 바운딩 박스의 기준 벡터 데이터를 출력하도록 구성될 수 있다. 기준 벡터 데이터는 해당 오브젝트를 정교하게 렌더링하기 위해 렌더링의 기준이되는 벡터값을 의미하며, 3D axis의 위치(x,y,z) 및 방향을 포함할 수 있다. 본 발명의 일실시예에 따른 오브젝트 디텍션 모듈(401)에서 기준 벡터 데이터는 클래스가 확정된 바운딩 박스 및 클래스 신뢰도를 입력데이터로 하고 기준 벡터 데이터를 출력데이터로 하여 기학습된 기준 벡터 예측 CNN(Convolutional Neural Network, 오브젝트 디텍션 모듈(401)에 포함)에 의해 해당 클래스의 해당 바운딩 박스에 대해 출력되는 기준 벡터 예측값을 의미할 수 있다.The object detection module 401 determines a specific object as a specific class (each class of a phantom and a medical device) based on class reliability for a specific bounding box, and outputs reference vector data of the bounding box in which the class is determined. Can be configured. The reference vector data means a vector value that is a reference for rendering in order to precisely render the object, and may include a position (x, y, z) and direction of the 3D axis. The reference vector data in the object detection module 401 according to an embodiment of the present invention is a reference vector prediction CNN (Convolutional) by which the class bounding box and class reliability are input data and the reference vector data is output data. Neural Network (included in the object detection module 401) may mean a reference vector prediction value output for a corresponding bounding box of the corresponding class.

본 발명의 일실시예에 따른 오브젝트 디텍션 모듈(401)에 따르면, 바운딩 박스의 구성 자체를 예측하지 않고, 이미 생성된 바운딩 박스에 대해 클래스 신뢰도를 예측하도록 구성되므로 팬텀이나 의료기구의 클래스를 빠르게 디텍션하고 기준 벡터 데이터를 생성할 수 있는 효과가 발생된다. 이에 따르면, 하나의 메디컬 트레이닝에 복수개의 의료기구가 사용되는 경우, 가상현실 렌더링이 원활해지는 효과가 발생된다.According to the object detection module 401 according to an embodiment of the present invention, the configuration of the bounding box is not predicted, but the class reliability of the bounding box is generated. And generate an effect that can generate reference vector data. According to this, when a plurality of medical devices are used in one medical training, a virtual reality rendering effect is generated.

본 발명의 다른 실시예에 따른 오브젝트 디텍션 모듈(401)에 따르면, 메디컬 트레이닝 가상현실을 사용자가 이용할 때(inference 단계) 팬텀의 기준 벡터 데이터와 의료기구의 기준 벡터 데이터가 가장 근접했을 때의 렌더링된 팬텀의 영역과 렌더링된 의료기구의 영역의 거리를 Loss로 이용하여 기준 벡터 예측 CNN을 재학습하도록 구성될 수 있다. According to the object detection module 401 according to another embodiment of the present invention, when a medical training virtual reality is used by a user (inference step), the reference vector data of the phantom and the reference vector data of the medical device are rendered closest to each other. The distance between the phantom region and the rendered medical device region may be used to re-learn the reference vector prediction CNN.

세부 조정 모듈(402)은 외부의 특정 위치에 구성된 IR 센서, 마이크로파 센서 등과 같은 동작 감지 센서에서 입력되는 동작 감지 센서 데이터(201)를 수신하고, 동작 감지 센서 데이터(201)를 기초로 의료기구(11)의 변위를 감지하고, 의료기구(11)의 변위와 상기 오브젝트 디텍션 모듈(401)에 의해 출력된 기준 벡터 데이터의 변위를 비교하여 기준 벡터 데이터를 세부 조정하는 모듈이다. The detailed adjustment module 402 receives the motion detection sensor data 201 input from a motion detection sensor such as an IR sensor, a microwave sensor, etc. configured at a specific location outside, and based on the motion detection sensor data 201, a medical device ( It is a module that detects the displacement of 11) and compares the displacement of the medical instrument 11 with the displacement of the reference vector data output by the object detection module 401 to fine-tune the reference vector data.

정합 모듈(403)은 상기 팬텀의 기준 벡터 데이터 및 상기 의료기구의 기준 벡터 데이터를 기초로 시뮬레이션 공간내에서 가상의 오브젝트 매칭 및 공간 위치 반영을 수행하는 모듈이다. 예를 들어, 정합 모듈(403)은 상기 팬텀의 기준 벡터 데이터를 기준 축으로 하는 가상의 정합 공간을 생성하고, 상기 의료기구의 기준 벡터 데이터를 이 공간 내에 투영한 후 시뮬레이션 공간으로 변환하는 작업을 통해 현실의 오브젝트(팬텀, 의료기구)를 시뮬레이션 공간에 정합 시키는 작업을 실행하도록 구성될 수 있다.The matching module 403 is a module that performs virtual object matching and spatial location reflection in a simulation space based on the reference vector data of the phantom and the reference vector data of the medical device. For example, the matching module 403 generates a virtual matching space using the reference vector data of the phantom as a reference axis, projects the reference vector data of the medical device into the space, and converts it into a simulation space. Through this, it can be configured to execute a task of matching a real object (phantom, medical device) to a simulation space.

본 발명의 일실시예에 따른 정합 모듈(403)은 카메라 모듈(2)에 의해 입력된 2D의 리얼 영상 데이터(200)와 오브젝트 출력 모듈(405)에 의해 생성된 오브젝트 렌더링 데이터를 동일한 뷰 포인트에서 비교하고, 리얼 영상 데이터(200)와 오브젝트 렌더링 데이터와의 차이가 저감되도록 각 오브젝트의 기준 벡터 데이터를 보정하도록 구성될 수 있다. 본 발명의 일실시예에 따른 정합 모듈(403)이 오브젝트 렌더링 데이터에서 리얼 영상 데이터(200)와 동일한 뷰 포인트를 찾는 방법과 관련하여, 특정 오브젝트의 리얼 영상 데이터(200)에서의 기준 벡터 데이터와 시뮬레이션 환경에서의 기준 벡터 데이터가 동일하게 출력되는 오브젝트 렌더링 데이터의 뷰 포인트를 리얼 영상 데이터(200)와 동일한 뷰 포인트로 계산할 수 있다. The matching module 403 according to an embodiment of the present invention uses 2D real image data 200 input by the camera module 2 and object rendering data generated by the object output module 405 at the same view point. It can be configured to compare and correct the reference vector data of each object so that the difference between the real image data 200 and the object rendering data is reduced. With respect to a method for the matching module 403 to find the same view point in the object rendering data as the real image data 200 according to an embodiment of the present invention, the reference vector data in the real image data 200 of a specific object The view point of the object rendering data in which the reference vector data in the simulation environment is identically output may be calculated as the same view point as the real image data 200.

본 발명의 일실시예 따른 정합 모듈(403)은 각 오브젝트의 기준 벡터 데이터를 보정하는 강화학습 모듈을 포함할 수 있으며, 상기 강화학습 모듈은 환경(Environment)이 리얼 영상 데이터(200) 및 동일한 뷰 포인트를 가지는 오브젝트 렌더링 데이터이고, 상태(State)가 리얼 영상 데이터(200)와 동일한 뷰 포인트를 가지는 오브젝트 렌더링 데이터의 차이 벡터, 에이전트(Agent)가 각 오브젝트의 기준 벡터 데이터에 대한 보정(3D 위치 x,y,z 및 방향)을 수행하는 정합 모듈(403), 액션(Action)이 각 오브젝트의 기준 벡터 데이터에 대한 보정(3D 위치 x,y,z 및 방향)을 수행, 리워드(Reward)가 상기 차이 벡터의 저감률로 하여, 상기 에이전트가 상기 리워드를 취하는 방향으로 액션하도록 학습되는 강화학습 모듈을 의미할 수 있다. 정교한 정합을 위해서는 현실과 가상현실의 오브젝트(팬텀 및 의료기구)가 일치하여야 한다. 하지만, 3D 렌더링으로 제작되는 가상현실의 오브젝트와 사출성형이나 3D 프린팅 등으로 제작되는 현실의 오브젝트 사이에서는 제작 및 가공 과정에서 미세한 오차가 발생할 수 밖에 없다. 일반적인 경우에는 큰 문제가 아니나, 미세수술이나 인젝션의 경우에는 1mm 의 오차도 매우 큰 차이를 불러오고, 수련자의 몰입감 및 현실감을 방해하는 요소가 된다. 본 발명의 일실시예에 따른 정합 모듈(403)에 따르면, 강화학습에 의해 지속적으로 현실과 가상현실의 오브젝트가 일치하게 되므로, 위와 같은 가상현실 메디컬 트레이닝의 문제가 해소되는 효과가 발생된다.The matching module 403 according to an embodiment of the present invention may include a reinforcement learning module that corrects reference vector data of each object, and the reinforcement learning module has an environment in which the real image data 200 and the same view are identical. Difference vector between object rendering data that has points and object view data whose state is the same as real image data 200, and agent corrects for reference vector data of each object (3D position x , y, z and direction), the matching module 403, the action performs correction (3D position x, y, z and direction) for the reference vector data of each object, and the reward is recalled. As a reduction rate of the difference vector, it may mean a reinforcement learning module that is trained to act in the direction in which the agent takes the reward. For precise matching, objects of reality and virtual reality (phantom and medical devices) must match. However, between the object of the virtual reality produced by 3D rendering and the object of reality produced by injection molding or 3D printing, a fine error is inevitable in the manufacturing and processing process. In the general case, it is not a big problem, but in the case of microsurgery or injection, an error of 1 mm also causes a very large difference, and is a factor that interferes with the immersion and realism of the practitioner. According to the matching module 403 according to an embodiment of the present invention, since the objects of the reality and the virtual reality are consistently matched by the reinforcement learning, the effect of solving the above problems of the virtual reality medical training is generated.

시뮬레이션 모듈(404)은 상기 의료기구의 기준 벡터 데이터의 움직임 및 상기 팬텀의 기준 벡터 데이터와 상기 의료기구의 기준 벡터 데이터의 위치 관계를 통해 시뮬레이션 데이터 생성하는 모듈이다.The simulation module 404 is a module for generating simulation data through the movement of the reference vector data of the medical device and the positional relationship between the reference vector data of the phantom and the reference vector data of the medical device.

오브젝트 출력 모듈(405)은 정합 모듈(403)에 의해 정합되고 시뮬레이션 모듈(404)에 의해 시뮬레이션 된 상기 의료기구의 기준 벡터 데이터 및 상기 팬텀의 기준 벡터 데이터를 기초로 3D 렌더링된 오브젝트인 오브젝트 렌더링 데이터 및 효과 데이터 생성 및 출력하는 모듈이다. 예를 들어, 백내장 수술 시뮬레이션의 경우, 오브젝트 출력 모듈(405)은 현미경에 의해 확대된 상태의 안구를 3D 렌더링하여 출력하도록 구성될 수 있다. 또한, 예를 들어, 백내장 수술 시뮬레이션의 경우, 오브젝트 출력 모듈(405)은 현미경에 의해 확대된 상태의 수술기구를 안구와의 관계에서 3D 렌더링하여 출력하도록 구성될 수 있다. The object output module 405 is an object rendering data that is a 3D rendered object based on the reference vector data of the medical device and the reference vector data of the phantom matched by the matching module 403 and simulated by the simulation module 404. And a module for generating and outputting effect data. For example, in the case of a cataract surgery simulation, the object output module 405 may be configured to output 3D rendering of the eye in an enlarged state by a microscope. In addition, for example, in the case of a cataract surgery simulation, the object output module 405 may be configured to output a 3D rendered surgical instrument in a state enlarged by a microscope in relation to the eyeball.

효과 출력 모듈(406)은 의료기구(11)의 움직임에 따라 발생되는 수술효과인 효과 데이터를 출력하는 모델이다. 효과 출력 모듈(406)에는 Rigid body & 파괴 시뮬레이션 모델, Cloth 시뮬레이션 모델, Soft body & Tear 시뮬레이션 모델, Fluid 시뮬레이션 모델을 포함할 수 있다. 또한, 커리큘럼 데이터를 포함하여 의료기구(11)의 특정 움직임에 따라 다음 커리큘럼으로 진행되는 수술효과, 해당 커리큘럼의 성공 및 실패에 따른 수술 효과가 출력되도록 구성될 수 있다.The effect output module 406 is a model that outputs effect data, which is a surgical effect generated according to the movement of the medical device 11. The effect output module 406 may include a rigid body & destruction simulation model, a cloth simulation model, a soft body & tear simulation model, and a fluid simulation model. In addition, it may be configured to output the surgical effect according to the specific curriculum of the medical device 11, including the curriculum data, the surgical effect proceeding to the next curriculum, success and failure of the curriculum.

평가 모듈(407)은 커리큘럼 데이터를 기초로 특정 단계에 대해 의료기구(11)의 움직임을 평가하고 성공 또는 실패로 해당 사용자의 의료기구(11)의 움직임을 평가하여 평가 데이터(301)를 출력하는 모듈이다.The evaluation module 407 evaluates the movement of the medical device 11 for a specific step based on the curriculum data, and evaluates the movement of the medical device 11 of the corresponding user as success or failure to output the evaluation data 301 It is a module.

오브젝트 출력 모듈(405) 및 효과 출력 모듈(406)에서 출력되는 오브젝트 렌더링 데이터 및 효과 데이터는 오브젝트 출력 모듈(405) 및 효과 출력 모듈(406)과 연결된 HMD, 일반 디스플레이, 빔 프로젝션 등에 출력되도록 구성될 수 있다. 또한, 평가 데이터는 평가 모듈(407)과 연결된 웹서버를 통해 메디컬 트레이닝을 진행한 수련자의 클라이언트 및 지도자의 클라이언트에 출력될 수 있다. The object rendering data and effect data output from the object output module 405 and the effect output module 406 may be configured to be output to HMD, general display, beam projection, etc. connected to the object output module 405 and the effect output module 406. Can be. In addition, the evaluation data may be output to a client of a trainee who has undergone medical training and a client of a leader through a web server connected to the evaluation module 407.

이상에서 설명한 바와 같이, 본 발명이 속하는 기술 분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 상술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함하는 것으로 해석되어야 한다.As described above, those skilled in the art to which the present invention pertains will understand that the present invention may be implemented in other specific forms without changing its technical spirit or essential features. Therefore, the above-described embodiments should be understood as illustrative in all respects and not restrictive. The scope of the present invention is indicated by the following claims rather than the detailed description, and all modifications or variations derived from the meaning and scope of the claims and equivalent concepts should be interpreted to be included in the scope of the present invention.

본 명세서 내에 기술된 특징들 및 장점들은 모두를 포함하지 않으며, 특히 많은 추가적인 특징들 및 장점들이 도면들, 명세서, 및 청구항들을 고려하여 당업자에게 명백해질 것이다. 더욱이, 본 명세서에 사용된 언어는 주로 읽기 쉽도록 그리고 교시의 목적으로 선택되었고, 본 발명의 주제를 묘사하거나 제한하기 위해 선택되지 않을 수도 있다는 것을 주의해야 한다.The features and advantages described in this specification are not all inclusive, and many additional features and advantages will become apparent to those skilled in the art in view of the drawings, specifications, and claims. Moreover, it should be noted that the language used herein has been chosen primarily for readability and for teaching purposes, and may not be selected to describe or limit the subject matter of the present invention.

본 발명의 실시예들의 상기한 설명은 예시의 목적으로 제시되었다. 이는 개시된 정확한 형태로 본 발명을 제한하거나, 빠뜨리는 것 없이 만들려고 의도한 것이 아니다. 당업자는 상기한 개시에 비추어 많은 수정 및 변형이 가능하다는 것을 이해할 수 있다.The foregoing description of embodiments of the invention has been presented for purposes of illustration. It is not intended to be exhaustive or to limit the invention to the precise form disclosed. Those skilled in the art can understand that many modifications and variations are possible in light of the above disclosure.

그러므로 본 발명의 범위는 상세한 설명에 의해 한정되지 않고, 이를 기반으로 하는 출원의 임의의 청구항들에 의해 한정된다. 따라서, 본 발명의 실시예들의 개시는 예시적인 것이며, 이하의 청구항에 기재된 본 발명의 범위를 제한하는 것은 아니다.Therefore, the scope of the present invention is not limited by the detailed description, but by any claims of the application based thereon. Accordingly, the disclosure of the embodiments of the present invention is exemplary and does not limit the scope of the present invention as set forth in the claims below.

Claims (1)

미세수술 또는 인젝션 시뮬레이션을 위한 팬텀과 의료기구를 촬영한 리얼 영상 데이터를 수신하고 상기 팬텀 및 상기 의료기구의 가상현실 영상 데이터를 출력하도록 구성되는 프로그램 코드를 저장하는 메모리 모듈; 및A memory module for storing program code configured to receive real image data of a phantom and a medical device for microsurgery or injection simulation and to output virtual reality image data of the phantom and the medical device; And 상기 프로그램 코드를 처리하여 상기 가상현실 영상 데이터를 연결된 출력 모듈에 출력하는 처리 모듈;A processing module that processes the program code and outputs the virtual reality image data to a connected output module; 을 포함하고, Including, 상기 프로그램 코드는,The program code, 상기 리얼 영상 데이터에서의 상기 팬텀에 구성된 팬텀 마커를 기초로 팬텀 마커 데이터를 생성하고, 상기 의료기구에 구성된 의료기구 마커를 기초로 의료기구 마커 데이터를 생성하는 마커 디텍션 단계;A marker detection step of generating phantom marker data based on the phantom marker configured on the phantom in the real image data, and generating medical instrument marker data based on the medical instrument marker configured on the medical instrument; 상기 리얼 영상 데이터를 복수개의 그리드 셀로 구획하고, 적어도 하나 이상의 상기 그리드 셀로 구성되는 복수개의 바운딩 박스를 생성하며, 상기 그리드 셀 각각에 대해 상기 팬텀 및 상기 의료기구에 대한 클래스를 예측하여 클래스 예측 데이터를 생성하고, 상기 바운딩 박스 각각에 대해 상기 팬텀 또는 상기 의료기구가 상기 바운딩 박스 내에 포함될 확률과 겹침 데이터를 곱한 바운딩 박스 신뢰도를 생성하며, 상기 클래스 예측 데이터 및 상기 바운딩 박스 신뢰도의 곱을 기초로 상기 바운딩 박스에 대한 클래스 신뢰도를 출력하며, 상기 바운딩 박스에 대한 상기 클래스 신뢰도를 기초로 확정된 오브젝트인 상기 팬텀 및 상기 의료기구에 대해 기준 벡터 데이터를 생성하는 오브젝트 디텍션 단계;Divide the real image data into a plurality of grid cells, generate a plurality of bounding boxes composed of at least one of the grid cells, and predict class for the phantom and the medical device for each of the grid cells to obtain class prediction data. Generates, a bounding box reliability multiplied by the overlapping data and a probability that the phantom or the medical device will be included in the bounding box for each of the bounding boxes, and based on the product of the class prediction data and the bounding box reliability, the bounding box An object detection step of outputting a class reliability for the, and generating reference vector data for the phantom and the medical device, which are objects determined based on the class reliability for the bounding box; 상기 팬텀의 상기 기준 벡터 데이터 및 상기 의료기구의 상기 기준 벡터 데이터를 기초로 시뮬레이션 공간내에서 가상의 오브젝트 매칭 및 공간 위치 반영을 수행하여 정합 데이터를 생성하는 정합 단계;A matching step of generating matching data by performing virtual object matching and spatial location reflection in a simulation space based on the reference vector data of the phantom and the reference vector data of the medical device; 상기 팬텀의 상기 기준 벡터 데이터, 상기 의료기구의 상기 기준 벡터 데이터 및 상기 정합 데이터를 기초로 상기 팬텀에 대한 3D 렌더링 데이터인 팬텀 렌더링 데이터 및 상기 의료기구에 대한 3D 렌더링 데이터인 의료기구 렌더링 데이터를 생성하고 상기 가상현실 영상 데이터를 출력하는 렌더링 단계; 및Phantom rendering data, which is 3D rendering data for the phantom, and medical device rendering data, which is 3D rendering data for the medical device, are generated based on the reference vector data of the phantom, the reference vector data of the medical device, and the matching data. And a rendering step of outputting the virtual reality image data; And 상기 의료기구의 움직임에 따라 상기 의료기구의 상기 기준 벡터 데이터를 업데이트하고, 업데이트된 상기 의료기구의 상기 기준 벡터 데이터를 기준으로 상기 의료기구 렌더링 데이터를 업데이트하여 상기 가상현실 영상 데이터를 출력하는 시뮬레이션 단계; A simulation step of updating the reference vector data of the medical device according to the movement of the medical device, and outputting the virtual reality image data by updating the medical device rendering data based on the updated reference vector data of the medical device. ; 를 포함하여 컴퓨터 상에서 수행되도록 구성되고,It is configured to be performed on a computer, including, 상기 겹침 데이터는, 상기 팬텀 마커 데이터 또는 상기 의료기구 마커 데이터가 상기 바운딩 박스와 겹치는 정도에 대한 데이터를 의미하고,The overlapping data refers to data on the degree to which the phantom marker data or the medical device marker data overlaps the bounding box, 상기 오브젝트 디텍션 단계에서 상기 클래스 예측 데이터의 생성은, 상기 그리드 셀을 입력데이터로 하고 상기 팬텀 및 상기 의료기구에 대한 상기 클래스를 출력데이터로 하여 기학습된 클래스 신뢰도 예측 CNN(Convolutional Neural Network)에 의해 상기 그리드 셀에 대한 상기 클래스 예측 데이터가 생성되며,In the object detection step, the generation of the class prediction data is performed by a previously learned class reliability prediction CNN (Convolutional Neural Network) using the grid cell as input data and the class for the phantom and the medical device as output data. The class prediction data for the grid cell is generated, 상기 오브젝트 디텍션 단계에서 상기 기준 벡터 데이터의 생성은, 상기 클래스가 확정된 상기 바운딩 박스 및 상기 바운딩 박스의 상기 클래스 신뢰도를 입력데이터로 하고 상기 기준 벡터 데이터를 출력데이터로 하여 기학습된 기준 벡터 예측 CNN(Convolutional Neural Network)에 의해 상기 클래스의 상기 바운딩 박스에 대한 상기 기준 벡터 데이터가 생성되고,The generation of the reference vector data in the object detection step includes: learning the reference vector prediction CNN using the bounding box in which the class is determined and the class reliability of the bounding box as input data and the reference vector data as output data. The reference vector data for the bounding box of the class is generated by (Convolutional Neural Network), 상기 정합 단계에서, 환경(Environment)을 상기 리얼 영상 데이터와 동일한 뷰 포인트를 가지는 상기 팬텀 렌더링 데이터 및 상기 의료기구 렌더링 데이터를 정합한 데이터인 상기 정합 데이터로 하고, 상태(State)를 상기 리얼 영상 데이터와 동일한 뷰 포인트를 가지는 상기 정합 데이터와의 차이 벡터로 하며, 에이전트(Agent)를 상기 기준 벡터 데이터에 대한 위치 및 방향의 보정을 수행하는 정합 모듈로 하며, 액션(Action)을 상기 기준 벡터 데이터에 대한 보정으로 하고, 리워드(Reward)를 상기 차이 벡터의 저감률로 하여 기학습된 강화학습 모듈에 의해 상기 기준 벡터 데이터가 보정되며,In the matching step, an environment is set as the matching data, which is data matching the phantom rendering data and the medical device rendering data having the same view point as the real image data, and a state is the real image data. Set as the difference vector from the matching data having the same view point as and, the agent (Agent) as a matching module that performs the correction of the position and direction for the reference vector data, the action (Action) to the reference vector data The reference vector data is corrected by a reinforcement learning module that is pre-learned using a correction as a correction factor and a reward as a reduction rate of the difference vector, 상기 렌더링 단계 및 상기 시뮬레이션 단계에서의 상기 가상현실 영상 데이터의 출력은 특정 배율로 확대된 현미경 형태의 인터페이스로 HMD, AR HMD 및 디스플레이에 연결된 클라이언트에 출력되는 것을 특징으로 하는,Characterized in that the output of the virtual reality image data in the rendering step and the simulation step is output to a client connected to an HMD, an AR HMD, and a display in a microscopic interface enlarged at a specific magnification, 미세수술 및 인젝션을 포함한 메디컬 트레이닝 가상현실 장치.Medical training virtual reality device including microsurgery and injection.
PCT/KR2019/014381 2018-10-29 2019-10-29 Virtual reality device for medical training including microsurgery and injection Ceased WO2020091385A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2018-0129981 2018-10-29
KR20180129981 2018-10-29
KR20180129982 2018-10-29
KR10-2018-0129982 2018-10-29

Publications (1)

Publication Number Publication Date
WO2020091385A1 true WO2020091385A1 (en) 2020-05-07

Family

ID=70461860

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/014381 Ceased WO2020091385A1 (en) 2018-10-29 2019-10-29 Virtual reality device for medical training including microsurgery and injection

Country Status (2)

Country Link
KR (1) KR102116423B1 (en)
WO (1) WO2020091385A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113706960A (en) * 2021-08-29 2021-11-26 华中科技大学同济医学院附属协和医院 Nursing operation exercise platform based on VR technology and use method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102711464B1 (en) * 2022-03-02 2024-10-11 주식회사 에이치티코어 Intravenous Injection Simulation Program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140077029A (en) * 2012-12-13 2014-06-23 전자부품연구원 Apparatus and method for simulating laparoscopic surgery
US20140287393A1 (en) * 2010-11-04 2014-09-25 The Johns Hopkins University System and method for the evaluation of or improvement of minimally invasive surgery skills
KR101700847B1 (en) * 2014-03-31 2017-01-31 이미숙 Method for Providing Training of Image Guided Surgery and Computer-readable Recording Medium for the same
KR101862359B1 (en) * 2017-12-28 2018-06-29 (주)휴톰 Program and method for generating surgical simulation information
KR101887805B1 (en) * 2017-03-23 2018-08-10 최재용 System for simulating laparoscopic surgery base on augmented reality and method for using the same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1504431A1 (en) * 2002-05-10 2005-02-09 Haptica Limited A surgical training simulator
KR101280170B1 (en) * 2011-08-01 2013-06-28 김현아 Method for processing Augmented-Reality-based Information Mobile Terminal
KR20140112207A (en) * 2013-03-13 2014-09-23 삼성전자주식회사 Augmented reality imaging display system and surgical robot system comprising the same
KR101843992B1 (en) * 2017-11-30 2018-05-14 재단법인 구미전자정보기술원 Augmented reality based cannula guide system for interventional cardiology procedures and method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140287393A1 (en) * 2010-11-04 2014-09-25 The Johns Hopkins University System and method for the evaluation of or improvement of minimally invasive surgery skills
KR20140077029A (en) * 2012-12-13 2014-06-23 전자부품연구원 Apparatus and method for simulating laparoscopic surgery
KR101700847B1 (en) * 2014-03-31 2017-01-31 이미숙 Method for Providing Training of Image Guided Surgery and Computer-readable Recording Medium for the same
KR101887805B1 (en) * 2017-03-23 2018-08-10 최재용 System for simulating laparoscopic surgery base on augmented reality and method for using the same
KR101862359B1 (en) * 2017-12-28 2018-06-29 (주)휴톰 Program and method for generating surgical simulation information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113706960A (en) * 2021-08-29 2021-11-26 华中科技大学同济医学院附属协和医院 Nursing operation exercise platform based on VR technology and use method

Also Published As

Publication number Publication date
KR20200049646A (en) 2020-05-08
KR102116423B1 (en) 2020-05-28

Similar Documents

Publication Publication Date Title
US9595208B2 (en) Trauma training simulator with event-based gesture detection and instrument-motion tracking
US11373550B2 (en) Augmented reality training system
US20140315174A1 (en) Universal microsurgical simulator
EP4128171A1 (en) Method and system for facilitating remote presentation or interaction
Mishra et al. Artificial intelligence and ophthalmic surgery
CN108154778A (en) Based on motion-captured and mixed reality ophthalmologic operation training system and method
US20210286996A1 (en) Machine Learning System for Identifying a State of a Surgery, and Assistance Function
US12144570B2 (en) Robotic surgical system and method for configuring a surgical robot
US12300119B2 (en) Ocular simulated camera assisted robot for live, virtual or remote eye surgery training apparatus and method
WO2020091385A1 (en) Virtual reality device for medical training including microsurgery and injection
CN115454254A (en) Endoscopic guided transnasal virtual simulated surgery method and device
Gomaa et al. Towards a surgeon-in-the-loop ophthalmic robotic apprentice using reinforcement and imitation learning
CN116486665A (en) Construction method of cataract surgery simulation teaching model based on digital twin technology
CN207264655U (en) Based on motion-captured and mixed reality ophthalmologic operation training system
AU2022339494B2 (en) Using mixed-reality hardware for range of motion estimation during robot-assisted orthopedic surgery
Aghapour et al. Development and Integration of an Advanced GUI with Real-Time Data Logging for RCM-Based Robotic Surgery Devices
Mukai et al. Development of a PC‐based real‐time surgical simulator
US20240268892A1 (en) Virtual Reality Surgical Systems And Methods Including Virtual Navigation
Heidari et al. A Survey of Versatile AI/Robotic Architectures for Ophthalmic Surgery Training
US20240268890A1 (en) Surgery simulation system and method
Fan Autonomous object manipulation for robot assisted minimally invasive surgery
Barea et al. Cataract surgery simulator for medical education
WO2022014246A1 (en) Device, computer program and method for predicting post-surgical performance of a patient
Ottensmeyer et al. Development of an ocular and craniofacial trauma treatment training system
Abulgasem A haptic surgical simulator for cataract eye surgery using circular wave model

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19877737

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 01.10.2021)

122 Ep: pct application non-entry in european phase

Ref document number: 19877737

Country of ref document: EP

Kind code of ref document: A1