KR20230032454A - Home training system using artificial intelligence - Google Patents
Home training system using artificial intelligence Download PDFInfo
- Publication number
- KR20230032454A KR20230032454A KR1020210115313A KR20210115313A KR20230032454A KR 20230032454 A KR20230032454 A KR 20230032454A KR 1020210115313 A KR1020210115313 A KR 1020210115313A KR 20210115313 A KR20210115313 A KR 20210115313A KR 20230032454 A KR20230032454 A KR 20230032454A
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- joint
- exercise
- unit
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0003—Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
- A63B24/0006—Computerised comparison for qualitative assessment of motion sequences or the course of a movement
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B23/00—Exercising apparatus specially adapted for particular parts of the body
- A63B23/035—Exercising apparatus specially adapted for particular parts of the body for limbs, i.e. upper or lower limbs, e.g. simultaneously
- A63B23/12—Exercising apparatus specially adapted for particular parts of the body for limbs, i.e. upper or lower limbs, e.g. simultaneously for upper limbs or related muscles, e.g. chest, upper back or shoulder muscles
- A63B23/1209—Involving a bending of elbow and shoulder joints simultaneously
- A63B23/1236—Push-ups in horizontal position, i.e. eccentric movement
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B71/0622—Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B71/0669—Score-keepers or score display devices
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0003—Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
- A63B24/0006—Computerised comparison for qualitative assessment of motion sequences or the course of a movement
- A63B2024/0012—Comparing movements or motion sequences with a registered reference
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/20—Distances or displacements
- A63B2220/24—Angular displacement
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/806—Video cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
- G06T2207/20044—Skeletonization; Medial axis transform
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physical Education & Sports Medicine (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
인공지능을 이용한 사용자의 운동 동작에 대한 분석을 통해 홈 트레이닝을 제공하는 시스템으로서, 사용자의 신체에 대한 적어도 하나 이상의 관절조인트를 측정하는 관절측정부; 인공지능 알고리즘을 이용하여, 상기 관절측정부에 의한 데이터에서 사용자의 운동 동작을 인식하여 미리 설정되는 어느 하나의 운동으로 분류하는 동작분류부; 및 1 횟수로 카운팅되는 상기 운동의 단위 동작을 표준 동작과 비교하여 동작일치율을 산정하는 일치율산정부;를 포함하는 인공지능을 이용한 홈 트레이닝 시스템을 제공한다.A system for providing home training through analysis of a user's exercise motion using artificial intelligence, comprising: a joint measurement unit for measuring at least one joint of a user's body; Using an artificial intelligence algorithm, motion classifying unit for recognizing the user's exercise motion from the data by the joint measurement unit and classifying it into any one motion that is preset; and a coincidence rate calculation unit that compares the unit motion of the exercise, which is counted as 1 time, with a standard motion to calculate a motion coincidence rate.
Description
본 발명은 카메라 등을 이용하여 사용자의 운동 동작을 인식하고, 분석하여 이에 대한 피드백을 제공하는 인공지능을 이용한 홈 트레이닝 시스템에 관한 것이다.The present invention relates to a home training system using artificial intelligence that recognizes and analyzes a user's exercise motion using a camera and provides feedback thereto.
코로나-19의 영향으로 헬스장과 체육 시설에 대한 이용이 제한됨에 따라 개인 운동과 홈 트레이닝을 하는 '홈트족(집에서 운동하는 사람들)'이 증가하는 추세에 있다. 초기에는 코로나-19로 인해 늘어난 체중 감량을 위해 홈 트레이닝을 시작했지만, 지금은 자신의 건강을 위해 홈 트레이닝을 하는 사람들이 많아져 홈 트레이닝이 새로운 운동 문화로 자리 잡고 있다. 이로 인해, 동시에 스마트 헬스케어 산업 또한 각광을 받고 있으며 현재 관련된 콘텐츠가 개발되고 있다.As the use of gyms and sports facilities is restricted due to the influence of COVID-19, the number of 'homets' (people who exercise at home) who do personal exercise and home training is increasing. In the early days, I started home training to lose weight due to Corona-19, but now more people do home training for their health, and home training is becoming a new exercise culture. Due to this, at the same time, the smart healthcare industry is also in the limelight, and related contents are currently being developed.
그러나, 홈 트레이닝은 운동에 대한 전문적 지식이 없는 상태에서 잘못된 동작의 반복으로 관절의 무리를 주고 결국 부상으로 이어질 수 있다는 문제점이 있었다. 또한, 종래 영상물을 통해 이를 모방하는 방식은 트레이너의 단면적 모습에 국한되며 개인 자세에 대한 피드백이 어렵다는 문제점이 있었다.However, home training has a problem in that, in the absence of professional knowledge about exercise, repetition of wrong motions may give a strain to joints and eventually lead to injury. In addition, the method of imitating it through a conventional video is limited to the cross-sectional shape of the trainer, and there is a problem in that feedback on the individual posture is difficult.
본 발명의 실시예는 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 부상이나 안전 사고 없이 홈 트레이닝의 운동 효과를 극대화할 수 있는 인공지능을 이용한 홈 트레이닝 시스템을 제공하고자 한다.Embodiments of the present invention have been made to solve the above problems, and to provide a home training system using artificial intelligence that can maximize the exercise effect of home training without injury or safety accidents.
사용자의 운동 동작을 정확하게 인식하고, 표준 동작과 비교한 동작 일치율을 산정하고자 한다. 사용자의 운동 횟수, 운동 시간, 동작 일치율을 포함하는 운동 데이터를 시각화하여 제공하고자 한다.We want to accurately recognize the user's exercise motion and calculate the motion agreement rate compared to the standard motion. It is intended to visualize and provide exercise data including the user's exercise count, exercise time, and motion matching rate.
또한, 사용자의 스마트디바이스에 설치되는 전용 애플리케이션을 개발하여 본 시스템에 대한 사용자 편의성을 보다 향상시키고자 한다. 또한, 사용자의 신체를 정확하게 파악하고 운동 중 잘못된 자세에 대한 피드백을 제공하고자 한다.In addition, it is intended to further improve user convenience for this system by developing a dedicated application installed on the user's smart device. In addition, it is intended to accurately identify the user's body and provide feedback on incorrect posture during exercise.
또한, 본 시스템의 각 구성요소 사이의 결합 관계를 용이하게 하여 유지, 관리가 편리하도록 한다.In addition, it facilitates the coupling relationship between each component of the present system to make maintenance and management convenient.
본 발명의 실시예는 상기와 같은 과제를 해결하고자, 인공지능을 이용한 사용자의 운동 동작에 대한 분석을 통해 홈 트레이닝을 제공하는 시스템으로서, 사용자의 신체에 대한 적어도 하나 이상의 관절조인트를 측정하는 관절측정부; 인공지능 알고리즘을 이용하여, 상기 관절측정부에 의한 데이터에서 사용자의 운동 동작을 인식하여 미리 설정되는 어느 하나의 운동으로 분류하는 동작분류부; 및 1 횟수로 카운팅되는 상기 운동의 단위 동작을 표준 동작과 비교하여 동작일치율을 산정하는 일치율산정부;를 포함하는 인공지능을 이용한 홈 트레이닝 시스템을 제공한다.An embodiment of the present invention is a system for providing home training through analysis of a user's exercise motion using artificial intelligence in order to solve the above problems, joint measurement for measuring at least one joint of the user's body. wealth; Using an artificial intelligence algorithm, motion classifying unit for recognizing the user's exercise motion from the data by the joint measurement unit and classifying it into any one motion that is preset; and a coincidence rate calculation unit that compares the unit motion of the exercise, which is counted as 1 time, with a standard motion to calculate a motion coincidence rate.
상기 관절측정부는 사용자의 정면에 배치되는 제1측정부 및 사용자의 어느 일 측면에 배치되는 제2측정부를 포함하고, 상기 동작분류부에 의해 분류되는 운동에 따라, 상기 제1측정부와 상기 제2측정부에 의한 데이터의 가중치를 달리하는 것이 바람직하다.The joint measurement unit includes a first measurement unit disposed in front of the user and a second measurement unit disposed on one side of the user, and according to the motion classified by the motion classifying unit, the first measurement unit and the first measurement unit. It is desirable to vary the weight of the data by the two measuring units.
상기 관절측정부는 상기 관절조인트에 관한 공간 위치를 측정하는 것이 바람직하다.Preferably, the joint measuring unit measures the spatial position of the joint joint.
상기 일치율산정부는 미리 설정되는 복수 개의 상기 관절조인트 사이에 형성되는 각도데이터 집합인 제1특징그룹과, 상기 관절조인트 사이에 형성되는 거리데이터 집합인 제2특징그룹을 이용하여, 동작일치율을 산정하는 것이 바람직하다.The coincidence rate calculation unit calculates the motion coincidence rate using a first feature group, which is a set of angle data formed between a plurality of previously set joint joints, and a second feature group, which is a set of distance data formed between the joint joints. It is desirable to do
표준 동작은 복수 개의 표준 자세로 이루어지며, 상기 표준 자세는 상기 제1특징그룹 중 적어도 하나 이상과 상기 제2특징그룹 중 적어도 어느 하나 이상의 조합으로 판단되는 것이 바람직하다.The standard motion is composed of a plurality of standard postures, and the standard posture is preferably determined as a combination of at least one or more of the first characteristic group and at least one or more of the second characteristic group.
사용자의 운동 횟수, 운동 시간, 동작일치율에 대한 통계 그래프를 출력하는 디스플레이부;를 더 포함하는 것이 바람직하다.It is preferable to further include; a display unit that outputs a statistical graph for the number of times of exercise, exercise time, and motion agreement rate of the user.
사용자의 양 손목에 착용되어 시간에 따른 팔꿈치의 각도 변화량을 측정하는 센서유닛;을 더 포함하며, 상기 운동은 푸쉬업을 적어도 포함하는 것이 바람직하다.The sensor unit is worn on both wrists of the user and measures the amount of change in the angle of the elbow over time, and the exercise preferably includes at least a push-up.
이상에서 살펴본 바와 같은 본 발명의 과제해결 수단에 의하면 다음과 같은 사항을 포함하는 다양한 효과를 기대할 수 있다. 다만, 본 발명이 하기와 같은 효과를 모두 발휘해야 성립되는 것은 아니다.According to the problem solving means of the present invention as described above, various effects including the following can be expected. However, the present invention is not established when all of the following effects are exhibited.
본 발명의 일 실시예에 따른 인공지능을 이용한 홈 트레이닝 시스템은 부상이나 안전 사고 없이 홈 트레이닝의 운동 효과를 극대화할 수 있다. 또한, 사용자의 운동 동작을 정확하게 인식하고, 표준 동작과 비교한 동작 일치율을 산정할 수 있다. 또한, 사용자의 운동 횟수, 운동 시간, 동작 일치율을 포함하는 운동 데이터를 시각화하여 제공할 수 있다.The home training system using artificial intelligence according to an embodiment of the present invention can maximize the exercise effect of home training without injury or safety accidents. In addition, it is possible to accurately recognize the user's exercise motion and calculate a motion matching rate compared with a standard motion. In addition, it is possible to visualize and provide exercise data including the user's exercise frequency, exercise time, and motion matching rate.
또한, 사용자의 스마트디바이스에 설치되는 전용 애플리케이션을 통해 사용자 편의성을 보다 향상시킬 수 있다. 또한, 사용자의 신체를 정확하게 파악하고 운동 중 잘못된 자세에 대한 피드백을 제공할 수 있다. 또한, 본 시스템의 각 구성요소 사이의 결합 관계를 용이하게 하여 유지, 관리가 편리하게 할 수 있다.In addition, user convenience can be further improved through a dedicated application installed in the user's smart device. In addition, it is possible to accurately identify the user's body and provide feedback on incorrect posture during exercise. In addition, it is possible to facilitate maintenance and management by facilitating the coupling relationship between each component of the present system.
도 1은 일 실시예에 따른 인공지능을 이용한 홈 트레이닝 시스템의 블록도.
도 2는 도 1의 신체에 대한 관절조인트를 보여주는 개념도.
도 3은 도 2에서 임의로 설정되는 세 지점의 관절조인트 사이에 형성되는 각도데이터 및 거리데이터를 보여주는 도면.
도 4는 도 1의 시스템에서 운동 동작을 구현하기 위해 인공지능 알고리즘을 이용하여 딥러닝을 실행하는 모습 이미지.
도 5는 도 1의 시스템에 데이터 셋을 위한 다양한 각도의 이미지 예시도.
도 6은 도 1의 시스템을 통해 운동의 단위 동작에 대한 동작일치율을 보여주는 예시도.
도 7은 도 1의 시스템 관련 통계 그래프를 보여주는 예시도.1 is a block diagram of a home training system using artificial intelligence according to an embodiment.
Figure 2 is a conceptual diagram showing a joint for the body of Figure 1;
3 is a view showing angle data and distance data formed between joint joints of three points arbitrarily set in FIG. 2;
4 is an image of executing deep learning using an artificial intelligence algorithm to implement an exercise operation in the system of FIG. 1;
5 is an exemplary view of images from various angles for data sets in the system of FIG. 1;
FIG. 6 is an exemplary view showing a motion coincidence rate for a unit motion of an exercise through the system of FIG. 1;
7 is an exemplary view showing a statistical graph related to the system of FIG. 1;
본 개시의 구성 및 효과를 충분히 이해하기 위하여, 첨부한 도면을 참조하여 본 개시의 바람직한 실시예들을 설명한다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 여러 가지 형태로 구현될 수 있고 다양한 변경을 가할 수 있다. 이하, 본 발명을 설명함에 있어서 관련된 공지 기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.In order to fully understand the configuration and effects of the present disclosure, preferred embodiments of the present disclosure will be described with reference to the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below, and may be implemented in various forms and various changes may be made. Hereinafter, in the description of the present invention, detailed descriptions thereof will be omitted if it is determined that the related known functions may unnecessarily obscure the subject matter of the present invention as obvious matters to those skilled in the art.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms may only be used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present disclosure.
본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 개시의 실시예들에서 사용되는 용어들은 다르게 정의되지 않는 한, 해당 기술 분야에서 통상의 지식을 가진 자에게 통상적으로 알려진 의미로 해석될 수 있다.Terms used in this application are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. Terms used in the embodiments of the present disclosure may be interpreted as meanings commonly known to those skilled in the art unless otherwise defined.
이하, 도면을 참조하여 본 발명의 구체적인 실시예를 상세히 설명한다. 도 1은 일 실시예에 따른 인공지능을 이용한 홈 트레이닝 시스템의 블록도이고, 도 2는 도 1의 신체에 대한 관절조인트를 보여주는 개념도이며, 도 3은 도 2에서 임의로 설정되는 세 지점의 관절조인트 사이에 형성되는 각도데이터 및 거리데이터를 보여주는 도면이다.Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings. 1 is a block diagram of a home training system using artificial intelligence according to an embodiment, FIG. 2 is a conceptual diagram showing joint joints for the body of FIG. 1, and FIG. 3 is a joint joint of three points arbitrarily set in FIG. It is a diagram showing angle data and distance data formed between
도 4는 도 1의 시스템에서 운동 동작을 구현하기 위해 인공지능 알고리즘을 이용하여 딥러닝을 실행하는 모습 이미지이고, 도 5는 도 1의 시스템에 데이터 셋을 위한 다양한 각도의 이미지 예시도이며, 도 6은 도 1의 시스템을 통해 운동의 단위 동작에 대한 동작일치율을 보여주는 예시도이고, 도 7은 도 1의 시스템 관련 통계 그래프를 보여주는 예시도이다.4 is an image of executing deep learning using an artificial intelligence algorithm to implement exercise motions in the system of FIG. 1, and FIG. 5 is an example of images of various angles for data sets in the system of FIG. 1, FIG. 6 is an exemplary view showing a motion agreement rate for a unit motion of an exercise through the system of FIG. 1 , and FIG. 7 is an example view showing a statistical graph related to the system of FIG. 1 .
도 1 내지 도 7을 참조하면, 본 발명의 일 실시예에 따른 인공지능을 이용한 홈 트레이닝 시스템은 관절측정부(100), 동작분류부(1100), 일치율산정부(1200), 통신모듈(300), 디스플레이부(400), 메모리부(500), 센서유닛(130), 외부서버(600) 등을 포함할 수 있다. 본 시스템에서 관절측정부(100), 동작분류부(1100), 일치율산정부(1200), 통신모듈(300), 디스플레이부(400), 메모리부(500)는 사용자의 스마트디바이스 내부에 배치될 수 있다.1 to 7, the home training system using artificial intelligence according to an embodiment of the present invention includes a
본 시스템은 인공지능을 이용한 사용자의 운동 동작에 대한 분석을 통해 홈 트레이닝을 제공하는 시스템을 개선한다. 이를 위해, 본 시스템은 종래 딥러닝 인공지능 알고리즘을 사용한다. 딥러닝은 복수 개의 데이터 셋을 이용해 신체 중 관절조인트를 추정하고 운동 자세에 대한 동작 분류를 통해 동작 정확도, 즉 동작일치율을 산정한다.This system improves the system that provides home training through analysis of the user's exercise motion using artificial intelligence. To this end, this system uses a conventional deep learning artificial intelligence algorithm. Deep learning estimates joint joints in the body using multiple data sets and calculates motion accuracy, that is, motion consistency rate, through motion classification for motion postures.
이를 위해, 본 시스템에서 먼저 CNN은 관절조인트의 위치를 예측하고, 관절조인트 사이의 상관 관계를 학습시키는 용도로 사용된다. 이는 사용자를 먼저 인지하고, 신체 중 주요 특징을 추출하는 것을 의미한다. 그리고, KNN은 CNN으로 예측된 관절조인트를 분석한 후 머신러닝 모델을 통해 동작을 분류한다. To this end, in this system, CNN is first used to predict the location of joint joints and to learn correlations between joint joints. This means recognizing the user first and extracting the main features from the body. In addition, KNN analyzes joint joints predicted by CNN and then classifies motion through a machine learning model.
관절측정부(100)는 사용자의 신체에 대한 적어도 하나 이상의 관절조인트를 측정한다. 관절측정부(100)는 예를 들어, 3D 깊이 센서를 포함하는 카메라일 수 있다. 관절측정부(100)는 어느 일 프레임 데이터가 RGB 값으로 구성되는 RGB 카메라일 수 있다. 관절측정부(100)는 관절조인트의 공간 위치를 측정하여 신호를 생성하는 적어도 어느 하나의 센서를 포함하는 측정기기일 수 있다. 관절측정부(100)는 사용자의 신체에서 관절조인트를 인식한다. 이 때, 관절측정부(100)는 자세 감지에 대한 정확도를 향상시키기 위해 카메라의 화각을 최대값으로 설정하는 것이 바람직하다.The
관절측정부(100)는 사용자의 정면에 배치되는 제1측정부(110) 및 사용자의 어느 일 측면에 배치되는 제2측정부(120)를 포함할 수 있다. 제1측정부는 사용자의 스마트디바이스 내에 제조사에 의해 이미 형성된 카메라 모듈일 수 있다. 이와 달리, 제1측정부는 스마트디바이스 내에 형성되는 센서 모듈일 수 있다. 제2측정부는 제1측정부와 별개 독립적인 RGB 카메라일 수 있다. 이와 달리, 제2측정부는 관절조인트의 공간 위치를 측정하는 센서를 포함하는 측정기기일 수 있다.The
이를 통해, 관절측정부(100)는 사용자의 신체를 보다 정확하게 측정하고 인식할 수 있다. 관절측정부(100)는 운동 중 예를 들어, 런지(lunge), 스쿼트 등 정면에서 자세 판별이 어렵거나, 운동 과정에서 사용자의 신체가 일부가 가려지는 경우, 제2측정부를 통해 관절조인트의 위치를 측정할 수 있다.Through this, the
이 때, 제1측정부와 제2측정부에서 측정되는 데이터를 보정(calibration)하기 위한 작업이 먼저 진행된다. 이는 사용자가 일정 시간 자유롭게 움직이는 과정에서 측정된 사용자의 관절조인트에 관한 공간 위치 등을 이용할 수 있다.At this time, an operation for calibrating the data measured by the first measurement unit and the second measurement unit is first performed. This may use the spatial position of the user's joint joint measured while the user moves freely for a certain period of time.
한편, 본 시스템은 동작분류부(1100)에 의해 분류되는 운동에 따라, 제1측정부와 제2측정부에 의한 데이터의 가중치를 달리하는 것이 바람직하다. 운동 분류에 따라, 예를 들어, 제1측정부에 의한 데이터 비중이 제2측정부보다 더 높게 설정될 수 있다. 운동에 따라 측정 위치에 따른 데이터의 활용도는 다르게 평가될 수 있다. 또한, 측정 위치에 따라 운동 과정에서 관절조인트 중 일부에 대한 측정이 누락될 수 있다. 그 결과, 운동 분류에 따라 예를 들어, 제1측정부는 K%, 제2측정부는 (100-K)%의 형태로 데이터의 가중치를 달리할 수 있다.Meanwhile, according to the motion classified by the
또한, 관절측정부(100)는 관절조인트에 관한 공간 위치를 측정할 수 있다. 여기서, 관절측정부(100)는 3차원 공간 좌표의 형태로 측정할 수 있다.In addition, the
분석모듈(1000)은 사용자의 운동 동작을 인식하여 이를 분류하고 표준 동작에 대한 동작일치율을 산출하기 위한 통계 모델로서 인공지능을 이용할 수 있다. 인공지능은 데이터를 기반으로 지식을 학습하여 결과를 출력하는 것으로 분석모듈(1000)은 입력된 사용자의 성별, 신체 정보, 운동 종류, 운동 동작을 기초로 동작일치율을 산정할 수 있다. 분석모듈(1000)은 관절측정부(100)를 통해 측정되는 데이터를 AD컨버터를 통해 디지털 데이터로 전환할 수 있다. 분석모듈(1000)은 동작분류부(1100), 일치율산정부(1200)를 포함하며, 이들과 각각 전기적으로 연결된다.The
동작분류부(1100)는 인공지능 알고리즘을 이용하여, 관절측정부(100)에 의한 데이터에서 사용자의 운동 동작을 인식하여 미리 설정되는 어느 하나의 운동으로 분류한다. 본 시스템은 다양한 각도의 데이터 셋을 통한 운동 동작의 학습으로 어느 방향에서도 운동 동작에 대한 높은 인식률을 제공할 수 있다. 여기서 운동은 홈 트레이닝에 포함하는 푸쉬업, 스쿼트, 런지 등을 포함한다. 동작분류부(1100)의 분류 기술은 일반적인 인공지능 알고리즘을 이용하는 바, 이하 구체적 설명은 생략한다.The
일치율산정부(1200)는 1 횟수로 카운팅되는 운동의 단위 동작을 표준 동작과 비교하여 동작일치율을 산정한다. 일치율산정부(1200)는 미리 설정되는 복수 개의 관절조인트 사이에 형성되는 각도데이터 집합인 제1특징그룹과, 관절조인트 사이에 형성되는 거리데이터 집합인 제2특징그룹을 이용하여, 동작일치율을 산정하는 것이 바람직하다.The coincidence
또한, 본 시스템은 분류되는 운동에 따라 적어도 하나 이상의 표준 동작을 포함할 수 있다. 그리고, 표준 동작은 복수 개의 표준 자세로 이루어질 수 있다. 또한, 표준 자세는 제1특징그룹 중 적어도 하나 이상과 제2특징그룹 중 적어도 어느 하나 이상의 조합으로 판단될 수 있다.In addition, the present system may include at least one or more standard motions according to the classified exercise. Also, the standard operation may be performed in a plurality of standard postures. Also, the standard posture may be determined as a combination of at least one or more of the first feature group and at least one or more of the second feature group.
동작일치율에 대한 산정은 관절측정부(100)를 통해 측정되는 관절조인트를 이용할 수 있다. 운동에 따라 표준 동작과 이를 구성하는 표준 자세가 미리 설정되어 있다. 한편, 표준 동작에 대한 동작일치율은 예를 들어, 각 표준 자세에 대한 동작일치율의 평균값일 수 있다.The calculation of the motion agreement rate may use the joint joint measured through the
표준 자세는 미리 입력된 적어도 하나 이상으로 이루어지는, 동일한 개수의 정자세 이미지와 오자세 이미지로 구성될 수 있다. 여기서, 정자세 이미지와 오자세 이미지는 서로 대응되는 동일한 신체 부위에 대한 이미지이다. 이런, 정자세 이미지와 오자세 이미지는 신체 중 일부에 국한될 수 있다. 한편, 정자세 이미지와 오자세 이미지는 이미지에 따라 표준 자세인지 여부를 판단하는 과정에서 가중치가 달리 설정될 수 있다.The standard posture may be composed of the same number of images of a normal posture and an image of an incorrect posture, which are composed of at least one or more pre-input. Here, the normal posture image and the incorrect posture image are images of the same body part corresponding to each other. Such a posture image and an incorrect posture image may be limited to a part of the body. Meanwhile, different weights may be set for the normal posture image and the incorrect posture image in the process of determining whether or not they are standard postures according to the images.
관절측정부(100)에 의해 측정되는 관절조인트에 대한 데이터를 이용하여 사용자의 운동 자세와 표준 자세 사이의 동작일치율을 산정할 수 있다. 이 때, 운동 자세와 정자세 이미지를 비교하여 정자세 일치 확률을 산출할 수 있다. 여기서, 동작일치율은 정자세 일치 확률일 수 있다. 또한 동일한 운동 자세를 오자세 이미지와 비교하여 오자세 일치 확률을 산출할 수 있다. 한편, 정자세 이미지와 달리 오자세 이미지는 동일한 운동 자세에 대해 복수 개의 오자세 이미지로 구성될 수 있다. 그 결과, 오자세 일치 확률은 복수 개가 산출될 수 있다.Using the data on the joint joint measured by the
구체적으로, 일치율산정부(1200)는 미리 설정되는 복수 개의 관절조인트 사이에 형성되는 각도데이터 집합인 제1특징그룹과, 관절조인트 사이에 형성되는 거리데이터 집합인 제2특징그룹을 이용하여 동작일치율을 산정할 수 있다. 관절조인트는 예를 들어, 25개로 이루어질 수 있다. 이 때, 관절조인트에는 1번 내지 25번까지의 숫자가 각각 부여되고 이를 통해 구분할 수 있다.Specifically, the coincidence
여기서, 각도데이터는 3개의 관절조인트(A1, A2, A3)가 서로 직선으로 연결되면 중간 관절조인트(A2)를 기준으로 그 사이에 형성되는 각도(a)를 의미한다. 예를 들어, 각도데이터는 사용자의 팔꿈치를 기준으로 상완과 하완에 의해 형성되는 각도(a)일 수 있다. 여기서, 관절조인트는 3차원 공간 좌표(x,y,z) 형태의 정보로 표현될 수 있다. 각도데이터는 예를 들어, 왼쪽 무릎을 기준으로 허벅지와 종아리 사이에 형성되는 각도일 수 있다. 즉, 각도데이터는 관절조인트의 개수에 따라 미리 설정될 수 있다. 이런 각각의 각도데이터는 운동 자세를 이루는 제1특징그룹이 된다.Here, the angle data means the angle (a) formed between them with respect to the intermediate joint joint (A2) when the three joint joints (A1, A2, A3) are connected to each other in a straight line. For example, the angle data may be an angle (a) formed by the user's upper arm and lower arm based on the user's elbow. Here, the joint may be expressed as information in the form of three-dimensional space coordinates (x, y, z). The angle data may be, for example, an angle formed between the thigh and the calf based on the left knee. That is, the angle data may be preset according to the number of joint joints. Each of these angle data becomes a first feature group constituting an exercise posture.
한편, 거리데이터는 관절조인트 사이에 형성되는 거리(d)를 의미한다. 예를 들어, 공간 상에서, 관절조인트(A1)와 관절조인트(A3) 사이의 직선 거리일 수 있다. 이런 제1특징그룹과 제2특징그룹은 분류되는 운동 동작에 따라 미리 특정될 수 있다. 즉, 운동 동작에 따라 표준 동작이 포함되며, 표준 동작을 구성하는 표준 자세는 제1특징그룹과 제2특징그룹에 의해 구분할 수 있다.On the other hand, the distance data means the distance (d) formed between the joint joints. For example, in space, it may be a straight line distance between the joint joint (A1) and the joint joint (A3). The first feature group and the second feature group may be specified in advance according to the classified exercise motion. That is, standard motions are included according to exercise motions, and standard postures constituting standard motions can be classified into a first feature group and a second feature group.
동작일치율은 표준 자세 관련 제1특징그룹을 구성하는 각도데이터를 기준으로 한 각도일치율과 제2특징그룹을 구성하는 거리데이터를 기준으로 한 거리일치율을 이용하여 산출될 수 있다. 어느 일 표준 자세에서 제1특징그룹에는 n개의 특징에 대응하는 n개의 각도데이터가 포함될 수 있다. 이 때, 각도일치율은 제1각도일치율 내지 제n각도일치율에 대한 산술 평균값으로 산출될 수 있다. The motion coincidence rate may be calculated using an angle coincidence rate based on angle data constituting the first feature group related to the standard posture and a distance coincidence rate based on distance data constituting the second feature group. In one standard posture, the first feature group may include n pieces of angle data corresponding to n features. In this case, the angular coincidence rate may be calculated as an arithmetic average value of the first angular coincidence rate to the n-th angular coincidence rate.
각도일치율은 각도데이터에 대한 레퍼런스 범위값인 a, 본 시스템에서 미리 설정되는 각도데이터에 대한 기준값 b 및 관절측정부(100)에 의해 실제 측정되는 각도데이터인 c를 이용하여 산출될 수 있다. 예를 들어, 제1각도일치율은 각도데이터에 대한 레퍼런스 범위값인 a1, 본 시스템에서 미리 설정되는 각도데이터에 대한 기준값 b1 및 관절측정부(100)에 의해 실제 측정되는 각도데이터인 c1을 이용하여 산출된다.The angle coincidence rate can be calculated using a, a reference range value for angle data, a reference value b for angle data preset in the present system, and c, angle data actually measured by the
본 시스템에서 각도일치율은 예를 들어, 다음과 같이 계산될 수 있다. 각도일치율은 k{(b-c)/a} (여기서, k는 각도일치율에 관여하는 상수로서, 0.8) 즉, 지수함수를 이용하여 산출될 수 있다. 따라서, 제1각도일치율은 k{(b1-c1)/a1} 이다. 이를 이용하면, 각도일치율 = {(제1각도일치율 + 제2각도일치율 + ... + 제n각도일치율) / n} 와 같이 계산될 수 있다.In this system, the angular coincidence rate can be calculated, for example, as follows. The angular coincidence rate can be calculated using k {(bc)/a} (where k is a constant involved in the angular coincidence rate, 0.8), that is, an exponential function. Therefore, the first angular coincidence rate is k {(b1-c1)/a1} . Using this, the angular coincidence rate = {(first angular coincidence rate + second angular coincidence rate + ... + nth angular coincidence rate) / n}.
동일한 방법으로 거리일치율이 산출될 수 있다. 어느 일 표준 자세에서 제2특징그룹에는 m개의 특징에 대응하는 m개의 거리데이터가 포함될 수 있다. 이 때, 거리일치율은 제1거리일치율 내지 제m거리일치율에 대한 산술 평균값으로 산출될 수 있다. 거리일치율은 거리데이터에 대한 레퍼런스 범위값인 d, 본 시스템에서 미리 설정되는 거리데이터에 대한 기준값 f 및 관절측정부(100)에 의해 실제 측정되는 거리데이터인 e를 이용하여 산출될 수 있다. 예를 들어, 제1거리일치율은 거리데이터에 대한 레퍼런스 범위값인 d1, 본 시스템에서 미리 설정되는 거리데이터에 대한 기준값 f1 및 관절측정부(100)에 의해 실제 측정되는 거리데이터인 e1을 이용하여 산출된다.The distance coincidence rate can be calculated in the same way. In one standard posture, the second feature group may include m pieces of distance data corresponding to m features. In this case, the distance coincidence rate may be calculated as an arithmetic mean value of the first distance coincidence rate to the m-th distance coincidence rate. The distance coincidence rate may be calculated using d, which is a reference range value for distance data, a reference value f, which is preset for distance data in the present system, and e, which is actually measured distance data by the
거리일치율은 g{(f-e)/d} (여기서, g는 거리일치율에 관여하는 상수로서, 0.9) 즉, 지수함수를 이용하여 산출될 수 있다. 따라서, 제1거리일치율은 g{(f1-e1)/d1} 이다. 이를 이용하면, 거리일치율 = {(제1거리일치율 + 제2거리일치율 + ... + 제m거리일치율) / m} 와 같이 계산될 수 있다.The distance coincidence rate can be calculated using g {(fe)/d} (where g is a constant involved in the distance coincidence rate and is 0.9), that is, an exponential function. Therefore, the first distance coincidence rate is g {(f1-e1)/d1} . Using this, distance matching rate = {(first distance matching rate + second distance matching rate + ... + mth distance matching rate) / m}.
한편, 디스플레이부(400)는 사용자의 운동 횟수, 운동 시간, 동작일치율에 대한 통계 그래프를 출력한다. 여기서, 디스플레이부(400)는 예를 들어, 사용자의 스마트디바이스의 출력부일 수 있다. 디스플레이부(400)는 예를 들어, 막대 그래프 형태로 일자에 따른 운동 횟수, 운동 시간을 시각적으로 제공할 수 있다. 또한, 각 운동 동작에서 동작일치율을 수치로서 표현할 수 있다. 본 시스템에서 사용자의 스마트디바이스에는 본 시스템과 연동되는 전용애플리케이션이 설치될 수 있다. 전용애플리케이션은 직관적인 아이콘 배치로 사용자의 운동 데이터를 통계적으로 제공할 수 있다.Meanwhile, the
본 시스템은 센서유닛(130)을 더 포함할 수 있다. 센서유닛(130)은 사용자의 양 손목에 착용되어 사용자의 양 손목에 착용되어 시간에 따른 팔꿈치의 각도 변화량을 측정한다. 센서유닛(130)은 예를 들어, 사용자에 착용 가능한 웨어러블 기기 내에 형성될 수 있다. 이런, 각도 변화량은 동작일치율 산정의 보조적 데이터로 활용될 수 있다. 즉, 센서유닛(130)은 팔꿈치의 각도 변화량을 통해 표준 동작에 대한 동작일치율의 정확도를 향상시킬 수 있다. 이 때, 운동은 푸쉬업을 적어도 포함하는 것이 바람직하다.The system may further include a
센서유닛(130)은 그 내부에 예를 들어, 블루투스 4.0 통신 칩이 내장된 보드에 마련되는 3축(X축, Y축 및 Z축) 가속도 센서일 수 있다. 또한, 센서유닛(130)은 3축 가속도 센서, 3축 자이로 센서 및 3축 지자기 센서로 구성되는 MEMS 기반의 9축 가속도 센서일 수 있다. 센서유닛(130)은 사용자의 스마트디바이스와 일정 시간 간격으로 주기적으로 데이터를 송수신할 수 있다.The
외부서버(600)는 스마트디바이스와 통신한다. 이런 외부서버(600)에는 표준 동작, 표준 자세 등을 정의하는 데이터가 저장되어 있다. 한편, 외부서버(600)는 다수의 서로 다른 스마트디바이스와 통신할 수 있다. 스마트디바이스는 전용애플리케이션이 실행되는 상태에서 외부서버(600)와 데이터 송수신이 가능하다.The
또한, 본 시스템은 사용자의 운동 자세에 대한 동작일치율이 0.5 미만인 경우, 본 시스템은 사용자에게 표준 동작, 표준 자세에 관련되는 각 종 콘텐츠를 제공할 수 있다. 본 시스템은 오자세 일치 확률이 0.8 이상인 경우, 그 해당 표준 자세에 대한 피드백(예를 들어, 팔을 올리세요, 무릎을 더 굽히세요. 등등)을 제공하여 운동 효율성을 극대화시킬 수 있다.In addition, when the motion consistency rate for the user's exercise posture is less than 0.5, the system can provide the user with various contents related to the standard motion and standard posture. The present system can maximize exercise efficiency by providing feedback (for example, raise your arms, bend your knees more, etc.) for the corresponding standard posture when the probability of matching the wrong posture is 0.8 or higher.
통신모듈(300)은 미리 설정되는 적어도 하나 이상의 외부서버(600)와 유선 또는 무선 네트워크를 통해 일정한 정보, 데이터 등을 전송하고 수신한다. 또한, 통신모듈(300)은 센서유닛(130)을 통해 측정되는 데이터를 수신할 수 있다. 통신모듈(300)은 이동통신을 위한 기술 표준 또는 통신 방식에 따라 구축된 이동 통신망 상에서 기지국 등과 무선 신호를 송수신할 수 있다.The
메모리부(500)는 본 시스템의 작동을 위한 알고리즘 관련 각 종 데이터, 관절측정부(100)를 통해 측정되는 Raw 데이터, 사용자 인터페이스 관련 데이터 등을 저장할 수 있다. 이런, 메모리부(500)는 플래시 메모리, 카드 타입의 메모리, 램 중 적어도 하나 이상의 저장매체를 포함할 수 있다. 메모리부(500)는 각 사용자의 운동 횟수, 운동 시간, 동작일치율에 관한 데이터를 저장할 수 있다.The
이상과 같이 본 발명의 도시된 실시 예를 참고하여 설명하고 있으나, 이는 예시적인 것들에 불과하며, 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자라면 본 발명의 요지 및 범위에 벗어나지 않으면서도 다양한 변형, 변경 및 균등한 타 실시 예들이 가능하다는 것을 명백하게 알 수 있을 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적인 사상에 의해 정해져야 할 것이다.Although the above has been described with reference to the illustrated embodiments of the present invention, these are only examples, and those skilled in the art to which the present invention belongs can variously It will be apparent that other embodiments that are variations, modifications and equivalents are possible. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.
100: 관절측정부
1000: 분석모듈
1100: 동작분류부
1200: 일치율산정부
300: 통신모듈
400: 디스플레이부
500: 메모리부
130: 센서유닛
600: 외부서버100: joint measurement unit 1000: analysis module
1100: motion classification unit 1200: coincidence rate calculation unit
300: communication module 400: display unit
500: memory unit 130: sensor unit
600: external server
Claims (7)
사용자의 신체에 대한 적어도 하나 이상의 관절조인트를 측정하는 관절측정부;
인공지능 알고리즘을 이용하여, 상기 관절측정부에 의한 데이터에서 사용자의 운동 동작을 인식하여 미리 설정되는 어느 하나의 운동으로 분류하는 동작분류부; 및
1 횟수로 카운팅되는 상기 운동의 단위 동작을 표준 동작과 비교하여 동작일치율을 산정하는 일치율산정부;를 포함하는 인공지능을 이용한 홈 트레이닝 시스템.
As a system that provides home training through analysis of the user's exercise motion using artificial intelligence,
Joint measuring unit for measuring at least one joint of the user's body;
Using an artificial intelligence algorithm, motion classification unit for recognizing the user's exercise motion from the data by the joint measuring unit and classifying it into any one motion that is preset; and
A home training system using artificial intelligence comprising a; coincidence rate calculation unit that compares the unit motion of the exercise, which is counted as one number of times, with a standard motion to calculate a motion coincidence rate.
상기 관절측정부는 사용자의 정면에 배치되는 제1측정부 및 사용자의 어느 일 측면에 배치되는 제2측정부를 포함하고,
상기 동작분류부에 의해 분류되는 운동에 따라, 상기 제1측정부와 상기 제2측정부에 의한 데이터의 가중치를 달리하는 인공지능을 이용한 홈 트레이닝 시스템.
According to claim 1,
The joint measurement unit includes a first measurement unit disposed in front of the user and a second measurement unit disposed on one side of the user,
According to the exercise classified by the motion classification unit, the home training system using artificial intelligence to vary the weight of the data by the first measurement unit and the second measurement unit.
상기 관절측정부는 상기 관절조인트에 관한 공간 위치를 측정하는 인공지능을 이용한 홈 트레이닝 시스템.
According to claim 1,
The joint measuring unit home training system using artificial intelligence to measure the spatial position of the joint joint.
상기 일치율산정부는 미리 설정되는 복수 개의 상기 관절조인트 사이에 형성되는 각도데이터 집합인 제1특징그룹과, 상기 관절조인트 사이에 형성되는 거리데이터 집합인 제2특징그룹을 이용하여, 동작일치율을 산정하는 인공지능을 이용한 홈 트레이닝 시스템.
According to claim 1,
The coincidence rate calculation unit calculates the motion coincidence rate using a first feature group, which is a set of angle data formed between a plurality of previously set joint joints, and a second feature group, which is a set of distance data formed between the joint joints. Home training system using artificial intelligence.
표준 동작은 복수 개의 표준 자세로 이루어지며,
상기 표준 자세는 상기 제1특징그룹 중 적어도 하나 이상과 상기 제2특징그룹 중 적어도 어느 하나 이상의 조합으로 판단되는 인공지능을 이용한 홈 트레이닝 시스템.
According to claim 4,
Standard motion is made up of a plurality of standard postures,
The standard posture is a home training system using artificial intelligence that is determined as a combination of at least one or more of the first feature group and at least one or more of the second feature group.
사용자의 운동 횟수, 운동 시간, 동작일치율에 대한 통계 그래프를 출력하는 디스플레이부;를 더 포함하는 인공지능을 이용한 홈 트레이닝 시스템.
According to claim 1,
A home training system using artificial intelligence further comprising: a display unit that outputs a statistical graph of the user's exercise count, exercise time, and motion agreement rate.
사용자의 양 손목에 착용되어 시간에 따른 팔꿈치의 각도 변화량을 측정하는 센서유닛;을 더 포함하며,
상기 운동은 푸쉬업을 적어도 포함하는 인공지능을 이용한 홈 트레이닝 시스템.According to claim 1,
A sensor unit worn on both wrists of the user to measure the amount of change in the angle of the elbow over time; further comprising;
The exercise is a home training system using artificial intelligence that includes at least a push-up.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210115313A KR102617467B1 (en) | 2021-08-31 | 2021-08-31 | Home training system using artificial intelligence |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210115313A KR102617467B1 (en) | 2021-08-31 | 2021-08-31 | Home training system using artificial intelligence |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20230032454A true KR20230032454A (en) | 2023-03-07 |
| KR102617467B1 KR102617467B1 (en) | 2023-12-21 |
Family
ID=85513318
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020210115313A Active KR102617467B1 (en) | 2021-08-31 | 2021-08-31 | Home training system using artificial intelligence |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102617467B1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2024140925A (en) * | 2023-03-28 | 2024-10-10 | 株式会社日立製作所 | Exercise support system and exercise support method |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20150096550A (en) * | 2014-02-14 | 2015-08-25 | 부경대학교 산학협력단 | Apparatus and Method for Supporting Rehabilitation Exercise |
| KR20170084643A (en) * | 2016-01-12 | 2017-07-20 | 경희대학교 산학협력단 | Motion analysis appratus and method using dual smart band |
| KR20200129327A (en) * | 2019-05-08 | 2020-11-18 | 아이픽셀 주식회사 | Method of providing personal training service and system thereof |
| KR102251315B1 (en) * | 2020-12-18 | 2021-05-12 | 성결대학교 산학협력단 | Exercise training system |
| KR20210091955A (en) * | 2020-01-15 | 2021-07-23 | 금오공과대학교 산학협력단 | Exercise posture correction program |
-
2021
- 2021-08-31 KR KR1020210115313A patent/KR102617467B1/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20150096550A (en) * | 2014-02-14 | 2015-08-25 | 부경대학교 산학협력단 | Apparatus and Method for Supporting Rehabilitation Exercise |
| KR20170084643A (en) * | 2016-01-12 | 2017-07-20 | 경희대학교 산학협력단 | Motion analysis appratus and method using dual smart band |
| KR20200129327A (en) * | 2019-05-08 | 2020-11-18 | 아이픽셀 주식회사 | Method of providing personal training service and system thereof |
| KR20210091955A (en) * | 2020-01-15 | 2021-07-23 | 금오공과대학교 산학협력단 | Exercise posture correction program |
| KR102251315B1 (en) * | 2020-12-18 | 2021-05-12 | 성결대학교 산학협력단 | Exercise training system |
Non-Patent Citations (3)
| Title |
|---|
| 한국공개특허공보 1020170119333 (2017.10.27) 운동정보 처리 장치 및 방법(Apparatus and Method for Processing of Exercise Information) |
| 한국등록특허공보 102031243 (2019.10.04.) 스마트 프리웨이트 트레이닝 동작 인식 장치 및 그 방법(apparatus for recogniting free weight training motion and method thereof) |
| 한국등록특허공보 102039616 (2019.10.28) 운동 정보 관리 장치 및 방법(APPARATUS AND METHOD FOR MANAGING EXERCISE INFORMATION) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2024140925A (en) * | 2023-03-28 | 2024-10-10 | 株式会社日立製作所 | Exercise support system and exercise support method |
Also Published As
| Publication number | Publication date |
|---|---|
| KR102617467B1 (en) | 2023-12-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Velloso et al. | Qualitative activity recognition of weight lifting exercises | |
| KR102212716B1 (en) | A Posture Coaching System and Method for Weight Training by Motion Pattern | |
| Pernek et al. | Recognizing the intensity of strength training exercises with wearable sensors | |
| JP2023540286A (en) | Method and system for identifying user behavior | |
| US10970661B2 (en) | System and method for monitoring motion and orientation patterns associated to physical activities of users | |
| US20190143174A1 (en) | Motion training guide system based on wearable sensor and method thereof | |
| KR102643876B1 (en) | A Posture Coaching System and Method for Weight Training by Motion Pattern | |
| US20160166180A1 (en) | Enhanced Real Time Frailty Assessment for Mobile | |
| CN110477924B (en) | Adaptive motion attitude sensing system and method | |
| CN114341947B (en) | Systems and methods for exercise type identification using wearable devices | |
| KR20160090113A (en) | Management and encourage system for practical exercise using wearable device | |
| KR102617467B1 (en) | Home training system using artificial intelligence | |
| US20240050804A1 (en) | An apparatus and method for fitness-tracking | |
| JP6525180B1 (en) | Target number identification device | |
| KR102515825B1 (en) | Smart mirror-based posture correction system | |
| KR101992113B1 (en) | Fitness monitoring system | |
| KR20200119753A (en) | A Posture Coaching System and Method for Weight Training by Motion Pattern | |
| KR102145672B1 (en) | smart babel system control method | |
| KR20220049271A (en) | Rehabilitaiton Guide System using Artificial Intelligence | |
| KR102642316B1 (en) | Muscle strength evaluation device and evaluating method of muscle strength | |
| JP7465842B2 (en) | Work Support System | |
| US10741095B2 (en) | Teaching compatibility determining device, system, method and recording medium | |
| KR102334529B1 (en) | System and method for inferencing user's underwater motion using smart swimming kickboard based on machine learning | |
| Ivanov et al. | Recognition and control of the athlete's movements using a wearable electronics system | |
| EP4358838B1 (en) | Musculoskeletal strain |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20210831 |
|
| PA0201 | Request for examination | ||
| PG1501 | Laying open of application | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230517 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20231121 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20231219 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20231219 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration |