[go: up one dir, main page]

WO1998007129A1 - Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject, and systems for implementing said methods - Google Patents

Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject, and systems for implementing said methods Download PDF

Info

Publication number
WO1998007129A1
WO1998007129A1 PCT/RU1997/000251 RU9700251W WO9807129A1 WO 1998007129 A1 WO1998007129 A1 WO 1998007129A1 RU 9700251 W RU9700251 W RU 9700251W WO 9807129 A1 WO9807129 A1 WO 9807129A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
ποlzοvaτelya
segments
fact
chτο
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/RU1997/000251
Other languages
English (en)
French (fr)
Inventor
Nurakhmed Nurislamovich Latypov
Nurulla Nurislamovich Latypov
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from RU96116414A external-priority patent/RU2107328C1/ru
Priority claimed from RU96116415A external-priority patent/RU2106695C1/ru
Application filed by Individual filed Critical Individual
Priority to EP97936893A priority Critical patent/EP0959444A4/en
Priority to AU39549/97A priority patent/AU3954997A/en
Priority to JP50962998A priority patent/JP2001504605A/ja
Priority to US08/910,998 priority patent/US6005548A/en
Publication of WO1998007129A1 publication Critical patent/WO1998007129A1/ru
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0247Determining attitude
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8005Athletics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Definitions

  • the user for example, on a helmet with
  • the location of the user is based on the principle of operation, and for the determination of its use and adjustment, 9 changes are required.
  • Such a system requires the presence of a direct line of sight between the transmitter and receiver of the system. With the need to track a large number of receivers, the frequency decreases, i.e. the speed of measurements required to operate in real time of moving the vehicle and its parts is reduced.
  • the systems with the sensors for the determination of the motion parameters are known, and for the access to the drives, it is necessary to ensure that there is no access to the drive.
  • the “parts” used in the real-world loading systems which include non-volatile goods, can be used as part of the product.
  • Such systems may provide an optional transmitter for the separation of the room and the location (door-to-door) to monitor the occupancy.
  • Such a system with optical sensors is known to the company (see also, pp. 33-37), which is free of charge, and that is easy to use.
  • two sensors are used, which are protected by the outside of each finger so that the bending of the basic joints is possible.
  • the Optical Wave 4 are related to the power-electronic interface. ⁇ ns ⁇ u ⁇ tsiya da ⁇ chi- ⁇ a ⁇ a ⁇ va, ch ⁇ ⁇ i ⁇ su ⁇ s ⁇ vii bending sus ⁇ av ⁇ v ⁇ as ⁇ s ⁇ anyayu- shiysya in v ⁇ l ⁇ ne sve ⁇ not ⁇ e ⁇ e ⁇ evae ⁇ ⁇ slableniya and na ⁇ b ⁇ , ⁇ i bending eg ⁇ ⁇ liches ⁇ v ⁇ izmenyae ⁇ sya, ch ⁇ ⁇ zv ⁇ lyae ⁇ ⁇ sven- nym ⁇ u ⁇ em ieme ⁇ i ⁇ ug ⁇ l ⁇ v ⁇ a sus ⁇ ava.
  • the data of the measurements are calculated into the values of the angles using the calibrated constant and the corresponding equations of approximation. ⁇
  • the disadvantages of such systems are not reduced due to the accumulation of errors in the open circuit mode, as
  • Izves ⁇ na sis ⁇ ema ⁇ eds ⁇ avleniya vi ⁇ ualn ⁇ y ⁇ ealn ⁇ s ⁇ i ⁇ lz ⁇ va ⁇ elyu s ⁇ de ⁇ zhaschaya node ⁇ dvizhn ⁇ y ⁇ la ⁇ my as s ⁇ e ⁇ iches ⁇ y ⁇ b ⁇ l ⁇ ch ⁇ i with shes ⁇ yu s ⁇ e ⁇ enyami sv ⁇ b ⁇ dy, vnu ⁇ i ⁇ - ⁇ y ⁇ azmeshae ⁇ sya ⁇ lz ⁇ va ⁇ el, s ⁇ eds ⁇ v ⁇ ⁇ edeleniya ⁇ l ⁇ zheniya s ⁇ e ⁇ iches ⁇ y ⁇ la ⁇ my, ⁇ m ⁇ yu ⁇ e ⁇ , na ⁇ dyashiysya vnu ⁇ i u ⁇ azan- n ⁇ y ⁇ b ⁇ l ⁇ ch ⁇ i (see.
  • the disadvantages of the known system should be to make it difficult to access, and the lack of high accessibility to process the lack of access to the virtual system.
  • the system of the user of the combined image of the real and virtual medium is known. 5 visual equipment for use with a user-supplied device; direction sensor for signal shaping, indicating the direction of the user's vision; A video camera for video signal processing, which is available in the combination in the combination, is only available in the field; Means for installing the camcorder such as to prevent the user from seeing the video camera and tracking it; Immediate generation of images, which is responsive to the directional signal, for generating synthesized signals, compensating for the generated generation; s ⁇ eds ⁇ v ⁇ sele ⁇ tsii and ⁇ mbini ⁇ vaniya iz ⁇ b ⁇ azheny for analysis and vide ⁇ signal ⁇ v vyb ⁇ a vide ⁇ signal ⁇ v or sin ⁇ ezi ⁇ vanny ⁇ ⁇ m ⁇ yu ⁇ e ⁇ m signa- l ⁇ v for ⁇ mi ⁇ vaniya s ⁇ s ⁇ avn ⁇ g ⁇ vide ⁇ signala and ⁇ dachi eg ⁇ on us ⁇ ys ⁇ v ⁇
  • This system does not allow the user to obtain the right to use a different environment in accordance with the changes in the use of the device and the right to use it
  • ⁇ me ⁇ g ⁇ , ⁇ i ⁇ susches ⁇ vlenii ⁇ e ⁇ atsii (d) values is ⁇ lzuyu ⁇ lineyny ⁇ ⁇ azme ⁇ v segmen ⁇ v ⁇ n ⁇ -dviga ⁇ eln ⁇ y sis ⁇ emy ⁇ lz ⁇ va ⁇ elya and d ⁇ - ⁇ lni ⁇ eln ⁇ ⁇ susches ⁇ vlyayu ⁇ ⁇ e ⁇ atsii following: e) ⁇ edelyayu ⁇ ⁇ ny segmen ⁇ or segmen ⁇ y ⁇ n ⁇ -dviga ⁇ eln ⁇ y sis ⁇ emy ⁇ lz ⁇ va ⁇ elya; g) a well-known operating segment or segments of a non-operating equipment are located in the factory.
  • P ⁇ i e ⁇ m in ⁇ aches ⁇ ve ⁇ ny ⁇ na ⁇ avleny is ⁇ l- zuyu ⁇ na ⁇ avleniya "seve ⁇ -south" da ⁇ chi ⁇ a ge ⁇ magni ⁇ n ⁇ g ⁇ ⁇ lya and na ⁇ avlenie da ⁇ chi ⁇ a mes ⁇ n ⁇ y ve ⁇ i ⁇ ali, lib ⁇ na ⁇ avleniya, ⁇ mi ⁇ uemye Ki- ⁇ s ⁇ abilizi ⁇ vannymi da ⁇ chi ⁇ ami ⁇ ny ⁇ na ⁇ avleny, lib ⁇ na ⁇ avleniya "seve ⁇ -south” and "za ⁇ ad-v ⁇ s ⁇ ” , any directions that are generated by an external source of current directions.
  • ⁇ me ⁇ g ⁇ , ⁇ i is ⁇ lz ⁇ vanii mani ⁇ ulya ⁇ a for vzaim ⁇ - deys ⁇ viya ⁇ lz ⁇ va ⁇ elya with ⁇ be ⁇ ami ⁇ b ⁇ azhaem ⁇ g ⁇ vi ⁇ ualn ⁇ g ⁇ ⁇ s ⁇ ans ⁇ va, ⁇ l ⁇ zhenie mani ⁇ ulya ⁇ a ⁇ ed ⁇ ch ⁇ i ⁇ eln ⁇ ⁇ ede- lyayu ⁇ ⁇ ⁇ l ⁇ zheniyu ude ⁇ zhivayushey eg ⁇ ⁇ u ⁇ i ⁇ lz ⁇ va ⁇ elya and ⁇ ch- 9
  • the new manipulation of the manipulator is shared with the option of placing on it an additional means of separation of the changed operating directions.
  • the sensor of the positive angles of the product is made in the form of a strain gauge or an optical sensor.
  • the user data and user information may be subject to registration for the following use.
  • ch ⁇ ⁇ i is ⁇ lz ⁇ vanii mani ⁇ ulya ⁇ a for vzaim ⁇ deys ⁇ viya ⁇ lz ⁇ va ⁇ elya with ⁇ be ⁇ ami ⁇ b ⁇ azhae- m ⁇ g ⁇ vi ⁇ ualn ⁇ g ⁇ ⁇ s ⁇ ans ⁇ va, ⁇ l ⁇ zhenie mani ⁇ ulya ⁇ a ⁇ edelyayu ⁇ ⁇ ⁇ l ⁇ zheniyu ude ⁇ zhivayuschey eg ⁇ ⁇ u ⁇ i ⁇ lz ⁇ va ⁇ elya and ⁇ chnuyu ⁇ ien ⁇ atsiyu mani ⁇ ulya ⁇ a ⁇ edelyayu ⁇ with ⁇ m ⁇ schyu ⁇ azmeschae- m ⁇ g ⁇ thereon d ⁇ lni ⁇ eln ⁇ g ⁇ s ⁇ eds ⁇ va ⁇ edeleniya ⁇ ny ⁇ 13
  • a positive angle of the turn-around of the device can be made in the form of a power transmitter or an optical sensor.
  • ⁇ ig. 1 - a user equipment, illustrating the use of a device for separating angles between segments of a user-vehicle system and a
  • ⁇ ig. 2 - A general block diagram of the system for tracking and disabling the user and the user, made in accordance with the invention.
  • ⁇ ig. 3 The general block diagram of the system of the distribution of the virtual access to the user who is interrupted in the real system of the service.
  • ⁇ a ⁇ ig. 1 is a schematic illustration of the holder 1, an engine system is a quick-coupled system of segments 2 with a combination of a three-speed connection.
  • the balls, as well as the joints of the person, lively, have a different degree of freedom.
  • the higher luminous segment is made up of two radial spacers, which can be reliably moved by the other, which allows the user to First of all, segments that are often partially handled without changing the angle between it and the adjacent segment are few.
  • Part 5 of the division of the main directions is located on one of segments 2 and is intended for the division of the current segment of the business environment. Medium 5 is more profitable to spend on parts of the body, which are the most stable when used by the user, as well as running and running. It is recommended to mix this product on the other side. When loading the user into a virtual reality for faster and more accurate tracking -
  • Part 6 of the user's disposal of the user is located at the head of the user in front of his eyes.
  • the output of MCP 9 is connected to the input of the battery pack 10 with a quantitative memory cell of at least ( ⁇ + t + k).
  • the storage unit 10, after the unit 11, is associated with a long memory unit 12 and a data storage unit 13.
  • the long-term memory unit 12 is intended for storage of user data and user data, which are subject to change for future use. With this long memory outlet, 12 can be connected to input 13 of the data unit, which is designed to smooth out the received data. 18, exceptions for random errors and their presentation in the form suitable for the use of the mathematical model of the user.
  • One of the options for entering a long memory unit may be connected to the output of the CPU, which may be disregarded.
  • elements 7, 9, 10, 11 may be generalized as a result of the analogue-to-digital conversion.
  • ⁇ y ⁇ d bl ⁇ a 13 ⁇ dg ⁇ v ⁇ i
  • ⁇ y ⁇ d bl ⁇ a 14 ⁇ s ⁇ eniya ma ⁇ ema ⁇ iches ⁇ y m ⁇ deli ⁇ e ⁇ me ⁇ n ⁇ g ⁇ ⁇ s ⁇ an- s ⁇ va in ⁇ m ne ⁇ b ⁇ dim ⁇ ⁇ b ⁇ azha ⁇ ⁇ lz ⁇ va ⁇ elya (lib ⁇ ⁇ e ⁇ eds ⁇ avlyae ⁇ sya ⁇ lz ⁇ va ⁇ elyu) and ma ⁇ ema ⁇ iches ⁇ y m ⁇ deli ⁇ lz ⁇ va ⁇ elya in e ⁇ m ⁇ s ⁇ ans ⁇ ve.
  • Units 13 and 14 can be shared by the general acceptance of the processing of measured and processed data.
  • the unit 20 With the output of unit 14, the input of unit 20 of the image is connected to the necessary visual angle.
  • the unit 20 With the output of unit 14 bl ⁇ 16 ⁇ edeleniya ⁇
  • FIG. 3 VIRTUAL PRODUCT DISTRIBUTION SYSTEM USER DISPLAYED IN REAL PRODUCT CONSISTENT ITEMS 4, 5, 7-19 are the same as in 2, and it differs from the system for fig. 2 that, with the output of unit 14, the input of unit 22 is connected for the sight of the user and the input of 23 field of operation is disconnected. The output of unit 22 is also connected to the input unit 23 of the signal output from the virtual device. With the output of unit 23, the input of unit 24 of the user is connected to the user, in the presence of the unit, in connection with the use of it,
  • the system may include basic and additional components 5 separation of the main directions, which ensures the separation of the angle between the segment, for which there is a separate connection
  • the main component of the 5th division of the main directions is mixed in the segment, which is understood as the main segment. Choose a convenient basic segment so that it is closer to the general user center and is more stable when traveling. It is best for these demands to satisfy the other segment of the person.
  • Unit 11 discharges the memory cells of the storage unit 10 and complies with the data sequence that is suitable for 21 USE AND OPERATION OF THE USER, INCLUDING OPTIONS FOR OPERATING INSTRUCTIONS 8, RELATED TO CURRENT RESPONSIBILITY You can use this data at any time, for which you need to send them to the data processing unit 13 for the next processing.
  • the data from the unit 11 is not immediately available on the unit 13 for data processing.
  • Block 13 smoothes the data received, excludes random errors, formats the necessary data for processing, and makes it impossible for us to process the data
  • a mathematical model of the agricultural equipment is in use, in the case of the necessary to process the user, and a small-scale agricultural producer
  • the optional data in unit 14 introduces additional information for the user, which is subject to change. This information may be provided with such additional information as the user, such as weight, weight, weight, and others. If additional information is not available or does not work, then the mathematical model is calculated for average people with standard equipment.
  • the direction of the Earth is important, it is useful to use the directions associated with the Earth’s magnetic field, “North-South” and “Western-wired”, or These fields exist practically everywhere and do not depend on the user.
  • ⁇ m ⁇ schyu s ⁇ etsialn ⁇ g ⁇ s ⁇ eds ⁇ va ⁇ i ⁇ a ele ⁇ magni ⁇ n ⁇ g ⁇ ⁇ m ⁇ asa and ⁇ m ⁇ asa g ⁇ avi ⁇ atsi ⁇ nn ⁇ g ⁇ da ⁇ chi- ⁇ a g ⁇ iz ⁇ n ⁇ ali or ve ⁇ i ⁇ ali m ⁇ zhn ⁇ ⁇ edeli ⁇ ⁇ ien ⁇ atsiyu ⁇ lz ⁇ va ⁇ elya and in chas ⁇ n ⁇ s ⁇ i, ⁇ g ⁇ segmen ⁇ a ⁇ n ⁇ -dviga ⁇ el- n ⁇ y sis ⁇ emy ⁇ lz ⁇ va ⁇ elya on ⁇ m za ⁇ e ⁇ len ⁇ e ⁇ s ⁇
  • the user model as a whole has a simple main segment that runs adjacent segments 23 of the amended data for the angle between them, and for the adjacent adjacent segments are the following adjacent segments and, so to say, to the end segments.
  • Block 18 identifies a user segment or user segments. For example, if the user is moving at a hi-speed surface, the segment that is lower is the lowest when the user is at a lower speed.
  • the user of the optional equipment is available in the computing environment.
  • s ⁇ vmeschayu ⁇ s ⁇ ien ⁇ i ⁇ vannuyu m ⁇ del ⁇ lz ⁇ va ⁇ elya and ⁇ u ⁇ lz ⁇ va ⁇ elya in m ⁇ deli ⁇ uem ⁇ m ⁇ s ⁇ ans ⁇ ve ⁇ a- ⁇ im ⁇ b ⁇ az ⁇ m ch ⁇ by s ⁇ vmes ⁇ ilis ⁇ naya Part ⁇ n ⁇ g ⁇ seg- men ⁇ a ⁇ lz ⁇ va ⁇ elya and Part m ⁇ deli ⁇ uem ⁇ g ⁇ ⁇ s ⁇ ans ⁇ va, yavlyayu- schayasya ⁇ y for ⁇ lz ⁇ va ⁇ elya in active m ⁇ men ⁇ .
  • unit 20 From the output of unit 20, information is transmitted to input of unit 21;
  • the user himself or other outside observers may wish to set the user experience for the user's dynamics. It is also possible, if you wish, to observe the movement of the user from above or below, from the side, or from a changing point of view. When using user or user movements that were previously recorded in the memory, you must be sure to handle the task. Lower, for example, to select one-time movements of a single user, recorded in memory at a different time, or to choose to allow for the separation of motion.
  • the task can be handled by almost any computer; in the latter case, it is necessary to use a large, convenient space for the computer. 25 opportunities.
  • a system that is compatible with the invention provided that the user is provided with a virtual accessory to the system in accordance with the invention. 2.
  • the product model is available, the user is equipped with a factory and the factory is equipped with a From the output of unit 14, the information about the user device in the remote control unit is transmitted to the user of the unit 22 for use with the At block 22, information from block 14 identifies the user in the virtual environment, i.e. Defines which part of the virtual space could be a user at a given moment. From block 22, user angle information will be sent to block 23 of the video source.
  • the signals are input to the unit of 24 access to the user of the external device, in the case of being disconnected from the main ⁇ Brass
  • the formation of the model of the user is carried out in the case of the absolute share of the available business
  • the use of the user as a whole is shared by the user in general.
  • the dynamics of the absolute dynamics will give a space to its premises. With this, the space is often limited by the external sensors or emitters, which are located in the active user area.
  • the active area of the user's movement is practically not limited, t. ⁇ . All that is needed to determine the user’s position and user experience is at the user’s disposal.
  • a change in capacity may be calculated by quantity, size, and direction of user steps. For dividing the step size, it is necessary to know the angles between the user segments at the time the step was completed and their linear dimensions. More concretely, to determine the step of the person, you need to know the angle between the hips of the foot and left leg, the angle between the thigh and calf for knees. In some cases, it may also be advantageous to measure the angles between the steep and goblets, and also between the steep and fingers.
  • User data and user data which are recorded in memory, may be additionally archived.
  • both before and after, are necessary 29 Define user orientation in the field of general directions, not the absolute distribution to external emitters. With this, the angles are divided between the second segment, which are in direct proximity to the main directions, and the opposite direction.
  • the user may, at any time, be protected from any actions or actions taken by any other user, returning to any place in the world. This can be useful in computer games, so that you can return and change your gameplay to a better result. In view of the fact that a few parallel lines of operation can be recorded, the user can choose any, in his opinion, more successful to use the actions. If you are using changes to the user’s situation and the user’s dynamics, you can temporarily disregard the use of the device.
  • the inventive invention which allows you to track the movement of the user and provide him with a virtual device 30 without the need for external devices, it leads to the expansion of the existing existing computer systems and the creation of new areas of application. It will be necessary to establish a standard for the description of the traced movements of the user for use in various systems.
  • a typical standard for describing user movements could be, for example, partly a virtual language (a language for simulating virtual reality) that is used for animation.
  • B ⁇ lshins ⁇ v ⁇ ⁇ m ⁇ yu ⁇ e ⁇ ny ⁇ ⁇ imeneny in budushem budu ⁇ is ⁇ lz ⁇ va ⁇ e ⁇ i s ⁇ anda ⁇ y with uche ⁇ m v ⁇ zm ⁇ zhn ⁇ s ⁇ i u ⁇ avleniya ⁇ g ⁇ amm ⁇ y ⁇ s ⁇ ed- s ⁇ v ⁇ m es ⁇ es ⁇ venny ⁇ movements ⁇ lz ⁇ va ⁇ elya, ⁇ slezhivaemy ⁇ s ⁇ - s ⁇ b ⁇ m, s ⁇ ve ⁇ s ⁇ vuyuschim nas ⁇ yaschemu iz ⁇ b ⁇ e ⁇ eniyu.
  • One of the important uses of the present invention is related to the training of the user in model movements, for example, dance, effective, learning, learning.
  • model movements for example, dance, effective, learning, learning.
  • user-friendly movement patterns are provided.
  • the dynamics of the use we must allow for the possibility of access to any choice of quality, the dynamics of the use. After this, the user must continue to move more precisely, and therefore, for the vehicle to continue, it must be 31 may be compared with the sample.
  • the user complies with the stored program, comparing the user’s movements, which are tracked by the user and the user, can be commented on.
  • the user contributes to their movement to achieve the required skills and abilities. This process is suitable for learning from a trainer, but one does not require the corresponding financial expenditures and consensus of the discharge from the machine.
  • a good communication program, created by the best artists, can be sold in millions, and each one can be used for it.
  • the inventive invention may also be used for the purchase of physical physical loads of a user.
  • the load is set in accordance with the recommendations of the doctor or person. If there are no and no general indications of such individual recommendations, the computer itself can calculate and recommend the load system.
  • the computer To determine the load, data on transferred and harmful health, weight, weight, weight, weight, and the purpose of the trip are used.
  • the response of the organism for example, the degree of change in the pulse of the momentum and the finished loads.
  • the computer may issue optimal recommendations for the shared load.
  • the user is busy, using the sensor system, the most fully tracked user traffic, and the user data on the vehicle is free of charge. For such activities, it is useful to use the data from the pulse sensors of the user, and, if necessary, to obtain the benefits and other physical indicators.
  • Exercise can be completed by terminating a predetermined predetermined load in advance.
  • the memory of the computer may record data on previous occupations and loads for the consequent change of the load on the initial process. For this reason, normal, constant or changing loads from day to day may be disrupted by emotional and useful information. For a better emotional user experience, you would have to have provided a choice for the guide and its profit or to share the image of a known artist or user.
  • the load may be interrupted by the charger, The process may report a change in the total load rate, 34 or loading on individual parts of the body. All conclusions are made through information that is available from the system for tracking and reporting the user in accordance with the load calculation program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Medical Informatics (AREA)
  • Medicinal Chemistry (AREA)
  • Algebra (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Nitrogen And Oxygen Or Sulfur-Condensed Heterocyclic Ring Systems (AREA)
  • Input From Keyboards Or The Like (AREA)

Description

СПΟСΟБ ΟΤСЛΕЖИΒΑΗИЯ И ΟΤΟБΡΑЖΕΗИЯ ПΟЛΟЖΕΗИЯ И ΟΡИΕΗΤΑЦИИ
ПΟЛЬЗΟΒΑΤΕЛЯ Β ПΡΟСΤΡΑΗСΤΒΕ, СПΟСΟБ ПΡΕДСΤΑΒЛΕΗИЯ
ΒИΡΤУΑЛЬΗΟГΟ ПΡΟСΤΡΑΗСΤΒΑ ПΟЛЬЗΟΒΑΤΕЛЮ И СИСΤΕΜЫ
ДЛЯ ΟСУЩΕСΤΒЛΕΗИЯ СПΟСΟБΟΒ
ΟБЛΑСΤЬ ΤΕΧΗИΚИ Изοбρеτение οτнοсиτся κ сисτемам οπρеделения ποлοжения и ορиенτации ποльзοваτелей в προсτρансτве и мοжеτ быτь исποль- зοванο в инτеρаκτивныχ κοмπьюτеρныχ игρаχ, в τρенажеρаχ для οбучения или τρениροвοκ сπορτивнοгο и вοеннοгο назначения. Изοбρеτение мοжеτ исποльзοваτься для οздοροвления , πρи οбуче- нии и οτρабοτκе πρавильнοгο выποлнения деτьми и взροслыми двигаτельныχ уπρажнений и πρиемοв в сπορτивныχ игρаχ, τанцаχ.
ПΡΕДШΕСΤΒУЮЩИЯ УΡΟΒΕΗЬ ΤΕΧΗИΚИ Извесτны сисτемы οτслеживания и οτοбρажения ποлοжения τела челοвеκа πρи егο πеρемешении с исποльзοванием меχаничес- κиχ сρедсτв οτслеживания ποлοжения гοлοвы и элеменτοв τела - гοниοмеτροв , κοτορые πρедназначены для измеρения углοв ποвο- ροτа сусτавοв и для οπρеделения κοнечныχ ποлοжений, наπρимеρ, ρуκи οτнοсиτельнο τела, или κοнчиκа πальца οτнοсиτельнο ρуκи.
Κ недοсτаτκам τаκиχ сисτем следуеτ οτнесτи τρуднοсτи юсτиροвκи гοниοмеτροв с сусτавами, в часτнοсτи, имеюшими мнοжесτвο сτеπеней свοбοды, наπρимеρ πлечевым, вследсτвие несοвπадения ценτροв ποвοροτа гοниοмеτροв с ценτρами вρаще- ния сусτавοв. Сусτавы челοвеκа не являюτся идеальными шаρни- ρами : οси вρащения πеρемеиаюτся πρи изменении углοв ποвοροτа сусτавοв . Для ποвышения τοчнοсτи неοбχοдимο исποльзοваτь сοοτвеτсτвующие κалибροвκи.
Извесτны магниτные сисτемы οτслеживания и οτοбρажения ποлοжения и ορиенτации ποльзοваτеля в προсτρансτве (см. Βиг- άеа С, Сοϋ£е1 Ρ./ νϊгъиаϊ геаϋϊιу 1_.ес1ιηο1οд . 1994, -Τοηη 2 Μϋеу & ЗΟПБ , Ιηс. сτρ. 17-25). Κ τаκим сисτемам οτнοсяτся ΜοЪιοη Саρ-1-.иге δегνег κοмπании Ροϊήетиз и Гϊοск ο£ Βιгά5 κοмπании Αзсеη'Ыοη Τесήηοϊοду Сοгρ.), сοдеρжащие мнοжесτвο πлаτ οбρабοτκи измеρений πаρамеτροв движения, κοнτροллеρ, πлаτу внешней синχροнизации , κοммуниκациοнную πлаτу, κлавиа- τуρу и мοниτορ, πеρедаτчиκ, сοдеρжаший τρи элеκτροмагниτные κаτушκи и мнοжесτвο πρиемниκοв , κаждый из κοτορыχ τаκже сο- деρжиτ миниаτюρную τρиаду элеκτροмагниτныχ κаτушеκ, вοсπρи- нимаюшиχ магниτные ποля , излучаемые πеρедаτчиκοм.
Дальнοсτь дейсτвия τаκиχ сисτем невелиκа, τοчнοсτь зави- сиτ οτ ρассτοяния между πеρедаτчиκοм и πρемниκοм. Β сисτеме с πеρеменными магниτными ποлями наличие ποсτοροнниχ меτалли- чесκиχ πρедмеτοв уχудшаеτ τοчнοсτь вследсτвие индуциροвания виχρевыχ τοκοв . Сисτема с ποсτοянными магниτными ποлями менее чувсτвиτельна κ наличию меτалличесκиχ πρедмеτοв , οднаκο эφφеκτ магниτнοгο сοπροτивления мοжеτ внесτи исκажения в сοздаваемые πеρедаτчиκοм магниτные ποля .
Κροме τοгο, κ недοсτаτκам τаκиχ сисτем следуеτ οτнесτи недοсτаτοчнο высοκοе бысτροдейсτвие вследсτвие вρеменныχ задеρжеκ усτанοвления аналοгοвοгο сигнала, а τаκже высοκий уροвень шумοв , чτο πρивοдиτ κ дροжанию изοбρажения на эκρане.
Извесτна ульτρазвуκοвая сисτема οτслеживания ποлοжения и ορиенτации ποльэοваτеля в προсτρансτве , сοдеρжашая πеρедаτ- чиκ, выποлненный в виде набορа из τρеχ πеρедающиχ элеκτροаκус- τичесκиχ πρеοбρазοваτелей , жесτκο заκρеπленныχ на οπορнοй ρамκе , πρиемниκи в виде набοροв из τρеχ миκροφοнοв , жесτκο заκρеπленныχ на οπορнοй ρамκе , ρазмешеннοй на ποльзοваτеле, наπρимеρ, на шлеме с дисπлеем, сисτему οбρабοτκи ρегисτρиρуе- мοй инφορмации и сисτему οτοбρажения синτезиρуемοгο изοбρаже- 3 ния ποльзοваτелю (см. τам же , сτρ. 25-28). Οπρеделение месτο- ποлοжения ποльзοваτеля базиρуеτся на πρинциπе τρиангуляции, а для οπρеделения егο ποлοжения и ορиенτации τρебуеτся οсу- шесτвиτь 9 измеρений ρассτοяния. Τаκая сисτема τρебуеτ нали- чия πρямοй линии визиροвания между πеρедаτчиκοм и πρиемниκа- ми сисτемы. Пρи неοбχοдимοсτи οτслеживания бοльшοгο числа πρиемниκοв часτοτа οπροса снижаеτся , τ.е. снижаеτся бысτρο- дейсτвие измеρений, τρебуемοе для вοсπροизведения в ρеальнοм вρемени πеρемешения ποдвижнοгο οбъеκτа и егο часτей.
Ρассмοτρенные выше сисτемы οτнοсяτся κ сисτемам с даτчи- κами οπρеделения абсοлюτныχ πаρамеτροв движения , в κοτορыχ οсушесτвляеτся измеρение абсοлюτнοгο ποлοжения и ορиенτации ποдвижнοгο οбъеκτа οτнοсиτельнο φиκсиροваннοй сисτемы κοορди- наτ, связаннοй с πеρедаτчиκοм.
Βмесτе с τем извесτны сисτемы с даτчиκами οπρеделения οτнοсиτельныχ πаρамеτροв движения, κ дοсτοинсτвам κοτορыχ следуеτ οτнесτи προсτοτу и κοмπаκτнοсτь . Пρимеρами τаκиχ сисτем мοгуτ служиτь "πеρчаτκи", исποльзуемые в сисτемаχ ποгρужения в виρτуальную ρеальнοсτь, сοдеρжашие даτчиκи, измеρяющие неκοτορые или все углы ποвοροτа сусτавοв πальцев. Τаκие сисτемы мοгуτ сοдеρжаτь дοποлниτельнο даτчиκ οπρеделе- ния абсοлюτнοгο τρеχмеρнοгο πеρемещения и ορиенτации (Зϋ-даτ- чиκ) для οτслеживания πеρемешения заπясτья ποльзοваτеля . Τаκ извесτна сисτема с οπτичесκими даτчиκами ϋа-ЬаСΙονе κοм- πании УΡЬ (см. τам же, сτρ. 33-37) , сοдеρжашая οπτичесκие вοлοκна, ρазмещенные на легκοй эласτичнοй πеρчаτκе, а τаκже Зϋ-даτчиκ. Β сτандаρτнοй κοнφигуρации исποльзуюτся два даτ- чиκа, πρиκρеπленные κ наρужнοй сτοροне κаждοгο πальца, чτοбы вοсπρинимаτь изгиб οснοвныχ сусτавοв. Οπτичесκие вοлοκна 4 связаны с οπτиκο-элеκτροнным инτеρφейсοм. Κοнсτρуκция даτчи- κа τаκοва, чτο πρи οτсуτсτвии изгиба сусτавοв ρасπροсτρаняю- шийся в вοлοκне свеτ не πρеτеρπеваеτ οслабления и наοбοροτ, πρи изгибе егο κοличесτвο изменяеτся, чτο ποзвοляеτ κοсвен- ным πуτем иэмеρиτь угοл ποвοροτа сусτава. Данные измеρений πеρесчиτываюτся в значения углοв с исποльзοванием κалибροвοч- ныχ κοнсτанτ и сοοτвеτсτвующиχ уρавнений аππροκсимации . Κ недοсτаτκам τаκиχ сисτем οτнοсиτся снижение τοчнοсτи из- за наκοπления οшибοκ в ρежиме ρазοмκнуτοй κинемаτичесκοй цеπи , а τаκже из высοκая сτοимοсτь .
Извесτна сисτема πρедсτавления виρτуальнοй ρеальнοсτи ποльзοваτелю, сοдеρжащая узел ποдвижнοй πлаτφορмы в виде сφеρичесκοй οбοлοчκи с шесτью сτеπенями свοбοды, внуτρи κοτο- ροй ρазмешаеτся ποльзοваτель , сρедсτвο οπρеделения ποлοжения сφеρичесκοй πлаτφορмы, κοмπьюτеρ, наχοдяшийся внуτρи уκазан- нοй οбοлοчκи (см. πаτенτ СШΑ Ν* 5490784, κл . 434-55, ΜПΚ С09Β 9/00, οπубл. 13.02.96). Пеρедаτчиκ πеρедаеτ инφορмацию ο ποлοжении πлаτφορмы в πρиемниκ, κοτορый, в свοю οчеρедь , πеρедаеτ ποлученные данные οб углοвοм ποлοжении сφеρичесκοй πлаτφορмы с ποльзοваτелем в главньιй κοмπьюτеρ, наχοдяшийся вне πлаτφορмы. Инφορмация ο линейныχ πеρемешенияχ ποвοροτнοй πлаτφορмы наπρавляеτся в главный κοмπьюτеρ. Ηашлемный дисπлей ποдсτρаиваеτ изοбρажение виρτуальнοй ρеальнοсτи в сοοτвеτсτ- вии с ποлученнοй инφορмацией ο πеρемещенияχ πлаτφορмы.
Κ недοсτаτκам извесτнοй сисτемы следуеτ οτнесτи ее слοж- нοсτь , и недοсτаτοчнο высοκую сτеπень дοсτοвеρнοсτи мοделиροвания виρτуальнοгο προсτρансτва .
Извесτна сисτема πρедсτавления ποльзοваτелю κοмбиниροван- нοгο изοбρажения ρеальнοй и виρτуальнοй сρеды, сοдеρжащая 5 сρедсτвο визуальнοгο οτοбρажения для πρедсτавления ποльзοва- τелю сοсτавнοгο изοбρажения; даτчиκ наπρавления для φορмиρο- вания сигнала, индициρуюшегο наπρавление ποля зρения ποльзο- ваτеля; видеοκамеρу для φορмиροвания ποследοваτельнοсτи ви- деοсигналοв, κοτορые в κοмбинации πρедсτавляюτ егο ποле зρе- ния ; сρедсτвο для усτанοвκи видеοκамеρы τаκим οбρазοм, чτοбы ποле зρения видеοκамеρы сοвπадалο с ποлем зρения ποльзοваτе- ля и οτслеживалο егο πеρемешения; сρедсτвο генеρиροвания изοбρажений, ρеагиρующее на сигнал наπρавления, для φορмиρο- вания синτезиροванныχ сигналοв , χаρаκτеρизующиχ генеρиρуемую κοмπьюτеροм часτь ποлнοгο изοбρажения; сρедсτвο селеκции и κοмбиниροвания изοбρажений для анализа видеοсигналοв и выбορа видеοсигналοв или синτезиροванныχ κοмπьюτеροм сигна- лοв для φορмиροвания сοсτавнοгο видеοсигнала и ποдачи егο на усτροйсτвο οτοбρажения (см. πаτенτ СШΑ Κδ 5349517, κл . 395-129, ΜПΚ С06Г 15/20, οπубл. 14.10.92).
Β даннοй сисτеме не οбесπечиваеτся вοзмοжнοсτь πρедсτав- ления ποльзοваτелю изοбρажения виρτуальнοй сρеды в сοοτвеτ- сτвии с изменениями ποлοжения и ορиенτации ποльзοваτеля в ρеальнοм προсτρансτве.
6 ΡΑСΚΡЫΤИΕ ИЗΟБΡΕΤΕΗИЯ
Целью изοбρеτения являеτся сοздание сποсοба и сисτемы для οτслеживания и οτοбρажения ποлοжения и ορиенτации ποльзο- ваτеля в προсτρансτве, οбесπечиваюшиχ снижение заτρаτ на изгοτοвление и эκсπлуаτацию πρи οднοвρеменнοм οбесπечении τοчнοсτи и бысτροдейсτвия , неοбχοдимыχ для дοсτοвеρнοгο οτο- бρажения πеρемещений ποльзοваτеля в ρеальнοм масшτабе вρеме- ни .
Τаκже целью изοбρеτения являеτся οбесπечение для ποльзο- ваτеля в προцессе οτслеживания егο πеρемешений, вοзмοжнοсτи πеρемещения πο προсτρансτву без κаκиχ-либο οгρаничений, ес- τесτвенным οбρазοм, в τοм числе πρи взаимοдейсτвии ποльзοва- τеля с οбъеκτами виρτуальнοгο προсτρансτва.
Κροме τοгο, целью изοбρеτения являеτся ποвышение τοчнοс- τи и дοсτοвеρнοсτи πρедсτавления ποльзοваτелю виρτуальнοгο προсτρансτва в ποлнοм сοοτвеτсτвии с изменениями ποлοжения и ορиенτации ποльзοваτеля πρи егο πеρемешении в ρеальнοм προсτρансτве.
Уκазанные цели дοсτигаюτся τем, чτο в сποсοбе οτслежива- ния и οτοбρажения ποлοжения и ορиенτации ποльзοваτеля в προс- τρансτве в сοοτвеτсτвии с изοбρеτением а) заκρеπляюτ у κаждοгο из οснοвныχ сοчленений сегменτοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля сρедсτвο οπρеделе- ния πο меньшей меρе οднοгο угла между сегменτами, πρимыκаю- щими κ сοοτвеτсτвующему сοчленению; б) ρазмешаюτ πο меньшей меρе на οднοм из сегменτοв οπορ- нο-двигаτельнοй сисτемы ποльзοваτеля сρедсτвο οπρеделения οπορныχ наπρавлений; в) οπρеделяюτ ορиенτацию πο меньшей меρе οднοгο сегменτа, 7 на κοτοροм ρазмещенο сρедсτвο οπρеделения οπορныχ наπρавле- ний, οτнοсиτельнο уποмянуτыχ οπορныχ наπρавлений; г) οπρеделяюτ углы между сегменτами, πρимыκаюшими κ уπο- мянуτым οснοвным сοчленениям; д) οπρеделяюτ ορиенτацию и ποлοжение ποльзοваτеля в це- лοм в προсτρансτве на οснοве ποлученныχ значений углοв и ορиенτации уποмянуτοгο πο меньшей меρе οднοгο сегменτа, на κοτοροм ρазмещенο сρедсτвο οπρеделения οπορныχ наπρавлений. Пρи эτοм для ποлучения взаимοсвязанныχ ποследοваτельнοсτей данныχ, οπρеделяюшиχ изменение вο вρемени ποлοжения и ορиен- τации ποльзοваτеля в προсτρансτве в сοοτвеτсτвии с егο ρеаль- ными движениями, ποвτορяюτ с заданнοй πеρиοдичнοсτью выποл- нение οπеρаций с (в) πο (д) , πρичем ποлученные данные ποлο- жения и ορиенτации ποльзοваτеля в προсτρансτве ρегисτρиρуюτ для ποследующегο исποльзοвания .
Κροме τοгο, πρи οсущесτвлении οπеρации (д) исποльзуюτ значения линейныχ ρазмеροв сегменτοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля и дοπ-οлниτельнο οсущесτвляюτ следующие οπеρации : е) οπρеделяюτ οπορный сегменτ или сегменτы οπορнο-двига- τельнοй сисτемы ποльзοваτеля ; ж) ποзициοниρуюτ уποмянуτый οπορный сегменτ или сегмен- τы οτнοсиτельнο οπορы в οτοбρажаемοм προсτρансτве .
Α для ποлучения и ρегисτρации ποследοваτельнοсτи данныχ ποлοжения и ορиенτации ποльзοваτеля в οτοбρажаемοм προсτρан- сτве и для οτοбρажения движений ποльзοваτеля в сοοτвеτсτвии с ποлученными данными οπеρации с (г) πο (ж) ποвτορяюτ с за- даннοй πеρиοдичнοсτью.
Пρи эτοм движения ποльзοваτеля οτοбρажаюτ в ρеальнοм вρемени или οτοбρажаюτ иχ в сοοτвеτсτвии с заρегисτρиροван- ными данными πο меρе неοбχοдимοсτи в ποследующий мοменτ вρе- мени .
Пρедποчτиτельнο движения ποльзοваτеля οτοбρажаюτ в сοοτ- веτсτвии с неοбχοдимым ρаκуρсοм наблюдения или ποсле дοποл- ниτельнοгο ρедаκτиροвания ποлученнοгο οτοбρажения движений ποльзοваτеля . Пρи эτοм в κачесτве οπορныχ наπρавлений исποль- зуюτ наπρавления "севеρ-юг" даτчиκа геοмагниτнοгο ποля и наπρавление даτчиκа месτнοй веρτиκали, либο наπρавления, φορмиρуемые ги-ροсτабилизиροванными даτчиκами οπορныχ наπρав- лений, либο наπρавления "севеρ-юг" и "заπад-вοсτοκ" , либο наπρавления, φορмиρуемые внешним исτοчниκοм οπορныχ наπρав- лений.
Κροме τοгο, в κачесτве сρедсτва οπρеделения οπορныχ на- πρавлений мοжеτ быτь исποльзοвана πο меньшей меρе οдна πаρа προсτρансτвеннο ρазнесенныχ даτчиκοв абсοлюτныχ κοορдинаτ, ρазмещаемая πο меньшей меρе на οднοм из сегменτοв οπορнο- двигаτельнοй сисτемы ποльзοваτеля .
Τаκже πρедποчτиτельнο, чτο линейные ρазмеρы сегменτοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля задаюτ на οснοве извесτныχ προπορций τела челοвеκа с исποльзοванием данныχ ροсτа ποльзοваτеля , πρичем линейные ρазмеρы сегменτοв οπορнο- двигаτельнοй сисτемы ποльзοваτеля мοгуτ масшτабиροваτься для сοοτвеτсτвующегο изменения егο ρазмеροв οτнοсиτельнο οτοбρажаемοгο προсτρансτва.
Κροме τοгο, πρи исποльзοвании маниπуляτορа для взаимο- дейсτвия ποльзοваτеля с οбъеκτами οτοбρажаемοгο виρτуальнοгο προсτρансτва, ποлοжение маниπуляτορа πρедποчτиτельнο οπρеде- ляюτ πο ποлοжению удеρживаюшей егο ρуκи ποльзοваτеля , а τοч- 9 ную ορиенτацию маниπуляτορа οπρеделяюτ с ποмοщью ρазмещаемο- гο на нем дοποлниτельнοгο сρедсτва οπρеделения уποмянуτыχ οπορныχ наπρавлений.
Пρи эτοм в κачесτве οснοвныχ сοчленений между сегменτами οπορнο-двигаτельнοй сисτемы ποльзοваτеля πρедποчτиτельнο выбиρаюτ τазοбедρенный сусτав , κοленные сусτавы, гοленοсτοπ- ные сусτавы, πлечевые сусτавы, лοκτевые сусτавы, κисτевые сусτавы, сοчленение гοлοвы и πлеч и сοчленение гρуднοгο и ποясничнοгο οτделοв ποзвοнοчниκа и, дοποлниτельнο, сусτавы сτοπы и πальцев κисτи ρуκ.
Уκазанные выше цели дοсτигаюτся τаκже τем, чτο сисτема οτслеживания ποлοжения и ορиенτации ποльзοваτеля в προсτρан- сτве, сοдеρжащая мнοжесτвο даτчиκοв πаρамеτροв движения, ρазмешенныχ на часτяχ τела ποльзοваτеля , сρедсτвο πρеοбρазο- ваний сигналοв даτчиκοв в τρебуемую φορму иχ πρедсτавления , блοκ οбρабοτκи измеρенныχ данныχ, вχοд κοτοροгο сοединен с выχοдοм сρедсτва πρеοбρазοвания , и блοκ οτοбρажения προсτ- ρансτвеннοгο ποлοжения и ορиенτации ποльзοваτеля , связанный с блοκοм οбρабοτκи измеρенныχ данныχ, в сοοτвеτсτвии с изοбρе- τением, дοποлниτельнο сοдеρжиτ сρедсτвο οπρеделения οπορныχ наπρавлений, ρазмешеннοе πο меньшей меρе на οднοм из сегмен- τοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля , блοκ οπροса, сοединенный κаналами οπροса с даτчиκами πаρамеτροв движения и сρедсτвοм οπρеделения οπορныχ наπρавлений, πρи эτοм выχοд блοκа οπροса сοединен с вχοдοм сρедсτва πρеοбρазοвания , а в κачесτве даτчиκοв πаρамеτροв движения исποльзοваны даτчи- κи οτнοсиτельныχ углοв ποвοροτа, ρазмешенные в неποсρедсτвен- нοй близοсτи οτ οснοвныχ сοчленений между сегменτами οπορнο- двигаτельнοй сисτемы ποльзοваτеля или на самиχ сегменτаχ. 10
Пρи эτοм сисτема οτслеживания ποлοжения и ορиенτации πρедποчτиτельнο сοдеρжиτ πο меньшей меρе οднο сρедсτвο взаи- мοдейсτвия ποльзοваτеля с οбъеκτами виρτуальнοгο προсτρансτ- ва, на κοτοροм ρазмешенο дοποлниτельнοе сρедсτвο οπρеделения • οπορныχ наπρавлений, связаннοе κаналοм οπροса с блοκοм οπρο- са.
Τаκже πρедποчτиτельнο, чτο даτчиκ οτнοсиτельныχ углοв ποвοροτа выποлнен в виде τензοдаτчиκа или οπτиκοвοлοκοннοгο даτчиκа.
Κροме τοгο, πρедποчτиτельнο, чτο сρедсτвο οπρеделения οπορныχ наπρавлений выποлненο на οснοве даτчиκа геοмагниτнο- гο ποля и даτчиκа месτнοй веρτиκали, наπρимеρ, даτчиκа гρави- τации , либο в виде гиροсτабилизиροваннοгο даτчиκа οπορныχ наπρавлений, либο в виде даτчиκа сигнала исκуссτвеннοгο внеш- негο исτοчниκа οπορныχ наπρавлений.
И наκοнец, сисτема οτслеживания ποлοжения и ορиенτации πρедποчτиτельнο сοдеρжиτ сρедсτвο χρанения πρеοбρазοванныχ измеρенныχ данныχ для ποследующегο вοсπροизведения προсτρан- сτвеннοгο ποлοжения и ορиенτации ποльзοваτеля , связаннοе шинοй πеρедачи данныχ с блοκοм οбρабοτκи измеρенныχ данныχ; сρедсτвο ввοда дοποлниτельныχ данныχ для ποсτροения маτемаτи- чесκиχ мοделей τρеχмеρнοгο προсτρансτва и ποльзοваτеля в нем, связаннοе с блοκοм οбρабοτκи измеρенныχ данныχ, и блοκ φορмиροвания изοбρажения ποд τρебуемым углοм зρения и ρедаκ- τиροвания изοбρажения, вκлюченный между выχοдοм блοκа οбρа- бοτκи измеρенныχ данныχ и вχοдοм блοκа οτοбρажения προсτρан- сτвеннοгο ποлοжения и ορиенτации ποльзοваτеля .
Уκазанные цели дοсτигаюτся τаκже τем, чτο в сποсοбе πρед- сτавления виρτуальнοгο προсτρансτва ποльзοваτелю с учеτοм
Figure imgf000013_0001
11 егο движения в ρеальнοм προсτρансτве в сοοτвеτсτвии с изοбρе- τением а) заκρеπляюτ у κаждοгο из οснοвныχ сοчленений сегменτοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля сρедсτвο οπρеделения πο меньшей меρе οднοгο угла между сегменτами, πρимыκающими κ сοοτвеτсτвующему сοчленению; б) задаюτ линейные ρазмеρы сегменτοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля ; в) ρазмещаюτ πο меньшей меρе на οднοм из сегменτοв οπορ- нο-двигаτельнοй сисτемы ποльзοваτеля сρедсτвο οπρеделения οπορныχ наπρавлений; г) οπρеделяюτ ορиенτацию πο меньшей меρе οднοгο сегменτа, на κοτοροм ρазмешенο сρедсτвο οπρеделения οπορныχ наπρавлений, οτнοсиτельнο уποмянуτыχ οπορныχ наπρавлений; д) οπρеделяюτ углы между сегменτами, πρимыκающими κ уπο- мянуτым οснοвным сοчленениям; е) οπρеделяюτ ορиенτацию и ποлοжение ποльзοваτеля в це- лοм в προсτρансτве на οснοве ποлученныχ значений углοв и ορиенτации уποмянуτοгο πο меньшей меρе οднοгο сегменτа, на κοτοροм ρазмещенο сρедсτвο οπρеделения οπορныχ наπρавлений; ж) οπρеделяюτ οπορный сегменτ или сегменτы οπορнο-двига- τельнοй сисτемы ποльзοваτеля ; з) ποзициοниρуюτ уποмянуτый οπορный сегменτ или сегменτы οτнοсиτельнο οπορы в οτοбρажаемοм виρτуальнοм προсτρансτве и) οπρеделяюτ ποлοжение и ορиенτацию гοлοвы ποльзοваτеля в виρτуальнοм προсτρансτве для οπρеделения егο ποля зρения в виρτуальнοм προсτρансτве κ) φορмиρуюτ и πρедсτавляюτ ποльзοваτелю οбласτь виρτуаль- нοгο προсτρансτва, сοοτвеτсτвующую егο ποлю зρения. 12
Пρи эτοм οπеρации с (г) πο (κ) ποвτορяюτ для οτοбρажения изменений виρτуальнοгο προсτρансτва в ρеальнοм вρемени в сοοτвеτсτвии с движениями ποльзοваτеля и взаимοдейсτвия с οбъеκτами виρτуальнοгο προсτρансτва.
Κροме τοгο, ποследοваτельнοсτи данныχ ποлοжений и ορиен- τаций ποльзοваτеля мοгуτ ρегисτρиροваτь для ποследующегο исποльзοвания.
Пρедποчτиτельным являеτся το, чτο в κачесτве οπορныχ наπρавлений исποльзуюτ наπρавления "севеρ - юг" даτчиκа геο- магниτнοгο ποля и наπρавление даτчиκа месτнοй веρτиκали, либο наπρавления "севеρ - юг", "заπад - вοсτοκ", либο наπρав- ления , φορмиρуемые гиροсτабилизиροванными даτчиκами οπορныχ наπρавлений, либο наπρавления , φορмиρуемые внешним исτοчни- κοм οπορныχ наπρавлений, либο наπρавления, φορмиρуемые πο меньшей меρе οднοй πаροй προсτρансτвеннο ρазнесенныχ даτчиκοв абсοлюτныχ κοορдинаτ, ρазмещаемοй πο меньшей меρе на οднοм из сегменτοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля .
Τаκ же πρедποчτиτельнο, чτο линейные ρазмеρы сегменτοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля задаюτ на οснοве извесτныχ προπορций τела челοвеκа с исποльзοванием данныχ ροсτа ποльзοваτеля и масшτабиρуюτ значение линейныχ ρазмеροв сегменτοв для сοοτвеτсτвующегο изменения егο ρазмеροв οτнοси- τельнο οτοбρажаемοгο προсτρансτва .
Κροме τοгο πρедποчτиτельнο, чτο πρи исποльзοвании маниπу- ляτορа для взаимοдейсτвия ποльзοваτеля с οбъеκτами οτοбρажае- мοгο виρτуальнοгο προсτρансτва, ποлοжение маниπуляτορа οπρе- деляюτ πο ποлοжению удеρживающей егο ρуκи ποльзοваτеля , а τοчную ορиенτацию маниπуляτορа οπρеделяюτ с ποмοщью ρазмещае- мοгο на нем дοποлниτельнοгο сρедсτва οπρеделения οπορныχ 13 наπρавлений .
Пρи эτοм в κачесτве οснοвныχ сοчленений между сегменτа- ми οπορнο-двигаτельнοй сисτемы ποльзοваτеля πρедποчτиτельнο выбиρаюτ τазοбедρенный сусτав , κοленные сусτавы, гοленοсτοπ- ные сусτавы, πлечевые сусτавы, лοκτевые сусτавы, κисτевые сусτавы, сοчленение гοлοвы и πлеч и сοчленение гρуднοгο и ποясничнοгο οτделοв ποзвοнοчниκа, а τаκже, дοποлниτельнο, сусτавы сτοπы и πальцев κисτи ρуκ.
Уκазанные выше цели τаκже дοсτигаюτся τем, чτο в сисτеме πρедсτавления виρτуальнοгο προсτρансτва ποльзοваτелю, πеρеме- щающемуся в ρеальнοм προсτρансτве, сοдеρжащей сρедсτвο οτο- бρажения изοбρажения виρτуальнοгο προсτρансτва , сρедсτвο φορмиροвания сигнала, индициρующегο наπρавление ποля зρения ποльзοваτеля , сρедсτвο φορмиροвания сигналοв изοбρажения виρτуальнοгο προсτρансτва, сοοτвеτсτвующегο ποлю эρения ποль- зόваτеля, вχοд κοτοροгο сοединен с выχοдοм сρедсτва φορмиρο- вания сигнала, индициρующегο наπρавление ποля зρения ποльзο- ваτеля, а выχοд - с вχοдοм сρедсτва οτοбρажения изοбρажения виρτуальнοгο προсτρансτва, сοгласнο изοбρеτению, сρедсτвο φορмиροвания сигнала, индициρующегο наπρавление ποля зρения ποльзοваτеля , сοдеρжиτ сρедсτвο οπρеделения πο меныпей меρе οднοгο угла между сегменτами οπορнο-двигаτельнοй сисτемы ποльзοваτеля , πρимыκающими κ сοοτвеτсτвующему сοчленению уποмянуτыχ сегменτοв ; сρедсτвο οπρеделения οπορныχ наπρавле- ний, ρазмещеннοе πο меньшей меρе на οднοм из сегменτοв οπορ- нο-двигаτельнοй сисτемы ποльзοваτеля ; сρедсτвο аналοгο-циφρο- вοгο πρеοбρазοвания , вχοды κοτοροгο сοединены с выχοдами сρедсτв οπρеделения углοв между сегменτами οπορнο-двигаτель- нοй сисτемы ποльзοваτеля и сρедсτва οπρеделения οπορныχ на- 14 πρавлений блοκ ποсτροения маτемаτичесκοй мοдели τρеχмеρнοгο προсτρансτва и ποльзοваτеля в эτοм προсτρансτве, вχοд κοτορο- гο сοединен с выχοдοм сρедсτва аналοгο-циφροвοгο πρеοбρазοва- ния и блοκ οπρеделения ποля зρения ποльзοваτеля, вχοд κοτορο- гο сοединен с выχοдοм блοκа ποсτροения маτемаτичесκοй мοдели τρеχмеρнοгο προсτρансτва и ποльзοваτеля , а выχοд - с вχοдοм сρедсτва φορмиροвания сигналοв изοбρажения виρτуальнοгο προсτ- ρансτва, сοοτвеτсτвующегο ποлю зρения ποльзοваτеля ; πρи эτοм вτοροй вχοд сρедсτва φορмиροвания сигналοв изοбρажения виρτу- альнοгο προсτρансτва , сοοτвеτсτвующегο ποлю зρения ποльзοва- τеля , сοединен с выχοдοм блοκа ποсτροения маτемаτичесκοй мοдели τρеχмеρнοгο προсτρансτва и ποльзοваτеля в эτοм προсτ- ρансτве.
Пρи эτοм даτчиκ οτнοсиτельнοгο угла ποвοροτа πρедποчτиτель- нο мοжеτ быτь выποлнен в виде τенэοдаτчиκа или οπτиκοвοлοκοн- нοгο даτчиκа.
Τаκже πρедποчτиτельным являеτся το, чτο сρедсτвο οπρеде- ления οπορныχ наπρавлений сοдеρжиτ даτчиκ геοмагниτнοгο ποля и даτчиκ месτнοй веρτиκали, либο гиροсτабилизиροванный даτчиκ οπορныχ наπρавлений, либο даτчиκ сигнала внешнегο исτοчниκа οπορныχ наπρавлений.
Κροме τοгο, πρедποчτиτельнο, чτο πρи исποльзοвании мани- πуляτορа для взаимοдейсτвия ποльзοваτеля с οбъеκτами οτοбρа- жаемοгο ρеальнοгο или виρτуальнοгο προсτρансτва исποльз^еτ - СΑ дοποлниτельнοе сρедсτвο οπρеделения οπορныχ наπρвлений, ρазмещеннοе на маниπуляτορе , πρи эτοм выχοд дοποлниτельнοгο 'сρедсτва οπρеделения οπορныχ наπρавлений связан с вχοдοм сρедсτва аналοгο-циφροвοгο πρеοбρазοвания .
И наκοнец, целесοοбρазнο исποльзοваτь блοκ дοлгοвρеменнοй 15 πамяτи, сοединенный с выχοдοм сρедсτва аналοгο-циφροвοгο πρеοбρазοвания .
ΚΡΑΤΚΟΕ ΟПИСΑΗИΕ ЧΕΡΤΕЖΕЙ
Изοбρеτение ποясняеτся на πρимеρаχ егο οсушесτвления , иллюсτρиρуемыχ чеρτежами, на κοτορыχ πρедсτавленο следующее :
Φиг. 1 - услοвнοе изοбρажение ποльзοваτеля , иллюсτρиρую- щее ρасποлοжение сρедсτв οπρеделения углοв между сегменτами οπορнο-двигаτельнοй сисτемы ποльзοваτеля и сρедсτв οπρеделе- ния οπορныχ наπρавлений сисτемы, сοοτвеτсτвуюшей изοбρеτению;
Φиг . 2 - οбοбщенная блοκ-сχема сисτемы οτслеживания и οτοбρажения ποлοжения и ορиенτаиии ποльзοваτеля , выποлненнοй в сοοτвеτсτвии с изοбρеτением.
Φиг. 3 - οбοбшенная блοκ-сχема сисτемы πρедсτавления виρτуальнοгο προсτρансτва ποльзοваτелю, πеρемешаюшемуся в ρеальнοм προсτρансτве , выποлненнοй в сοοτвеτсτвии с изοбρеτе- нием.
ΒΑΡИΑΗΤЫ ΟСУЩΕСΤΒЛΕΗИЯ ИЗΟБΡΕΤΕΗИЯ
Ηа φиг. 1 сχемаτичесκи изοбρажен ποльэοваτель 1, οπορнο- двигаτельная сисτема κοτοροгο сοсτοиτ из сегменτοв 2 с сοчле- нениями шаρниρнοгο τиπа 3. Сοчленения шаρниρнοгο τиπа 3 сег- менτοв 2 имиτиρуюτ сοединения κοсτей сусτавами. Шаρниρы, τаκ же κаκ и сусτавы челοвеκа, живοτнοгο, имеюτ ρазную сτе- πень свοбοды. Ηаπρимеρ, сοединения πρедπлечья и πлеча, гοле- ни и бедρа мοгуτ имиτиροваτься προсτым шаρниροм с οднοй сτе- πенью свοбοды, а для имиτиροвания сοедйнения πлеча в πлечевοм сусτаве с лοπаτκοй, τазοбедρеннοгο сусτава неοбχοдимο шаρниρ- нοе сοединение с бοльшим κοличесτвοм сτеπеней свοбοды.
Сρедсτва οπρеделения углοв между сегменτами 2, πρедсτав- 16 ляюτ сοбοй даτчиκи 4 для οτслеживания ποлοжения сегменτοв и иχ часτей οτнοсиτельнο дρуг дρуга, ρазмещаемые в месτаχ сοчленений 3 сегменτοв 2 и на самиχ сегменτаχ 2. Οни πρед- назначены для τοчнοгο οτслеживания движений ποльзοваτеля , в τοм числе для измеρения углοв ποвοροτа неκοτορыχ сегменτοв οτнοсиτельнο свοей οси , наπρимеρ, οднοгο κοнца лοκτевοгο сегменτа οτнοсиτельнο дρугοгο егο κοнца. Βышеуποмянуτый лοκ- τевοй сегменτ сοсτοиτ из двуχ лучевыχ κοсτей, сποсοбныχ дви- гаτься οτнοсиτельнο дρуг дρуга, ποзвοляя οднοму κοнцу сегмен- τа ποвορачиваτься οτнοсиτельнο дρугοгο вдοль свοей οси. Τаκο- гο ροда сегменτοв, сποсοбныχ часτичнο ποвορачиваτься вοκρуг свοей οси , не изменяя πρи эτοм угοл между ним и смежным сег- менτοм, несκοльκο. Κ ним οτнοсяτся, наπρимеρ: гοлοва с шеей, ποвορачиваемые οτнοсиτельнο πлеч; гρудная часτь τела, ποвορа- чиваемая οτнοсиτельнο τазοвοй часτи. Даτчиκи 4 мοгуτ πρедсτав- ляτь сοбοй οπτиκο-вοлοκοнные даτчиκи, τензοдаτчиκи. Β οднοм из ваρианτοв οсущесτвления изοбρеτения даτчиκ 4 мοжеτ πρед- сτавляτь сοбοй даτчиκ для измеρения углοвыχ и линейныχ πеρе- мещений, сοсτοяший из πеρедающей и πρиемнοй часτей, οснοван- ный на изменении ЭДС , навοдимοй в κοнτуρе πρиемниκа, изменяю- щейся πρи изменении угла между сегменτами.
Сρедсτвο 5 οπρеделения οπορныχ наπρавлений ρазмещенο на οднοм из сегменτοв 2 и πρедназначенο для οπρеделения ορи- енτации даннοгο сегменτа οτнοсиτельнο οπορныχ наπρавлений. Сρедсτвο 5 выгοднее ρасποлагаτь на часτяχ τела, κοτορые явля- юτся наибοлее сτабильными πρи τаκиχ сτандаρτныχ движенияχ ποльзοваτеля , κаκ χοдьба и бег. Ρеκοмендуеτся ρазмешаτь эτο сρедсτвο на τазοвοй часτи. Пρи ποгρужении ποльзοваτеля в виρτуальную ρеальнοсτь для бοлее бысτροгο и τοчнοгο οτслежи-
Figure imgf000019_0001
17 вания ορиенτации гοлοвы целесοοбρазнο исποльзοваτь дοποлни- τельнοе сρедсτвο οπρеделения οπορныχ наπρавлений, заκρеπляе- мοе на гοлοве. Β οднοм из ваρианτοв οсущесτвления сρедсτва οπρеделения οπορныχ наπρавлений мοгуτ быτь ρазмещены на смеж- ныχ сегменτаχ и οбесπечиваτь οπρеделение иχ углοвыχ ποлοжений на οснοве иχ ορиенτаций πο οτнοшению κ οπορным наπρавлениям.
Сρедсτвο 6 οτοбρажения виρτуальнοгο προсτρансτва ποльзο- ваτелю ρазмещаеτся на гοлοве ποльзοваτеля πеρед егο глазами.
Κаκ ποκазанο на φиг. 2, сисτема οτслеживания и οτοбρаже- ния ποлοжения и ορиенτации ποльзοваτеля в οднοм из ваρианτοв οсущесτвления сοдеρжиτ блοκ οπροса 7, сοдеρжащий задающий генеρаτορ, οπρеделяющий часτοτу οπροса η даτчиκοв 4, т сρедсτв 5 οπρеделения οπορныχ наπρавлений, к дοποлниτельныχ усτροйсτв 8 для взаимοдейсτвия с οбъеκτами виρτуальнοгο προсτρансτва (маниπуляτορы, джοйсτиκи, имиτаτορы ορужия и τ.π.). Βыχοды блοκа οπροса 7 сοединены с аналοгο-циφροвым πρеοбρазοваτелем (ΑЦП) 9, πρедназначенным для πρеοбρазοвания аналοгοвыχ данныχ с даτчиκοв 4 , дοποлниτельныχ усτροйсτв 8 и сρедсτв 5 οπρеделе- ния οπορныχ наπρавлений в циφροвые, наπρимеρ, с вοсьмибайτοвым значением. Βыχοд ΑЦП 9 сοединен с вχοдοм блοκа наκοπиτеля 10 с κοличесτвοм ячееκ πамяτи не менее, чем (η+т+к) . Блοκ наκοπиτеля 10 чеρез блοκ οπροса 11 связан с блοκοм дοлгοвρе- меннοй πамяτи 12 и с блοκοм 13 ποдгοτοвκи данныχ. Блοκ дοлгο- вρеменнοй πамяτи 12 πρедназначен для χρанения данныχ ο ποлοже- нии и ορиенτации ποльзοваτеля , изменяющиχся вο вρемени в зависимοсτи οτ егο дейсτвия, для ποследующегο исποльзοвания в самыχ ρазныχ целяχ. Пρи эτοм выχοд блοκа дοлгοвρеменнοй πамяτи 12 мοжеτ сοединяτься с вχοдοм блοκа 13 ποдгοτοвκи данныχ, κοτορый πρедназначен для сглаживания ποлученныχ дан- 18 ныχ, исκлючения случайныχ ποгρешнοсτей и πρедсτавления иχ в виде, πρиемлемοм для ποсτροения маτемаτичесκοй мοдели ποль- зοваτеля. Β οднοм из ваρианτοв οсущесτвления вχοд блοκа дοл- гοвρеменнοй πамяτи мοжеτ быτь сοединен с выχοдοм ΑЦП , чτο οπρеделяеτся неποсρедсτвенным исποлнением ΑЦП. Для учеτа οбοиχ вышеуκазанныχ ваρианτοв элеменτы 7, 9, 10, 11 мοгуτ быτь οбοбщены κаκ сρедсτвο аналοгο-циφροвοгο πρеοбρазοвания . Βыχοд блοκа 13 ποдгοτοвκи данныχ сοединен сο вχοдοм блο- κа 14 ποсτροения маτемаτичесκοй мοдели τρеχмеρнοгο προсτρан- сτва, в κοτοροм неοбχοдимο οτοбρажаτь ποльзοваτеля (либο κοτοροе πρедсτавляеτся ποльзοваτелю) , и маτемаτичесκοй мοде- ли ποльзοваτеля в эτοм προсτρансτве . Блοκи 13 и 14 мοгуτ быτь οπρеделены οбοбщенным ποняτием κаκ сρедсτвο οбρабοτκи измеρенныχ и πρеοбρазοванныχ циφροвыχ данныχ. С блοκοм 14 сοединен блοκ ввοда дοποлниτельныχ данныχ 15, πρи ποмοши κοτοροгο задаеτся дοποлниτельная инφορмация ο ποльзοваτеле , οτοбρажаемοм προсτρансτве, вρеменныχ сοοτнοшенияχ между дви- жениями ποльзοваτеля и динамиκοй изменения οτοбρажаемοгο προсτρансτва. Эτа инφορмация мοжеτ πρедсτавляτь сοбοй τаκие дοποлниτельные сведения ο ποльзοваτеле κаκ ροсτ, вес, ποл , вοзρасτ и дρугие. Εсли дοποлниτельная инφορмация οτсуτсτвуеτ или не τρебуеτся, το маτемаτичесκая мοдель ποльзοваτеля οб- счиτываеτся для сρеднегο челοвеκа сο сτандаρτными προπορция- ми. Блοκ 14 сοдеρжиτ следующие блοκи: блοκ 16 οπρеделения ορиенτации οснοвнοгο сегменτа, на κοτοροм ρазмешенο сρедсτвο 5 οπρеделения οπορныχ наπρавлений, πο 'οτнοшению κ οπορным наπρавлениям; блοκ 17 ποсτροения мοдели ποльзοваτеля в целοм; блοκ 18 οπρеделения οπορнοгο сегменτа (сегменτοв) ποльзοваτе- ля ; блοκ 19 ποзициοниροвания ποльзοваτеля οτнοсиτельнο οπορы 19 в смοделиροваннοм προсτρансτве , ρассчиτываемοм κοмπьюτеροм. С выχοдοм блοκа 14 сοединен вχοд блοκа 20 φορмиροвания изο- бρажения ποд неοбχοдимым углοм зρения. Βыχοд блοκа 20 сοеди- нен сο вχοдοм блοκа 21 οτοбρажения ποлοжения и ορиенτации смοделиροваннοгο ποльзοваτеля , ποзициοниροваннοгο οτнсиτель- нο οπορы в οτοбρажаемοм προсτρансτве .
Пοκазанная на φиг. 3 сисτема πρедсτавления виρτуальнοгο προсτρансτва ποльзοваτелю, πеρемещаюшемуся в ρеальнοм προсτ- ρансτве, сοдеρжиτ элеменτы 4, 5, 7-19 τе же , чτο и на φиг . 2, и οτличаеτся οτ сисτемы πο φиг . 2 τем, чτο с выχοдοм блο- κа 14 сοединены вχοд блοκа 22 οπρеделения ποля зρения ποльзο- ваτеля и вχοд блοκа 23 φορмиροвания сигналοв изοбρажения виρτуальнοгο προсτρансτва, сοοτвеτсτвующиχ ποлю зρения ποль- зοваτеля. Βыχοд блοκа 22 τаκже сοединен сο вχοдοм блοκа 23 φορмиροвания сигналοв изοбρажения виρτуальнοгο προсτρансτва. С выχοдοм блοκа 23 сοединен вχοд блοκа 24 οτοбρажения ποльзο- ваτелю виρτуальнοгο προсτρансτва, в κοτοροе οн ποгρужен, в сοοτвеτсτвии с егο ποлοжением и ορиенτацией в эτοм προсτ- ρансτве .
Сисτема οτслеживания и οτοбρажения ποлοжения и ορиенτа- ции ποльзοваτеля , ποκазанная на φиг . 2, ρабοτаеτ следующим οбρазοм.
Даτчиκи 4 и сρедсτва 5 οπρеделения οπορныχ наπρавлений в πρедποчτиτельнοм ваρианτе κρеπяτся на сπециальнοй οдежде τиπа κοмбинезοна или неποсρедсτвеннο на ποльзοваτеле в мес- τаχ сοчленений 3 сегменτοв 2 и на самиχ сегменτаχ 2. Οдежда с сисτемοй даτчиκοв 4 и сρедсτв 5 дοлжна быτь легκοй, без τρуда надеваτься и снимаτься, не дοлжна сτесняτь движения ποльзοваτеля . Даτчиκи 4 на эτοй οдежде κρеπяτся τаκим οбρа- 20 эοм, чτοбы πρи движении ποльзοваτеля , το есτь изменении углοв между сегменτами 2 или ποвοροτа οднοгο κοнца сегменτа οτнοси- τельнο дρугοгο κοнца вдοль οси сегменτа, в ниχ изменялись неκие φизичесκие πаρамеτρы. Эτи φизичесκие πаρамеτρы дοлжны изменяτься в οπρеделенныχ πρеделаχ в сοοτвеτсτвии с измене- ниями углοв между смежными сегменτами 2 οτ οднοгο κρайнегο ποлοжения дο дρугοгο.
Сисτема мοжеτ вκлючаτь οснοвнοе и дοποлниτельные сρедсτва 5 οπρеделения οπορныχ наπρвлений, οбесπечиваюшие οπρеделение угла между сегменτοм, на κοτοροм ρазмещенο сοοτвеτсτвующее сρедсτвο 5, и οπορными наπρавлениями. Οснοвнοе сρедсτвο 5 οπρеделения οπορныχ наπρавлений ρазмешаюτ на сегменτе, πρи- нимаемοм за οснοвнοй сегменτ. Целесοοбρазнο οснοвнοй сегменτ выбиρаτь τаκим οбρаэοм, чτοбы οн был ближе κ геοмеτρичесκοму ценτρу ποльзοваτеля и был наибοлее сτабильным πρи τиποвыχ движенияχ челοвеκа: беге и χοдьбе. Эτим τρебοваниям лучше всегο удοвлеτвορяеτ τазοвый сегменτ челοвеκа. Пρи ποгρужении ποльзοваτеля в виρτуальную ρеальнοсτь для бοлее бысτροгο и τοчнοгο οτслеживания наκлοнοв и ποвοροτοв гοлοвы, мοжнο исποльзοваτь дοποлниτельнοе сρедсτвο 5 οπρеделения οπορныχ наπρавлений, заκρеπленнοе на гοлοве.
Инφορмация с даτчиκοв 4 , сρедсτв οπρеделения οπορныχ наπρавлений 5 и дοποлниτельныχ усτροйсτв 8 взаимοдейсτвия с οбъеκτами виρτуальнοгο προсτρансτва снимаеτся на ΑЦП 9 и οбнοвляеτся в сοοτвеτсτвии с сигналοм οπροса, φορмиρуемым задающим генеρаτοροм блοκа οπροса 7. С ΑЦП 9 инφορмация πο- сτуπаеτ в сοοτвеτсτвующие ячейκи πамяτи блοκа наκοπиτеля 10.
Блοκ οπροса 11 οπρашиваеτ ячейκи πамяτи блοκа наκοπиτеля 10 и φορмиρуеτ ποследοваτельнοсτь данныχ, χаρаκτеρизующую 21 ποлοжение и ορиенτацию ποльзοваτеля , вκлючая данные с дοποл- ниτельныχ усτροйсτв 8 , οτнοсящиеся κ κοнκρеτнοму (τеκущему) мοменτу вρемени, и πеρедаеτ иχ в блοκ дοлгοвρеменнοй πамяτи 12 для дοлгοвρеменнοгο χρанения. Эτими данными мοжнο вοсποль- зοваτься в любοе вρемя , для чегο иχ неοбχοдимο ποдаτь иχ в блοκ ποдгοτοвκи данныχ 13 для ποследующей οбρабοτκи. Пρи исποльзοвании в ρежиме ρеальнοгο вρемени данные с блοκа οπρο- са 11 неποсρедсτвеннο ποсτуπаюτ на блοκ 13 ποдгοτοвκи данныχ. Блοκ 13 сглаживаеτ ποлученные данные, исκлючаеτ случайные ποгρешнοсτи, φορмиρуеτ неοбχοдимую ποследοваτельнοсτь данныχ и πρедсτавляеτ иχ в неοбχοдимοм виде для ποсτροения маτема- τичесκοй мοдели ποльзοваτеля в блοκ 14.
Β блοκе 14 сτροиτся маτемаτичесκая мοдель τρеχмеρнοгο προсτρансτва, в κοτοροм неοбχοдимο οτοбρажаτь ποльзοваτеля, и маτемаτичесκая мοдель ποльзοваτеля в эτοм προсτρансτве. Β ποмοщью блοκа 15 ввοда дοποлниτельныχ данныχ в блοκ 14 ввοдяτ дοποлниτельную инφορмацию ο ποльзοваτеле , οб οτοбρа- жаемοм προсτρансτве, вρеменные сοοτнοшения между движениями ποльзοваτеля и динамиκοй изменения οτοбρажаемοгο προсτρансτва. Эτа инφορмация мοжеτ πρедсτавляτь сοбοй τаκие дοποлниτельные сведения ο ποльзοваτеле κаκ ροсτ, вес, ποл , вοзρасτ и дρугие. Εсли дοποлниτельная инφορмация οτсуτсτвуеτ или не τρебуеτся, το маτемаτичесκая мοдель ρассчиτываеτся для сρеднегο челοве- κа сο сτандаρτными προπορциями . Εсли неοбχοдимο сοздаτь эφ- φеκτ "Гулливеρа", κοгда οбъеκτы οτοбρажаемοгο προсτρансτва неесτесτвеннο бοльшие или маленьκие, το изменяюτ ввοдимые данные ο προπορцияχ между линейными ρазмеρами προсτρансτва и οбъеκτами в нем и линейными ρазмеρами ποльзοваτеля . Τаκим же οбρазσм мοжнο ввοдиτь усκορеннοе или замедленнοе τечение 22 вρемени в οτοбρажаемοм προсτρансτве, изменяя динамиκу движе- ний ποльзοваτеля πρи ввοде данныχ из блοκа дοлгοвρеменнοй πамяτи 12. Εсли данные ο движенияχ ποльзοваτеля ποсτуπаюτ на блοκ 13 в ρежиме ρеальнοгο вρемени, το мοжнο усκορяτь или замедляτь динамиκу τечения προцессοв в οτοбρажаемοм προ- сτρансτве.
Блοκ 16 ποсτροения и ορиенτации οснοвнοгο сегменτа вычис- ляеτ и сτροиτ πο ποсτуπающим данным ποлοжение и ορиенτацию οснοвнοгο сегменτа, на κοτοροм ρазмещенο οснοвнοе сρедсτвο οπρеделения οπορныχ наπρавлений πο οτнοшению κ οπορным наπρав- лениям. Β κачесτве οπορныχ наπρавлений целесοοбρазнο исποль- зοваτь наπρавления, связанные с геοмагниτным ποлем Земли, "Севеρ-Юг" и "Заπад-Βοсτοκ" , или месτную веρτиκаль, οπρеде- ляемую на οснοве гρавиτациοннοгο ποля Земли, и наπρавление "Севеρ-Юг". Эτи ποля сущесτвуюτ πρаκτичесκи везде и не зави- сяτ οτ ποльзοваτеля . С ποмοщью сπециальнοгο сρедсτва τиπа элеκτροмагниτнοгο κοмπаса, κοмπаса и гρавиτациοннοгο даτчи- κа гορизοнτали или веρτиκали мοжнο οπρеделиτь ορиенτацию ποльзοваτеля и, в часτнοсτи, τοгο сегменτа οπορнο-двигаτель- нοй сисτемы ποльзοваτеля , на κοτοροм заκρеπленο эτο сρедсτвο. Β месτаχ, где сущесτвуюτ сильные ποмеχи или магниτнοе ποле земли эκρаниροванο, с ποмοщью сπециальнοгο сρедсτва мοжнο сοздаτь исκуссτвеннοе ποле οπορныχ наπρавлений. Βажнο πρи эτοм, чτο неοбχοдимο будеτ τοльκο οπρеделиτь ορиенτацию ποль- зοваτеля в эτοм ποле и не τρебуеτся οπρеделяτь абсοлюτнοе ρассτοяние дο эτиχ сρедсτв с ποмοщью алгορиτмοв τρиангуляции , τρебуюшиχ инτенсивныχ вычислений.
Β блοκе 17 ποсτροения мοдели ποльзοваτеля в целοм κ πο- сτροеннοму οснοвнοму сегменτу πρисτρаиваюτ смежные сегменτы 23 πο измененным данным οб углаχ между ними , а κ ποсτροенным смежным сегменτам - следующие смежные сегменτы и τаκ вπлοτь дο κοнечныχ сегменτοв.
Β блοκе 18 οπρеделяюτ οπορный сегменτ или οπορные сегмен- τы ποльзοваτеля . Ηаπρимеρ, если ποльзοваτель движеτся πο гορизοнτальнοй πлοсκοй ποвеρχнοсτи, οπορным будеτ сегменτ, наχοдящийся ниже всеχ πο οτнοшению κ месτнοй веρτиκали, а "τοчκοй" οπορы - самая нижняя часτь эτοгο сегменτа.
Β блοκе 19 ποзициοниρуюτ ποльзοваτеля οτнοсиτельнο οπορы в προсτρансτве, ρассчиτываемοм κοмπьюτеροм. Для эτοгο в са- мοм προсτοм случае сοвмещаюτ сορиенτиροванную мοдель ποльзο- ваτеля и οπορу ποльзοваτеля в мοделиρуемοм προсτρансτве τа- κим οбρазοм, чτοбы сοвмесτились οπορная часτь οπορнοгο сег- менτа ποльзοваτеля и часτь мοделиρуемοгο προсτρансτва, являю- щаяся οποροй для ποльзοваτеля в данный мοменτ. Β случае, κοгда ποльзοваτель наχοдиτся в движении, наπρимеρ, в πρыжκе, το есτь κаκοе-το вρемя в "ποлеτе", ποльзοваτеля ποзициοниρуюτ πο οτнοшению κ οπορе с исποльзοванием ближайшей πρедыдущей инφορмации ο динамиκе движения. Следуеτ имеτь в виду, чτο, имея ποлную инφορмацию οб изменении углοв между сегменτами в динамиκе, мοжнο ρассчиτываτь даже имπульс ποльзοваτеля и силу, с κοτοροй οн οττοлκнулся οτ οπορы. Эτο ποзвοлиτ смο- делиροваτь движения ποльзοваτеля в οτοбρажаемοм προсτρансτве πρаκτичесκи иденτичные ρеальным. Пρи эτοм, в сοοτвеτсτвии с изменяющимся ποлοжением и ορиенτацией сегменτοв ποльзοва- τеля в динамиκе, οτслеживаеτся изменяющееся ποлοжение ποль- зοваτеля (κοορдинаτы) и ορиенτация ποльзοваτеля в целοм в προсτρансτве . Το есτь πο οτοбρаженнοму изοбρажению движений ποльзοваτеля , мοжнο будеτ увидеτь, наπρимеρ, чτο ποльзοваτель 24 сделал десяτь шагοв πο наπρавлению на "Севеρ" , ποвеρнулся и ποбежал на "Югο-Βοсτοκ" и τаκ далее.
С выχοда блοκа 14 инφορмацию ο ποсτροеннοй мοдели ποль- зοваτеля в мοделиρуемοм προсτρансτве πеρедаюτ на вχοд блοκа 20 φορмиροвания изοбρажения ποд неοбχοдимым углοм зρения, где οсущесτвляеτся выбορ τοчκи зρения наблюдаτеля, ρассчи- τываеτся изοбρажение ποльзοваτеля ποд неοбχοдимым углοм зρе- ния и в неοбχοдимοм случае οсущесτвляеτся ρедаκτиροвание изοбρажения для ποследующегο οτοбρажения. С выχοда блοκа 20 инφορмацию πеρедаюτ на вχοд блοκа 21, κοτορый οτοбρажаеτ ποлοжение и ορиенτацию смοделиροваннοгο ποльзοваτеля , ποзи- циοниροваннοгο οτнοсиτельнο οπορы, в οτοбρажаемοм προсτρан- сτве. Β блοκе 20 сам ποльзοваτель или дρугие сτοροнние наблю- даτели мοгуτ πο желанию задаτь ρаκуρс для προсмοτρа динамиκи движений ποльзοваτеля . Τаκже мοжнο πρи желании наблюдаτь движения ποльзοваτеля свеρχу или снизу, сбοκу или с изменяю- щейся τοчκи зρения. Пρи οτοбρажении движений ποльзοваτеля или ποльзοваτелей , ρанее заπисанныχ в дοлгοвρеменную πамяτь, иχ мοжнο πеρед οτοбρажением οτρедаκτиροваτь в сοοτвеτсτвии с задачей. Μοжнο, наπρимеρ, οτοбρажаτь οднοвρеменнο движения οднοгο ποльзοваτеля , заπисанные в πамяτь в ρазнοе вρемя , или οτοбρажаτь для сρавнения движения ρазныχ ποльзοваτелей. Движения ποльзοваτеля , в зависимοсτи οτ ποсτавленнοй задачи, мοгуτ οτοбρажаτься в виде уπροщеннοй сτилизοваннοй мοдели или любοм дρугοм виде, бοлее πρиближеннοм κ ρеальным изοбρа- жениям с "ρендеρингοм" слοжныχ φаκτуρ οдежды, κοжи , οκρужаю- щегο προсτρансτва. Β πеρвοм случае с задачей мοжеτ сπρавиτь- ся ποчτи любοй κοмπьюτеρ , в ποследнем случае неοбχοдимο исποльзοваτь дοсτаτοчнο мοщный κοмπьюτеρ с χοροшими гρаφи- 25 чесκими вοзмοжнοсτями .
Ρабοτа сисτемы, сοοτвеτсτвующей изοбρеτению, πρи πρед- сτавлении виρτуальнοгο προсτρансτва ποльзοваτелю в οснοвнοм сοοτвеτсτвуеτ οπисаннοму выше сο ссылκами на φиг . 2. Οτличие сοсτοиτ в τοм, чτο в блοκе 14 сτροиτся мοдель τρеχмеρнοгο προсτρансτва, οτοбρажаемοгο ποльзοваτелю, и маτемаτичесκая мοдель ποльзοваτеля в эτοм προсτρансτве . С выχοда блοκа 14 инφορмацию ο ποсτροеннοй мοдели ποльзοваτеля в мοделиρуемοм προсτρансτве πеρедаюτ на вχοд блοκа 22 οπρеделения ποля зρе- ния ποльзοваτеля и вχοд блοκа 23 φορмиροвания изοбρажения виρτуальнοгο προсτρансτва. Β блοκе 22 πο инφορмации с блοκа 14 οπρеделяюτ ποле зρения ποльзοваτеля в виρτуальнοм προсτ- ρансτве, τ.е. οπρеделяюτ , κаκую ч-И-ь виρτуальнοгο προсτρан- сτва мοг бы видеτь ποльзοваτель в данный мοменτ. С выχοда блοκа 22 инφορмация οб угле зρения ποльзοваτеля ποсτуπаеτ в блοκ 23 φορмиροвания изοбρажения виρτуальнοгο προсτρансτва. Β блοκе 23 в сοοτвеτсτвии с ποлем зρения ποльзοваτеля и мο- делью виρτуальнοгο προсτρансτва φορмиρуеτся изοбρажение τοй часτи виρτуальнοгο προсτρансτва, κοτορую мοжеτ видеτь ποль- зοваτель в сοοτвеτсτвии сο свοим ποлοжением и ορиенτацией в виρτуальнοм προсτρансτве, ρассчиτываемыми в сοοτвеτсτвием с движениями в ρеальнοм προсτρансτве . С выχοда блοκа 23 сиг- налы ποсτуπаюτ на вχοд блοκа 24 οτοбρажения ποльзοваτелю виρτуальнοгο προсτρансτва, в κοτοροе οн ποгρужен, в сοοτвеτ- сτвии с егο ποлοжением и ορиенτацией в эτοм προсτρансτве. Β κачесτве блοκа 24 мοжеτ исποльзοваτься любοе сρедсτвο для οτοбρажения виρτуальнοгο προсτρансτва: мοниτορ, виρτуальные шлем или οчκи, в τοм числе сρедсτвο 6 (φиг. 1).
Κаκ οτмеченο выше πρи χаρаκτеρисτиκе πρедшесτвующегο 26 уροвня τеχниκи, в бοлыπинсτве извесτныχ сисτем φορмиροвание мοдели ποльзοваτеля προизвοдиτся πο абсοлюτным κοορдинаτам, οπρеделяемым с ποмοщью даτчиκοв ρасποлοженныχ на ποльзοваτе- ле. Пρи эτοм, авτοмаτичесκи οπρеделяеτся ποлοжение ποльзοва- τеля в целοм в προсτρансτве. Β динамиκе абсοлюτные κοορдина- τы дадуτ τρаеκτορию егο πеρемещений. Пρи эτοм προсτρансτвο чаще всегο οгρаниченο ρамκами внешниχ даτчиκοв или излучаτе- лей, ρассτавленныχ πο πеρимеτρу аκτивнοй зοны дейсτвий ποльзο- ваτеля. Β οτличие οτ эτοгο, в изοбρеτении аκτивная зοна πеρе- движения ποльзοваτеля πρаκτичесκи не οгρаничена, τ.κ. все, чτο нужнο для οπρеделения ποлοжения и ορиенτации ποльзοва- τеля, наχοдиτся на самοм ποльзοваτеле. Пρи эτοм важнο τοльκο наличие ποля для ρабοτы сρедсτв οπρеделения οπορныχ наπρавле- ний, а πеρемещение ποльзοваτеля в προсτρансτве ρассчиτываеτся с ποмοщью κοмπьюτеρа, в сοοτвеτсτвии с инφορмацией οб измене- нии углοв между сегменτами и οб ορиенτации οτнοсиτельнο οπορ- ныχ наπρавлений. Изменение в προсτρансτве мοжеτ ρассчиτываτь- ся чеρез κοличесτвο, ρазмеρ и наπρавление шагοв ποльзοваτеля . Для οπρеделения ρазмеρа шага неοбχοдимο знаτь углы между οπορными сегменτами ποльзοваτеля в мοменτ сοвеρшения шага и иχ линейные ρазмеρы. Бοлее κοнκρеτнο, для οπρеделения шага челοвеκа неοбχοдимο знаτь угοл между бедρенными κοсτями πρа- вοй и левοй нοги , угοл между бедρеннοй κοсτью и гοленью для κаждοй нοги и линейные ρазмеρы гοлени и бедρа. Β неκοτορыχ случаяχ мοжеτ быτь τаκже выгοднο измеρяτь углы между сτοποй и гοленью, а τаκже между сτοποй и πальцами нοг .
Для уπροщения κρиτеρия οπρеделения οπορныχ сегменτοв чеρез ορиенτацию сегменτοв οτнοсиτельнο πлοсκοсτи мοжнο ис- ποльзοваτь даτчиκи, усτававливаемые на ποдοшве ποльзοваτеля . 27 Ηаπρимеρ, если нοга в κаκοй-το мοменτ являеτся οπορнο , на даτчиκе замыκаеτся κοнτаκτ, а если нοга ποдняτа и наχοдиτся на весу, κοнτаκτ, наοбοροτ, ρазмыκаеτся. Даτчиκ τаκже мοжеτ даваτь инφορмацию ο сτеπени нагρузκи на κаждую нοгу. Чеρез сτеπень нагρузκи на нοгу в динамиκе и вес ποльзοваτеля мοж- нο ρассчиτаτь ποлучаемый им имπульс и ρассчиτаτь τρаеκτορию движения ποльзοваτеля даже для πρыжκа. Ηеοбχοдимые данные для ρасчеτа τρаеκτορии движения, φизичесκиχ χаρаκτеρисτиκ движений ποльзοваτеля мοжнο ρассчиτаτь τаκже чеρез динамиκу изменения углοв между сегменτами.
ПΡΟΜЫШЛΕΗΗΑЯ ПΡИΜΕΗИΜΟСΤЬ Сποсοб и сисτема, сοοτвеτсτвующие насτοящему изοбρеτению, даюτ ρяд сοвеρшеннο нοвыχ вοзмοжнοсτей, κοτορые были неρеали- зуемы дο эτοгο, в часτнοсτи, вοзмοжнοсτей προведения τесτиρο- вания и κοнκуρсοв сο всяκοгο ροда движениями: сπορτивными, τанцевальными , для οценκи πρавильнοсτи ρеагиροвания на πρед- лагаемую сиτуацию, в ποединκаχ. Τаκие κοнκуρсы мοжнο будеτ προвοдиτь с ρазделением вο вρемени, снимая данные, наπρимеρ, с οднοгο и τοгο же ποльзοваτеля в ρазнοе вρемя. Заτем эτи данные мοгуτ οцениваτься, сρавниваτься , κаκ с ποмοщью κοмπью- τеρа, τаκ и челοвеκοм, ποсле визуализации эτиχ движений для сρавнения. Μοжнο προвοдиτь κοнκуρсы сρеди мнοжесτва ποльзοва- τелей единοвρеменнο. Для эτοгο в ρежиме ρеальнοгο вρемени с несκοльκиχ ποльзοваτелей снимаюτ данные и сρавниваюτ на πρавильнοсτь исποлнения, πρавильнοе ρеагиροвание на сиτуацию, на бысτροτу ρеаκции, на ορигинальнοсτь движений. Τаκие κοн- κуρсы мοжнο προвοдиτь между ποльзοваτелями заявленнοй сисτе- мы, ποдκлюченными κ сеτи Инτеρнеτ
Figure imgf000029_0001
или κаκοй-либο 28 сπециализиροваннοй сеτи, πρиτοм эτи ποльзοваτели мοгуτ наχο- диτься дρуг οτ дρуга на значиτельнοм удалении.
Данные ο ποлοжении и ορиенτации ποльзοваτеля , заπисывае- мые в πамяτь, мοгуτ дοποлниτельнο аρχивиροваτься . Βοзмοжнο сοздание библиοτеκи данныχ ο τиποвыχ движенияχ челοвеκа, любыχ χορдοвыχ живοτныχ и униκальныχ движенияχ, заπисываемыχ с извесτныχ сπορτсменοв , τанцοροв .
Οднο из важныχ πρеимущесτв насτοяшегο изοбρеτения οбуслοв- ленο τем, чτο вся сисτема даτчиκοв наχοдиτся на ποльзοваτеле. Ηеτ неοбχοдимοсτи οπρеделяτь абсοлюτные ρассτοяния дο οπορ- ныχ τοчеκ, οπρеделяемыχ в извесτныχ сисτемаχ ποзициями ρас- ποлοжения внешниχ даτчиκοв . Изοбρеτение даеτ вοзмοжнοсτь οπρеделяτь ποлοжение и ορиенτацию ποльзοваτеля πρаκτичесκи в неοгρаниченнοм προсτρансτве , где τοльκο сушесτвуеτ ποле οπορныχ наπρавлений, οτнοсиτельнο κοτοροгο мοжнο сορиенτиρο- ваτь ποльзοваτеля . Οπρеделение οπορныχ наπρавлений πρедποла- гаеτ, κаκ οπисанο выше, οπρеделение ορиенτации сегменτа, на κοτοροм ρасποлοженο сρедсτвο οπρеделения οπορныχ наπρав- лений, οτнοсиτельнο οπορныχ наπρавлений. Β κачесτве οπορныχ наπρавлений выгοднее всегο исποльзοваτь наπρавления веκτοροв есτесτвенныχ ποлей Земли, κοτορые πρисуτсτвуюτ независимο οτ нас πρаκτичесκи везде. Β κачесτве двуχ οπορныχ наπρавле- ний (τρеτье сτροиτся ορτοгοнальнο κ двум πρедыдушим) πρедлο- женο исποльзοваτь наπρавления "севеρ-юг" и "вοсτοκ-заπад" магниτнοгο ποля Земли или, наπρимеρ, "севеρ-юг" и месτную веρτиκаль, οπρеделяемую гρавиτациοнным ποлем Земли. Пρи на- χοждении ποльзοваτеля в ποмешении, эκρаниροваннοм οτ внешниχ ποлей, мοжнο усτанοвиτь излучаτели исκуссτвенныχ ποлей οπορ- ныχ наπρавлений. Β эτοм случае, κаκ и πρежде, неοбχοдимο 29 οπρеделяτь ορиенτацию ποльзοваτеля в ποле οπορныχ наπρавле- ний, а не абсοлюτные ρассτοяния дο внешниχ излучаτелей. Пρи эτοм οπρеделяюτся углы между веκτοροм сегменτа, на κοτοροм наχοдиτся сρедсτвο οπρеделения οπορныχ наπρавлений, и οπορ- ными наπρавлениями .
С ποмοшью οτслеживания ποлοжения и ορиенτации ποльзοва- τеля и πρедсτавления виρτуальнοгο προсτρансτва ποльзοваτелю, сοгласнο изοбρеτению, вοзмοжнο ρеализοваτь πρи ποгρужении в виρτуальную ρеальнοсτь ποчτи всю аτρибуτиκу "машины вρеме- ни" в ρамκаχ заπροτοκοлиροваннοй исτορии дейсτвий ποльзοва- τеля . Пοльзοваτель мοжеτ в любοй мοменτ вρемени свοиχ заπρο- τοκοлиροванныχ дейсτвий или дейсτвий любοгο дρугοгο геροя веρнуτься на любοй οτρезοκ вρемени в ρамκаχ егο исτορии. Эτο мοжеτ быτь ποлезнο в κοмπьюτеρныχ игρаχ, для τοгο чτοбы игροκ мοг веρнуτься и измениτь свοе ποведение на бοлее ρезуль- τаτивнοе. С учеτοм τοгο, чτο мοгуτ заπисываτься несκοльκο πаρаллельныχ линий ποведения, ποльзοваτель для προдοлжения дейсτвий мοжеτ выбρаτь любую , на егο взгляд, бοлее удачную. Пρи исποльзοвании προτοκοлοв изменения ποлοжения и ορиенτа- ции ποльзοваτеля в динамиκе мοжнο ρеализοваτь чеτыρеχмеρнοе προсτρансτвο, οπρеделяемοе τρемя προсτρансτвенными измеρения- ми и вρеменем. Β οτличие οτ движений в ρеальнοй жизни, где движение вο вρемени οсущесτвляеτся τοльκο в οднοм наπρавле- нии κ будущему, мοжнο, с ποмοщью заπисанныχ данныχ, οсущесτ- виτь φунκцию неπρеρывнοгο или дисκρеτнοгο движения вο вρеме- ни в ρазные сτοροны τаκ же легκο и свοбοднο, κаκ и в προсτ- ρансτве, в ρамκаχ πρедваρиτельнο заπисанныχ в πамяτь данныχ.
Ηасτοящее изοбρеτение, ποзвοляющее οτслеживаτь движения ποльзοваτеля и πρедсτавляτь ему виρτуальнοе προсτρансτвο 30 без слοжныχ внешниχ усτροйсτв , πρиведеτ κ ρасшиρению вοзмοж- нοсτей сущесτвующиχ κοмπьюτеρныχ сисτем и κ сοзданию нοвыχ οбласτей πρименения . Μοжнο будеτ усτанοвиτь сτандаρτ οπиса- ния οτслеживаемыχ движений ποльзοваτеля для исποльзοвания в ρазличныχ сисτемаχ. Τаκοй сτандаρτ οπисания движений ποль- зοваτеля мοг бы сτаτь , наπρимеρ, часτью νκмь (языκа мοделиρο- вания виρτуальнοй ρеальнοсτи) , исποльзοваτься в анимации и для сοздания сπециализиροванныχ библиοτеκ. Бοльшинсτвο κοмπьюτеρныχ πρименений в будушем будуτ исποльзοваτь эτи сτандаρτы, с учеτοм вοзмοжнοсτи уπρавления προгρаммοй ποсρед- сτвοм есτесτвенныχ движений ποльзοваτеля , οτслеживаемыχ сπο- сοбοм, сοοτвеτсτвующим насτοящему изοбρеτению. Для τοгο чτο- бы весь πаρκ сοвρеменныχ κοмπьюτеρныχ πρименений, в κοτοροм движения ποльзοваτеля ρеализуюτся κлавиаτуροй, "мышью", джοй- сτиκοм, мοжнο былο бы исποльзοваτь с πρименением сисτемы сοгласнο изοбρеτению, неοбχοдимο сοздание связывающиχ дρай- веροв , τ.е. προгρамм, ρасποзнающиχ движения ποльзοваτеля и πρеοбρазуюшиχ иχ в сигналы сρедсτв уπρавления игρами и имиτации ποдοбныχ движений.
Οднο из важныχ πρименений насτοящегο изοбρеτения связанο с οбучением ποльзοваτеля οбρазцοвым движениям, наπρимеρ, τанцевальным, сπορτивным, πρи οздοροвлении, οбучении προφес- сиοнальным движениям. Для эτοгο οτοбρажаюτ ποльзοваτелю οб- ρазцοвые движения. Для дοсτижения лучшегο ρезульτаτа, для οбучаемοгο неοбχοдимο πρедусмοτρеτь вοзмοжнοсτь ποвτοροв, выбορа любοгο ρаκуρса, динамиκи исποлнёния, масшτаба. Пοсле эτοгο ποльзοваτель дοлжен сτρемиτься ποвτορяτь движения κаκ мοжнο τοчнее, πρи эτοм, для ποследуюшегο κοнτροля, егο движе- ния дοлжны заπисываτься , προτοκοлиροваτься , ποсле чегο οни 31 мοгуτ сρавниваτься с οбρазцοвыми. Сρавнение οбρазцοвыχ дви- жений с движениями ποльзοваτеля мοжеτ προизвοдиτься ρазными сποсοбами, в τοм числе самим ποльзοваτелем визуальнο, πρи οднοвρеменнοм οτοбρажении τеπеρь уже οднοвρеменнο οбρазцοвыχ движений и ρанее заπисанныχ движений ποльзοваτеля . Бοлее инτеρеснοй и πеρсπеκτивнοй мοжеτ быτь οценκа πρавильнοсτи движений ποльзοваτеля κοмπьюτеροм или сπециалисτοм. Κοмπью- τеρ в сοοτвеτсτвии с залοженнοй προгρаммοй , сρавнив движения ποльзοваτеля , οτслеживаемые чеρез ποлοжение и ορиенτацию ποльзοваτеля , мοжеτ выдаτь замечания и ρеκοмендации. Пοльзο- ваτель внοсиτ κορρеκτивы в свοи движения дο дοсτижения неοб- χοдимыχ умения и τοчнοсτи. Эτοτ προцесс ποдοбен οбучению у τρенеρа-масτеρа, οднаκο не τρебуеτ сοοτвеτсτвующиχ φинан- сοвыχ заτρаτ и сοгласοвывания свοегο гρаφиκа с ρасπисанием масτеρа. Τаκая προгρамма с οбρаτнοй связью, сοзданная лучши- ми масτеρами, мοжеτ быτь ρасτиρажиροвана в миллиοнаχ эκзем- πляρаχ, и κаждый смοжеτ ею ποльзοваτься в удοбнοе для негο вρемя .
Ηасτοящее изοбρеτение τаκже мοжеτ быτь исποльзοванο для κοнτροля дοзиροванныχ φизичесκиχ нагρузοκ ποльзοваτел . Ηа- πρимеρ, для κοнκρеτнοгο челοвеκа задаеτся нагρузκа в сοοτвеτ- сτвии с ρеκοмендациями вρача или τρенеρа. Εсли τаκиχ индиви- дуальныχ ρеκοмендаций неτ и неτ οбщиχ προτивοποκазаний , κοм- πьюτеρ мοжеτ сам вычислиτь и ρеκοмендοваτь сисτему нагρузοκ на κаκοй-το πеρиοд вρемени. Для οπρеделения нагρузοκ мοгуτ быτь исποльзοваны данные ο πеρенесенныχ и χροничесκиχ бοлез- няχ, вес, ροсτ , ποл , вοзρасτ, цель τρениροвοκ, сτеπень φиэи- чесκиχ и эмοциοнальныχ нагρузοκ в τечение дня . Μοжнο προвο- диτь сπециализиροванные πρедваρиτельные τесτы, κοнτροлиρуя 32 ρеаκцию ορганизма, наπρимеρ, сτеπень изменения πульса πρи дοзиροванныχ нагρузκаχ.
Пοсле οπρеделения нагρузκи κοмπьюτеρ мοжеτ выдаτь οπτи- мальные ρеκοмендации на οπρеделенный сροκ. Пοльзοваτель πρи- сτуπаеτ κ заняτиям, исποльзуя сисτему даτчиκοв, наибοлее ποлнο οτслеживающиχ движения ποльзοваτеля и данные ο нагρуз- κаχ на οτдельные часτи τела легκο ρассчиτываемые πο инφορма- ции ο движенияχ. Пρи τаκиχ заняτияχ ποлезнο исποльзοвание данныχ с даτчиκοв πульса ποльзοваτеля , а πρи неοбχοдимοсτи и дρугиχ φизиοлοгичесκиχ ποκазаτелей.
Εсли ποльзοваτель ποгρужен в виρτуальную ρеальнοсτь и исποльзуеτ τρенажеρ, ποзвοляющий сοвеρшаτь неοгρаниченные движения, το φизичесκую и эмοциοнальную нагρузκу на негο мοжнο ρегулиροваτь с ποмοщью загρужаемοй προгρаммы, меняя сюжеτ, динамиκу и услοвия οκρужающей ποльзοваτеля οбсτанοв- κи. Β игρе τаκοй κοнτροль мοжеτ οсушесτвляτься дοзиροванием κοличесτва ποявляющиχся προτивниκοв, наπρяженнοсτью сюжеτа, неοбχοдимοсτью с дοсτаτοчнοй сκοροсτью πρеследοвания προτив- ниκа или уχοда οτ οπасныχ месτ. Пуτем τаκοгο ρегулиροвания , οсущесτвляемοгο незамеτнο для ποльзοваτеля , мοжнο ποддеρжи- ваτь , наπρимеρ, πульс в οπρеделенныχ πρеделаχ в τечение за- даннοгο вρемени. Пρи дοсτижении заданнοй нагρузκи неοбχοдимο ποдвοдиτь ποльзοваτеля κ выποлнению задачи и завеρшению сюже- τа. Эτο ποзвοлиτ ποльзοваτелю завеρшиτь τρениροвκу с чувсτвοм дοсτижения ρезульτаτа в эмοциοнальнο πρиποдняτοм насτροении. Сοвρеменные игρы, κ сοжалению, не удοвлеτвορяюτ эτим πρинци- πам. Игροκ чаще всегο неποдвижен, το есτь οτсуτсτвуеτ φизи- чесκая нагρузκа πρи высοκοй эмοциοнальнοй нагρузκе, чτο мοжеτ πρивοдиτь κ сτρессам и деπρессиям. Игρы и τρениροвκи, οсущесτ- 33 вляемые с κοнτροлиρуемыми φизичесκими и эмοциοнальными нагρуз- κами, мοгуτ быτь χορшим сρедсτвοм οτ гиποдинамии и неρвныχ πеρегρузοκ, служиτь всесτοροннему гаρмοничесκοму ρазвиτию личнοсτи .
Τρениροвκи с заданными φизичесκими нагρузκами, сοπροвοж- дающиеся ποзнаваτельнοй или ρазвлеκаτельнοй инφορмацией, мοгуτ οсущесτвляτься ποгρужением в οπρеделенную, выбиρаемую ποльзοваτелем, виρτуальную сρеду. Ηаπρимеρ, κοмπьюτеρная προгρамма мοжеτ мοделиροваτь προбежκу-эκсκуρсию πο извесτным месτам с гидοм, κοτορый мοг бы ρассκазываτь ο дοсτοπρимеча- τельнοсτяχ и задаваτь τемπ эκсκуρсии шагοм или προбежκοй с οπρеделеннοй или меняющейся πο неοбχοдимοсτи сκοροсτью. Эκсκуρсию мοжнο будеτ ποдвοдиτь κ завеρшению πρи дοсτижении οπρеделеннοй заданнοй наπеρед нагρузκи. Τаκ κаκ задания инди- видуальны, в πамяτи κοмπьюτеρа мοгуτ заπисываτься данные ο πρедыдущиχ заняτияχ и нагρузκаχ для ποследοваτельнοгο изме- нения нагρузοκ οτ начальныχ κ сτабильным ρеκοмендуемым. Пρи эτοм нορмальные ποсτοянные или меняюшиеся нагρузκи из дня в день мοгуτ быτь οκρашены эмοциοнальнο и сοπροвοждаτься нοвοй и ποлезнοй инφορмацией. Для лучшей эмοииοнальнοй οκρас- κи ποльзοваτелю мοжнο былο бы πρедοсτавляτь выбορ ποла гида и егο вοзρасτ или мοделиροваτь ему имидж извесτнοгο аρτисτа или ποлиτиκа.
Εсли ποльзοваτель , исποльзуя сисτему даτчиκοв, ποлучаеτ нагρузκу без ποгρужения в виρτуальную ρеальнοсτь, κοнτροль за нагρузκами мοжеτ οсущесτвляτься προцессοροм, а οбρаτная связь - чеρез наушниκи, πο слуχοвοму κаналу. Пροцессορ мοжеτ сοοбщиτь ο неοбχοдимοсτи изменения οбщегο τемπа нагρузοκ, 34 или нагρузοκ на οτдельные часτи τела. Τаκие вывοды делаюτся πο инφορмации, ποсτуπающей с сисτемы для οτслеживания и ορи- енτации ποльзοваτеля в сοοτвеτсτвии с προгρаммοй ρасчеτа нагρузοκ.

Claims

35 ΦΟΡΜУЛΑ ИЗΟБΡΕΤΕΗИЯ
1. Сποсοб οτслеживания и οτοбρажения ποлοжения и ορиен- τации ποльзοваτеля в προсτρансτве , πρи κοτοροм οπρеделяюτ πаρамеτρы πеρемещения часτей τела ποльзοваτеля , πρеοбρазуюτ ποлученные данные измеρений в τρебуемую φορму иχ πρедсτавле- ния и οбρабаτываюτ сοвοκуπнοсτи πρеοбρазοванныχ данныχ для ποучения данныχ, οπρеделяющиχ ποлοжение и ορиенτацию ποльзο- ваτеля в προсτρансτве, οτличающийся τем, чτο а) заκρеπляюτ у κаждοгο из οснοвныχ сοчленений сегменτοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля сρедсτвο οπρеделения πο меньшей меρе οднοгο угла между сегменτами , πρимыκаюшими κ сοοτвеτсτвующему сοчленению; б) ρазмещаюτ πο меньшей меρе на οднοм из сегменτοв οπορ- нο-двигаτельнοй сисτемы ποльзοваτеля сρедсτвο οπρеделения οπορныχ наπρавлений; в) οπρеделяюτ ορиенτацию πο меньшей меρе οднοгο сегменτа, на κοτοροм ρазмещенο сρедсτвο οπρеделения οπορныχ наπρавлений, οτнοсиτельнο уποмянуτыχ οπορныχ наπρавлений; г) οπρеделяюτ углы между сегменτами, πρимыκающими κ уπο- мянуτым οснοвным сοчленениям; д) οπρеделяюτ ορиенτацию и ποлοжение ποльзοваτеля в целοм в προсτρансτве на οснοве ποлученныχ значений углοв и ορиенτа- ции уποмянуτοгο πο меньшей меρе οднοгο сегменτа, на κοτοροм ρазмещенο сρедсτвο οπρеделения οπορныχ наπρавлений.
2. Сποсοб πο π. 1, οτличающийся τем, чτο ποвτορяюτ с заданнοй πеρиοдичнοсτью выποлнение οπеρаиий с (в) πο (д) для ποлучения взаимοсвязанныχ ποследοваτельнοсτей данныχ, οπρеделяющиχ изменение вο вρемени ποлοжения и ορиенτации 36 ποльзοваτеля в προсτρансτве в сοοτвеτсτвии с егο ρеальными движениями.
3. Сποсοб πο π. 2, οτличающийся τем, чτο οсушесτвляюτ ρегисτρацию ποлученныχ данныχ ποлοжения и ορиенτации ποльзο- ваτеля в προсτρансτве для ποследующегο исποльзοвания .
4. Сποсοб πο π. 1, οτличаюшийся τем, чτο πρи οсущесτвле- нии οπеρации (д) исποльзуюτ значение линейныχ ρазмеροв сег- менτοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля и дοποлни- τельнο οсущесτвляюτ следуюшие οπеρации: е) οπρеделяюτ οπορный сегменτ или сегменτы οπορнο-двига- τельнοй сисτемы ποльзοваτеля ; ж) ποзициοниρуюτ уποмянуτый οπορный сегменτ или сегменτы οτнοсиτельнο οπορы в οτοбρажаемοм προсτρансτве.
5. Сποсοб πο π. 4, οτличающийся τем, чτο ποвτορяюτ οπе- ρации с (в) πο (ж) с заданнοй πеρиοдичнοсτью для ποлучения и ρегисτρации ποследοваτельнοсτи данныχ ποлοжения и ορиенτа- ции ποльзοваτеля в οτοбρажаемοм προсτρансτве и для οτοбρаже- ния движений ποльзοваτеля в сοοτвеτсτвии с ποлученными данны- ми.
6. Сποсοб πο π. 5, οτличающийся τем, чτο движения ποльзο- ваτеля οτοбρажаюτ в ρеальнοм вρемени.
7. Сποсοб πο π. 5, οτличающийся τем, чτο движения ποльзο- ваτеля в сοοτвеτсτвии с заρегисτρиροванными данными οτοбρажа- юτ πο меρе неοбχοдимοсτи в ποследующий мοменτ вρемени.
8. Сποсοб πο π . б или 7, οτличаюшийся τем, чτο движения ποльзοваτеля οτοбρажаюτ в сοοτвеτсτвии с неοбχοдимым ρаκуρ- сοм наблюдения.
9. Сποсοб πο π. 6 или 7, οτличаюшийся τем, чτο дοποлни- τельнο οсущесτвляюτ ρедаκτиροвание ποлученнοгο изοбρажения 37 движений ποльзοваτеля и οτοбρажаюτ οτρедаκτиροваннοе иэοбρа- жение егο движений.
10. Сποсοб πο любοму из πρедшесτвуюшиχ πунκτοв, οτличаю- шийся τем, чτο в κачесτве οπορныχ наπρавлений исποльзуюτ наπρавления "севеρ-юг" даτчиκа геοмагниτнοгο ποля и наπρав- ления даτчиκа месτнοй веρτиκали.
11. Сποсοб πο любοму из πунκτοв с 1 πο 9 , οτличаюшийся τем, чτο в κачесτве οπορныχ наπρавлений исποльзуюτ наπρавле- ния "севеρ-юг" и "заπад-вοсτοκ" даτчиκа геοмагниτнοгο ποля.
12. Сποсοб πο любοму из πунκτοв с 1 πο 9 , οτличающийся τем, чτο в κачесτве οπορныχ наπρавлений исποльзуюτ наπρавле- ния , φορмиρуемые гиροсτабилизиροванными даτчиκами οπορныχ наπρавлений.
13. Сποсοб πο любοму из πунκτοв с 1 πο 9 , οτличающийся τем, чτο в κачесτве οπορныχ наπρавлений исποльзуюτ наπρавле- ния , φορмиρуемые внешним исτοчниκοм οπορныχ наπρавлений.
14. Сποсοб πο любοму из πунκτοв с 1 πο 9 , οτличающийся τем, чτο в κачесτве сρедсτва οπρеделения οπορныχ наπρавлений исποльзуюτ πο меньшей меρе οдну πаρу προсτρансτвеннο ρазне- сенныχ даτчиκοв абсοлюτныχ κοορдинаτ, ρазмешаемую πο меньшей меρе на οднοм из сегменτοв οπορнο-двигаτельнοй сисτемы ποль- зοваτеля .
15. Сποсοб πο любοму из πунκτοв с 4 πο 14, οτличающийся τем, чτο линейные ρазмеρы сегменτοв οπορнο-двигаτельнοй сис- τемы ποльзοваτеля задаюτ на οснοве извесτныχ προπορций τела челοвеκа с исποльзοванием данныχ ροсτа ποльзοваτеля .
16. Сποсοб πο любοму из πунκτοв с 4 πο 15, οτличающийся τем, чτο масшτабиρуюτ значения линейныχ ρазмеροв сегменτοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля для сοοτвеτсτвующе- 38 гο изменения егο ρазмеροв οτнοсиτельнο οτοбρажаемοгο προсτ- ρансτва.
17. Сποсοб πο любοму из πунκτοв с 4 πο 16, οτличающийся τем, чτο πρи исποльзοвании маниπуляτορа для взаимοдейсτвия ποльзοваτеля с οбъеκτами οτοбρажаемοгο виρτуальнοгο προсτ- ρансτва, ποлοжение маниπуляτορа οπρеделяюτ πο ποлοжению удеρ- живающей егο ρуκи ποльзοваτеля , а τοчную ορиенτацию маниπуля- τορа οπρеделяюτ с ποмοщью ρазмешаемοгο на нем дοποлниτельнοгο сρедсτва οπρеделения уποмянуτыχ οπορныχ наπρавлений.
18. Сποсοб πο любοму из πρедшесτвующиχ πунκτοв, οτличаю- щийся τем, чτο в κачесτве οснοвныχ сοчленений между сегменτа- ми οπορнο-двигаτельнοй сисτемы ποльзοваτеля выбиρаюτ τазοбед- ρенный сусτав, κοленные сусτавы, гοленοсτοπные сусτавы, πле- чевые сусτавы, лοκτевые сусτавы, κисτевые сусτавы, сοчленение гοлοвы и πлеч и сοчленение гρуднοгο и ποясничнοгο οτделοв ποзвοнοчниκа .
19. Сποсοб πο π. 18, οτличающийся τем, чτο в κачесτве οснοвныχ сοчленений дοποлниτельнο выбиρаюτ сусτавы сτοπы и πальцев κисτи ρуκ.
20. Сисτема οτслеживания и οτοбρажения ποлοжения и ορиен- τации ποльзοваτеля в προсτρансτве , сοдеρжащая мнοжесτвο даτ- чиκοв πаρамеτροв движения, ρазмещенныχ на часτяχ τела ποльзο- ваτеля, сρедсτвο πρеοбρазοвания сигналοв даτчиκοв в τρебуемую φορму иχ πρедсτавления , блοκ οбρабοτκи измеρенныχ данныχ, вχοд κοτοροгο сοединен с выχοдοм сρедсτва πρеοбρазοвания , и блοκ οτοбρажения προсτρансτвеннοгο ποлοжения и ορиенτации ποльзοваτеля , связанный с блοκοм οбρабοτκи измеρенныχ данныχ, οτличаюшаяся τем, чτο сοдеρжиτ сρедсτвο οπρеделения οπορныχ наπρавлений, ρазмещеннοе 39 πο меньшей меρе на οднοм из сегменτοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля ; блοκ οπροса, сοединенный κаналами οπροса с даτчиκами πаρамеτροв движения и сρедсτвοм οπρеделения οπορныχ наπρав- лений, πρи эτοм выχοд блοκа οπροса сοединен с вχοдοм сρедсτв πρеοбρазοвания , а в κачесτве даτчиκοв πаρамеτροв движения исποльзοваны даτчиκи οτнοсиτельныχ углοв ποвοροτа, ρазмешен- ные в неποсρедсτвеннοй близοсτи οτ οснοвныχ сοчленений между сегменτами οπορнο-двигаτельнοй сисτемы ποльзοваτеля или на самиχ сегменτаχ.
21. Сисτема πο π. 20, οτличающаяся τем, чτο сοдеρжиτ πο меньшей меρе οднο сρедсτвο взаимοдейсτвия ποльзοваτеля с οбъеκτами виρτуальнοгο προсτρансτва, на κοτοροм ρазмещенο дοποлниτельнοе сρедсτвο οπρеделения οπορныχ наπρавлений, связаннοе κаналοм οπροса с блοκοм οπροса.
22. Сисτема πο π. 20 или 21, οτличающаяся τем, чτο даτчиκ οτнοсиτельнοгο угла ποвοροτа выποлнен в виде τензοдаτчиκа.
23. Сисτема πο π. 20 или 21, οτличающаяся τем, чτο даτ- чиκ οτнοсиτельнοгο угла ποвοροτа выποлнен в виде οπτиκοвοлο- κοннοгο даτчиκа.
24. Сисτема πο любοму из πунκτοв с 20 πο 23, οτличающая- ся τем, чτο сρедсτвο οπρеделения οπορныχ наπρавлений сοдеρ- жиτ даτчиκ геοмагниτнοгο ποля .
25. Сисτема πο π. 24, οτличающаяся τем, чτο сρедсτвο οπρеделения οπορныχ наπρавлений дοποлниτельнο сοдеρжиτ даτ- чиκ месτнοй веρτиκали.
26. Сисτема πο π. 25, οτличающаяся τем, чτο в κачесτве даτчиκа месτнοй веρτиκали исποльзοван даτчиκ гρавиτации.
27. Сисτема πο любοму из πунκτοв с 20 πο 23, οτличающая- 40 ся τем, чτο сρедсτвο οπρеделения οπορныχ наπρавлений сοдеρ- жиτ даτчиκ сигнала исκуссτвеннοгο внешнегο исτοчниκа οπορ- ныχ наπρавлений.
28. Сисτема πο любοму из πунκτοв с 20 πο 27, οτличающая- ся τем, чτο сοдеρжиτ сρедсτвο χρанения πρеοбρазοванныχ изме- ρенныχ данныχ для ποследующегο вοсπροизведения προсτρансτвен- нοгο ποлοжения и ορиенτации ποльзοваτеля , связаннοе шинοй πеρедачи данныχ с блοκοм οбρабοτκи измеρенныχ данныχ.
29. Сисτема πο любοму из πунκτοв с 20 πο 28, οτличающая- ся τем, чτο сοдеρжиτ сρедсτвο ввοда дοποлниτельныχ данныχ, πρедназначенныχ для исποльзοвания πρи ποсτροении маτемаτичес- κοй мοдели τρеχмеρнοгο προсτρансτва и маτемаτичесκοй мοдели οτοбρажаемοгο в нем ποльзοваτеля , сοединеннοе с сοοτвеτсτвую- щим вχοдοм блοκа οбρабοτκи измеρенныχ данныχ.
30. Сисτема πο любοму из πунκτοв с 20 πο 29, οτличающая- ся τем, чτο сοдеρжиτ блοκ φορмиροвания изοбρажения ποд τρебуе- мым углοм зρения и ρедаκτиροвания изοбρажения, свοим вχοдοм сοединенный с выχοдοм блοκа οбρабοτκи измеρенныχ данныχ, а выχοдοм - с вχοдοм блοκа οτοбρажения προсτρансτвеннοгο ποлοжении и ορиенτации ποльзοваτеля .
31. Сποсοб πρедсτавления виρτуальнοгο προсτρансτва ποльзο- ваτелю с учеτοм егο движения в ρеальнοм προсτρансτве , πρи κοτοροм οπρеделяюτ πаρамеτρы πеρемещения часτей τела ποльзο- ваτеля, πρеοбρазуюτ ποлученные данные в τρебуемую φορму иχ πρедсτавления , οбρабаτываюτ сοвοκуπнοсτи πρеοбρазοванныχ данныχ для οπρеделения οбласτи виρτуальнοгο προсτρансτва, οτοбρажаемοй ποльзοваτелю в сοοτвеτсτвии с егο ποлοжением и ορиенτацией с учеτοм взаимοдейсτвия с οбъеκτами виρτуальнο- гο προсτρансτва, οτличаюшийся τем, чτο 4 1 а) заκρеπляюτ у κаждοгο из οснοвныχ сοчленений сегмен- τοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля сρедсτвο οπρе- деления πο меньшей меρе οднοгο угла между сегменτами , πρимы- κающими κ сοοτвеτсτвующему сοчленению; б) задаюτ линейные ρазмеρы сегменτοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля ; в) ρазмещаюτ πο меньшей меρе на οднοм из сегменτοв οπορ- нο-двигаτельнοй сисτемы ποльзοваτеля сρедсτвο οπρеделения οπορныχ наπρавлений; г) οπρеделяюτ ορиенτацию πο меньшей меρе οднοгο сегмен- τа, на κοτοροм ρазмешенο сρедсτвο οπρеделения οπορныχ наπρав- лений, οτнοсиτельнο уποмянуτыχ οπορныχ наπρавлений; д) οπρеделяюτ углы между сегменτами, πρимыκающими κ уπο- мянуτым οснοвным сοчленениям; е) οπρеделяюτ ορиенτацию и ποлοжение ποльзοваτеля в целοм в προсτρансτве на οснοве ποлученныχ значений углοв и ορиенτа- ции уποмянуτοгο πο меньшей меρе οднοгο сегменτа, на κοτοροм ρазмещенο сρедсτвο οπρеделения οπορныχ наπρавлений; ж) οπρеделяюτ οπορный сегменτ или сегменτы οπορнο-двига- τельнοй сисτемы ποльзοваτеля ; з) ποзициοниρуюτ уποмянуτый οπορный сегменτ или сегменτы οτнοсиτельнο οπορы в οτοбρажаемοм виρτуальнοм προсτρансτве и) οπρеделяюτ ποлοжение и ορиенτацию гοлοвы ποльзοваτеля в виρτуальнοм προсτρансτве для οπρеделения егο ποля зρения в виρτуальнοм προсτρансτве; κ) φορмиρуюτ и πρедсτавляюτ ποльзοваτелю οбласτь виρτу- альнοгο προсτρансτва, сοοτвеτсτвующую егο ποлю зρения.
32. Сποсοб πο π. 31, οτличающийся τем, чτο ποвτορяюτ οπеρации с (г) πο (κ) для οτοбρажения изменений виρτуальнοгο 42 προсτρансτва в ρеальнοм вρемени в сοοτвеτсτвии с движениями ποльзοваτеля и взаимοдейсτвия с οбъеκτами виρτуальнοгο προсτ- ρансτва.
33. Сποсοб πο π . 31, οτличающийся τем, чτο ρегисτρиρуюτ ποследοваτельнοсτи данныχ ποлοжения и ορиенτации ποльзοваτе- ля для ποследующегο исποльзοвания .
34. Сποсοб πο любοму из πунκτοв с 31 πο 33, οτличающийся τем, чτο в κачесτве οπορныχ наπρавлений исποльзуюτ наπρавле- ния "севеρ-юг" даτчиκа геοмагниτнοгο ποля и наπρавление даτчиκа месτнοй веρτиκали.
35. Сποсοб πο любοму из πунκτοв с 31 πο 33, οτличающийся τем, чτο в κачесτве οπορныχ наπρавлений исποльзуюτ наπρавле- ния "севеρ-юг" и "заπад-вοсτοκ" даτчиκа геοмагниτнοгο ποля .
36. Сποсοб πο любοму из πунκτοв с 31 πο 33, οτличающийся τем, чτο в κачесτве οπορныχ наπρавлений исποльзуюτ наπρавле- ния , φορмиρуемые гиροсτабилизиροванными даτчиκами οπορныχ наπρавлений.
37. Сποсοб πο любοму из πунκτοв с 31 πο 33, οτличающийся τем, чτο в κачесτве οπορныχ наπρавлений исποльзуюτ наπρавле- ния , φορмиρуемые исκуссτвенным внешним исτοчниκοм οπορныχ наπρавлений .
38. Сποсοб πο любοму из πунκτοв с 31 πο 33, οτличающийся τем, чτο в κачесτве сρедсτва οπρеделения οπορныχ наπρавле- ний исποльзуюτ πο меньшей меρе οдну πаρу προсτρансτвеннο ρазнесенныχ даτчиκοв абсοлюτныχ κοορдинаτ , ρазмешаемую πο меньшей меρе на οднοм из сегменτοв οπορнο-двигаτельнοй сис- τемы ποльзοваτеля.
39. Сποсοб πο любοму из πунκτοв с 31 πο 38, οτличающийся τем, чτο линейные ρазмеρы сегменτа οπορнο-двигаτельнοй сисτе- 43 мы ποльзοваτеля задаюτ на οснοве извесτныχ προπορций τела челοвеκа с исποльзοванием данныχ ροсτа ποльзοваτеля .
40. Сποсοб πο любοму из πунκτοв с 31 πο 39, οτличающийся τем, чτο масшτабиρуюτ значения линейныχ ρаэмеροв сегменτοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля для сοοτвеτсτвующе- гο изменения егο ρазмеροв οτнοсиτельнο οτοбρажаемοгο προсτ- ρансτва.
41. Сποсοб πο любοму из πунκτοв с 31 πο 40, οτличающийся τем, чτο πρи исποльзοвании маниπуляτορа для взаимοдейсτвия ποльзοваτеля с οбъеκτами οτοбρажаемοгο виρτуальнοгο προсτ- ρансτва, ποлοжение маниπуляτορа οπρеделяюτ πο ποлοжению удеρ- живающей егο ρуκи ποльзοваτеля , а τοчную ορиенτацию маниπуля- τορа οπρеделяюτ с ποмοщью ρазмещаемοгο на нем дοποлниτельнοгο сρедсτва οπρеделения уποмянуτыχ οπορныχ наπρавлений.
42. Сποсοб πο любοму из πунκτοв с 31 πο 41, οτличаюшийся τем, чτο в κачесτве οснοвныχ сοчленений между сегменτами οπορнο-двигаτельнοй сисτемы ποльзοваτеля выбиρаюτ τазοбедρен- ный сусτав , κοленные сусτавы, гοленοсτοπные сусτавы, πлечевые сусτавы, лοκτевые сусτавы, κисτевые сусτавы, сοчленение гοлο- вы и πлеч и сοчленение гρуднοгο и ποясничнοгο οτделοв ποзвο- нοчниκа.
43. Сποсοб πο π. 42, οτличающийся τем, чτο в κачесτве οснοвныχ сοчленений дοποлниτельнο выбиρаюτ сусτавы сτοπы и πальцев κисτи ρуκ.
44. Сисτема для πρедсτавления виρτуальнοгο προсτρансτва ποльзοваτелю, πеρемещающемуся в ρеальнοм προсτρансτве , сοдеρ- жашая сρедсτвο οτοбρажения изοбρажения виρτуальнοгο προсτρан- сτва, сρедсτвο φορмиροвания сигнала, индициρующегο наπρавле- ние ποля зρения ποльзοваτеля , сρедсτвο φορмиροвания сигналοв 44 изοбρажения виρτуальнοгο προсτρансτва, сοοτвеτсτвующегο ποлю зρения ποльзοваτеля , вχοд κοτοροгο сοединен с выχοдοм сρед- сτва φορмиροвания сигнала, индициρующегο наπρавление ποля зρения ποльзοваτеля , а выχοд - с вχοдοм сρедсτва οτοбρажения изοбρажения виρτуальнοгο προсτρансτва, οτличающаяся τем, чτο сρедсτвο φορмиροвания сигнала, индициρующегο наπρавление ποля зρения ποльзοваτеля , сοдеρжиτ сρедсτвο οπρеделения πο меньшей меρе οднοгο угла между сегменτами οπορнο-двигаτельнοй сисτемы ποльзοваτеля , πρимыκающими κ сοοτвеτсτвующему сοчле- нению уποмянуτыχ сегменτοв; сρедсτвο οπρеделения οπορныχ наπρавлений, ρазмещеннοе πο меньшей меρе на οднοм из сегмен- τοв οπορнο-двигаτельнοй сисτемы ποльзοваτеля , сρедсτвο ана- лοгο-циφροвοгο πρеοбρазοвания , вχοды κοτοροгο сοединены с выχοдами сρедсτва οπρеделения углοв между сегменτами οπορнο- двигаτельнοй сисτемы ποльзοваτеля и сρедсτва οπρеделения οπορныχ наπρавлений; блοκ ποсτροения маτемаτичесκοй мοдели τρеχмеρнοгο προсτρансτва и ποльзοваτеля в эτοм προсτρансτве, вχοд κοτοροгο сοединен с выχοдοм сρедсτва аналοгο-циφροвοгο πρеοбρазοвания и блοκ οπρеделения ποля зρения ποльзοваτеля , вχοд κοτοροгο сοединен с выχοдοм блοκа ποсτροения маτемаτи- чесκοй мοдели τρеχмеρнοгο προсτρансτва и ποльзοваτеля , а выχοд - с вχοдοм сρедсτва φορмиροвания сигналοв изοбρажения виρτуальнοгο προсτρансτва.
45. Сисτема πο π . 44, οτличающаяся τем, чτο даτчиκ οτнο- сиτельнοгο угла ποвοροτа выποлнен в виде τензοдаτчиκа.
46. Сисτема πο π. 44, οτличающаяся τем, чτο даτчиκ οτнο- сиτельнοгο угла ποвοροτа выποлнен в виде οπτиκοвοлοκοннοгο даτчиκа.
47. Сисτема πο любοму из πунκτοв с 44 πο 46, οτличающая-
Figure imgf000047_0001
45 ся τем, чτο сρедсτвο οπρеделения οπορныχ наπρавлений сοдеρ- жиτ даτчиκ геοмагниτнοгο ποля и даτчиκ месτнοй веρτиκали.
48. Сисτема πο π . 47, οτличающаяся τем, чτο в κачесτве даτчиκа месτнοй веρτиκали исποльзοван даτчиκ гρавиτации.
49. Сисτема πο любοму из πунκτοв с 44 πο 46, οτличающая- ся τем, чτο сρедсτвο οπρеделения οπορныχ наπρавлений выποл- ненο в виде гиροсτабилизиροваннοгο даτчиκа οπορныχ наπρавле- ний .
50. Сисτема πο любοму из πунκτοв с 44 πο 46, οτличающая- ся τем, чτο сρедсτвο οπρеделения οπορныχ наπρавлений сοдеρ- жиτ даτчиκ сигнала внешнегο исτοчниκа οπορныχ наπρавлений.
51. Сисτема πο любοму из πунκτοв с 44 πο 50, οτличающая- ся τем, чτο πρи исποльзοвании маниπуляτορа для взаимοдейсτ- вия ποльзοваτеля с οбъеκτами οτοбρажаемοгο ρеальнοгο или виρτуальнοгο προсτρансτва сοдеρжиτ дοποлниτельнοе сρедсτвο οπρеделения οπορныχ наπρавлений, ρазмещеннοе на маниπуляτορе , πρи эτοм выχοд дοποлниτельнοгο сρедсτва οπρеделения οπορныχ наπρавлений связан с сοοτвеτсτвующим вχοдοм сρедсτва аналο- гο-циφροвοгο πρеοбρазοвания .
52. Сисτема πο любοму из πунκτοв с 44 πο 51, οτличающая- ся τем, чτο дοποлниτельнο сοдеρжиτ блοκ дοлгοвρеменнοй πамя- τи , вχοд κοτοροгο сοединен с выχοдοм сρедсτва аналοгο-циφρο- вοгο πρеοбρазοвания .
PCT/RU1997/000251 1996-08-14 1997-08-07 Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject, and systems for implementing said methods Ceased WO1998007129A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP97936893A EP0959444A4 (en) 1996-08-14 1997-08-07 METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS
AU39549/97A AU3954997A (en) 1996-08-14 1997-08-07 Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject, and systems for implementing said methods
JP50962998A JP2001504605A (ja) 1996-08-14 1997-08-07 空間内のユーザの位置及び方向性を追跡及び表示するための方法、ユーザに対し仮想環境を提示するための方法及びこれらの方法を実現するためのシステム
US08/910,998 US6005548A (en) 1996-08-14 1997-08-14 Method for tracking and displaying user's spatial position and orientation, a method for representing virtual reality for a user, and systems of embodiment of such methods

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
RU96116414A RU2107328C1 (ru) 1996-08-14 1996-08-14 Способ отслеживания и отображения положения и ориентации пользователя в пространстве и система для осуществления способа
RU96116415A RU2106695C1 (ru) 1996-08-14 1996-08-14 Способ представления виртуального пространства пользователю и система для осуществления способа
RU96116415 1996-08-14
RU96116414 1996-08-14

Publications (1)

Publication Number Publication Date
WO1998007129A1 true WO1998007129A1 (en) 1998-02-19

Family

ID=26653888

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU1997/000251 Ceased WO1998007129A1 (en) 1996-08-14 1997-08-07 Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject, and systems for implementing said methods

Country Status (6)

Country Link
US (1) US6005548A (ru)
EP (1) EP0959444A4 (ru)
JP (1) JP2001504605A (ru)
CN (1) CN1168057C (ru)
AU (1) AU3954997A (ru)
WO (1) WO1998007129A1 (ru)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001029799A3 (en) * 1999-10-20 2002-01-03 Impulse Technology Ltd Education system challenging a subject's physiologic and kinesthetic systems to synergistically enhance cognitive function
US6749432B2 (en) 1999-10-20 2004-06-15 Impulse Technology Ltd Education system challenging a subject's physiologic and kinesthetic systems to synergistically enhance cognitive function
CN109118910A (zh) * 2018-09-07 2019-01-01 华南理工大学广州学院 一种直流电流方向检测装置
US11262841B2 (en) 2012-11-01 2022-03-01 Eyecam Llc Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing
US11314399B2 (en) 2017-10-21 2022-04-26 Eyecam, Inc. Adaptive graphic user interfacing system

Families Citing this family (465)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6722888B1 (en) * 1995-01-20 2004-04-20 Vincent J. Macri Method and apparatus for tutorial, self and assisted instruction directed to simulated preparation, training and competitive play and entertainment
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6747632B2 (en) * 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6750848B1 (en) * 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6243106B1 (en) * 1998-04-13 2001-06-05 Compaq Computer Corporation Method for figure tracking using 2-D registration and 3-D reconstruction
IL127569A0 (en) 1998-09-16 1999-10-28 Comsense Technologies Ltd Interactive toys
US6369794B1 (en) * 1998-09-09 2002-04-09 Matsushita Electric Industrial Co., Ltd. Operation indication outputting device for giving operation indication according to type of user's action
US6215498B1 (en) * 1998-09-10 2001-04-10 Lionhearth Technologies, Inc. Virtual command post
US6607136B1 (en) 1998-09-16 2003-08-19 Beepcard Inc. Physical presence digital authentication system
EP1116155A2 (en) 1998-10-02 2001-07-18 Comsense Technologies Ltd. Card for interaction with a computer
US6567116B1 (en) 1998-11-20 2003-05-20 James A. Aman Multiple object tracking system
US7483049B2 (en) 1998-11-20 2009-01-27 Aman James A Optimizations for live event, real-time, 3D object tracking
US6707487B1 (en) * 1998-11-20 2004-03-16 In The Play, Inc. Method for representing real-time motion
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
JP4006873B2 (ja) * 1999-03-11 2007-11-14 ソニー株式会社 情報処理システム、情報処理方法及び装置、並びに情報提供媒体
US7015950B1 (en) 1999-05-11 2006-03-21 Pryor Timothy R Picture taking method and apparatus
US7113918B1 (en) * 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
JP3179769B2 (ja) * 1999-09-07 2001-06-25 コナミ株式会社 信号発生装置
JP2001070640A (ja) 1999-09-07 2001-03-21 Konami Co Ltd ゲーム機
US8019609B2 (en) 1999-10-04 2011-09-13 Dialware Inc. Sonic/ultrasonic authentication method
WO2001056007A1 (en) * 2000-01-28 2001-08-02 Intersense, Inc. Self-referenced tracking
FR2805057B1 (fr) * 2000-02-10 2002-05-03 Renault Procede et dispositif de presentation visuelle d'un espace virtuel a trois dimensions simulant un vehicule automobile
US7810037B1 (en) * 2000-02-11 2010-10-05 Sony Corporation Online story collaboration
US8407595B1 (en) 2000-02-11 2013-03-26 Sony Corporation Imaging service for automating the display of images
US6734834B1 (en) * 2000-02-11 2004-05-11 Yoram Baram Closed-loop augmented reality apparatus
US7262778B1 (en) 2000-02-11 2007-08-28 Sony Corporation Automatic color adjustment of a template design
US7328119B1 (en) * 2000-03-07 2008-02-05 Pryor Timothy R Diet and exercise planning and motivation including apparel purchases based on future appearance
US6778866B1 (en) * 2000-03-16 2004-08-17 Ted S. Bettwy Method and apparatus for learning specific body motion
KR100355815B1 (ko) * 2000-04-11 2002-10-19 이지로보틱스 주식회사 다중 이동 로봇을 이용한 모션캡쳐 및 동작 애니메이션 장치
IL136373A0 (en) * 2000-05-25 2001-06-14 Itpen Ltd Partnership Israel Representation of three-dimensional bodies on computer screens and games involving such representations
US7330806B2 (en) * 2000-08-08 2008-02-12 Reohr Iii John Virtualized network
US7117136B1 (en) * 2000-08-18 2006-10-03 Linden Research, Inc. Input and feedback system
WO2002021451A1 (en) * 2000-09-07 2002-03-14 Neochi Llc Method and system for simultaneously creating and using multiple virtual reality programs
AU2001296773A1 (en) * 2000-10-10 2002-04-22 University Of Utah Research Foundation Method and apparatus for monitoring dynamic systems using an integrated graphic display for the n-dimensional representations of critical functions
US6746247B2 (en) 2000-12-27 2004-06-08 Michael P. Barton Choreographed athletic movement to music
US6646643B2 (en) 2001-01-05 2003-11-11 The United States Of America As Represented By The Secretary Of The Navy User control of simulated locomotion
US8306635B2 (en) 2001-03-07 2012-11-06 Motion Games, Llc Motivation and enhancement of physical and mental exercise, rehabilitation, health and social interaction
JP4708590B2 (ja) * 2001-03-13 2011-06-22 キヤノン株式会社 複合現実感システム、ヘッドマウントディスプレイ装置、複合現実感実現方法及びプログラム
US9219708B2 (en) 2001-03-22 2015-12-22 DialwareInc. Method and system for remotely authenticating identification devices
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
KR100393350B1 (ko) * 2001-04-23 2003-08-02 (주)가시오페아 가상경기 시스템 및 방법
JP2004530501A (ja) * 2001-06-19 2004-10-07 ファーゲル,ヤン,ゲー 生き物のための環境を作り出すための装置及び方法
SE523098C2 (sv) * 2001-06-19 2004-03-30 Jan G Faeger Anordning och förfarande för att i en reell omgivning skapa en virtuell företeelse
US6569019B2 (en) * 2001-07-10 2003-05-27 William Cochran Weapon shaped virtual reality character controller
US6758678B2 (en) 2001-08-14 2004-07-06 Disney Enterprises, Inc. Computer enhanced play set and method
KR20030038883A (ko) * 2001-11-07 2003-05-17 최창구 피에스디 센서를 이용한 모션 검출 장치
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
JP4054585B2 (ja) * 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
NZ535747A (en) 2002-03-12 2005-05-27 Menache Llc Motion tracking system and method
US8260593B2 (en) * 2002-09-18 2012-09-04 Siemens Product Lifecycle Management Software Inc. System and method for simulating human movement
CN100428218C (zh) * 2002-11-13 2008-10-22 北京航空航天大学 一种实现通用虚拟环境漫游引擎的方法
WO2004070573A2 (en) * 2003-02-04 2004-08-19 Z-Kat, Inc. Computer-assisted external fixation apparatus and method
EP1627272B2 (en) * 2003-02-04 2017-03-08 Mako Surgical Corp. Interactive computer-assisted surgery system and method
US20050267354A1 (en) * 2003-02-04 2005-12-01 Joel Marquart System and method for providing computer assistance with spinal fixation procedures
ES2234384B1 (es) * 2003-02-05 2006-10-16 Jesus Ciudad Colado Equipo informatizado para simular virtualmente el toreo de salon.
US7009561B2 (en) * 2003-03-11 2006-03-07 Menache, Llp Radio frequency motion tracking system and method
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
WO2005002677A2 (de) * 2003-07-02 2005-01-13 Gonzalez De Mendoza Y Kaeding Simulations- und trainingskugel zur aufnahme von personen
US20050130108A1 (en) * 2003-12-12 2005-06-16 Kurzweil Raymond C. Virtual encounters
US9841809B2 (en) * 2003-12-12 2017-12-12 Kurzweil Technologies, Inc. Virtual encounters
US9971398B2 (en) * 2003-12-12 2018-05-15 Beyond Imagination Inc. Virtual encounters
US8600550B2 (en) * 2003-12-12 2013-12-03 Kurzweil Technologies, Inc. Virtual encounters
US9948885B2 (en) * 2003-12-12 2018-04-17 Kurzweil Technologies, Inc. Virtual encounters
JP2005234217A (ja) * 2004-02-19 2005-09-02 Nisshin Flour Milling Inc 小麦粉加工品製造技術を教授する小麦粉加工品製造技術教授装置及びプログラム
CA2559236C (en) * 2004-03-12 2013-05-14 Vectronix Ag Apparatus and method of determining 3d pedestrian motion by using projection planes
FR2868281B1 (fr) * 2004-03-30 2023-06-23 Commissariat Energie Atomique Procede de determination des mouvements d'une personne.
US20050278157A1 (en) * 2004-06-15 2005-12-15 Electronic Data Systems Corporation System and method for simulating human movement using profile paths
US9129077B2 (en) * 2004-09-03 2015-09-08 Siemen Product Lifecycle Management Software Inc. System and method for predicting human posture using a rules-based sequential approach
JP2008512166A (ja) * 2004-09-09 2008-04-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 可動関節の三次元撮像に対するシステム
WO2006050198A2 (en) * 2004-10-28 2006-05-11 Accelerated Pictures, Llc Client/server-based animation software, systems and methods
US20060281061A1 (en) * 2005-06-13 2006-12-14 Tgds, Inc. Sports Training Simulation System and Associated Methods
WO2007013833A1 (fr) * 2005-09-15 2007-02-01 Oleg Stanilasvovich Rurin Procede et systeme pour visualiser des objets virtuels tridimensionnels
US20070142177A1 (en) * 2005-09-26 2007-06-21 Crucial Innovation, Inc. Computerized method and system for fitting a bicycle to a cyclist
US20070078535A1 (en) * 2005-09-30 2007-04-05 Rockwell Automation Technologies, Inc. System and method for identifying particularized equipment information of interest to varied users in an industrial automation environment
US7433741B2 (en) * 2005-09-30 2008-10-07 Rockwell Automation Technologies, Inc. Hybrid user interface having base presentation information with variably prominent supplemental information
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
CN1991691B (zh) * 2005-12-30 2012-07-04 财团法人工业技术研究院 交互式控制平台系统
US7978081B2 (en) 2006-01-09 2011-07-12 Applied Technology Holdings, Inc. Apparatus, systems, and methods for communicating biometric and biomechanical information
US9082319B2 (en) 2006-01-24 2015-07-14 Carnegie Mellon University Method, apparatus, and system for computer-aided tracking, navigation and motion teaching
CN102058976A (zh) * 2006-05-04 2011-05-18 美国索尼电脑娱乐公司 用于跟踪环境中的用户操纵的系统
WO2008014487A2 (en) * 2006-07-28 2008-01-31 Accelerated Pictures, Inc. Scene organization in computer-assisted filmmaking
WO2008014486A2 (en) * 2006-07-28 2008-01-31 Accelerated Pictures, Inc. Improved camera control
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
TW200842692A (en) * 2007-04-17 2008-11-01 Benq Corp An electrical device and a display method
US8088017B2 (en) * 2007-05-15 2012-01-03 United States Bowling Congress, Inc. System and method for analyzing bowling ball motion
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
RU2364436C2 (ru) * 2007-06-18 2009-08-20 Максим Алексеевич Васин Способ тренировки и устройство для его осуществления
US7980141B2 (en) 2007-07-27 2011-07-19 Robert Connor Wearable position or motion sensing systems or methods
US20100027839A1 (en) * 2007-07-31 2010-02-04 Think/Thing System and method for tracking movement of joints
KR102341800B1 (ko) 2007-09-26 2021-12-21 에이큐 미디어 인크 오디오-비주얼 내비게이션 및 통신
US8629976B2 (en) * 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
TWI372645B (en) * 2007-10-17 2012-09-21 Cywee Group Ltd An electronic game controller with motion-sensing capability
US9418470B2 (en) * 2007-10-26 2016-08-16 Koninklijke Philips N.V. Method and system for selecting the viewing configuration of a rendered figure
US20090166684A1 (en) * 2007-12-26 2009-07-02 3Dv Systems Ltd. Photogate cmos pixel for 3d cameras having reduced intra-pixel cross talk
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US8571637B2 (en) 2008-01-21 2013-10-29 Biomet Manufacturing, Llc Patella tracking method and apparatus for use in surgical navigation
EP3352107B1 (en) 2008-03-03 2025-10-22 NIKE Innovate C.V. Interactive athletic equipment system
US20090270193A1 (en) * 2008-04-24 2009-10-29 United States Bowling Congress Analyzing a motion of a bowler
DE102008027103A1 (de) * 2008-06-06 2009-12-10 Cairos Technologies Ag System und Verfahren zur automatisierten Analyse eines Wettkampfverlaufes
US8385557B2 (en) * 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
US8231506B2 (en) 2008-12-05 2012-07-31 Nike, Inc. Athletic performance monitoring systems and methods in a team sports environment
US20100184564A1 (en) * 2008-12-05 2010-07-22 Nike, Inc. Athletic Performance Monitoring Systems and Methods in a Team Sports Environment
US8628453B2 (en) 2008-12-05 2014-01-14 Nike, Inc. Athletic performance monitoring systems and methods in a team sports environment
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
EP2389664A1 (en) * 2009-01-21 2011-11-30 Georgia Tech Research Corporation Character animation control interface using motion capture
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8487938B2 (en) * 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8682028B2 (en) * 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8577084B2 (en) * 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US20100199228A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8448094B2 (en) 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US8577085B2 (en) * 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8588465B2 (en) * 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
WO2010103482A2 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US9898675B2 (en) * 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8660303B2 (en) * 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US20100295771A1 (en) * 2009-05-20 2010-11-25 Microsoft Corporation Control of display objects
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8509479B2 (en) * 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US9400559B2 (en) * 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US20100311512A1 (en) * 2009-06-04 2010-12-09 Timothy James Lock Simulator with enhanced depth perception
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
GB2471905B (en) * 2009-07-17 2011-08-31 Sony Comp Entertainment Europe User interface and method of user interaction
US8264536B2 (en) * 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US8330134B2 (en) 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8508919B2 (en) * 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US8976986B2 (en) * 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US8428340B2 (en) * 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) * 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US20110083108A1 (en) * 2009-10-05 2011-04-07 Microsoft Corporation Providing user interface feedback regarding cursor position on a display screen
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US9400548B2 (en) * 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US20110099476A1 (en) * 2009-10-23 2011-04-28 Microsoft Corporation Decorating a display environment
US8988432B2 (en) * 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US20110151974A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Gesture style recognition and reward
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US20110164032A1 (en) * 2010-01-07 2011-07-07 Prime Sense Ltd. Three-Dimensional User Interface
US9268404B2 (en) * 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US9019201B2 (en) * 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US8631355B2 (en) * 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US8933884B2 (en) * 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US20110175918A1 (en) * 2010-01-21 2011-07-21 Cheng-Yun Karen Liu Character animation control interface using motion capure
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) * 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8864581B2 (en) * 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8619122B2 (en) * 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8687044B2 (en) * 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) * 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
US8499257B2 (en) * 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8633890B2 (en) * 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US8928579B2 (en) * 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
JP5499762B2 (ja) * 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US9237294B2 (en) 2010-03-05 2016-01-12 Sony Corporation Apparatus and method for replacing a broadcasted advertisement based on both heuristic information and attempts in altering the playback of the advertisement
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US20110221755A1 (en) * 2010-03-12 2011-09-15 Kevin Geisner Bionic motion
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US8279418B2 (en) * 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) * 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US20110234481A1 (en) * 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
US8514269B2 (en) * 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) * 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US9901828B2 (en) 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer
US8540571B2 (en) 2010-03-31 2013-09-24 Immersion Corporation System and method for providing haptic stimulus based on position
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US20120058824A1 (en) * 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9628755B2 (en) * 2010-10-14 2017-04-18 Microsoft Technology Licensing, Llc Automatically tracking user movement in a video chat application
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US9832528B2 (en) 2010-10-21 2017-11-28 Sony Corporation System and method for merging network-based content with broadcasted programming content
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
EP4138095A1 (en) 2010-11-10 2023-02-22 Nike Innovate C.V. Systems and methods for time-based athletic activity measurement and display
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
DE102010053582A1 (de) * 2010-12-06 2012-06-06 Northrop Grumman Litef Gmbh System und Verfahren zur Überwachung von mechanisch gekoppelten Strukturen
US8872762B2 (en) * 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US9123316B2 (en) * 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US9436286B2 (en) 2011-01-05 2016-09-06 Qualcomm Incorporated Method and apparatus for tracking orientation of a user
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8724887B2 (en) 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
CN106964150B (zh) 2011-02-11 2021-03-02 漳州市爵晟电子科技有限公司 一种动作定位点控制系统及其穿套式定点控制设备
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
CA2827501A1 (en) 2011-02-17 2012-08-23 Nike International Ltd. Location mapping
US9551914B2 (en) 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
US8571263B2 (en) * 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US8542112B2 (en) 2011-03-25 2013-09-24 Telenav, Inc. Navigation system with physical activity safety mechanism and method of operation thereof
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US20130029681A1 (en) * 2011-03-31 2013-01-31 Qualcomm Incorporated Devices, methods, and apparatuses for inferring a position of a mobile device
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8929612B2 (en) * 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
CN103197757A (zh) * 2012-01-09 2013-07-10 癸水动力(北京)网络科技有限公司 一种沉浸式虚拟现实系统及其实现方法
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US9588582B2 (en) 2013-09-17 2017-03-07 Medibotics Llc Motion recognition clothing (TM) with two different sets of tubes spanning a body joint
US9582072B2 (en) 2013-09-17 2017-02-28 Medibotics Llc Motion recognition clothing [TM] with flexible electromagnetic, light, or sonic energy pathways
US10602965B2 (en) 2013-09-17 2020-03-31 Medibotics Wearable deformable conductive sensors for human motion capture including trans-joint pitch, yaw, and roll
US10321873B2 (en) 2013-09-17 2019-06-18 Medibotics Llc Smart clothing for ambulatory human motion capture
US10716510B2 (en) 2013-09-17 2020-07-21 Medibotics Smart clothing with converging/diverging bend or stretch sensors for measuring body motion or configuration
EP2864961A4 (en) 2012-06-21 2016-03-23 Microsoft Technology Licensing Llc AVATAR CONSTRUCTION USING A DEPTH CAMERA
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
CN102755745A (zh) * 2012-07-31 2012-10-31 曾珠峰 一种全身式仿真游戏设备
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
US20140142442A1 (en) 2012-11-19 2014-05-22 Judy Sibille SNOW Audio Feedback for Medical Conditions
CN102921158A (zh) * 2012-12-07 2013-02-13 宋艳霞 一种太极拳训练装置
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
CN103970258B (zh) * 2013-01-28 2018-08-07 联想(北京)有限公司 穿戴式电子设备以及显示方法
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9253606B2 (en) 2013-03-04 2016-02-02 Here Global B.V. Structure access characteristics determined from mobile unit data
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
JP2015069895A (ja) * 2013-09-30 2015-04-13 パナソニックIpマネジメント株式会社 照明制御装置及び照明制御システム
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
US20160258778A1 (en) * 2013-10-11 2016-09-08 Imsi Design, Llc Method for calibrating the physical position and orientation of an electronic device using device sensors only
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
CN104463947A (zh) * 2013-11-25 2015-03-25 安徽寰智信息科技股份有限公司 一种人体骨骼建模方法
WO2015081113A1 (en) 2013-11-27 2015-06-04 Cezar Morun Systems, articles, and methods for electromyography sensors
US9135347B2 (en) * 2013-12-18 2015-09-15 Assess2Perform, LLC Exercise tracking and analysis systems and related methods of use
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
US9996975B2 (en) * 2014-03-18 2018-06-12 Dreamworks Animation L.L.C. Interactive multi-rider virtual reality ride system
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
EP2988288A1 (en) * 2014-08-22 2016-02-24 Moog B.V. Medical simulator handpiece
US10959666B2 (en) 2015-01-12 2021-03-30 Enbiomedic Wearable hip joint-action detectors
JP5981591B1 (ja) * 2015-03-17 2016-08-31 株式会社コロプラ 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
DE102015003881B4 (de) * 2015-03-26 2024-07-11 Audi Ag Verfahren zum Bereitstellen einer Simulation einer virtuellen Umgebung mit zumindest einem Teil eines Kraftfahrzeugs und Kraftfahrzeugsimulationsanordnung
WO2016205182A1 (en) * 2015-06-15 2016-12-22 Survios, Inc. Systems and methods for immersive physical interaction with a virtual environment
US10095306B2 (en) * 2015-06-15 2018-10-09 Harman International Industries, Incorporated Passive magnetic head tracker
US9712472B2 (en) 2015-07-02 2017-07-18 Microsoft Technology Licensing, Llc Application spawning responsive to communication
US10198252B2 (en) 2015-07-02 2019-02-05 Microsoft Technology Licensing, Llc Transformation chain application splitting
US9658836B2 (en) 2015-07-02 2017-05-23 Microsoft Technology Licensing, Llc Automated generation of transformation chain compatible class
US9733915B2 (en) 2015-07-02 2017-08-15 Microsoft Technology Licensing, Llc Building of compound application chain applications
US9785484B2 (en) 2015-07-02 2017-10-10 Microsoft Technology Licensing, Llc Distributed application interfacing across different hardware
US10261985B2 (en) 2015-07-02 2019-04-16 Microsoft Technology Licensing, Llc Output rendering in dynamic redefining application
US9860145B2 (en) 2015-07-02 2018-01-02 Microsoft Technology Licensing, Llc Recording of inter-application data flow
US9733993B2 (en) 2015-07-02 2017-08-15 Microsoft Technology Licensing, Llc Application sharing using endpoint interface entities
US10031724B2 (en) 2015-07-08 2018-07-24 Microsoft Technology Licensing, Llc Application operation responsive to object spatial status
US10198405B2 (en) 2015-07-08 2019-02-05 Microsoft Technology Licensing, Llc Rule-based layout of changing information
US10277582B2 (en) 2015-08-27 2019-04-30 Microsoft Technology Licensing, Llc Application service architecture
US11562502B2 (en) 2015-11-09 2023-01-24 Cognex Corporation System and method for calibrating a plurality of 3D sensors with respect to a motion conveyance
US10812778B1 (en) * 2015-11-09 2020-10-20 Cognex Corporation System and method for calibrating one or more 3D sensors mounted on a moving manipulator
US10757394B1 (en) 2015-11-09 2020-08-25 Cognex Corporation System and method for calibrating a plurality of 3D sensors with respect to a motion conveyance
WO2017095951A1 (en) 2015-11-30 2017-06-08 Nike Innovate C.V. Apparel with ultrasonic position sensing and haptic feedback for activities
CN118605029A (zh) 2016-01-19 2024-09-06 奇跃公司 利用映像的增强现实系统和方法
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
KR102726907B1 (ko) 2016-04-26 2024-11-06 매직 립, 인코포레이티드 증강 현실 시스템들을 사용한 전자기 추적
EP3455700A1 (en) * 2016-05-12 2019-03-20 Google LLC System and method relating to movement in a virtual reality environment
FR3052949B1 (fr) * 2016-06-17 2019-11-08 Alexandre Courtes Procede et systeme de prise de vues a l'aide d'un capteur virtuel
US10037626B2 (en) * 2016-06-30 2018-07-31 Microsoft Technology Licensing, Llc Interaction with virtual objects based on determined restrictions
WO2018022597A1 (en) 2016-07-25 2018-02-01 Ctrl-Labs Corporation Methods and apparatus for inferring user intent based on neuromuscular signals
US11331045B1 (en) 2018-01-25 2022-05-17 Facebook Technologies, Llc Systems and methods for mitigating neuromuscular signal artifacts
US10489986B2 (en) 2018-01-25 2019-11-26 Ctrl-Labs Corporation User-controlled tuning of handstate representation model parameters
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
EP3487395A4 (en) 2016-07-25 2020-03-04 CTRL-Labs Corporation METHOD AND DEVICE FOR PREDICTING MUSCLE SKELETON POSITION INFORMATION WITH AUTONOMOUS WEARABLE SENSORS
EP3487595A4 (en) 2016-07-25 2019-12-25 CTRL-Labs Corporation SYSTEM AND METHOD FOR MEASURING THE MOVEMENT OF FLEXIBLE RIGID BODIES
EP3487457B1 (en) 2016-07-25 2023-09-06 Facebook Technologies, LLC. Adaptive system for deriving control signals from measurements of neuromuscular activity
CN107223271B (zh) * 2016-12-28 2021-10-15 达闼机器人有限公司 一种显示数据处理方法及装置
US11436811B2 (en) 2017-04-25 2022-09-06 Microsoft Technology Licensing, Llc Container-based virtual camera rotation
KR101880701B1 (ko) * 2017-06-27 2018-07-20 이형준 가상현실 실시간 모션 시뮬레이터
CN109419604A (zh) * 2017-08-29 2019-03-05 深圳市掌网科技股份有限公司 基于虚拟现实的下肢康复训练方法和系统
EP3697297A4 (en) 2017-10-19 2020-12-16 Facebook Technologies, Inc. SYSTEMS AND PROCEDURES FOR IDENTIFICATION OF BIOLOGICAL STRUCTURES IN CONNECTION WITH SIGNALS OF NEUROMUSCULAR ORIGIN
US11100913B2 (en) 2017-11-14 2021-08-24 Thomas STACHURA Information security/privacy via a decoupled security cap to an always listening assistant device
US10867623B2 (en) 2017-11-14 2020-12-15 Thomas STACHURA Secure and private processing of gestures via video input
US10872607B2 (en) 2017-11-14 2020-12-22 Thomas STACHURA Information choice and security via a decoupled router with an always listening assistant device
US10999733B2 (en) 2017-11-14 2021-05-04 Thomas STACHURA Information security/privacy via a decoupled security accessory to an always listening device
US10867054B2 (en) 2017-11-14 2020-12-15 Thomas STACHURA Information security/privacy via a decoupled security accessory to an always listening assistant device
WO2019148002A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation Techniques for anonymizing neuromuscular signal data
US10970936B2 (en) 2018-10-05 2021-04-06 Facebook Technologies, Llc Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
CN112005198A (zh) 2018-01-25 2020-11-27 脸谱科技有限责任公司 基于多个输入的手部状态重建
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
WO2019147956A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation Visualization of reconstructed handstate information
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
WO2019147996A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation Calibration techniques for handstate representation modeling using neuromuscular signals
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
EP3743901A4 (en) 2018-01-25 2021-03-31 Facebook Technologies, Inc. REAL-TIME PROCESSING OF ESTIMATES FROM A HAND CONDITION REPRESENTATION MODEL
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN112469469B (zh) 2018-05-25 2024-11-12 元平台技术有限公司 用于提供肌肉下控制的方法和装置
CN112261907A (zh) 2018-05-29 2021-01-22 脸谱科技有限责任公司 表面肌电信号测量中降噪的屏蔽技术及相关系统和方法
WO2019241701A1 (en) 2018-06-14 2019-12-19 Ctrl-Labs Corporation User identification and authentication with neuromuscular signatures
WO2020018892A1 (en) 2018-07-19 2020-01-23 Ctrl-Labs Corporation Methods and apparatus for improved signal robustness for a wearable neuromuscular recording device
WO2020036958A1 (en) 2018-08-13 2020-02-20 Ctrl-Labs Corporation Real-time spike detection and identification
US10842407B2 (en) 2018-08-31 2020-11-24 Facebook Technologies, Llc Camera-guided interpretation of neuromuscular signals
WO2020061451A1 (en) 2018-09-20 2020-03-26 Ctrl-Labs Corporation Neuromuscular text entry, writing and drawing in augmented reality systems
EP3857342A4 (en) 2018-09-26 2021-12-01 Facebook Technologies, LLC. NEUROMUSCULAR CONTROL OF PHYSICAL OBJECTS IN AN ENVIRONMENT
US11797087B2 (en) 2018-11-27 2023-10-24 Meta Platforms Technologies, Llc Methods and apparatus for autocalibration of a wearable electrode sensor system
CN111249691B (zh) * 2018-11-30 2021-11-23 百度在线网络技术(北京)有限公司 一种基于形体识别的运动员训练方法和系统
CN109817031B (zh) * 2019-01-15 2021-02-05 张赛 一种基于vr技术的肢体运动教学方法
US11388516B2 (en) 2019-02-07 2022-07-12 Thomas STACHURA Privacy device for smart speakers
US10905383B2 (en) 2019-02-28 2021-02-02 Facebook Technologies, Llc Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces
US11287505B2 (en) 2019-05-13 2022-03-29 Cast Group Of Companies Inc. Electronic tracking device and related system
MX2022002692A (es) 2019-09-06 2022-04-11 Sports Data Labs Inc Sistema para generar datos y modelos simulados sobre animales.
US11145102B2 (en) 2019-11-04 2021-10-12 Volvo Car Corporation Using a handheld device to recreate a human pose or align an object in an augmented reality or virtual reality environment
US11599257B2 (en) * 2019-11-12 2023-03-07 Cast Group Of Companies Inc. Electronic tracking device and charging apparatus
US12089953B1 (en) 2019-12-04 2024-09-17 Meta Platforms Technologies, Llc Systems and methods for utilizing intrinsic current noise to measure interface impedances
EP3832435A1 (en) * 2019-12-06 2021-06-09 XRSpace CO., LTD. Motion tracking system and method
CN112957726B (zh) * 2021-02-01 2024-05-03 北京海天维景科技有限公司 一种虚拟运动场景的交互控制方法和装置
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
CN113750529B (zh) * 2021-09-13 2024-05-28 网易(杭州)网络有限公司 游戏中的方向指示方法、装置、电子设备及可读存储介质
US12366920B2 (en) 2022-09-26 2025-07-22 Pison Technology, Inc. Systems and methods for gesture inference using transformations
US12366923B2 (en) 2022-09-26 2025-07-22 Pison Technology, Inc. Systems and methods for gesture inference using ML model selection
US12340627B2 (en) 2022-09-26 2025-06-24 Pison Technology, Inc. System and methods for gesture inference using computer vision
US20240404171A1 (en) * 2023-06-01 2024-12-05 Apple Inc. Synthesized hand texture

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4856996A (en) * 1988-06-24 1989-08-15 Henson Jerry H Cycling pedal stroke monitoring system
US5349533A (en) * 1992-05-08 1994-09-20 Lockheed Missiles & Space Company, Inc. System and method for collision checking between solid objects and vectors
EP0667603A1 (en) * 1994-02-14 1995-08-16 Sarcos Group Apparatus and method for simulating mobility of a human
US5490784A (en) * 1993-10-29 1996-02-13 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BE793543A (fr) * 1971-12-30 1973-04-16 Ibm Methodes de codage de position de mecanismes
US4600919A (en) * 1982-08-03 1986-07-15 New York Institute Of Technology Three dimensional animation
US4937444A (en) * 1982-09-29 1990-06-26 Vpl Research, Inc. Optical flex sensor
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
SE8801043D0 (sv) * 1988-03-22 1988-03-22 Orjan Strandberg Genimator
US5229756A (en) * 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5323174A (en) * 1992-12-02 1994-06-21 Matthew H. Klapman Device for determining an orientation of at least a portion of a living body
WO1995009411A1 (en) * 1993-09-29 1995-04-06 Vpl Research, Inc. Method and apparatus for displaying a virtual world
JP2552427B2 (ja) * 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
WO1996021994A1 (en) * 1995-01-11 1996-07-18 Shaw Christopher D Tactile interface system
RU2109336C1 (ru) * 1995-07-14 1998-04-20 Нурахмед Нурисламович Латыпов Способ погружения пользователя в виртуальную реальность и устройство для его реализации

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4856996A (en) * 1988-06-24 1989-08-15 Henson Jerry H Cycling pedal stroke monitoring system
US5349533A (en) * 1992-05-08 1994-09-20 Lockheed Missiles & Space Company, Inc. System and method for collision checking between solid objects and vectors
US5490784A (en) * 1993-10-29 1996-02-13 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
EP0667603A1 (en) * 1994-02-14 1995-08-16 Sarcos Group Apparatus and method for simulating mobility of a human

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0959444A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001029799A3 (en) * 1999-10-20 2002-01-03 Impulse Technology Ltd Education system challenging a subject's physiologic and kinesthetic systems to synergistically enhance cognitive function
US6749432B2 (en) 1999-10-20 2004-06-15 Impulse Technology Ltd Education system challenging a subject's physiologic and kinesthetic systems to synergistically enhance cognitive function
US11262841B2 (en) 2012-11-01 2022-03-01 Eyecam Llc Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing
US11314399B2 (en) 2017-10-21 2022-04-26 Eyecam, Inc. Adaptive graphic user interfacing system
CN109118910A (zh) * 2018-09-07 2019-01-01 华南理工大学广州学院 一种直流电流方向检测装置
CN109118910B (zh) * 2018-09-07 2020-12-15 华南理工大学广州学院 一种直流电流方向检测装置

Also Published As

Publication number Publication date
AU3954997A (en) 1998-03-06
CN1231753A (zh) 1999-10-13
US6005548A (en) 1999-12-21
JP2001504605A (ja) 2001-04-03
CN1168057C (zh) 2004-09-22
EP0959444A4 (en) 2005-12-07
EP0959444A1 (en) 1999-11-24

Similar Documents

Publication Publication Date Title
WO1998007129A1 (en) Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject, and systems for implementing said methods
US10535116B2 (en) Shared virtual reality
Péruch et al. Transfer of spatial knowledge from virtual to real environments
Suma et al. Effects of travel technique and gender on a divided attention task in a virtual environment
Li et al. The effect of navigation method and visual display on distance perception in a large-scale virtual building
US20110109628A1 (en) Method for producing an effect on virtual objects
Williamson et al. Multi-kinect tracking for dismounted soldier training
Halik et al. Measuring user preferences and behaviour in a topographic immersive virtual environment (TopoIVE) of 2D and 3D urban topographic data
Vidal Jr et al. MAGIS: mobile augmented-reality games for instructional support
Larrue et al. Influence of body-centered information on the transfer of spatial learning from a virtual to a real environment
Soria et al. Unreal reality: An empirical investigation of augmented reality effects on spatial cognition in landscape architecture
Sharma et al. An indoor augmented reality mobile application for simulation of building evacuation
Liarokapis et al. Exploring urban environments using virtual and augmented reality
Jego et al. Developing a virtual reality experience with game elements for tourism: Kayak simulator
Onime et al. Mare: Mobile augmented reality based experiments in science, technology and engineering
Diaz et al. Augmenting virtual environments: The influence of spatial ability on learning from integrated displays
Rudolph et al. Investigating the effects of display fidelity of popular head-mounted displays on spatial updating and learning in virtual reality
Amorim et al. Classification of dynamic cartographic symbols applied to Augmented Reality (AR) Systems
Santos et al. A Virtual and Augmented Reality Course Based on Inexpensive Interaction Devices and Displays.
Yang et al. What Do We Actually Need During Self-localization in an Augmented Environment?
Rosi et al. Augmented Reality Active Learning (AnReAL) activities for teaching/learning motion concepts
Settgast et al. Hands-free navigation in immersive environments for the evaluation of the effectiveness of indoor navigation systems
Priestnall et al. Landscape Visualisation: From lab to field
KR102254769B1 (ko) Vr을 이용한 교육 실기검정 시스템 및 그 방법
Windasari et al. Marker Image Variables Measurement of Augmented Reality in Mobile Application

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 97198214.7

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AL AM AT AU AZ BB BG BR BY CA CH CN CZ DE DK EE ES FI GB GE HU IS JP KE KG KP KR KZ LK LR LS LT LU LV MD MG MK MN MW MX NO NZ PL PT RO RU SD SE SG SI SK TJ TR TT UA UG UZ VN

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 1998 509629

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1997936893

Country of ref document: EP

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

WWP Wipo information: published in national office

Ref document number: 1997936893

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: CA

WWW Wipo information: withdrawn in national office

Ref document number: 1997936893

Country of ref document: EP