[go: up one dir, main page]

DE29720443U1 - Kalibration einer Handstellung und Auswahl eines virtuellen Bildes für einen Virtual-Reality-Fahrzeugsimulator - Google Patents

Kalibration einer Handstellung und Auswahl eines virtuellen Bildes für einen Virtual-Reality-Fahrzeugsimulator

Info

Publication number
DE29720443U1
DE29720443U1 DE29720443U DE29720443U DE29720443U1 DE 29720443 U1 DE29720443 U1 DE 29720443U1 DE 29720443 U DE29720443 U DE 29720443U DE 29720443 U DE29720443 U DE 29720443U DE 29720443 U1 DE29720443 U1 DE 29720443U1
Authority
DE
Germany
Prior art keywords
virtual
hand
image
person
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE29720443U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Old Carco LLC
Original Assignee
Chrysler Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chrysler Corp filed Critical Chrysler Corp
Publication of DE29720443U1 publication Critical patent/DE29720443U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/05Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles the view from a vehicle being simulated

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Processing Or Creating Images (AREA)

Description

Beschreibung
Die vorliegende Erfindung betrifft Fahrzeugdesignsysteme, insbesondere Fahrzeugdesignsysteme, die Virtual Reality verwenden, um Design-Entwürfe zu modellieren.
Die Untersuchung von Entwürfen für neue Fahrzeug-Innenraumgestaltungen wurde bisher mit Hilfe von 1:1-Modellen des Innenraums aus Holz, Plastik, Schaum oder anderen leicht zu bearbeitenden Materialien durchgeführt, um vor dem Bau von funktionierenden Prototypen die ergonomischen Gesichtspunkte des Entwurfes zu prüfen. Im einzelnen werden die Fahrzeug-Innenraumgestaltungen in Form von Attrappen simuliert und die Reaktion von Testpersonen, die verschiedene simulierte Aufgaben in der Attrappe durchführen, aufgezeichnet und untersucht, um u.a. die ergonomischen Eigenschaften der simulierten Entwürfe zu bewerten.
Wie leicht einzusehen ist, erfordern auch nur kleine Änderungen in einem vorgeschlagenen Entwurf starke und zeitraubende Änderungen an der Attrappe einer älteren Version des Entwurfes. Es kann sogar für jedes neu vorgeschlagene Design eine eigene Attrappe notwendig werden, wodurch Zeit, Kosten und Aufwand für das Untersuchen von Vergleichsdesigns steigen und die Zahl der Entwürfe, die untersucht werden können, unerwünscht beschränkt ist.
Es ist dementsprechend wünschenswert, wie mit der vorliegenden Erfindung moderne Computertechnologie zur Simulation von Fahrzeugdesignentwürfen in Virtual Reality einzusetzen und so eine Einrichtung zu schaffen, mit der so viele verschiedene Entwürfe und Änderungen untersucht werden können, wie es gewünscht wird, ohne daß viele verschiedene Attrappen sehr zeitaufwendig und teuer gebaut werden müssen. Die vorliegende Einrichtung liefert dem Benutzer, wie viele Virtual-Reality-Einrichtungen ein Bild eines Raumes (in diesem Fall des Fahrzeuges) so, wie es von einem Benutzer in einem realen Raum in der entsprechenden Position und Blickrichtung des virtuellen Raums gesehen würde.
• · I
Weiter ist es wünschenswert, das ergonomische Design eines vorgeschlagenen Fahrzeug-Innenraums hinsichtlich der Erreichbarkeit vom Bedienungselementen zu untersuchen. Es kann z.B. gewünscht sein, zu untersuchen, wie leicht eine Person auf dem Fahrersitz einen Knopf an einem Radio erreichen und betätigen kann. Es kann auch notwendig sein, die ergonomischen Gesichtspunkte einer Person auf dem Fahrersitz zu untersuchen, die einen Schalthebel oder das Lenkrad des Fahrzeuges ergreift.
Um solche Untersuchungen möglich zu machen, muß die aktuelle Position der Hand der Person exakt in den virtuellen Raum übertragen und projiziert werden, um der Person den gleichen visuellen Eindruck zu vermitteln, den sie in einem realen Fahrzeug hätte. Eine genaue Projektion ist notwendig, um sicherzustellen, daß beispielsweise das Bild eines virtuellen Zeigefingers nicht so dargestellt wird, als würde er leicht in die Oberfläche eines virtuellen Bedienknopfes hineinragen, wenn der Benutzer versucht, diesen Knopf zu drücken. Solche relativ ungenauen Darstellungen des virtuellen Zeigefingers reduzieren die Effektivität der Simulation und damit die Untersuchung des Designentwurfes.
Ein Weg, um die akkurate Projektion beispielsweise der Finger einer Hand im virtuellen Raum sicherzustellen, ist, Positionsgeber auf der Spitze eines jeden Fingers vorzusehen, die ein Positionssignal an einen Empfänger übermitteln. Ein solches System ist aus US-PS 5,381,158 bekannt, das sich mit dem Auslesen von Information in einem Datenspeicher beschäftigt, nicht mit der Virtual-Reality-Simulation von Fahrzeugen. Nach der Offenbarung dieser Druckschrift muß der Benutzer einen relativ komplexen Datenhandschuh tragen, der mehrere Positionsgeber hat. Um für Hände verschiedener Größe geeignet zu sein, was in vielen Testaufgaben bei der Untersuchung neuer Design-Entwürfe erforderlich ist, sind nach dieser Druckschrift viele verschiedene Handschuhe unterschiedlicher Größe nötig.
Es besteht deshalb Bedarf für eine Virtual-Reality-Einrichtung, die ein Bild einer virtuellen Hand ohne ein komplexes Sensorsystem exakt projiziert, und bei der Modifikationen für Benutzer unterschiedlicher Größe nicht erforderlich sind. Weiter
wäre eine Einrichtung vorteilhaft, bei der eine oder mehrere Handstellungen kalibriert sind, so daß ein Benutzer leicht und schnell zwischen angezeigten Stellungen umschalten kann.
Es ist deshalb ein Ziel der vorliegenden Erfindung, eine Virtual-Reality-Simulationseinrichtung zu schaffen, die ein Bild einer Hand einer Person exakt so projiziert, wie sie im virtuellen Raum erscheinen würde. Es ist ein weiteres Ziel der Erfindung, eine Virtual-Reality-Simulationseinrichtung zu schaffen, die das virtuelle Bild einer Hand exakt projiziert und die relativ einfach aufgebaut ist. Es ist ein weiteres Ziel der vorliegenden Erfindung, eine Virtual-Reality-Simulationseinrichtung zu schaffen, die das virtuelle Bild einer Hand exakt projiziert und die für Benutzer unterschiedlicher Große ohne Änderungen verwendbar ist. Es ist ein weiteres Ziel der vorliegenden Erfindung, eine Virtual-Reality-Simulationseinrichtung zu schaffen, die das virtuelle Bild einer Hand exakt projiziert und die kostengünstig und einfach zu benutzen ist.
Die Erfindung sowie vorteilhafte Ausgestaltungen sind in den Ansprüchen gekennzeichnet.
Es wird eine Einrichtung beschrieben, die einer Person ein Bild eines virtuellen Raums zur Verfugung stellt, das einen Teil des Körpers der Person so enthält, als wäre die Person im virtuellen Raum anwesend. Die Einrichtung hat einen Positionsgeber, der auf einem ersten Körperteil angeordnet werden kann, und weiter ein Positionsbestimmungssystem, das die Position des Positionsgebers feststellt. Das Positionsbestimmungssystem erzeugt ein Positionssignal, das die Lage des Positionsgebers wiedergibt. Ein Kalibrationselement ist an einem festen Ort im System angeordnet und kann mit einem zweiten Körperteil der Person, der in einem gewissen Abstand zum ersten Körperteil steht, bedient werden. Das Kalibrationselement erzeugt ein Zeitsteuersignal, wenn es betätigt wird. Ein Computer steht mit dem Positionsbestimmungssystem und dem Kalibrationselement in Verbindung, empfängt das Positionssignal und das Zeitsteuersignal und bestimmt den Abstand zwischen erstem und zweitem Körperteil, um davon abhängig ein Bild der Handstellung
zu erzeugen. Darüber hinaus ist eine Auswahleinheit für das virtuelle Bild betätigbar, die ein Stellungsauswahlsignal erzeugt. Diese Auswahl einheit (VISE) ist mit dem Computer verbunden und bewirkt die wahlweise Anzeige einer von mehreren Handstellungen.
Vorzugsweise ist eine Anzeigeeinheit mit dem Computer zur Anzeige von Bildern des virtuellen Raums, der ein Fahrzeug simuliert, verbunden. Diese Anzeigeeinheit ist vorteilhafterweise eine Brille. In einer bevorzugten Ausfuhrungsform projiziert die Anzeigeeinheit ein dreidimensionales Bild des virtuellen Raumes. Wie später noch detailliert beschrieben werden wird, umfaßt das Kalibrationselement zumindest ein manuell betätigbares Teil, insbesondere eine Taste, Flächen die mit der Fingerspitze betätigt werden, Teile, die mit der Hand ergriffen werden, Becher, etc. Ein Computer umfaßt einen Speicher und ein Programm im Speicher sowie mehrere ausführbare Befehle, um Schritte zur Anzeige eines Bildes des virtuellen Raums durchzuführen. Die Schritte umfassen den Empfang eines Signals vom Positionsbestimmungssystem, das den Ort eines beweglichen Positionsgebers wiedergibt. Der bewegliche Positionsgeber ist mit einem Referenzobjekt verbunden. Die Schritte umfassen weiter den Empfang eines Signals von einem ortsfesten Zeitsteuerelement, wenn es durch ein Bedienobjekt, das sich im Abstand S vom Referenzobjekt befindet, betätigt wird. Weiterhin wird der Abstand S abhängig vom empfangenen Signal bestimmt. Als Antwort auf ein vom Benutzer erzeugtes Auswahlsignal wird ein Bild des virtuellen Raums mit dem Referenzobjekt und einer oder mehrere Stellungen des bedienenden Objektes gezeigt, so daß das bedienende Objekt im Abstand S vom Referenzobjekt erscheint.
Ein Fahrzeugsimulator hat einen Sitz für eine Person und ein Kalibrationssystern zum Einrichten einer relativen Handgröße in verschiedenen Stellungen im virtuellen Raum. Der Simulator weist ein Handpositionsbestimmungssystem mit einem Positionsgeber auf der Hand auf, das ein Positionssignal abhängig von der Lage des Positionsgebers im realen Raum erzeugt. Ein Auswahlelement (VISE) für ein virtuelles Bild ist in der Nähe des Sitzes angeordnet, so daß eine sitzende Person den
VISE zum Erzeugen eines Auswahlsignales betätigen kann. Ein Virtual-Reality-Anzeigesystem empfängt das Positionssignal und das Auswahlsignal und erzeugt daraus ein virtuelles Bild der Handstellung.
Im folgenden wird die vorliegende Erfindung hinsichtlich Aufbau und Funktion anhand der Zeichnung beschrieben.
Fig. 1 ist eine perspektivische Ansicht des Handstellungskalibrationssystems der vorliegenden Erfindung mit einer Steuerfläche in Form einer Taste.
Fig. 2 ist eine perspektivische Ansicht des virtuellen Bildes eines Fahrzeug-Innenraums, wie ihn eine Person im Simulator der Fig. 1 sieht.
&iacgr;&ogr; Fig. 3 ist eine perspektivische Ansicht einer weiteren Ausführungsform der
Steuerfläche, in diesem Fall ein Lenkrad und ein drehbarer Radiobedienknopf.
Fig. 4 ist eine Flußdiagramm der Funktionsschritte.
In Fig. 1 ist ein Fahrsimulator (virtual reality) 10 gezeigt. Der Simulator 10 hat eine Kabine 12 und einen darin befestigten Sitz 14. Eine Person 16 sitzt auf dem Sitz 14 und kann mit ihrer Hand 18 ein Lenkrad 20, das drehbar in der Kabine 12 befestigt ist, erreichen. Weiterhin kann die Person 16 ein Bremspedal 22 und ein Gaspedal 24 betätigen, die beweglich in der Kabine 12 befestigt sind. Darüber hinaus kann die Person 16 einen Getränkebecher, wie eine Kaffeetasse 25 in der Kabine 12 ergreifen. Somit stellt der Simulator 10 in diesem Ausführungsbeispiel einen Fahrzeugsimulator mit mehreren, aber relativ einfachen Bestandteilen dar.
Wie in Fig. 1 zu sehen ist, steht der Person 16 eine Anzeigeeinheit zur Verfugung, sie kann z.B. eine Brille 26 tragen. Im vorliegenden Ausführungsbeispiel handelt es sich dabei um eine geeignete Virtual-Reality-Brille. Eine solche Brille ist aus dem Stand der Technik bekannt und hat einen linken und einen rechten zwei- oder dreidimensionalen Bildschirm, der für das linke bzw. rechte Auge der Person ein virtuelles Bild der Kabine 12 zur Verfugung stellt.
Das virtuelle Bild der Kabine 12 besteht aus den Bildern der Bestandteile der Kabine 12, so wie sie von einer Person auf dem Sitz 14 gesehen werden. Darüber hinaus hat das Bild der Brille 26 auch simulierte Objekte, die nur im virtuellen, aber
nicht im realen Raum existieren. Die Person auf dem Sitz 14 sieht somit Objekte einer simulierten Szene in der Kabine 12.
Wie in Fig. 2 zu sehen ist, kann diese virtuelle Szene ein virtuelles Bild 1212 der Kabine 12 mit einem virtuellen Radio 2828 mit einem Ein/Ausschaltknopf 3030 zeigen. Weiter zeigt das virtuelle Bild 1212 einen virtuellen Ganghebel 3232 und mehrere virtuelle Radiobedientasten 3434. Zusätzlich enthält das virtuelle Bild 1212 eine virtuelle Hand 1818, deren Position im virtuellen Raum der der realen Hand in der realen Kabine 12 entspricht. Bei einer solchen Fahrzeugsimulation kann die Person 16 eines oder mehrere der virtuellen Objekte, die in der Brille 26 dargestellt werden, bedienen und dabei seine virtuelle Hand 1818 beobachten, wie nachfolgend im einzelnen beschrieben wird.
In Fig. 1 ist zu sehen, daß ein magnetisch arbeitender Positionsgeber 36 an der Stelle 18a auf der Hand 18 befestigt ist. Dies kann z.B. mit einem elastischen Band geschehen. Der Positionsgeber 36 steht in Verbindung mit einem Übertragungselement 38, das wiederum mit einem Steuergerät oder Controller eines Positionsbestimmungssystemes verbunden ist. Das in diesem Ausführungsbeispiel verwendete Positionsbestimmungssystem, sowie der Positionsgeber und das Übertragungselement wird unter dem Namen „Flock of Birds " von Ascension Technologies Corp., Burlington, Vermont, USA vertrieben. Der Controller 40 des Positionsbestimmungssystems erzeugt ein dreidimensionales Positionssignal des Positionsgebers 36 bezüglich des ortsfesten Übertragungselementes 38.
Oder anders formuliert, das Positionssignal entspricht dem Ort eines beweglichen Positionselementes wie dem Positionsgeber 36. Das bewegliche Positionselement ist mit einem Referenzobjekt verbunden, wie der Stelle 18a der Hand 18, und das bewegliche Positionselement und das Referenzobjekt befinden sich am selben Ort. Die Stelle 18a muß nicht, wie dargestellt, auf dem Handrücken, sondern kann auch anderswo auf der Hand liegen, solange der Positionsgeber nach dem folgenden Kalibrationsschritt nicht von dieser Stelle wegbewegt wird.
■·
Wie in Fig. 1 zu sehen ist, kann die Person 16 mit ihrem Finger 18b die Steuerfläche 42 eines Kalibrationselementes 44 betätigen. Dieses Kalibrationselement 44 ist in diesem Ausführungsbeispiel eine an einem vorbestimmten Ort der Kabine 12 angebrachte Taste.
Das Kalibrationselement 44 erzeugt ein Zeitsteuersignal, wenn die Person 16 die Steuerfläche 42 betätigt. Somit stellt das Kalibrationselement 44 ein Zeitsteuerelement dar, das dann vom Finger 18b betätigt wird, wenn die Stelle 18a des Referenzobjektes sich im mit S gekennzeichneten Abstand befindet.
Das Kalibrationselement 44 und die Brille 26 sind mit einem Computer
&iacgr;&ogr; (CPU) 46 verbunden, der wiederum mit dem Controller 40 verbunden ist. Natürlich kommt anstelle des Fingers 18b auch eine andere Kontaktstelle der Hand 18 in Frage. So ist z.B. in Fig. 3 die Steuerfläche 48, in diesem Fall das Lenkrad 20, so ausgebildet, daß sie mit der Handfläche ergriffen wird. Eine weitere Steuerfläche 50 ist so ausgebildet, daß sie mit der Fingerspitze bedient wird, in diesem Fall handelt es sich um den Blinkerhebel, der mit einer Fingerspitze der Hand betätigt wird. Weiter kann das Kalibrationselement eine Kaffeetasse sein, so daß die Person in der Kabine sitzt, die Kaffeetasse 25 ergreift und dabei in der Brille 26 ein virtuelles Bild ihrer Hand, die eine virtuelle Kaffeetasse ergreift, sieht. Mehrere Kalibrationselemente können zur Kalibration verschiedener manueller Betätigungsformen (z.B. Zeigen mit dem Zeigefinger, Ergreifen mit der Hand, etc.) für die virtuelle Anzeige verwendet werden. Das Kalibrationselement erzeugt immer dann ein Zeitsteuersignal, wenn seine Steuerfläche betätigt wird, und schickt dieses Signal an die CPU 46.
Wie noch detaillierter beschrieben werden wird, hat die CPU 46 ein Modul zur Anzeige der Hand, z.B. im RAM der CPU 46. Es ist auch möglich, daß das Modul zur Anzeige der Hand auf einem Datenspeicher wie einer Diskette 45 (schematisch in Fig. 1 dargestellt) der CPU 46 zur .Verfügung gestellt wird. Anstatt einer Diskette sind auch beliebige andere Speichermedien wie Bandlaufwerk, DASD-Array, Festplatte, elektronischer ROM, optische Speichermedien, etc. möglich. Die
von der CPU ausfuhrbaren Befehle des Moduls zur Anzeige der Hand können aus übersetztem C^-Code stammen.
Fig. 4 zeigt die Struktur des Programms für das Modul zur Anzeige der Hand. Aus der Struktur der Fig. 4 kann der Fachmann die Struktur von Programm-Code-Elementen entnehmen, die nach der vorliegenden Erfindung zusammenwirken. Die Erfindung wird in einer wesentlichen Ausfuhrungsform von Maschinenbestandteilen ausgeführt, die die Computerprogramm-Code-Elemente in Befehle für einen Computer übersetzen, um so eine Abfolge von Funktionsschritten, die denen der Fig. entsprechen, durchzuführen. In Fig. 1 sind Maschinenbestandteile als Kombination von Programm-Code-Elementen A-E, die in computerlesbarer Form auf einem Datenspeicher 54 auf der Diskette 52 vorliegen, gezeigt. Wie bereits erwähnt, sind auch andere Datenspeicher möglich.
Im folgenden wird anhand von Fig. 4 die Funktion des Moduls zur Anzeige der Hand für die genaue Anzeige eines virtuellen Bildes 18' der Hand 18 beschrieben. Die CPU 46 speichert im Block 56 die Koordinaten des Kalibrationselementes 44 und des ortsfesten Übertragungselementes 38 in der Kabine 12. Diese Koordinaten können beispielsweise in kartesischer Form vorliegen, es sind aber auch andere Koordinatensysteme, wie polare oder sphärische Koordinaten möglich.
Im Block 58 empfängt die CPU 46 das Zeitsteuersignal des Kalibrationselementes 44 und das Positionssignal des Controllers 40. Dieses Zeitsteuersignal zeigt, daß der Finger oder die Kontaktstelle 18b der Hand 18 sich am Ort des Kalibrationselementes 44 befindet. Wird das Zeitsteuersignal empfangen, stellt die CPU 46 ausgehend vom aktuellen Positionssignal des Controllers 40 die Position des Positionsgebers 46 und damit die Position der Stelle 18a der Hand 18 in der Kabine 12 fest.
Das Positionssignal gibt die relative Position des Positionsgebers 36, d.h. die Position bezüglich des ortsfesten Übertragungselementes 38 wieder. Im Block 60 transformiert die CPU 46 die relative Position des Positionsgebers 36 in das Koordinatensystem des Simulators 10 durch geeignete Skalierung und Addition der relativen
Position mit den Koordinaten des ortsfesten Übertragungselementes 38, die im Block 56 abgespeichert wurden.
Im Block 62 berechnet die CPU 46 den Abstand S zwischen dem Positionsgeber 36 und dem Kalibrationselement 44. Der Abstand S entspricht dem Abstand zwischen der Stelle 18a des Positionsgebers und dem Finger bzw. der Kontaktfläche 18b der Hand 18. Dies geschieht durch folgende Berechnung:
S = (&Dgr;&khgr; + Ay + &Dgr;&zgr; ) , wobei &Dgr;&khgr; der Unterschied zwischen der x-Koordinate des Positionsgebers 36 und des Kalibrationselementes 44, Ay der Unterschied zwischen der y-Koordinate des Positionsgebers 36 und des KaIibrationselementes 44 und &Dgr;&zgr; der Unterschied zwischen der z-Koordinate des Positionsgebers 36 und des Kalibrationselementes 44 ist.
Nach Block 62 führt die CPU 46 den Block 64 durch und erzeugt ein Bild 1818 der virtuellen Hand (Fig. 2). Dazu stellt die CPU 46 ein geeignetes Bild der Hand dar, wie beispielsweise mit ausgestrecktem Zeigefinger, wobei die Koordinaten des Positionsgebers 36 von der Spitze des virtuellen Zeigefingers im Abstand S zur markierten Stelle der virtuellen Hand erscheinen. Das Zeitsteuersignal von einem Kalibrationselement 44 dieses Beispiels hat einen Bestandteil, der anzeigt, daß das Signal einem ausgestreckten Zeigefinger entspricht. Somit verbindet die CPU 46 die vorstehend beschriebene Kalibrierung mit der Anzeige eines ausgestreckten Zeigefingers. Werden andere Kalibrationselementen verwendet (z.B. Lenkrad, Kaffeetasse, etc.), werden die Signale von diesen anderen Elementen ebenso entsprechend markiert, um die kalibrierende Handstellung anzuzeigen.
Für andere Ausführungsformen entspricht das Bild der virtuellen Hand in der Brille 26 der entsprechenden Aufgabe, die die Person 16 im Simulator 10 durchführt. Will im Beispiel der Fig. 3 die Person,den Blinkerhebel betätigen, wird die virtuelle Hand mit zusammen ausgestreckten Fingern zum Ergreifen des Blinkerhebels dargestellt, wobei der Abstand zwischen der markierten Stelle und dem Kontaktteil der Hand entsprechend den vorstehend beschriebenen Grundlagen angezeigt
wird. Will die Person 18 die Kaffeetasse in der Kabine 12 bewegen, wird eine virtuelle Hand, die eine virtuelle Kaffeetasse hält, dargestellt, wobei der Abstand zwischen der markierten Stelle der Hand und dem Kontaktteil gemäß vorstehend beschriebenen Grundlagen dargestellt wird. So kann jede festliegende Stellung eines Körpers einer Person genau dargestellt werden. Das bedeutet, daß nur ein einziger Positionsgeber 36 benötigt wird, um eine von mehreren virtuellen Handstellungen (für die Zwecke der vorliegenden Erfindung) darzustellen, unabhängig von individuellen physischen Eigenschaften der Person 16.
In Fig. 1 ist zu sehen, daß eine Auswahleinheit für das virtuelle Bild (VISE)
&iacgr;&ogr; 70 im Simulator 10 für die Person 16 erreichbar befestigt ist. In diesem Ausführungsbeispiel ist der VISE 70 eine Taste, mit dem ein Auswahlsignal für die Konfiguration erzeugt wird. Der VISE 70 ist elektrisch mit der CPU 46 verbunden, so daß, wenn er von der Person 16 zum Erzeugen eines Auswahlsignals für die Konfiguration betätigt wird, die CPU 46 von einer Darstellungsform der virtuellen Hand zu einer anderen umschalten kann.
Fig. 5 zeigt drei solcher Darstellungen. Der Computer 46 kann anfänglich z.B. die virtuelle Darstellung 72 einer Hand mit ausgestrecktem Zeigefinger bewirken. Betätigt die Person 16 daraufhin den VISE 70, kann die CPU 46 eine virtuelle Darstellung 74 einer Hand mit gegenüberliegendem Zeigefinger und Daumen, wie bei einer Zwickbewegung, veranlassen. Betätigt die Person 16 wiederum den VISE 70, kann die CPU 46 die Anzeige eines virtuellen Bildes 76 einer Hand, die ein ringförmiges Objekt wie ein Lenkrad ergreift, veranlassen. Die Abbildungen 72, 74, 76 sind im Speicher der CPU 46 abgelegt und ihre Größe im virtuellen Raum 1212 wird wie vorstehend beschrieben kalibriert.

Claims (13)

  1. • ··
    • ·
    ?ätentanVÄlte dr.-ing. h. negendank (-1973)
    HAUCK, GRAALFS, WEHNERT, DÖRING, SIEMONS
    HAMBURG . MÜNCHEN · DÜSSELDORF
    CHRYSLER CORPORATION M-9534
    1000 Chrysler Dr.
    Auburn Hills, MI 48326-2766
    U.S.A.
    Kalibration einer Handstellung und Auswahl eines virtuellen Bildes für einen Virtual-Reality-Fahrzeugsimulator
    Schutzansprüche
    1. Vorrichtung, die einer Person (16) ein Bild (1212) eines virtuellen Raumes präsentiert, wobei das Bild (1212) einen Körperteil (18) der Person (16) so enthält, als wäre die Person (16) im virtuellen Raum anwesend,:
    einem Positionsgeber (36), der an einem ersten Körperteil (18a) der Person positionierbar ist,
    einem Positionsbestimmungssystem, das den Ort des Positionsgebers (36) feststellt und ein Positionssignal erzeugt, welches diesen Ort wiedergibt,
    einem Kalibrationselement (44), das in der Vorrichtung ortsfest befestigt ist, von einem zweiten Körperteil (18b) der Person (16), der in einem gewissen Abstand (S) vom ersten Körperteil (18a) ist, betätigbar ist und ein Zeitsteuersignal erzeugt, wenn es betätigt wurde,
    einem Computer (46), der mit dem Positionsbestimmungssystem und dem Kalibrationselement (44) in Verbindung steht, das Positionssignal und das Zeitsteuersignal empfängt, daraus den Abstand (S) zwischen dem ersten und dem zwei-
    • ·
    ten Körperteil (18a, 18b) bestimmt und abhängig davon ein Bild (1818) einer Handstellung erzeugt, und
    einem Auswahlelement (70) für ein virtuelles Bild (VISE), das betätigbar ist, um ein Stellungsauswahlsignal zu erzeugen, und das elektrisch mit dem Computer (46) verbunden ist, um diesen zu veranlassen, wahlweise eine von mehreren Handstellungen (72, 74, 76) darzustellen.
  2. 2. Vorrichtung nach Anspruch 1 mit einer Anzeigeeinheit, die an den Computer (46) angeschlossen ist, um ein Bild (1212) des virtuellen Raumes, der ein Fahrzeug simuliert, darzustellen.
  3. 3. Vorrichtung nach Anspruch 2, bei der die Anzeigeeinheit eine Brille (26) umfaßt.
  4. 4. Vorrichtung nach Anspruch 2, bei der die Anzeigeeinheit ein dreidimensionales Bild (1212) des virtuellen Raumes erzeugt.
  5. 5. Vorrichtung nach Anspruch 2, bei der das Kalibrationselement (44) zumindest ein manuell betätigbares Teil aufweist, das aus einem der folgenden Elemente ausgewählt ist: Taste, mit Fingerspitze betätigbare Flächen, mit der Hand zu ergreifende Teile, Getränkebehälter (25).
  6. 6. Vorrichtung mit:
    einem Computerprogrammspeicher (52, 54), der von einer Digitaleinheit (46) auslesbar ist, und
    einer Programmeinrichtung auf dem Programmspeicher (54) mit für die Digitaleinheit (46) ausführbaren Befehlen zum Durchführen folgender Schritte zur Anzeige eines Bildes (1212) eines virtuellen Raums:
    (a) Empfang eines Signals vom Positionsbestimmungssystem, das der Position eines beweglichen Positionsgebers (36) entspricht, wobei der bewegliche Positionsgeber (36) mit einem sich am Ort (18a) des Positionsgebers (36) befindenden Referenzobjekt verbunden ist,
    • ·
    (b) Empfang eines Signals von einem ortsfesten Zeitsteuerelement, wenn das Zeitsteuerelement von einem betätigenden Objekt, das sich vom Referenzobjekt im Abstand S befindet, betätigt wird,
    (c) Feststellen des Abstandes S in Abhängigkeit von den empfangenen Signalen und
    (d) Darstellung eines Bildes (1212) des virtuellen Raumes abhängig von einem vom Benutzer erzeugten Konfigurationsauswahlsignal, wobei der virtuelle Raum das Referenzobjekt und eine von mehreren Konfigurationen des betätigenden Objektes enthält, so daß das betätigende Objekt im Abstand S vom Referenzobjekt
    &iacgr;&ogr; erscheint.
  7. 7. Vorrichtung nach Anspruch 6, bei der der virtuelle Raum ein Fahrzeug simuliert und die Schritte die Anzeige eines dreidimensionalen Bildes (1212) des virtuellen Raumes umfassen.
  8. 8. Fahrzeugsimulator (10) mit:
    einem Sitz (14) für eine Person (16) mit einer Hand (18),
    einem Kalibrationssystem zum Einrichten der relativen Größe einer Hand in einer von mehreren Stellungen (72, 74, 76) in einem virtuellen Raum,
    einem Handpositionsbestimmungssystem mit einem Positionsgeber (36), der an der Hand (18) befestigt ist, das ein Positionssignal entsprechend der Position des Positionsgebers (36) im realen Raum erzeugt,
    einer Auswahleinheit (80) für ein virtuelles Bild (VISE) in der Nähe des Sitzes (14), so daß die Person (16) auf dem Sitz das VISE (70) bedienen kann, um ein Stellungsauswahlsignal zu erzeugen und
    einer Virtual-Reality-Anzeigeeinheit zum Empfang des Positionssignals und des Stellungsauswahlsignals zum wahlweisen Erzeugen eines virtuellen Bildes (1818) einer von mehreren Handstellungen.(72, 74, 76).
  9. 9. Simulator (10) nach Anspruch 8, bei dem das virtuelle Bild (1212) mehrere virtuelle Objekte hat, die im realen Raum (12) nicht präsent sind.
  10. 10. Simulator (10) nach Anspruch 9, bei dem die virtuellen Objekte ein Fahrzeug-Armaturenbrett beinhalten.
  11. 11. Simulator (10) nach Anspruch 10, bei dem das Virtual-Reality-Anzeigesystem eine Anzeigeeinheit für das virtuelle Bild umfaßt und das virtuelle Bild den Innenraum eines Fahrzeuges simuliert.
  12. 12. Simulator (10) nach Anspruch 11, bei dem die Anzeigeeinheit eine Brille (26) umfaßt.
  13. 13. Simulator (10) nach Anspruch 12, bei dem das Kalibrationssystem eine der folgenden Steuerflächen umfaßt: Taste, mit der Fingerspitze zu betätigende Fläche, mit der Handfläche zu ergreifendes Teil, Getränkebehälter (25).
DE29720443U 1996-11-18 1997-11-18 Kalibration einer Handstellung und Auswahl eines virtuellen Bildes für einen Virtual-Reality-Fahrzeugsimulator Expired - Lifetime DE29720443U1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/751,864 US5831584A (en) 1995-07-28 1996-11-18 Hand calibration system and virtual display selection for vehicle simulator

Publications (1)

Publication Number Publication Date
DE29720443U1 true DE29720443U1 (de) 1998-03-12

Family

ID=25023839

Family Applications (1)

Application Number Title Priority Date Filing Date
DE29720443U Expired - Lifetime DE29720443U1 (de) 1996-11-18 1997-11-18 Kalibration einer Handstellung und Auswahl eines virtuellen Bildes für einen Virtual-Reality-Fahrzeugsimulator

Country Status (2)

Country Link
US (1) US5831584A (de)
DE (1) DE29720443U1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013021138A1 (de) * 2013-12-13 2015-06-18 Audi Ag Simulationsanordnung und Verfahren zur Simulation eines Fahrzeuginnenraums
DE102015003881A1 (de) * 2015-03-26 2016-09-29 Audi Ag Verfahren zum Bereitstellen einer Simulation einer virtuellen Umgebung mit zumindest einem Teil eines Kraftfahrzeugs und Kraftfahrzeugsimulationsanordnung
EP3274789B1 (de) * 2015-03-26 2019-01-09 Audi AG Kraftfahrzeugsimulationsanordnung zur simulation einer virtuellen umgebung mit einem virtuellen kraftfahrzeug und verfahren zur simulation einer virtuellen umgebung
DE102017218215A1 (de) * 2017-10-12 2019-04-18 Audi Ag Verfahren zum Betreiben einer am Kopf tragbaren elektronischen Anzeigeeinrichtung und Anzeigesystem zum Anzeigen eines virtuellen Inhalts
DE102014009697B4 (de) 2014-06-26 2024-10-17 Audi Ag Verfahren zum Betreiben eines mobilen Virtual-Reality-Systems in einem Kraftfahrzeug und mobiles Virtual-Reality-System

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3651204B2 (ja) * 1996-12-18 2005-05-25 トヨタ自動車株式会社 立体画像表示装置、立体画像表示方法及び記録媒体
US7248232B1 (en) * 1998-02-25 2007-07-24 Semiconductor Energy Laboratory Co., Ltd. Information processing device
GB2351636B (en) * 1999-01-20 2003-03-19 Canon Kk Video conferencing apparatus
US7084887B1 (en) * 1999-06-11 2006-08-01 Canon Kabushiki Kaisha Marker layout method, mixed reality apparatus, and mixed reality space image generation method
US7133812B1 (en) 1999-08-30 2006-11-07 Ford Global Technologies, Llc Method of parametic design of an instrument panel support structure
US6273724B1 (en) 1999-11-09 2001-08-14 Daimlerchrysler Corporation Architecture for autonomous agents in a simulator
US20020140633A1 (en) * 2000-02-03 2002-10-03 Canesta, Inc. Method and system to present immersion virtual simulations using three-dimensional measurement
US6760693B1 (en) 2000-03-29 2004-07-06 Ford Global Technologies, Llc Method of integrating computer visualization for the design of a vehicle
US7158923B1 (en) 2000-03-29 2007-01-02 Ford Global Technologies, Llc Method of integrating product information management with vehicle design
JP2001276420A (ja) * 2000-03-30 2001-10-09 Namco Ltd ゲーム装置および情報記憶媒体
US7761269B1 (en) * 2000-04-14 2010-07-20 Ford Global Technologies, Llc System and method of subjective evaluation of a vehicle design within a virtual environment using a virtual reality
GB2362551B (en) * 2000-04-14 2004-08-18 Ford Global Tech Inc System and method of evaluation of a vehicle design within a virtual environment using virtual reality
GB0012275D0 (en) * 2000-05-22 2000-07-12 Secr Defence Brit Three dimensional human computer interface
US6917907B2 (en) 2000-11-29 2005-07-12 Visteon Global Technologies, Inc. Method of power steering hose assembly design and analysis
DE10128020B4 (de) * 2001-06-08 2010-06-02 Eurocopter Deutschland Gmbh Verfahren und Vorrichtung zur Wiedergabe einer aufgezeichneten Flugaufgabe eines Luftfahrzeuges
US6801187B2 (en) 2001-06-22 2004-10-05 Ford Global Technologies, Llc System and method of interactive evaluation and manipulation of a geometric model
US7069202B2 (en) 2002-01-11 2006-06-27 Ford Global Technologies, Llc System and method for virtual interactive design and evaluation and manipulation of vehicle mechanisms
JP4054585B2 (ja) * 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
US6665600B2 (en) 2002-04-12 2003-12-16 International Business Machines Corporation System and method for acquiring normalized automotive positional settings
US7174280B2 (en) * 2002-04-23 2007-02-06 Ford Global Technologies, Llc System and method for replacing parametrically described surface features with independent surface patches
US7190331B2 (en) * 2002-06-06 2007-03-13 Siemens Corporate Research, Inc. System and method for measuring the registration accuracy of an augmented reality system
US20040032489A1 (en) * 2002-08-13 2004-02-19 Tyra Donald Wayne Method for displaying a visual element of a scene
ES2233201B1 (es) * 2003-11-21 2006-07-16 Seat, S.A. Sistema de simulacion de realidad mixta.
JP4351599B2 (ja) * 2004-09-03 2009-10-28 パナソニック株式会社 入力装置
US20070237491A1 (en) * 2006-03-29 2007-10-11 Clifford Kraft Portable personal entertainment video viewing system
US8819673B1 (en) 2007-05-24 2014-08-26 United Services Automobile Association (Usaa) Systems and methods for java virtual machine management
US9207758B2 (en) * 2008-05-30 2015-12-08 Honeywell International Inc. Operator assistance methods and systems
DE102009029318A1 (de) * 2009-09-09 2011-03-17 Ford Global Technologies, LLC, Dearborn Verfahren und Vorrichtung zur Erprobung einer Fahrzeugkonstruktion
US8605009B2 (en) * 2010-12-05 2013-12-10 Ford Global Technologies, Llc In-vehicle display management system
US9530057B2 (en) * 2013-11-26 2016-12-27 Honeywell International Inc. Maintenance assistant system
CN105094310B (zh) * 2014-05-09 2019-08-16 梦工厂动画公司 虚拟现实驾乘系统中减少晕车的方法和系统
US9996149B1 (en) 2016-02-22 2018-06-12 Immersacad Corporation Method for one-touch translational navigation of immersive, virtual reality environments
US9805514B1 (en) 2016-04-21 2017-10-31 Microsoft Technology Licensing, Llc Dynamic haptic retargeting
CN105894889B (zh) * 2016-05-09 2018-06-12 合肥工业大学 一种多维可调汽车转向操纵模拟与测试系统的视景控制方法
US10559217B2 (en) 2016-08-05 2020-02-11 Intel Corporation Methods and apparatus to develop in-vehicle experiences in simulated environments
US10234937B2 (en) * 2016-10-07 2019-03-19 Panasonic Avionics Corporation Handset with virtual reality goggles
FR3063713B1 (fr) * 2017-03-09 2019-07-05 Airbus Operations (S.A.S.) Systeme et procede d'affichage pour un aeronef
ES2704327B2 (es) * 2017-09-15 2020-02-21 Seat Sa Método y sistema para mostrar información de realidad virtual en un vehículo
CN107481576A (zh) * 2017-10-11 2017-12-15 山东理工大学 一种基于磁力作用的车辆驾驶模拟器纵向力发生装置
US11276317B2 (en) * 2018-07-16 2022-03-15 David ZEILER System for career technical education
CN109920299A (zh) * 2019-03-28 2019-06-21 珠海超凡视界科技有限公司 一种基于虚拟现实模拟档位训练的装置及方法
US11554320B2 (en) 2020-09-17 2023-01-17 Bogie Inc. System and method for an interactive controller
DE102020126953B3 (de) * 2020-10-14 2021-12-30 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zum Erfassen einer räumlichen Orientierung einer tragbaren Vorrichtung
TWI865169B (zh) * 2023-11-13 2024-12-01 宏達國際電子股份有限公司 虛擬影像顯示系統以及其控制方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0450196B1 (de) * 1990-04-02 1998-09-09 Koninklijke Philips Electronics N.V. Datenverarbeitungssystem mit auf Gesten basierenden Eingabedaten
US5583526A (en) * 1995-07-28 1996-12-10 Chrysler Corporation Hand calibration system for virtual reality vehicle simulator

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013021138A1 (de) * 2013-12-13 2015-06-18 Audi Ag Simulationsanordnung und Verfahren zur Simulation eines Fahrzeuginnenraums
DE102014009697B4 (de) 2014-06-26 2024-10-17 Audi Ag Verfahren zum Betreiben eines mobilen Virtual-Reality-Systems in einem Kraftfahrzeug und mobiles Virtual-Reality-System
DE102015003881A1 (de) * 2015-03-26 2016-09-29 Audi Ag Verfahren zum Bereitstellen einer Simulation einer virtuellen Umgebung mit zumindest einem Teil eines Kraftfahrzeugs und Kraftfahrzeugsimulationsanordnung
EP3274789B1 (de) * 2015-03-26 2019-01-09 Audi AG Kraftfahrzeugsimulationsanordnung zur simulation einer virtuellen umgebung mit einem virtuellen kraftfahrzeug und verfahren zur simulation einer virtuellen umgebung
US10537811B2 (en) 2015-03-26 2020-01-21 Audi Ag Motor vehicle simulation system for simulating a virtual environment with a virtual motor vehicle and method for simulating a virtual environment
DE102015003881B4 (de) 2015-03-26 2024-07-11 Audi Ag Verfahren zum Bereitstellen einer Simulation einer virtuellen Umgebung mit zumindest einem Teil eines Kraftfahrzeugs und Kraftfahrzeugsimulationsanordnung
DE102017218215A1 (de) * 2017-10-12 2019-04-18 Audi Ag Verfahren zum Betreiben einer am Kopf tragbaren elektronischen Anzeigeeinrichtung und Anzeigesystem zum Anzeigen eines virtuellen Inhalts
US11364441B2 (en) 2017-10-12 2022-06-21 Audi Ag Method for operating an electronic display device wearable on the head and display system for displaying virtual content
DE102017218215B4 (de) 2017-10-12 2024-08-01 Audi Ag Verfahren zum Betreiben einer am Kopf tragbaren elektronischen Anzeigeeinrichtung und Anzeigesystem zum Anzeigen eines virtuellen Inhalts

Also Published As

Publication number Publication date
US5831584A (en) 1998-11-03

Similar Documents

Publication Publication Date Title
DE29720443U1 (de) Kalibration einer Handstellung und Auswahl eines virtuellen Bildes für einen Virtual-Reality-Fahrzeugsimulator
DE102015103735A1 (de) Verfahren und Vorrichtung zum Testen eines in einem Luftfahrzeug zu bedienenden Geräts
DE69601222T2 (de) Elektronisches wettbewerbssystem und verfahren zur durchführung
DE102017112634B4 (de) Kraftfahrzeug mit Fahrmodus und Simulationsmodus
EP2289061B1 (de) Ophthalmoskop-simulator
DE69029158T2 (de) Prüfungsverfahren und -gerät
EP3438901A1 (de) Testfahrtszenario-datenbanksystem für realitätsnahe virtuelle testfahrtszenarien
DE102014015871B4 (de) Anzeigesystem für einen Kraftwagen, Kraftwagen mit einem Anzeigesystem und Verfahren zum Betreiben eines Anzeigesystems
EP1047014A2 (de) Verfahren und Eingabeeinrichtung zum Steuern der Lage eines in einer virtuellen Realität graphisch darzustellenden Objekts
WO2007054284A1 (de) Informationseinrichtung, vorzugsweise in einem kraftfahrzeug, und verfahren zur information über fahrzeugdaten, insbesondere fahrzeugfunktionen und deren bedienung
WO2014198552A1 (de) System und verfahren zum überwachen und/oder bedienen einer technischen anlage, insbesondere eines fahrzeugs
DE69623385T2 (de) Interaktive Bilderzeugungsmethode und Gerät
EP1579406A1 (de) Interaktive lehr-und lernvorrichtung mit dreidimensionalem modell
WO2017153305A1 (de) Simulator zum training eines teams einer hubschrauberbesatzung
DE102016006767A1 (de) Verfahren zum Betreiben eines Anzeigesystems und Anzeigesystem
DE102013021138A1 (de) Simulationsanordnung und Verfahren zur Simulation eines Fahrzeuginnenraums
WO2015176708A1 (de) Vorrichtung zum anzeigen einer virtuellen realität sowie messgerät
WO2016165799A1 (de) Verfahren zum betreiben einer virtual-reality-brille und system mit einer virtual-reality-brille
AT516409A4 (de) Simulator
DE102020111010A1 (de) Simulationsvorrichtung
DE10222655A1 (de) System, Verfahren und Computerprogrammprodukt zum Trainieren einer Durchschallungstechnik, insbesondere der Ultraschalltechnik
DE102006052897A1 (de) Informationseinrichtung, vorzugsweise in einem Kraftfahrzeug und Verfahren zur Information über Fahrzeugdaten, insbesondere Fahrzeugfunktionen und deren Bedienung
DE102015003881B4 (de) Verfahren zum Bereitstellen einer Simulation einer virtuellen Umgebung mit zumindest einem Teil eines Kraftfahrzeugs und Kraftfahrzeugsimulationsanordnung
DE69930922T2 (de) Verfahren und vorrichtung zur optionsauswahl in einem system
DE1803195A1 (de) Visuelles Lehrgeraet

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 19980423

R150 Utility model maintained after payment of first maintenance fee after three years

Effective date: 20010124

R157 Lapse of ip right after 6 years

Effective date: 20040602