[go: up one dir, main page]

WO2006035816A1 - 立体的二次元画像表示装置 - Google Patents

立体的二次元画像表示装置 Download PDF

Info

Publication number
WO2006035816A1
WO2006035816A1 PCT/JP2005/017855 JP2005017855W WO2006035816A1 WO 2006035816 A1 WO2006035816 A1 WO 2006035816A1 JP 2005017855 W JP2005017855 W JP 2005017855W WO 2006035816 A1 WO2006035816 A1 WO 2006035816A1
Authority
WO
WIPO (PCT)
Prior art keywords
stereoscopic
image
image display
dimensional image
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2005/017855
Other languages
English (en)
French (fr)
Inventor
Isao Tomisawa
Masaru Ishikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to JP2006537773A priority Critical patent/JP4864713B2/ja
Priority to US11/664,220 priority patent/US7956819B2/en
Publication of WO2006035816A1 publication Critical patent/WO2006035816A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Definitions

  • the present invention relates to a stereoscopic two-dimensional image display apparatus that displays a two-dimensional image in a pseudo-stereoscopic manner by using an image transmission panel.
  • a microlens array which is one of image transmission panels, at a predetermined interval in front of a display surface of a two-dimensional image, light from the display surface is placed in a space in front of the microlens array.
  • a stereoscopic two-dimensional image display device that displays a two-dimensional image in a space in a pseudo-stereoscopic manner is known (see, for example, Patent Document 1, Patent Document 2, Patent Document 3, and Patent Document 4). .
  • Patent Document 1 JP 2001-255493 A
  • Patent Document 2 Japanese Patent Laid-Open No. 2003-98479
  • Patent Document 3 Japanese Patent Laid-Open No. 2002-77341
  • Patent Document 4 Japanese Unexamined Patent Publication No. 2003-156712
  • this type of conventional stereoscopic two-dimensional image display device simply displays a two-dimensional image stereoscopically. Therefore, the observer can visually recognize the stereoscopic two-dimensional image displayed from a passive position, but the observer can perform some action on the displayed stereoscopic two-dimensional image. In addition, interactive communication could not be achieved with the stereoscopic two-dimensional image display device, and the viewer was not very excited.
  • a conventional stereoscopic two-dimensional image display device merely displays a two-dimensional image stereoscopically, and a stereoscopic secondary image displayed by an observer is displayed.
  • a stereoscopic two-dimensional image display device having an intuitive and excellent operability interface that cannot perform any action on the original image.
  • the invention of claim 1 includes a display unit having an image display surface for displaying an image, and an image transmission panel spaced apart from the image display surface, and light emitted from the image display surface.
  • a stereoscopic image display unit that displays a stereoscopic two-dimensional image by forming an image on an imaging plane in a space located on the opposite side of the display unit of the image transmission panel, and a target inserted in the space.
  • a position detection sensor that outputs an output signal corresponding to the position of the detection object; and the image so that the stereoscopic two-dimensional image displayed on the imaging plane changes according to the output signal from the position detection sensor.
  • a control unit that changes an image displayed on the display surface, and a user interface region is formed at a peripheral portion of the imaging surface.
  • FIG. 1 is a schematic configuration diagram of a stereoscopic two-dimensional image display device M of the present embodiment
  • FIG. 2 is a sectional view taken along line II-II in FIG.
  • the stereoscopic two-dimensional image display apparatus M of the present embodiment displays a predetermined stereoscopic image display surface (imaging plane) in a space in a pseudo-stereoscopic manner for a two-dimensional image that can be viewed by an observer as a stereoscopic display.
  • This is a pseudo-stereoscopic image display device displayed on top.
  • the stereoscopic two-dimensional image display apparatus M includes a housing 20, a display unit 1, an image transmission panel 3, and a position detection sensor 10. Configured with
  • the stereoscopic two-dimensional image display apparatus M of the present embodiment has a control system as shown in FIG.
  • the display driving unit 11, the sensor driving unit 12, the image generation unit 13, and the control unit 15 are provided.
  • each component of the stereoscopic two-dimensional image display device M will be specifically described.
  • the housing 20 is a rectangular parallelepiped box-shaped member having a hollow inside.
  • a rectangular opening 20a is formed on one surface of the casing 20 with its four peripheral edges surrounded by the tip of the outer wall 20b.
  • the inside and the outside communicate with each other through the opening 20a.
  • the display unit 1 is a display device provided along one inner surface of the casing 20 facing the opening 20a, and is configured by a liquid crystal display, an EL panel, a CRT, or the like.
  • the display unit 1 has an image display surface la having a plurality of pixel forces on the opening 20a side, and light of a color and intensity corresponding to the image is emitted from each pixel.
  • a panel type display such as a liquid crystal display or an EL panel is used as the display unit 1 in consideration of the miniaturization of the housing 20.
  • the image transmission panel 3 is disposed inside the housing 20 and on the opening 20a side of the image display surface la of the display unit 1 at a predetermined distance from the image display surface la.
  • the image transmission panel 3 is composed of two microlens arrays 3a and 3b as shown in FIG. 3, for example.
  • Each of the microlens arrays 3a and 3b is configured such that a plurality of microconvex lenses 5 are arranged adjacent to each other in an array on both surfaces of a transparent substrate 4 made of glass or a resin board having excellent translucency.
  • the optical axis of each micro convex lens 5 formed on one surface of each transparent substrate 4 is arranged to be the same as the optical axis of the microphone opening convex lens 5 on the other surface.
  • a force microlens array configuration is described in which an example using a microlens array in which the lens array surface is formed on any one of the surfaces of each of the two lens arrays (a total of four surfaces).
  • the lens array surface is formed on any one of the surfaces of each of the two lens arrays (a total of four surfaces).
  • it is not limited to this.
  • the image transmission panel 3 When light corresponding to an image emitted from the image display surface la of the display unit 1 is incident on one surface, the image transmission panel 3 emits this surface force and emits this light. The light is focused on the stereoscopic image display surface 2 that is a predetermined distance away from the opposite side.
  • the aggregate of light imaged by the image transmission panel 3 corresponds to the image displayed on the image display surface la. That is, the image transmission panel 3 displays the image displayed on the image display surface la on a two-dimensional plane in space. It is displayed on a certain stereoscopic image display surface 2.
  • the stereoscopic image display surface 2 is a plane that is virtually set in the space and is a plane on the space that is defined according to the working distance of the image transmission panel 3 that is not an entity. In the form, it is set near the opening 20a of the housing 20.
  • the image formed on the stereoscopic image display surface 2 is a two-dimensional image. If the image has a sense of depth, or if the background image on the display unit 1 is black, the image of the object in the image is displayed. When the Ntrust is emphasized, the front observer sees the force as if the 3D image is projected in the air. That is, the two-dimensional image displayed on the stereoscopic image display surface 2 is recognized by the observer as an image that looks pseudo three-dimensionally (hereinafter referred to as a stereoscopic two-dimensional image).
  • the display unit 1 and the image transmission panel 3 form an image of light corresponding to the image on the stereoscopic image display surface 2 (that is, the imaging surface) to display a stereoscopic two-dimensional image.
  • a stereoscopic image display unit 6 is configured.
  • the position detection sensor 10 is disposed on the inner peripheral side of the opening 20a of the housing 20, that is, on the inner peripheral surface of the distal end of the outer wall 20b (or the vicinity thereof).
  • the position detection sensor 10 is a sensor that detects the position of an object (detected object) such as a user's finger inserted into a predetermined detection area, and outputs a signal corresponding to the detection position to the sensor driving unit 12.
  • the position detection sensor 10 may be a two-dimensional position detection sensor or a three-dimensional position detection sensor depending on the application.
  • the position detection sensor 10 is a two-dimensional position detection sensor
  • the stereoscopic image display surface 2 or a plane in the vicinity thereof is set as an inspection plane which is a detection region, and the inspection plane is a human finger or stick.
  • the inspection plane is a human finger or stick.
  • the display drive unit 11 drives and controls the display unit 1 according to the image sent from the control unit 15. Specifically, the display drive unit 11 receives the image data generated by the image generation unit 13 via the control unit 15, and displays an image corresponding to the image data on the image display surface la of the display unit 1. indicate.
  • the sensor driving unit 12 drives the position detection sensor 10 and receives a detection signal indicating the position of the non-detection object detected by the position detection sensor 10. The received detection signal is sent to the control unit 15.
  • the control unit 15 is a control unit that controls operations of the display drive unit 11, the sensor drive unit 12, the image generation unit 13, and the like.
  • the display drive unit 11, the sensor drive unit 12, and the image generation unit 13 are The operation is performed in accordance with an instruction from the control unit 15.
  • the control unit 15 instructs the image generation unit 13 to generate an image, and is generated by the image generation unit 13.
  • the displayed image is displayed on the image display surface la via the display drive unit 11, and in some cases, the sound corresponding to the generated image is output from the sound output unit (not shown). It is composed of
  • the image generation unit 13 generates image data to be displayed on the display unit 1, and is configured to generate an image according to a predetermined program, for example.
  • the image generation unit 13 is configured to store a predetermined image or video in advance and output the stored image or video to the control unit 15 in response to an instruction from the control unit 15.
  • the stereoscopic two-dimensional image display apparatus M of the present embodiment is configured as described above, so that it can respond to the user's operation more than a display apparatus that simply displays a stereoscopic two-dimensional image.
  • This is a display device capable of adaptively changing a stereoscopic two-dimensional image display.
  • FIG. 4 is a schematic diagram showing a stereoscopic image display surface 2 on which a stereoscopic two-dimensional image is displayed by the stereoscopic two-dimensional image display device M as viewed from the front.
  • FIG. 3 is a diagram showing a state in which the stereoscopic two-dimensional image display device M is operated using the.
  • the stereoscopic two-dimensional image display device M of the present embodiment has a main image (for example, a character image, an object image, etc.) in a central portion 2a located at the center of the stereoscopic image display surface 2. ) Is displayed.
  • the peripheral portion 2b located around the central portion 2a is configured as various user interface areas, and icon images corresponding to various instructions from the user are displayed.
  • the position detection sensor 10 uses the area of the peripheral portion 2b where the icon image is displayed as a sensing area dedicated to the user interface (hereinafter referred to as “user interface area”), and corresponds to the icon image.
  • the control unit 15 changes the image displayed in the central portion 2a according to the operation indicated by the icon image displayed at the detected position.
  • the user has a force to push the icon image with a finger.
  • the icon image is an image displayed in the air, and there is nothing in the area corresponding to the icon image. Must be retained. For this reason, the user may be tired of the operation by holding the hand in the air.
  • the user interface region force is set to the peripheral portion 2b that is the peripheral portion of the stereoscopic image display surface 2, so that the user can While holding the support (such as the outer wall 20b of the housing 20) in the vicinity of the peripheral part 2b of the stereoscopic image display surface 2 (imaging surface), for example, the index finger, middle finger, ring finger, and little finger While placing on the outer wall 20b of the casing 20, the user can insert the thumb into the area where the icon image is displayed by pressing the area corresponding to the icon image while using the casing 20 itself as a reference.
  • the peripheral portion refers to a region having a predetermined width in the inner direction from the outer peripheral portion of the imaging surface.
  • the user interface area When the user interface area is provided in the center of the image plane and icons are arranged, when the icon is pressed with a finger, the main image displayed with the icon in the center is blocked. May end up. This is because the main image of the image display surface force of the display unit blocks the light emitted toward the image formation surface with the hand pressing the icon, thereby preventing the image formation.
  • the user interface area at the periphery as in the present embodiment, there is also an effect that the user's hand operating the user interface area does not interfere with the display of the main image.
  • the position of the hand is fixed by the support (for example, the outer wall 20b of the housing 20) and the hand does not shake, an accurate operation is possible and the user's hand becomes tired. ⁇ It becomes possible even if it is operation for a long time without difficulty.
  • the housing 20 serves as a comparison object in space, it is easy to visually match the focus of the user's eyes with the stereoscopic two-dimensional image. Also, improved visibility can be expected.
  • FIG. 6 is a diagram showing a display example of the stereoscopic image display surface 2.
  • a pot image is displayed in the central portion 2a of the stereoscopic image display surface 2, and a plurality of icon images 31 to 44 are displayed on the peripheral portion 2b so as to surround the pot image. It is displayed as. For example, as one icon image 31, the characters “enlarged” surrounded by a square are projected like a button. User power S Trying to press this icon image 31, the user's finger is placed on this icon image 31. When inserted into the corresponding area, the position detection sensor 10 detects the insertion of this finger. Then, in accordance with the detection signal from the position detection sensor 10, the control unit 15 enlarges the pot image displayed in the central portion 2a in correspondence with the characters “enlarged” displayed in the icon image 31. Switch to the image.
  • control unit 15 displays characters and symbols ("reduced”, “Move”, “Rotate”, “Color”, “Light”, “Open”, “Loose”, “ ⁇ ”, etc.) Switch the pot image according to the meaning of the image.
  • the icon image indicated by characters has a button function for mode selection.
  • “reduction” means reduction of the pot size
  • “movement” means whether or not the mode for moving the display position of the pot is set.
  • “Rotation” means whether or not the mode is to rotate the pot image
  • “color” means a change in the pot color scheme.
  • “illumination” means switching whether or not to display an image as if the pot is exposed to light, and changing the angle and direction of light irradiation.
  • "” Means opening and closing the pot lid.
  • the icon group with the symbol “ ⁇ ” corresponds to the operation of actually moving or rotating the pot by further operating the icon group for mode selection such as movement and rotation. is doing.
  • FIG. 7 is a diagram showing another display example of the stereoscopic image display surface 2.
  • a pot image is displayed in the central portion 2a of the stereoscopic image display surface 2, and a plurality of icon images 51 to 60 are displayed in the peripheral portion 2b so as to surround the pot image.
  • the icon images 53 to 60 in FIG. 7 are arrow images with ⁇ marks at both ends.
  • the user's finger is driven in the direction indicated by the arrow image in the area where the arrow images are arranged.
  • the control unit 15 moves or rotates the image of the pot according to the moving direction of the user's finger.
  • the rotation mode and the movement mode are designated by operating the icon images 51 and 52.
  • the case where the icon images are arranged and displayed on the entire circumference (four sides) of the peripheral portion 2b surrounding the central portion 2a of the stereoscopic image display surface 2 is shown. It is also possible to allow the user to arbitrarily select the side on which the icon image is displayed even if the icon image is displayed only on at least one of the four sides of the peripheral part 2b. In that case, if necessary, the display range of the object image or the like in the central portion 2a can be extended to the side where the icon image is not displayed.
  • the same type of icon image groups 61 and 62 are displayed symmetrically on the upper and lower sides of the four sides of the peripheral portion 2b, and the upper display is the back. It is possible to provide operation keys (buttons) for high-level people, and display below for operation keys (buttons) for short people. In this way, both tall and low people can easily operate.
  • the same type of icon image groups 71 and 72 are displayed symmetrically on the left and right sides of the four sides of the peripheral portion 2b, and the left display is left-handed.
  • the operation key (button) display for the right person can be displayed, and the right display can be provided as the operation key (button) display for the right-handed person. In this way, both left-handed and right-handed people can easily operate.
  • FIG. 10 is a schematic configuration diagram of the stereoscopic two-dimensional image display device M2 of the present embodiment
  • FIG. 11 is a cross-sectional view taken along the line XX of FIG.
  • This stereoscopic two-dimensional image display device M2 has a user's hand on the front side of the periphery of the opening 20a of the housing 20 of the stereoscopic two-dimensional image display device M (see Fig. 2) of the first embodiment.
  • a square support frame (support) 101 is added.
  • the material of the support frame 101 is not limited, but it is preferable to use wood, metal, plastic, or the like that gives a sense of incongruity when the user places a hand.
  • the cross-sectional shape of the support frame 101 is better when it is made to have no corners, such as a columnar shape or a cylindrical shape, as in the illustrated example.
  • the support frame 101 Since the support frame 101 is located around the stereoscopic image display surface 2, the user puts a finger or the like on the interface area of the peripheral portion 2b of the stereoscopic image display surface 2 while placing a hand or a finger on the support frame 101. Can be plugged in stably without shaking, and the icon aimed at Instructions can be given to the image. In addition, the user's hand becomes tired and even a long-time operation can be performed without difficulty. In addition, since the support frame 101 itself serves as a comparison object in space, it is easy to visually match the focus of the user's eyes with the stereoscopic two-dimensional image, and an improvement in visibility is also expected. it can.
  • the position detection sensor 10 disposed on the inner peripheral side of the opening 20 a of the housing 20 can be loaded into the support frame 101.
  • the front end edge of the outer wall 20b of the housing 20 does not need to be extended to the vicinity of the stereoscopic image display surface 2.
  • the square support frame 101 is arranged at the periphery of the opening 20a of the housing 20.
  • a bar-like handrail or a stand on which a hand is placed in the vicinity of the portion where the icon image is displayed The same effect can be expected even if it is provided.
  • a transparent plate (including a diffusion plate) as a support is disposed at or near the position of the stereoscopic image display surface 2 (imaging surface) so that a hand or a finger can touch the transparent plate.
  • an instruction may be given to the icon image displayed in the user interface area with a finger or the like while the hand is supported on the transparent plate as the entity.
  • the fingertip actually touches the transparent plate, which is an entity, an operational feeling that operates the touch panel can be obtained.
  • a transparent plate may be provided on the entire surface of the stereoscopic image display surface 2, or may be provided only in the user interface area (the peripheral portion 2b of the stereoscopic image display surface 2).
  • the user interface area (the peripheral portion 2b of the stereoscopic image display surface 2) and other parts Provide an inner wall (wall part) that divides the area (center part 2a of the stereoscopic image display surface 2), and place icons on the user interface area while placing your hand or fingers on either or both of the outer wall 20b and the inner wall.
  • An instruction may be given with a finger or the like. In that case, by setting the surface of the inner wall to black, the image (object image etc.) displayed on the center 2a of the stereoscopic image display surface 2 can be emphasized, and unnecessary reflection and stray light can be avoided.
  • FIG. 12 is a cross-sectional view of the stereoscopic two-dimensional image display device M3 of the third embodiment.
  • This stereoscopic two-dimensional image display apparatus M3 is provided with an inner wall 20c inside the casing 20 of the stereoscopic two-dimensional image display apparatus M (see FIG. 2) of the first embodiment, and further, an outer wall 20b of the casing 20 and A square frame plate-like transparent plate 110 is arranged between the tips of the inner wall 20c. That is, the transparent plate 110 and the inner wall 20c are combined and added to the stereoscopic two-dimensional image display apparatus M of the first embodiment.
  • the position detection sensor (not shown) is arranged so that the position can be detected without being affected by the presence of the transparent plate 110.
  • a position detection sensor using a transparent electrode or the like is loaded on the transparent plate 110 itself, or a position detection sensor is loaded on the outer peripheral edge side of the transparent plate 110.
  • the transparent plate 110 is disposed at or near the position of the stereoscopic image display surface 2 (imaging plane), and the inner wall 20c is located between the image transmission panel 3 and the stereoscopic image display surface 2, and the outer wall 20b.
  • the user interface area (the peripheral part 2b of the stereoscopic image display surface 2) and the other area (the central part 2a of the stereoscopic image display surface 2) are arranged in parallel with each other. Therefore, the transparent plate 110 disposed between the front ends of the inner wall 20c and the outer wall 20b is provided corresponding to the user interface area.
  • the surface of the inner wall 20c is set to black with reduced reflection.
  • the case where the entire stereoscopic image display surface 2 (imaging surface) (the central portion 2 and the peripheral portion 2b) is on the same plane has been described, but the central portion 2a and the peripheral portion 2b are shown. It is also possible to make a difference in the amount of protrusion in the screen between the image of the central part 2a and the image of the peripheral part 2b.
  • the user inserts a medium having a refractive index different from that in air into the space between the stereoscopic image display surface 2 (imaging surface) and the display unit 1 (display). The distance between the interface area (peripheral part 2b) and the other area (central part 2a) from the display part 1 is made different.
  • Position changing means is provided.
  • Glass, resin, liquid, or the like can be used as a medium that exhibits the function of the imaging position changing means.
  • the imaging position changing means By disposing the imaging position changing means at an arbitrary position between the display unit 1 and the stereoscopic image display surface 2, the imaging positions of the light that passes through the imaging position changing means and the light that does not pass through are different. Therefore, a step can be provided between the image forming planes in the user interface area and other areas. In this case, the amount of the step can be changed by the refractive index and thickness of the medium.
  • FIGS. 13A and 13B are sectional views of the stereoscopic two-dimensional image display devices M4a and M4b according to the fourth embodiment.
  • These stereoscopic two-dimensional image display devices M4a and M4b are formed between the display unit 1 and the stereoscopic image display surface 2 of the stereoscopic two-dimensional image display device M (see FIG. 2) of the first embodiment.
  • the medium 120 is added as a position changing means.
  • the stereoscopic two-dimensional image display device M4a of (a) is an example in which the medium 120 as the imaging position changing means is disposed between the display unit 1 and the image transmission panel 3, and the stereoscopic two-dimensional image display device of (b).
  • the three-dimensional image display device M4b shows an example in which the medium 120 as the imaging position changing means is arranged between the image display panel 3 and the stereoscopic image display surface 2. In either case, the medium 120 is disposed so as to correspond to the peripheral portion 2b which is the user interface area.
  • the medium 120 which is the imaging position changing means
  • an image having a level difference can be displayed in the user interface area and other areas.
  • An image with a step appears to the user in different depths in the depth direction, so it can be given a three-dimensional movement.
  • intuitive operations operations such as pushing and pulling
  • operation variations are widened.
  • a greater sense of standing can be achieved, and visibility, fun and operability are also increased.
  • position detection in the depth direction can be performed by configuring the position detection sensor 10 with a three-dimensional sensor or by installing two-dimensional sensors for the number of steps. I want to be able to do it.
  • a lens can be used as the imaging position changing means.
  • the lens it is preferable to use a large-diameter thin Fresnel lens with a small thickness.
  • FIGS. 14A and 14B are sectional views of the stereoscopic two-dimensional image display devices M5a and M5b according to the fifth embodiment.
  • These stereoscopic two-dimensional image display devices M5a and M5b are provided between the display unit 1 and the stereoscopic image display surface 2 of the stereoscopic two-dimensional image display device M (see FIG. 2) of the first embodiment, particularly for image transmission.
  • Fresnel lenses 131 and 132 as imaging position changing means are added.
  • the Fresnel lens 131 is disposed only at a position corresponding to the central portion 2a of the stereoscopic image display surface 2, and is disposed on the peripheral portion 2b that is a user interface region. It is not placed in the corresponding position.
  • the Fresnel lens 132 hollowed out at the center is disposed on the image transmission panel 3 and is located at the position corresponding to the center 2a of the stereoscopic image display surface 2.
  • the Fresnel lens 132 does not exist, and the Fresnel lens 132 exists only at a position corresponding to the peripheral portion 2b which is the user interface area.
  • the user interface area and the user interface area are arranged. It is possible to display an image with a step in other areas. An image with a step appears to the user with a different depth in the depth direction. Therefore, it is also possible to give a 'three-dimensional movement' operation. For example, by adding a movement in the depth direction, an intuitive operation (operation that pushes and pulls) is possible. Variations also spread. Therefore, a further three-dimensional effect can be produced, and visibility, fun and operability are also increased.
  • FIG. 15 is a cross-sectional view of the stereoscopic two-dimensional image display device M6 of the sixth embodiment.
  • This stereoscopic two-dimensional image display device M6 is a stereoscopic three-dimensional image display device M parallel to the outer wall 20b on the front side of the image transmission panel 3 inside the housing 20 of the stereoscopic two-dimensional image display device M (see FIG. 2) of the first embodiment.
  • An inner wall 20c that separates the user interface area (peripheral part 2b) and the other area (central part 2a) of the image display surface 2 is provided, and further, it corresponds to the user interface area between the inner wall 20c and the outer wall 20b.
  • the medium 120 is arranged.
  • the surface of the inner wall 20c is set to black with reduced reflection.
  • the inner wall 20c that separates the user interface area from the other areas is provided inside the casing 20, so that the center of the stereoscopic image display surface 2 is provided.
  • the image displayed on the part 2a can be highlighted and unnecessary reflections and stray light can be avoided.
  • the outer wall 20b and the inner wall 20c can be visually recognized as a reference object in the space, a sense of depth is produced and visibility is improved.
  • the medium 120 serving as the imaging position changing means is arranged at a position corresponding to the user interface area, an image having a level difference can be displayed in the user interface area and other areas. .
  • An image with a step appears to the user in different depths in the depth direction, so it can be given a three-dimensional movement. For example, by adding movement in the depth direction, intuitive operations (operations such as pushing and pulling) are possible, and operation variations are widened. Therefore, a three-dimensional effect can be obtained, and visibility, fun and operability are also increased.
  • FIG. 16 is a cross-sectional view of the stereoscopic two-dimensional image display device M7 of the seventh embodiment.
  • This stereoscopic two-dimensional image display device M7 is obtained by disposing a transparent plate 110 between the outer wall 20b and the tip of the inner wall 20c of the stereoscopic two-dimensional image display device M6 (see FIG. 15) of the sixth embodiment.
  • an instruction is given to the icon image displayed in the user interface area while touching the fingertip on the transparent plate 110, which is an entity. Because it can be given, it can be operated easily without fatigue, such as holding the operating hand in the air, and it can be operated easily without fatigue, and it can operate the touch panel. A feeling is obtained.
  • FIG. 17 is a diagram showing a display example in the stereoscopic two-dimensional image display device in which the image of the central portion 2a appears to float in front of the image of the peripheral portion 2b.
  • (A) shows the state before operation
  • (b) shows the state after operation.
  • a plurality of reduced size icon images 81 to 86 are displayed only in the user interface area (peripheral part 2b).
  • the image is switched to the image (b) in response to the operation. That is, the image (b) is displayed in the region of the magnified image 81A force center portion 2a of the operated icon image 81.
  • the image of the peripheral part 2b which is the user interface area, appears to be in a deep position.
  • the image of the central part 2b appears to be in the foreground, so it seems that the object has jumped over the steps. This increases the user's surprise.
  • FIG. 18 shows another display example when the image of the central portion 2a is made to appear floating with a step in front of the image of the peripheral portion 2b.
  • the icon images 31 to 44 in the user interface area are exactly the same as the example in FIG. 6, but the object image power in the center part 2a has a surprising feeling that it appears in front of the icon images 31 to 44 in the interface area. Increase.
  • the image switching operation in this case is the same as that shown in the example of FIG.
  • FIG. 19 shows a display example when the image of the central portion 2a is made to appear deeper than the image of the peripheral portion 2b.
  • the icon images 31 to 44 in the user interface area are exactly the same as in the example of FIG. 18, and the operation is also the same.
  • FIG. 20 is a cross-sectional view of the stereoscopic two-dimensional image display device M8 of the eighth embodiment.
  • This stereoscopic two-dimensional image display device M8 is the stereoscopic two-dimensional image display of the sixth embodiment.
  • the inner wall 20c of the device M6 (see FIG. 15) is arranged between the display unit 1 and the image transmission panel 3.
  • the stereoscopic two-dimensional image display devices M1 to M8 of the present embodiment associate the position detection sensor 10 with the imaging plane 2 (stereoscopic image display plane) that displays a pseudo stereoscopic image. Since the display image is changed according to the output signal from the position detection sensor 10 when a physical action of external force is applied, for example, the user physically moves toward the display image. Image action that reflects the user's intentions can be generated by engaging in specific actions (specifically, extending or powering hands or fingers). In other words, the position detection sensor 10 constitutes a user interface that allows the user to be directly involved in the displayed image, allowing the user to change and enjoy the image from an active standpoint. Increase.
  • the position detection sensor 10 senses the peripheral portion 2b of the region corresponding to the display portion of the imaging plane 2, and this peripheral portion sensing region is used as the user interface region. Therefore, the user can give an instruction to the image in the user interface area while touching the support (for example, a part of the housing) in the vicinity of the peripheral portion 2b of the imaging surface 2. it can. Therefore, it is possible to give an operation instruction without shaking the hand while the position of the hand is fixed, so that an accurate operation is possible and the user's hand is exhausted, which is an operation for a long time. However, it can be done without difficulty.
  • the transparent plate 1110 is arranged in the user interface area configured on the imaging plane 2, the user can give an operation instruction while touching the transparent plate 110 with a hand or a finger. it can. That is, it is possible to give an instruction with a finger or the like to the image displayed in the user interface area while supporting the hand on the transparent plate which is an entity. Therefore, for example, when the fingertip actually touches the transparent plate 110 which is an entity, an operational feeling as if the touch panel is operated can be obtained.
  • the wall portion 20c that separates the user interface area from the other areas since the wall portion 20c that separates the user interface area from the other areas is provided, the division of the images displayed in the user interface area and the other areas becomes clear. In particular, by setting the surface of the wall to black, it becomes easier to distinguish visually, the influence of extra light can be eliminated, and the image is emphasized. It can be done.
  • the wall portion 20c is provided in the space between the image transmission panel 3 and the image plane 2, the image of the user interface region and the other region is further reduced. It makes it easier to differentiate.
  • the distance from the display unit 1 is different between the user interface area and the other areas, it is possible to add a step in the depth direction between the images in both areas. That is, it is possible to make a difference in the amount of protrusion in the screen. Therefore, it is possible to give the user a feeling of operation in the depth direction, increasing the amusement (amusement).
  • an imaging distance variable member between the display unit 1 and the imaging surface 2
  • an imaging distance variable member 120, 131, 132 may be provided between the image transmission panels 3, or an imaging distance variable member 120, 131, 132 may be provided between the image transmission panel 3 and the imaging surface 2. it can.
  • a lens can be used as the imaging distance variable member.
  • the lens in the case of a thin lens such as a Fresnel lens, the lens can be arranged on the image transmission panel.
  • the support body 101 is arranged in the vicinity of the image displayed in the user interface area so that a part of the user's body can be supported by the support body 101, the user can hold the support body 101 with his / her hand.
  • the finger can be stably inserted into the interface area while holding the finger or the finger, etc., and the instruction of the targeted operation can be surely given.
  • the user's hand does not get tired, and even a long-time operation can be performed without difficulty.
  • the support since the support itself plays a role as a comparison object in space, it is easy to visually match the focus of the user's eyes with the stereoscopic two-dimensional image, and an improvement in visibility can be expected.
  • FIG. 3 is a diagram showing a relationship among a display unit, an image transmission panel, and a stereoscopic image display surface (imaging surface) in the stereoscopic two-dimensional image display device ⁇ .
  • FIG. 7 is a diagram showing another display example.
  • FIG. 8 is a diagram showing still another display example.
  • FIG. 11 is a cross-sectional view taken along the line ⁇ - ⁇ in FIG.
  • 13 (a) and 13 (b) are cross-sectional views showing a schematic configuration of a stereoscopic two-dimensional image display device M4a and M4b according to a fourth embodiment of the present invention.
  • FIG. 14 (a) and (b) are cross-sectional views showing a schematic configuration of the stereoscopic two-dimensional image display devices M5a and M5b of the fifth embodiment according to the present invention.
  • FIG. 15 is a cross-sectional view showing a schematic configuration of a stereoscopic two-dimensional image display device M6 according to a sixth embodiment of the present invention.
  • FIG. 16 is a cross-sectional view showing a schematic configuration of a stereoscopic two-dimensional image display device M7 according to a seventh embodiment of the present invention.
  • FIG. 18 is a diagram showing a display example in the case of displaying an image with a step, and showing an example in which an image in the center portion appears to pop out toward the front.
  • FIG. 20 is a cross-sectional view showing a schematic configuration of a stereoscopic two-dimensional image display device M8 according to an eighth embodiment of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

  ユーザの意図を取り込みながら画像を変化させることができ、それにより、能動的な体感を観察者に味合わせて、面白さを増すことのできる立体的二次元画像表示装置を提供する。   画像表示面1Aを備えた表示部1と画像表示面に離間配置された画像伝達パネル3とを有し、画像表示面から出射される光を画像伝達パネルの表示部とは反対側に位置する空間中の結像面2に結像して立体的二次元画像を表示する立体画像表示部6と、空間中に挿入される被検出物の位置に応じた出力信号を出力する位置検出センサと、位置検出センサからの出力信号に応じて、結像面に表示される立体的二次元画像が変化するように画像を変化させる制御部と、を備え、位置検出センサが、結像面の周辺部2bをセンシングしており、位置検出センサのセンシング領域に対応させて画像を表示することにより、周辺部2bをユーザインタフェース領域とした。

Description

立体的二次元画像表示装置
技術分野
[0001] 本発明は、画像伝達パネルを用いることにより、二次元画像を擬似立体的に表示 する立体的二次元画像表示装置に関する。
背景技術
[0002] 画像伝達パネルの一つであるマイクロレンズアレイを、二次元画像の表示面の前方 に所定の間隔を隔てて配置することにより、マイクロレンズアレイの前方の空間上に 表示面からの光を結像させ、疑似立体的に二次元画像を空間上に表示する立体的 二次元画像表示装置が知られている (例えば、特許文献 1、特許文献 2、特許文献 3 、特許文献 4参照)。
[0003] 特許文献 1 :特開 2001— 255493号公報
特許文献 2:特開 2003 - 98479号公報
特許文献 3 :特開 2002— 77341号公報
特許文献 4:特開 2003— 156712号公報
発明の開示
発明が解決しょうとする課題
[0004] ところで、従来のこの種の立体的二次元画像表示装置は、単に二次元画像を立体 的に表示させるのみである。したがって、観察者は、ただ受動的な立場で表示された 立体的二次元画像を視認することはできるが、観察者が表示された立体的二次元画 像に対して何らかのアクションを行うことができず、インタラクティブなコミュニケーショ ンを立体的二次元画像表示装置との間で図ることができず、観察者とつて感興の薄 いものであった。
[0005] また、観察者力インタラクティブなコミュニケーションを行う場合には、直感的且つ操 作性に優れたインターフェースを有していることが好ましい。しかしながら、このような 直感的且つ操作性に優れたインターフェースを備えた立体的二次元画像表示装置 として具体的なものは提案されて!、な!/、。 [0006] 本発明が解決しょうとする課題としては、従来の立体的二次元画像表示装置は、単 に二次元画像を立体的に表示させるのみであり、観察者が表示された立体的二次 元画像に対して何らかのアクションを行うことができな力つた、直感的且つ操作性に 優れたインターフェースを備えた立体的二次元画像表示装置が提案されていなかつ た等が挙げられる。
課題を解決するための手段
[0007] 請求項 1の発明は、画像を表示する画像表示面を備えた表示部と、該画像表示面 に離間配置された画像伝達パネルとを有し、前記画像表示面から出射される光を前 記画像伝達パネルの前記表示部とは反対側に位置する空間中の結像面に結像して 立体的二次元画像を表示する立体画像表示部と、前記空間中に挿入される被検出 物の位置に応じた出力信号を出力する位置検出センサと、前記位置検出センサから の出力信号に応じて、前記結像面に表示される前記立体的二次元画像が変化する ように前記画像表示面に表示される画像を変化させる制御部と、を備え、前記結像 面の周縁部にユーザインタフェース領域を構成して 、ることを特徴とする。
発明を実施するための最良の形態
[0008] 以下、図面を参照しながら、本発明に係る立体的二次元画像表示装置の実施形態 について説明する。
[0009] (第 1実施形態)
まず、本発明にかかる立体的二次元画像表示装置の第 1実施形態について説明 する。
図 1は、本実施形態の立体的二次元画像表示装置 Mの概略構成図であり、図 2は
、図 1の II II断面図である。
[0010] 本実施形態の立体的二次元画像表示装置 Mは、観察者が立体表示であると視認 可能な二次元画像を疑似立体的に空間中の所定の立体画像表示面 (結像面)上に 表示する擬似立体画像表示装置である。
[0011] 具体的に、立体的二次元画像表示装置 Mは、図 1及び図 2に示すように、筐体 20 と、表示部 1と、画像伝達パネル 3と、位置検出センサ 10と、を備えて構成されている
。また、本実施形態の立体的二次元画像表示装置 Mは、図 2に示すように、制御系と して、ディスプレイ駆動部 11と、センサ駆動部 12と、画像生成部 13と、制御部 15とを 備えている。以下においては、まず立体的二次元画像表示装置 Mの各構成要素に ついて具体的に説明する。
[0012] 筐体 20は、内部が中空の直方体形状の箱形部材である。この筐体 20の一面には 、 4周縁を外壁 20bの先端で囲われた長方形の開口 20aが形成されており、この開 口 20aを介して内部と外部が連通され、筐体 20の内部には、表示部 1と、画像伝達 パネル 3と、位置検出センサ 10とが収容されている。
[0013] 表示部 1は、開口 20aと対向する筐体 20の一内側面に沿って設けられたディスプレ ィ装置であり、液晶ディスプレイや ELパネル、あるいは、 CRT等によって構成される 。表示部 1は、開口 20a側に複数の画素力もなる画像表示面 laを有し、各画素から は画像に応じた色および強度の光が出射される。図 2では、筐体 20の小型化を考慮 し、表示部 1として液晶ディスプレイや ELパネル等のパネル型のディスプレイが用い られている。
[0014] 画像伝達パネル 3は、筐体 20内部であって表示部 1の画像表示面 laの開口 20a 側に、画像表示面 laから所定距離離れて配置されている。この画像伝達パネル 3は 、例えば図 3に示すように、二枚のマイクロレンズアレイ 3a, 3bから構成されている。 各マイクロレンズアレイ 3a, 3bは、透光性に優れたガラスまたは榭脂板カゝらなる透明 基板 4の両面に、複数のマイクロ凸レンズ 5がアレイ状に互いに隣接配置されたもの である。各透明基板 4の一面に形成された各マイクロ凸レンズ 5の光軸は、他面のマ イク口凸レンズ 5の光軸と同一となるように配置されている。なお、本明細書では、二 枚のレンズアレイの各々の面(合計四面)の何れの面にもレンズアレイ面が構成され たマイクロレンズアレイを利用した実施例を記載する力 マイクロレンズアレイの構成 としてはこれに限られるものではない。
[0015] この画像伝達パネル 3は、表示部 1の画像表示面 laから出射された画像に対応す る光が一面に入射されると、他面力 この光を出射して、画像表示面 laと反対側の 所定距離だけ離れた立体画像表示面 2上に光を結像させる。画像伝達パネル 3によ り結像された光の集合体は、画像表示面 laに表示された画像に相当する。すなわち 、画像伝達パネル 3は、画像表示面 laに表示された画像を、空間上の二次元平面で ある立体画像表示面 2上に表示する。ここで、立体画像表示面 2は、空間上に仮想 的に設定される平面であって実体物ではなぐ画像伝達パネル 3の作動距離に応じ て定義される空間上の一平面であり、本実施形態では、筐体 20の開口 20aの近傍に 設定されている。
[0016] 立体画像表示面 2に結像される画像は二次元画像である力 その画像が、奥行き 感を持つものである場合や、表示部 1上の背景画像が黒く画像中のオブジェクトのコ ントラストが強調されているような場合には、正面の観察者からは、あた力も立体画像 が空中に映し出されているように見える。つまり、立体画像表示面 2に表示される二 次元画像は、擬似的に立体的に見える画像 (以下、立体的二次元画像と呼ぶ)とし て観察者に認識される。このように、本実施形態では、表示部 1と画像伝達パネル 3と により、画像に対応する光を立体画像表示面 2 (すなわち結像面)に結像して立体的 二次元画像を表示する立体画像表示部 6が構成されている。
[0017] 一方、位置検出センサ 10は、筐体 20の開口 20aの内周側、つまり外壁 20bの先端 内周面 (またはその近傍でもよい)に配置されている。位置検出センサ 10は、所定の 検出領域内に挿入されるユーザの指等の物体 (被検出物)の位置を検出するセンサ であり、検出位置に応じた信号をセンサ駆動部 12に出力する。位置検出センサ 10と しては、用途に応じて、二次元位置検出センサであってもよぐ三次元位置検出セン サであってもよい。
[0018] 例えば、位置検出センサ 10が二次元位置検出センサである場合には、立体画像 表示面 2またはその近傍の平面を検出領域である検査平面とし、その検査平面を人 間の指や棒等の物体が横切った際に、その位置に応じた検出信号を出力する。
[0019] ディスプレイ駆動部 11は、制御部 15から送られる画像に応じて表示部 1を駆動制 御する。具体的に、ディスプレイ駆動部 11は、画像生成部 13にて生成された画像デ ータを制御部 15を介して受け取り、その画像データに対応した画像を表示部 1の画 像表示面 laに表示する。
[0020] センサ駆動部 12は、位置検出センサ 10を駆動し、位置検出センサ 10が検出する 非検出物の位置を示す検出信号を受け取る。受け取った検出信号は、制御部 15に 送られる。 [0021] 制御部 15は、ディスプレイ駆動部 11、センサ駆動部 12、画像生成部 13等の動作 を制御する制御部であり、これらディスプレイ駆動部 11、センサ駆動部 12、画像生成 部 13は、制御部 15からの指示に応じて動作を行う。
[0022] 制御部 15は、センサ駆動部 12を介して受け取った検出信号が所定の検出信号で あった場合には、画像生成部 13に画像生成を指示し、画像生成部 13により生成さ れた画像をディスプレイ駆動部 11を介して画像表示面 laに表示させたり、場合によ つては、それに加えて、生成された画像に対応した音声を図示せぬ音声出力部から 出力させたりするように構成されて 、る。
[0023] 画像生成部 13は、表示部 1に表示される画像データを生成するものであり、例えば 所定のプログラムに応じて画像を生成するように構成されている。なお、この画像生 成部 13は、予め所定の画像や映像を記憶しておき、制御部 15からの指示に応じて、 記憶した画像や映像を制御部 15に出力するように構成されて 、てもよ!/、。
[0024] 本実施形態の立体的二次元画像表示装置 Mは、上記のように構成されていること により、単なる立体的二次元画像を表示するだけの表示装置ではなぐユーザの動 作に応じて適応的に立体的二次元画像表示を変化させることのできる表示装置であ る。
[0025] 図 4は、立体的二次元画像表示装置 Mにより立体的二次元画像が表示される立体 画像表示面 2を正面から見た様子を示す模式図であり、図 5は、ユーザが指を用いて この立体的二次元画像表示装置 Mを操作している状態を示す図である。
図 4に示すように、本実施形態の立体的二次元画像表示装置 Mは、立体画像表示 面 2の中央に位置する中央部 2aに、主となる画像 (例えば、キャラクタ画像、オブジェ タト画像等)を表示する。そして、中央部 2aの周辺に位置する周辺部 2bは、各種ュ 一ザインタフエース領域として構成され、ユーザによる各種指示に対応したアイコン 画像が表示される。本実施形態では、位置検出センサ 10が、このアイコン画像の表 示される周辺部 2bの領域をユーザインタフェース専用のセンシング領域 (以下、「ュ 一ザインタフエース領域」という)としており、アイコン画像に対応する位置でユーザの 指等の被検出物を検出すると、制御部 15が、この検出された位置に表示されたアイ コン画像の意味する動作にしたがって、中央部 2aに表示される画像を変化させる。 [0026] 一般に、ユーザは、指でアイコン画像を押そうとする力 アイコン画像は空中に表示 された画像であり、アイコン画像に対応する領域には何も存在しないため、操作する 手を空中で保持しなければならない。そのため、ユーザは、空中での手の保持により 操作に疲れてしまう場合も想定される。
[0027] し力しながら、本実施形態の場合、このユーザインタフェース領域力 立体画像表 示面 2の周縁部である周辺部 2bに設定されているので、ユーザは、図 5に示すように 、立体画像表示面 2 (結像面)の周辺部 2bの近傍にある支持体 (筐体 20の外壁 20b 等)に手をかけた状態で、例えば、人差し指、中指、薬指、小指の 4本を筐体 20の外 壁 20b上に置いた状態で、筐体 20自身を基準にしながら、アイコン画像に相当する 領域を押す感覚で、親指をアイコン画像が表示された領域に差し込むことができる。 ここで周縁部とは、結像面の外周部分から内部方向へ所定の幅を有する領域を指す 。ユーザインタフェース領域を結像面の中央部に設けてアイコン等を配置した場合、 そのアイコンを指で押そうとした場合に、中央部にアイコンと共に表示されている主と なる画像の表示をもさえぎってしまうことがある。なぜなら主となる画像は表示部の画 像表示面力も結像面に向けて出射している光を、アイコンを押す手で遮ってしまい、 その結像を妨げてしまうからである。しかし、本実施例のように、ユーザインタフェース 領域を周縁部に配置することで、ユーザインタフェース領域を操作するユーザの手が 、主となる画像の表示を妨げる事がなくなるという効果も有する。
[0028] また、この場合、支持体 (例えば、筐体 20の外壁 20b)により手の位置が固定されて 、手がぶれないため、正確な操作が可能となると共に、ユーザの手が疲れに《なり、 長時間にわたる操作であっても、難なくこなすことが可能となる。また、本実施形態の 場合には、筐体 20が空間上の比較対象物としての役割を果たすことになるため、視 覚的にユーザの目の焦点を立体的二次元画像に一致しやすくなり、視認性の向上も 期待できる。
[0029] 以下、具体的な表示例について説明する。
図 6は、この立体画像表示面 2の一表示例を示す図である。
図 6に示す例では、立体画像表示面 2の中央部 2aにポットの画像が表示されており 、周辺部 2bに、ポットの画像を囲むように複数のアイコン画像 31〜44が操作メニュー として表示されている。例えば、 1つのアイコン画像 31として、四角で囲まれた"拡大" という文字がボタン様に映し出されており、ユーザ力 Sこのアイコン画像 31を押そうとし て、ユーザの指がこのアイコン画像 31に対応する領域に差し込まれると、位置検出 センサ 10がこの指の挿入を検出する。そして、制御部 15は、位置検出センサ 10から の検出信号に応じて、このアイコン画像 31に表示された"拡大"という文字に対応さ せて、中央部 2aに表示されたポットの画像を拡大像に切り替える。
[0030] 同様に、制御部 15は、他のアイコン画像 32〜44に対応する領域にユーザの指が 挿入されると、各アイコン画像 32〜44に表示された文字や記号("縮小"、 "移動"、 " 回転"、 "色"、 "照明"、 "開"、 "閑"、 "▲',等)の画像の意味に対応して、ポットの画像 を切り替える。
[0031] ここで、文字で示すアイコン画像は、モード選択のためのボタン機能を備える。例え ば、 "縮小"は、ポットの大きさの縮小を意味し、 "移動"は、ポットの表示位置を移動さ せるモードにするかどうかを意味している。また、 "回転"は、ポットの画像を回転させ るモードにするかどうかを意味し、 "色"は、ポットの配色の変更を意味している。さら に、 "照明"は、ポットに光を当てたような画像を表示するかどうかの有無や光が照射 される角度及び方向の変更を切り替えることを意味しており、 "開"及び"閉"は、ポット の蓋を開けたり閉めたりする動作を意味している。また、記号 "▲"によるアイコン群は 、移動や回転等のモード選択用アイコン群が操作された後に更にこれらが操作され ることにより、実際にポットを移動させたり、回転させたりする動作に対応している。
[0032] 図 7は、この立体画像表示面 2の別表示例を示す図である。
図 7に示す例では、立体画像表示面 2の中央部 2aにポットの画像が表示されており 、周辺部 2bに、ポットの画像を囲むように複数のアイコン画像 51〜60が表示されて いる。図 7のアイコン画像 53〜60は、両端に鏃マークが示された矢印画像であり、こ の矢印画像が配置された領域において、例えばユーザの指が矢印画像により示され る方向に動力されたことを位置検出センサ 10が検出すると、制御部 15は、このユー ザの指の動く方向に応じてポットの画像を移動させたり、回転させたりする。本図にお いては、回転モードと移動モードの指定は、アイコン画像 51, 52への操作により行わ れる。 [0033] 図 6、図 7の各表示例では、立体画像表示面 2の中央部 2aを囲む周辺部 2bの全周 (4辺)にアイコン画像を配列表示する場合を示したが、例えば、周辺部 2bの 4辺のう ちの少なくとも任意の 1辺だけにアイコン画像を表示するようにしてもよぐそのアイコ ン画像を表示する辺を、ユーザが任意に選べるようにすることもできる。その場合、必 要に応じて中央部 2aのオブジェクト画像等の表示範囲を、アイコン画像を表示しない 辺にまで広げることも可能である。
[0034] また、図 8に示すように、同じ種類のアイコン画像群 61、 62を、周辺部 2bの 4辺のう ちの上辺部と下辺部に対称的に表示して、上の表示は背の高い人用の操作キー(ボ タン)表示とし、下の表示は背の低い人用の操作キー(ボタン)表示として提供するこ ともできる。こうすれば、背の高い人も低い人も、容易に操作できるようになる。
[0035] また、図 9に示すように、同じ種類のアイコン画像群 71、 72を、周辺部 2bの 4辺のう ちの左辺部と右辺部に対称的に表示して、左の表示は左利きの人用の操作キー(ボ タン)表示とし、右の表示は右利きの人用の操作キー(ボタン)表示として提供するこ ともできる。こうすれば、左利きの人も右利きの人も、容易に操作できるようになる。
[0036] (第 2実施形態)
次に、本発明にかかる立体的二次元画像表示装置の第 2実施形態について説明 する。
図 10は、本実施形態の立体的二次元画像表示装置 M2の概略構成図であり、図 1 1は、図 10の X—X矢視断面図である。
[0037] この立体的二次元画像表示装置 M2は、第 1実施形態の立体的二次元画像表示 装置 M (図 2参照)の筐体 20の開口 20aの周縁の前側に、ユーザが手を掛けることの できる四角い支持枠 (支持体) 101を付加したものである。支持枠 101の材質は問わ ないが、ユーザが手を掛けた際に違和感ない感触を与える木材や金属、あるいはプ ラスチック等を採用するのがよい。また、支持枠 101の断面形状も、図示例のように円 柱状や円筒状等の角のないものにする方が手触りがよくなる。
[0038] この支持枠 101は立体画像表示面 2の周囲に位置するため、ユーザはこの支持枠 101に手や指などを掛けながら、立体画像表示面 2の周辺部 2bのインターフェース 領域に指等を、手ぶれせずに安定的に差し込むことができ、確実に狙ったアイコン 画像に指示を与えることができる。また、ユーザの手が疲れに《なり、長時間にわた る操作であっても、難なくこなすことが可能となる。また、支持枠 101自体が空間上の 比較対象物としての役割を果たすことになるため、視覚的にユーザの目の焦点を立 体的二次元画像に一致しやすくなり、視認性の向上も期待できる。
[0039] なお、筐体 20の開口 20aの内周側に配置してある位置検出センサ 10を、この支持 枠 101に仕込んでおくこともできる。そうした場合は、特に筐体 20の外壁 20bの先端 縁を、立体画像表示面 2の近くにまで延ばしておかなくてもよくなる。
[0040] また、本実施形態では、四角形の支持枠 101を筐体 20の開口 20aの周縁に配置し ているが、アイコン画像を表示する部分の近傍に、棒状の手すりや手を置く台などを 設けても、同様の効果を期待することができる。
[0041] また、立体画像表示面 2 (結像面)の位置またはその近傍に、支持体としての透明 板 (拡散板も含む)を配置して、その透明板に手や指が触れられるようにすることで、 実体物である透明板に手の支えを取りながら、ユーザインタフェース領域に表示され るアイコン画像に指等で指示を与えられるようにしてもよい。そうすれば、実体物であ る透明板に実際に指先が触れることにより、タツチパネルを操作するような操作感が 得られるようになる。その場合、透明板を立体画像表示面 2の全面に設けても勿論よ いが、ユーザインタフェース領域(立体画像表示面 2の周辺部 2b)だけに設けてもよ い。
[0042] また、画像伝達パネル 3の前方側において筐体 20の外壁 20bの内周側に、外壁 2 Obと平行に、ユーザインタフェース領域(立体画像表示面 2の周辺部 2b)とそれ以外 の領域 (立体画像表示面 2の中央部 2a)とを仕切る内壁 (壁部)を設け、外壁 20bと 内壁のいずれかまたは両方に手や指を掛けながら、ユーザインタフェース領域に表 示されるアイコン画像に指等で指示を与えられるようにしてもよい。その場合、内壁の 表面を黒色に設定することで、立体画像表示面 2の中央部 2aに表示する画像 (ォブ ジェタト画像等)を際だたせることができるし、不要な反射や迷光を避けることもできる
[0043] (第 3実施形態)
図 12は第 3実施形態の立体的二次元画像表示装置 M3の断面図である。 この立体的二次元画像表示装置 M3は、第 1実施形態の立体的二次元画像表示 装置 M (図 2参照)の筐体 20の内部に内壁 20cを設け、更に、筐体 20の外壁 20bと 内壁 20cの先端間に四角い枠板状の透明板 110を配置したものである。つまり、透 明板 110と内壁 20cを組み合わせて、第 1実施形態の立体的二次元画像表示装置 Mに付加したものである。但し、位置検出センサ(図示略)は、透明板 110があること により影響されずに位置検出ができるように配置されているものとする。具体的には、 例えば、透明板 110自体に透明電極等による位置検出センサが仕込まれていたり、 透明板 110の外周縁側に位置検出センサが仕込まれているものとする。
[0044] 透明板 110は、立体画像表示面 2 (結像面)の位置またはその近傍に配置されてお り、内壁 20cは、画像伝達パネル 3と立体画像表示面 2の間に、外壁 20bと平行に、 ユーザインタフェース領域(立体画像表示面 2の周辺部 2b)とそれ以外の領域(立体 画像表示面 2の中央部 2a)とを仕切るように配置されている。従って、内壁 20cと外壁 20bの先端間に配置された透明板 110は、ユーザインタフェース領域に対応して設 けられている。なお、内壁 20cの表面は、反射を抑えた黒色に設定されている。
[0045] このように、ユーザインタフェース領域とそれ以外の領域とを仕切るように内壁 20c を設けたことにより、立体画像表示面 2の中央部 2aに表示する画像 (オブジェクト画 像等)を際だたせて見せることができるし、不要な反射や迷光を避けることもできる。 また、外壁 20bや内壁 20cを空間上の基準物として視認できるため、奥行き感が出て 、視認性が向上する。
[0046] また、実体物である透明板 110に指先を触れながら、ユーザインタフェース領域に 表示されるアイコン画像に指示を与えることができるから、操作する手を空中で保持 するような不安定感を抱かずに、容易に疲れずに操作でき、タツチパネルを操作する ような操作感が得られる。
[0047] また、上述の実施形態では、立体画像表示面 2 (結像面)の全体(中央部 2および 周辺部 2b)が同一平面になる場合を示したが、中央部 2aと周辺部 2bとに奥行き方向 の段差を持たせ、中央部 2aの画像と周辺部 2bの画像の画面内での浮き出し量に差 を付けることもできる。具体的には、立体画像表示面 2 (結像面)と表示部 1 (ディスプ レイ)との間の空間中に、空気中とは異なる屈折率の媒質を挿入することで、ユーザ インタフェース領域 (周辺部 2b)とそれ以外の領域(中央部 2a)の表示部 1からの距 離を異ならせるのである。すなわち、立体画像表示面 2と表示部 1との間に、ユーザィ ンタフ ース領域 (周辺部 2b)とそれ以外の領域(中央部 2a)の結像面の位置を異な らせるための結像位置変更手段を設けるのである。
[0048] 結像位置変更手段の機能を発揮する媒質としては、ガラス、榭脂、液体等を使用 することができる。この結像位置変更手段を、表示部 1と立体画像表示面 2の間の任 意の位置に配置することにより、結像位置変更手段を通過する光と通過しない光の 結像位置を異ならせることができるため、ユーザインタフェース領域とそれ以外の領 域の結像面に段差を持たせることができる。この場合、媒質の屈折率や厚みで段差 の量を変えることができる。
[0049] (第 4実施形態)
図 13 (a)、(b)は第 4実施形態の立体的二次元画像表示装置 M4a、 M4bの断面 図である。
これらの立体的二次元画像表示装置 M4a、 M4bは、第 1実施形態の立体的二次 元画像表示装置 M (図 2参照)の表示部 1と立体画像表示面 2との間に、結像位置変 更手段としての媒質 120を追加したものである。
[0050] (a)の立体的二次元画像表示装置 M4aは、結像位置変更手段としての媒質 120 を表示部 1と画像伝達パネル 3との間に配置した例、(b)の立体的二次元画像表示 装置 M4bは、結像位置変更手段としての媒質 120を画像表示パネル 3と立体画像 表示面 2との間に配置した例を示している。いずれの場合も、媒質 120を、ユーザィ ンタフェース領域である周辺部 2bに対応させて配置している。
[0051] このようにユーザインタフェース領域に対応させて結像位置変更手段である媒質 1 20を配置することにより、ユーザインタフェース領域とそれ以外の領域とに段差を持 つた画像を表示させることができる。段差を持った画像は、ユーザにとっては奥行き 方向の浮き出し量が違って見えるので、 3次元的な動き'操作を与えることもできるよ うになる。例えば、奥行き方向の動きを加えることにより、直感的な操作 (押したり引い たりするような操作)が可能となるし、操作バリエーションも広がる。よって、一層の立 体感が出せる上、視認性、面白さ、操作性も増す。 [0052] なお、奥行き方向の操作を行うためには、位置検出センサ 10を 3次元センサで構 成したり、 2次元センサを段差の面数分装備するなどして、奥行き方向の位置検出が 行えるようにすることが望ま 、。
[0053] 結像位置変更手段としては当然、レンズを使用することもできる。レンズとしては、厚 みが少なぐ大口径化しゃすいフレネルレンズを使うのが好ましい。
[0054] (第 5実施形態)
図 14 (a)、(b)は第 5実施形態の立体的二次元画像表示装置 M5a、 M5bの断面 図である。
これらの立体的二次元画像表示装置 M5a、 M5bは、第 1実施形態の立体的二次 元画像表示装置 M (図 2参照)の表示部 1と立体画像表示面 2との間、特に画像伝達 パネル 3上に、結像位置変更手段としてのフレネルレンズ 131、 132を追カロしたもの である。
[0055] (a)の立体的二次元画像表示装置 M5aでは、フレネルレンズ 131を、立体画像表 示面 2の中心部 2aに対応する位置のみに配置し、ユーザインタフェース領域である 周辺部 2bに対応する位置には配置していない。また、(b)の立体的二次元画像表示 装置 M5bでは、中心部をくり抜いたフレネルレンズ 132を画像伝達パネル 3上に配 置し、立体画像表示面 2の中心部 2aに対応する位置にはフレネルレンズ 132が存在 せず、ユーザインタフェース領域である周辺部 2bに対応する位置にのみフレネルレ ンズ 132を存在させている。
[0056] このようにユーザインタフェース領域とそれ以外の領域の一方に対応させてフレネ ルレンズを配置し、他方に対応させてフレネルレンズを配置しない、という構成を採用 したことにより、ユーザインタフェース領域とそれ以外の領域とに段差を持った画像を 表示させることができる。段差を持った画像は、ユーザにとっては奥行き方向の浮き 出し量が違って見える。したがって、 3次元的な動き'操作を与えることもできるように なり、例えば、奥行き方向の動きを加えることにより、直感的な操作 (押したり引いたり するような操作)が可能となるし、操作バリエーションも広がる。よって、一層の立体感 が出せる上、視認性、面白さ、操作性も増す。
[0057] (第 6実施形態) 図 15は第 6実施形態の立体的二次元画像表示装置 M6の断面図である。
この立体的二次元画像表示装置 M6は、第 1実施形態の立体的二次元画像表示 装置 M (図 2参照)の筐体 20の内部の画像伝達パネル 3の前側に外壁 20bと平行に 、立体画像表示面 2のユーザインタフェース領域 (周辺部 2b)とそれ以外の領域(中 央部 2a)とを区分する内壁 20cを設け、更に、内壁 20cと外壁 20bの間に、ユーザィ ンタフェース領域に対応させて媒質 120を配置したものである。なお、内壁 20cの表 面は、反射を抑えた黒色に設定されている。
[0058] この立体的二次元画像表示装置 M6では、筐体 20の内部に、ユーザインタフエ一 ス領域とそれ以外の領域とを区分する内壁 20cを設けたので、立体画像表示面 2の 中央部 2aに表示する画像 (オブジェクト画像等)を際だたせて見せることができるし、 不要な反射や迷光を避けることもできる。また、外壁 20bや内壁 20cを空間上の基準 物として視認できるため、奥行き感が出て、視認性が向上する。
[0059] また、ユーザインタフェース領域に対応する位置に結像位置変更手段である媒質 1 20を配置したので、ユーザインタフェース領域とそれ以外の領域とに段差を持った画 像を表示させることができる。段差を持った画像は、ユーザにとっては奥行き方向の 浮き出し量が違って見えるので、 3次元的な動き'操作を与えることもできるようになる 。例えば、奥行き方向の動きを加えることにより、直感的な操作 (押したり引いたりする ような操作)が可能となるし、操作バリエーションも広がる。よって、一層の立体感が出 せる上、視認性、面白さ、操作性も増す。
[0060] (第 7実施形態)
図 16は第 7実施形態の立体的二次元画像表示装置 M7の断面図である。 この立体的二次元画像表示装置 M7は、第 6実施形態の立体的二次元画像表示 装置 M6 (図 15参照)の外壁 20bと内壁 20cの先端間に透明板 110を配置したもの である。
[0061] この立体的二次元画像表示装置 M7では、第 6実施形態の効果に加えて、実体物 である透明板 110に指先を触れながら、ユーザインタフェース領域に表示されるアイ コン画像に指示を与えることができることから、操作する手を空中で保持するような不 安定感を抱かずに、容易に疲れずに操作でき、タツチパネルを操作するような操作 感が得られる。
[0062] 以下、段差付き画像の具体的な表示例について説明する。
図 17は、中心部 2aの画像が周辺部 2bの画像よりも手前に浮いて見えるようにした 立体的二次元画像表示装置における一表示例を示す図である。(a)は操作前の状 態、(b)は操作後の状態を示す。
[0063] (a)に示すように、操作前の画像としては、ユーザインタフェース領域 (周辺部 2b) のみに複数のオブジェクトの縮小版のアイコン画像 81〜86群(サムネイル)が表示さ れて 、る。このユーザインタフェース領域の中の例えば 1つのアイコン画像 81を指で 触れて、その指を中央部 2aに移動すると、その操作に応答して (b)の画像に切り替 わる。即ち、(b)の画像では、操作したアイコン画像 81の拡大像 81A力 中央部 2a の領域に表示される。この際、ユーザインタフェース領域である周辺部 2bの画像は 奥まった位置に見える力 中央部 2bの画像は手前の位置に見えるようになつている ので、いかにも段差を越えてオブジェクトが飛び出したように見え、ユーザの驚き感が 増す。
[0064] また、逆に中央部 2aに表示された拡大像 81Aを周辺部 2bに移動するような操作を ユーザが行うと、再び (a)の画像表示に戻る。全てのアイコン画像 81〜86について 同様の操作を行うことができ、段差表示がない場合に比べて、楽しみが増す。
[0065] 図 18は、中央部 2aの画像が周辺部 2bの画像よりも手前に段差を持って浮き上が つて見えるようにした場合の別の表示例を示す。ユーザインタフェース領域のアイコ ン画像 31〜44は、図 6の例と全く同じであるが、中央部 2aのオブジェクト画像力 ュ 一ザインタフエース領域のアイコン画像 31〜44より手前に見えることで驚き感が増す 。この場合の画像の切り替え操作は、図 6の例で示した場合と同様である。
[0066] 図 19は、中央部 2aの画像が周辺部 2bの画像よりも奥まって見えるようにした場合 の表示例を示している。ユーザインタフェース領域のアイコン画像 31〜44は、図 18 の例と全く同じであり、操作も同様である。
[0067] (第 8実施形態)
図 20は第 8実施形態の立体的二次元画像表示装置 M8の断面図である。 この立体的二次元画像表示装置 M8は、第 6実施形態の立体的二次元画像表示 装置 M6 (図 15参照)の内壁 20cを表示部 1と画像伝達パネル 3の間に配置したもの である。
[0068] 以上説明したように、本実施形態の立体的二次元画像表示装置 M1〜M8は、擬 似立体像を表示する結像面 2 (立体画像表示面)に対応づけて位置検出センサ 10を 配置し、外部力 の物理的な働きかけを受けた際の位置検出センサ 10からの出力信 号に応じて表示画像を変化させるようにしているので、例えば、ユーザが表示像に向 けて物理的な働きかけをする (具体的には、手や指を伸ばしたり動力したりする)こと により、ユーザの意図を反映した画像変化を生じさせることができる。つまり、位置検 出センサ 10によって、ユーザが表示画像に直接関与し得るユーザインタフェースが 構成されることになり、ユーザが能動的な立場で画像を変化させて楽しむことができ、 感興 (アミューズメント性)が増す。
[0069] 特に、本実施形態では、位置検出センサ 10が、結像面 2の表示部に対応する領域 の周縁部 2bをセンシングしており、この周辺部センシング領域をユーザインタフエ一 ス領域として構成しているので、ユーザは、結像面 2の周辺部 2bの近傍にある支持 体 (例えば筐体の一部等)に手をかけながら、ユーザインタフェース領域内の画像に 指示を与えることができる。従って、手の位置を固定した状態で、手ぶれせずに操作 の指示を与えることができるため、正確な操作が可能となると共に、ユーザの手が疲 れに《なり、長時間にわたる操作であっても、難なくこなすことが可能となる。
[0070] また本実施形態によれば、結像面 2に構成されたユーザインタフェース領域に透明 板 1110を配置したので、ユーザは透明板 110に手や指を触れながら操作の指示を 与えることができる。つまり、実体物である透明板に手の支えを取りながら、ユーザィ ンタフェース領域に表示される画像に指等で指示を与えることができる。従って例え ば、実体物である透明板 110に実際に指先が触れることで、タツチパネルを操作する ような操作感が得られるようになる。
[0071] また本実施形態によれば、ユーザインタフェース領域とそれ以外の領域を区切る壁 部 20cを備えたので、ユーザインタフェース領域とそれ以外の領域にそれぞれ表示 する画像の区分が明確になる。特に壁部の表面を黒色に設定することで、視覚的な 区別がよりやりやすくなるし、余計な光の影響を排除することができ、画像を際だたせ ることがでさる。
[0072] また本実施形態によれば、壁部 20cを、画像伝達パネル 3と結像面 2との間の空間 に設けて 、るので、一層ユーザインタフェース領域とそれ以外の領域との画像の区 別がやりやすくなる。
[0073] また本実施形態によれば、ユーザインタフェース領域とそれ以外の領域とで、表示 部 1からの距離を異ならせたので、両領域の画像間に奥行き方向の段差を付けること ができる。つまり、画面内での浮き出し量に差を付けることができる。従って、奥行き 方向の操作感をユーザに持たせることができ、感興 (アミューズメント性)が増す。
[0074] ユーザインタフェース領域とそれ以外の領域の画像間に段差を付ける方法としては 、表示部 1と結像面 2の間に結像距離可変部材を設ける方法があり、例えば、表示部 1と画像伝達パネル 3の間に結像距離可変部材 120, 131, 132を設けたり、画像伝 達パネル 3と結像面 2の間に結像距離可変部材 120, 131, 132を設けたりすること ができる。
[0075] また、結像距離可変部材としては、レンズを使用することができる。特に、フレネルレ ンズのように薄 ヽレンズの場合は、レンズを画像伝達パネル上に配置することもでき る。
[0076] また、ユーザインタフェース領域に表示される画像の近傍に支持体 101を配置し、 ユーザの体の一部を支持体 101で支持できるようにしたので、ユーザはこの支持体 1 01に手や指などを掛けながら、インターフェース領域に指等を安定的に差し込むこと ができ、確実に狙った操作の指示を与えることができる。また、ユーザの手が疲れにく くなり、長時間にわたる操作であっても、難なくこなすことが可能となる。また、支持体 自体が空間上の比較対象物としての役割を果たすことになるため、視覚的にユーザ の目の焦点を立体的二次元画像に一致しやすくなり、視認性の向上も期待できる。 本出願は、 2004年 9月 30日出願の日本特許出願 (特願 2004— 288662)、に基 づくものであり、その内容はここに参照として取り込まれる。
図面の簡単な説明
[0077] [図 1]本発明にかかる第 1実施形態の立体的二次元画像表示装置 Mの概略構成を 示す斜視図である。 [図 2]図 1の II II矢視断面図である。
[図 3]同立体的二次元画像表示装置 Μにおける表示部と画像伝達パネルと立体画 像表示面 (結像面)の関係を示す図である。
圆 4]立体画像表示面を正面から見た模式図である。
5]ユーザが指を用いてこの立体的二次元画像表示装置 Μを操作している状態を 示す図である
[図 6]立体的二次元画像表示装置 Μにおける表示例を示す図である。
[図 7]同別の表示例を示す図である。
[図 8]更に別の表示例を示す図である。
[図 9]更に別の表示例を示す図である。
[図 10]本発明にかかる第 2実施形態の立体的二次元画像表示装置 Μ2の概略構成 を示す斜視図である。
[図 11]図 10の Χ—Χ矢視断面図である。
[図 12]本発明にかかる第 1実施形態の立体的二次元画像表示装置 Μの概略構成を 示す断面図である。
[図 13] (a)、 (b)は本発明にかかる第 4実施形態の立体的二次元画像表示装置 M4a 、 M4bの概略構成を示す断面図である。
[図 14] (a)、 (b)は本発明にかかる第 5実施形態の立体的二次元画像表示装置 M5a 、 M5bの概略構成を示す断面図である。
[図 15]本発明にかかる第 6実施形態の立体的二次元画像表示装置 M6の概略構成 を示す断面図である。
[図 16]本発明にかかる第 7実施形態の立体的二次元画像表示装置 M7の概略構成 を示す断面図である。
[図 17]段差を付けた画像を表示する場合の表示例を示し、(a)は操作前、(b)は操作 後の状態を示す図である。
[図 18]段差を付けた画像を表示する場合の表示例を示し、中央部の画像が手前に 飛び出して見える例を示す図である。
[図 19]段差を付けた画像を表示する場合の表示例を示し、中央部の画像が奥に弓 Iつ 込んで見える例を示す図である。
[図 20]本発明にかかる第 8実施形態の立体的二次元画像表示装置 M8の概略構成 を示す断面図である。
符号の説明
1 表示部
1A 画像表示面
2 立体画像表示面 (結像面)
2a 中央部(ユーザインタフェース領域以外の領域)
2b 周辺部(ユーザインタフェース領域)
3 画像伝達パネル
6 立体画像表示部
10 位置検出センサ
15 制御部
20 筐体
20a 開口
20b 外壁
20c 内壁 (壁部)
101 支持枠
110 透明板
120 媒質 (結像距離可変部材)
131, 132 フレネルレンズ (結像距離可変部材)

Claims

請求の範囲
[1] 画像を表示する画像表示面を備えた表示部と、該画像表示面に離間配置された画 像伝達パネルとを有し、前記画像表示面から出射される光を前記画像伝達パネルの 前記表示部とは反対側に位置する空間中の結像面に結像して立体的二次元画像を 表示する立体画像表示部と、
前記空間中に挿入される被検出物の位置に応じた出力信号を出力する位置検出 センサと、
前記位置検出センサからの出力信号に応じて、前記結像面に表示される前記立体 的二次元画像が変化するように前記画像表示面に表示される画像を変化させる制 御部と、を備え、
前記結像面の周縁部にユーザインタフェース領域を構成していることを特徴とする立 体的二次元画像表示装置。
[2] 前記位置検出センサが、前記結像面の前記表示部に対応する領域の周縁部をセ ンシングしており、
前記立体画像表示部は、前記位置検出センサがセンシングして 、る領域に対応さ せて前記画像を表示することにより、前記結像面にユーザインタフェース領域を構成 して ヽること
[3] 前記結像面に構成された前記ユーザインタフェース領域に透明板を配置したことを 特徴とする請求項 1または 2に記載の立体的二次元画像表示装置。
[4] 前記ユーザインタフェース領域とそれ以外の領域を区切る壁部を備えたことを特徴 とする請求項 1〜3の何れか 1項に記載の立体的二次元画像表示装置。
[5] 前記壁部は、前記画像伝達パネルと前記結像面との間の空間に設けられて 、るこ とを特徴とする請求項 4に記載の立体的二次元画像表示装置。
[6] 前記壁部は、前記表示部と前記画像伝達パネルとの間の空間に設けられて 、るこ とを特徴とする請求項 4に記載の立体的二次元画像表示装置。
[7] 前記ユーザインタフェース領域とそれ以外の領域とでは、表示部からの距離が異な つていることを特徴とする請求項 1〜6の何れか 1項に記載の立体的二次元画像表示 装置。
[8] 前記表示部と前記結像面との間に、前記ユーザインタフェース領域と前記それ以 外の領域とで前記表示部力 の距離を異ならせる結像距離可変部材を設けたことを 特徴とする請求項 7に記載の立体的二次元画像表示装置。
[9] 前記結像距離可変部材は、前記表示部と前記画像伝達パネルの間に設けられて いることを特徴とする請求項 8に記載の立体的二次元画像表示装置。
[10] 前記結像距離可変部材は、前記画像伝達パネルと前記結像面の間に設けられて いることを特徴とする請求項 8に記載の立体的二次元画像表示装置。
[11] 前記結像距離可変部材は、レンズであることを特徴とする請求項 8〜10の何れか 1 項に記載の立体的二次元画像表示装置。
[12] 前記レンズは、前記画像伝達パネル上に配置されていることを特徴とする請求項 1
1に記載の立体的二次元画像表示装置。
[13] 前記ユーザインタフェース領域に対応して表示された前記立体的二次元画像の近 傍に配置され、ユーザの体の一部を支持する支持体を備えたことを特徴とする請求 項 1〜12の何れか 1項に記載の立体的二次元画像表示装置。
[14] 前記画像伝達パネル力 マイクロレンズアレイであることを特徴とする請求項 1〜13 の何れか 1項に記載の立体的二次元画像表示装置。
PCT/JP2005/017855 2004-09-30 2005-09-28 立体的二次元画像表示装置 Ceased WO2006035816A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006537773A JP4864713B2 (ja) 2004-09-30 2005-09-28 立体的二次元画像表示装置
US11/664,220 US7956819B2 (en) 2004-09-30 2005-09-28 Stereoscopic two-dimensional image display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-288662 2004-09-30
JP2004288662 2004-09-30

Publications (1)

Publication Number Publication Date
WO2006035816A1 true WO2006035816A1 (ja) 2006-04-06

Family

ID=36118962

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/017855 Ceased WO2006035816A1 (ja) 2004-09-30 2005-09-28 立体的二次元画像表示装置

Country Status (3)

Country Link
US (1) US7956819B2 (ja)
JP (1) JP4864713B2 (ja)
WO (1) WO2006035816A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008041312A1 (fr) * 2006-10-02 2008-04-10 Pioneer Corporation Dispositif d'affichage d'images
WO2008041313A1 (en) * 2006-10-02 2008-04-10 Pioneer Corporation Image display device
WO2008041315A1 (fr) * 2006-10-02 2008-04-10 Pioneer Corporation Dispositif d'affichage d'images
WO2008041314A1 (fr) * 2006-10-02 2008-04-10 Pioneer Corporation Dispositif d'affichage d'images
WO2009044437A1 (ja) * 2007-10-01 2009-04-09 Pioneer Corporation 画像表示装置
JP2009098249A (ja) * 2007-10-15 2009-05-07 Nanao Corp 立体画像表示装置
WO2012053032A1 (ja) * 2010-10-20 2012-04-26 三菱電機株式会社 3次元立体表示装置
WO2012053030A1 (ja) * 2010-10-19 2012-04-26 三菱電機株式会社 3次元立体表示装置
JP2017142279A (ja) * 2016-02-08 2017-08-17 三菱電機株式会社 空中映像表示装置
WO2018003859A1 (ja) * 2016-06-28 2018-01-04 株式会社ニコン 表示装置、プログラム、表示方法および制御装置
JP2019008030A (ja) * 2017-06-21 2019-01-17 日本精機株式会社 表示装置
JPWO2021131829A1 (ja) * 2019-12-27 2021-07-01
JP2021117479A (ja) * 2020-01-23 2021-08-10 株式会社ユピテル 表示装置等
JP2022146114A (ja) * 2021-03-22 2022-10-05 カシオ計算機株式会社 投影装置及び投影方法
JP7782266B2 (ja) 2019-12-27 2025-12-09 ソニーグループ株式会社 情報処理装置、情報処理システム、および部材

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10228112B2 (en) * 2011-11-15 2019-03-12 Tseng-Lu Chien LED and/or laser light device has more than one optic elements and wide flat opening or sphere outer cover to create big range image or lighted pattern
US10323811B2 (en) * 2013-09-11 2019-06-18 Tseng-Lu Chien LED light has more than one reflective means to project image
JP5563250B2 (ja) * 2009-06-30 2014-07-30 株式会社ジャパンディスプレイ 立体画像表示装置
KR101627214B1 (ko) * 2009-11-12 2016-06-03 엘지전자 주식회사 영상표시장치 및 그 동작방법
US8988507B2 (en) * 2009-11-19 2015-03-24 Sony Corporation User interface for autofocus
JP2011182075A (ja) 2010-02-26 2011-09-15 Hitachi Consumer Electronics Co Ltd 画像処理装置
KR101688153B1 (ko) * 2010-08-11 2016-12-20 엘지전자 주식회사 3차원 영상의 편집 방법 및 이를 이용하는 이동 단말기
KR101852428B1 (ko) * 2011-03-09 2018-04-26 엘지전자 주식회사 이동 단말기 및 그의 3d객체 제어방법
JP2012256110A (ja) * 2011-06-07 2012-12-27 Sony Corp 情報処理装置、情報処理方法およびプログラム
US20140002629A1 (en) * 2012-06-29 2014-01-02 Joshua J. Ratcliff Enhanced peripheral vision eyewear and methods using the same
JP6041604B2 (ja) * 2012-09-27 2016-12-14 京セラ株式会社 表示装置、制御システムおよび制御プログラム
EP2821884B1 (en) * 2013-07-01 2018-09-05 Airbus Operations GmbH Cabin management system having a three-dimensional operating panel
JP6303629B2 (ja) * 2014-03-10 2018-04-04 トヨタ自動車株式会社 車載表示装置
US9910518B2 (en) * 2014-10-01 2018-03-06 Rockwell Automation Technologies, Inc. Transparency augmented industrial automation display
TWI572906B (zh) * 2015-02-25 2017-03-01 台達電子工業股份有限公司 立體光場建立裝置
US10438399B2 (en) * 2017-02-10 2019-10-08 Sony Interactive Entertainment LLC Paired local and global user interfaces for an improved augmented reality experience

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03217925A (ja) * 1990-01-23 1991-09-25 Dainippon Printing Co Ltd ホログラム表示を用いた表示画面上情報入力装置
JPH08511365A (ja) * 1993-04-28 1996-11-26 マクフェターズ,アール.,ダグラス ホログラフィックなオペレータ・インタフェース
JPH0916312A (ja) * 1995-06-28 1997-01-17 Nomura Kogeisha:Kk 立体画像表示装置用入力装置
JPH09265376A (ja) * 1996-03-28 1997-10-07 Idec Izumi Corp 情報表示変換方法、ならびにこれを利用した情報表示操作装置および情報表示操作システム
JP2001255493A (ja) * 2000-03-10 2001-09-21 Pioneer Electronic Corp 立体的2次元画像表示装置及び画像表示方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3195249B2 (ja) 1996-08-20 2001-08-06 日本板硝子株式会社 画像浮上表示装置
JP4049977B2 (ja) 2000-09-01 2008-02-20 パイオニア株式会社 通信端末装置、および通信端末装置に用いられるレンズアダプタ
JP2003156712A (ja) 2001-11-22 2003-05-30 Pioneer Electronic Corp 画像表示装置
JP2003098479A (ja) 2002-07-30 2003-04-03 Pioneer Electronic Corp 画像表示装置
US7376903B2 (en) * 2004-06-29 2008-05-20 Ge Medical Systems Information Technologies 3D display system and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03217925A (ja) * 1990-01-23 1991-09-25 Dainippon Printing Co Ltd ホログラム表示を用いた表示画面上情報入力装置
JPH08511365A (ja) * 1993-04-28 1996-11-26 マクフェターズ,アール.,ダグラス ホログラフィックなオペレータ・インタフェース
JPH0916312A (ja) * 1995-06-28 1997-01-17 Nomura Kogeisha:Kk 立体画像表示装置用入力装置
JPH09265376A (ja) * 1996-03-28 1997-10-07 Idec Izumi Corp 情報表示変換方法、ならびにこれを利用した情報表示操作装置および情報表示操作システム
JP2001255493A (ja) * 2000-03-10 2001-09-21 Pioneer Electronic Corp 立体的2次元画像表示装置及び画像表示方法

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008041313A1 (en) * 2006-10-02 2008-04-10 Pioneer Corporation Image display device
WO2008041315A1 (fr) * 2006-10-02 2008-04-10 Pioneer Corporation Dispositif d'affichage d'images
WO2008041314A1 (fr) * 2006-10-02 2008-04-10 Pioneer Corporation Dispositif d'affichage d'images
JPWO2008041312A1 (ja) * 2006-10-02 2010-02-04 パイオニア株式会社 画像表示装置
JPWO2008041314A1 (ja) * 2006-10-02 2010-02-04 パイオニア株式会社 画像表示装置
JPWO2008041315A1 (ja) * 2006-10-02 2010-02-04 パイオニア株式会社 画像表示装置
JP4880693B2 (ja) * 2006-10-02 2012-02-22 パイオニア株式会社 画像表示装置
WO2008041312A1 (fr) * 2006-10-02 2008-04-10 Pioneer Corporation Dispositif d'affichage d'images
JP5087632B2 (ja) * 2007-10-01 2012-12-05 パイオニア株式会社 画像表示装置
WO2009044437A1 (ja) * 2007-10-01 2009-04-09 Pioneer Corporation 画像表示装置
US8416268B2 (en) 2007-10-01 2013-04-09 Pioneer Corporation Image display device
JP2009098249A (ja) * 2007-10-15 2009-05-07 Nanao Corp 立体画像表示装置
US9179133B2 (en) 2010-10-19 2015-11-03 Mitsubishi Electric Corporation 3Dimension stereoscopic display device
JP5709886B2 (ja) * 2010-10-19 2015-04-30 三菱電機株式会社 3次元立体表示装置および3次元立体表示信号生成装置
WO2012053030A1 (ja) * 2010-10-19 2012-04-26 三菱電機株式会社 3次元立体表示装置
US9083962B2 (en) 2010-10-20 2015-07-14 Mitsubishi Electric Corporation 3Dimension stereoscopic display device
WO2012053032A1 (ja) * 2010-10-20 2012-04-26 三菱電機株式会社 3次元立体表示装置
US10209674B2 (en) 2016-02-08 2019-02-19 Mitsubishi Electric Corporation Floating image display device
JP2017142279A (ja) * 2016-02-08 2017-08-17 三菱電機株式会社 空中映像表示装置
US10747395B2 (en) 2016-06-28 2020-08-18 Nikon Corporation Display device, program, display method and control device
CN109643208A (zh) * 2016-06-28 2019-04-16 株式会社尼康 显示装置、程序、显示方法及控制装置
JPWO2018003859A1 (ja) * 2016-06-28 2019-05-16 株式会社ニコン 表示装置、プログラム、表示方法および制御装置
WO2018003859A1 (ja) * 2016-06-28 2018-01-04 株式会社ニコン 表示装置、プログラム、表示方法および制御装置
JP2019008030A (ja) * 2017-06-21 2019-01-17 日本精機株式会社 表示装置
JP7782266B2 (ja) 2019-12-27 2025-12-09 ソニーグループ株式会社 情報処理装置、情報処理システム、および部材
JPWO2021131829A1 (ja) * 2019-12-27 2021-07-01
WO2021131829A1 (ja) * 2019-12-27 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理システム、および部材
JP2021117479A (ja) * 2020-01-23 2021-08-10 株式会社ユピテル 表示装置等
JP2024032778A (ja) * 2020-01-23 2024-03-12 株式会社ユピテル 表示装置等
JP7475027B2 (ja) 2020-01-23 2024-04-26 株式会社ユピテル 表示装置等
JP7689765B2 (ja) 2020-01-23 2025-06-09 株式会社ユピテル 表示装置等
JP7279728B2 (ja) 2021-03-22 2023-05-23 カシオ計算機株式会社 投影装置及び投影方法
JP2022146114A (ja) * 2021-03-22 2022-10-05 カシオ計算機株式会社 投影装置及び投影方法

Also Published As

Publication number Publication date
US7956819B2 (en) 2011-06-07
US20080030428A1 (en) 2008-02-07
JPWO2006035816A1 (ja) 2008-05-15
JP4864713B2 (ja) 2012-02-01

Similar Documents

Publication Publication Date Title
WO2006035816A1 (ja) 立体的二次元画像表示装置
JP2005141102A (ja) 立体的二次元画像表示装置及び方法
JP4058406B2 (ja) 手で持つコンピュータ化携帯型装置
KR101298848B1 (ko) 표시 장치, 영상 표시 시스템, 및 영상 표시 방법
WO2018003860A1 (ja) 表示装置、プログラム、表示方法および制御装置
WO2018003861A1 (ja) 表示装置および制御装置
CN106953950A (zh) 具有侧壁显示器的电子设备
US20090102805A1 (en) Three-dimensional object simulation using audio, visual, and tactile feedback
CN105144035A (zh) 利用触觉单元阵列模拟有形用户界面交互和手势
CN107077199B (zh) 用于在三维显示器上呈现虚拟对象的装置及用于控制装置的方法
TW201235892A (en) Optically transmissive key assemblies for display-capable keyboards, keypads, or other user input devices
US20100007636A1 (en) Image display device
JP2004280496A (ja) 操作パネル装置
JP2006293878A (ja) 画像表示システムおよび画像表示方法、ならびに画像表示プログラム
JP2001282433A (ja) 表示入力装置
WO2012089576A1 (en) System and device with three-dimensional image display
EP3918446B1 (fr) Procédé de génération d'un retour sensitif pour une interface et interface associée
CN102498456A (zh) 具有光学传感器的显示器
JP2013084096A (ja) 情報処理装置
KR102218967B1 (ko) 3차원 공간터치 디스플레이 시스템 및 그 제어방법
WO2006038509A1 (ja) 立体的二次元画像表示装置
TWI872805B (zh) 互動式控制裝置
WO2018122674A1 (en) Multi-layer display including proximity sensor and depth-changing interface elements, and/or associated methods
US20100007602A1 (en) Image display device
JP2013073412A (ja) ポインタ映出用投影像信号を生成するユーザインタフェース装置、画像投影方法及びプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006537773

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 11664220

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 05788012

Country of ref document: EP

Kind code of ref document: A1

WWP Wipo information: published in national office

Ref document number: 11664220

Country of ref document: US