[go: up one dir, main page]

WO2017153355A1 - Verfahren und vorrichtung zum durchführen einer blickabbildung - Google Patents

Verfahren und vorrichtung zum durchführen einer blickabbildung Download PDF

Info

Publication number
WO2017153355A1
WO2017153355A1 PCT/EP2017/055220 EP2017055220W WO2017153355A1 WO 2017153355 A1 WO2017153355 A1 WO 2017153355A1 EP 2017055220 W EP2017055220 W EP 2017055220W WO 2017153355 A1 WO2017153355 A1 WO 2017153355A1
Authority
WO
WIPO (PCT)
Prior art keywords
scene
algorithm
gaze
data
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/EP2017/055220
Other languages
English (en)
French (fr)
Inventor
Eberhard Schmidt
Martin Haller
Denis Williams
Tobias LANGNER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH
Original Assignee
SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH filed Critical SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH
Priority to US16/080,386 priority Critical patent/US11579686B2/en
Publication of WO2017153355A1 publication Critical patent/WO2017153355A1/de
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0261Targeted advertisements based on user location
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Definitions

  • the invention relates to a method for performing a gaze imaging, in which at least one gaze point and / or gaze direction of at least one person with respect to at least one scene shot is mapped from a scene viewed by the at least one person to a reference. Furthermore, the invention also includes an apparatus for performing a gaze imaging. Such gaze images, which are also called gaze imaging or viewpoint imaging, are used in many areas. Such an area of application is, for example, consumer research or the carrying out of studies. For this purpose, eye trackers, such as, for example, head-worn eye trackers can be used, which detect the viewing directions of a test person, while this test person sees a particular scene, for example their real one Environment or an ad on a screen, considered.
  • Such a head-mounted device can furthermore be fitted with a scene camera, which in the meantime takes pictures of the environment of the subject covering at least a large part of the current field of vision of such a subject.
  • the gaze data determined by the eye tracker can be related to such a scene taken at that time, and from this determine where the subject has looked at their surroundings at that time.
  • One of the- This procedure can then be carried out for an entire scene video, so that each individual scene recording of this scene video contains a corresponding viewpoint or a viewing direction of the subject. This helps determine where, how long, or how often a subject has looked at specific objects in their environment during this experiment or study.
  • test results For example, based on such test results, it can be determined which products in a supermarket shelf attract more attention, and which less, which advertisements attract more attention from test subjects and which less, etc.
  • Such experiments will not be done only with a single subject but with a variety of different subjects, for example, different age groups, sexes, etc., in order to obtain statistically meaningful results from the results.
  • the same experiment can be performed multiple times with the same subject to detect a time change, learning behavior, or progress.
  • the gaze images are used. This makes it possible, for example, to map all of the viewpoints contained in a scene video to a single common reference, such as a reference image. For example, if a subject observes a particular shelf with different products from different perspectives during the experiment, a record of that shelf may be provided for reference, for example. All viewpoints recorded in relation to the scene video of this shelf can then be imaged onto this single reference shot with the shelf. This gives a much better impression of which objects on the shelf were viewed more frequently or less frequently.
  • Such a view image can also be carried out across test persons, so that the gaze results of all test persons are mapped to a common reference.
  • Certain algorithms may be used to automatically perform such gaze images.
  • Such an algorithm references, for example, the scene recording with the reference recording and determines therefrom, for example, a transformation that the scene shot, which was taken for example by a scene from a specific or even variable perspective, to the reference, which also from this scene, but from a another angle is recorded. Subsequently, this determined transformation is applied to the viewpoint determined in relation to the scene shot, which provides the corresponding imaged focus with respect to the reference.
  • Such views can also be executed differently depending on the application.
  • such an algorithm may detect and / or classify an object on which a viewpoint is located in a scene shot and the correspondingly identified object of the reference.
  • the object of the present invention is therefore to provide a method and a device for performing a gaze imaging, by means of which improved results can be achieved in the most comfortable manner possible.
  • this consideration can be carried out by the at least one parameter, which can advantageously be used to specify different situations, conditions or circumstances in connection with the gaze imaging.
  • the selection of the at least one part of the algorithm can advantageously be carried out automatically from a plurality of different algorithms, so that a particularly high ease of operation is provided for a user or user who wishes to carry out such a view image.
  • a user need not have any expertise with regard to various algorithms and their advantages and disadvantages with regard to particular situations.
  • the algorithm selection can thus be carried out by a device which thus also ultimately improves the results of such a look through the improved adaptation possibilities to a wide variety of situations.
  • An algorithm such as the at least one part of the algorithm or the predetermined algorithms, is generally to be understood as an action instruction or implementing rule for carrying out at least one sub-step of the visualization.
  • the implementing rule can therefore refer to one or more sub-steps of the gaze mapping.
  • an algorithm parameterized with at least one second parameter can also be understood, it being possible to determine the at least one second parameter to different values, and resulting in different implementing rules.
  • Such implementing regulations may continue to differ in their nature, that is, describe different sub-steps, as well as in the temporal sequence of the same sub-steps.
  • the selection of the at least one part of the algorithm can then also be understood correspondingly to the definition of the at least one second parameter to a specific value.
  • the selection of the at least one part of the algorithm as a function of the (first) parameter can be carried out according to a predetermined rule, for example a look-up table or a predetermined assignment, which assigns one of the several predetermined algorithms to a parameter value of the at least one parameter , in particular also defines a parameter value of the at least one second parameter of a parameterized algorithm, or in the case of several (first) parameters, assigns to a parameter value combination the parameter one of the predetermined algorithms, in particular also defines a parameter value of the at least one second parameter of a parameterized algorithm.
  • a predetermined rule for example a look-up table or a predetermined assignment, which assigns one of the several predetermined algorithms to a parameter value of the at least one parameter , in particular also defines a parameter value of the at least one second parameter of a parameterized algorithm, or in the case of several (first) parameters, assigns to a parameter value combination the parameter one of the predetermined algorithms, in particular also defines a parameter value of the at least one second parameter of
  • the resulting gaze images differ in at least a sub-step and / or in a time sequence of sub-steps.
  • the scene viewed by the person may represent a real environment of the person, or even a virtual environment that is viewed with, for example, a VR (Virtual Reality) goggle, or an image displayed on a display device, or even a superposition of the real environment with virtual / digital image content, such as when viewing the scenes with an augmented reality (AR) goggle.
  • a VR Virtual Reality
  • AR augmented reality
  • the at least one scene recording can accordingly relate to a recording of the scenes described above, and represent, for example, a camera recording of the person's surroundings or else the one display on a screen at a specific time, as a sort of screenshot. len.
  • the at least one scene recording can be a recording of a scene by means of one or more image sensors, a stereoscopic image sensor with possibly associated images depth data, a matrix of image sensors, at least one camera and other data from one or more sensors, a 3D scene detection, in the a 3D scene is described as a composition of objects and possibly scene background structure, and / or the detection of a fixed or time-varying stimulus (such as recording screen content) represent.
  • Data from a scene recording can also be related temporally.
  • Viewing directions and / or gaze endpoints or viewpoints may be present as part of the eye tracking data in terms of time and / or location relative to the scene recording, for example as a viewpoint (POR) on a scene image and / or a gaze endpoint or a Viewing direction in a 3D scene.
  • This gaze data can be captured and provided by a mobile eye tracker, which is portable on the head, for example, or else by a remote eye tracker, which is not carried by the head, but attached, for example, to a display device, such as a monitor. This is particularly advantageous when the scene recording is a display shown on the display device, so that the user's gaze with respect to the display can be detected particularly easily by the remote eye tracker.
  • the scene shot no longer shows the user's direct field of view (which changes with head movements), but directly the presented stimulus, which in turn is an image, video, stereoscopic video, rendered 3D scene with objects, or as a composition in the AR case. can represent.
  • the reference can also be in many different forms.
  • the reference may be a local representation / representation, such as an image or a static 3D scene, a local-temporal representation / representation, such as a video or dynamic 3D scene, or content / semantic representation / Representation, such as recorded as a data structure categories / classes of objects, or such as a visual or as a three-dimensional representation of certain or prototypical objects.
  • the reference has a content match, temporally and / or locally, with at least a portion of the scene.
  • Such a reference may also have been taken from a scene recording or one of the scene recordings.
  • a reference can also be a local, temporal or spatio-temporal section of a scene recording.
  • a reference may have been made in its respective form (as listed above for scene recording) by external means, therefore independently of an eye tracker.
  • the gaze image can be determined per discrete time step of a scene recording (for example picture by picture of a picture sequence) or for a time interval.
  • the time interval may, for example, correspond to a gaze event, such as a fixation.
  • input data are provided which comprise data concerning the at least one scene recording, data relating to the particular viewpoint and / or the particular viewing direction and data concerning the reference, the at least one part of the algorithm being dependent on an analysis at least part of the input data is selected as the at least one parameter.
  • This advantageous embodiment of the invention is based on the recognition that precisely these input data contain a multitude of information which are suitable for characterizing certain conditions, situations or conditions, and accordingly to select an algorithm optimized for these conditions. For example, based on these input data, information can be obtained about the types of scene recording, the reference and the gaze data listed above, which can thus advantageously be used for algorithm selection. While for the view picture all of the mentioned input data, the analysis can also refer to only a part of the input data, for example only to the image data of the scene recordings or the reference or only to some of the scene recordings or the view data in the form of a random analysis.
  • data relating to a plurality of scene recordings, each with at least one associated viewpoint and / or an associated view direction are provided as part of the input data.
  • the analysis of the input data can advantageously relate not only to a single scene recording but also to several scene recordings, for example as part of a scene video, which not only provides more possibilities through the multiple scene recordings to obtain information about specific circumstances or situations
  • a suitable adaptation can be provided by the choice of a suitable algorithm, but the scene recordings also make it possible, by means of comparisons with one another, to provide additional information, which can advantageously be used to select a suitable algorithm. Examples of this will be explained in more detail below.
  • the viewpoints and / or viewing directions respectively assigned to the scene exposures do not necessarily relate to the same person. It is also possible to provide scene recordings, each with associated viewpoints and / or viewing directions, from different persons.
  • the scene contains moving and / or changing objects, which objects of the scene represent the moving and / or changing objects;
  • the information about whether a scene represents a static scene or contains a moving scene or moving or changing objects is relevant in this regard, as algorithms that are for example not designed to recognize such changing objects or in the referencing of Scene recording and a reference shot, in such a case, also lead to poor results in terms of eye tracking. If, for example, it is found during the analysis that the scene represents a static scene and contains no moving or changing objects, then for example a simple and fast algorithm for the gaze imaging can be selected, while for the other case an algorithm can be selected which also takes into account moving objects in view imaging and accordingly leads in such a situation to better and more reliable results with regard to the gaze image.
  • the scene contains moving and / or changing objects, which objects of the scene represent the moving and / or changing objects.
  • Such information can be easily determined from the data concerning the scene recordings.
  • a scene has a non-changing, static background, which is not relevant in particular for the experiment in question, then this background can be neglected in view imaging, for example in the referencing between scene recording and reference, which is a clear one Saves time as the background image data does not need to be analyzed and mapped or examined.
  • the background does not change, then it can also be clearly identified as such in respective scene recordings, for example by means of its color. If, for example, the background represents a white wall, it can be identified particularly easily in a respective scene recording and can be neglected in the further processing of the scene recordings for performing the gaze imaging.
  • viewpoints on such a non-relevant background need not even be taken into account and also not displayed, which overall makes it possible to significantly increase the efficiency of eye tracking.
  • a very simple algorithm can again be selected, for example, in the event that the background does not change spatially or temporally, an identification of this with very simple image processing means is possible.
  • the background changes spatially or temporally, correspondingly more complex algorithms can be used, which are designed to identify the latter as such, even in the case of a spatial or temporal change of the background.
  • the scene shots taken from different perspectives can be used to determine which objects are in the foreground and which are in the foreground or which are in the background.
  • the parallax of objects with respect to the background can be used.
  • the information as to whether or not the background changes spatially and / or temporally also constitutes a suitable parameter for selecting at least the part of the algorithm, in order to ultimately significantly improve the performance of the gaze imaging and its results.
  • the scene comprises one or more objects that are classified as being more relevant than other objects of the scene or not.
  • the algorithms can be used, which work selectively, and for example, not even reflect viewpoints on non-relevant objects.
  • viewpoint imaging Whether such relevant or non-relevant objects are present in the scene can be determined, for example, by analyzing the viewpoint data or view direction data with reference to the scene recordings. Objects in the scene that are considered particularly frequently can therefore be classified as particularly relevant, while objects that are not considered at all, for example, can be classified as irrelevant.
  • object detection and object classification methods can be used.
  • the type of objects or their classification can thus advantageously be used to select the at least one part of the algorithm and thus to provide an optimal situation adaptation which significantly improves the result of the final gaze imaging.
  • Another parameter for selecting the at least part of the algorithm may, for example, also represent the height of the image quality of the scene recordings and / or the reference. If, for example, scenes are blurred, for example due to movement of the scene camera too quickly, or if scene recordings have poor image quality for other reasons, more robust algorithms can be used which are based, for example, on more complex image analysis methods in order to obtain the best possible results to provide the view picture also for such bad picture qualities. The same applies to the case when the reference is a reference shot, which can then also have a poor image quality. For example, if scene recordings or the reference have a very high and good image quality, less robust and faster algorithms can be selected for the view image.
  • the reference can not only be an image capture, but can take many different forms, as already mentioned.
  • a reference or a reference image can also represent a so-called symbol image.
  • certain objects are shown symbolically or schematically.
  • a symbol image a symbolic or sketchy or schematic bottle may be displayed, and it shall now be determined whether or how often a person looks at bottles present in the scene.
  • a point of view regarding such a scene shot lying on a bottle may be assigned as a reference corresponding to the icon image of the bottle.
  • registration methods that can register different recordings from different perspectives are unsuitable, since the reference is now a symbol image.
  • a reference does not necessarily have to be an image, a reference can also represent an object list which comprises different object classes.
  • Corresponding algorithms can be used, which analyze scene recordings as to whether there are objects in these objects that can be classified as the objects specified according to the reference, and correspondingly associate viewpoints on such classified objects with the corresponding object classes of the reference. Also, as described, there are various types of scene shooting.
  • Such a scene recording can be an image taken with a camera, but it can also, for example, display the display on a screen, so to speak as a kind of screenshot; it can represent the taking of a virtual representation, for example by means of virtual reality glasses.
  • Taking a picture, in particular in connection with a computer-generated scene or digital picture content, for example from a computer-generated, virtual scene is not necessarily a recording by means of a camera or the capture or storage of a currently displayed 2D or 3D picture of the scene to but also, for example, the recording of the scene data of the entire computer-generated scene, for example by storing or providing the scene data of the computer-generated scene, together with the definition of a virtual viewpoint that defines the perspective of the person on the currently displayed virtual scene.
  • a 3D pose of the person can be detected and / or the viewing direction, depending on which of these parameters causes a change in perspective on the scene.
  • moving the head allows a person to look around the virtual scene, changing the gaze, and thus the perspective on the scene.
  • Such head movements can also be detected accordingly, in particular together with the corresponding viewing direction of the person at this time, so that these data define the virtual perspective on the virtual scene. This too can be understood by a scene shot.
  • the reference which may also include VR or AR image content, representing a scene of a computer-generated graphic, or the display on a screen.
  • the reference can be provided as a single reference recording or as a reference video.
  • advantageously suitable algorithms for performing the gaze imaging can now also be selected. It is also advantageous to choose the at least one part of the algorithm depending on whether in view visualization a viewpoint or several viewpoints are to be mapped onto the reference, or whether viewing directions are to be imaged. Another advantageous criterion for the selection of the at least one part of the algorithm is also the dimension of the scene recordings and / or the reference and / or the viewpoints and / or the viewing directions.
  • scene recordings, reference, objects in scene recordings and / or reference, viewpoints and / or viewing directions are generally two-dimensional or three-dimensional.
  • the extent of a content match between the reference and the scene can also be used as a parameter for selecting the at least part of the algorithm.
  • the reference may represent a scene shot of the multiple scene shots. Is recorded at the scene during the scene shooting If nothing is changed, at least the parts of the scene recording that comprise the reference recording are completely identical in content.
  • a reference is first provided, for example in the form of a schematic drawing or sketch, or else in the form of a computer-aided design, which is then to be recreated or simulated as real scenes.
  • the type of data relating to the scene recordings and / or the reference and / or the viewpoints and / or viewing directions is determined in the analysis of the input data, in particular with regard to data type, data structure, data format and / or file format in order to determine the type and / or dimension of the scene recordings and / or the reference and / or the viewpoints and / or viewing directions.
  • the scene recording is for example the recording of a camera image or a computer-generated graphic or similar
  • whether the scene recording is two-dimensional or three-dimensional, if viewpoints are present as two-dimensional points or 3-dimensional points, if focal point data reproduce viewpoints or viewing directions what kind or dimension of the reference is concerned, etc.
  • one or more of the scene recordings and / or the reference analyzed with regard to their image quality and / or image content.
  • image analysis methods By analyzing the scene recordings and / or the reference, in particular their image data, many of the above-mentioned advantageous information that can be used for algorithm selection can be automatically obtained. This can be done in a particularly simple way by image analysis methods.
  • image recordings or in general images with regard to their brightness values, colors, disparity, depth values, contrasts, contrast gradients, contrast gradients, brightness gradients, brightness gradients, color gradients, color gradients, texture properties, disparity gradients, disparity gradient, depth gradients, depth gradients, saturation, saturation characteristics, noise components, which can be determined by frequency analysis, etc. are analyzed.
  • recognized (ie not necessarily classified) objects can be compared in their positions to each other, for example, over several recordings, for example, to determine whether objects spatially and / or temporally change, move, or the like , According to such analyzes, objects can also be classified.
  • the analysis of the scene recordings is started in a predetermined and / or random order, and if the above-mentioned information has been determined with sufficient reliability, for example according to a certain criterion, the analysis of the input data can be ended.
  • the scene recordings can be divided into groups with regard to the above-mentioned aspects, and accordingly a suitable algorithm for performing the gaze imaging can be used for each of these groups. For example, some scenes may not have moving objects while others do. Also, some of the scenes may have a static and / or homogeneous background, while other scenes may not.
  • the picture quality of scene shooting from scene shooting to scene shooting may be different. In the same way, this also applies to the reference.
  • This advantageously makes it possible to selectively select algorithms for a respective scene recording or scene group, which in turn allows a significantly better situation adaptation, better results and overall great time savings to be achieved.
  • a classification of scene recordings into a group can not only take place with regard to the above-mentioned aspects, but alternatively or additionally also with regard to temporal criteria. Therefore, it is a further advantageous embodiment of the invention if a respective scene recording is assigned to one of a plurality of time interval groups, wherein the selection of the at least part of the algorithm for performing the gaze imaging is performed separately depending on the at least one parameter for a respective time interval group.
  • the time interval groups represent different viewing event time intervals, in particular with regard to fixations, and / or analysis time intervals, and / or recording time intervals, and / or experiment time intervals and / or study time intervals.
  • a study usually comprises one or more experiments
  • an experiment may comprise one or more recordings
  • a recording may comprise one or more analysis time intervals
  • an analysis time interval may in turn comprise one or more viewing events.
  • a gaze event represents, for example, a fixation.
  • the eye remains at a certain point for a longer, in particular characteristic, period of time.
  • Such a fixation can also be in the form of a moving fixation, in which the eye, for example following a moving object.
  • the movement of the eye during such a moving fixation is usually carried out continuously.
  • Another eye-catching event for example, is a so-called saccade.
  • the eye jumps from one fixation to the next.
  • the eye is not receptive during this period of time or the visual information recorded by the eye is not forwarded or further processed by the brain.
  • gaze data pertaining to such a saccade is not relevant because a person is not actively looking at an object in the environment or the scene during such a saccade.
  • a saccade usually follows a ballistic movement.
  • Such gaze events can be identified on the basis of the named characteristics, that is to say characteristic time durations and movement progressions, which can be detected by means of the eye tracker.
  • This embodiment of the invention makes it possible, for example, to separately select the at least one part of the algorithm for the gaze imaging of viewpoints or viewing directions associated with a single fixation, and for further gaze events, ie further fixations, again the at least one part of the algorithm new or separately, etc. This, too, allows a particularly differentiated situation adaptation.
  • another time interval group can also represent an analysis time interval.
  • a scene video for example, in relevant and non-relevant time periods, the analysis time intervals are divided.
  • An analysis time interval accordingly represents a time interval in which the scene video has, for example, relevant image contents to be analyzed.
  • the algorithm selection can also be performed separately for a respective such analysis time interval.
  • the scene may also change from analysis time interval to analysis time interval, so that a separate algorithm selection with regard to a respective such time interval is again particularly advantageous and allows an optimal situation adaptation with optimal results.
  • a recording time interval represents, for example, a time interval which relates to the entire video recording of a scene video.
  • An experiment may include several such recordings made, for example, for different persons or performed on different days.
  • a separate algorithm selection can also be carried out for a respective such recording. The same applies in turn to the individual experiments of a study, as for different studies themselves.
  • the determination of such time intervals can also be determined on the basis of an analysis of the input data.
  • the gaze event time intervals can be determined.
  • Analysis of the content of the scene recordings allows analysis time intervals to be determined.
  • the beginning and end of a scene video determines a recording time interval.
  • the remaining time intervals can be obtained from metadata that defines, for example, which scenes videos belong to an experiment and which experiments to study.
  • the time intervals can additionally or alternatively also be set manually by a user.
  • Metadata associated with at least a portion of the input data is provided, wherein the at least one portion of the algorithm is selected as the at least one parameter depending on at least a portion of the metadata.
  • additional information corresponding to the individual input data can be provided.
  • metadata may relate to the at least one scene recording and / or to the reference and / or the viewpoints and / or viewing directions and / or the scene itself or (known) objects of the scene.
  • Such information may be, for example, a time stamp, or date, time, location of the recording, technical data for scene recording or eye tracking, such as sampling frequency, frame rate, or the like.
  • meta-information may also be remarks about scene recordings, total recordings, individual viewpoint data, or the like, added manually by, for example, a user.
  • Such meta-information can accordingly also be information about relevant objects in the scene recordings, information on occlusions of relevant objects, object properties such as weight, material, value / price, rarity, reflectance, opacity, or the like.
  • Metadata can also be in the form of a tagging.
  • scene recordings may include a title, for example, "shelf study” or "person study,” so depending on this, a suitable algorithm or at least part of it may be selected for gaze imaging.
  • a human interaction algorithm may be chosen that is particularly suitable for face recognition, eye detection, gestures, or the like.
  • Such further information provided by metadata which goes beyond the pure image data of the scene recordings and the reference and the pure gaze data, can also be advantageously used to further optimize the algorithm selection.
  • meta-information or metadata may for example specify the time intervals described above.
  • At least one user input is detected and the at least one part of the algorithm selected as a function of the detected user input as the at least one parameter.
  • additional information can also be provided by the user himself of the device in order to further optimize the algorithm selection.
  • the possibility is provided here by the user to make further details, for example, about the experiment or the study, the scene, relevant objects, or the like.
  • the field of application or a task or objectives can be specified. For example, for some attempts, it may only be relevant to determine whether or not a user is looking at a particular object, or which of a plurality of objects a user is looking at, and it does not matter where exactly the user is looking at that object.
  • the device may already make a pre-selection with respect to the predetermined algorithms provided by pre-analysis or by analysis of the input data with regard to at least one of the above-mentioned aspects, and algorithms for the use of the algorithms determined, for example, on the basis of the information obtained automatically by the device Exclude viewpoint mapping and in turn consider others.
  • these selected and considered algorithms may be provided to a user for selection so that he no longer has to choose from all possible algorithms but only a small number.
  • prompts may be issued to the user to make more detailed specifications of the situation, the input data, the application or the like.
  • the algorithm selection can thus automatically or gradually lead a user with suggestions.
  • the input data are first analyzed for the aspects described above, and if, for example, it should be found that the analysis has led to no or no sufficiently reliable result with regard to some of these aspects, then the Device output a corresponding question to the user, such as whether the scene contains moving objects or whether the moving objects in the scene represent relevant objects.
  • the user can make certain prescriptions or set criteria for the gaze imaging, as will be described in more detail below.
  • At least one of a plurality of steps required to perform the gaze mapping is performed on the basis of at least a first of the predetermined algorithms, and a result of the execution provided, depending on which of the at least one part of the algorithm as the at least one parameter is selected.
  • This advantageously also makes it possible to use the results of previously performed steps of gaze imaging or certain intermediate results in order to select the at least part of the algorithm.
  • certain sub-steps of gaze imaging can be performed, and the result in terms of its quality or goodness. If such sub-steps lead to poor results, then a new part of the algorithm can be selected and this step can be performed or repeated with the newly selected algorithm.
  • results and partial results of previously or parallel executed algorithms can be used to finally select the at least part of the algorithm.
  • analysis steps for the analysis of the input data can already be part of the view image itself.
  • results of the analysis of the input data such as the analysis of the scene recordings, in terms of content or in terms of their picture quality, can then be used accordingly, for example to select the part of the algorithm which is used for the imaging of the viewpoint a scene recording on the reference is responsible, in particular based on the results already obtained from the analysis.
  • results obtained in the analysis of the input data can be used above detected and / or classified objects in the scene recordings or the reference for the gaze imaging, so that no separate image analysis has to be performed for the gaze imaging or it can at least be performed in a reduced manner.
  • the algorithm selection can be done in the form of a kind of control loop.
  • the gaze imaging may be performed for some of the scene recordings according to an initially selected algorithm, checking whether the result meets predetermined requirements, and if not, a new selection of the algorithm may be made.
  • Such conditions may be, for example, conditions on the quality or reliability of the final result or on intermediate results, conditions on the time that is ultimately required for the ghost images, or the like.
  • the time required can, for example, by simple time measurement, for example for individual steps, determined and extrapolated or estimated for the entire gaze imaging process or provided on the basis of empirical values for the time required for individual algorithms.
  • the quality of gaze imaging for example, according to quality assessments on the basis of one or more quality measures or grades, such as the parallel application of the same applicant entitled "method and apparatus for assessing gazes", filed on the same filing date done.
  • At least one boundary condition relating to expenditure, in particular expenditure of time, and / or quality of a result of performing the gaze imaging can be predetermined by a user, and the at least one part of the algorithm for performing gaze imaging becomes dependent chosen from the constraint as the at least one parameter.
  • user preferences with regard to the quality to be achieved or the time required for choosing the at least one part of the algorithm can advantageously also be taken into account.
  • the user may set priorities here and, for example, pretend that the maximum quality is to be achieved irrespective of the amount of time spent.
  • the user may select from two or more levels of these criteria, such as time, effort, and / or quality, low, medium, or high quality.
  • a reselection concerning the at least part of the algorithm for repeatedly performing gaze mapping based on the at least one newly selected Part of the algorithm is performed.
  • the constraint is a condition on the quality of the result. If the result of the gaze image does not reach a predetermined minimum quality or minimum quality or a predetermined reliability, then a corresponding new selection can take place taking into account the previous selection and results, in particular until the constraint on the result is met.
  • This also advantageously makes it possible to initially select simpler and faster algorithms, and only when the result does not meet the desired requirements to select correspondingly more complex or precise algorithms for performing the gaze imaging and perform the gaze image again accordingly.
  • At least part of between and / or result data of selecting the at least one part of the algorithm and / or performing the gaze mapping is stored on the basis of the selected algorithm and as at least a second parameter for a subsequent and repeated execution of gaze imaging, in which at least part of the algorithm for performing the gaze imaging from the plurality of predetermined analysis algorithms is additionally selected as a function of the at least one second parameter.
  • the method can thus be a learning method which can use already obtained results from previously performed gaze pictures and corresponding selections of algorithms and their results, in order to make decisions for re-executing the algorithm selection based thereon. For example, based on previous results of gaze imaging with certain algorithms, it has been found that this or that algorithm leads to particularly good results for scene recordings with certain characteristics, such as moving objects, recordings in a room, photographs in nature, recordings with Persons or similar leads. If, when the method is reexecuted, for example for another experiment or a study, for example based on the analysis of the scene recordings or parts thereof, a similar situation exists again, then the algorithms already specified as suitable for this situation may be used be resorted to.
  • the invention relates to a device for performing a gaze image, in which at least one viewpoint and / or viewing direction of at least one person with respect to at least one scene shot is mapped from a scene viewed by the at least one person to a reference, the device comprising a Control device and a memory. Furthermore, a plurality of predetermined algorithms are stored in memory and the controller is adapted to select at least a portion of an algorithm for performing gaze mapping from the plurality of predetermined algorithms depending on at least one parameter and to perform gaze mapping based on the at least a portion of the algorithm.
  • the invention also includes the control device for the device.
  • the control device has a processor device which is set up to carry out an embodiment of the method according to the invention or one of its embodiments.
  • the processor device can have at least one microprocessor and / or at least one microcontroller.
  • the processor device can have program code which is set up to carry out the embodiment of the method according to the invention when executed by the processor device.
  • the program code may be stored in a data memory of the processor device.
  • FIG. 1 shows a schematic representation of a person 10 who is watching a scene 12.
  • the person 10 wears glasses 14 with an integrated eye tracker, which while the person 10 is looking at the scene 12 continuously records the view data of the person 10.
  • the spectacles 14 have a scene camera 16, which also continuously takes pictures of the scene 12 during this time.
  • the acquisition of the gaze data is timed to capture the scene images or set or set in relation to these.
  • the detection of respective gaze data or the eye positions or points of view of the person 10 and the acquisition of a respective image at a respective time step can take place synchronously, or the acquisition of the gaze data and the image recordings can be provided with a time stamp, so that a respective viewpoint or a respective viewing direction can each be assigned to exactly one scene recording.
  • a scene recording S is shown by way of example in FIG. 2 and FIG. 3.
  • FIG. 2 shows a schematic representation of a scene shot S of the scene 12 from FIG. 1 with a viewpoint B of the person 10, which was determined on the basis of gaze data acquired at the time the scene shot S was taken, and with a reference R for the illustration of one Eye view according to an embodiment of the invention.
  • the scene shot S represents an example of a scene 12 taken by the scene camera 16 at a particular point in time.
  • a viewpoint B assigned to this scene shot S was calculated on the basis of the eye data of the person 10 captured by the eye tracker the scene shot S is shown.
  • the reference R also represents an image acquisition of the scene 12 in this example.
  • the reference R can, for example, be one of the scene shots S, a section of one of the scene shots S, or else a separately captured image of the scene 12, for example also with another camera as the scene camera carried by the person 10 16.
  • the viewpoint B with respect to the scene shot S is now imaged onto a corresponding viewpoint B 'with respect to the reference R.
  • Such a view image M makes it possible, in particular, for multiple points of view B, which are present in relation to numerous scene recordings S, to be reproduced on a common reference R, by means of which, for example, the acquired viewpoint data are rendered significantly easier to compare.
  • certain algorithms may be used.
  • Such an algorithm can, for example, refer to the scene recording S with the reference recording R and from this determine, for example, a transformation which maps the scene recording S onto the reference R. This determined transformation can then be applied to the viewpoint B determined in relation to the scene shot S, which provides the reference R corresponding to the corresponding imaged viewpoint B '.
  • the referencing between scene recording S and the reference R can be carried out, for example, on the basis of simple image analysis methods. Alternatively or additionally, methods for object detection and / or object classifications can also be used.
  • the scene recording S can generally be in a variety of forms, for example as a 2D recording or as a 3D scene recording, which was recorded by means of stereo cameras, for example. It can also be the recording of a purely virtual, for example computer-generated scene, represent, or the recording of an AR scene, etc. Also, the viewpoint data can be in various forms, for example, as a 2D-viewpoints or as 3D-viewpoints or as 3D viewing direction in a 3D scene, etc. Also, the reference R can take a variety of forms, especially those as described in relation to the scenes recordings. Further possibilities for the reference R will be explained in more detail with reference to FIG. 3.
  • FIG. 3 again shows a schematic representation of the scene shot S with the viewpoint B assigned to this scene shot S and a reference R, which here exists in the form of different defined object classes 18 which classify different objects.
  • a first object class 01 can be related to bottles, a second object class O2 to boxes, a third object class 03 to cans, etc.
  • algorithms that work on the basis of object classifications are suitable for performing a look-up mapping M.
  • the scene shot S can be examined for objects of these object classes 18 and it can be checked whether a respective viewpoint B present in relation to such a scene shot S lies on an object which is assigned to such an object class 18. If this is the case, as shown here in FIG.
  • this viewpoint B can be assigned according to the view image M corresponding to the first object class 01 for bottles. It can thus be seen that, depending on the situation, for example the type of scene shot S, the reference R, the dimension of the viewpoints B or viewing directions, etc., different approaches and procedures defined by corresponding algorithms are advantageous in the view image M. In order to obtain the best possible results, however, not only the type or dimension of the scene recording S, reference R and viewpoint B or viewing direction can be taken into account, but also many additional pieces of information are suitable on the basis of which an algorithm or at least a part of a Algorithm for performing the look image M can be suitably selected.
  • Such other useful information represents information as to whether the scene 12 is a static scene or contains moving or changing objects, the type of objects present in such scene 12, whether the background 22 of the scene shots S, for example, is a spatial one or temporally changing background or a static background 22, the quality of the scene shots S, the extent of a substantive correspondence between scene recording S and reference R, etc. All these parameters are advantageously suitable for optimizing an algorithm optimized for a particular situation and specific circumstances Implementation of the look image M to select, which is explained in more detail with reference to FIG. 4.
  • FIG. 4 shows a schematic representation of a device 24 for performing a gaze imaging M according to an exemplary embodiment of the invention.
  • the device 24 has a control device 26 and a memory 28.
  • a plurality of predetermined algorithms A1, A2, A3, etc. are stored for performing a gaze mapping M.
  • input data 30 is provided, which data concerning the Scene shots S, which are here referred to as scene data SD, data concerning the reference R, which are here referred to as reference data RD, and data concerning the viewpoints B and view directions, which are here referred to as gaze data BD.
  • the control device 26 determines at least one parameter P, as a function of which at least part of an algorithm is selected from the provided algorithms A1, A2, A3.
  • the algorithm denoted A3, the gaze image M is subsequently performed by the control device 26.
  • the various algorithms A1, A2, A3 can also be understood as an algorithm parameterized by one or more second parameters, for which different parameter values of the second parameter have been defined, such that, for example, the first algorithm A1 is the parameterized algorithm for a first parameter value of the second parameter, the second algorithm represents the parameterized algorithm for a second parameter value of the second parameter, etc.
  • the algorithm selection thus defines a parameter value of the at least one second parameter of the parameterized algorithm as a function of the parameter P.
  • the scene data SD and / or the reference data RD and / or the gaze data BD can be analyzed.
  • these input data 30 can be analyzed in particular as to whether the scene 12 represents a static scene 12 or contains moving and / or changing objects which represent objects of the scene 12 moving and / or changing objects, whether the scene spatially and / or temporally changing background 22 or not, as well as a degree of substantive coincidence between the reference R and the scene 12 or the scene recordings S.
  • the height of the respective image quality are determined.
  • the type of input data 30 can also be analyzed to determine, for example, whether the image data is present as 2D data or 3D data, the data relates to a computer-generated scene or was taken by a camera that has reference R as an object class definition or likewise in the form of image data, the viewing data BD relate to a 2D viewpoint, a 3D viewpoint and / or a viewing direction, etc.
  • metadata can also be provided together with the input data 30, which in particular both relate to the Scene data SD, the reference data RD and also to the view data BD may be related. All this information can now advantageously serve as a parameter P, depending on which the algorithm selection is performed. Overall, an algorithm adapted to a particular situation, prerequisites and circumstances can be provided for performing the gaze imaging M.
  • the device 24 can also have a user interface 32, via which user inputs 34 can be received by the device 24. Also, via such an interface 32, information may be output from the device 24 to a user, for example to prompt for specific inputs.
  • a user interface 32 may be provided in the form of a screen, a keyboard, a touch screen, a voice input device, or the like.
  • Such additional user inputs 34 additionally received by the device 24 can advantageously also be provided for the algorithm selection as corresponding parameters. For example, a user can also specify certain boundary conditions for the algorithm selection, such as a quality of the result to be achieved or a limitation of the time required to perform the gaze mapping.
  • a user may provide additional information regarding the field of application, an objective of the experiment, relevant objects, or the like. As a result, the process can still be made significantly more situation-adapted and thereby achieve even better results.
  • FIG. 5 is a flow chart illustrating a method of performing a gaze image M according to an embodiment of the invention.
  • input data 30 are initially provided in step S10, which are analyzed in step S12.
  • a user input 34 can also be received in order, for example, to specify certain boundary conditions and / or to provide further information, for example with regard to the type of application, the type of scene 12, or the like.
  • a preselection of algorithms from a plurality of provided algorithms A1, A2, A3 can subsequently be made in step S16 which are suitable in the present situation specified by the analysis result in step S12.
  • step S18 can be checked as to whether, for example, a further user input 34 has been received, which provides further additional information or in turn predetermines certain boundary conditions for the algorithm selection. If this is the case, in step S20, taking into account these user input detected in step S18, one of the algorithms provided in the preselection in step S16 is selected, and in step S22 the gaze map M is performed on the basis of this selected algorithm. If, on the other hand, no further user input 34 is received in step S18, an algorithm is selected from the preselection in step S24 independently of another user input 34, and in step S22 the gaze map M is carried out on the basis of the algorithm thus selected. This erroneously allows the algorithm selection to be performed both automatically, for example, without any interaction by a user, or on the other hand, to progressively guide a user with suggestions, and in addition to the inputs entered by the user can be considered.
  • step S26 it can be checked, for example, whether the result of the gaze imaging M fulfills a predetermined criterion, for example with regard to quality or quality. If this is not the case, a new selection of the algorithm can be selected in step S28, in particular by selecting a different preselection of the algorithms provided in step S16, and the gaze map M can be performed again in step S22. If the result of the gaze mapping M finally fulfills the one or more predetermined criteria in step S26, the method step S30 is ended.
  • a predetermined criterion for example with regard to quality or quality.
  • the algorithm selection can advantageously be carried out as a function of various factors, for example as a function of a classification by market segment, application field, special application, task, situation and / or question, depending on eye tracking data and / or from scene recordings and / or depending on quality assessments of gaze images based on one or more quality measures and / or quality classes, as well as on intermediate results and or partial results of previously or parallel executed algorithms.
  • the algorithm selection can be optimized with respect to certain predetermined targets such as target objects, target volume, target areas or surfaces of interest, target price or target quality or target time for processing.
  • preliminary decisions may be determined manually as boundary conditions for the system or the method, for example by expert knowledge and / or learned automatically.
  • the algorithm selection can also take place very flexibly on different, in particular temporal, levels, for example for a respective study, a respective experiment, a respective acquisition, a respective analysis time interval, or a respective view event time interval, such as a fixation or saccade.
  • a mixed algorithm selection may be performed in which, for example, individual analysis time interval reference pairs differ.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Economics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung und ein Verfahren zum Durchführen einer Blickabbildung (M), bei welcher zumindest ein Blickpunkt (B) und/oder eine Blickrichtung zumindest einer Person (10) in Bezug auf zumindest eine Szenenaufnahme (S) von einer von der zumindest einen Person (10) betrachteten Szene (12) auf eine Referenz (R) abgebildet wird. Dabei wird zumindest ein Teil eines Algorithmus (A1, A2, A3) zur Durchführung der Blickabbildung (M) aus mehreren vorbestimmten Algorithmen (A1, A2, A3) in Abhängigkeit von mindestens einem Parameter (P) ausgewählt und die Blickabbildung (M) auf Basis des zumindest einen Teils des Algorithmus (A1, A2, A3) durchgeführt.

Description

Verfahren und Vorrichtung zum Durchführen einer Blickabbildung
BESCHREIBUNG:
Die Erfindung betrifft ein Verfahren zum Durchführen einer Blickabbildung, bei wel- eher zumindest ein Blickpunkt und/oder eine Blickrichtung zumindest einer Person in Bezug auf zumindest eine Szenenaufnahme von einer von der zumindest einen Person betrachteten Szene auf eine Referenz abgebildet wird. Des Weiteren gehört zur Erfindung auch eine Vorrichtung zum Durchführen einer Blickabbildung. Solche Blickabbildungen, die auch Blickrichtungsabbildung oder Blickpunktabbildung genannt werden, finden in vielen Bereichen Anwendung. Ein solcher Anwendungsbereich stellt beispielsweise die Verbraucherforschung oder auch die Durchführung von Studien dar. Zu diesem Zweck können Eyetracker, wie beispielsweise am Kopf getragene Eyetracker verwendet werden, die die Blickrichtungen einer Testperson er- mittein, während diese Testperson eine bestimmte Szene, zum Beispiel ihre reale Umgebung oder eine Anzeige auf einem Bildschirm, betrachtet. An einer solchen am Kopf getragenen Einrichtung kann weiterhin eine Szenenkamera angebracht sein, die währenddessen Aufnahmen von der Umgebung der Testperson macht, die zumindest einen Großteil des aktuellen Sichtfeldes einer solchen Testperson abdeckt. Hierdurch lassen sich für einen bestimmten Zeitpunkt die zu diesem Zeitpunkt durch den Eyetracker bestimmten Blickdaten in Bezug zu einer solchen zu diesem Zeitpunkt aufgenommenen Szenenaufnahme setzen, und daraus bestimmen, wohin die Testperson zu diesem Zeitpunkt in Bezug auf ihre Umgebung geblickt hat. Eine der- artige Vorgehensweise lässt sich dann für ein gesamtes Szenenvideo durchführen, sodass dann jede einzelne Szenenaufnahme dieses Szenenvideos einen korrespondierenden Blickpunkt oder auch eine Blickrichtung der Testperson enthält. Auf diese Weise lässt sich feststellen, wohin, wie lang oder wie oft eine Testperson während dieses Experiments oder dieser Studie auf bestimmte Objekte in ihrer Umgebung geblickt hat. Auf Basis solcher Testergebnisse kann zum Beispiel ermittelt werden, welche Produkte in einem Supermarktregal mehr Aufmerksamkeit erregen, und welche weniger, welche Werbung den Blick von Testpersonen stärker auf sich zieht und welche weniger, usw. Üblicherweise werden dabei solche Experimente nicht nur mit einer einzelnen Testperson durchgeführt, sondern mit vielzähligen verschiedenen Testpersonen, zum Beispiel unterschiedlicher Altersklassen, Geschlechter, usw., um aus den Ergebnissen statistisch aussagekräftige Resultate zu erhalten. Auch kann das gleiche Experiment mehrfach mit der gleichen Testperson durchgeführt werden, um eine zeitliche Veränderung, ein Lernverhalten oder einen Fortschritt zu erfassen.
Da eine manuelle Auswertung solcher vielzähligen Szenenvideos mit korrespondierenden Blickdaten jedoch sehr aufwendig ist, gibt es die Möglichkeit, eine solche Auswertung auch automatisch durchzuführen, oder zumindest zu vereinfachen. Hierbei kommen die Blickabbildungen zum Einsatz. Dadurch wird es ermöglicht, zum Beispiel alle in einem Szenenvideo enthaltenen Blickpunkte auf eine einzelne gemeinsame Referenz, etwa ein Referenzbild, abzubilden. Betrachtet beispielsweise eine Testperson während des Experiments ein bestimmtes Regal mit verschiedenen Produkten aus verschiedenen Perspektiven, so kann zum Beispiel als Referenz eine Aufnahme dieses Regals bereitgestellt werden. Alle in Bezug auf das Szenenvideo dieses Regals aufgenommenen Blickpunkte können dann auf diese einzelne Referenzaufnahme mit dem Regal abgebildet werden. Hierdurch lässt sich ein deutlich besserer Eindruck gewinnen, welche Objekte im Regal häufiger oder wenig häufig betrachtet wurden. Eine solche Blickabbildung kann dabei auch Testpersonübergreifend erfolgen, sodass die Blickergebnisse aller Testpersonen auf eine ge- meinsame Referenz abgebildet werden. Neben diesem Anwendungsbeispiel gibt es aber noch vielzählige weitere Anwendungsmöglichkeiten für Blickabbildungen, die Blickpunkte und/oder Blickrichtungen in Bezug auf eine Szenenaufnahme auf eine Referenz abbilden. Zur automatischen Durchführung solcher Blickabbildungen können bestimmte Algorithmen verwendet werden. Ein solcher Algorithmus referenziert beispielsweise die Szenenaufnahme mit der Referenzaufnahme und ermittelt daraus beispielsweise eine Transformation, welche die Szenenaufnahme, die zum Beispiel von einer Szene aus einer bestimmten oder sogar veränderlichen Perspektive aufgenommen wurde, auf die Referenz, die ebenfalls von dieser Szene, jedoch aus einem anderen Blickwinkel aufgenommen wurde, abbildet. Anschließend wird diese ermittelte Transformation auf die in Bezug auf die Szenenaufnahme bestimmten Blickpunkt angewendet, was den korrespondierenden abgebildeten Blickpunkt in Bezug auf die Referenz liefert. Solche Blickabbildungen können je nach Anwendung aber auch anders ausgeführt werden. Beispielsweise können auch Algorithmen zum Einsatz kommen, welche Bildanalysen und damit einhergehender Objektdetektion und/oder Objektklassifikationen durchführen. Zum Beispiel kann ein solcher Algorithmus ein Objekt, auf welchem sich ein Blickpunkt befindet, in einer Szenenaufnahme detektieren und/oder klassifizieren, und dem entsprechend identifizierten Objekt der Referenz zuordnen.
Aufgrund der verschiedenen Anwendungsgebiete sind jedoch auch die Voraussetzungen für solche Blickabbildungen stark unterschiedlich, sodass sich ein gemäß einem bestimmten Algorithmus arbeitendes Verfahren zur Durchführung einer solchen Blickabbildung in einer bestimmten Situation nicht automatisch auch zur Durchführung einer Blickabbildung in einer ganz anderen Situation eignet. So kommt es je nach Situation zu mehr oder weniger guten oder auch gar keinen Ergebnissen. Aufgabe der vorliegenden Erfindung ist es daher, ein Verfahren und eine Vorrichtung zum Durchführen einer Blickabbildung bereitzustellen, durch welche sich verbesserte Ergebnisse auf möglichst komfortable Weise erzielen lassen.
Diese Aufgabe wird gelöst durch ein Verfahren und eine Vorrichtung zum Durchfüh- ren einer Blickabbildung mit den Merkmalen gemäß den jeweiligen unabhängigen Ansprüchen. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Patentansprüche, der Beschreibung sowie der Figuren. Gemäß dem erfindungsgemäßen Verfahren zum Durchführen einer Blickabbildung, bei welcher zumindest ein Blickpunkt und/oder eine Blickrichtung zumindest einer Person, zum Beispiel einer Testperson oder einem Benutzer, in Bezug auf zumindest eine Szenenaufnahme von einer von der zumindest einen Person betrachteten Sze- ne auf eine Referenz abgebildet wird, wird zumindest ein Teil eines Algorithmus zur Durchführung der Blickabbildung aus mehreren vorbestimmten Algorithmen in Abhängigkeit von mindestens einem Parameter ausgewählt und die Blickabbildung auf Basis des zumindest einen Teils des Algorithmus durchgeführt. Dies ermöglicht es vorteilhafterweise, einen Algorithmus oder auch nur einen Teil eines Algorithmus aus mehreren verschiedenen Algorithmen für die Durchführung einer Blickabbildung auszuwählen, wodurch sich vielzählige unterschiedliche Situationen und Voraussetzungen in vorteilhafter Weise berücksichtigen lassen. Insbesondere kann diese Berücksichtigung durch den mindestens einen Parameter erfolgen, der vorteilhafterweise dazu genutzt werden kann, um verschiedene Situationen, Voraussetzungen oder Gegebenheiten im Zusammenhang mit der Blickabbildung zu spezifizieren. Zudem kann vorteilhafterweise die Auswahl des zumindest einen Teils des Algorithmus aus mehreren verschiedenen Algorithmen automatisch erfolgen, sodass für einen Benutzer oder Anwender, der eine solche Blickabbildung durchfüh- ren möchte, ein besonders hoher Bedienungskomfort bereitgestellt ist. Insbesondere muss ein solcher Anwender keinerlei Fachkenntnisse in Bezug auf verschiedene Algorithmen und deren Vor- und Nachteile mit Bezug auf jeweilige Situationen haben. Die Algorithmenauswahl kann damit durch eine Vorrichtung durchgeführt werden, die damit durch die verbesserten Anpassungsmöglichkeiten an verschiedenste Situatio- nen auch letztendlich die Ergebnisse einer solchen Blickabbildung verbessert.
Unter einem Algorithmus, wie dem zumindest einen Teil des Algorithmus oder den vorbestimmten Algorithmen, ist dabei im Allgemeinen eine Handlungsvorschrift bzw. Durchführungsvorschrift zur Durchführung zumindest eines Teilschrittes der Blickab- bildung zu verstehen. Die Durchführungsvorschrift kann sich also auf einen oder mehrere Teilschritte der Blickabbildung beziehen. Zudem kann unter den mehreren verschiedenen vorbestimmten Algorithmen auch ein mit zumindest einem zweiten Parameter parametrierter Algorithmus verstanden werden, wobei die Festlegung des zumindest einen zweiten Parameters auf verschiedene Werte möglich ist, und ent- sprechend zu unterschiedlichen Durchführungsvorschriften führt. Solche Durchführungsvorschriften können sich dabei weiterhin zum einen in ihrer Art unterscheiden, das heißt unterschiedliche Teilschritte beschreiben, sowie auch in der zeitlichen Abfolge gleicher Teilschritte. Unter der Auswahl des zumindest einen Teils des Algo- rithmus kann dann entsprechend auch die Festlegung des zumindest einen zweiten Parameters auf einen bestimmten Wert verstanden werden. Zudem kann die Auswahl des zumindest einen Teils des Algorithmus in Abhängigkeit von dem (ersten) Parameter gemäß einer vorbestimmten Vorschrift, zum Beispiel einer Look-up- Tabelle oder einer vorbestimmten Zuordnung erfolgen, welche einem Parameterwert des zumindest einen Parameters einen der mehreren vorbestimmten Algorithmen zuordnet, insbesondere auch einen Parameterwert des zumindest einen zweiten Parameters eines parametrisierten Algorithmus festlegt, oder im Falle mehrerer (erster) Parameter, einer jeweiligen Parameterwertekombination der Parameter einen der vorbestimmten Algorithmen zuordnet, insbesondere auch einen Parameterwert des zumindest einen zweiten Parameters eines parametrisierten Algorithmus festlegt.
Wird also beispielsweise in einer ersten Situation in Abhängigkeit von dem Parameter ein bestimmter erster Algorithmus oder zumindest Teil eines Algorithmus aus den mehreren Algorithmen ausgewählt und in einer zweiten Situation ein bestimmter zweiter Algorithmus oder zumindest Teil eines Algorithmus, so unterscheiden sich die daraus resultierenden Blickabbildungen in zumindest einem Teilschritt und/oder in einer zeitlichen Abfolge von Teilschritten.
Die Szene, die von der Person betrachtet wird, kann eine reale Umgebung der Per- son darstellen, oder auch eine virtuelle Umgebung, die zum Beispiel mit einer VR(Virtual Reality)-Brille betrachtet wird, oder ein auf einer Anzeigeeinrichtung angezeigtes Bild oder auch eine Überlagerung der realen Umgebung mit virtuellen/digitalen Bildinhalten, wie zum Beispiel bei einer Betrachtung der Szenen mit einer AR(Augmented Reality)-Brille.
Die zumindest eine Szenenaufnahme kann sich entsprechend auf eine Aufnahme der oben beschriebenen Szenen beziehen, und zum Beispiel eine Kameraaufnahme der Umgebung der Person darstellen oder auch die eine Anzeige auf einem Bildschirm zu einem bestimmten Zeitpunkt, sozusagen als eine Art Screenshot, darstel- len. So kann die zumindest eine Szenenaufnahme eine Aufnahme einer Szene mittels einer oder mehrerer Bildsensoren, eines stereoskopischen Bildsensors mit ggf. Bildern zugeordneten Tiefendaten, einer Matrix von Bildsensoren, mindestens einer Kamera und weiteren Daten von einem oder mehreren Sensoren, einer 3D- Szenenerfassung, bei der eine 3D-Szene als Komposition von Objekten und ggf. Szenen-Hintergrundstruktur beschrieben wird, und/oder die Erfassung eines festen oder sich zeitlich ändernden Stimulus (etwa Aufnahme von Bildschirminhalten) darstellen. Daten einer Szenenaufnahme können auch zeitlich aufeinander bezogen werden.
Blickrichtungen und/oder Blick-Endpunkte bzw. Blickpunkte können als Teil der Eye- Tracking-Daten zeitlich und/oder örtlich bezogen auf die Szenenaufnahme vorliegen, bspw. als ein Blickpunkt (POR) auf einem Szenenbild und/oder ein Blick-Endpunkt oder einer Blickrichtung in einer 3D-Szene. Diese Blickdaten können dabei von einem mobilen, zum Beispiel am Kopf tragbaren Eyetracker erfasst und bereitgestellt werden oder auch durch einen Remote Eyetracker, welcher nicht kopfgetragen, sondern zum Beispiel an einer Anzeigeeinrichtung, wie einem Monitore, angebracht ist. Dies ist insbesondere dann vorteilhaft, wenn die Szenenaufnahme ein auf der Anzeigeeinrichtung dargestellte Anzeige darstellt, so dass durch den Remote Eyetracker besonders ein- fach der Blick des Benutzers in Bezug auf die Anzeige erfasst werden kann. Die Szenenaufnahme zeigt dann beispielsweise nicht mehr das direkte Sichtfeld des Nutzers (welches sich mit Kopfbewegungen ändert), sondern direkt den präsentierten Stimulus, welcher wiederum ein Bild, Video, stereoskopisches Video, gerenderte 3D Szene mit Objekten oder auch als Komposition im AR-Fall, darstellen kann.
Auch die Referenz kann in vielen verschiedenen Formen vorliegen. Beispielsweise kann die Referenz eine örtliche Repräsentation/Darstellung, wie etwa ein Bild oder eine statische 3D-Szene, sein, eine örtlich-zeitliche Repräsentation/Darstellung, wie etwa ein Video oder eine dynamische 3D-Szene, oder inhaltliche/semantische Re- präsentation/Darstellung sein, wie etwa als Datenstruktur erfasste Kategorien/Klassen von Objekten, oder wie etwa als bildliche oder als dreidimensionale Darstellung von bestimmen oder prototypische Objekten. Vorzugsweise weist die Referenz eine inhaltliche Übereinstimmung, zeitliche und/oder örtlich, mit zumindest einem Teil der Szene auf. Eine solche Referenz kann auch einer Szenenaufnahme oder einer der Szenenaufnahmen entnommen worden sein. Eine Referenz kann ferner ein örtlicher, zeitlicher oder örtlich-zeitlicher Ausschnitt einer Szenenaufnahme sein. Eine Referenz kann in ihrer jeweiligen Form (wie oben für Szenenaufnahmen aufgelistet) mit externen Mitteln, daher unabhängig von einem Eyetracker, gemacht worden sein.
Weiterhin kann die Blickabbildung je diskreten Zeitschritt einer Szenenaufnahme (etwa Bild für Bild einer Bildsequenz) oder für ein Zeitintervall bestimmt werden. Das Zeitintervall kann bspw. einem Blickereignis, wie zum Beispiel einer Fixation, entsprechen.
Da es wie beschrieben sehr viele verschiedene Möglichkeiten gibt, in welcher Form Szenenaufnahme, Blickdaten und Referenz vorliegen können, ist es besonders vor- teilhaft, den zumindest einen Teil des Algorithmus in Abhängigkeit von dem zumindest einen Parameter für die Blickabbildung auszuwählen, da sich hierdurch vorteilhafterweise all diese unterschiedlichen Situationen berücksichtigen lassen und damit optimale Ergebnisse erzielt werden können. Daher werden bei einer besonders vorteilhaften Ausgestaltung der Erfindung Eingangsdaten bereitgestellt, die Daten betreffend die zumindest eine Szenenaufnahme, Daten betreffend den bestimmten Blickpunkt und/oder die bestimmte Blickrichtung und Daten betreffend die Referenz umfassen, wobei der zumindest eine Teil des Algorithmus in Abhängigkeit von einer Analyse zumindest eines Teils der Ein- gangsdaten als der mindestens eine Parameter gewählt wird.
Diese vorteilhafte Ausführungsform der Erfindung basiert auf der Erkenntnis, dass gerade diese Eingangsdaten vielzählige Informationen enthalten, die geeignet sind, um bestimmte Voraussetzungen, Situationen oder Gegebenheiten zu charakterisie- ren, und entsprechend einen für diese Gegebenheiten optimierten Algorithmus zu wählen. Beispielsweise lassen sich auf Basis dieser Eingangsdaten Informationen über die oben ausgeführten Arten der Szenenaufnahme, der Referenz und der Blickdaten, beziehen, die so vorteilhafterweise zur Algorithmenauswahl herangezogen werden können. Während für die Blickabbildung alle der genannten Eingangsdaten verwendet werden, kann sich die Analyse aber auch nur auf einen Teil der Eingangsdaten beziehen, zum Beispiel nur auf die Bilddaten der Szenenaufnahmen o- der der Referenz oder nur auf manche der Szenenaufnahmen oder die Blickdaten in Form einer stichprobenartigen Analyse.
Bei einer weiteren vorteilhaften Ausgestaltung der Erfindung werden Daten betreffend eine Mehrzahl an Szenenaufnahmen mit jeweils zumindest einem zugeordneten Blickpunkt und/oder einer zugeordneten Blickrichtung als Teil der Eingangsdaten bereitgestellt. Damit kann vorteilhafterweise die Analyse der Eingangsdaten sich nicht nur auf eine einzelne Szenenaufnahme sondern auch auf mehrere Szenenaufnahmen, zum Beispiel als Teil eines Szenenvideos, beziehen, was nicht nur durch die mehreren Szenenaufnahmen mehr Möglichkeiten bereitstellt, Informationen über bestimmte Gegebenheiten oder Situationen zu beziehen, um daraus eine geeignete Anpassung durch die Wahl eines geeigneten Algorithmus bereitzustellen, sondern die Szenenaufnahmen ermöglichen auch durch Vergleiche untereinander das Bereitstellen zusätzlicher Informationen, die vorteilhafterweise zur Auswahl eines geeigneten Algorithmus herangezogen werden können. Beispiele hierfür werden im Folgenden näher erläutert. Die den Szenenaufnahmen jeweils zugeordneten Blickpunkte und/oder Blickrichtungen müssen dabei nicht notwendigerweise die gleiche Person betreffen. Es können auch Szenenaufnahmen mit jeweils zugeordneten Blickpunkten und/oder Blickrichtungen von unterschiedlichen Personen bereitgestellt werden.
Dabei stellt es eine vorteilhafte Ausgestaltung der Erfindung dar, wenn bei der Analyse des zumindest einen Teils der Eingangsdaten diese auf zumindest einen der folgenden Aspekte hin analysiert werden:
ob die Szene eine statische Szene darstellt oder bewegte und/oder sich verändernde Objekte enthält;
falls die Szene bewegte und/oder sich verändernde Objekte enthält, welche Objekte der Szene die bewegten und/oder sich verändernden Objekte darstel- len;
- ob die Szene einen räumlich und/oder zeitlich sich nicht ändernden Hintergrund oder einen sich räumlich und/oder zeitlich ändernden Hintergrund aufweist;
- Höhe der Bildqualität der Szenenaufnahmen und/oder der Referenz - Ausmaß einer inhaltlichen Übereinstimmung zwischen der Referenz und der Szene;
- Art der Szenenaufnahmen und/oder der Referenz und/oder der Blickpunkte
und/oder Blickrichtungen und/oder Art von Objekten der Szene;
- Dimension der Szenenaufnahmen und/oder der Referenz und/oder der Blickpunkte und/oder der Blickrichtungen und/oder Art von Objekten der Szene; und ob die Szene ein oder mehrere Objekte umfasst, die gegenüber anderen Objekten der Szene als relevanter eingestuft werden oder nicht,
und zumindest ein Ergebnis der Analyse bereitgestellt wird, in Abhängigkeit von wel- ehern als der mindestens eine Parameter der zumindest eine Teil des Algorithmus ausgewählt wird.
Die Information darüber, ob eine Szene eine statische Szene darstellt oder eine bewegte Szene bzw. bewegte oder sich verändernde Objekte enthält, ist dahingehend relevant, als Algorithmen, die zum Beispiel nicht dazu ausgelegt sind, solche sich verändernden Objekte zu erkennen oder bei der Referenzierung von Szenenaufnahme und einer Referenzaufnahme zu berücksichtigen, in einem solchen Fall auch zu schlechten Ergebnissen in Bezug auf die Blickabbildung führen. Wird also beispielsweise bei der Analyse festgestellt, dass die Szene eine statische Szene dar- stellt und keine bewegten oder sich verändernden Objekte enthält, so kann zum Beispiel ein einfacher und schneller Algorithmus für die Blickabbildung gewählt werden, während für den anderen Fall ein Algorithmus gewählt werden kann, der auch bewegte Objekte bei der Blickabbildung berücksichtigt und entsprechend in einer solchen Situation zu besseren und zuverlässigeren Ergebnissen in Bezug auf die Blick- abbildung führt. Damit einhergehend ist es auch vorteilhaft, die Eingangsdaten darauf hin zu analysieren, falls die Szene bewegte und/oder sich verändernde Objekte enthält, welche Objekte der Szene die bewegten und/oder sich verändernden Objekte darstellen. Solche Informationen lassen sich sehr einfach aus den Daten betreffend die Szenenaufnahmen ermitteln. Insbesondere ist es dabei besonders vorteil- haft, wenn mehrere Szenenaufnahmen bereitgestellt werden, da sich diese Information über bewegte Objekte oder sich verändernde Objekte in der Szene auf einfache Weise durch einen Vergleich zwischen mehreren solchen Szenenaufnahmen gewinnen lässt. Ebenso vorteilhaft ist, die Eingangsdaten darauf hin zu analysieren, ob die Szene einen sich räumlich und/oder zeitlich ändernden Hintergrund oder einen sich räumlich und/oder zeitlich nicht ändernden Hintergrund aufweist. Weist eine Szene beispielsweise einen sich nicht ändernden, statischen Hintergrund auf, der insbesondere auch für das betreffende Experiment nicht relevant ist, so kann dieser Hintergrund bei der Blickabbildung, zum Beispiel bei der Referenzierung zwischen Sze- nenaufnahme und Referenz, vernachlässigt werden, was eine deutliche Zeitersparnis zur Folge hat, da die den Hintergrund betreffenden Bilddaten nicht analysiert und abgebildet oder untersucht werden müssen. Ist zudem bekannt, dass sich der Hintergrund nicht ändert, so kann dieser in jeweiligen Szenenaufnahmen auch deutlich einfacher als solcher identifiziert werden, zum Beispiel anhand seiner Farbe. Stellt der Hintergrund beispielsweise eine weiße Wand dar, so ist dieser besonders einfach in einer jeweiligen Szenenaufnahme zu identifizieren und kann bei der weiteren Verarbeitung der Szenenaufnahmen zur Durchführung der Blickabbildung vernachlässigt werden. Auch müssen dann Blickpunkte auf einem solchen nicht relevanten Hintergrund gar nicht berücksichtigt und auch nicht abgebildet werden, was insgesamt eine deutliche Effizienzsteigerung bei der Blickabbildung ermöglicht. In einem solchen Fall kann also beispielsweise wiederum ein sehr einfacher Algorithmus ausgewählt werden, der für den Fall, dass der Hintergrund sich weder räumlich noch zeitlich verändert, eine Identifikation dieses mit sehr einfachen Bildverarbeitungsmitteln möglich ist. Ändert sich dagegen der Hintergrund räumlich oder zeitlich, so können entspre- chend komplexere Algorithmen verwendet werden, die dazu ausgelegt sind, auch im Falle einer räumlichen oder zeitlichen Veränderung des Hintergrunds diesen als solchen zu identifizieren. Beispielsweise können die Szenenaufnahmen, die aus unterschiedlichen Perspektiven aufgenommen wurden, herangezogen werden, um zu bestimmen, welche Objekte sich in diesen Aufnahmen im Vordergrund und welche im Hintergrund befinden oder diesen darstellen. Hierzu kann zum Beispiel die Parallaxe von Objekten mit Bezug auf den Hintergrund genutzt werden. Somit stellt auch die Information darüber, ob sich der Hintergrund räumlich und/oder zeitlich ändert oder nicht, einen geeigneten Parameter zur Auswahl zumindest des Teils des Algorithmus dar, um letztendlich die Durchführung der Blickabbildung und deren Ergebnisse deut- lieh zu verbessern.
In gleicher Weise ist es auch vorteilhaft zu analysieren, ob die Szene ein oder mehrere Objekte umfasst, die gegenüber anderen Objekten der Szene als relevanter eingestuft werden oder nicht. Sind beispielsweise nur manche Objekte in einer Szene für das letztendliche Ergebnis der Blickabbildung bzw. deren Auswertung relevant, so können Algorithmen verwendet werden, die selektiv arbeiten, und zum Beispiel Blickpunkte auf nicht relevanten Objekten gar nicht erst abbilden. Auch hierdurch lässt sich ein großer Zeitvorteil bei der Blickpunktabbildung erzielen. Ob solche rele- vanten oder nicht relevanten Objekte in der Szene vorhanden sind kann beispielsweise durch Analyse der Blickpunktdaten bzw. Blickrichtungsdaten mit Bezug auf die Szenenaufnahmen ermittelt werden. Objekte in der Szene die besonders häufig betrachtet werden, können somit als besonders relevant eingestuft werden, während Objekte die gar nicht betrachtet werden, beispielsweise als irrelevant eingestuft wer- den können. Um Objekte hinsichtlich ihrer Relevanz, ihrer Bewegung oder auch hinsichtlich anderer Kriterien zu klassifizieren, können beispielsweise entsprechende Objektdetektion-und Objektklassifizierungsverfahren angewandt werden. Auch die Art von Objekten bzw. ihre Klassifikation kann damit vorteilhafterweise genutzt werden, um den zumindest einen Teil des Algorithmus auszuwählen und damit eine op- timale Situationsanpassung bereitzustellen, die das Ergebnis der letztendlichen Blickabbildung deutlich verbessert.
Ein weiterer Parameter zur Auswahl des zumindest einen Teils des Algorithmus kann beispielsweise auch die Höhe der Bildqualität der Szenenaufnahmen und/oder der Referenz darstellen. Sind beispielsweise Szenenaufnahmen verschwommen, zum Beispiel durch zu schnelle Bewegung der Szenenkamera, oder weisen Szenenaufnahmen aus anderen Gründen eine schlechte Bildqualität auf, so können entsprechend robustere Algorithmen verwendet werden, denen zum Beispiel komplexere Bildanalyseverfahren zu Grunde gelegt werden, um noch möglichst gute Ergebnisse in Bezug auf die Blickabbildung auch für solche schlechten Bildqualitäten bereitzustellen. Gleiches gilt auch für den Fall, wenn die Referenz eine Referenzaufnahme darstellt, die dann ebenso eine schlechte Bildqualität aufweisen kann. Weisen Szenenaufnahmen oder die Referenz beispielsweise eine sehr hohe und gute Bildqualität auf, so können entsprechend weniger robuste und dafür schneller arbeitende Al- gorithmen für die Blickabbildung gewählt werden.
Die Referenz kann jedoch nicht nur als Bildaufnahme vorliegen, sondern kann viele verschiedene Formen annehmen, wie bereits erwähnt. Eine Referenz bzw. ein Referenzbild kann auch ein sogenanntes Symbolbild darstellen. In einem solchen Sym- bolbild sind bestimmte Objekte symbolisch oder schematisch dargestellt. Zum Beispiel kann in einem solchen Symbolbild eine symbolische oder skizzenhafte oder schematische Flasche dargestellt sein, und es soll nun festgestellt werden, ob oder wie oft eine Person auf in der Szene vorhandene Flaschen blickt. Ein Blickpunkt in Bezug auf eine solche Szenenaufnahme, der auf einer Flasche liegt, kann entsprechend dem Symbolbild der Flasche als Referenz zugeordnet werden. Um eine derartige Blickabbildung zu bewerkstelligen, sind beispielsweise Registrierungsverfahren, die verschiedene Aufnahmen aus unterschiedlichen Perspektiven miteinander registrieren können, ungeeignet, da es sich nun bei der Referenz um ein Symbolbild han- delt. In einem solchen Fall können beispielsweise Algorithmen zum Einsatz kommen, die auf Objektdetektion und Objektklassifikation beruhen. Ein solcher Algorithmus kann beispielsweise die auf der Referenz dargestellte symbolische Flasche als Flasche klassifizieren und entsprechend in den Szenenaufnahmen nach Objekten, die ebenfalls als Flasche klassifiziert wurden, suchen. Entsprechend kann dann über- prüft werden, ob Blickpunkte oder auch Blickrichtungen auf solche als Flasche klassifizierten Objekten ruhen. Eine Referenz muss aber nicht notwendigerweise ein Bild sein, eine Referenz kann auch eine Objektliste darstellen, welche verschiedene Objektklassen umfasst. Entsprechen können wiederum Algorithmen verwendet werden, die Szenenaufnahmen dahingehend analysieren, ob sich in diesen Objekte befinden, die sich als die gemäß der Referenz vorgegebenen Objekte klassifizieren lassen, und entsprechend Blickpunkte auf solchen klassifizierten Objekten den entsprechenden Objektklassen der Referenz zuordnen. Auch gibt es wie beschrieben verschiedene Arten von Szenenaufnahmen. Eine solche Szenenaufnahmen kann ein mit einer Kamera aufgenommenes Bild darstellen, sie kann aber auch zum Beispiel die Anzeige auf einem Bildschirm darstellen, sozusagen als eine Art Screenshot, sie kann die Aufnahme einer virtuellen Darstellung, zum Beispiel durch eine Virtual Rea- lity Brille darstellen, die Aufnahme einer computergenerierten Szene aus einer bestimmten aktuellen Perspektive der Person, oder auch eine Überlagerung aus mittels einer Kamera aufgenommenen Bildaufnahme einer Umgebung des Benutzers mit digitalen Bildinhalten, wie zum Beispiel bei einer AR-Brille. Unter einer Aufnahme, insbesondere im Zusammenhang mit einer computergenerierten Szene oder digitalen Bildinhalten, zum Beispiel von einer computergenerierten, virtuellen Szene, ist dabei nicht notwendigerweise eine Aufnahme mittels einer Kamera oder das Erfassen oder Speichern von einem aktuell angezeigten 2D- oder 3D-Bild der Szene zu verstehen, sondern beispielsweise auch die Aufnahme der Szenendaten der gesamten computergenerierten Szene, zum Bespiel durch Speichern oder Bereitstellen der Szenendaten der computergenerierten Szene, zusammen mit der Festlegung eines virtuellen Standpunktes, der die Sicht bzw. Perspektive der Person auf die aktuell angezeigte virtuelle Szene definiert. Zur Bestimmung der aktuellen Perspektive kann zum Beispiel eine 3D-Pose der Person erfasst werden und/oder die Blickrichtung, je nachdem welcher dieser Parameter eine Veränderung der Perspektive auf die Szene bewirkt. Bei typischen VR-Anwendungen mit VR-Brillen zum Beispiel kann eine Person durch Bewegen des Kopfes sich in der virtuell dargestellten Szene umsehen und dadurch den Blick, und damit die Perspektive auf die Szene verändern. Solche Kopfbewegungen können entsprechend ebenfalls erfasst werden, insbesondere zusammen mit der korrespondieren Blickrichtung der Person zu diesem Zeitpunkt, so dass diese Daten die virtuelle Perspektive auf die virtuelle Szene definieren. Auch dies kann unter einer Szenenaufnahme verstanden werden.
Gleiches gilt auch wiederum für die Referenz, diese kann ebenfalls VR- oder AR- Bildinhalte umfassen, eine Szene einer computergenerierten Grafik darstellen, oder die Anzeige auf einen Bildschirm. Zudem kann die Referenz als einzelne Referenzaufnahme oder auch als Referenzvideo bereitgestellt sein. Für all diese unter- schiedlichen Arten von Szenenaufnahmen und Referenz können nun vorteilhafterweise auch entsprechend geeignete Algorithmen für die Durchführung der Blickabbildung gewählt werden. Auch ist es vorteilhaft den zumindest einen Teil des Algorithmus in Abhängigkeit davon zu wählen, ob bei der Blickabbildung ein Blickpunkt bzw. mehrere Blickpunkte auf die Referenz abgebildet werden sollen, oder ob Blick- richtungen abgebildet werden sollen. Ein weiteres vorteilhaftes Kriterium für die Auswahl des zumindest einen Algorithmenteils stellt auch die Dimension der Szenenaufnahmen und/oder der Referenz und/oder der Blickpunkte und/oder der Blickrichtungen dar. Insbesondere können Szenenaufnahmen, Referenz, Objekte in Szenenaufnahmen und/oder Referenz, Blickpunkte und/oder Blickrichtungen im Allgemeinen zweidimensional oder auch dreidimensional sein. Auch das Ausmaß einer inhaltlichen Übereinstimmung zwischen der Referenz und der Szene kann als Parameter zur Auswahl des zumindest einen Teils des Algorithmus herangezogen werden. Beispielsweise kann die Referenz eine Szenenaufnahme der mehreren Szenenaufnahmen darstellen. Wird an der Szene während die Szenenaufnahmen aufgenommen werden, nichts geändert, so stimmen zumindest die Teile der Szenenaufnahme, die die Referenzaufnahme umfassen inhaltlich vollständig überein. Es gibt jedoch auch Situationen, in welcher zunächst eine Referenz bereitgestellt wird, zum Beispiel in Form einer Schemazeichnung oder Skizze oder auch in Form einer rechnerunter- stützten Konstruktion, welche dann als reale Szenen nachgebaut oder nachgebildet werden soll. In einem solchen Fall kann es zu Abweichungen zwischen der realen Szene und der Referenz kommen, beispielsweise kann es dann vorkommen, dass Objekte in der realen Szene nicht die gleichen Abstände oder Positionen zueinander aufweisen, wie in der Referenz. Um bessere Ergebnisse bei der Blickabbildung zu erzielen, eignen sich im letzten Fall wiederum robustere Algorithmen, während wiederum bei guter Übereinstimmung zwischen Szene bzw. dann entsprechende Szenenaufnahmen und Referenz einfachere und schnellere Algorithmen verwendet werden können. Zum Bestimmen, ob und wie gut Szenenaufnahmen mit der Referenz übereinstimmen, können wiederum Bildanalyseverfahren verwendet werden. Solche können einzelne Szenenaufnahmen untereinander sowie mit der Referenz, der Referenzaufnahme, oder dem Referenzbild vergleichen.
Gemäß einer weiteren vorteilhaften Ausgestaltung der Erfindung wird bei der Analyse der Eingangsdaten die Art der Daten betreffend die Szenenaufnahmen und/oder die Referenz und/oder betreffend die Blickpunkte und/oder Blickrichtungen ermittelt, insbesondere im Hinblick auf Datentyp, Datenstruktur, Datenformat und/oder Dateiformat, um daraus die Art und/oder Dimension der Szenenaufnahmen und/oder der Referenz und/oder der Blickpunkte und/oder Blickrichtungen zu bestimmen. Ob es sich also beispielsweise bei der Szenenaufnahme um die Aufnahme eines Kame- rabildes oder um eine computergenerierte Grafik oder Ähnliches handelt, ob die Szenenaufnahme zweidimensional oder dreidimensional ist, ob Blickpunkte als zweidimensionale Punkte oder 3-dimensionale Punkte vorliegen, ob Blickpunktdaten Blickpunkte oder Blickrichtungen wiedergeben, um welche Art oder Dimension der Referenz es sich handelt, usw. kann auf besonders einfache Weise durch die Art, in welcher der Daten dieser betreffenden Szenenaufnahmen, der Referenz und der Blickdaten vorliegen, ermittelt werden.
Bei einer weiteren vorteilhaften Ausgestaltung der Erfindung werden bei der Analyse der Eingangsdaten eine oder mehrere der Szenenaufnahmen und/oder die Referenz im Hinblick auf ihre Bildqualität und/oder Bildinhalte analysiert. Durch eine Analyse der Szenenaufnahmen und/oder der Referenz, insbesondere deren Bilddaten können vielzählige der oben genannten vorteilhaften Informationen, die zur Algorithmenauswahl herangezogen werden können, automatisch gewonnen werden. Dies kann auf besonders einfache Weise durch Bildanalyseverfahren bewerkstelligt werden. Zur Analyse der Bildqualität können Bildaufnahmen oder im Allgemeinen Bilder hinsichtlich ihrer Helligkeitswerte, Farben, Disparität, Tiefenwerte, Kontraste, Kontrastverläufen, Kontrastgradienten, Helligkeitsverläufe, Helligkeitsgradienten, Farbverläufe, Farbgradienten, Textureigenschaften, Disparitätsverläufe, Disparitätsgradient, Tiefenverläufe, Tiefengradienten, Sättigung, Sättigungsverläufe, Rauschanteile, die durch Frequenzanalyse ermittelt werden können, usw. analysiert werden. Bei der Analyse von Bildinhalten können beispielsweise erkannte (d.h. nicht notwendigerweise auch klassifizierte) Objekte in ihren Positionen zueinander verglichen werden, auch beispielsweise über mehrere Aufnahmen hinweg, um zum Beispiel zu ermitteln, ob sich Objekte räumlich und/oder zeitlich verändern, bewegen, oder ähnliches. Entsprechen können durch solche Analysen auch Objekte klassifiziert werden.
Bei der Analyse der Eingangsdaten müssen nicht notwendigerweise alle Eingangsdaten analysiert werden, dies kann auch stichprobenartig erfolgen oder nur für eine bestimmte Auswahl der Eingangsdaten. Beispielsweise müssen nicht alle Szenenaufnahmen in Hinblick auf Bildqualität und/oder Bildinhalte analysiert werden, es kann auch eine Stichprobe aus diesen Szenenaufnahmen ausgewählt und anschließend analysiert werden, um die oben beschriebenen Informationen zu gewinnen. Hierdurch kann wiederum viel Zeit bei der Bildanalyse oder generell bei der Daten- analyse der Eingangsdaten eingespart werden. Beispielsweise kann es auch vorgesehen sein, dass mit der Analyse der Szenenaufnahmen in einer vorbestimmten und oder zufälligen Reihenfolge begonnen wird, und sofern die oben genannten Informationen hinreichend zuverlässig, zum Beispiel gemäß einem bestimmten Kriterium, ermittelt wurden, kann die Analyse der Eingangsdaten beendet werden. Zum Bei- spiel, wenn bereits aus der Analyse von zwei oder drei Szenenaufnahmen hervorgeht, dass die Szene bewegte Objekte enthält, kann von einer weiteren Analyse der weiteren Szenenaufnahmen unter diesem Aspekt abgesehen werden. Es können alternativ aber auch alle Eingangsdaten bzw. alle Szenenaufnahmen analysiert werden. Zudem ist es möglich für die auf Basis einer jeweiligen Szenenaufnahme durchzuführenden Blickabbildung auch einen jeweiligen Teil des Algorithmus separat auszuwählen. Hierzu können beispielsweise auch die Szenenaufnahmen im Hinblick auf die oben genannten Aspekte in Gruppen eingeteilt werden und entsprechend für diese Gruppen je ein geeigneter Algorithmus zur Durchführung der Blickabbildung verwendet werden. Beispielsweise kann es vorkommen, dass manche Szenenaufnahmen keine bewegten Objekte aufweisen, während dies andere tun. Auch kann es sein, dass manche der Szenenaufnahmen einen statischen und/oder homogenen Hintergrund aufweisen, während dies für andere Szenenaufnahmen nicht zutrifft. Auch kann die Bildqualität der Szenenaufnahmen von Szenenaufnahmen zu Szenenaufnahme anders sein. In gleicher Weise gilt dies auch für die Referenz. Dies ermöglicht vorteilhafterweise gezielt Algorithmen für eine jeweilige Szenenaufnahme bzw. Szenengruppe auszuwählen, wodurch sich wiederum eine deut- lieh bessere Situationsanpassung, bessere Ergebnisse und insgesamt eine große Zeitersparnis erzielen lassen. Eine solche Einteilung von Szenenaufnahmen in Gruppe kann jedoch nicht nur hinsichtlich der oben genannten Aspekte erfolgen, sondern alternativ oder zusätzlich auch im Hinblick auf zeitliche Kriterien. Daher ist es eine weitere vorteilhafte Ausgestaltung der Erfindung, wenn eine jeweilige Szenenaufnahme einer von mehreren Zeitintervallgruppen zugeordnet wird, wobei das Auswählen des zumindest einen Teils des Algorithmus zur Durchführung der Blickabbildung in Abhängigkeit von dem mindestens einen Parameter für eine jeweilige Zeitintervallgruppe separat durchgeführt wird. Dabei stellen insbesondere die Zeitintervallgruppen verschiedene Blickereigniszeitintervalle, insbesondere in Bezug auf Fixationen, dar, und/oder Analysezeitintervalle, und/oder Aufnahmezeitintervalle, und/oder Experimentzeitintervalle und/oder Studienzeitintervalle. Dabei umfasst eine Studie üblicherweise eines oder mehrere Experimente, ein Experiment kann eine oder mehrere Aufnahmen umfassen, eine Aufnahme kann eine oder mehrere Analy- sezeitintervalle umfassen und ein Analysezeitintervall kann wiederum eine oder mehrere Blickereignisse umfassen. Ein solches Blickereignis stellt beispielsweise eine Fixation dar. Bei einer Fixation verharrt das Auge auf einem bestimmten Punkt für eine längere, insbesondere charakteristische, Zeitdauer. Eine solche Fixation kann auch in Form einer bewegten Fixation vorliegen, bei welcher das Auge zum Beispiel einem sich bewegenden Objekt folgt. Die Bewegung des Auges während einer solchen bewegten Fixation erfolgt dabei üblicherweise kontinuierlich. Ein weiteres Blickereignis stellt beispielsweise eine sogenannte Sakkade dar. Während einer solchen Sakkade springt das Auge von einer Fixation zur nächsten. Das Auge ist in dieser Zeitspanne nicht aufnahmefähig bzw. die vom Auge aufgenommenen visuellen Informationen werden nicht weitergeleitet oder vom Gehirn weiterverarbeitet. Entsprechend sind auch Blickdaten, die eine solche Sakkade betreffen, nicht relevant, da eine Person während einer solchen Sakkade nicht aktiv auf ein Objekt in der Umgebung bzw. in Bezug auf die Szene blickt. Weiterhin folgt eine Sakkade üblicherweise einer ballistischen Bewegung. Anhand der Blickdaten, insbesondere in ihrem zeitlichen Verlauf, können derartige Blickereignisse anhand der genannten Charakteristiken, das heißt charakteristische Zeitdauern und Bewegungsverläufe, identifiziert werden, die mittels des Eyetrackers erfasst werden können. Diese Ausführungsform der Erfindung ermöglicht es beispielsweise, dass für die Blickabbildung von Blickpunkten bzw. Blickrichtungen, die einer einzelnen Fixation zugeordnet sind, separat den zumindest einen Teil des Algorithmus auszuwählen, und für weitere Blickereignisse, d.h. weitere Fixationen, wiederum den zumindest einen Teil des Algorithmus neu bzw. separat auszuwählen, usw. Auch dies ermög- licht eine besonders differenzierte Situationsanpassung. Eine weitere Zeitintervallgruppe kann aber auch ein Analysezeitintervall darstellen. Während einer Aufnahme, d.h. also während die Person die Szene begutachtet und dabei zum Beispiel ein Szenenvideo aufgenommen wird, kann es jedoch Zeitintervalle geben, in welchem die Person abgelenkt ist, und zum Beispiel gar nicht in Richtung der relevanten Inhal- te dieser Szene blickt. Auch erfolgt am Anfang oder Ende eines solchen Versuchs üblicherweise zunächst eine Einweisung von Personen oder eine nachfolgende Besprechung, während die Szenenkamera weiter Bilder aufnimmt, die jedoch für den eigentlichen Versuch nicht mehr relevant sind. Auch können mehrere Versuche durchgeführt werden, mit Zwischenbesprechungen oder ähnlichem. Hierdurch kann ein Szenenvideo beispielsweise in relevante und nicht relevante Zeitabschnitte, den Analysezeitintervallen, eingeteilt werden. Ein Analysezeitintervall stellt entsprechend ein Zeitintervall dar, in welchem das Szenenvideo zum Beispiel relevante Bildinhalte aufweist, die analysiert werden sollen. Entsprechend kann die Algorithmenauswahl auch separat für ein jeweiliges solches Analysezeitintervall durchgeführt werden. Beispielsweise kann sich auch die Szene von Analysezeitintervall zu Analysezeitintervall ändern, sodass eine separate Algorithmenauswahl in Bezug auf ein jeweiliges solches Zeitintervall wiederum besonders vorteilhaft ist und eine optimale Situationsanpassung mit optimalen Ergebnissen erlaubt.
Ein Aufnahmezeitintervall stellt dabei zum Beispiel ein Zeitintervall dar, welches sich auf die gesamte Videoaufnahme eines Szenenvideos bezieht. Ein Experiment kann mehrere solche Aufnahmen umfassen, die zum Beispiel für verschiedene Personen gemacht wurden, oder an verschiedenen Tagen durchgeführt wurden. Auch für eine jeweilige solche Aufnahme kann wiederum eine separate Algorithmenauswahl durchgeführt werden. Entsprechendes gilt wiederum für die einzelnen Experimente einer Studie, so wie für unterschiedliche Studien selbst.
Zudem kann die Festlegung solcher Zeitintervalle ebenfalls auf Basis einer Analyse der Eingangsdaten bestimmt werden. Durch Analyse der Blickdaten lassen sich beispielsweise die Blickereigniszeitintervalle ermitteln. Durch eine inhaltliche Analyse der Szenenaufnahmen können Analysezeitintervalle festgelegt werden. Anfang und Ende eines Szenenvideos bestimmen beispielsweise ein Aufnahmezeitintervall. Die übrigen Zeitintervalle können zum Beispiel aus Metadaten gewonnen werden, die zum Beispiel definieren, welche Szenenvideos zu einem Experiment gehören und welche Experimente zu einer Studie. Die Zeitintervalle können zusätzlich oder alternativ auch durch einen Benutzer manuell festgelegt werden.
Bei einer weiteren vorteilhaften Ausgestaltung der Erfindung werden mit zumindest einem Teil der Eingangsdaten assoziierte Metadaten bereitgestellt, wobei der zumindest eine Teil des Algorithmus in Abhängigkeit von zumindest einem Teil der Metadaten als dem mindestens einen Parameter gewählt wird. Über solche Metadaten können zu den einzelnen Eingangsdaten entsprechende Zusatzinformationen bereitgestellt sein. Solche Metadaten können sich dabei auf die zumindest eine Szenen- aufnähme beziehen und/oder auf die Referenz und/oder auf die Blickpunkte und/oder Blickrichtungen und/oder auch auf die Szene selbst oder (bekannte) Objekte der Szene. Solche Informationen können zum Beispiel ein Zeitstempel sein, oder auch Datum, Uhrzeit, Ort der Aufnahme, technische Daten zur Szenenaufnahme oder Blickerfassung, wie Abtastfrequenz, Bildrate, oder ähnliches. Solche Metainformationen können auch Bemerkungen zu Szenenaufnahmen, zur Aufnahme insgesamt, zu einzelnen Blickpunktdaten oder ähnlichen, die beispielsweise von einem Benutzer manuell hinzugefügt worden sind, sein. Solche Metainformationen können entsprechend auch Informationen über relevante Objekte in den Szenenaufnahmen sein, Informati- onen zu Verdeckungen relevanter Objekte, Objekteigenschaften, wie Gewicht, Material, Wert/Preis, Seltenheit, Reflektanz, Opazität ,oder ähnliches. Metadaten können auch in Form einer Verschlagwortung vorliegen. Beispielsweise können Szenenaufnahmen einen Titel enthalten, zum Beispiel„Regalstudie" oder„Personenstudie", so dass in Abhängigkeit davon ein geeigneter Algorithmus oder zumindest Teil davon für die Blickabbildung gewählt werden kann. Zum Beispiel kann für Personenstudien ein Algorithmus für menschliche Interaktion gewählt werde, der besonders geeignet für Gesichtserkennung, Erkennung von Augen, Gesten oder ähnlichem ist. Auch solche durch Metadaten bereitgestellte weiterführenden Informationen, die über die reinen Bilddaten der Szenenaufnahmen und der Referenz und den reinen Blickdaten hinausgehen, können vorteilhafterweise genutzt werden, um die Algorithmenauswahl weiter zu optimieren. Auch können solche Metainformationen bzw. Metadaten zum Beispiel die oben beschriebenen Zeitintervalle festlegen.
Bei einer weiteren vorteilhaften Ausgestaltung der Erfindung wird zumindest eine Benutzereingabe erfasst und der zumindest eine Teil des Algorithmus in Abhängigkeit von der erfassten Benutzereingabe als der mindestens eine Parameter gewählt. Dies hat den großen Vorteil, dass auch Zusatzinformationen durch den Benutzer selbst der Vorrichtung bereitgestellt werden können, um die Algorithmenauswahl noch weiter zu optimieren. Beispielsweise ist hier durch den Benutzer die Möglichkeit bereitgestellt, weitere Angaben zum Beispiel zum Experiment oder zur Studie, zur Szene, zu relevanten Objekten, oder ähnlichem zu machen. Auch kann zum Beispiel das Anwendungsfeld oder eine Aufgabe bzw. Fragestellung oder Zielsetzungen spezifiziert werden. Beispielsweise kann es für manche Versuche lediglich relevant sein, festzustellen, ob ein Benutzer auf ein bestimmtes Objekt blickt oder ob nicht, oder auf welches von mehreren Objekten ein Benutzer blickt, wobei es dabei unerheblich ist, wohin genau auf diesem Objekt der Benutzer blickt. Bei anderen Versuchen kann es jedoch relevant sein, auch genau festzustellen, auf welchen genauen Bereich eines Objekts eine Person gerade blickt. Im zweiten Fall können entsprechend präzisere und genauere Blickabbildungsalgorithmen eingesetzt werden, während im ers- ten Fall beispielsweise einfachere Algorithmen mit geringerer Genauigkeit oder auf Basis von Objekterkennung arbeitende Algorithmen ausgewählt werden können. Eine Benutzereingabe kann jedoch auch im Zuge einer geführten Algorithmenauswahl zum Einsatz kommen. Beispielsweise kann die Vorrichtung bereits durch Voranalyse oder durch Analyse der Eingangsdaten im Hinblick auf zumindest einen der oben genannten Aspekte bereits eine Vorauswahl in Bezug auf die bereitgestellten vorbestimmten Algorithmen treffen, und zum Beispiel anhand der durch die Vorrichtung selbsttätig gewonnenen Informationen bestimmte Algorithmen für die Verwendung der Blickpunktabbildung ausschließen und wiederum andere in Betracht ziehen. Die- se ausgewählten und in Betracht gezogenen Algorithmen können zum Beispiel einem Benutzer zur Auswahl bereitgestellt werden, sodass dieser nicht mehr aus allen möglichen Algorithmen auswählen muss, sondern lediglich aus einer geringen Anzahl. Auch können im Zuge des Auswahlverfahrens Aufforderungen an den Benutzer ausgegeben werden, um nähere Spezifikationen zur Situation, den Eingangsdaten, der Anwendung oder ähnlichem zu machen. Die Algorithmenauswahl kann damit automatisch oder stufenweise einen Nutzer mit Vorschlägen führen. Zudem ist es möglich, dass die Eingangsdaten zunächst auf die oben beschriebenen Aspekte hin analysiert werden, und sollte dabei zum Beispiel festgestellt werden, dass die Analyse im Hinblick auf manche dieser Aspekte zu keinem oder keinem hinreichend siche- ren Ergebnis geführt hat, so kann die Vorrichtung eine entsprechende Fragestellung an den Benutzer ausgeben, wie beispielsweise ob die Szene bewegte Objekte enthält oder ob die bewegten Objekte in der Szene relevante Objekte darstellen. Auch kann der Benutzer bestimmte Vorgaben machen oder Kriterien für die Blickabbildung festlegen, wie nachfolgend näher beschrieben wird.
Bei einer weiteren vorteilhaften Ausgestaltung der Erfindung wird zumindest einer von mehreren zur Durchführung der Blickabbildung erforderlichen Schritte auf Basis zumindest eines ersten der vorbestimmten Algorithmen durchgeführt, und ein Ergebnis der Durchführung bereitgestellt, in Abhängigkeit von welchem der zumindest eine Teil des Algorithmus als der mindestens eine Parameter ausgewählt wird. Dies ermöglicht es vorteilhafterweise auch die Ergebnisse vorher durchgeführter Schritte der Blickabbildung oder bestimmte Zwischenergebnisse zu nutzen, um den zumindest einen Teil des Algorithmus auszuwählen. Auch können bestimmte Teilschritte der Blickabbildung durchgeführt werden, und das Ergebnis im Hinblick auf seine Qualität oder Güte analysiert werden. Sollten solche Teilschritte zu schlechten Ergebnissen führen, so kann ein neuer Teil des Algorithmus ausgewählt werden und dieser Verfahrensschritt mit dem neuausgewählten Algorithmus durchgeführt bzw. wiederholt werden. So können auch vorteilhafterweise Zwischenergebnisse und Teilergebnisse von vorher oder parallel ausgeführten Algorithmen herangezogen werden, um letztendlich den zumindest einen Teil des Algorithmus auszuwählen. Zudem können dabei auch Analyseschritte zur Analyse der Eingangsdaten, zum Beispiel im Hinblick auf zumindest eines der oben genannten Aspekte, bereits Teil der Blickabbildung selbst darstellen. Oder anders ausgedrückt, Ergebnisse der Analyse der Eingangs- daten, wie zum Beispiel der Analyse der Szenenaufnahmen, inhaltlich oder im Hinblick auf ihre Bildqualität, können dann entsprechend genutzt werden, um zum Beispiel den Teil des Algorithmus auszuwählen, welcher für die Abbildung des Blickpunkts aus einer Szenenaufnahme auf die Referenz zuständig ist, insbesondere anhand der bereits aus der Analyse gewonnenen Ergebnisse. Auch können bei der Analyse der Eingangsdaten gewonnene Ergebnisse ober erkannte und/oder klassifizierte Objekte in den Szenenaufnahmen oder der Referenz für die Blickabbildung genutzt werden, so dass für die Blickabbildung keine separate Bildanalyse mehr durchgeführt werden muss oder diese zumindest in reduzierte Weise durchgeführt werden kann.
Auch kann die Algorithmenauswahl in Form einer Art Regelschleife erfolgen. Beispielsweise kann die Blickabbildung für einige der Szenenaufnahmen gemäß einem zunächst ausgewählten Algorithmus durchgeführt werden, überprüft werden, ob das Ergebnis vorbestimmten Anforderungen entspricht, und falls nicht, kann eine neue Auswahl des Algorithmus erfolgen.
Dabei ist es besonders vorteilhaft, wenn ermittelt wird, ob oder in welchem Ausmaß das Ergebnis eine vorbestimmte oder durch einen Benutzer vorgebbare erste Bedingung erfüllt und in Abhängigkeit davon der zumindest eine Teil des Algorithmus als der mindestens eine Parameter ausgewählt wird. Solche Bedingungen können zum Beispiel Bedingungen an die Qualität oder Zuverlässigkeit des letztendlichen Ergebnisses oder auch an Zwischenergebnisse sein, Bedingungen an den Zeitaufwand, der für die Blickabbildungen letztendlich aufgewandt werden soll, oder ähnliches. Der Zeitaufwand kann dabei beispielsweise durch einfache Zeitmessung, zum Beispiel für einzelne Schritte, ermittelt und für den gesamten Blickabbildungsvorgang extrapoliert bzw. geschätzt werden oder auf Basis von Erfahrungswerten für den Zeitaufwand einzelner Algorithmen bereitgestellt werden. Auch die Qualität von Blickabbildung kann beispielsweise gemäß Qualitätsbewertungen anhand von einem oder mehreren Gütemaßen oder Güteklassen erfolgen, wie zum Beispiel der parallelen Anmeldung der gleichen Anmelderin mit dem Titel„Verfahren und Vorrichtung zum Bewerten von Blickabbildungen", eingereicht am gleichen Anmeldetag, erfolgen.
Gemäß einer weiteren vorteilhaften Ausgestaltung der Erfindung ist von einem Be- nutzer zumindest eine Randbedingung betreffend einen Aufwand, insbesondere Zeitaufwand, und/oder eine Qualität eines Ergebnisses der Durchführung der Blickabbildung vorgebbar, und der zumindest eine Teil des Algorithmus zur Durchführung der Blickabbildung wird in Abhängigkeit von der Randbedingung als der zumindest eine Parameter gewählt. So können vorteilhafterweise auch Vorgaben des Benutzers hinsichtlich der zu erreichenden Qualität oder des Zeitaufwands bei der Wahl des zumindest einen Teil des Algorithmus berücksichtigt werden. Zum Beispiel kann der Benutzer hier durch entsprechende Prioritäten setzen und zum Beispiel vorgeben, dass unbeachtlich des Zeitaufwands die maximale Qualität erreicht werden soll. Umgekehrt kann durch den Benutzer auch vorgegeben werden, dass der Zeitaufwand für die Blickabbildung bzw. auch für die Algorithmenauswahl möglichst gering gehalten werden soll. Zum Beispiel kann der Benutzer aus zwei oder mehreren Stufen dieser Kriterien auswählen, wie zum Beispiel für den Zeitaufwand einen geringen, mittleren oder hohen Zeitaufwand vorgeben und/oder auch für die Qualität eine geringe, mittlere oder hohe Qualität fordern.
Bei einer weiteren vorteilhaften Ausgestaltung der Erfindung wird nach Durchführung der Blickabbildung in Abhängigkeit von einem Ergebnis der Blickabbildung und in Abhängigkeit von einer Randbedingung bestimmt, ob eine Neuauswahl betreffend den zumindest einen Teil des Algorithmus zur wiederholten Durchführung der Blick- abbildung auf Basis des zumindest einen neuausgewählten Teils des Algorithmus durchgeführt wird. Dies ist insbesondere dann besonders vorteilhaft, wenn die Randbedingung eine Bedingung an die Qualität des Ergebnisses darstellt. Erreicht das Ergebnis der Blickabbildung nicht eine vorbestimmte Mindestqualität oder Mindestgüte oder eine vorbestimmte Zuverlässigkeit, so kann eine entsprechende Neuauswahl unter Berücksichtigung der bisherigen Auswahl und Ergebnisse durchgeführt werden, insbesondere bis die Randbedingung an das Ergebnis erfüllt ist. Dies ermöglicht es auch vorteilhafterweise, zunächst einfachere und schnellere Algorithmen zu wählen, und erst wenn das Ergebnis den gewünschten Anforderungen nicht entspricht, entsprechend aufwändigere oder genauere Algorithmen zur Durchführung der Blickabbildung auszuwählen und die Blickabbildung entsprechend erneut durchzuführen.
Bei einer weiteren vorteilhaften Ausgestaltung der Erfindung wird zumindest ein Teil von zwischen und/oder Ergebnisdaten des Auswählens des zumindest einen Teils des Algorithmus und/oder des Durchführens der Blickabbildung auf Basis des ausgewählten Algorithmus gespeichert und als zumindest ein zweiter Parameter für ein nachfolgendes und wiederholtes Durchführen der Blickabbildung bereitgestellt, bei welcher zumindest ein Teil des Algorithmus zur Durchführung der Blickabbildung aus den mehreren vorbestimmten Analysealgorithmen zusätzlich in Abhängigkeit von dem mindestens einen zweiten Parameter ausgewählt wird.
Das Verfahren kann damit ein lernendes Verfahren darstellen, welches bereits gewonnene Ergebnisse aus vorher durchgeführten Blickabbildungen und entsprechenden Auswahlen von Algorithmen und deren Ergebnisse nutzen kann, um darauf ba- sierend Entscheidungen für erneute Durchführungen der Algorithmenauswahl zu treffen. Beispielsweise kann es sein, dass aufgrund bisheriger Ergebnisse von Blickabbildungen mit bestimmten Algorithmen festgestellt wurde, dass dieser oder jener Algorithmus zu besonders guten Ergebnissen für Szenenaufnahmen mit bestimmten Charakteristiken, wie zum Beispiel bewegten Objekten, Aufnahmen in einem Raum, Aufnahmen in der Natur, Aufnahmen mit Personen oder ähnlichem führt. Werden bei einer Neudurchführung des Verfahrens, zum Beispiel für ein anderes Experiment oder eine Studie, erkannt, zum Beispiel auf Basis der Analyse der Szenenaufnahmen oder Teilen davon, dass wiederum eine ähnliche Situation vorliegt, so kann auf die für diese Situation bereits als geeignet spezifizierten Algorithmen zurückgegriffen werden. So können bestimmende Entscheidungen oder Vorentscheidungen, insbesondere auch in Bezug auf Randbedingungen automatisch gelernt und/oder optimiert werden. Des Weiteren betrifft die Erfindung eine Vorrichtung zum Durchführen einer Blickabbildung, bei welcher zumindest ein Blickpunkt und/oder eine Blickrichtung zumindest einer Person in Bezug auf zumindest eine Szenenaufnahme von einer von der zumindest einen Person betrachteten Szene auf eine Referenz abgebildet wird, wobei die Vorrichtung eine Steuereinrichtung und einen Speicher aufweist. Weiterhin sind im Speicher mehrere vorbestimmte Algorithmen abgelegt und die Steuereinrichtung ist dazu ausgelegt, zumindest einen Teil eines Algorithmus zur Durchführung der Blickabbildung aus den mehreren vorbestimmten Algorithmen in Abhängigkeit von mindestens einem Parameter auszuwählen und die Blickabbildung auf Basis des zumindest einen Teils des Algorithmus durchzuführen.
Die für das erfindungsgemäße Verfahren und seinen Ausgestaltungen genannten Vorteile gelten auch für die erfindungsgemäße Vorrichtung. Darüber hinaus ermöglichen die im Zusammenhang mit dem erfindungsgemäßen Verfahren und seinen Ausgestaltungen genannten Verfahrensschritte die Weiterbildung der erfindungsgemäßen Vorrichtung durch weitere gegenständliche Merkmale.
Zu der Erfindung gehört auch die Steuervorrichtung für die Vorrichtung. Die Steuervorrichtung weist eine Prozessoreinrichtung auf, die dazu eingerichtet ist, eine Aus- führungsform des erfindungsgemäßen Verfahrens oder eines seiner Ausführungsformen durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen Mikroprozessor und/oder zumindest einen MikroController aufweisen. Des Weiteren kann die Prozessoreinrichtung Programmcode aufweisen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung die Ausführungsform des erfindungsge- mäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Prozessoreinrichtung gespeichert sein.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzuse- hen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unab- hängigen Anspruchs aufweisen. Es sind darüber hinaus Ausführungen und Merkmalskombinationen, insbesondere durch die oben dargelegten Ausführungen, als offenbart anzusehen, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder abweichen. Es zeigen: eine schematische Darstellung einer Szene und einer die Szene betrachtenden Person; eine schematische Darstellung einer Szenenaufnahme mit einem auf die Szenenaufnahme bezogenen Blickpunkt und einer Referenz gemäß einem Ausführungsbeispiel der Erfindung; eine schematische Darstellung einer Szenenaufnahme mit einem auf die Szenenaufnahme bezogenen Blickpunkt und einer Referenz gemäß einem weiteren Ausführungsbeispiel der Erfindung; eine schematische Darstellung einer Vorrichtung zur Durchführung einer Blickabbildung gemäß einem Ausführungsbeispiel der Erfindung; und ein Ablaufdiagramm zur Veranschaulichung eines Verfahrens zur Durchführung einer Blickabbildung gemäß einem Ausführungsbeispiel der Erfindung.
Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer ande- ren als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar. In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.
Fig. 1 zeigt eine schematische Darstellung einer Person 10, die gerade eine Szene 12 betrachtet. Hierbei trägt die Person 10 eine Brille 14 mit einem integrierten Eyetracker, welcher während die Person 10 die Szene 12 betrachtet, fortwährend Blickdaten der Person 10 erfasst. Weiterhin weist die Brille 14 eine Szenenkamera 16 auf, welche ebenfalls währenddessen fortwährend Bilder der Szene 12 aufnimmt. Die Erfassung der Blickdaten ist dabei zeitlich auf die Erfassung der Szenenbilder abgestimmt bzw. in Bezug zu diesen gesetzt oder setzbar. Zum Beispiel kann die Erfassung jeweiliger Blickdaten bzw. daraus ermittelter Blickrichtungen bzw. Blickpunkte der Person 10 und die Aufnahme eines jeweiligen Bildes zu einem jeweiligen Zeitschritt synchron erfolgen, oder die Erfassung der Blickdaten sowie der Bildaufnahmen können mit einem Zeitstempel versehen werden, sodass ein jeweiliger Blickpunkt oder eine jeweilige Blickrichtung jeweils genau einer Szenenaufnahme zugeordnet werden kann. Eine derartige Szenenaufnahme S ist dabei exemplarisch in Fig. 2 und Fig. 3 dargestellt.
Fig. 2 zeigt dabei eine schematische Darstellung einer Szenenaufnahme S der Szene 12 aus Fig. 1 mit einem Blickpunkt B der Person 10, welcher auf Basis von zum Zeitpunkt der Szenenaufnahme S erfassten Blickdaten ermittelt wurde, sowie mit einer Re- ferenz R zur Veranschaulichung einer Blickabbildung gemäß einem Ausführungsbeispiel der Erfindung. Die Szenenaufnahme S stellt hierbei exemplarisch eine Aufnahme der Szene 12, die von der Szenenkamera 16 zu einem bestimmten Zeitpunkt gemacht wurde, dar. Weiterhin wurde ein dieser Szenenaufnahme S zugeordneter Blickpunkt B anhand der vom Eyetracker erfassten Blickdaten der Person 10 berechnet, der hier ebenfalls in der Szenenaufnahme S dargestellt ist. Die Referenz R stellt in diesem Beispiel ebenfalls eine Bildaufnahme der Szene 12 dar. Die Referenz R kann beispielsweise eine der Szenenaufnahmen S, einen Ausschnitt aus einer der Szenenaufnahmen S darstellen, oder auch ein separat aufgenommenes Bild der Szene 12, beispielsweise auch mit einer anderen Kamera als die von der Person 10 getragenen Szenenkamera 16. Gemäß der Blickabbildung W wird nun der Blickpunkt B in Bezug auf die Szenenaufnahme S auf einen korrespondierenden Blickpunkt B' in Bezug auf die Referenz R abgebildet. Durch eine solche Blickabbildung M lassen sich insbesondere vielzählige Blickpunkte B, die in Bezug auf vielzählige Szenenaufnahmen S vorliegen, auf eine gemeinsame Referenz R abbilden, wodurch beispielsweise die erfassten Blickpunktdaten deutlich besser vergleichbar gemacht werden. Um eine solche Blickabbildung M durchzuführen, können bestimmte Algorithmen verwendet werden. Ein solcher Algorithmus kann beispielsweise die Szenenaufnahme S mit der Referenzaufnahme R refe- renzieren und daraus beispielsweise eine Transformation ermitteln, welche die Sze- nenaufnahme S auf die Referenz R abbildet. Diese ermittelte Transformation kann anschließend auf den in Bezug auf die Szenenaufnahme S bestimmten Blickpunkt B angewandt werden, was entsprechend den korrespondierenden abgebildeten Blickpunkt B', auf der Referenz R liefert. Die Referenzierung zwischen Szenenaufnahme S und der Referenz R kann beispielsweise auf Basis einfacher Bildanalyseverfahren erfolgen. Alternativ oder zusätzlich können auch Verfahren zur Objektdetektion und/oder Objektklassifikationen zum Einsatz kommen.
Die Szenenaufnahme S kann im Allgemeinen in verschiedensten Formen vorliegen, beispielsweise als eine 2D-Aufnahme oder auch als 3D-Szenenaufnahme, die bei- spielsweise mittels Stereokameras aufgenommen wurde. Sie kann auch die Aufnahme einer rein virtuellen, zum Beispiel computergenerierten Szene, darstellen, oder auch die Aufnahme einer AR-Szene, usw. Auch die Blickpunktdaten können in verschiedensten Formen vorliegen, zum Beispiel als 2D-Blickpunkte oder als 3D-Blickpunkte oder auch als 3D-Blickrichtung in einer 3D-Szene, usw. Auch die Referenz R kann verschiedenste Formen annehmen, insbesondere auch solche wie in Bezug auf die Szenenaufnahmen beschrieben. Weitere Möglichkeiten für die Referenz R werden anhand von Fig. 3 näher erläutert.
Fig. 3 zeigt dabei wiederum eine schematische Darstellung der Szenenaufnahme S mit dem dieser Szenenaufnahme S zugeordneten Blickpunkt B sowie einer Referenz R, welche hier in Form von verschiedenen definierten Objektklassen 18 vorliegt, welche verschiedene Objekte klassifizieren. Eine erste Objektklasse 01 kann beispielsweise auf Flaschen bezogen sein, eine zweite Objektklasse O2 auf Schachteln, eine dritte Objektklasse 03 auf Konservendosen, usw.. Um auf Basis einer derartigen Referenz R eine Blickabbildung M durchzuführen, eignen sich vor allem Algorithmen, die auf Basis von Objektklassifikationen arbeiten. Hierzu kann also beispielsweise die Szenenaufnahme S nach Objekten dieser Objektklassen 18 untersucht werden und überprüft werden, ob ein jeweiliger in Bezug auf eine solche Szenenaufnahme S vorliegender Blickpunkt B auf einem Objekt, welches einer solchen Objektklasse 18 zugeordnet ist, liegt. Ist dieses wie hier in Fig. 3 dargestellt für den auf der Flasche 20 ruhenden Blickpunkt B der Fall, so kann dieser Blickpunkt B gemäß der Blickabbildung M entsprechend der ersten Objektklasse 01 für Flaschen zugeordnet werden. Hieraus wird ersichtlich, dass je nach Situation, zum Beispiel Art der Szenenaufnahme S, der Referenz R, der Dimension der Blickpunkte B oder Blickrichtungen, usw. unterschiedliche und durch entsprechende Algorithmen definierte Vorgehensweise bei der Blickabbildung M vorteilhaft sind. Um bestmögliche Ergebnisse zu erzielen können jedoch nicht nur die Art oder Dimension von Szenenaufnahme S, Referenz R und Blick- punkt B bzw. Blickrichtung berücksichtigt werden, sondern es eignen sich auch vielzäh- lige weitere Informationen, anhand welcher ein Algorithmus oder zumindest ein Teil eines Algorithmus zur Durchführung der Blickabbildung M geeignet gewählt werden kann. Solche weiteren nützlichen Informationen stellen beispielsweise Informationen darüber dar, ob die Szene 12 eine statische Szene darstellt oder bewegte oder sich verändernde Objekte enthält, die Art von Objekten, die in solcher Szene 12 vorhanden sind, ob der Hintergrund 22 der Szenenaufnahmen S beispielsweise einen sich räumlich oder zeitlich ändernden Hintergrund darstellt oder einen statischen Hintergrund 22, die Qualität der Szenenaufnahmen S, das Ausmaß einer inhaltlichen Korrespondenz zwischen Szenenaufnahme S und Referenz R, usw. All diese Parameter eignen sich vorteilhafterweise, um einen für eine jeweilige Situation und bestimmte Gegebenheiten optimierten Algorithmus zur Durchführung der Blickabbildung M auszuwählen, was anhand von Fig. 4 näher erläutert wird.
Fig. 4 zeigt eine schematische Darstellung einer Vorrichtung 24 zur Durchführung einer Blickabbildung M gemäß einem Ausführungsbeispiel der Erfindung. Die Vorrichtung 24 weist dabei eine Steuereinrichtung 26 und einen Speicher 28 auf. Im Speicher 28 sind mehrere vorbestimmte Algorithmen A1 , A2, A3, usw. zur Durchführung einer Blickabbildung M abgelegt. Weiterhin werden an der Vorrichtung 24, zum Beispiel über eine geeignete Schnittstelle, Eingangsdaten 30 bereitgestellt, welche Daten betreffend die Szenenaufnahmen S, welche hier als Szenendaten SD bezeichnet sind, Daten betreffend die Referenz R, welche hier als Referenzdaten RD bezeichnet sind, und Daten betreffend die Blickpunkte B bzw. Blickrichtungen, welche hier als Blickdaten BD bezeichnet sind, umfassen. Auf Basis der bereitgestellten Eingangsdaten 30 ermittelt die Steuereinrichtung 26 mindestens einen Parameter P, in Abhängigkeit von welchem zumindest ein Teil eines Algorithmus aus den bereitgestellten Algorithmen A1 , A2, A3 ausgewählt wird. Auf Basis dieses ausgewählten Teils des Algorithmus, in diesem Beispiel der mit A3 bezeichnete Algorithmus, wird anschließend die Blickabbildung M durch die Steuereinrichtung 26 durchgeführt. Unter den verschiedenen Algorithmen A1 , A2, A3 kann auch ein durch einen oder mehrere zweite Parameter parametrierter Algorithmus verstanden werden, für den verschiedene Parameterwerte des zweiten Parameters festgelegt wurden, so dass zum Beispiel der erste Algorithmus A1 den parame- trierten Algorithmus für einen ersten Parameterwert des zweiten Parameters darstellt, der zweite Algorithmus den parametrierten Algorithmus für einen zweiten Parameter- wert des zweiten Parameters, usw.. Die Algorithmenauswahl legt gemäß diesem Beispiel also einen Parameterwert des zumindest einen zweiten Parameters des parametrierten Algorithmus in Abhängigkeit vom Parameter P fest.
Bei der Analyse der Eingangsdaten 30 können die Szenendaten SD und/oder die Refe- renzdaten RD und oder die Blickdaten BD analysiert werden. Dabei können diese Eingangsdaten 30 insbesondere dahingehend analysiert werden, ob die Szene 12 eine statische Szene 12 darstellt oder bewegte und/oder sich verändernde Objekte enthält, welche der Objekte der Szene 12 bewegte und/oder sich verändernde Objekte darstellen, ob die Szene einen sich räumlich und/oder zeitlich ändernden Hintergrund 22 auf- weist oder nicht, sowie auch ein Ausmaß einer inhaltlichen Übereinstimmung zwischen der Referenz R und der Szene 12 bzw. der Szenenaufnahmen S. Auch kann auf Basis der Szenendaten SD und/oder der Referenzdaten RD die Höhe der jeweiligen Bildqualität ermittelt werden. Weiterhin kann auch die Art der Eingangsdaten 30 analysiert werden, um zum Beispiel festzustellen, ob die Bilddaten als 2D-Daten oder 3D-Daten vor- liegen, die Daten eine computergenerierte Szene betreffen oder von einer Kamera aufgenommen wurden, die Referenz R als Objektklassendefinition vorliegt oder ebenfalls in Form von Bilddaten, die Blickdaten BD einen 2D-Blickpunkt einen 3D-Blickpunkt und/oder eine Blickrichtung betreffen, usw. Zudem können auch zusammen mit den Eingangsdaten 30 Metadaten bereitgestellt sein, welche insbesondere sowohl zu den Szenendaten SD, den Referenzdaten RD sowie auch zu den Blickdaten BD in Bezug gesetzt sein können. All diese Informationen können nun vorteilhafterweise als Parameter P dienen, in Abhängigkeit von welchem die Algorithmenauswahl durchgeführt wird. Insgesamt kann so ein auf eine jeweilige Situationen, Voraussetzungen und Gegeben- heiten angepasste Algorithmus zur Durchführung der Blickabbildung M bereitgestellt werden.
Zudem kann die Vorrichtung 24 auch eine Benutzerschnittstelle 32 aufweisen, über welche Benutzereingaben 34 durch die Vorrichtung 24 empfangbar sind. Auch können über eine solche Schnittstelle 32 Informationen von der Vorrichtung 24 an einen Benutzer ausgegeben werden, zum Beispiel um diesen zu bestimmten Eingaben aufzufordern. Eine solche Benutzerschnittstelle 32 kann in Form eines Bildschirms, einer Tastatur, eines Touchscreens, einer Spracheingabeeinrichtung, oder Ähnliches bereitgestellt sein. Auch solche zusätzlich von der Vorrichtung 24 empfangenen Benutzereingaben 34 können vorteilhafterweise für die Algorithmenauswahl als entsprechender Parameter bereitgestellt werden. So kann ein Benutzer beispielsweise auch bestimmte Randbedingungen für die Algorithmenauswahl festlegen, wie beispielsweise eine zu erreichende Qualität des Ergebnisses oder auch eine Begrenzung des Zeitaufwands für die Durchführung der Blickabbildung. Auch können durch einen Benutzer zusätzliche Angaben in Bezug auf das Anwendungsgebiet, eine Zielsetzung des Versuchs, relevante Objekte oder Ähnliches gemacht werden. Hierdurch lässt sich das Verfahren noch deutlich situationsangepasster gestalten und dadurch noch bessere Ergebnisse erzielen.
Fig. 5 zeigt ein Ablaufdiagramm zur Veranschaulichung eines Verfahrens zum Durchführen einer Blickabbildung M gemäß einem Ausführungsbeispiel der Erfindung. Hierzu werden zunächst in Schritt S10 Eingangsdaten 30 bereitgestellt, welche in Schritt S12 analysiert werden. Optional kann in Schritt S14 auch eine Benutzereingabe 34 empfan- gen werden, um zum Beispiel bestimmte Randbedingungen festzulegen und/oder weiterführende Informationen, zum Beispiel in Bezug auf die Art der Anwendung, die Art der Szene 12, oder ähnliches bereitzustellen. In Abhängigkeit von dem in Schritt S12 bereitgestellten Ergebnis der Analyse kann anschließend in Schritt S16 eine Vorauswahl von Algorithmen aus mehreren bereitgestellten Algorithmen A1 , A2, A3, getroffen werden, die in der vorliegenden Situation, welche durch das Analyseergebnis in Schritt S12 spezifiziert wurde, geeignet sind. Weiterhin kann Schritt S18 überprüft werden, ob zum Beispiel eine weitere Benutzereingabe 34 empfangen wurde, welche weitere Zusatzinformationen liefert oder wiederum bestimmte Randbedingungen für die Algorith- menauswahl vorgibt. Ist dies der Fall, so wird in Schritt S20 unter Berücksichtigung dieser in Schritt S18 erfassten Benutzereingabe einer der in der Vorauswahl in Schritt S16 bereitgestellten Algorithmen ausgewählt und in Schritt S22 die Blickabbildung M auf Basis dieses ausgewählten Algorithmus durchgeführt. Wird dagegen in Schritt S18 keine weitere Benutzereingabe 34 empfangen, so wird ein Algorithmus aus der Voraus- wähl in Schritt S24 unabhängig von einer weiteren Benutzereingabe 34 ausgewählt und in Schritt S22 die Blickabbildung M auf Basis des so ausgewählten Algorithmus durchgeführt. Hierdurch wird es vor fehlerhafter Weise ermöglicht, dass die Algorithmenauswahl sowohl automatisch, zum Beispiel ohne jegliche Interaktion durch einen Benutzer, durchgeführt werden kann, oder andererseits auch stufenweise einen Nutzer mit Vor- Schlägen führen kann, und die vom Benutzer eingegebenen Eingaben bei der Auswahl zusätzlich berücksichtigt werden können.
In einem weiteren optionalen Schritt S26 kann zum Beispiel überprüft werden, ob das Ergebnis der Blickabbildung M ein vorbestimmtes Kriterium, zum Beispiel in Bezug auf Qualität oder Güte, erfüllt. Ist dies nicht der Fall, so kann in Schritt S28 eine neue Auswahl des Algorithmus, insbesondere durch Auswahl eines anderen der in Schritt S16 bereitgestellten Vorauswahl der Algorithmen, gewählt werden und die Blickabbildung M in Schritt S22 erneut durchgeführt werden. Erfüllt das Ergebnis der Blickabbildung M in Schritt S26 letztendlich das eine oder mehrere vorbestimmte Kriterien, so ist das Ver- fahren Schritt S30 beendet.
Hierdurch wird es beispielsweise möglich, dass für jede Szenenaufnahme vor der Analyse und der eigentlichen Bestimmung von Blickrichtungsabbildungen von Bildern der jeweiligen Szenenaufnahme zu einer Referenz eine auf beste Qualität und schnellste Verarbeitungszeit optimierter Algorithmus ausgewählt wird. Die Algorithmenauswahl kann dabei vorteilhafterweise in Abhängigkeit verschiedenster Faktoren durchgeführt werden, zum Beispiel in Abhängigkeit von einer Klassifikation nach Marktsegment, Anwendungsfeld, spezieller Anwendung, Aufgabe, Situation und/oder Fragestellung, in Abhängigkeit von aus Eyetracking-Daten und/oder aus Szenenaufnahmen und/oder aus Referenz und/oder aus mit diesen Daten assoziierten Metadaten extrahierten Merkmalen, in Abhängigkeit von Qualitätsbewertungen von Blickabbildungen anhand von einem oder mehreren Gütemaßen und/oder Güteklassen, sowie in Abhängigkeit von Zwischenergebnissen und oder Teilergebnissen von vorher oder parallel ausge- führten Algorithmen. Zusätzlich kann die Algorithmenauswahl dabei im Hinblick auf bestimmte vorgegebene Zielvorgaben optimiert werden wie beispielsweise Zielobjekte, Zielvolumen, Zielgebiete oder Oberflächen von Interesse, Zielpreis oder Ziel-Qualität oder Ziel-Zeit für die Verarbeitung. Auch können Vorentscheidungen als Randbedingungen für das System bzw. das Verfahren manuell bestimmt sein, zum Beispiel durch Expertenwissen und/oder automatisch gelernt werden. Auch kann die Algorithmenauswahl sehr flexibel auf verschiedenen, insbesondere zeitlichen, Ebenen erfolgen, zum Beispiel für eine jeweilige Studie, ein jeweiliges Experiment, eine jeweilige Aufnahme, ein jeweiliges Analysezeitintervall, oder ein jeweiliges Blickereigniszeitintervall, wie zum Beispiel eine Fixation oder Sakkade. Auch kann eine gemischte Algorithmenauswahl durchgeführt werden, in der sich beispielsweise einzelne Analysezeitintervall-Referenz- Paare unterscheiden.
Insgesamt werden so ein Verfahren und eine Vorrichtung zur Durchführung einer Blickabbildung bereitgestellt, welche in vielzähligen verschiedenen Situationen und für viel- zählige verschiedene Anwendungsbereiche, die durch einen Parameter spezifizierbar sind, die Auswahl eines für die jeweiligen Situationen optimierten Algorithmus zur Durchführung der Blickabbildung ermöglichen.
Bezugszeichenliste
10 Person
12 Szene
14 Brille
16 Szenenkamera
18 Objektklassen
20 Flasche
22 Hintergrund
24 Vorrichtung
26 Steuereinrichtung 28 Speicher
30 Eingangsdaten
32 Benutzerschnittstelle 34 Benutzereingabe
A1 , A2, Algorithmus
B Blickpunkt
B' abgebildeter Blickpunkt
BD Blickdaten
M Blickabbildung
01 erste Objektklasse
02 zweite Objektklasse
03 dritte Objektklasse
P Parameter
R Referenz
RD Referenzdaten
S Szenenaufnahme
SD Szenendaten

Claims

ANSPRUCHE:
1 . Verfahren zum Durchführen einer Blickabbildung (M), bei welcher zumindest ein Blickpunkt (B) und/oder eine Blickrichtung zumindest einer Person (10) in Bezug auf zumindest eine Szenenaufnahme (S) von einer von der zumindest einen Person (10) betrachteten Szene (12) auf eine Referenz (R) abgebildet wird,
dadurch gekennzeichnet, dass
zumindest ein Teil eines Algorithmus (A1 , A2, A3) zur Durchführung der Blickabbildung (M) aus mehreren vorbestimmten Algorithmen (A1 , A2, A3) in Abhängigkeit von mindestens einem Parameter (P) ausgewählt wird und die Blickabbildung (M) auf Basis des zumindest einen Teils des Algorithmus (A1 , A2, A3) durchgeführt wird.
2. Verfahren nach Anspruch 1 ,
dadurch gekennzeichnet, dass
Eingangsdaten (30) bereitgestellt werden, die Daten (SD) betreffend die zumindest eine Szenenaufnahme (S), Daten (BD) betreffend den bestimmten Blickpunkt (B) und/oder die bestimmte Blickrichtung und Daten (RD) betreffend die Referenz (R) umfassen, wobei der zumindest eine Teil des Algorithmus (A1 , A2, A3) in Abhängigkeit von einer Analyse zumindest eines Teils der Eingangsdaten (30) als der mindestens eine Parameter (P) gewählt wird.
Verfahren nach Anspruch 2,
dadurch gekennzeichnet, dass
Daten (SD) betreffend eine Mehrzahl an Szenenaufnahmen (S) mit jeweils zumindest einem zugeordneten Blickpunkt (B) und/oder einer zugeordneten Blickrichtung als Teil der Eingangsdaten (30) bereitgestellt werden.
Verfahren nach einem der Ansprüche 2 oder 3,
dadurch gekennzeichnet, dass
bei der Analyse des zumindest einen Teils der Eingangsdaten (30) diese auf zumindest einen der folgenden Aspekte hin analysiert werden:
- ob die Szene (12) eine statische Szene (12) darstellt oder bewegte
und/oder sich verändernde Objekte enthält;
- falls die Szene (12) bewegte und/oder sich verändernde Objekte enthält, welche Objekte der Szene (12) die bewegten und/oder sich verändernden Objekte darstellen;
- ob die Szene (12) einen räumlich und/oder zeitlich sich nicht ändernden Hintergrund (22) oder einen sich räumlich und/oder zeitlich ändernden Hintergrund (22) aufweist;
- Höhe der Bildqualität der Szenenaufnahmen (S) und/oder der Referenz
(R)
- Ausmaß einer inhaltlichen Übereinstimmung zwischen der Referenz (R) und der Szene (12);
- Art der Szenenaufnahmen (S) und/oder der Referenz (R) und/oder der Blickpunkte (B) und/oder Blickrichtungen und/oder von Objekten der Szene (12);
- Dimension der Szenenaufnahmen (S) und/oder der Referenz (R) und/oder der Blickpunkte (B) und/oder der Blickrichtungen und/oder von Objekten der Szene (12); und
- ob die Szene (12) ein oder mehrere Objekte umfasst, die gegenüber anderen Objekten der Szene (12) als relevanter eingestuft werden oder nicht, und zumindest ein Ergebnis der Analyse bereitgestellt wird, in Abhängigkeit von welchem als der mindestens eine Parameter (P) der zumindest eine Teil des Algorithmus (A1 , A2, A3) ausgewählt wird. 5. Verfahren nach einem der Ansprüche 2 bis 4,
dadurch gekennzeichnet, dass
bei der Analyse der Eingangsdaten (30) die Art der Daten betreffend die Szenenaufnahmen (S) und/oder die Referenz (R) und/oder betreffend die Blickpunkte (B) und/oder Blickrichtungen ermittelt wird, insbesondere im Hinblick auf Datentyp, Datenstruktur, Datenformat und/oder Dateiformat, um daraus die Art und/oder Dimension der Szenenaufnahmen (S) und/oder der Referenz (R) und/oder der Blickpunkte (B) und/oder Blickrichtungen zu bestimmen.
6. Verfahren nach einem der Ansprüche 2 bis 5,
dadurch gekennzeichnet, dass
bei der Analyse der Eingangsdaten eine oder mehrere der Szenenaufnahmen (S) und/oder die Referenz (R) im Hinblick auf ihre Bildqualität und/oder Bildinhalte analysiert wird. 7. Verfahren nach einem der Ansprüche 2 bis 6,
dadurch gekennzeichnet, dass
mit zumindest einem Teil der Eingangsdaten assoziierte Metadaten bereitgestellt werden, wobei der zumindest eine Teil des Algorithmus (A1 , A2, A3) in Abhängigkeit von den Metadaten als dem mindestens einen Parameter (P) gewählt wird.
8. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
zumindest eine Benutzereingabe (34) erfasst wird und der zumindest eine Teil des Algorithmus (A1 , A2, A3) in Abhängigkeit von der erfassten Benutzereingabe (34) als der mindestens eine Parameter (P) gewählt wird.
9. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass zumindest einer von mehreren zur Durchführung der Blickabbildung (M) erforderlichen Schritte auf Basis zumindest eines oder mehreren ersten der vorbestimmten Algorithmen (A1 , A2, A3) durchgeführt wird, und ein Ergebnis der Durchführung bereitgestellt wird, in Abhängigkeit von welchem der zumindest eine Teil des Algorithmus (A1 , A2, A3) als der mindestens eine Parameter (P) ausgewählt wird.
10. Verfahren nach Anspruch 9,,
dadurch gekennzeichnet, dass
ermittelt wird, ob oder in welchem Ausmaß das Ergebnis eine vorbestimmte oder durch einen Benutzer vorgebbare ersten Bedingung erfüllt und in Abhängigkeit davon der zumindest eine Teil des Algorithmus (A1 , A2, A3) als der mindestens eine Parameter (P) ausgewählt wird. 1 1 . Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
von einem Benutzer zumindest eine Randbedingung betreffend einen Aufwand, insbesondere Zeitaufwand, und/oder eine Qualität eines Ergebnisses der Durchführung der Blickabbildung (M) vorgebbar ist, und in Abhängigkeit von der Randbedingung als der zumindest eine Parameter (P) der zumindest eine Teil des Algorithmus (A1 , A2, A3) zur Durchführung der Blickabbildung (M) gewählt wird.
12. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
nach Durchführung der Blickabbildung (M) in Abhängigkeit von einem Ergebnis der Blickabbildung (M) und in Abhängigkeit von einer Randbedingung bestimmt wird, ob eine Neuauswahl betreffend den zumindest einen Teil des Algorithmus (A1 , A2, A3) zur wiederholten Durchführung der Blickabbildung (M) auf Basis des zumindest einen neuausgewählten Teils des Algorithmus (A1 ,
A2, A3) durchgeführt wird.
13. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass eine jeweilige Szenenaufnahme (S) einer von mehreren Zeitintervallgruppen zugeordnet wird, wobei das Auswählen des zumindest einen Teils des Algorithmus (A1 , A2, A3) zur Durchführung der Blickabbildung (M) in Abhängigkeit von dem mindestens einen Parameter (P) für eine jeweilige Zeitintervallgruppe separat durchgeführt wird, insbesondere wobei die Zeitintervallgruppen verschiedene
- Blickereigniszeitintervalle, insbesondere in Bezug auf Fixationen; und/oder
- Analysezeitintervalle; und/oder
- Aufnahmezeitintervalle; und/oder
- Experimentzeitintervalle; und/oder
- Studienzeitintervalle; und/oder
darstellen.
14. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
zumindest ein Teil von Zwischen- und/oder Ergebnisdaten des Auswählens des zumindest einen Teils des Algorithmus (A1 , A2, A3) und/oder des Durchführens der Blickabbildung (M) auf Basis des ausgewählten Algorithmus (A1 , A2, A3) gespeichert und als zumindest ein zweiter Parameter (P) für ein nachfolgendes und wiederholtes Durchführen der Blickabbildung (M) bereitgestellt wird, bei welcher zumindest ein Teil des Algorithmus (A1 , A2, A3) zur Durchführung der Blickabbildung (M) aus den mehreren vorbestimmten Algorithmen (A1 , A2, A3) zusätzlich in Abhängigkeit von dem mindestens einen zweiten Parameter (P) ausgewählt wird.
15. Vorrichtung zum Durchführen einer Blickabbildung (M), bei welcher zumindest ein Blickpunkt (B) und/oder eine Blickrichtung zumindest einer Person (10) in Bezug auf zumindest eine Szenenaufnahme (S) von einer von der zumindest einen Person (10) betrachteten Szene (12) auf eine Referenz (R) abgebildet wird, wobei die Vorrichtung eine Steuereinrichtung (26) und einen Speicher (28) aufweist,
dadurch gekennzeichnet, dass
im Speicher (28) mehrere vorbestimmte Algorithmen (A1 , A2, A3) abgelegt sind und die Steuereinrichtung (26) dazu ausgelegt ist, zumindest einen Teil eines Algorithmus (A1 , A2, A3) zur Durchführung der Blickabbildung (M) aus den mehreren vorbestimmten Algorithmen (A1 , A2, A3) in Abhängigkeit von mindestens einem Parameter (P) auszuwählen und die Blickabbildung (M) auf Basis des zumindest einen Teils des Algorithmus (A1 , A2, A3) durchzuführen.
PCT/EP2017/055220 2016-03-07 2017-03-06 Verfahren und vorrichtung zum durchführen einer blickabbildung Ceased WO2017153355A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/080,386 US11579686B2 (en) 2016-03-07 2017-03-06 Method and device for carrying out eye gaze mapping

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16159036 2016-03-07
EP16159036.9 2016-03-07

Publications (1)

Publication Number Publication Date
WO2017153355A1 true WO2017153355A1 (de) 2017-09-14

Family

ID=55527307

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2017/055220 Ceased WO2017153355A1 (de) 2016-03-07 2017-03-06 Verfahren und vorrichtung zum durchführen einer blickabbildung

Country Status (2)

Country Link
US (1) US11579686B2 (de)
WO (1) WO2017153355A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019123422A1 (en) * 2017-12-22 2019-06-27 Sr Labs S.R.L. Mapping method and system for mapping a real environment

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10607399B2 (en) * 2017-05-22 2020-03-31 Htc Corporation Head-mounted display system, method for adaptively adjusting hidden area mask, and computer readable medium
US10419738B1 (en) 2018-06-14 2019-09-17 Telefonaktiebolaget Lm Ericsson (Publ) System and method for providing 360° immersive video based on gaze vector information
US10841662B2 (en) 2018-07-27 2020-11-17 Telefonaktiebolaget Lm Ericsson (Publ) System and method for inserting advertisement content in 360° immersive video
US10757389B2 (en) 2018-10-01 2020-08-25 Telefonaktiebolaget Lm Ericsson (Publ) Client optimization for providing quality control in 360° immersive video during pause
US10951904B2 (en) * 2018-12-14 2021-03-16 Apple Inc. Gaze-driven recording of video
US11119572B2 (en) * 2019-11-06 2021-09-14 International Business Machines Corporation Selective display of objects based on eye gaze attributes
US11880504B2 (en) * 2021-09-28 2024-01-23 Ramot At Tel-Aviv University Ltd. Automatic preference quantification of displayed objects based on eye tracker data

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2499963A1 (de) * 2011-03-18 2012-09-19 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Verfahren und Vorrichtung für Blickpunktabbildung
EP2879018A1 (de) * 2013-11-29 2015-06-03 Universiteit van Amsterdam Schätzung der Blickpunkt aus unkalibrierten Augenmesspunkten
WO2015187294A1 (en) * 2014-06-06 2015-12-10 Intel Corporation Technologies for viewer attention area estimation
US20160012627A1 (en) * 2013-03-25 2016-01-14 Geo Techinical Laboratory Co., Ltd. Three-dimensional image output device and background image generation device

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7274741B2 (en) * 2002-11-01 2007-09-25 Microsoft Corporation Systems and methods for generating a comprehensive user attention model
FR2890517A1 (fr) * 2005-09-08 2007-03-09 Thomson Licensing Sas Procede et dispositif d'affichage d'images
US7742623B1 (en) * 2008-08-04 2010-06-22 Videomining Corporation Method and system for estimating gaze target, gaze sequence, and gaze map from video
US8831278B2 (en) * 2010-11-30 2014-09-09 Eastman Kodak Company Method of identifying motion sickness
US8891009B2 (en) * 2011-08-29 2014-11-18 Futurewei Technologies, Inc. System and method for retargeting video sequences
WO2013149966A1 (en) * 2012-04-02 2013-10-10 Thomson Licensing Method for calibration free gaze tracking using low cost camera
US20140003711A1 (en) * 2012-06-29 2014-01-02 Hong Kong Applied Science And Technology Research Institute Co. Ltd. Foreground extraction and depth initialization for multi-view baseline images
EP2709060B1 (de) * 2012-09-17 2020-02-26 Apple Inc. Verfahren und Vorrichtung zur Bestimmung eines Blickpunkts auf ein dreidimensionales Objekt
CN105027144A (zh) * 2013-02-27 2015-11-04 汤姆逊许可公司 用于无校准注视估计的方法和设备
JP6515086B2 (ja) * 2013-04-29 2019-05-15 ミラメトリックス インコーポレイテッド 経時的な確率的オブジェクト追跡のためのシステムおよび方法
JP6074122B1 (ja) * 2013-12-09 2017-02-01 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH 目追跡装置動作方法及び能動的電力管理を行う目追跡装置
EP3140716B1 (de) * 2014-05-08 2020-04-01 Sony Corporation Tragbare elektronische vorrichtung und verfahren zur steuerung einer tragbaren elektronischen vorrichtung
US10445573B2 (en) * 2014-06-27 2019-10-15 Fove, Inc. Gaze detection device
JP2017536873A (ja) * 2014-10-23 2017-12-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 注視追跡駆動による関心領域セグメンテーション
US9829976B2 (en) * 2015-08-07 2017-11-28 Tobii Ab Gaze direction mapping
WO2017045116A1 (en) * 2015-09-15 2017-03-23 SZ DJI Technology Co., Ltd. System and method for supporting smooth target following

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2499963A1 (de) * 2011-03-18 2012-09-19 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Verfahren und Vorrichtung für Blickpunktabbildung
US20160012627A1 (en) * 2013-03-25 2016-01-14 Geo Techinical Laboratory Co., Ltd. Three-dimensional image output device and background image generation device
EP2879018A1 (de) * 2013-11-29 2015-06-03 Universiteit van Amsterdam Schätzung der Blickpunkt aus unkalibrierten Augenmesspunkten
WO2015187294A1 (en) * 2014-06-06 2015-12-10 Intel Corporation Technologies for viewer attention area estimation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019123422A1 (en) * 2017-12-22 2019-06-27 Sr Labs S.R.L. Mapping method and system for mapping a real environment
US11615550B2 (en) 2017-12-22 2023-03-28 Sr Labs S.R.L. Mapping method and system for mapping a real environment

Also Published As

Publication number Publication date
US11579686B2 (en) 2023-02-14
US20190073025A1 (en) 2019-03-07

Similar Documents

Publication Publication Date Title
WO2017153355A1 (de) Verfahren und vorrichtung zum durchführen einer blickabbildung
DE102007056528B3 (de) Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren
EP2828794B1 (de) Verfahren und vorrichtung zum auswerten von ergebnissen einer blickerfassung
WO2017153354A1 (de) Verfahren und vorrichtung zum bewerten von blickabbildungen
WO2017025483A1 (de) Verfahren und vorrichtung zur datenerfassung und auswertung von umgebungsdaten
AT505338A1 (de) Verfahren zur wahrnehmungsmessung
EP2691934B1 (de) Phantombilddatenbank (3d)
DE102012016160A1 (de) Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation
WO2015117907A2 (de) Selektiv-adaptiver datenprozessor
DE4022384A1 (de) Anzeige zur vorausbestimmung eines graphikpfades
EP4046595A1 (de) Verfahren zur festlegung einer zahnfarbe
DE102019107064A1 (de) Anzeigeverfahren, elektronische Vorrichtung und Speichermedium damit
DE102022121542A1 (de) Mikroskopiesystem und Verfahren zur Sensitivitätsprüfung eines Bildverarbeitungsmodells
DE102021133868A1 (de) Mikroskopiesystem und Verfahren zum Modifizieren von Mikroskopbildern im Merkmalsraum eines generativen Netzes
DE102011081541A1 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und programmspeicherträger
EP0993657A1 (de) Verfahren und vorrichtung zum erfassen einer reflektierenden fläche eines menschen
EP1154369A2 (de) Verfahren zur zyklischen, interaktiven Bildanalyse sowie Computersystem und Computerprogramm zur Ausführung des Verfahrens
DE102012105664A1 (de) Verfahren und Vorrichtung zur Kodierung von Augen- und Blickverlaufsdaten
DE102020126954A1 (de) System und Verfahren zum Erfassen einer räumlichen Orientierung einer tragbaren Vorrichtung
EP1300108B1 (de) Verfahren zur Erfassung, Auswertung und Analyse von Blicksequenzen
DE102023203957B3 (de) Verfahren zur Stereobildverarbeitung und -darstellung und Gesamtsystem
DE102022203554A1 (de) Verfahren zum Darstellen von in einem Haushalts-Kältegerät vorhandenen Objekten
EP3304169B1 (de) Verfahren zum betreiben einer datenbrilleneinrichtung und datenbrilleneinrichtung
DE102020204608A1 (de) Verfahren zum Bestimmen eines zeitlichen Temperaturverlaufs eines Körperteils eines Lebewesens, sowie elektronisches Bestimmungssystem
DE102014207897A1 (de) Verfahren zum Erzeugen eines Anzeigebildes

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17709059

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17709059

Country of ref document: EP

Kind code of ref document: A1