[go: up one dir, main page]

RU2504833C1 - Method of displaying surrounding environment - Google Patents

Method of displaying surrounding environment Download PDF

Info

Publication number
RU2504833C1
RU2504833C1 RU2012130614/08A RU2012130614A RU2504833C1 RU 2504833 C1 RU2504833 C1 RU 2504833C1 RU 2012130614/08 A RU2012130614/08 A RU 2012130614/08A RU 2012130614 A RU2012130614 A RU 2012130614A RU 2504833 C1 RU2504833 C1 RU 2504833C1
Authority
RU
Russia
Prior art keywords
image
information
environment
knowledge base
environmental
Prior art date
Application number
RU2012130614/08A
Other languages
Russian (ru)
Inventor
Андрей Юрьевич Малолин
Ваган Ишханович Мартиросян
Владимир Борисович Резников
Original Assignee
Общество с ограниченной ответственностью "Инновационная лаборатория"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество с ограниченной ответственностью "Инновационная лаборатория" filed Critical Общество с ограниченной ответственностью "Инновационная лаборатория"
Priority to RU2012130614/08A priority Critical patent/RU2504833C1/en
Application granted granted Critical
Publication of RU2504833C1 publication Critical patent/RU2504833C1/en

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

FIELD: physics.
SUBSTANCE: method involves determining current time characteristics, taking into account the state of the atmosphere, determining the spatial position of the imaging means, based on data from spatial positioning means, the obtained image is compared with three-dimensional models of the surrounding environment and electronic maps stored in a dynamically populated knowledge base, identifying objects of the surrounding environment that are part of the image using means of recognising and identifying samples associated with said base, where said base is constantly populated and improved with knew data obtained from identification of said objects.
EFFECT: high accuracy of displaying artificial objects on an image of the surrounding environment in real time owing to analysis of dynamic changes in the surrounding environment.
5 cl, 1 dwg

Description

Изобретение относится к технологиям дополненной реальности, предусматривающим отображение как объектов окружающей среды, так и различных искусственных элементов, служащих, например, для идентификации этих объектов.The invention relates to augmented reality technologies involving the display of both environmental objects and various artificial elements serving, for example, to identify these objects.

В качестве ближайшего аналога предлагаемого изобретения выбран способ отображения окружающей среды, описанный в заявке на выдачу патента на изобретение США US 2011153198, опубликованной 23.06.2011. Согласно известному из US 2011153198 способу отображения окружающей среды посредством видеокамеры или смартфона получают изображение окружающей среды, преимущественно динамическое изображение. Определяют пространственное положение и/или направление движения средства получения изображения по данным нескольких средств пространственного позиционирования: навигационного приемника по меньшей мере одной спутниковой системы позиционирования и электронного компаса. Сопоставляют полученное изображение с трехмерными моделями окружающей среды и электронными картами или планами, идентифицируют объекты окружающей среды, являющиеся частью изображения, на основании перечисленных выше сведений и дополняют полученное изображение окружающей среды по меньшей мере одним визуально воспринимаемым искусственным элементом, отражающим результаты идентификации объектов окружающей среды. As the closest analogue of the invention, a method for displaying the environment described in the application for the grant of a patent for US invention US 2011153198, published on 06.23.2011, was selected. According to a method for displaying an environment known from US 2011153198, an environmental image, preferably a dynamic image, is obtained by means of a video camera or smartphone. The spatial position and / or direction of motion of the image acquisition means is determined according to several spatial positioning means: a navigation receiver of at least one satellite positioning system and an electronic compass. The resulting image is compared with three-dimensional environmental models and electronic maps or plans, environmental objects that are part of the image are identified on the basis of the above information and complement the resulting environmental image with at least one visually perceived artificial element that reflects the results of identification of environmental objects.

Недостатком известного способа является невозможность анализа окружающей среды в режиме реального времени, что может привести к некорректному дополнению изображения искусственными объектами. Кроме того, известный способ отображения окружающей среды не учитывает динамические изменения окружающей среды, связанные с погодными условиями, антропогенными изменениями ландшафта и т.п.The disadvantage of this method is the inability to analyze the environment in real time, which can lead to incorrect addition of images to artificial objects. In addition, the known method for displaying the environment does not take into account dynamic environmental changes associated with weather conditions, man-made changes in the landscape, etc.

В свою очередь предлагаемый способ отображения окружающей среды позволит осуществлять анализ окружающей среды в реальном режиме времени, с учетом динамических изменений окружающей среды, вызванных природными явлениями.In turn, the proposed method of displaying the environment will allow the analysis of the environment in real time, taking into account the dynamic changes in the environment caused by natural phenomena.

Указанный технический результат будет достигнут при практическом использовании способа отображения окружающей среды, который включает получение соответствующим средством изображения окружающей среды, определение пространственного положения и/или направления движения средства получения изображения по данным нескольких средств пространственного позиционирования, например навигационного приемника по меньшей мере одной спутниковой системы позиционирования. Полученное изображение сопоставляют с трехмерными моделями окружающей среды и электронными картами или планами и идентифицируют объекты окружающей среды, являющиеся частью изображения на основании перечисленных выше сведений. В итоге полученное изображение окружающей среды дополняют по меньшей мере одним визуально воспринимаемым искусственным элементом, отражающим результаты идентификации объектов окружающей среды.The specified technical result will be achieved by the practical use of the method of displaying the environment, which includes obtaining the appropriate means of imaging the environment, determining the spatial position and / or direction of movement of the image receiving means according to several means of spatial positioning, for example, a navigation receiver of at least one satellite positioning system . The resulting image is compared with three-dimensional models of the environment and electronic maps or plans and identifies environmental objects that are part of the image based on the above information. As a result, the resulting image of the environment is supplemented with at least one visually perceived artificial element that reflects the results of the identification of environmental objects.

Согласно предложенному изобретению в ходе отображения окружающей среды дополнительно определяют текущее время и учитывают состояние атмосферы на основании доступных средств, выбранных из перечня: качество полученного изображения окружающей среды, текущее время, сведения базы данных метеорологических элементов. Пространственное положение и/или направление движения средства получения изображения определяют по данным по меньшей мере двух доступных средств пространственного позиционирования, выбранных из перечня: навигационный приемник по меньшей мере одной спутниковой системы позиционирования, акселерометр, электронный компас, средства анализа местоположения в сети сотовой связи. Полученное изображение сопоставляют с трехмерными моделями окружающей среды и электронными картами или планами, хранящимися в соответствующей динамически пополняемой базе знаний. При использовании предложенного способа в городских условиях получают изображение городского ландшафта, причем упомянутая база знаний содержит сведения о расположении объектов городской инфраструктуры, включая информацию о вывесках, надписях, указателях и дорожных знаках, а база данных метеорологических элементов содержит сведения о микроклимате. При использовании предложенного способа внутри помещений получают изображение интерьера, причем упомянутая база знаний содержит сведения об отделке, обстановке и расположении оборудования, мебели или других элементов интерьера.According to the proposed invention, in the process of displaying the environment, the current time is additionally determined and the state of the atmosphere is taken into account on the basis of available means selected from the list: the quality of the received image of the environment, the current time, information from the database of meteorological elements. The spatial position and / or direction of motion of the image acquisition means is determined from the data of at least two available means of spatial positioning, selected from the list: navigation receiver of at least one satellite positioning system, accelerometer, electronic compass, means of location analysis in a cellular communication network. The resulting image is compared with three-dimensional models of the environment and electronic maps or plans stored in the corresponding dynamically updated knowledge base. When using the proposed method in urban conditions, an image of the urban landscape is obtained, and the above-mentioned knowledge base contains information about the location of urban infrastructure, including information about signs, inscriptions, signs and road signs, and the database of meteorological elements contains information about the microclimate. When using the proposed method indoors, an interior image is obtained, the aforementioned knowledge base containing information about the decoration, furnishings, and arrangement of equipment, furniture, or other interior elements.

Объекты окружающей среды, являющиеся частью изображения, идентифицируют на основании перечисленных выше сведений с использованием обучаемой искусственной нейронной сети, связанной с упомянутой базой знаний, и пополняют упомянутую базу знаний новыми сведениями, полученными в результате такой идентификации. Для наиболее эффективного использования предложенного способа упомянутую базу знаний пополняют новыми сведениями, поступающими от множества пользовательских средств получения изображения окружающей среды.Environmental objects that are part of the image are identified on the basis of the above information using a trained artificial neural network associated with the knowledge base, and replenish the knowledge base with new information obtained as a result of such identification. For the most efficient use of the proposed method, the aforementioned knowledge base is replenished with new information coming from a variety of user-friendly means of obtaining an environmental image.

Предложенный способ осуществляется следующим образом.The proposed method is as follows.

Для получения изображения окружающей среды (съемки) могут быть использованы любые известные средства 1, обеспечивающие получение и управляемую обработку изображений: мобильные терминалы связи, оснащенные видеокамерами (смартфоны, коммуникаторы и т.п.), стационарные программируемые терминалы, связанные с удаленными видеокамерами. Очевидно, что в большинстве случаев такие средства 1 будут использованы для получения динамического видеоизображения, при возможности получения моментальных фотоснимков.To obtain an image of the environment (shooting), any known means 1 can be used for obtaining and controlled image processing: mobile communication terminals equipped with video cameras (smartphones, communicators, etc.), stationary programmable terminals associated with remote video cameras. Obviously, in most cases, such tools 1 will be used to obtain a dynamic video image, if possible, snapshots.

Одновременно с получением изображения выполняется комплексный анализ условий, при которых было получено это изображение. При помощи таймера 2 терминала связи или видеокамеры 11 определяется текущее время (время суток, календарная дата). Пространственное положение и/или направление движения средства получения изображения, то есть и положение объектов в поле прямой видимости, определяют по данным нескольких (по меньшей мере двух доступных исходя из условий съемки) средств пространственного позиционирования. В состав указанных средств пространственного позиционирования входит: навигационный приемник по меньшей мере одной спутниковой системы позиционирования (GPS Navstar, ГЛОНАСС, Galileo, Бейдоу, IRNSS) 3, акселерометр 4, электронный компас 5, средства анализа местоположения в сети сотовой связи (LBS) 6. Таким образом, даже при потере сигнала от спутниковых систем позиционировании и/или средств анализа местоположения в сети сотовой связи, по данным акселерометра 4 и электронного компаса 5 будет определено направление движения средства получения изображения 11 и, соответственно, будет определено положение объектов в поле прямой видимости и сохранена возможность учета данных позиционирования при идентификации объектов окружающей среды. В благоприятных условиях, обеспечивающих прием 3 сигнала от спутниковых систем позиционирования и средств анализа местоположения в сети сотовой связи 6, а также работу акселерометра 4 и электронного компаса 5, будет обеспечено как точное определение географических координат (широта и долгота), так и точное определение направления движения средства получения изображения 11. В любом случае совместное использование перечисленных средства пространственного позиционирования исключит потерю пространственной ориентации средства получения изображения и, следовательно, некорректную идентификацию объектов окружающей среды.Simultaneously with obtaining an image, a comprehensive analysis of the conditions under which this image was obtained is performed. Using timer 2 of the communication terminal or camcorder 1 1 , the current time (time of day, calendar date) is determined. The spatial position and / or direction of movement of the image acquisition means, that is, the position of objects in the line of sight, is determined by the data of several (at least two available based on the shooting conditions) means of spatial positioning. These spatial positioning tools include: a navigation receiver of at least one satellite positioning system (GPS Navstar, GLONASS, Galileo, Beidou, IRNSS) 3, accelerometer 4, electronic compass 5, location analysis tools in a cellular communication network (LBS) 6. Thus, even if the signal from the satellite positioning systems and / or location analysis tools in the cellular communication network is lost, according to the data of the accelerometer 4 and the electronic compass 5, the direction of movement of the image acquisition means 1 1 and, accordingly, the position of objects in the line of sight will be determined and the ability to take into account positioning data when identifying environmental objects will be preserved. In favorable conditions, providing reception of 3 signals from satellite positioning systems and location analysis tools in the cellular communication network 6, as well as the operation of the accelerometer 4 and the electronic compass 5, both accurate determination of geographical coordinates (latitude and longitude) and accurate determination of direction will be provided motion of the image pickup means 1 1 . In any case, the joint use of the aforementioned spatial positioning means eliminates the loss of spatial orientation of the image acquisition means and, therefore, incorrect identification of environmental objects.

Одновременно исходя из текущего времени съемки (время суток, время года), качества получаемого изображения, сведений базы данных метеорологических элементов 7 определяется состояние атмосферы (освещенность и т.п.) на направлении объектива средства получения изображения, что обеспечивает внесение необходимых поправок на качество съемки. Таким образом, исходя из времени получения изображения, качества полученного изображения и данных позиционирования на основании данных 7 базы метеорологических элементов (температура окружающей среды, атмосферное давление, влажность, скорость и направление ветра, наличие осадков и т.п.) учитываются текущие погодные и климатические условия съемки. В дополнение к метеорологическим данным, соответствующим той или иной точке земной поверхности, могут быть учтены данные по городскому микроклимату или микроклимату закрытых помещений. Очевидно, что учет условий, при которых было получено изображение, обеспечивает необходимую коррекцию алгоритма идентификации объектов и позволит предотвратить грубые ошибки при дополнении полученного изображения искусственными элементами.At the same time, based on the current shooting time (time of day, time of year), the quality of the received image, the data of the database of meteorological elements 7, the state of the atmosphere (illumination, etc.) is determined in the direction of the lens of the image receiving means, which provides the necessary corrections for the quality of shooting . Thus, based on the time of image acquisition, the quality of the obtained image and positioning data based on data from the 7th base of meteorological elements (ambient temperature, atmospheric pressure, humidity, wind speed and direction, presence of precipitation, etc.), current weather and climate shooting conditions. In addition to meteorological data corresponding to a particular point on the earth's surface, data on the urban microclimate or the microclimate of enclosed spaces can be taken into account. Obviously, taking into account the conditions under which the image was obtained provides the necessary correction of the algorithm for identifying objects and will prevent gross errors when supplementing the resulting image with artificial elements.

На основании данных, полученных перечисленными выше средствами пространственного позиционирования и учета состояния атмосферы, полученное при съемке изображение сопоставляют с объективной информацией 8 об окружающей среде. В качестве информации 8 об окружающей среде используют трехмерные модели окружающей среды, электронные карты или планы зданий и сооружений. Для съемок в городских условиях используют изображения городского ландшафта, сведения о расположении объектов городской инфраструктуры, включая информацию о вывесках, надписях, указателях и дорожных знаках. Для съемок в закрытых помещениях изображения интерьера, сведения об отделке, обстановке и расположении оборудования. Для хранения перечисленных сведений используется база знаний 9, динамически пополняемая в процессе съемок и одновременно используемая в качестве ресурса разнообразной информации, необходимой для распознавания изображений объектов окружающей среды и их идентификации.Based on the data obtained by the spatial positioning and atmospheric conditions listed above, the image obtained during shooting is compared with objective environmental information 8. As information 8 about the environment using three-dimensional models of the environment, electronic maps or plans of buildings and structures. For filming in an urban environment, images of the urban landscape, information about the location of urban infrastructure, including information about signs, signs, signs and road signs, are used. For shooting indoors, interior images, information about decoration, furnishings and equipment layout. To store the listed information, a knowledge base 9 is used, dynamically replenished during the shooting process and at the same time used as a resource of various information necessary for recognition of images of environmental objects and their identification.

Объекты окружающей среды, являющиеся частью полученного изображения, идентифицируют на основании перечисленных выше сведений. Для идентификации объектов окружающей среды используют обучаемую искусственную нейронную сеть 10, связанную с упомянутой выше динамически пополняемой в результате съемок и процесса идентификации базой знаний 9. Совместное использование обучаемой искусственной нейронной сети 10 и динамически пополняемой базы знаний 9, накопление и использование информации, собранной в результате ранее выполненных съемок, обеспечивает практически полный учет изменений окружающей среды, например изменений городского ландшафта, что исключит некорректную идентификацию объектов окружающей среды из-за использования неактуализированных электронных карт, помех, возникающих при съемке, перекрытий объектов при съемке и т.п. Пополнение базы знаний 9 сведениями, поступающими от множества пользовательских средств 1 получения изображения окружающей среды, обеспечит практически безошибочную идентификацию объектов окружающей среды. В итоге полученное изображение окружающей среды дополняют по меньшей мере одним визуально воспринимаемым искусственным элементом (например, сведениями о качестве проезжей части; различными сведениями о зданиях и сооружениях), отражающим результаты идентификации объектов окружающей среды.Environmental objects that are part of the resulting image are identified based on the above information. For the identification of environmental objects, a trained artificial neural network 10 is used, which is associated with the knowledge base 9 dynamically replenished as a result of surveys and the identification process. Sharing of the trained artificial neural network 10 and a dynamically replenished knowledge base 9, accumulation and use of information collected as a result previously performed surveys, provides an almost complete account of environmental changes, such as changes in the urban landscape, which will exclude incorrect identification of the environment due to the use of electronic cards neaktualizirovannyh, interference caused by shooting, overlapping objects when shooting, etc. The replenishment of the knowledge base 9 with information coming from a variety of user means 1 for acquiring an environmental image will provide an almost error-free identification of environmental objects. As a result, the resulting image of the environment is supplemented with at least one visually perceived artificial element (for example, information about the quality of the roadway; various information about buildings and structures), reflecting the results of the identification of environmental objects.

Таким образом, предложен способ отображения окружающей среды, обеспечивающий качество распознавания объектов окружающей среды и точность дополнения изображения реальной среды искусственными объектами.Thus, a method for displaying the environment, providing the quality of recognition of environmental objects and the accuracy of complementing the image of the real environment with artificial objects, is proposed.

Claims (4)

1. Способ отображения окружающей среды, включающий
получение соответствующим средством изображения окружающей среды,
определение пространственного положения и/или направления движения средства получения изображения по данным нескольких средств пространственного позиционирования, например навигационного приемника по меньшей мере одной спутниковой системы позиционирования,
сопоставление полученного изображения с трехмерными моделями окружающей среды и электронными картами или планами,
идентификацию объектов окружающей среды, являющихся частью изображения на основании перечисленных выше сведений,
дополнение полученного изображения окружающей среды по меньшей мере одним визуально воспринимаемым искусственным элементом, отражающим результаты идентификации объектов окружающей среды, отличающийся тем, что
(a) определяются характеристики текущего времени: всемирное время, время года и время суток,
причем учитывается состояние атмосферы на основании доступных средств, выбранных из перечня: качество полученного изображения окружающей среды, текущее время, сведения базы данных метеорологических элементов,
(b) определяется пространственное положение и/или направление движения средства получения изображения по данным по меньшей мере двух доступных средств пространственного позиционирования, выбранных из перечня: навигационный приемник по меньшей мере одной спутниковой системы позиционирования, акселерометр, электронный компас, средства анализа местоположения в сети сотовой связи,
при этом полученное изображение сопоставляется с трехмерными моделями окружающей среды и электронными картами или планами, хранящимися в соответствующей динамически пополняемой базе знаний,
(c) идентифицируются объекты окружающей среды, являющиеся частью изображения на основании перечисленных выше сведений, с использованием средств распознавания и идентификации образов, связанных с упомянутой базой знаний, например с использованием обучаемой искусственной нейронной сети,
причем упомянутая база знаний постоянно пополняется и уточняется новыми сведениями, полученными в результате такой идентификации.
1. A method of displaying the environment, including
obtaining an appropriate means of image of the environment,
determining the spatial position and / or direction of movement of the image acquisition means according to several spatial positioning means, for example, a navigation receiver of at least one satellite positioning system,
comparison of the received image with three-dimensional models of the environment and electronic maps or plans,
identification of environmental objects that are part of the image based on the above information,
complementing the obtained environmental image with at least one visually perceived artificial element, reflecting the results of identification of environmental objects, characterized in that
(a) the characteristics of the current time are determined: universal time, time of year and time of day,
moreover, the state of the atmosphere is taken into account on the basis of available means selected from the list: quality of the received image of the environment, current time, information from the database of meteorological elements,
(b) the spatial position and / or direction of motion of the image acquisition means is determined from the data of at least two available spatial positioning means selected from the list: navigation receiver of at least one satellite positioning system, accelerometer, electronic compass, means of analyzing location in a cellular network communication
the resulting image is compared with three-dimensional environmental models and electronic maps or plans stored in the corresponding dynamically updated knowledge base,
(c) environmental objects that are part of the image on the basis of the above information are identified using means of pattern recognition and identification associated with said knowledge base, for example, using a trained artificial neural network,
moreover, the mentioned knowledge base is constantly updated and updated with new information obtained as a result of such identification.
2. Способ по п.1, отличающийся тем, что формируется детальное описание городского ландшафта, содержащее сведения о расположении объектов городской инфраструктуры, включая информацию о вывесках, надписях, указателях и дорожных знаках, а также база данных метеорологических элементов, содержащая сведения о микроклимате отдельных локаций в определенный период.2. The method according to claim 1, characterized in that a detailed description of the urban landscape is formed, containing information about the location of urban infrastructure, including information about signs, inscriptions, signs and road signs, as well as a database of meteorological elements containing information about the microclimate of individual locations in a certain period. 3. Способ по п.1, отличающийся тем, что получают изображение интерьера, причем упомянутая база знаний содержит сведения об отделке, обстановке и расположении оборудования, мебели или других элементов интерьера.3. The method according to claim 1, characterized in that they obtain an image of the interior, and the said knowledge base contains information about the decoration, furnishings and arrangement of equipment, furniture or other interior elements. 4. Способ по любому из предшествующих пунктов, отличающийся тем, что упомянутую базу знаний динамически пополняют новыми многофакторными сведениями, поступающими от множества пользовательских средств получения изображения окружающей среды. 4. The method according to any of the preceding paragraphs, characterized in that the said knowledge base is dynamically replenished with new multifactorial information coming from a variety of user-friendly means of obtaining an environmental image.
RU2012130614/08A 2012-07-19 2012-07-19 Method of displaying surrounding environment RU2504833C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2012130614/08A RU2504833C1 (en) 2012-07-19 2012-07-19 Method of displaying surrounding environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2012130614/08A RU2504833C1 (en) 2012-07-19 2012-07-19 Method of displaying surrounding environment

Publications (1)

Publication Number Publication Date
RU2504833C1 true RU2504833C1 (en) 2014-01-20

Family

ID=49948076

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2012130614/08A RU2504833C1 (en) 2012-07-19 2012-07-19 Method of displaying surrounding environment

Country Status (1)

Country Link
RU (1) RU2504833C1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2614930C2 (en) * 2015-06-05 2017-03-30 Закрытое акционерное общество "Лаборатория Касперского" System and method for execution control of augmented reality applications installed on user's device, depending on environment state

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6035057A (en) * 1997-03-10 2000-03-07 Hoffman; Efrem H. Hierarchical data matrix pattern recognition and identification system
US20060238379A1 (en) * 2005-04-21 2006-10-26 Microsoft Corporation Obtaining and displaying virtual earth images
RU2349513C2 (en) * 2007-04-13 2009-03-20 Валерий Александрович Меньшиков International aerospace automated system for monitoring of global geophysical events and prediction of natural and anthropogenic disasters (iasasm)
US20100226535A1 (en) * 2009-03-05 2010-09-09 Microsoft Corporation Augmenting a field of view in connection with vision-tracking
RU2417437C2 (en) * 2006-01-09 2011-04-27 Нокиа Корпорейшн Displaying network objects on mobile devices based on geolocation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6035057A (en) * 1997-03-10 2000-03-07 Hoffman; Efrem H. Hierarchical data matrix pattern recognition and identification system
US20060238379A1 (en) * 2005-04-21 2006-10-26 Microsoft Corporation Obtaining and displaying virtual earth images
RU2417437C2 (en) * 2006-01-09 2011-04-27 Нокиа Корпорейшн Displaying network objects on mobile devices based on geolocation
RU2349513C2 (en) * 2007-04-13 2009-03-20 Валерий Александрович Меньшиков International aerospace automated system for monitoring of global geophysical events and prediction of natural and anthropogenic disasters (iasasm)
US20100226535A1 (en) * 2009-03-05 2010-09-09 Microsoft Corporation Augmenting a field of view in connection with vision-tracking

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2614930C2 (en) * 2015-06-05 2017-03-30 Закрытое акционерное общество "Лаборатория Касперского" System and method for execution control of augmented reality applications installed on user's device, depending on environment state

Similar Documents

Publication Publication Date Title
US11423586B2 (en) Augmented reality vision system for tracking and geolocating objects of interest
CN102647449B (en) Based on the intelligent photographic method of cloud service, device and mobile terminal
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
US20110050903A1 (en) Method for determining position and orientation of vehicle trailers
US9041714B2 (en) Apparatus and method for compass intelligent lighting for user interfaces
CN103874193A (en) Method and system for positioning mobile terminal
CN113139031B (en) Method and related device for generating traffic sign for automatic driving
US20230334850A1 (en) Map data co-registration and localization system and method
CN109815300A (en) A vehicle positioning method
CN104748754B (en) Vehicle positioning method and system
CN102647450A (en) Intelligent shooting method and system based on cloud service
Cobb et al. Centimeter-level recording for all: field experimentation with new, affordable geolocation technology
US20130314443A1 (en) Methods, mobile device and server for support of augmented reality on the mobile device
Antigny et al. Pedestrian track estimation with handheld monocular camera and inertial-magnetic sensor for urban augmented reality
Mendes et al. Photogrammetry with UAV’s: quality assessment of open-source software for generation of ortophotos and digital surface models
Han et al. Carla-loc: synthetic slam dataset with full-stack sensor setup in challenging weather and dynamic environments
US20120026324A1 (en) Image capturing terminal, data processing terminal, image capturing method, and data processing method
CN102288180B (en) Real-time image navigation system and method
US11143508B2 (en) Handheld device for calculating locations coordinates for visible but uncharted remote points
US20190383616A1 (en) Terrestrial observation device having location determination functionality
RU2504833C1 (en) Method of displaying surrounding environment
Strawn Expanding the potential for GPS evidence acquisition
CN113009533A (en) Vehicle positioning method and device based on visual SLAM and cloud server
JP2006295827A (en) Mobile terminal instrument
CN105043375A (en) Navigation method, navigation system and corresponding mobile terminal

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20150720