[go: up one dir, main page]

KR102701335B1 - Xr 기반으로 시공 정밀도를 향상시키는 확장현실 장치, 방법 및 프로그램 - Google Patents

Xr 기반으로 시공 정밀도를 향상시키는 확장현실 장치, 방법 및 프로그램 Download PDF

Info

Publication number
KR102701335B1
KR102701335B1 KR1020230007490A KR20230007490A KR102701335B1 KR 102701335 B1 KR102701335 B1 KR 102701335B1 KR 1020230007490 A KR1020230007490 A KR 1020230007490A KR 20230007490 A KR20230007490 A KR 20230007490A KR 102701335 B1 KR102701335 B1 KR 102701335B1
Authority
KR
South Korea
Prior art keywords
construction
extended reality
information
reality device
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020230007490A
Other languages
English (en)
Other versions
KR20240115056A (ko
Inventor
정재헌
이유미
신태양
이정환
Original Assignee
정재헌
이유미
주식회사 에스엘즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정재헌, 이유미, 주식회사 에스엘즈 filed Critical 정재헌
Priority to KR1020230007490A priority Critical patent/KR102701335B1/ko
Priority to US18/415,039 priority patent/US20240242323A1/en
Publication of KR20240115056A publication Critical patent/KR20240115056A/ko
Application granted granted Critical
Publication of KR102701335B1 publication Critical patent/KR102701335B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/36Level of detail
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 개시는 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치에 관한 것으로, 시공 대상과 관련된 적어도 하나의 XR 콘텐트를 디스플레이부로 표시할 수 있으며, 시공 대상에 포함된 시공 객체의 시공 위치가 판단되면 해당 위치에 해당 시공 객체의 설계 정보를 포함하는 XR 콘텐트를 디스플레이부로 표시할 수 있다.

Description

XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치, 방법 및 프로그램 {Apparatus, method and program for improving construction precision based on XR}
본 개시는 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치에 관한 것이다.
최근 들어, 많은 분야에 XR 기술이 적용되기 시작하고 있다.
이에 반해, 건설, 시공, 측량 등의 분야에는 아직 XR 기술의 적용이 이뤄지지 않고 있으며, 이전의 시공, 측량 기술을 그대로 사용하고 있어 잦은 오차 발생으로 비효율적인 시공이 지속되고 있다.
이에, 건설, 시공, 측량 등의 분야에도 XR 기술을 적용하게 되면 오차 발생을 현저하게 낮추어 시공 정확도를 향상시킴으로써, 비용을 절감하고 초과 작업을 현저하게 감소시킬 것으로 기대되고 있으나, 현재로서는 이러한 기술이 공개되어 있지 않은 실정이다.
대한민국 공개특허공보 제10-2017-0095010호, (2017.08.22)
본 개시에 개시된 실시예는 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치를 제공하는데 그 목적이 있다.
또한, 본 개시에 개시된 실시예는 시공 대상과 관련된 적어도 하나의 XR 콘텐트를 디스플레이부로 표시하는 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치를 제공하고자 한다.
또한, 본 개시에 개시된 실시예는 시공 대상에 포함된 시공 객체의 시공 위치가 판단되면 해당 위치에 해당 시공 객체의 설계 정보를 포함하는 XR 콘텐트를 디스플레이부로 표시하는 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치를 제공하고자 한다.
본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 개시의 일 실시예에 따른 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치는, 시공 현장 내의 전방에 위치한 시공 대상과 관련된 적어도 하나의 XR 콘텐트가 표시되는 디스플레이부; 상기 시공 현장 내에서 상기 시공 대상의 관련 정보에 대한 식별 코드를 인식하는 센서부; 및 상기 센서부에 의해 인식된 상기 식별 코드를 통해 상기 관련 정보를 획득하고, 상기 획득된 관련 정보를 기반으로, 상기 시공 대상의 시공 위치를 파악하고, 상기 파악된 시공 위치를 기반으로, 상기 XR 콘텐트가 상기 디스플레이부 상에 표시되도록 제어하는 프로세서를 포함한다.
또한, 상기 프로세서는, 상기 센서부를 통해 센싱된 결과를 기반으로, 상기 시공 대상에 포함된 특정 시공 객체의 시공 위치가 판단되면, 상기 판단된 특정 시공 객체의 시공 위치에 상기 특정 시공 객체의 설계 정보를 포함하는 XR 콘텐트가 상기 디스플레이부로 표시되도록 제어할 수 있다.
또한, 상기 프로세서는, 상기 센서부를 통해 센싱된 결과를 기반으로, 상기 시공 대상에 포함된 시공 객체가 시공되어야 하는 위치에 마킹되도록 지시하는 적어도 하나의 XR 콘텐트를 상기 디스플레이부로 표시할 수 있다.
또한, 상기 프로세서는, 상기 센서부를 통해 센싱된 결과를 기반으로, 상기 시공 현장에 마킹된 시공 지시 정보를 인식하고 상기 인식된 시공 지시 정보를 해당 설계 객체의 설계 정보와 비교하여 오차율을 산출할 수 있다.
또한, 상기 프로세서는, 상기 산출된 오차율이 기 설정된 오차 범위를 벗어나는 경우, 상기 시공 지시 정보 및 해당 시공 객체의 설계 정보를 기반으로, 상기 인식된 시공 지시 정보의 오차를 바로잡기 위한 보정 정보를 포함하는 적어도 하나의 XR 콘텐트를 상기 디스플레이부로 표시할 수 있다.
또한, 상기 프로세서는, 상기 센서부를 통해 센싱된 결과를 기반으로, 상기 시공 현장에 시공된 시공 객체 및 상기 시공 현장에 마킹된 시공 지시 정보 중 적어도 하나를 식별하여 상기 시공 대상의 시공 단계를 판단하고, 상기 판단된 시공 단계에 따라서 상기 시공 대상의 다음 시공을 위한 적어도 하나의 XR 콘텐트가 상기 디스플레이부로 표시되도록 제어할 수 있다.
또한, 상기 확장현실 장치는, 상기 시공 대상의 착공 시점으로부터 준공 시점까지 이동하지 않는 위치에서 상기 시공 현장을 센싱할 수 있다.
또한, 상기 프로세서는, 상기 센서부를 통해 센싱된 식별 코드가 복수 개인 경우, 상기 센서부를 통해 센싱된 복수 개의 식별 코드 간의 위치 관계를 고려하여 관계형 증강 방식으로 상기 시공 대상의 시공 위치를 판단할 수 있다.
또한, 상술한 과제를 해결하기 위한 본 개시의 일 실시예에 따른 XR 기반의 시공 정밀도 향상 방법은, XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치에 의해 수행되는 방법으로, 센서부를 통해 센싱된 결과를 기반으로, 시공 현장 내에서 시공 대상의 관련 정보에 대한 식별 코드를 인식하는 단계; 상기 인식된 식별 코드를 통해 상기 관련 정보를 획득하는 단계; 상기 획득된 관련 정보를 기반으로 상기 시공 대상의 시공 위치를 파악하는 단계; 및 상기 파악된 시공 위치를 기반으로 XR 콘텐트를 상기 시공 현장 내의 전방에 위치한 상기 시공 대상과 관련된 적어도 하나의 XR 콘텐트를 표시하는 디스플레이부 상에 표시하는 단계를 포함한다.
이 외에도, 본 개시를 구현하기 위한 실행하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 더 제공될 수 있다.
이 외에도, 본 개시를 구현하기 위한 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.
본 개시의 전술한 과제 해결 수단에 의하면 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치를 제공하는 효과를 발휘한다.
또한, 본 개시의 전술한 과제 해결 수단에 의하면 시공 대상과 관련된 적어도 하나의 XR 콘텐트를 디스플레이부로 표시할 수 있다.
또한, 본 개시의 전술한 과제 해결 수단에 의하면 시공 대상에 포함된 시공 객체의 시공 위치가 판단되면 해당 위치에 해당 시공 객체의 설계 정보를 포함하는 XR 콘텐트를 디스플레이부로 표시할 수 있다.
본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 실시예에 따른 XR 기반의 시공 정밀도 향상 시스템의 개략도이다.
도 2는 본 개시의 실시예에 따른 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치의 블록도이다.
도 3은 본 개시의 실시예에 따른 XR 기반의 시공 정밀도 향상 방법의 흐름도이다.
도 4는 시공 현장에 확장현실 장치를 설치하여 전방을 센싱하는 것을 예시한 도면이다.
도 5는 시공 현장에 실제 관로 옆에 시공해야 하는 시공 객체(관로)의 시공 위치가 마킹된 것을 예시한 도면이다.
도 6은 시공 객체의 설계 정보를 포함하는 XR 콘텐트를 디스플레이부로 표시하는 것을 예시한 도면이다.
도 7은 보도 블록 상의 점자 블록에 대한 설치 위치를 XR 콘텐트로 표시하는 것을 예시한 도면이다.
도 8은 도 6의 XR 콘텐트에 따라 점자 블록이 시공된 것을 예시한 도면이다.
도 9는 시공 객체에 대한 XR 콘텐트를 기반으로, 시공 현장에서 시공 객체의 시공 위치를 표시하는 것을 예시한 도면이다.
도 10은 도 8에서 표시된 시공 위치에 따라 시공 객체가 시공된 것을 예시한 도면이다.
도 11은 도 10의 시공 단계 다음으로 시공되어야 하는 시공 객체를 XR 콘텐트로 표시해주는 것을 예시한 도면이다.
도 12는 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치의 블록도이다.
도 13은 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치의 작동을 예시한 도면이다.
도 14는 현장 작업자가 착용한 확장현실 장치로 현장의 확장현실 콘텐트가 표시되고 있는 것을 예시한 도면이다.
도 15 내지 17은 확장현실 장치로 입력되는 신호에 따라 확장현실 콘텐트 내 객체가 편집되고, 확장현실 콘텐트에 반영되어 표시되는 것을 예시한 도면이다.
도 18은 현장 작업자가 선택한 객체의 속성 정보가 확장현실 콘텐트 내에 표시되는 것을 예시한 도면이다.
본 개시 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 개시가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 개시가 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 ‘부, 모듈, 부재, 블록’이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 본 개시의 작용 원리 및 실시예들에 대해 설명한다.
본 명세서에서 '본 개시에 따른 확장현실 장치(100)'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 본 개시에 따른 확장현실 장치(100)는, 컴퓨터, 서버 장치 및 휴대용 단말기를 모두 포함하거나, 또는 어느 하나의 형태가 될 수 있다.
여기에서, 상기 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함할 수 있다.
상기 서버 장치는 외부 장치와 통신을 수행하여 정보를 처리하는 서버로써, 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 게임 서버, 메일 서버, 프록시 서버 및 웹 서버 등을 포함할 수 있다.
상기 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.
이하, 첨부된 도면을 참조하여 본 개시의 실시예를 상세하게 설명한다.
도 1은 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 시스템(10)의 개략도이다.
도 1을 참조하면, 확장현실 콘텐츠 제공 시스템(10)은 확장현실 장치(100), 확장현실 콘텐츠 제공 장치(200) 및 작업자 단말(300)을 포함한다.
본 개시의 실시예에서, 확장현실 콘텐츠 제공 장치(200)는 다양한 작업자의 단말로부터 설계 데이터를 수신한다. 이는, 건설 설비의 설계를 위해서는 Civil, Structure, Architecture, HVAC, UT, EL, IN, FF, FI 등과 같이 다양한 건설 공정(타겟)에 대한 설계 데이터가 필요하며, 이를 설계하는 담당자가 서로 상이할 수 있기 때문이다.
본 개시의 실시예에 따른 확장현실 콘텐츠 제공 시스템(10)은 이러한 개별 건설 공정을 통합하는 프로세스가 구축되어 있는 것은 물론, 이러한 코딩을 직접 개발 완료하여 적용된 시스템(10)이다.
본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치(200)는 이와 같이 다양한 작업자로부터 수신되는 설계 데이터를 이용하여 건설 현장에 대한 확장현실 콘텐츠를 생성한다.
그리고, 확장현실 콘텐츠 제공 장치(200)는 생성된 확장현실 콘텐츠를 건설 현장에서 작업하는 작업자가 착용하고 있는 확장현실 장치(100)로 제공하며, 확장현실 장치(100)로부터 수신되는 편집 정보에 따라 확장현실 콘텐츠를 편집하고 설계 데이터에 반영하게 된다.
이때, 확장현실 콘텐츠 제공 장치(200)는 이와 같이 수신되는 편집 정보에 따라 확장현실 콘텐츠를 편집하고, 편집 내역을 BIM 설계 데이터와 Tool(Revit)에 업데이트할 수 있다.
본 개시의 실시예에서 확장현실 콘텐츠 제공 장치(200)는 BIM 업무 담당자들이 업로드 하는 각 파트별 Revit 데이터를 취합하여 파일 포맷을 변환하고, 템플릿 임포트까지 자동화 처리를 진행한 후 확장현실 콘텐트를 생성하여 확장현실 장치(100)로 제공하게 된다. 이후 작업자가 착용한 확장현실 장치(100)를 통해 확장현실 콘텐트를 표시해주게 된다.
또한, 본 개시의 실시예에서 확장현실 콘텐츠 제공 장치(200)는 현장 작업자의 확장현실 장치(100)로 형상 정보에 대한 추가 배치, 조정과 같은 편집 정보가 수신되면, 이를 Revit 파일 포맷으로 변환하여 업데이트하게 된다.
그리고, 현장의 작업자는 확장현실 장치(100)를 이용하여 시공 현장에서 시공 대상과 관련된 설계 정보, 시공 위치 등에 관한 정보를 XR 콘텐트로 확인할 수 있게 된다.
아래에서는 다른 도면들을 참조하여 확장현실 장치(100)의 동작에 대해서 보다 상세하게 설명하도록 한다.
도 2는 본 개시의 실시예에 따른 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)의 블록도이다.
도 2를 참조하면, 본 개시의 실시예에 따른 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)는 프로세서(110), 통신부(120), 메모리(130), 센서부(140) 및 디스플레이부(150)를 포함한다.
다만, 몇몇 실시예에서 확장현실 장치(100)는 도 2에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수도 있다.
프로세서(110)는 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100) 내의 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(130), 및 메모리(130)에 저장된 데이터를 이용하여 전술한 동작을 수행하는 적어도 하나의 프로세서(110)로 구현될 수 있다. 이때, 메모리(130)와 프로세서(110)는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리(130)와 프로세서(110)는 단일 칩으로 구현될 수도 있다.
또한, 프로세서(110)는 이하의 도면에서 설명되는 본 개시에 따른 다양한 실시 예들을 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.
확장현실 장치(100)는 통신부(120)를 통해 확장현실 콘텐츠 제공 장치(200)와 통신할 수 있다.
본 개시의 실시예에서 확장현실 콘텐츠 제공 장치(200)는 서버 장치를 더 포함하도록 구성되어, 서버의 형태로 실시될 수 있다.
통신부(120)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어, 방송 수신 모듈, 유선통신 모듈, 무선통신 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.
유선 통신 모듈은, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다.
무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution), 4G, 5G, 6G 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.
무선 통신 모듈은 신호를 송신하는 안테나 및 송신기(Transmitter)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 제어부의 제어에 따라 무선 통신 인터페이스를 통해 제어부로부터 출력된 디지털 제어 신호를 아날로그 형태의 무선 신호로 변조하는 신호 변환 모듈을 더 포함할 수 있다.
근거리 통신 모듈은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth??), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
센서부(140)는 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)의 내 정보, XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부는 이러한 센싱 신호에 기초하여, XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)의 구동 또는 동작을 제어하거나, XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행할 수 있다.
상기와 같은, 센서부(140)는 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라), 마이크로폰, 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 중 적어도 하나를 포함함), 화학 센서(예를 들어, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
본 개시의 실시예에서, 센서부(140)는 하나 이상의 라이다 장치 및 하나 이상의 카메라 장치 중 적어도 하나를 포함할 수 있다.
이외에도, XR 기반의 시공 정밀도 향상 방법을 실행하기 위한 센서 장치라면 무엇이든 적용이 가능하다.
카메라는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(150)에 표시되거나 메모리(130)에 저장될 수 있다.
본 개시의 실시예에서 확장현실 장치(100)는 증강현실 기반으로 작동할 수 있도록 투명 디스플레이가 구비되어 있을 수 있다.
디스플레이부(150)는 시공 현장 내의 전방에 위치한 시공 대상과 관련된 적어도 하나의 XR 콘텐트가 표시된다.
시공 현장의 담당자는 확장현실 장치(100)를 착용하고 투명 디스플레이를 통해 시야를 확보하는 것은 물론 투명 디스플레이로 제공되는 적어도 하나의 XR 콘텐트를 확인할 수 있다.
디스플레이부(150)는 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(150)는 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)에서 구동되는 응용 프로그램(일 예로, 어플리케이션)의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
메모리(130)는 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)의 다양한 기능을 지원하는 데이터와, 제어부의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 음악 파일, 정지영상, 동영상 등)을 저장할 있고, XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다.
이러한, 메모리(130)는 플래시 메모리(130) 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(130)는 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)와는 분리되어 있으나, 유선 또는 무선으로 연결된 데이터베이스가 될 수도 있다.
본 개시의 실시예에서 확장현실 장치(100)는 입력부, 출력부, 인터페이스부를 더 포함할 수 있다.
본 개시의 실시예에 따른 확장현실 장치(100)는 Hololens2가 적용 가능하며, Hololens2에 포함된 구성이라면 확장현실 장치(100)의 구성으로 적용될 수 있다.
입력부는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 적어도 하나의 카메라, 적어도 하나의 마이크로폰 및 사용자 입력부 중 적어도 하나를 포함할 수 있다. 입력부에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
사용자 입력부는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부를 통해 정보가 입력되면, 제어부는 입력된 정보에 대응되도록 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)의 동작을 제어할 수 있다. 이러한, 사용자 입력부는 하드웨어식 물리 키(예를 들어, XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)의 전면, 후면 및 측면 중 적어도 하나에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 소프트웨어식 터치 키를 포함할 수 있다. 일 예로서, 터치 키는, 소프트웨어적인 처리를 통해 터치스크린 타입의 디스플레이부(150) 상에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.
출력부는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(150), 음향 출력부, 햅틱 모듈 및 광 출력부 중 적어도 하나를 포함할 수 있다. 디스플레이부(150)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)와 사용자 간에 출력 인터페이스를 제공할 수 있다.
음향 출력부는 통신부(120)를 통해 수신되거나 또는 메모리(130)에 저장된 오디오 데이터를 출력하거나, XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)에서 수행되는 기능과 관련된 음향 신호를 출력할 수 있다. 이러한 음향 출력부에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
인터페이스부는 XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부는 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리(130) 카드(memory card) 포트, 식별 모듈(SIM)이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치(100)에서는, 상기 인터페이스부에 연결된 외부 기기와 관련된 적절한 제어를 수행할 수 있다.
도 3은 본 개시의 실시예에 따른 XR 기반의 시공 정밀도 향상 방법의 흐름도이다.
프로세서(110)가 센서부(140)를 통해 센싱된 결과를 기반으로, 시공 현장 내에서 시공 대상의 관련 정보에 대한 식별 코드를 인식한다. (S100)
프로세서(110)가 S100에서 인식된 식별 코드를 통해 관련 정보를 획득한다. (S200)
도 4는 시공 현장에 확장현실 장치(100)를 설치하여 전방을 센싱하는 것을 예시한 도면이다.
도 4를 참조하면, 확장현실 장치(100)가 시공 현장을 최초로 센싱할 때, 확장현실 장치(100)는 시공 대상의 착공 시점으로부터 준공 시점까지 이동하지 않는 위치에서 시공 현장을 센싱하도록 할 수 있다.
확장현실 장치(100)는 도 4와 같이 거치대(190)에 거치될 수 있으며, 거치대(190)는 비콘을 포함할 수 있다.
확장현실 장치(100)는 상기 고정 위치에서 시공 현장을 센싱한 이후 확장현실 장치(100)가 이동됨에 따라 위치 변경을 인식하여 시공 현장을 센싱할 수 있다.
센서부(140)는 시공 현장 내의 시공 대상의 관련 정보에 대한 식별 코드를 인식할 수 있다.
본 개시의 실시예에서 프로세서(110)는 센서부(140)의 카메라를 통해서 시공 현장을 센싱할 수 있다.
프로세서(110)는 카메라의 촬영 영상에서 적어도 하나의 식별 코드, 시공 객체의 시공을 위해 표시한 표식, 및 시공된 시공 객체 중 적어도 하나를 인식할 수 있다. 프로세서(110)는 상기 인식된 결과를 기반으로 디스플레이부(150)로 표시하는 적어도 하나의 XR 컨텐트와 실물의 동기화할 수 있다.
프로세서(110)가 S300에서 획득된 관련 정보를 기반으로 시공 대상의 시공 위치를 파악한다. (S300)
프로세서(110)가 S300에서 파악된 시공 위치를 기반으로 적어도 하나의 XR 콘텐트 디스플레이부(150) 상에 표시한다. (S400)
시공 현장의 작업자는 디스플레이부(150) 상에 표시된 XR 콘텐트를 참고하여 시공 현장에 시공 대상에 대한 시공 위치를 표시할 수 있다.
일 실시예로, 프로세서(110)는 시공 객체를 시공하기 위한 시공 위치를 포함하는 XR 콘텐트로 디스플레이부(150)에 표시할 수 있다.
일 실시예로, 프로세서(110)는 센서부(140)를 통해 센싱된 결과를 기반으로, 시공 대상에 포함된 시공 객체가 시공되어야 하는 위치에 마킹/표시되도록 지시하는 적어도 하나의 XR 콘텐트를 디스플레이부(150)로 표시할 수 있다.
도 5는 시공 현장에 실제 관로 옆에 시공해야 하는 시공 객체(관로)의 시공 위치가 마킹된 것을 예시한 도면이다.
도 5를 참조하면, A는 이미 설치되어 있는 객체이고, B는 프로세서(110)가 디스플레이부(150) 상에 표시한 시공 객체를 작업자가 시공 현장에 표시/마킹한 것(시공 지시 정보)이다.
이와 같이 시공 객체를 시공하기 위한 시공 지시 정보가 표시/마킹되면, 해당 시공 객체의 시공 담당자에게 시공 진행을 요청하게 된다.
본 개시의 실시예에서 시공 대상은 적어도 하나의 시공 객체를 포함할 수 있으며, 시공 객체가 하나인 경우 시공 대상은 시공 객체 자체일 수 있다.
일 실시예로, 프로세서(110)는 센서부(140)를 통해 센싱된 결과를 기반으로, 시공 현장에 마킹/표시된 시공 지시 정보를 인식하고, 인식된 시공 지시 정보를 시공 위치를 지시할 때 제공되었던 XR 콘텐트와 비교하여 오차율을 산출할 수 있다.
보다 상세하게는, 프로세서(110)는 센서부(140)를 통해 센싱된 결과를 기반으로, 시공 현장에 마킹/표시된 시공 지시 정보를 인식하고, 인식된 시공 지시 정보를 해당 시공 객체의 설계 정보 또는 BIM 설계 데이터와 비교하여 오차율(오차 정도)을 산출할 수 있다.
일 실시예로, 프로세서(110)는 상기 산출된 오차율(오차 정도)이 기 설정된 오차 범위를 벗어나는 경우, 또는 기 설정된 오차 범위를 초과하는 경우, 상기 시공 지시 정보 및 해당 시공 객체의 설계 정보(BIM 설계 데이터)를 기반으로, 상기 인식된 시공 지시 정보의 오차를 바로잡기 위한 보정 정보를 포함하는 적어도 하나의 XR 콘텐트를 디스플레이부(150)로 표시할 수 있다.
현장의 작업자는 디스플레이부(150)로 표시된 보정 정보를 확인하고, 시공 지시 정보를 다시 표시/마킹할 수 있으며, 이로 인해 종래에 비하여 손쉽게 오차를 보정/수정할 수 있게 되는 효과가 있다.
일 실시예로, 보정 정보는 오차가 발생한 시공 객체의 정보, 시공 지시 정보 중에서 보정이 필요한 부분, 해당 시공 객체가 시공되어야 하는 위치 정보 중 적어도 하나를 포함할 수 있다. 몇몇 실시예에서 시공 시지 정보 중에서 보정이 필요한 부분이 기준값 이상인 경우, 프로세서(110)는 시공 지시 정보를 지우고 새로 표시/마킹하도록 지시하는 보정 정보를 도출할 수 있다.
도 6은 시공 객체의 설계 정보를 포함하는 XR 콘텐트를 디스플레이부(150)로 표시하는 것을 예시한 도면이다.
도 6을 참조하면, 프로세서(110)는 센서부(140)를 통해 센싱된 결과를 기반으로 시공 대상에 포함된 특정 시공 객체의 시공 위치가 판단되면, 상기 판단된 특정 시공 객체의 시공 위치에 상기 특정 시공 객체의 설계 정보를 포함하는 XR 콘텐트가 디스플레이부(150)로 표시되도록 제어할 수 있다.
도 7은 보도 블록 상의 점자 블록에 대한 설치 위치를 XR 콘텐트로 표시하는 것을 예시한 도면이다.
도 8은 도 6의 XR 콘텐트에 따라 점자 블록이 시공된 것을 예시한 도면이다.
시공 현장의 작업자는 확장현실 장치(100)의 디스플레이부(150)로 표시된 점자 블록의 시공을 위한 XR 콘텐트를 확인하고 시공 현장에 시공 지시 정보를 표시/마킹할 수 있으며, 점자 블록의 시공 담당자는 시공 현장에 표시/마킹되어 있는 시공 지시 정보대로 점자 블록을 도 8과 같이 시공할 수 있게 된다.
도 9는 시공 객체에 대한 XR 콘텐트를 기반으로, 시공 현장에서 시공 객체의 시공 위치를 표시하는 것을 예시한 도면이다.
도 10은 도 8에서 표시된 시공 위치에 따라 시공 객체가 시공된 것을 예시한 도면이다.
도 11은 도 10의 시공 단계 다음으로 시공되어야 하는 시공 객체를 XR 콘텐트로 표시해주는 것을 예시한 도면이다.
도 10과 같이 블록(시공 객체)가 시공된 상태에서 시공 현장이 센서부(140)를 통해 센싱되면, 프로세서(110)는 센서부(140)를 통해 센싱된 결과를 기반으로 시공 대상 시공 단계를 판단할 수 있다.
프로세서(110)는 시공 대상에 포함된 적어도 하나의 시공 객체에 대한 시공 위치를 포함하는 설계 정보를 기반으로, 시공 현장에 시공된 시공 객체를 인식할 수 있으며, 인식된 시공 객체를 기반으로 시공 단계를 판단할 수 있고, 다음으로 시공되어야 하는 시공 객체를 파악할 수 있다.
그리고, 프로세서(110)는 다음으로 시공되어야 하는 시공 객체의 시공을 위한 적어도 하나의 XR 콘텐트를 디스플레이부(150)로 표시되도록 제어할 수 있다.
일 실시예로, 프로세서(110)는 센서부(140)를 통해 센싱된 결과를 기반으로 시공 현장에 시공된 시공 객체 및 시공 현장에 마킹/표시된 시공 지시 정보 중 적어도 하나를 식별하여 시공 대상의 시공 단계를 판단할 수 있다.
일 실시예로, 프로세서(110)는 상기 판단된 시공 단계에 따라서 시공 대상의 다음 시공(다음 시공 객체)을 위한 적어도 하나의 XR 콘텐트를 디스플레이부(150)로 표시할 수 있다.
본 개시의 실시예에서 식별 코드는 QR 코드가 적용 가능하며, QR 코드 이외에도 식별할 수 있는 수단이라면 무엇이든 적용 가능하다.
일 실시예로, 각각의 식별 코드는 공사 현장의 좌표, 확장현실 콘텐트의 위치 정보, 구체적으로는 확장현실 콘텐트 내 객체(오브젝트)의 위치 정보가 저장되어 있거나, 위치 정보를 로딩할 수 있는 트리거 수단으로 이용될 수 있다.
일 실시예로, 프로세서(110)는 센서부(140)를 통해 센싱된 식별 코드가 복수 개인 경우, 센서부(140)를 통해 센싱된 복수 개의 식별 코드 간의 위치 관계를 고려하여 관계형 증강 방식으로 시공 대상의 시공 위치를 판단할 수 있다.
확장현실 장치(100)는 하나의 식별 코드만을 이용하여 시공 대상의 시공 위치를 파악하거나, 식별 코드 주변의 오브젝트, 시공 지시 정보, 시공 객체 중 적어도 하나를 이용하여 판단해야 하지만, 상기와 같이 복수 개의 식별 코드가 센싱되는 경우에는 식별 코드 간의 위치 관계를 고려하여 관계형 증강 방식으로 시공 대상의 시공 위치를 파악함으로써, 보다 정확하게 시공 대상, 시공 객체의 시공 위치를 판단할 수 있게 된다.
본 개시의 실시예에서 확장현실 장치(100)는 시공 대상을 위한 적어도 하나의 XR 콘텐트 중 적어도 일부의 XR 콘텐트를 메모리(130)에 저장할 수 있으며, 통신부(120)를 통해 확장현실 콘텐트 제공 장치(200)로부터 수신할 수도 있다.
일 실시예로, 확장현실 장치(100)의 프로세서(110)는 확장현실 장치(100)로 입력되는 편집에 따라 확장현실 콘텐트 내 확장현실 콘텐트에 대한 편집 정보를 생성하여 확장현실 콘텐츠 제공 장치(200)로 제공할 수 있다.
일 실시예로, 프로세서(110)는 센서부(140)의 촬영 영상 내에 사용자의 제스처가 인식되고, 상기 인식된 제스처가 확장현실 콘텐트 내 특정 객체에 대한 편집 정보에 해당하는 것을 판단되는 경우, 편집 정보를 콘텐츠 제공 장치(200)로 제공되어 해당 편집 정보에 해당하는 변경 사항을 확장현실 콘텐트에 반영할 수 있으며, 실시예에 따라 편집 정보가 반영된 확장현실 콘텐트를 확장현실 장치에 다시 제공할 수 있다.
아래에서는 전술한 실시예에서 사용되는 XR 콘텐트를 제작하는 확장현실 콘텐츠 제공 장치(200)에 대해서 설명하도록 한다.
도 12는 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치(200)의 블록도이다.
도 12를 참조하면, 본 개시의 실시예에서 확장현실 콘텐츠 제공 장치(200)는 프로세서(210), 통신부(220), 메모리(230) 및 랜더링부(260)를 포함한다.
도 13은 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치(200)의 작동을 예시한 도면이다.
프로세서(210), 통신부(220) 및 메모리(230)의 기본적인 기능에 관해서는 전술한 바와 동일하므로 중복되는 설명은 생략하도록 하고, 확장현실 콘텐츠를 제공하는 방법을 위주로 설명하도록 한다.
프로세서(210)는 확장현실 콘텐츠 제공 장치(200) 내 구성들의 제어를 수행하며, 메모리(230)에 저장된 각종 명령어, 알고리즘 등을 실행하여 확장현실 콘텐츠 제공 서비스를 제공한다.
몇몇 실시예에서 프로세서(210)는 미리 학습된 인공지능 모델을 이용하여 확장현실 콘텐츠 제공 서비스를 제공할 수 있다.
또한, 프로세서(210)는 이하의 도면에서 설명되는 본 개시에 따른 다양한 실시 예들을 본 장치 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.
통신부(220)는 복수의 서로 다른 작업자의 단말(300)로부터 BIM 설계 데이터를 수신하고, 현장 작업자의 확장현실 장치(100)와 통신을 수행한다.
메모리(230)는 복수의 서로 다른 작업자의 단말(300)로부터 수신된 BIM 설계 데이터를 기반으로 생성된 형상 정보 및 속성 정보가 저장될 수 있으며, 서로 다른 복수의 저장 공간을 포함할 수 있다. 몇몇 실시예에서 메모리(230)는 클라우드 저장공간을 더 포함할 수 있다.
메모리(230)는 확장현실 콘텐트를 생성하기 위해서 미리 셋업된 복수 개의 템플릿(Templates)가 저장되어 있다.
본 개시의 실시예에서 미리 셋업된 템플릿(Templates)은 프로세서(210)가 객체의 형상 정보, 속성 정보를 반영하면 확장현실 콘텐트가 생성될 수 있도록 미리 제작된 것으로, 확장현실 콘텐트를 위한 기본적인 사항들이 미리 설정되어 있을 수 있다.
몇몇 실시예에서, 메모리(230)는 복수의 서로 다른 작업자의 단말(300)로부터 수신된 BIM 설계 데이터가 저장될 수도 있다.
랜더링부(260)는 BIM 설계 데이터, 객체의 형상 정보 및 속성 정보를 이용하여 3D 영상을 렌더링할 수 있다.
또한, 프로세서(210)는 확장현실 장치(100)로 확장현실 콘텐트 내 객체에 대한 조작 신호 또는 편집 정보가 수신되면, 렌더링부(260)를 제어하여 상기 수신된 조작 신호 또는 편집 정보에 따라 객체를 실시간으로 렌더링하고, 렌더링된 영상을 확장현실 장치(100)로 제공하기 때문에 현장 작업자는 실제로 객체를 조작하고 편집하는 것과 같은 실감도를 느낄 수 있게 되는 효과가 있다.
프로세서(210)는 복수의 서로 다른 작업자의 단말(300)로부터 수신된 BIM 설계 데이터를 메모리(230)에 저장한다.
프로세서(210)는 상기 수신된 BIM 설계 데이터를 기반으로, 적어도 하나의 확장현실(eXtended reality) 콘텐트를 생성하기 위한 형상 정보 및 속성 정보를 생성한다.
프로세서(210)는 S200에서 생성된 형상 정보 및 속성 정보를 기반으로 적어도 하나의 확장현실 콘텐트를 생성한다.
프로세서(210)는 적어도 하나의 확장현실 콘텐트를 확장현실 장치(100)에 전송하여 확장현실 장치(100)에 표시되도록 제어한다.
확장현실 장치(100)로부터 확장현실 콘텐트에 대한 편집 정보가 수신되면, 프로세서(210)가 편집 정보에 해당하는 변경 사항을 확장현실 콘텐트에 반영하여 확장현실 장치(100)에 다시 제공한다.
본 개시의 실시예에 따른 확장현실 콘텐트 제공 장치(200)는 사전에 셋업된 Templates를 기반으로 적어도 하나의 확장현실 콘텐트를 생성할 수 있다.
이때, 확장현실 콘텐트 제공 장치(200)는 콘텐트를 생성하고자 하는 건설 공정에 따라서 Templates에 서로 다른 데이터를 자동으로 적용함으로써 확장현실 콘텐트를 생성하게 된다.
이때, Templates에 적용/입력하기 위한 데이터는 건설 공정에 대한 정보이며 본 개시의 실시예에서는 형상 정보, 속성 정보가 이에 해당될 수 있다.
즉, 프로세서(210)가 BIM 설계 데이터에서 확장현실 콘텐트를 생성하기 위한 형상 정보 및 속성 정보를 생성하는 것은, 해당 건설 공정의 확장현실 콘텐트를 생성하기 위해 미리 셋업되어 있는 Templates에 적용/입력하기 위한 정보를 생성하는 것을 의미한다.
아래에서는 프로세서(210)가 이러한 동작을 수행하는 것에 관련하여 보다 상세하게 설명하도록 한다.
본 개시의 실시예에서, 확장현실 콘텐트는 가상현실, 증강현실, 혼합현실 기술이라면 무엇이든 적용이 가능하며, 예를 들어 확장현실 콘텐트는 AR 콘텐트, VR 콘텐트, MR 콘텐트를 포함할 수 있다.
전술한 바와 같이, 확장현실 콘텐트 제공 장치(200)의 통신부(220)는 Civil, Structure, Architecture, HVAC, UT, EL, IN, FF, FI과 같이 다양한 작업자의 단말(300)로부터 설계 데이터를 수신할 수 있다.
그리고, 프로세서(210)는 작업자의 단말(300)로부터 수신된 설계 데이터를 메모리(230)에 저장할 수 있다.
작업자의 단말(300)로부터 수신된 BIM 설계 데이터는 다양한 BIM 설계 데이터 중에서 담당 작업자의 분야에 대한 BIM 설계 데이터이며, 확장현실 콘텐트로 생성하기 위한 변환이 필요하다.
본 개시의 실시예에서, 확장현실 콘텐트 제공 장치(200)는 BIM 설계 데이터를 기반으로 형상 정보 및 속성 정보 중 적어도 하나를 생성할 수 있다.
보다 상세하게는, 메모리(230)는 정보 취합 알고리즘 및 정보 변환 알고리즘이 저장되어 있다.
프로세서(210)는 정보 취합 알고리즘을 이용하여 복수의 서로 다른 작업자의 단말(300)로부터 수신된 BIM 설계 데이터를 취합할 수 있다. 프로세서(210)는 취합된 데이터를 확장현실 콘텐트를 생성하기 위한 형상 정보 및 속성 정보로 변환할 수 있다.
다음으로, 프로세서(210)는 형상 정보 및 속성 정보를 기반으로, 확장현실 콘텐트 내 적어도 하나의 객체를 생성할 수 있다.
즉, 본 개시의 실시예에서 확장현실 콘텐트 제공 장치(200)는 건설 현장에 대한 설계 데이터를 이용하여, 설계에 필요한 형상 정보 및 속성 정보를 포함하는 객체를 생성함으로써, 확장현실 콘텐트를 생성할 수 있게 된다.
본 개시의 실시예에서, 메모리(230)는 Revit 프로그램이 저장될 수 있으며, 프로세서(210)는 Revit 프로그램을 이용하여 BIM 설계 데이터를 취합, 변환함으로써 형상 정보 및 속성 정보를 포함하는 Revit 객체 데이터를 생성할 수 있다.
본 개시의 실시예에서, 객체의 형상 정보는 확장현실 콘텐트를 통해서 형상으로 표시 가능한 정보를 포함할 수 있다.
프로세서(210)는 BIM 설계 데이터를 분석하여 시각적 속성 또는 비시각적 속성을 판단할 수 있으며, 판단 결과에 기초하여 확장 현실 콘텐트에 표시하기 위한 적어도 하나의 객체를 결정할 수 있고, 각 객체에 대한 형상 정보 및 속성 정보를 생성할 수 있다.
일 실시예로, 프로세서(210)는 BIM 설계 데이터에 대하여 취합된 데이터를 분석하여, 설계 데이터 내에 포함된 객체를 추출할 수 있으며, 각 객체와 관련된 BIM 설계 데이터를 기반으로 각 객체에 대한 형상 정보 및 속성 정보를 생성할 수 있다.
예를 들어, 프로세서(210)는 BIM 설계 데이터에 포함되어 있는 파이프, 소방 시설, 기둥, 통신 시설 등의 객체를 추출하고, 추출된 각 객체의 형상 정보 및 속성 정보를 생성할 수 있다.
이와 같은 과정을 통해서, 프로세서(210)는 BIM 설계 데이터에 포함된 객체를 추출하고, 각 객체의 형상 정보와 속성 정보를 생성하였기 때문에, 이를 이용하여 확장현실 콘텐트를 생성할 수 있다.
프로세서(210)는 생성된 확장현실 콘텐트에 대한 테스트를 수행하여, 콘텐트 내 잘못 생성된 객체 또는 오류를 검출할 수 있다. 그리고, 프로세서(210)는 테스트가 완료된 확장현실 콘텐트를 이용 가능 상태로 전환하여 현장 작업자의 확장현실 장치(100)로부터 수신되는 요청에 따라 제공할 수 있다.
프로세서(210)는 선택된 각 객체의 형상 정보를 기반으로 확장현실 콘텐트 내에 상기 선택된 각 객체를 랜더링하도록 랜더링부(260)를 제어할 수 있다.
프로세서(210)는 확장현실 장치(100)의 기본 보기 조건에서 확장현실 콘텐트 내 각 객체를 표시할 것인지 숨김 처리할 것인지 결정할 수 있다.
이때, 기본 보기 조건은 줌인, 줌아웃, 투과 등과 같은 기능을 실행하지 않은 조건으로, 확장현실 장치(100)에서 확장현실 콘텐트 보기 조건이 달라지는 경우, 확장현실 콘텐트로 표시되는 객체도 달라질 수 있다.
일 실시예로, 프로세서(210)는 Sphere Mask 설정을 통해서 범위 밖의 객체를 숨길 수 있으며, Section 설정을 통해서 단면 보기 기능을 제공할 수도 있다.
프로세서(210)는 확장현실 콘텐트 제공 장치(200)에 접속한 확장현실 장치(100)로 적어도 하나의 확장현실 콘텐트를 제공할 수 있다.
보다 상세하게는, 프로세서(210)는 확장현실 장치(100)로부터 확장현실 콘텐츠 요청 신호가 수신되면, 요청 신호에 부합하는 적어도 하나의 확장현실 콘텐트를 해당 확장현실 장치(100)로 전송하여 제공할 수 있다.
이때, 확장현실 콘텐츠 요청 신호는 기준 표식(예: 코드) 인식을 통해서 진행될 수 있으며, 상세하게는 QR Marker 인식을 통해 구현될 수 있다.
따라서, 특정 건설 현장의 현장 작업자는 확장현실 장치(100)를 휴대 또는 착용한 상태에서 현장의 QR Marker를 인식하게 되면, 확장현실 콘텐츠가 요청되며, 확장현실 콘텐트 제공 장치(200)는 QR Marker의 정보에 부합하는 확장현실 콘텐트를 확장현실 장치(100)로 전송하게 된다.
이때, 프로세서(210)는 QR Marker의 위치 정보와 확장현실 장치(100)의 위치 정보가 매칭되는 경우, 확장현실 콘텐트를 전송하도록 할 수 있다.
상술한 실시예에서 QR Marker를 요청 신호로 설명하였으나, 반드시 이러한 코드 인식 방법으로 진행되어야 하는 것은 아니다.
프로세서(210)는 확장현실 콘텐트 내에 포함된 각 객체에 대한 형상 정보를 기반으로 각 객체의 LOD(Level Of Detail)을 결정하고, 결정된 각 객체의 LOD를 기반으로 랜더링부(260)를 제어하여 적어도 하나의 확장현실 콘텐트에 각 객체를 랜더링할 수 있다.
일 실시예로, 프로세서(210)는 적어도 하나의 확장현실 콘텐트 내 각 객체의 역할을 기반으로 중요도를 산출하고, 상기 산출된 중요도를 기반으로 상기 LOD를 산출할 수 있다.
일 실시예로, 각 객체의 카테고리별 중요도가 설정되어 있으며, 프로세서(210)는 확장현실 콘텐트의 목적에 따라 각 객체의 역할을 판단할 수 있다.
프로세서(210)는 적어도 하나의 확장현실 콘텐트 내에 포함된 각 객체의 위치 정보와 확장현실 장치(100)의 실시간 위치 및 각 객체의 형상 정보와 속성 정보를 기반으로, 상기 확장현실 장치(100)로 표시되고 있는 확장현실 콘텐트 내에서의 상기 각 객체의 상대적 중요도 및 가시성을 산출할 수 있다.
프로세서(210)는 상기 산출된 상대적 중요성 및 가시성을 기반으로 상기 각 객체를 상기 확장현실 콘텐트에 표시할 것인지 숨김 처리할 것인지를 결정할 수 있다.
일 실시예로, 프로세서(210)는 상기 각 객체에 대하여 인접한 적어도 하나의 객체와의 중요도를 기반으로, 상기 각 객체를 확장현실 콘텐트에 표시할 것인지 숨김 처리할 것인지 결정할 수 있다.
예를 들어, 아무런 제어신호가 입력되지 않은 최초의 Raw 상태의 확장현실 콘텐트는 모든 객체가 표시되고 있으며, 현장 작업자가 확장현실 장치(100)를 착용하면 현장 작업자의 정보, 위치와 각 객체와의 상대적인 관계를 고려하여 각 객체의 상태정보를 생성하고, 이를 확장현실 콘텐트에 반영하여 각 객체를 랜더링하는 것을 의미한다.
일 실시예로, 프로세서(210)는 상기 각 객체 중에서 기 설정된 중요도 이상을 갖는 객체는 강조 표시를 하여 확장현실 콘텐트에 표시할 수 있다.
프로세서(210)는 기 설정된 시간마다 확장현실 장치(100)의 위치정보를 리로딩하여 상기 상대적 중요성과 가시성을 재산출하고, 이를 확장현실 콘텐트에 반영함으로써 확장현실 장치(100)로 표시되고 있는 확장현실 콘텐트에 포함된 각 객체에 대한 변경사항이 반영되도록 랜더링할 수 있다.
확장현실 콘텐트 제공 장치(200)는 확장현실 장치(100)를 휴대, 착용하고 있는 현장 작업자에게 현장감을 제공하기 위해서, 상술한 구성을 통해서 해당 현장에서 중요도가 높은 특정 객체를 강조하여 표시하고 해당 현장에서 중요도가 떨어지거나 작업자의 현재 위치로부터 거리가 멀리 위치한 특정 객체를 표시하지 않고 숨김 처리하는 등과 같은 기능을 제공할 수 있다.
본 개시의 실시예에서, 확장현실 콘텐트 제공 장치(200)는 확장현실 장치(100)의 스펙에 따라 다양한 운용 옵션을 제공할 수 있다.
보다 상세하게는, 프로세서(210)는 확장현실 장치(100)로 제공하기 위한 확장현실 콘텐트의 용량과 확장현실 장치(100)의 스펙에 기초하여 확장현실 장치(100)의 운용 옵션을 결정할 수 있다.
이때, 운용 옵션은 무선 통신 방식을 통해 확장현실 콘텐트를 제공하는 제1 운용 옵션 및 스탠드 얼론(Stand Alone) 방식의 제2 운용 옵션을 포함할 수 있다.
도 14는 현장 작업자가 착용한 확장현실 장치(100)로 현장의 확장현실 콘텐트가 표시되고 있는 것을 예시한 도면이다.
도 15 내지 17은 확장현실 장치(100)로 입력되는 신호에 따라 확장현실 콘텐트 내 객체가 편집되고, 확장현실 콘텐트에 반영되어 표시되는 것을 예시한 도면이다.
도 18은 현장 작업자가 선택한 객체의 속성 정보가 확장현실 콘텐트 내에 표시되는 것을 예시한 도면이다.
아래에서는 도 14 내지 도 18를 참조하여 현장 작업자가 확장현실 장치(100)를 통해 확장현실 콘텐트 내 객체를 편집하는 것을 설명하도록 한다.
프로세서(210)는 현장 작업자가 착용한 확장현실 장치(100)를 통해 현장 작업자 주변의 객체를 포함하는 확장현실 콘텐트를 표시함으로써, 현장 작업자가 실제로 현장을 바라보는 듯한 현장감을 제공할 수 있다.
몇몇 실시예에서, 확장현실 장치(100)는 입력수단(예: 마이크 등)을 더 포함할 수도 있다.
또한, 본 개시의 실시예에서 확장현실 장치(100)는 증강현실 기반으로 작동할 수 있도록 투명 디스플레이가 구비되어 있을 수 있다.
프로세서(110)는 확장현실 장치(100)의 센서부(140)를 통해 센싱되는 실시간 센싱 데이터에서 작업자의 제스처가 감지되는 경우, 제스처를 인식하고 인식된 제스처에 따라 입력 신호를 생성할 수 있다.
도 14를 참조하면, 현장 작업자가 착용한 확장현실 장치(100)의 디스플레이로 현장 내 객체를 포함하는 확장현실 콘텐트(610)를 표시하는 것이 예시되어 있다.
프로세서(210)는 작업자가 확장현실 콘텐트 내 특정 객체에 대하여 제스처를 이용한 선택 신호를 입력한 경우, 도 15와 같이 해당 객체(710)에 강조 표시를 함으로써 현재 해당 객체가 선택되어 있는 상태라고 랜더링하여 확장현실 콘텐트를 제공할 수 있다.
도 15를 참조하면, 사용자의 확장현실 장치(100) 제어에 따라 확장현실 콘텐트 내 2개의 객체가 선택되어 있으며, 사용자의 전방에 위젯 UI(730)가 표시되고 있다.
프로세서(210)는 확장현실 장치(100)로부터 UI 호출 신호가 수신되는 경우, 확장현실 콘텐트에 호출된 UI를 랜더링함으로써, 확장현실 장치(100)의 디스플레이로 UI를 제공할 수 있다.
일 실시예로, 프로세서(210)는 사용자로부터 선택된 적어도 하나의 객체를 기반으로, 랜더링하여 제공할 UI를 선택할 수 있다.
일 실시예로, 프로세서(210)는 사용자로부터 선택된 복수의 객체 간의 형상 정보 및 속성 정보를 비교하고, 상기 비교 결과를 기반으로 랜더링하여 제공할 UI를 선택할 수 있다.
일 실시예로, 프로세서(210)는 확장현실 장치(100)로 입력되어 수신되는 신호에 따라 확장현실 콘텐트 내 특정 객체를 선택하거나, 선택된 특정 객체를 편집하거나, 선택된 특정 객체를 삭제하거나, 또는 특정 객체를 생성할 수 있다.
도 16 및 도 17을 참조하면, 사용자가 확장현실 장치(100)를 통해 도 15와 같이 선택된 2개의 객체(710)에 대한 객체(810, 파이프 라인)을 편집하는 것이 예시되어 있다.
도 18을 참조하면, 프로세서(210)는 확장현실 장치(100)로부터 확장현실 콘텐트 내 특정 객체가 선택되는 신호가 입력되어 수신되고, 선택된 특정 객체에 대한 속성 정보 조회 신호가 수신되는 경우 속성 정보 조회 신호에 따라 해당 객체에 대한 속성 정보(1000)를 확장현실 콘텐트에 랜더링하여 확장현실 장치(100)로 표시할 수 있다.
프로세서(210)는 확장현실 장치(100)로부터 특정 속성 정보 기반으로 객체 검색이 요청되는 경우, 필터링 기능을 이용하여 확장현실 콘텐트 내에서 해당 속성 정보를 갖는 객체를 선택하거나 표시해줄 수 있다. 프로세서(210)는 이와 같이 객체 검색되어 선택된 복수의 객체에 대하여 다중 편집 기능을 제공함으로써 동시에 복수 개의 객체를 편집할 수 있는 기능을 제공한다.
프로세서(210)는 이와 같이 객체 검색되어 선택된 복수의 객체에 대하여 다중 편집 기능을 제공함으로써 검색되어 선택된 복수 개의 객체에 대한 속성 정보(예: 재질 등)를 편집할 수 있는 기능을 제공한다.
프로세서(210)는 객체 검색되어 선택된 복수의 객체에 대하여 확장현실 콘텐트 내 표시 또는 숨김이 선택되면, 선택에 따라 확장현실 콘텐트를 랜더링할 수 있다.
프로세서(210)는 확장현실 장치(100)로부터 적어도 하나의 객체가 선택되고, 선택된 객체의 속성 정보에 대한 편집 정보(추가, 삭제 또는 수정)가 수신되는 경우, 수신된 편집 정보에 따라 해당 객체의 속성 정보를 편집할 수 있다.
전술한 바와 같이, 프로세서(210)는 미리 셋업된 Templates를 기반으로 형상 정보 및 속성 정보를 입력/적용하여 적어도 하나의 확장현실 콘텐트를 생성하게 되며, 확장현실 장치(100)로부터 편집 정보가 수신되면 이와 같이 입력/적용되어 있는 정보들을 자동으로 편집함으로써, 현장 작업자의 편집 내역을 반영할 수 있게 된다.
그리고, 프로세서(210)는 편집 정보가 특정 객체에 대한 편집인 경우, 해당 객체의 형상 정보 및 속성 정보 중 적어도 하나를 편집할 수 있다.
이외에도, 프로세서(210)는 확장현실 장치(100)로부터 선택된 객체에 대한 메모, 음성 등이 입력되어 수신되는 경우, 이를 메모리(230)에 저장할 수 있다.
프로세서(210)는 확장현실 장치(100)로부터 수신된 편집 정보에 따라 확장현실 콘텐트 내 객체의 정보를 편집하고, 편집된 내역에 따라 확장현실 콘텐트 내 표시되고 있는 객체에도 반영되도록 영상을 랜더링한다.
또한, 프로세서(210)는 편집 정보를 메모리(230)에 저장함으로써, BIM 설계 데이터에도 반영되도록 한다.
이상에서 전술한 본 개시의 일 실시예에 따른 방법은, 하드웨어인 서버와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
본 개시의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 개시의 실시예를 설명하였지만, 본 개시가 속하는 기술분야의 통상의 기술자는 본 개시가 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
10: 확장현실 콘텐츠 제공 시스템
100: 확장현실 장치
110: 프로세서
120: 통신부
130: 메모리
140: 센서부
150: 디스플레이부
200: 확장현실 콘텐츠 제공 장치
210: 프로세서
220: 통신부
230: 메모리
260: 랜더링부
300: 작업자 단말

Claims (10)

  1. 시공 현장 내의 전방에 위치한 시공 대상과 관련된 적어도 하나의 XR 콘텐트가 표시되는 디스플레이부;
    상기 시공 현장 내에서 상기 시공 대상의 관련 정보에 대한 식별 코드를 인식하는 센서부; 및
    상기 센서부에 의해 인식된 상기 식별 코드를 통해 상기 관련 정보를 획득하고, 상기 획득된 관련 정보를 기반으로, 상기 시공 대상의 시공 위치를 파악하고, 상기 파악된 시공 위치를 기반으로, 상기 XR 콘텐트가 상기 디스플레이부 상에 표시되도록 제어하는 프로세서를 포함하고,
    상기 프로세서는,
    상기 센서부를 통해 센싱된 결과를 기반으로, 상기 시공 현장에 마킹된 시공 지시 정보를 인식하고 상기 인식된 시공 지시 정보를 해당 설계 객체의 설계 정보와 비교하여 오차율을 산출하고,
    상기 산출된 오차율이 기 설정된 오차 범위를 벗어나는 경우, 상기 시공 지시 정보 및 해당 시공 객체의 설계 정보를 기반으로, 상기 인식된 시공 지시 정보의 오차를 바로잡기 위한 보정 정보를 포함하는 적어도 하나의 XR 콘텐트를 상기 디스플레이부로 표시하는 것을 특징으로 하는,
    XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치.
  2. 확장현실 장치에 관한 것으로,
    시공 현장 내의 전방에 위치한 시공 대상과 관련된 적어도 하나의 XR 콘텐트가 표시되는 디스플레이부;
    상기 시공 현장 내에서 상기 시공 대상의 관련 정보에 대한 식별 코드를 인식하는 센서부; 및
    상기 센서부에 의해 인식된 상기 식별 코드를 통해 상기 관련 정보를 획득하고, 상기 획득된 관련 정보를 기반으로, 상기 시공 대상의 시공 위치를 파악하고, 상기 파악된 시공 위치를 기반으로, 상기 XR 콘텐트가 상기 디스플레이부 상에 표시되도록 제어하는 프로세서를 포함하고,
    상기 확장현실 장치는, 상기 시공 대상의 착공 시점으로부터 준공 시점까지 이동하지 않는 위치에서 상기 시공 현장을 센싱하는 것을 특징으로 하는,
    XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치.
  3. 제1항 또는 제2항에 있어서,
    상기 프로세서는,
    상기 센서부를 통해 센싱된 결과를 기반으로, 상기 시공 대상에 포함된 특정 시공 객체의 시공 위치가 판단되면, 상기 판단된 특정 시공 객체의 시공 위치에 상기 특정 시공 객체의 설계 정보를 포함하는 XR 콘텐트가 상기 디스플레이부로 표시되도록 제어하는 것을 특징으로 하는,
    XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치.
  4. 제1항 또는 제2항에 있어서,
    상기 프로세서는,
    상기 센서부를 통해 센싱된 결과를 기반으로, 상기 시공 대상에 포함된 시공 객체가 시공되어야 하는 위치에 마킹되도록 지시하는 적어도 하나의 XR 콘텐트를 상기 디스플레이부로 표시되도록 제어하는,
    XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치.
  5. 제1항 또는 제2항에 있어서,
    상기 프로세서는,
    상기 센서부를 통해 센싱된 결과를 기반으로, 상기 시공 현장에 시공된 시공 객체 및 상기 시공 현장에 마킹된 시공 지시 정보 중 적어도 하나를 식별하여 상기 시공 대상의 시공 단계를 판단하고,
    상기 판단된 시공 단계에 따라서 상기 시공 대상의 다음 시공을 위한 적어도 하나의 XR 콘텐트가 상기 디스플레이부로 표시되도록 제어하는 것을 특징으로 하는,
    XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치.
  6. 제1항 또는 제2항에 있어서,
    상기 프로세서는,
    상기 센서부를 통해 센싱된 식별 코드가 복수 개인 경우,
    상기 센서부를 통해 센싱된 복수 개의 식별 코드 간의 위치 관계를 고려하여 관계형 증강 방식으로 상기 시공 대상의 시공 위치를 판단하는 것을 특징으로 하는,
    XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치.
  7. XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치에 의해 수행되는 방법으로,
    센서부를 통해 센싱된 결과를 기반으로, 시공 현장 내에서 시공 대상의 관련 정보에 대한 식별 코드를 인식하는 단계;
    상기 인식된 식별 코드를 통해 상기 관련 정보를 획득하는 단계;
    상기 획득된 관련 정보를 기반으로 상기 시공 대상의 시공 위치를 파악하는 단계; 및
    상기 파악된 시공 위치를 기반으로 XR 콘텐트를 상기 시공 현장 내의 전방에 위치한 상기 시공 대상과 관련된 적어도 하나의 XR 콘텐트를 표시하는 디스플레이부 상에 표시하는 단계를 포함하고,
    상기 센서부를 통해 센싱된 결과를 기반으로, 상기 시공 현장에 마킹된 시공 지시 정보를 인식하고 상기 인식된 시공 지시 정보를 해당 설계 객체의 설계 정보와 비교하여 오차율을 산출하고,
    상기 산출된 오차율이 기 설정된 오차 범위를 벗어나는 경우, 상기 시공 지시 정보 및 해당 시공 객체의 설계 정보를 기반으로, 상기 인식된 시공 지시 정보의 오차를 바로잡기 위한 보정 정보를 포함하는 적어도 하나의 XR 콘텐트를 상기 디스플레이부로 표시하는 것을 특징으로 하는,
    확장현실 장치를 통해 XR 기반으로 시공 정밀도를 향상시키는 방법.
  8. XR 기반으로 시공 정밀도를 향상시키는 확장현실 장치에 의해 수행되는 방법으로,
    센서부를 통해 센싱된 결과를 기반으로, 시공 현장 내에서 시공 대상의 관련 정보에 대한 식별 코드를 인식하는 단계;
    상기 인식된 식별 코드를 통해 상기 관련 정보를 획득하는 단계;
    상기 획득된 관련 정보를 기반으로 상기 시공 대상의 시공 위치를 파악하는 단계; 및
    상기 파악된 시공 위치를 기반으로 XR 콘텐트를 상기 시공 현장 내의 전방에 위치한 상기 시공 대상과 관련된 적어도 하나의 XR 콘텐트를 표시하는 디스플레이부 상에 표시하는 단계를 포함하고,
    상기 확장현실 장치는, 상기 시공 대상의 착공 시점으로부터 준공 시점까지 이동하지 않는 위치에서 상기 시공 현장을 센싱하는 것을 특징으로 하는,
    확장현실 장치를 통해 XR 기반으로 시공 정밀도를 향상시키는 방법.
  9. 하드웨어인 컴퓨터와 결합되어, 제8항의 방법을 실행시키기 위한 프로그램이 저장된 컴퓨터 판독 가능한 기록매체.

  10. 삭제
KR1020230007490A 2023-01-18 2023-01-18 Xr 기반으로 시공 정밀도를 향상시키는 확장현실 장치, 방법 및 프로그램 Active KR102701335B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020230007490A KR102701335B1 (ko) 2023-01-18 2023-01-18 Xr 기반으로 시공 정밀도를 향상시키는 확장현실 장치, 방법 및 프로그램
US18/415,039 US20240242323A1 (en) 2023-01-18 2024-01-17 Apparatus and method for improving construction precision based on xr

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230007490A KR102701335B1 (ko) 2023-01-18 2023-01-18 Xr 기반으로 시공 정밀도를 향상시키는 확장현실 장치, 방법 및 프로그램

Publications (2)

Publication Number Publication Date
KR20240115056A KR20240115056A (ko) 2024-07-25
KR102701335B1 true KR102701335B1 (ko) 2024-08-30

Family

ID=91854764

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230007490A Active KR102701335B1 (ko) 2023-01-18 2023-01-18 Xr 기반으로 시공 정밀도를 향상시키는 확장현실 장치, 방법 및 프로그램

Country Status (2)

Country Link
US (1) US20240242323A1 (ko)
KR (1) KR102701335B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220169825A (ko) * 2021-06-21 2022-12-28 정재헌 Bim 설계 데이터 내 설비 라인을 자동으로 설계하는 장치, 방법 및 프로그램

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101201129B1 (ko) * 2011-03-03 2012-11-13 연세대학교 산학협력단 증강현실 기술을 이용한 시공 구조물의 3차원 영상 표시 시스템
KR102332407B1 (ko) * 2019-11-04 2021-11-30 한국인프라비아이엠협동조합 Bim 모델 기반의 시공 현장 인지 장치 및 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9204131B2 (en) * 2012-09-14 2015-12-01 Nokia Technologies Oy Remote control system
CN105408826B (zh) * 2014-03-18 2017-05-17 三菱电机株式会社 系统构建辅助装置以及方法
US20170038912A1 (en) * 2014-04-18 2017-02-09 Nec Solution Innovators, Ltd. Information providing device
KR101881552B1 (ko) 2016-02-12 2018-07-24 (주) 동양구조안전기술 시공오차 보정이 용이한 모듈 건축의 접합구조
JP6996147B2 (ja) * 2017-07-27 2022-01-17 株式会社大林組 検査処理システム、検査処理方法及び検査処理プログラム
WO2019222255A1 (en) * 2018-05-14 2019-11-21 Sri International Computer aided inspection system and methods
US10867447B2 (en) * 2019-01-21 2020-12-15 Capital One Services, Llc Overlaying 3D augmented reality content on real-world objects using image segmentation
KR102603276B1 (ko) * 2021-06-21 2023-11-17 정재헌 Xr 기반의 감리 보조 장치, 방법 및 프로그램

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101201129B1 (ko) * 2011-03-03 2012-11-13 연세대학교 산학협력단 증강현실 기술을 이용한 시공 구조물의 3차원 영상 표시 시스템
KR102332407B1 (ko) * 2019-11-04 2021-11-30 한국인프라비아이엠협동조합 Bim 모델 기반의 시공 현장 인지 장치 및 방법

Also Published As

Publication number Publication date
US20240242323A1 (en) 2024-07-18
KR20240115056A (ko) 2024-07-25

Similar Documents

Publication Publication Date Title
US8225226B2 (en) Virtual control panel
US9459706B2 (en) Information display system, information display method, and recording medium
KR102718318B1 (ko) 인터랙티브 증강 현실 시스템
EP2733629B1 (en) System for associating tag information with images supporting image feature search
US10733799B2 (en) Augmented reality sensor
US20250095309A1 (en) Crowd sourced mapping system
JP2020098568A (ja) 情報管理装置、情報管理システム、情報管理方法および情報管理プログラム
US20250384638A1 (en) Computer Systems and Methods for Navigating Building Information Models in an Augmented Environment
US20250131571A1 (en) Image segmentation system
KR20160086090A (ko) 이미지를 디스플레이하는 사용자 단말기 및 이의 이미지 디스플레이 방법
US20220139055A1 (en) Method and system for merging distant spaces
US11822772B2 (en) Displaying visualized testing results
KR20230096839A (ko) 건축 프로젝트의 협업툴 내에서 작성된 메모를 위치 정보를 기반으로 공유하여 제공하는 장치, 방법 및 프로그램
KR20180013277A (ko) 그래픽 객체를 표시하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
KR20230133831A (ko) Bim 설계 데이터 내 설비 라인을 자동으로 설계하는 장치, 방법 및 프로그램
KR102449724B1 (ko) 은닉 카메라 탐지 시스템, 방법 및 이를 수행하기 위한 컴퓨팅 장치
CN107084736A (zh) 一种导航方法及移动终端
CN107924585B (zh) 作业辅助装置、作业辅助方法以及存储介质
KR102701335B1 (ko) Xr 기반으로 시공 정밀도를 향상시키는 확장현실 장치, 방법 및 프로그램
JP7065795B2 (ja) データ作成システム及びデータ作成方法
KR102563138B1 (ko) 건설현장 시공 및 감리용 증강현실 지원 시스템
KR102603303B1 (ko) 확장현실 콘텐츠 제공 장치, 방법 및 자동 또는 자동화 프로그램
US20220164528A1 (en) Techniques for enhancing an electronic document with an interactive workflow
CN115795609B (zh) 建立面向深部岩体工程的元宇宙的方法、装置及介质
KR102613390B1 (ko) 증강현실 제공 방법 및 시스템

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20230118

PA0201 Request for examination

Patent event code: PA02011R01I

Patent event date: 20230118

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240223

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240814

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20240827

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20240827

End annual number: 3

Start annual number: 1

PG1601 Publication of registration