[go: up one dir, main page]

KR101999066B1 - 2차원 화상공간의 음영 처리 방법 및 장치 - Google Patents

2차원 화상공간의 음영 처리 방법 및 장치 Download PDF

Info

Publication number
KR101999066B1
KR101999066B1 KR1020180105349A KR20180105349A KR101999066B1 KR 101999066 B1 KR101999066 B1 KR 101999066B1 KR 1020180105349 A KR1020180105349 A KR 1020180105349A KR 20180105349 A KR20180105349 A KR 20180105349A KR 101999066 B1 KR101999066 B1 KR 101999066B1
Authority
KR
South Korea
Prior art keywords
light source
coordinates
current frame
next frame
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020180105349A
Other languages
English (en)
Inventor
박병우
Original Assignee
박병우
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박병우 filed Critical 박병우
Priority to KR1020180105349A priority Critical patent/KR101999066B1/ko
Application granted granted Critical
Publication of KR101999066B1 publication Critical patent/KR101999066B1/ko
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 개시는 2차원 화상공간의 음영 처리 방법 및 장치에 관한 것이다. 2차원 화상공간의 음영 처리 방법은, 2차원 화상공간에서 배치되는 객체의 위치 정보를 기초로 객체의 윤곽(contour)을 결정하는 단계, 2차원 화상공간에 배치되는 광원의 위치를 결정하는 단계, 객체의 윤곽 상의 좌표들의 각각의 법선 벡터 및 광원의 단위 벡터를 산출하는 단계, 객체의 위치 정보, 광원의 위치 정보 및 산출된 법선 벡터와 광원의 단위 벡터의 사이각에 기초하여 2차원 화상공간 상에 부가되는 음영의 방향 및 영역을 결정하는 단계 및 2차원 화상공간 상에 결정된 방향 및 영역이 반영된 음영을 부가하는 단계를 포함할 수 있다.

Description

2차원 화상공간의 음영 처리 방법 및 장치{SHADOW PROCESSING METHOD AND APPARATUS FOR 2-DIMENSION IMAGE}
본 개시는 2차원 화상공간의 음영 처리 방법 및 장치에 관한 것으로, 보다 상세하게는, 차원 화상공간에 배치되는 객체 및 광원의 위치 정보에 기초하여 2차원 화상공간 상에 음영을 부가하여, 제작자(또는 사용자)의 편의성을 향 상 시킬 수 있는 2차원 화상공간의 음영 처리 방법 및 이를 실행하기 위한 장치에 관한 것이다.
애니메이션은 다른 영상물에 비해 각 나라의 문화적 특성이 뚜렷이 드러나지 않아 해외시장 진출에도 유리하며, 다른 분야에 비해 산업적 연계 효과가 매우 높아 매체간 변형을 통한 고 부가가치 창출이 용이하다. 이러한 애니메이션은, 2차원 공간에서 만드는 2D 애니메이션과 3D 그래픽 기술을 이용하여 3차원 공간에서 입체적인 객체를 만들어내는 3D 애니메이션으로 분류할 수 있다.
2D 애니메이션은, 오랜 제작 역사를 가지고 있으며, 2D 애니메이션만의 매력으로 관객(또는 시청자)에게 꾸준한 사랑을 받고 있다. 현재 2D 애니메이션은 2개의 방법으로 제작되고 있다. 첫 번째는, 프레임 단위로 시퀀스 동작을 직접 손으로 그리는 방법이 있고, 두번째 방법은, 3D 모델로부터 시퀀스 프레임을 추출하여, 추출된 프레임을 이용하여 2D 애니메이션을 제작하는 것이다. 이러한 2D 애니메이션 제작은, 제작해야 할 객체와 작업량이 증가하게 되면 수작업으로 진행하는데 한계가 있기 때문에, 여전히 수많은 시간과 비용을 필요로 한다. 또한, 손으로 애니메이션을 그릴 수 있는 전문 인력을 필요로 하기 때문에 인건비가 많이 들게 된다. 따라서, 이러한 문제점들을 극복하고, 제작자(또는 작업자)들이 좀더 손쉽고 간편한 방법으로 애니메이션을 제작할 수 있는 방법 및/또는 장치를 제공할 필요성이 있다.
본 명세서에 개시되는 실시예들은, 2차원 화상공간에 배치되는 객체 및 광원의 위치 정보에 기초하여 2차원 화상공간 상에 음영을 부가함으로써, 2D 애니메이션 제작자(또는 작업자)의 편의성을 향상시킬 수 있으며, 2D 애니메이션의 제작 비용 및 시간을 절약할 수 있는 2차원 화상공간의 음영 처리 방법 및 장치에 관한 것이다.
본 개시에 따른 2차원 화상공간의 객체와 연관된 음영을 부가하는 화상 처리 방법은, 2차원 화상공간에서 배치되는 객체의 위치 정보를 기초로 객체의 윤곽(contour)을 결정하는 단계, 2차원 화상공간에 배치되는 광원의 위치를 결정하는 단계, 객체의 윤곽 상의 좌표들의 각각의 법선 벡터 및 광원의 단위 벡터를 산출하는 단계, 객체의 위치 정보, 광원의 위치 및 좌표들의 각각의 산출된 법선 벡터와 광원의 단위 벡터의 사이각에 기초하여 2차원 화상공간 상에 부가되는 음영의 방향 및 영역을 결정하는 단계 및 2차원 화상공간 상에 결정된 방향 및 영역이 반영된 음영을 부가하는 단계를 포함할 수 있다.
또한, 2차원 화상공간의 객체와 연관된 음영을 부가하는 화상 처리 장치는, 2차원 화상공간에 존재하는 객체를 촬영하도록 구성된 가상카메라, 2차원 화상공간에 존재하며, 객체에 빛을 조사하도록 구성된 광원, 객체의 위치정보, 광원의 위치를 결정하고, 객체의 윤곽(contour) 상의 좌표들의 각각의 법선 벡터 및 광원의 단위 벡터를 산출하도록 구성된 위치 연산 모듈, 및 객체의 위치 정보, 광원의 위치 정보 및 산출된 법선 벡터와 광원의 단위 벡터의 사이각에 기초하여 2차원 화상공간 상에 부가되는 음영의 방향 및 영역을 결정하고, 2차원 화상공간 상에 결정된 방향 및 영역이 반영된 음영을 부가하도록 구성된 음영 부가 모듈을 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 2차원 화상공간에 배치되는 객체 및 광원의 위치 정보에 기초하여 2차원 화상공간 상에 음영을 부가함으로써, 제작자(또는 작업자)가 보다 편리하게 2D 애니메이션을 제작할 수 있다. 따라서, 제작자(또는 작업자)의 편의성을 향상시킬 수 있으며, 제작 비용 및 시간을 절약할 수 있다.
본 개시의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 개시의 실시예들은, 이하 설명하는 첨부 도면들을 참조하여 설명될 것이며, 여기서 유사한 참조 번호는 유사한 요소들을 나타내지만, 이에 한정되지는 않는다.
도 1은 본 개시의 일 실시예에 따른 2차원 화상공간을 나타내는 개략도이다.
도 2는 본 개시의 일 실시예에 따른 2차원 화상공간의 음영 처리 장치의 블록도이다.
도 3은 본 개시의 일 실시예에 따른 2차원 화상공간의 음영 처리 방법을 나타내는 순서도이다.
도 4은 본 개시의 다른 실시예에 따른 2차원 화상공간의 음영 처리 방법을 나타내는 순서도이다.
도 5는 본 개시의 일 실시예에 따른 2차원 화상공간의 음영 처리 방법을 나타내는 예시도이다.
도 6a 및 6b는 본 개시의 다른 실시예에 따른 2차원 화상공간의 음영 처리 방법을 나타내는 예시도이다.
이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.
첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.
본 개시의 실시예들을 상술하기에 앞서, 모듈은 본 개시의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 또한, 이하에서 설명할 객체는 광원을 포함할 수 있으나, 설명의 편의를 위하여 따로 지칭하기로 한다.
본 개시의 다양한 실시예들에 따른 화상 처리 장치는 2차원 화상공간을 생성하고, 생성한 화상공간에 배치된 객체의 위치정보 및 광원의 위치정보에 기초하여 객체와 연관된 음영을 부가할 수 있다. 구체적으로, 화상 처리 장치는 화상 생성 모듈에 의해 객체를 가상의 2차원 공간에 투영할 수 있으며, 이를 기초로 2차원 화상공간을 생성할 수 있다.
이하, 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다. 도 1은 본 개시의 일 실시예에 따른 2차원 화상공간(100)을 나타내는 개략도이다. 도 1에 도시된 바와 같이, 화상 처리 장치에 의해 생성된 2차원 화상공간(100)은, 가상카메라(110), 객체(120) 및 광원(130)을 포함할 수 있다. 여기서, 객체(120)는 2차원 일러스트 등으로 제작된 컴퓨터 그래픽 객체, 실물을 촬영한 실사 객체일 수 있으나, 이에 한정되지 않으며, 책상, 가방 등 사물 또는 배경일수 도 있다. 가상카메라(110)는, 관객(또는 시청자)이 2D 애니메이션을 시청할 때 바라보는 시점이 될 수 있도록 배치될 수 있으며, 2차원 화상공간(100)에 존재하는 객체(120)를 촬영할 수 있다. 광원(130) 또한, 2차원 화상공간(100)에 존재하여 객체(120)에 빛을 조사할 수 있다. 여기서, 광원(130)은 2차원 화상공간(100) 내의 태양이나 조명기구 등이 될 수 있다.
도 2는 본 개시의 일 실시예에 따른 2차원 화상공간의 음영 처리 장치(200)의 블록도이다. 도 2에 도시된 바와 같이, 화상 처리 장치(200)는, 화상 생성 모듈(212), 위치 연산 모듈(214) 및 음영 부가 모듈(216)을 포함할 수 있다. 화상 생성 모듈(212)은, 복수개의 객체들(예를 들어, 캐릭터, 배경, 광원 등) 중 적어도 하나 이상을 선택하여 가상의 2차원 평면에 투영할 수 있다. 또한, 서버(210)의 제어 신호를 입력 받아 객체가 배치될 위치 및/또는 영역을 지정하여 객체를 배치하고, 객체의 윤곽 및/또는 형상을 결정할 수 있다. 이를 기초로 2차원 화상공간을 생성할 수 있다.
예를 들어, 배경 객체를 가상의 2차원 평면에 투영하고, 투영된 배경 객체를 다수의 블록으로 분할할 수 있다. 복수의 2D 가상 캐릭터 객체들 중 적어도 하나 이상을 선택하여 캐릭터 객체가 배치될 배경 영역을 지정할 수 있다. 지정된 영역에서 캐릭터의 윤곽을 결정하고, 이를 토대로 2차원 화상공간인 2차원 애니메이션을 생성할 수 있다. 이상에서 상술한 바와 같이 다양한 형태로 2차원 화상을 생성 및/또는 구현할 수 있다.
위치 연산 모듈(214)은, 객체의 위치정보 및 광원의 위치 정보를 연산하여 읽어 올 수 있고, 객체의 윤곽(contour) 상의 좌표들의 각각의 법선 벡터 및 광원의 단위 벡터를 산출할 수 있다. 일 실시예에 따르면, 위치 연산 모듈(214)은, 객체 및 광원의 위치 정보를 연산하여 읽어 올 수 있고, 읽어온 위치 정보를 2차원 좌표계를 이용하여 광원 및 각 객체 내의 대표 좌표들의 각각의 값은 (x, y)로 표시할 수 있다.
또한, 대표 좌표들의 각각에 기초하여 객체의 윤곽 상의 좌표들 각각의 법선 벡터 및 광원의 단위 벡터가 산출될 수 있다. 여기서, 대표 좌표는 예를 들어, 각 객체의 윤곽 상의 좌표들 중 하나 이상의 좌표 값, 광원 및 각 객체의 중심점의 좌표 값 등이 될 수 있다. 일 실시예에 따르면, 객체의 윤곽 상의 좌표들 각각의 법선 벡터는, 예를 들어, 윤곽 상의 좌표들 중 임의의 세 점을 연결한 직선(예를 들어, 임의의 세 점들 중 가운데 점의 접선)에 수직이 되는 다수의 선들 중 임의의 세 점들 중 가운데 위치하는 점을 지나는 수직선이 가운데 점(좌표)의 벡터가 될 수 있다.
또한, 위치 연산 모듈(214)은, 읽어온 객체의 윤곽 상의 각각의 좌표들 및 광원의 위치 정보(예를 들어, 중심점의 좌표 값)를 이용하여, 광원과 객체의 윤곽 상의 좌표들 사이의 거리를 판단할 수 있다. 일 실시예에 따르면, 객체의 윤곽 상의 각각의 좌표들과 광원의 좌표 간의 거리 값이 작을수록 광원과 가까운 위치에 있다고 판단하고, 객체의 윤곽 상의 각각의 좌표들과 광원의 좌표 간의 거리 값이 클수록 광원과 먼 위치에 있다고 판단될 수 있다. 여기서, 거리 값이 작다, 크다는 것의 의미는 객체의 윤곽 상의 각각의 좌표들과 광원 간의 거리 값들의 상대적인 비교를 지칭할 수 있다.
음영 부가 모듈(216)은, 객체의 위치 정보, 광원의 위치 정보 및 산출된 법선 벡터와 광원의 단위 벡터의 사이각에 기초하여 2차원 화상공간 상에 부가되는 음영의 방향 및 영역을 결정하고, 2차원 화상공간 상에 결정된 방향 및 영역이 반영된 음영을 부가할 수 있다. 또한, 일부 실시예에 따르면, 각 객체의 윤곽 상의 좌표들 각각의 법선 벡터와 광원의 단위 벡터의 사이각에 비례하여 음영 영역 및 음영 방향을 결정할 수 있다.
예를 들어, 광원의 위치 정보(예를 들어, 광원의 중심점 좌표)가 (3, 10)이며, 객체의 윤곽 상의 좌표(2, 3)에서의 법선 벡터와 광원의 단위 벡터의 사이각이 60°, 객체의 윤곽 상의 다른 좌표(2, 8)에서의 법선 벡터와 광원의 단위 벡터의 사이각이 30°이라고 가정해보자. 이 경우, (2, 3)에서의 법선 벡터와 광원의 단위 벡터의 사이각이 (2, 8)에 비해 상대적으로 큰 값을 가진다.
따라서, 음영 부가 모듈(216)은, (2, 3)에서의 음영 영역을 (2, 8)에 비해 더 크게 결정할 수 있다. 여기서, 음영 영역은, 객체의 윤곽 상의 좌표들에 대응하는 음영 좌표들이 모여 하나의 면으로 형성될 수 있다. 음영 영역을 결정한 후, 음영의 방향을 결정할 수 있다. 예를 들어, 음영의 방향은 객체의 윤곽 상의 좌표들 중 어느 하나의 좌표를 지나는 직선을 기준으로 광원과 반대되는 면 또는 방향에 부가될 수 있다.
일 실시예에 따르면, 음영의 영역 및 방향이 결정되고 나면, 음영 부가 모듈(216)은, 결정된 음영을 분할하고, 객체의 위치 정보 및 광원의 위치에 기초하여, 분할된 음영 영역의 각각에 적용될 음영의 명도를 결정하도록 구성될 수 있다. 예를 들어, 분할된 음영 영역들과 객체의 대표 좌표들의 값(예를 들어, 객체의 중심점의 좌표 값) 사이의 거리 값에 비례하여 명도를 증가시킬 수 있다.
일 실시예에서, 음영 부가 모듈(216)은, 객체의 윤곽 상의 좌표들과 광원의 좌표 사이의 거리 값에 비례하여 음영의 명도를 조절할 수 있다. 예를 들어, 위치 연산 모듈(214)에 의해 연산 된 객체의 윤곽 상의 좌표들과 광원의 좌표사이의 거리 값이 작아 광원과 가까운 위치에 있다고 판단되는 경우, 음영의 명도를 감소시켜(명도를 낮추어) 음영을 부가하고, 광원과 먼 위치에 있다고 판단되는 경우, 음영의 명도를 증가시켜(명도를 높여) 음영을 부가할 수 있다. 여기서, 명도는 광원의 종류(예를 들어, 태양, 조명 등)에 따라 미리 설정된 광원의 세기 값에 의해 달라 질 수 있다.
다른 실시예에 따르면, 위치 연산 모듈(214)은, 현재 프레임 및 다음 프레임에 포함된 광원, 객체 및 음영의 위치 및/또는 좌표와 관련된 정보를 연산하여 획득할 수 있다. 현재 프레임에 포함된 광원의 위치(예를 들어, 광원의 중심점의 좌표 값) 및 객체의 윤곽의 좌표들의 각각과 다음 프레임에 포함된 광원의 위치(예를 들어, 광원의 중심점의 좌표 값) 및 객체의 윤곽의 좌표들의 각각을 획득하고, 현재 프레임의 객체에 부가된 음영에 대한 좌표들을 획득할 수 있다. 여기서, 프레임은 객체 및 광원을 포함할 수 있다.
예를 들어, 현재 프레임 및 다음 프레임에 포함된 광원의 위치(예를 들어, 광원의 중심점의 좌표 값) 및 객체의 위치 정보(예를 들어, 객체의 중심점의 좌표 값)와 객체의 윤곽의 좌표들 각각을 연산하여 획득할 수 있고, 2차원 좌표계를 이용하여 나타낼 수 있다. 또한, 위치 연산 모듈(214)은, 현재 프레임의 객체에 부가된 음영의 위치 정보(예를 들어, 음영 영역의 중심점의 좌표 값) 및 음영 영역의 윤곽 상의 좌표정보를 연산하여 획득할 수 있다.
음영 부가 모듈(216)은, 위치 연산 모듈(214)에 의해 획득된 현재 프레임 및 다음 프레임의 광원과 객체의 위치 및/또는 좌표와 관련된 정보를 비교하여 다음 프레임에 부가할 음영의 방향 및 영역을 결정할 수 있다. 예를 들어, 위치 연산 모듈(214)에 의해 획득된 현재 프레임에 포함된 광원의 위치 및 객체의 윤곽의 좌표들 각각과 다음 프레임에 포함된 광원의 위치 및 객체의 윤곽의 좌표들 각각을 비교하고, 비교 결과에 기초하여, 다음 프레임의 객체에 부가되는 음영의 방향 및 영역을 부가할 수 있다.
일 실시예에서, 음영 부가 모듈(216)은, 현재 프레임에 포함된 광원의 위치 정보(예를 들어, 광원의 중심점의 좌표 값)와 다음 프레임에 포함된 광원의 위치 정보(예를 들어, 광원의 중심점의 좌표 값)를 비교하여 광원의 위치 정보의 변화를 판단할 수 있다. 현재 프레임 및 다음 프레임의 광원의 위치 정보의 변화가 없다고 판단되면, 현재 프레임 및 다음 프레임에 포함된 각각의 객체의 위치 정보 변화에 기초하여 다음 프레임의 객체에 대한 음영을 부가할 수 있다. 현재 프레임 및 다음 프레임에 포함된 객체 각각의 위치 정보를 비교한 결과, 위치 정보(좌표 값)의 변화한 경우, 객체의 위치 정보의 변화 정보에 기초하여 다음 프레임에 포함된 객체의 음영의 방향 및 명도 및 영역을 결정하여 부가할 수 있다.
다른 실시예에서, 음영 부가 모듈(216)이 현재 프레임 및 다음 프레임의 광원의 위치 정보의 변화가 있다고 판단하면, 이상에서 설명한 바와 같이, 객체의 윤곽 상의 좌표들과 광원의 좌표 사이의 거리 값에 비례하여 음영의 명도를 조절할 수 있다. 예를 들어, 위치 연산 모듈(214)에 의해 연산 된 객체의 윤곽 상의 좌표들과 광원의 좌표사이의 거리 값이 작아 광원과 가까운 위치에 있다고 판단되는 경우, 음영의 명도를 증가시켜 음영을 부가하고, 광원과 먼 위치에 있다고 판단되는 경우, 음영의 명도를 감소시켜 음영을 부가할 수 있다. 음영 영역 및 음영 방향 또한, 위치 연산 모듈(214)에 의해, 다음 프레임에 포함된 객체의 위치 정보, 광원의 위치 정보 및 산출된 법선 벡터와 광원의 단위 벡터를 산출하고, 법선 벡터와 단위 벡터의 사이각에 기초하여 음영 영역 및 음영 방향을 결정하여 다음 프레임에 음영을 부가할 수 있다.
본 개시의 실시예에 따르면, 음영의 방향, 영역 및 명도는 객체의 위치정보, 광원의 위치정보에 기초하기 때문에, 객체나 광원의 위치 또는 방향이 변화하게 되면, 이에 대응하여 변화할 수 있다. 또한, 광원의 종류(예를 들어, 태양, 조명 등)에 따라 미리 설정된 광원의 세기 값에 기초하여 음영의 명도가 변화할 수 있다.
도 3은 본 개시의 일 실시예에 따른 2차원 화상공간의 음영 처리 방법(300)을 나타내는 순서도이다. 2차원 화상공간의 음영처리 방법(300)은, 2차원 화상공간에서 배치되는 객체의 위치 정보를 기초로 객체의 윤곽(contour)을 결정하는 단계(S310)로 개시될 수 있다. 예를 들어, 화상 생성 모듈(212)은, 배경 객체를 가상의 2차원 평면에 투영하고, 투영된 된 배경 객체에 배치할 객체의 위치 및/또는 영역을 지정하여 배치할 수 있다. 배치되는 객체의 위치 정보를 기초로 객체의 윤곽을 결정할 수 있고, 이러한 객체들을 포함하는 2차원 화상 공간을 생성할 수 있다. 그리고 나서, 2차원 화상공간에 배치되는 광원의 위치를 결정할 수 있다(S320). 광원 또한, 화상 생성 모듈(212)에 의해 2차원 화상공간에 배치될 수 있다. 화생 생성 모듈(212)은, 다수의 분할된 배경 객체의 블록 중 광원을 배치할 어느 한 영역을 지정하여 광원을 2차원 평면에 투영할 수 있다.
2차원 화상공간에 객체 및 광원을 배치한 후, 위치 연산 모듈(214)은, 객체의 윤곽 상의 좌표들의 각각의 법선 벡터 및 광원의 단위 벡터를 산출할 수 있다(S330). 예를 들어, 위치 연산 모듈(214)은, 2차원 화상공간에 포함된 객체 및 광원의 위치 정보를 연산하여 읽어 올 수 있고, 읽어온 각각의 좌표 값에 기초하여 객체의 윤곽 상의 좌표들 각각의 법선 벡터 및 광원의 단위 벡터를 산출할 수 있다. 산출한 객체의 윤곽 상의 좌표들의 각각의 법선 벡터와 광원의 좌표의 단위 벡터가 이루는 각이 작을수록 광원과 가까운 위치에 있다고 판단할 수 있고, 객체의 윤곽 상의 좌표들의 각각의 법선 벡터와 광원의 좌표의 단위 벡터의 사이각이 클수록 광원과 먼 위치에 있다고 판단할 수 있다.
일 실시예에 따르면, 산출한 객체의 윤곽 상의 각각의 좌표들과 광원의 좌표 간의 거리 값이 작을수록 광원과 가까운 위치에 있다고 판단하고, 객체의 윤곽 상의 각각의 좌표들과 광원의 좌표 간의 거리 값이 클수록 광원과 먼 위치에 있다고 판단할 수 있다.
그 후, 음영 부가 모듈(214)은, 판단된 거리 값의 크기에 따라 음영의 명도를 결정할 수 있고, 객체의 위치 정보, 광원의 위치 정보 및 산출된 법선 벡터와 광원의 단위 벡터의 사이각에 기초하여 2차원 화상공간 상에 부가되는 음영의 방향 및 영역을 결정할 수 있다(S340). 예를 들어, 각 객체의 윤곽 상의 좌표들 각각의 법선 벡터와 광원의 단위 벡터의 사이각에 비례하여 음영 영역을 결정할 수 있다. 예를 들어, 광원의 단위 벡터와 객체의 윤곽 상의 좌표의 법선 벡터가 이루는 각이 큰 경우, 사이각이 작은 경우보다 음영 영역을 더 크게 결정할 수 있다. 또한, 음영 부가 모듈(214)은, 음영의 방향을 결정할 수 있다. 예를 들어, 방향은 객체의 윤곽 상의 좌표들 중 어느 하나의 좌표를 지나는 직선을 기준으로 광원과 반대되는 면 또는 방향에 부가될 수 있다.
음영 영역 및 음영 방향을 결정하고 나면, 음영 부가 모듈(216)은, 2차원 화상공간에 결정된 방향 및 영역이 반영된 음영을 부가할 수 있다(S350). 일 실시예에 따르면, 음영 부가 모듈(216)은 객체의 위치 정보 및 광원의 위치에 기초하여, 결정된 음영 영역을 분할하고 객체의 위치 정보 및 광원의 위치에 기초하여 분할된 음영 영역의 각각에 적용될 음영의 명도 단계적으로 명도를 단계적으로 조절하여 2차원 화상공간 상의 음영을 부가할 수 있다.
도 4은 본 개시의 다른 실시예에 따른 2차원 화상공간의 음영 처리 방법(400)을 나타내는 순서도이다. 2차원 화상공간의 음영 처리 방법(400)은, 2차원 화상공간에서 배치되는 객체의 위치 정보를 기초로 객체의 윤곽(contour)을 결정하는 단계(S410)로 개시될 수 있다. 도 3에서 설명한 바와 같이, 화상 생성 모듈(212)은 가상의 2차원 화상공간에 객체를 배치할 위치 및/또는 영역을 결정하고, 이를 기초로 객체의 윤곽을 결정하여 이를 포함하는 2차원 화상공간을 생성할 수 있다. 광원 또한, 배치될 위치 및/또는 영역을 결정하여 2차원 화상공간에 배치할 수 있다(S420).
그리고 나서, 위치 연산 모듈(214)에 의해 현재 프레임에 포함된 객체의 윤곽의 좌표들의 각각과 다음 프레임에 포함된 객체의 윤곽의 좌표들의 각각을 획득할 수 있다(S430). 현재 프레임의 객체에 부가된 음영의 위치 정보 및 음영 영역의 윤곽 상의 좌표 정보 또한, 연산하여 획득할 수 있다(S440). 여기서, 프레임은 객체를 포함할 수 있다.
그 후, 단계에서는 현재 프레임에 포함된 광원의 위치 및 객체의 윤곽의 좌표들의 각각과 다음 프레임에 포함된 광원의 위치 및 객체의 윤곽의 좌표들의 각각을 비교할 수 있고((S450), 비교 결과에 기초하여, 다음 프레임의 객체에 부가되는 음영의 방향 및 영역을 결정하여 부가할 수 있다(S460). 예를 들어, 음영 부가 모듈(216)에 의해, 현재 프레임 및 다음 프레임의 광원의 위치 정보(예를 들어, 광원의 중심점의 좌표 값)를 비교한 결과, 변화가 없다고 판단되면, 현재 프레임 및 다음 프레임에 포함된 각각의 객체의 위치 정보 변화에 기초하여 다음 프레임의 객체에 대한 음영을 부가할 수 있다. 음영 부가 모듈(216)이 현재 프레임 및 다음 프레임의 광원의 위치 정보의 변화가 있다고 판단하면, 위치 연산 모듈(214)에 의해, 다음 프레임에 포함된 객체의 위치 정보, 광원의 위치 정보 및 산출된 법선 벡터와 광원의 단위 벡터를 산출하고, 법선 벡터와 단위 벡터의 사이각에 기초하여 음영 영역 및 음영 방향을 결정하여 다음 프레임에 음영을 부가할 수 있다.
도 5는 본 개시의 일 실시예에 따른 2차원 화상공간의 음영 처리 방법을 나타내는 예시도(500)이고, 도 6a 및 도 6b는 본 개시의 다른 실시예에 따른 2차원 화상공간의 음영 처리 방법을 나타내는 예시도이다. 도 5, 도 6a 및 도 6b에 도시된 바와 같이, 화상 처리 장치에 의해 생성된 2차원 화상공간(500, 600)은, 가상카메라(110), 객체(120) 및 광원(130)을 포함할 수 있다. 2차원 화상공간(500, 600)에 포함되는 기능 또는 구성요소들 중에서, 앞서 상술한 도 1에서 설명된 것과 동일한 부재번호 또는 명칭을 갖는 구성요소들에 대해서는, 반복을 피하기 위해 상세한 설명을 생략할 수 있으며, 변경 또는 추가적인 부분만 설명할 수 있다.
도 5는, 객체(120)의 위치 정보, 광원(130)의 위치 정보 및 각 객체(120)의 윤곽 상의 좌표들 각각의 법선 벡터와 광원(130)의 단위 벡터의 사이각에 기초하여 음영의 방향 및 영역을 결정하는 예시를 나타낸 도면이다. A 좌표의 법선 벡터와 단위 벡터의 사이 각(θ1)과 B 좌표의 법선 벡터와 단위 벡터의 사이 각(θ2)을 비교해보면, θ2가 θ1에 비해 각도가 더 크다.
따라서, 도 5에 도시된 바와 같이, B 좌표에 대응하는 음영 영역(사선)이 A 좌표에 대응하는 음영 영역(사선)에 비해 더 크게 결정되어 음영이 부가되었다. 또한, 음영은 광원(130)과 반대되는 면 또는 방향을 가질 수 있다. 여기서, 음영 영역은, 객체(120)의 윤곽 상의 좌표들에 대응하는 음영 좌표들이 모여 하나의 면으로 형성될 수 있다.
음영의 영역 및 방향이 결정되고 나면, 결정된 음영 영역을 분할하고, 객체의 위치 정보 및 광원의 위치에 기초하여, 분할된 음영 영역의 각각에 적용될 음영의 명도를 결정할 수 있다. 일 실시예에 따르면, 음영 영역과 객체의 대표 좌표들의 값(예를 들어, 객체의 중심점의 좌표 값) 사이의 거리 값에 반비례하여 명도를 증가시킬 수 있다. 예를 들어, 도 5에서 분할된 음영 영역 C의 중심점과 객체 사이의 거리 값이 음영 영역 D의 중심점과 객체 사이의 거리 값에 비해 작다. 따라서 음영 영역 C가 D보다 음영의 명도가 더 진하게 도시되어 있다.
도 6a 및 도 6b는, 위치 연산 모듈에 의해 획득된 현재 프레임(도 6a) 및 다음 프레임(도 6b)의 광원(130)과 객체(120)의 위치 및/또는 좌표와 관련된 정보를 비교하여 다음 프레임(도 6b)에 부가할 음영의 방향 및 영역을 결정하는 예시를 나타낸 도면이다. 도 6a는 현재 프레임, 도 6b는 다음 프레임을 나타낸다.
일부 실시예에 따르면, 도 6a 및 도 6b는 현재 프레임(도 6a)에 포함된 광원(130)의 위치 정보와 다음 프레임(도 6b)에 포함된 광원(130)의 위치 정보가 변화하지 않은 경우를 도시하였다. 이 경우, 음영 부가 모듈은 현재 프레임(도 6a) 및 다음 프레임(도 6b)에 포함된 각각의 객체(120)의 위치 정보 변화에 기초하여 다음 프레임(도 6b)의 객체(120)에 대한 음영을 부가할 수 있다.
예를 들어, 음영 부가 모듈은 도 6a 및 도 6b의 객체(120)의 중심점의 좌표 값을 비교할 수 있고, 비교 결과에 기초하여, 도 6b의 객체(120)의 중심점이 양의 x축 방향으로 α만큼 이동하여 광원(130)의 중심점과 객체(120)의 중심점의 거리가 작아졌다고 판단할 수 있다. 음영 부가 모듈은, 다음 프레임(도 6b)의 음영 영역의 중심점 좌표 값을 객체(120)의 중심점이 이동한 거리 값에 기초하여 이동시킬 수 있다.
예를 들어, 음영 영역의 중심점을 양의 x축 방향으로 α만큼 이동시킬 수 있다. A와 B는 현재 프레임(도 6a) 및 다음 프레임(도 6b)에 포함된 객체의 중심점과 광원의 중심점 사이의 거리 값을 각각 나타낸 것이다. 음영의 영역 및 명도는 객체(120)와 광원(130)의 중심점 사이의 거리 값에 비례하여 부가될 수 있다. 현재 프레임(도 6a)의 거리 값인 A에 비해 다음 프레임(도 6b)의 거리 값인 B의 길이가 짧아졌기 때문에 이에 비례하여 다음 프레임(도 6b)의 음영 영역을 좁히고, 명도를 낮추어 음영을 부가할 수 있다. 도 5, 도 6a 및 도 6b에서는 음영 영역의 형상을 타원으로 부가하였으나, 이에 반드시 한정되지 않으며, 다양한 형태의 형상을 가질 수 있다.
본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.
110: 가상카메라
120: 객체
130: 광원
210: 서버
212: 화상 생성 모듈
214: 위치 연산 모듈
216: 음영 부가 모듈

Claims (9)

  1. 2차원 화상공간의 객체와 연관된 음영을 부가하는 화상 처리 방법에 있어서,
    상기 2차원 화상공간에서 배치되는 상기 객체의 위치 정보를 기초로 상기 객체의 윤곽(contour)을 결정하는 단계;
    상기 2차원 화상공간에 배치되는 광원의 위치를 결정하는 단계;
    상기 객체의 윤곽 상의 좌표들의 각각의 법선 벡터 및 상기 광원의 단위 벡터를 산출하는 단계;
    상기 객체의 위치 정보, 상기 광원의 위치 및 상기 좌표들의 각각의 산출된 법선 벡터와 상기 광원의 단위 벡터의 사이각에 기초하여 상기 2차원 화상공간 상에 부가될 음영의 방향 및 영역을 결정하는 단계; 및
    상기 2차원 화상공간 상에 상기 결정된 방향 및 영역이 반영된 음영을 부가하는 단계를 포함하고,
    복수의 프레임은 상기 객체 및 상기 광원을 포함할 수 있고,
    상기 각각의 법선 벡터 및 상기 광원의 단위 벡터를 산출하는 단계는,
    상기 복수의 프레임 중 현재 프레임에 포함된 상기 광원의 위치 좌표들 및 상기 객체의 윤곽의 좌표들의 각각과 상기 복수의 프레임 중 다음 프레임에 포함된 상기 광원의 위치 좌표들 및 상기 객체의 윤곽의 좌표들의 각각을 획득하는 단계; 및
    상기 현재 프레임의 객체에 부가된 상기 음영에 대한 좌표들을 획득하는 단계를 포함하고,
    상기 음영의 방향 및 영역을 결정하는 단계는,
    상기 현재 프레임에 포함된 상기 획득된 광원의 위치 좌표들 및 상기 획득된 객체의 윤곽의 좌표들의 각각과 상기 다음 프레임에 포함된 상기 광원의 위치 좌표들 및 상기 객체의 윤곽의 좌표들의 각각을 비교하는 단계;
    상기 현재 프레임 및 상기 다음 프레임의 각각에서의 상기 광원의 위치 좌표들 및 상기 객체의 윤곽의 좌표들에 기초하여 상기 현재 프레임 및 상기 다음 프레임의 각각에서의 상기 광원의 중심점 좌표 및 상기 객체의 중심점 좌표를 산출하는 단계;
    상기 현재 프레임에 포함된 상기 광원의 중심점 좌표 및 상기 객체의 중심점 좌표의 각각과 상기 다음 프레임에 포함된 상기 광원의 중심점 좌표 및 상기 객체의 윤곽의 좌표의 각각을 비교하는 단계;
    상기 현재 프레임 및 상기 다음 프레임에 포함된 상기 광원의 중심점 좌표들 사이의 비교 결과와 상기 현재 프레임 및 상기 다음 프레임에 포함된 상기 광원의 위치 좌표들 사이의 비교 결과가 변화가 없다고 판정된 경우, 상기 현재 프레임 및 상기 다음 프레임에 포함된 각각의 객체의 위치 정보 변화에 기초하여 상기 음영의 방향 및 음영의 영역을 결정하는 단계; 및
    상기 현재 프레임 및 상기 다음 프레임에 포함된 상기 광원의 중심점 좌표들 사이의 비교 결과와 상기 현재 프레임 및 상기 다음 프레임에 포함된 상기 광원의 위치 좌표들 사이의 비교 결과가 변화가 있다고 판정된 경우, 상기 현재 프레임에 포함된 상기 광원 및 상기 객체의 중심점 좌표들의 각각 및 상기 다음 프레임에 포함된 상기 광원 및 상기 객체의 중심점 좌표들의 각각 사이의 비교 결과와 상기 현재 프레임에 포함된 상기 광원의 위치 좌표들 및 상기 객체의 윤곽의 좌표들의 각각 및 상기 다음 프레임에 포함된 상기 광원의 위치 좌표들 및 상기 객체의 윤곽의 좌표들의 각각 사이의 비교 결과 및 상기 현재 프레임의 객체에 부가된 상기 음영에 대한 좌표들에 기초하여, 상기 다음 프레임의 객체에 부가되는 상기 음영의 방향 및 영역을 결정하는 단계를 포함하는,
    화상 처리 방법.
  2. 제1항에 있어서,
    상기 객체의 윤곽 상의 각각의 좌표들과 상기 광원의 좌표 간의 거리 값이 작을수록 상기 광원과 가까운 위치에 있다고 판단하는 단계; 및,
    상기 객체의 윤곽 상의 각각의 좌표들과 상기 광원의 좌표 간의 거리 값이 클수록 상기 광원과 먼 위치에 있다고 판단하는 단계를 포함하는 화상 처리 방법.
  3. 제2항에 있어서,
    상기 음영을 부가하는 단계는,
    상기 결정된 음영 영역을 분할하는 단계; 및
    상기 객체의 위치 정보 및 상기 광원의 위치에 기초하여, 상기 분할된 음영 영역의 각각에 적용될 음영의 명도를 결정하는 단계
    를 포함하는, 화상 처리 방법.
  4. 삭제
  5. 2차원 화상공간의 객체와 연관된 음영을 부가하는 화상 처리 장치에 있어서,
    2차원 화상공간에 존재하는 객체를 촬영하도록 구성된 가상카메라;
    상기 2차원 화상공간에 존재하며, 상기 객체에 빛을 조사하도록 구성된 광원;
    상기 객체의 위치정보 및 상기 광원의 위치를 결정하고, 상기 객체의 윤곽(contour) 상의 좌표들의 각각의 법선 벡터 및 상기 광원의 단위 벡터를 산출하도록 구성된 위치 연산 모듈; 및
    상기 객체의 위치 정보, 상기 광원의 위치 정보 및 상기 산출된 법선 벡터와 상기 광원의 단위 벡터의 사이각에 기초하여 상기 2차원 화상공간 상에 부가되는 음영의 방향 및 영역을 결정하고, 상기 2차원 화상공간 상에 상기 결정된 방향 및 영역이 반영된 음영을 부가하도록 구성된 음영 부가 모듈을 포함하고,
    복수의 프레임은 상기 객체 및 상기 광원을 포함할 수 있고,
    상기 위치 연산 모듈은,
    상기 복수의 프레임 중 현재 프레임에 포함된 상기 광원의 위치 좌표들 및 상기 객체의 윤곽의 좌표들의 각각과 상기 복수의 프레임 중 다음 프레임에 포함된 상기 광원의 위치 좌표들 및 상기 객체의 윤곽의 좌표들의 각각을 획득하고,
    상기 현재 프레임의 객체에 부가된 상기 음영에 대한 좌표들을 획득하고,
    상기 음영 부가 모듈은,
    상기 현재 프레임에 포함된 상기 획득된 광원의 위치 좌표들 및 상기 획득된 객체의 윤곽의 좌표들의 각각과 상기 다음 프레임에 포함된 상기 광원의 위치 좌표들 및 상기 객체의 윤곽의 좌표들의 각각을 비교하고,
    상기 현재 프레임 및 상기 다음 프레임의 각각에서의 상기 광원의 위치 좌표들 및 상기 객체의 윤곽의 좌표들에 기초하여 상기 현재 프레임 및 상기 다음 프레임의 각각에서의 상기 광원의 중심점 좌표 및 상기 객체의 중심점 좌표를 산출하고,
    상기 현재 프레임에 포함된 상기 광원의 중심점 좌표 및 상기 객체의 중심점 좌표의 각각과 상기 다음 프레임에 포함된 상기 광원의 중심점 좌표 및 상기 객체의 윤곽의 좌표의 각각을 비교하고,
    상기 현재 프레임 및 상기 다음 프레임에 포함된 상기 광원의 중심점 좌표들 사이의 비교 결과와 상기 현재 프레임 및 상기 다음 프레임에 포함된 상기 광원의 위치 좌표들 사이의 비교 결과가 변화가 없다고 판정된 경우, 상기 현재 프레임 및 상기 다음 프레임에 포함된 각각의 객체의 위치 정보 변화에 기초하여 상기 음영의 방향 및 음영의 영역을 결정하고,
    상기 현재 프레임 및 상기 다음 프레임에 포함된 상기 광원의 중심점 좌표들 사이의 비교 결과와 상기 현재 프레임 및 상기 다음 프레임에 포함된 상기 광원의 위치 좌표들 사이의 비교 결과가 변화가 있다고 판정된 경우, 상기 현재 프레임에 포함된 상기 광원 및 상기 객체의 중심점 좌표들의 각각 및 상기 다음 프레임에 포함된 상기 광원 및 상기 객체의 중심점 좌표들의 각각 사이의 비교 결과와 상기 현재 프레임에 포함된 상기 광원의 위치 좌표들 및 상기 객체의 윤곽의 좌표들의 각각 및 상기 다음 프레임에 포함된 상기 광원의 위치 좌표들 및 상기 객체의 윤곽의 좌표들의 각각 사이의 비교 결과 및 상기 현재 프레임의 객체에 부가된 상기 음영에 대한 좌표들에 기초하여, 상기 다음 프레임의 객체에 부가되는 상기 음영의 방향 및 영역을 결정하는,
    화상 처리 장치.
  6. 제5항에 있어서,
    상기 위치 연산 모듈은,
    상기 객체의 윤곽 상의 각각의 좌표들과 상기 광원의 좌표 간의 거리 값이 작을수록 상기 광원과 가까운 위치에 있다고 판단하고,
    상기 객체의 윤곽 상의 각각의 좌표들과 상기 광원의 좌표 간의 거리 값이 클수록 상기 광원과 먼 위치에 있다고 판단하도록 구성된, 화상 처리 장치.
  7. 제6항에 있어서,
    상기 음영 부가 모듈은,
    상기 결정된 음영 영역을 분할하고, 상기 객체의 위치 정보 및 상기 광원의 위치에 기초하여, 상기 분할된 음영 영역의 각각에 적용될 음영의 명도를 결정하도록 구성된, 화상 처리 장치.
  8. 삭제
  9. 삭제
KR1020180105349A 2018-09-04 2018-09-04 2차원 화상공간의 음영 처리 방법 및 장치 Expired - Fee Related KR101999066B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180105349A KR101999066B1 (ko) 2018-09-04 2018-09-04 2차원 화상공간의 음영 처리 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180105349A KR101999066B1 (ko) 2018-09-04 2018-09-04 2차원 화상공간의 음영 처리 방법 및 장치

Publications (1)

Publication Number Publication Date
KR101999066B1 true KR101999066B1 (ko) 2019-07-10

Family

ID=67254782

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180105349A Expired - Fee Related KR101999066B1 (ko) 2018-09-04 2018-09-04 2차원 화상공간의 음영 처리 방법 및 장치

Country Status (1)

Country Link
KR (1) KR101999066B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980702599A (ko) * 1995-02-28 1998-08-05 카나이 쯔또무 데이터처리장치 및 섀이딩장치
US20090002363A1 (en) * 2007-06-29 2009-01-01 Microsoft Corporation Imparting Three-Dimensional Characteristics in a Two-Dimensional Space
KR20170033758A (ko) * 2015-09-17 2017-03-27 삼성전자주식회사 이미지의 밝기를 조절하는 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980702599A (ko) * 1995-02-28 1998-08-05 카나이 쯔또무 데이터처리장치 및 섀이딩장치
US20090002363A1 (en) * 2007-06-29 2009-01-01 Microsoft Corporation Imparting Three-Dimensional Characteristics in a Two-Dimensional Space
KR20170033758A (ko) * 2015-09-17 2017-03-27 삼성전자주식회사 이미지의 밝기를 조절하는 방법 및 장치

Similar Documents

Publication Publication Date Title
US11514654B1 (en) Calibrating focus/defocus operations of a virtual display based on camera settings
JP4916548B2 (ja) 画像のドミナントライン(dominantline)の確定及び使用
US20080018668A1 (en) Image Processing Device and Image Processing Method
TWI786157B (zh) 用於產生場景之舖磚式三維影像表示之設備及方法
CN105741343A (zh) 一种信息处理方法及电子设备
US9437034B1 (en) Multiview texturing for three-dimensional models
CN114972612B (zh) 一种基于三维简化模型的图像纹理生成方法及相关设备
US20140375633A1 (en) Texture Blending Between View-Dependent Texture and Base Texture in a Geographic Information System
CN115393538A (zh) 基于深度学习的室内动态场景的视觉slam方法及系统
CN111857625A (zh) 一种异形曲面矫正及边缘融合的方法
JP6717576B2 (ja) 映像レンダリング装置及び方法
JP6807034B2 (ja) 画像処理装置および画像処理方法
CN111462205B (zh) 图像数据的变形、直播方法、装置、电子设备和存储介质
US11677928B1 (en) Method for image processing of image data for varying image quality levels on a two-dimensional display wall
KR101999066B1 (ko) 2차원 화상공간의 음영 처리 방법 및 장치
JP6835455B2 (ja) 時系列の奥行き画像におけるデプス値を補正するプログラム、装置及び方法
CN114402364A (zh) 使用随机森林的3d对象检测
KR101588409B1 (ko) 마커를 이용하여 표출되는 증강 현실 객체에 대한 입체 사운드 제공 방법
US7064767B2 (en) Image solution processing method, processing apparatus, and program
Oishi et al. An instant see-through vision system using a wide field-of-view camera and a 3D-Lidar
JP2021525912A (ja) 周辺画像内の光源の位置座標の推定
CN111028357B (zh) 增强现实设备的软阴影处理方法和装置
JP2019517688A (ja) 二枚の表示画像間の移行を割り出すための方法及び装置、並びに、車両
CN116188668B (zh) 一种基于ios平台的阴影渲染的方法、介质及电子设备
KR20250017449A (ko) 왜곡 보정을 이용하는 대상 객체의 3차원 모델링 방법 및 장치

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

PA0302 Request for accelerated examination

St.27 status event code: A-1-2-D10-D16-exm-PA0302

St.27 status event code: A-1-2-D10-D17-exm-PA0302

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

Fee payment year number: 1

St.27 status event code: A-2-2-U10-U11-oth-PR1002

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

P14-X000 Amendment of ip right document requested

St.27 status event code: A-5-5-P10-P14-nap-X000

P16-X000 Ip right document amended

St.27 status event code: A-5-5-P10-P16-nap-X000

Q16-X000 A copy of ip right certificate issued

St.27 status event code: A-4-4-Q10-Q16-nap-X000

P15-X000 Request for amendment of ip right document rejected

St.27 status event code: A-5-5-P10-P15-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PC1903 Unpaid annual fee

Not in force date: 20220705

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

St.27 status event code: A-4-4-U10-U13-oth-PC1903

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PC1903 Unpaid annual fee

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20220705

St.27 status event code: N-4-6-H10-H13-oth-PC1903

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000