RS64401B1 - Sistem za mešanje ili sastavljanje u realnom vremenu, računarskih generisanih 3d predmeta i video zapisa sa filmske kamere - Google Patents
Sistem za mešanje ili sastavljanje u realnom vremenu, računarskih generisanih 3d predmeta i video zapisa sa filmske kamereInfo
- Publication number
- RS64401B1 RS64401B1 RS20230594A RSP20230594A RS64401B1 RS 64401 B1 RS64401 B1 RS 64401B1 RS 20230594 A RS20230594 A RS 20230594A RS P20230594 A RSP20230594 A RS P20230594A RS 64401 B1 RS64401 B1 RS 64401B1
- Authority
- RS
- Serbia
- Prior art keywords
- camera
- real
- video
- time
- tracking
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Of Solid Wastes (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Cultivation Of Plants (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
Opis
POZADINA PRONALASKA
1. Oblast pronalaska
[0001] Sistem za mešanje ili sastavljanje kompjuterski generisanih 3D predmeta u realnom vremenu i video signala sa filmske kamere, kao što je video kamera, za generisanje video zapisa proširene stvarnosti u realnom vremenu za TV emitovanje, bioskop ili video igrice.
2. Opis prethodnog stanja tehnike
[0002] Tokom proteklih 20 godina, bilo je značajnih istraživanja i komercijalnih aktivnosti u ovoj oblasti; može se pozvati na sisteme za umetanje video zapisa ili proširene realnosti kompanija, kao što je Sportvision, Inc, koja je razvila poboljšanja gledanja televizije za sportske događaje, kao što je američki fudbal, dodajuć i virtuelnu prvu donju liniju koju gledaoci vide super nametnutom na teren. Druge kompanije koje su razvile sisteme u ovoj oblasti uključuju PVI, Inc. Jedna zajednička karakteristika poznatih sistema je da se uglavnom oslanjaju na analizu karakteristika u video signalu sa kamere da bi odredili na koji deo realne scene kamera pokazuje; sistemć e ranije izgraditi 3D mapu te scene tako da, kada zna gde u sceni pokazuje na koju pokazuje, može da dodaje ili komponuje računarski generisane objekte (kao što je virtuelna prva donja linija) na video signal na takav način da položaj i orijentacija objekta čine da izgleda kao prirodni deo scene. Jedan nedostatak odgovora isključivo na optički tok na ovaj način je taj što takvi sistemi mogu biti nepouzdani.
[0003] Drugi sistemi se oslanjaju na čiste pristupe zasnovane na markerima (Lightcraft Technologies na primer). Oni zahtevaju od operatera da stavi prave fizičke markere (velike 1m x 1m) na set kako bi ih sistem detektovao. Veoma je neefikasan jer su mu potrebni sati ili dani da se postavi bina, što je malo verovatno da ć e funkcionisati za filmsku produkciju. Takođe ima mnoga ograničenja jer fizički markeri uvek moraju ostati u vidnom polju svog sistema. Na radove citirane u Dodatku 1 mogu se dati i naučne reference.
[0004] US2007248283A1 otkriva metod i uređaj za sistem za pregled virtuelne scene širokog područja.
KRATAK REZIME PRONALASKA
[0005] Prema prvom aspektu pronalaska obezbeđen je sistem bez markera, sistem koji uključuje:
(i) video kamerU;
(ii) senzore uključuju ć i akcelerometar i žiroskop koji detektuje preko slobodnih šest stepeni slobode;
(iii) dve kamere za svedoke koje čine stereoskopski sistem; i
(iv) procesor;
za mešanje ili sastavljanje u realnom vremenu, kompjuterski generisanih 3D objekata i video signala sa video kamere, za generisanje video zapisa proširene stvarnosti za TV prenos, bioskop ili video igre, u kojima:
(a) telo video kamere može da se pomera u 3D i senzori u video kameri su ili pričvršć eni direktno ili indirektno na video kameru i obezbeđuju podatke o pozicioniranju u realnom vremenu koji definišu 3D poziciju i 3D orijentaciju video kamere, ili omoguć avaju izračunavanje 3D pozicije i 3D orijentacije video kamere;
(b) dve kamere za svedoke koje čine stereoskopski sistem su pričvršć ene direktno ili indirektno na video kameru;
(c) sistem je konfigurisan da automatski koristi te podatke o pozicioniranju u realnom vremenu za kreiranje, pozivanje, prikazivanje ili modifikovanje kompjuterski generisanih 3D objekata;
(d) sistem je konfigurisan da kombinuje ili stvara dobijene kompjuterski generisane 3D objekte sa video zapisom iz video kamere da obezbedi video proširenu stvarnost za TV prenos, bioskop ili video igrice;
i u kojoj:
(e) sistem je konfigurisan da odredi 3D poziciju i orijentaciju video kamere u odnosu na 3D mapu stvarnog sveta, pri čemu je sistem konfigurisan da generiše 3D mapu stvarnog sveta, u najmanjem delimično, korišć enjem podataka o 3D pozicioniranju u realnom vremenu od senzora plus optički tok u kojem dve kamere svedoka i kamere svedoka u procesu otkrivanja konfigurišu stereoskopsku scenu ili softverski proces koji konfiguriše konfiguraciju u sceni koja nije ručno ili veštački dodata toj sceni;
(f) sistem je konfigurisan da koristi model konstantne brzine povezan sa podacima o 3D pozicioniranju u realnom vremenu iz senzora da predvide sledeć u poziciju video kamere koriste ć i prethodno tačno izračunatu ili potvrđenu poziciju, a sistem je konfigurisan da koristi to predviđanje za projektovanje 3D oblaka tačaka na trenutni okvir kamere svedoka i da koristi algoritam za podudaranje tačaka identifikovanih u video zapisu u realnom vremenu iz stereoskopskog sistema i projektovanih tačaka u projektovanom 3D oblaku tačaka.
[0006] Prema drugom aspektu pronalaska, obezbeđen je metod bez markera za mešanje ili stvaranje kompjuterski generisanih 3D objekata u realnom vremenu i video zapisa sa video kamere, za generisanje video zapisa proširene stvarnosti za TV emitovanje, bioskop ili video igrice, u kome:
(a) telo video kamere može da se pomera u 3D i senzorI, uključujuć i akcelerometar i žiroskop koji detektuju preko šest slobodnih stepeni, u ili pričvršć eni direktno ili indirektno na video kameru obezbeđuju podatke o pozicioniranju u realnom vremenu koji definišu 3D poziciju i 3D orijentaciju video kamere, ili omoguć avaju izračunavanje 3D pozicije i orijentacije 3D video kamere;
(b) dve kamere za svedoke koje čine stereoskopski sistem koje su pričvršć ene direktno ili indirektno na video kameru;
(c) da se podaci o pozicioniranju u realnom vremenu zatim automatski koriste za kreiranje, opoziv, prikazivanje ili modifikovanje kompjuterski generisanih 3D objekata;
(d) dobijeni kompjuterski generisani 3D objekti se zatim mešaju ili kombinuju sa video izvorom iz video kamere da bi se obezbedio video sa proširenom realnošć u za TV prenos, bioskop ili video igrice;
i u kome:
(e) 3D pozicija i orijentacija video kamere se određuju u odnosu na 3D mapu stvarnog sveta, pri čemu se 3D mapa stvarnog sveta generiše, u najmanjem delimično, korišć enjem podataka o 3D pozicioniranju u realnom vremenu od senzora plus optički tok u kojem dve kamere za svedoke koje formiraju stereoskopski sistem, premeravaju scenu ili softver koji je dodat u prirodnu scenu za otkrivanje prirodne scene ili softver koji nije korišć en da detektuje tu prirodnu scenu;
(f) model konstantne brzine povezan sa podacima o 3D pozicioniranju u realnom vremenu od senzora se koristi za predviđanje sledeć e pozicije video kamere koriste ć i prethodno tačno izračunatu ili potvrđenu poziciju, i to predviđanje se koristi za projektovanje 3D oblaka tačaka na trenutni okvir kamere svedoka, a algoritam za podudaranje tačaka se koristi za podudaranje tačaka identifikovanih u realnom vremenu u projektu sistema sa stereo projektom tačaka iz video projekta u realnom vremenu.
[0007] Opcione karakteristike – neke ili sve od kojih se navedene mogu kombinovati jedna sa drugom, uključuju sledeć e:
• kompjuterski generisani 3D objekti se mešaju ili komponuju u realnom vremenu sa video zapisom u realnom vremenu sa video kamere.
• mere se i koriste podešavanja zuma, fokusa i irisa u realnom vremenu video kamere, zajedno sa podacima o pozicioniranju u realnom vremenu, tako da se 3D objekti pravilno prikazuju na željenoj lokaciji i orijentaciji u 3D sceni.
• senzori uključuju 3-osni akcelerometar koji meri translaciono ubrzanje u 3D, 3-osni žiroskop za merenje ugaone brzine u 3D, i magnetometar koji meri apsolutni kurs u 3D, i stoga čini 9DOF senzor.
• senzori uključuju senzor 3D opsega, kao što je strukturirano svetlo ili kamera za vreme leta.
• senzor 3D opsega snima dubinu svakog piksela u video izlazu iz kamere.
• dubina ivica je poboljšana ponovnim projektovanjem dubine senzora 3D opsega na video zapis visoke rezolucije na video kameri.
• senzori su formirani u jedinicu koja se može bezbedno pričvrstiti na video kameru
* jedinica uključuje jednu ili dve kamere za svedoke.
* jedinica uključuje senzor 3D opsega koji snima dubinu svakog piksela u video izlazu.
* jedinica uključuje 6DOF ili 9DOF senzor.
* jedinica koristi zamenljive zakačke kako bi se omoguć ila fiksiranje na različite veličine i dizajn video kamera i šipki.
* jedinica je proširiva i uključuje druge oblike senzora.
* jedinica može formirati uređaj za snimanje koji se može koristiti za snimanje složene scene i prenos podataka koji definišu 3D scenu koja se snima bežično na računar koji zatim prati ili obnavlja prać enje scene.
* video kamera uključuje konvencionalne enkodere za čitanje zuma, fokusa i irisa kamere.
• sistem uključuje dve kamere za svedoke (stereoskopsko kuć ište), opremljene sočivima koji su sočiva ribljeg oka od 180 stepeni.
• kamera(e) za svedoka(e) su odmaknute od video kamere i to odstupanje se dobija korišć enjem kalibracione karte uključujuć i prvu i drugu grupu krugova, pri čemu je svaki krug na poznatoj lokaciji u odnosu na jedan ili više drugih krugova i svaki krug se prepoznaje korišć enjem algoritma blob slike.
• objektiv video kamere je kalibrisan za optičko izobličenje pomoć u kalibracione tabele koja uključuje nekoliko krugova, svaki krug je na poznatoj lokaciji u odnosu na jedan ili više drugih krugova i svaki krug je prepoznat korišćenjem algoritma blob slike.
• video kamera je nešto od sledeć eg: kamera za kran; steady kamera; ručna kamera; kamera montirana na kolica, montirana kamera, pametni telefon, naočare proširene stvarnosti.
• sistem koristi jednu ili dve brze (kao što je najmanje 100 fps) kamere svedoka kako bi omoguć io sistemu da bude potpuno inicijalizovan bez posebne faze čistog snimanja scene koja treba da se prati (koja se naziva „trenutni pregled“), ali umesto toga, snimanje se odvija neprekidno dok se kamera koristi za snimanje video zapisa.
• stereoskopski sistem omoguć ava softveru da obradi slike i, čak i kada se sistem kamere uopšte ne pomera, da generiše trenutni 3D oblak tačaka (na primer povezivanje velikog broja tačaka u sceni sa njihovim položajem u 3D prostoru koristeć i poznavanje razdvajanja između dve kamere i epipolarne geometrije). • dubina svakog piksela u 3D oblaku tačaka se dobija korišć enjem odgovaraju ć ih 2D zakrpa teksture dobijenih iz svake stereoskopske kamere za svedoke i algoritma za pretragu epipolarnih linija.
• sistem pokreć e fuzioni algoritam koji kombinuje podatke o optičkom toku iz sistema kamera za svedoke sa podacima u realnom vremenu koji su podaci o pozicioniranju sa hardverskih senzora.
• algoritam fuzije je zasnovan na tehnici predviđanja/ispravke proširenog Kalmanovog filtera za integrisanje izlaza iz, i za ponovnu kalibraciju svih senzora, koji mogu uključivati akcelerometar, žiroskop, magnetometar, 3D opseg senzor, za određivanje položaja i orijentacije kamere.
• EKF fuzioni algoritam koristi podatke o nivou pouzdanosti, povezane sa izlazom svakog senzora, prilikom određivanja kako spojiti podatke sa svakog senzora.
• ključni kadrovi koje generiše sistem kamera za svedoke su deo procesa vizuelnog prać enja i predstavljaju slike u realnom vremenu izračunato na 4 različita nivoa rezolucije video zapisa kamere svedoka.
• sistem uključuje (a) računar za generisanje sadržaja koji obezbeđuje 3D kompjuterski generisanu animaciju virtuelnih figura,
objekte i mesta, i (b) računar za prikazivanje (koji može, ali ne mora biti odvojen od računara za generisanje sadržaja), i u kojem podatke o pozicioniranju u realnom vremenu koji definišu 3D poziciju video kamere koriste bilo koji ili oba računara za generisanje sadržaja i računar za renderovanje da izazovu generisanje 3D objekata u realnom vremenu, koji se mogu umetnuti u video scenu u prirodnom obliku i miks prikazanog videa u realnom vremenu.
• kompjuterski generisani 3D objekti su animacije koje se mogu pomerati bilo gde u okviru scene i mogu promeniti svoj oblik i izgled na način koji određuje računar za generisanje sadržaja.
• kompjuterski generisani 3D objekti su animirane figure ljudi ili stvorenja koje se kreć u (npr. trče, plešu, hodaju, bore se, lete, skaču, ...) na realističan način kada su pomešane u sceni.
• podaci o pozicioniranju ili prać enju kamere su takođe dostupni za upotrebu u postprodukciji kako bi se olakšala postprodukcija CGI.
• senzor 3D opsega se koristi za poboljšanje tačnosti merenja dubine povezanog sa rekonstruisanom 3D tačkom, ili da se odbaci ta rekonstruisana 3D tačka.
• senzor 3D opsega se koristi za dubinu u realnom vremenu kako bi se omoguć ila dinamička okluzija i potisnulo eventualno korišć enje zelene pozornice.
• sistem koristi mali objekat za registraciju kamere, kao što je tabla poznate veličine i prekrivena poznatim šablonom, postavljenim u scenu tako da se ugao otkrivenog uzorka tretira kao ishodište za 3D oblak tačaka (i samim tim svet).
• objekat registracije kamere se sastoji od najmanje dve sfere poznate veličine raspoređene u pravu vertikalu i prepoznate korišćenjem algoritma za prepoznavanje blob slike.
• sistem uključuje magnetometar koji pokazuje magnetni sever, akcelerometar koji pokazuje smer gravitacije (i čime se daje prava vertikala), žiroskop koji pokazuje da li je sistem naget nagore/nadole ili se pomera levo ili desno ili je rotiran oko optičke ose, i 3-osni akcelerometar da bi se omoguć ilo prevođenje u 3D sa početne pozicije i da se tako zaključi.
• softver pokušava da generiše ravnomerno raspoređen oblak tačaka u 3D mapi kako bi u velikoj meri smanjio gubitke prać enja i pove ć ao tačnost pra ć enja (generiše se više paralakse, tako da je procenjena pozicija kamere tačnija).
• sistem za prać enje kamere može biti bežično povezan sa sistemom kamere i stoga se može brzo pomerati po setu prilikom generisanja 3D oblaka tačaka – nema potrebe za provlačenjem kablova preko seta, za razliku od ranijih sistema kamera za svedoke.
• sistem za prać enje kamere kombinuje trenutno snimanje (stereoskopsko ku ć ište) sa pra ć enjem video kamere kao režiser/snimatelj prati, pomera, naginje sistem za prać enje kamere da bude priključen na video kameru.
• sistem u potpunosti automatizuje sve aspekte prać enja video kamere, uključuju ć i rotaciju, translaciju, fokus, iris, žižnu daljinu; i automatizuje skaliranje, pozicioniranje i orijentaciju 3D kompjuterski generisanog sadržaja koji se meša sa videom.
• sistem omoguć ava kontinuirano snimanje scene u realnom vremenu kako bi se stvorio potpuniji oblak tačaka koji definiše scena
• sistem pridaje invarijantne deskriptore rotacije, na primer koristeć i ORB, tačkama obeleženih u sceni zbog olakšanog prać enja.
• sistem koristi model konstantne brzine povezan sa informacijama dobijenim od senzora da bi predvideo sledeć i položaj video kamere koriste ć i prethodno tačno izračunatu ili potvrđenu poziciju. Koristi to predviđanje da ponovo projektuje 3D oblak tačaka na trenutni kadar, kako bi omoguć io algoritam za podudaranje tačaka da uskladi tačke identifikovane u video zapisu u realnom vremenu iz sistema kamera za svedoke i projektovanih tačaka u novom, 3D oblaku tačaka.
• sistem koristi Levenberg-Marquardt šemu minimizacije za prać enje kamere da bi minimizirao grešku između tačaka identifikovanih u video zapisu u realnom vremenu iz sistema kamera za svedoke i projektovanih tačaka u novom, 3D oblaku tačaka.
• korisnik može da koristi 3D oblak tačaka koji generiše sistem za prać enje kamere da definiše 3D maske, kao što su 3D maske za smeć e.
• 3D objekti uključuju statične objekte, dinamičke animacije, virtuelne svetove, virtuelne ljude, virtuelne zgrade, virtuelne pejzaže, virtuelne filmske setove i sve podatke u bazi podataka animacija.
• video kamera i kamera za svedoke su kalibrisane za kašnjenje u sticanju kadrova pomoć u modulisanog izvora svetlosti, na primer upoređivanjem krivulja intenziteta svetlosti povezanih sa trepć u ć om LED diodom.
[0008] Drugi koncepti – svaki se može kombinovati sa bilo kojom od karakteristika definisanih iznad, ili sa bilo kojim drugim konceptom definisanim u nastavku:
Metod mešanja ili pravljenja kompjuterski generisanih 3D objekata u realnom vremenu i video zapisa sa filmske kamere u kojoj se telo filmske kamere može pomeriti u 3D, a senzori u ili pričvršć eni za kameru obezbeđuju podatke o pozicioniranju u realnom vremenu koji definišu 3D poziciju i 3D orijentaciju kamere, ili omoguć avaju izračunavanje 3D pozicije.
[0009] Metod za mešanje ili pravljenje kompjuterski generisanih 3D objekata u realnom vremenu i video zapisa sa filmske kamere, kao što je video kamera, za generisanje video zapisa proširene stvarnosti za TV emitovanje, bioskop ili video igrice, u kojem:
(a) telo filmske kamere može da se pomera u 3D i senzori u ili direktno ili indirektno pričvršć eni na filmsku kameru obezbeđuju podatke o pozicioniranju u realnom vremenu koji definišu 3D poziciju i 3D orijentaciju filmske kamere, ili omoguć avaju izračunavanje 3D pozicije i 3D orijentacije filmske kamere i
(b) da sistem zatim automatski koristi podatke o pozicioniranju u realnom vremenu za kreiranje, pozivanje, prikazivanje ili modifikovanje kompjuterski generisanih 3D objekata i
(c) dobijeni kompjuterski generisani 3D objekti se zatim mešaju ili kombinuju sa video zapisom sa filmske kamere da bi se obezbedio video sa proširenom realnošć u za TV prenos, bioskop ili video igrice.
[0010] Metodi ili sistemi kao što su napred definisani i koji se koriste da omoguć e režiseru (ili direktoru fotografije) da uokviri kompjuterski generisana 3D sredstva u kameri, obično predvizuelizacija ili sredstva vizuelnih efekata, u realnom vremenu na filmsku ploču uživo ili video slike koje je snimila kamera, omoguć avaju ć i reditelju da istražuje moguć e uglove kamere i da se kre ć e u realnom vremenu u realnom vremenu tako što se sadržaj automatski generiše u video materijal koji se generiše od strane reditelja.
[0011] Metodi ili sistemi kao što su napred definisani u kojima se podaci o pozicioniranju u realnom vremenu snimaju i utiskuje se vremenski kod kako bi se obezbedili podaci o pomeranju za postprodukcijske procese.
[0012] Metodi ili sistemi kako su napred definisani i koji se koriste da omoguć e da virtuelni objekti ili slike budu umetnuti u emitovani video tok.
[0013] Metod ili sistem kako je napred definisano da omoguć i jedno ili više od slede ć eg:
• Prać enje u realnom vremenu za studijske kamere
• Prać enje u realnom vremenu za steady kameru
• Prać enje u realnom vremenu za kamere montirane na kran
• Prać enje u realnom vremenu za kamere postavljene na kolica
• Prać enje u realnom vremenu za steady kameru
• Prać enje u realnom vremenu za Outside Broadcast (OB)
• Korišć enje podataka u realnom vremenu (npr. podataka o pra ć enju) za 2D postprodukciju
• Korišć enje podataka u realnom vremenu (npr. podataka o pra ć enju) za naknadnu konverziju za 3D stereoskopski sadržaj
• Korišć enje podataka u realnom vremenu (npr. podataka o pra ć enju) za izvorni 3D stereoskopski sadržaj • Umetanje 3D grafike
• Umetanje 3D grafike za postavljanje proizvoda u studiju ili na setu
• Umetanje 3D grafike za OB
• Umetanje 3D grafike za druge sponzorisane slike
• Umetanje 3D grafike koje je specifično za lokaciju posmatrača
• Umetanje 3D grafike koje je specifična za gledaoca
• Umetanje 3D grafike koja je određena za vreme
• Umetanje 3D grafike za popunjavanje scena gužve
• Umetanje 3D grafike za zamenu zelenog ekrana
• 3D grafičko umetanje obrazovnog sadržaja za pomoć u učenju, u muzejima i interpretacijskim centrima u kulturnim, istorijskim ili prirodnim znamenitostima.
• merenje apsolutne ili relativne veličine objekata u sceni.
[0014] Metode ili sistemi kako je napred definisano, pri čemu je filmska kamera jedno od sledeć eg:
- Sve kamere sa standardnim tetrom
- Kamere koje zahtevaju vezu sa taktičkim optičkim vlaknima
- Kamera koja zahteva RF/bežičnu vezu
[0015] Metodi ili sistemi kako je napred definisano, raspoređeni na jednom od sledeć ih tržišta:
- film/TV (ne uživo)
- komercijalno (ne uživo)
- reklame uživo
- emitovanje (ne sportsko)
- Broadcast OB
- bazirano na sportskom studiju
- zasnovano na sportskoj OB
- TV plasman proizvoda uživo
- korišć enje interneta (ne uživo)
- internet uživo
- internet na teritoriji uživo
- interent plasman proizvoda uživo
- sadržaj muzeja/baštine
- oglasi za muzej/nasleđe
- arhitektonsko
- igre
[0016] Metodi ili sistemi kako su napred definisani i koji se koriste da omoguć e prikazivanje slika proširene stvarnosti na bilo kojem uređaju za prikaz, uključujuć i pametni telefon i naočare sa proširenom realnoš ć u, pri čemu se izgled slika proširene stvarnosti automatski menja u zavisnosti od podataka o pozicioniranju u realnom vremenu.
[0017] Film, serija, TV emisija ili video igra u kojoj se 3D objekti generisani u realnom vremenu, kompjuterski generisani, mešaju sa video zapisom iz kamere, u kome telo kamere može da se pomera u 3D i senzori u ili pričvršć eni za kameru obezbeđuju podatke o pozicioniranju u realnom vremenu koji definišu 3D poziciju kamere ili omoguć avaju izračunavanje 3D pozicije.
[0018] Uređaj za snimanje i prać enje scene prilagođen za pričvrš ć ivanje na konvencionalnu kameru, u kome telo kamere može da se pomera u 3D, a hardverski senzori u uređaju za snimanje i prać enje scene obezbeđuju podatke o pozicioniranju u realnom vremenu koji definišu 3D poziciju kamere, ili omoguć avaju da se izračuna 3D pozicija.
[0019] Ručna ili prenosiva kamera koja uključuje senzore u ili priključene na kameru obezbeđuju podatke o pozicioniranju u realnom vremenu koji definišu 3D poziciju i 3D orijentaciju kamere u odnosu na 3D referentni okvir, ili omoguć avaju, u potpunosti ili kao deo sistema koji analizira druge podatke, kao što su podaci o optičkom toku, da se izračuna 3D pozicija.
[0020] Filmska kamera koja uključuje ili je priključena na sistem stereoskopskih kamera za svedoke, sistem kamera za svedoke koji generiše širokougaone (npr. 180 stepeni) stereoskopske slike, omoguć avaju ć i softveru da obrađuje slike i, bez da se sistem kamere uopšte prati/pomera, da generiše trenutni 3D oblak tačaka.
[0021] Sistem za prać enje kamere za pričvrš ć ivanje na filmsku kameru, koji ima sistem kamera svedoka koji generiše stereoskopske slike, omoguć avaju ć i softveru da obrađuje slike i, bez da se sistem kamere uopšte pomera, da generiše trenutni 3D oblak tačaka i obezbedi prać enje u realnom vremenu (pozicija, orijentacija, zum, fokus i iris) filmske kamere.
[0022] Naočare sa proširenom realnošć u uključuju ć i senzore u naočarima ili pričvrš ć ene za njih obezbeđuju podatke o pozicioniranju u realnom vremenu koji definišu 3D poziciju i 3D orijentaciju naočara u odnosu na 3D referentni okvir, ili omoguć avaju, u potpunosti ili kao deo sistema koji analizira druge podatke, kao što su podaci o optičkom toku, izračunavanje 3D pozicije.
[0023] Sadašnji sistem je implementiran u sistemu koji se zove Ncam. Različite aplikacije Ncam uključuju sledeć e:
Vizuelne efekte u filmu, TV i reklamama
[0024] Vizuelni efekti u pretprodukciji i produkciji: Ncam nastoji da pomogne da se popuni jaz između prethodnog (pretprodukcije) i VFX (post-produkcije) tokom procesa snimanja (produkcije). Ncam nudi rešenje za one koji žele da kadriraju na VFX u kameri, dok snimaju, u realnom vremenu. Koristeć i prethodno kreiran sadržaj, često iz previs procesa, Ncam je u stanju da sastavi ta prethodna sredstva, obično 3D modele i animaciju, na ploču sa filmom uživo u realnom vremenu.
[0025] Uzimanje pažljivo izrađenog i odobrenog previsa na set može uštedeti ogromnu količinu vremena. Filmski stvaraoci mogu da kadriraju prethodni ili VFX, bilo da se radi o snimanju na zelenom ekranu i komponovanju virtuelne pozadine ili prekrivanju stvorenja ili objekta u prvom planu. Filmski stvaraoci su tada u moguć nosti da preuzmu kontrolu nad prethodnim i VFX-om istražujuć i mogu ć e uglove kamere i pokrete u hodu i u realnom vremenu, bez uobičajenih ograničenja.
[0026] Zauzvrat, podaci se snimaju i označavaju vremenskim kodom, dajuć i podatke o pomeranju kamere VFX odeljenja (traka sa 6 DOF) dok se u isto vreme pruža urednički tekst sa 'tempom' konačnog VFX-a.
[0027] Snimanjem 'temp' VFX-a u kameri i dizajniranjem VFX-a ranije u procesu, moguć e je da se dosta nagađanja iskoristi iz VFX-a kao deo post-produkcijskog procesa. Možemo da smanjimo VFX proces dizajna i tako uštedimo gubitak.
Virtuelno oglašavanje - prenos uživo
[0028] Ncam-ova tehnologija je pogodna za virtuelno oglašavanje u realnom vremenu sa prostorom za emitovanje. Digitalni plasman proizvoda, gde se proizvod ubacuje nakon snimanja tokom postprodukcije, za razliku od stvarnog fizičkog proizvoda koji se nalazi u kameri, postaje sve popularniji. Međutim, sa moguć noš ć u da pove ć amo plasman digitalnih proizvoda uživo, u moguć nosti smo da otvorimo razne mogu ć nosti. Primeri mogu uključivati logotipe brenda na sportskim terenima ili pić a u konzervi. Ovo je mesto gde mogu ć nost renderovanja foto-stvarnih CG slika, u realnom vremenu, na osnovu osvetljenja okruženja za snimanje, postaje kritična.
Holografsko igranje
[0029] Kombinovanje Ncam-ove tehnologije sa holografskim ekranima i naočarima (kao što je Google Glass) moglo bi da obezbedi potpuno impresivno iskustvo igranja. Kombinacija stvarnog sveta sa virtuelnim svetovima i likovima. Moguć nosti su donekle beskrajne.
Muzej i baština
[0030] Ncam-ova tehnologija nudi širok spektar potencijalnih primena u sektorima muzeja i baštine.
[0031] Kao istraživački alat mogao bi biti koristan za rekonstrukciju lokaliteta baštine kao što su ruševine, pokazujuć i kako je stranica izgledala u svom nekadašnjem sjaju.
[0032] U muzejima Ncam se može koristiti kao obrazovno sredstvo, možda za demonstraciju veličine i kretanja dinosaurusa, njegovih unutrašnjih organa ili strukture skeleta. Drugi primer može biti istraživanje rada integralnog motora sa unutrašnjim sagorevanjem, efektivno gledajuć i eksplodirani animirani dijagram, ali u potpunom impresivnom 3D prostoru.
Virtuelna kamera – VCS
[0033] Ncam tehnologija je savršena za ovu primenu. Virtuelna kamera je u suštini LCD ekran koji prikazuje kompletno CG 3D okruženje. Dok operater pomera LCD ekran, on se ponaša kao fizička kamera u smislu kretanja. LCD kamera se prati u XYZ translacijama i rotacijama i prikazuje potpuno CG okruženje iz CG motora, u realnom vremenu. Trenutno postoje različita VCS (sistem virtuelnih kamera) rešenja, ali sva imaju ograničenja u pogledu tehnologije. Imaju tendenciju da zahtevaju vreme za postavljanje, ograničeni su u prostoru i okruženju u komeć e raditi i skupi su. VCS zasnovan na Ncam-u verovatno bi poprimio oblik tableta, pri čemu bi se obrada izračunavala lokalno u kombinaciji sa LCD ekranom. CG proračuni se mogu uzeti sa udaljenog računara ili eventualno lokalno u zavisnosti od zahteva. Ideja je da se kroz upotrebljivost i cene omoguć i otvoren pristup velikom broju odeljenja unutar filma, koji ranije nisu mogli da imaju pristup takvim alatima. Ovo je veoma korisno za dizajnere, arhitekte, VFX, kompanije za igre, CG i animacijske kuć e itd.
[0034] Ovaj VCS bi takođe činio okosnicu potencijalnog rešenja za muzej i baštinu.
Virtuelni izviđački sistem - VSS
[0035] Zamislite da snimate film i on je pretežno na plavom/zelenom ekranu. Kako, kao filmski stvaralac ili reditelj, da li da odredim koji ć e uglovi ili kadrovi biti najbolji? Na kraju krajeva, možda imam malo fizičkog kompleta i nekoliko glumaca, ali nemam pojma, osim svoje mašte, koji su uglovi kamere najbolji, a kamoli da objasnim celoj ekipi gde treba da postavimo kamere i napravimo valjan izbor objektiva. Trenutno bismo premestili filmsku kameru i sve njene potrepštine na lokaciju na setu, postavili Ncam i pogledali, samo da bismo shvatili da bi bilo bolje u drugoj poziciji. Kad bismo samo imali lagani prenosivi sistem za donošenje tih odluka, brzo i efikasno. Ovo je Ncam VSS.
[0036] VSS je Ncam kao što je danas, ali integrisan u kameru malog formata - pomislite na DSLR. To je u suštini digitalni pretraživač sa prednostima Ncam-a. Kombinujemo sve elemente Ncam-a kakav je danas, na filmskom setu, ali u prenosivom uređaju. Virtuelna produkcija za TV epizodu takođe bi imala velike koristi od ovog alata, kao i muzeji/lokacije baštine, kao i arhitekte koji žele da pokažu potencijalnim investitorima svoje nove kreacije.
KRATAK OPIS SLIKA
[0037]
Slika 1
Opis hardvera za konfiguraciju 2.3. Imajte na umu da je verzija koja je ovde nacrtana ona koja ima spojene radnu stanicu za prać enje i radnu stanicu za renderovanje.
Slika 2
Globalni algoritam za prać enje za dobijanje položaja i rotacije filmske kamere u realnom vremenu.
Slika 3
Registracioni objekat 3D automatskog nivelisanja kreiran za naš sistem. Taj objekat se koristi u stvarnoj sceni za automatsko izračunavanje porekla, orijentacije i veličine stvarnog sveta u našem softveru. Planarna verzija je prikazana na desnoj slici na slici 5.
Slika 4
Piramida slike koja se koristi za detekciju prirodnih markera. Ova slika takođe prikazuje neke 2D teksture povezane sa markerima.
Slika 5
Kalibracione karte razvijene i korišć ene u Ncam-u. Levo: tabela kalibracije koja se koristi za kalibraciju svih sočiva. Srednja: Korišć ena kalibraciona tabela ili izračunavanje rasporeda između filmske kamere i kamere za svedoke. Tabela sa leve strane se takođe može koristiti za slučajeve kada je žižna daljina na filmskoj kameri dovoljno kratka (eksperimentalno odlučeno na setu). Desno: planarna verzija registracionog objekta. Lakši za rukovanje i može se postaviti bilo gde na površini zemlje. Krugovi daju ortonormalnu osnovu dajuć i svetu orijentaciju, razmeru i poreklo (0,0,0) kada se virtuelni objekti dodaju stvarnoj sceni. Centar gornjeg levog kruga je poreklo sveta.
Slika 6
Kamera Bar za montiranje na filmsku kameru sa različitim veličinama zakački (za šipke od 15 mm i 19 mm).
Slika 7
Bežični uređaj za istraživanje. Kada je potrebno istraživanje (tj. monoskopski slučaj, na primer, (vidi odeljak 2.1, ili veoma složeni setovi (vidi kraj odeljka 2.1.3)), celokupni proces prać enja se postiže koriš ć enjem tog anketnog uređaja. Kada je anketa okončana, svi podaci o prać enju (tačka, tastature, koji odmah počnu da se prate i završava prenosne rezultate i završavanje.
Slika 8
Kamera/kompjuter Breakout Bok. Imajte na umu da je verzija koja koristi više RJ45 kablove prikazana ovde. Sve ove razvodne kutije takođe imaju varijantu gde se ti kablovi zamenjuju jednim taktičkim optičkim kablom.
DETALJAN OPIS
[0038] Ova tehnologija se odnosi na mešanje kompjuterski generisanih 3D objekata u realnom vremenu i video zapisa iz stvarnog života koji dolazi iz prave kamere (koja se u nastavku ovog rada naziva filmska kamera) na filmskom setu, TV prenosu ili video igrici. Glavni ciljevi ovog sistema su:
• da obezbedi alatku za kadriranje virtuelnih likova i okruženja u realnom vremenu za filmske režisere. • za prikaz u realnom vremenu foto-realističnih rezultata virtuelnih objekata direktno spojenih sa stvarnim video snimkom.
• da obezbedi tačnu procenu položaja filmske kamere (koja se zove prać enje kamere) za oba snimanja na setu i postprodukcija filma. Rukovano je svim filmskim kamerama: kran kamera, stabilna kamera, ručna kamera, kamere
na tronošcima itd.
• da obezbedi aproksimaciju 3D geometrijskog modelovanja stvarne scene, rukovanje okluzijom između stvarnog
objekta (i/ili aktera) i virtuelnog okruženja (3D objekti, likovi, itd.).
[0039] Tehnologija koja je ovde opisana je pre svega moć an algoritam za fuziju senzora, čime se spajaju prirodni markeri (tj. nisu ručno dodati fizičkoj sceni) izračunat iz 3 (stereoskopsko kuć ište) ili 2 (monoskopsko ku ć ište) različita optička toka i fizičkog merenja 4 druga senzora (žiroskop 3, sistem senzora ukupnog opsega koji nije magnetni, akcelerometar) i ne zahteva ručno dodavanje bilo kakvih fizičkih markera ili bilo čega što je direktno vidljivo u stvarnoj sceni da bi se obavio posao. Monoskopsko kuć ište kamere za jednog svedoka nije u skladu sa pronalaskom, i opisano je samo u ilustrativne svrhe.
1 Hardver
[0040] Tehnologija ima 2 različite moguć e hardverske konfiguracije u zavisnosti od vrste podataka koji se moraju strimovati.
[0041] Ove 2 konfiguracije imaju zajednički sledeć i hardver montiran na uređaj koji se zove traka kamere (pogledajte sliku 6 za detaljne šeme), kao i zasebnu kutiju za povezivanje koja je u suštini kutija za razboj koja spaja ili razdvaja sve različite kablove u jedan ili nekoliko nezavisnih razboja (pogledajte sliku 8 za detaljne šeme):
• jedna ili dve kamere velike brzine (najmanje 100 fps), koje se nazivaju kamere za svedoke, u zavisnosti od izabranog pristupa (monoskopski ili stereoskopski).
• svaka kamera za svedoke ima postavljeno sočivo riblje oko od 180 stepeni.
• 9-DOF senzor, uključujuć i žiroskop, magnetometar i akcelerometar (ili 6-DOF kada magnetometar ne može biti upotrebljen).
• 3D senzor opsega koji hvata dubinu piksela.
[0042] Pored trake kamere, sve konfiguracije imaju obične enkodere sočiva montirane na filmsku kameru za čitanje vrednosti zuma, fokusa i vrednosti irisa. Zajednički im je i bežični uređaj za snimanje (pogledajte sliku 7 za detaljne šeme) za snimanje scene i učenje. Međutim, imajte na umu da u slučaju potpunog stereoskopskog pristupa (pogledajte odeljak 2.5), tačnije trenutnog istraživanja (pogledajte odeljak 2.5.1), taj uređaj za snimanje nije potreban.
[0043] Osim ovih zajedničkih karakteristika, 2 konfiguracije su opisane na slede ć i način:
Konfiguracija 1: Kamere za strimovanje
[0044]
1. Bežični ugrađeni računar:
(a) Ugrađeni računar za prać enje je montiran na filmsku kameru. On bežično prenosi translaciju i rotaciju filmske kamere (RT) na eksternu radnu stanicu za renderovanje, kao i zum, fokus i iris (ZFI) koji dolaze od kodera.
(b) Eksterna radna stanica za generisanje sadržaja. Ova mašina obično pokreć e softver za računarsku grafiku kako bi obezbedio 3D kompjuterski generisanu animaciju i relevantan CG sadržaj za konačno komponovanje. Takođe prenosi animirane podatke na spoljnu radnu stanicu za renderovanje (1-1c). (c) Radna stanica za eksterno prikazivanje koja s jedne strane prima podatke sa ugrađenog računara (1-1a), a sa druge strane takođe rukuje animiranim podacima koji dolaze sa radne stanice za generisanje sadržaja (1-1b). Ova radna stanica za renderovanje koristi filmsku kameru RT+ZFI koja dolazi od 1-1a da prikaže 3D virtuelno okruženje koje dolazi iz 1-1b, i meša rezultat u okviru stvarnog video toka koji dolazi od filmske kamere. Takođe prenosi konačni kompozitni rezultat nazad na okular filmske kamere ili kontrolni monitor bez ikakve žice.
2. Žični ugrađeni računar
(a) Ugrađeni kompjuter za prać enje je montiran na filmsku kameru. On prenosi translaciju filmske kamere, rotaciju (RT) i podatke enkodera (ZFI) na eksternu radnu stanicu za renderovanje koristeć i taktičke kablove sa optičkim vlaknima.
(b) Slično kao u konfiguraciji 1-1b.
(c) Slično kao u konfiguraciji 1-1c, osim što se konačni kompozitni rezultat šalje nazad u kameru preko HD-SDI kabla.
Konfiguracija 2: Ukupno strimovanje
[0045]
1. Bežični ugrađeni računar:
(a) Ugrađeni računar za prać enje je montiran na filmsku kameru. Na toj jedinici nije postignuta stvarna obrada. Samo bežično prenosi sve podatke senzora na eksternu radnu stanicu za prać enje. 2 x video tokova sa kamera za svedoka, 1x9DOF podataka, 13 podataka senzora dometa se emituju. Ukupna količina podataka zahteva minimalni propusni opseg već i od 142 MB/sek vidi (kamere za svedoke zahtevaju 63 MB/sek, senzor dometa 74 MB/sek, 9DOF senzor 4,4 MB/sek).
(b) Eksterna radna stanica za prać enje koja prima podatke sa ugrađenog računara za pra ć enje. Ova jedinica obrađuje sve podatke senzora da bi izračunala matrice rotacije i translacije filmske kamere. On prenosi kameru RT+ZFI na spoljnu radnu stanicu za renderovanje (2-1d).
(c) Eksterna radna stanica za generisanje sadržaja. Ova mašina obično pokreć e softver za računarsku grafiku kako bi obezbedio 3D računarsku generisanu animaciju i relevantan CG sadržaj za konačno komponovanje. Takođe prenosi animirane podatke na spoljnu radnu stanicu za renderovanje (2-1d). (d) Radna stanica za eksterno prikazivanje koja s jedne strane prima podatke sa ugrađenog računara (2-1b), a sa druge strane takođe rukuje sa animiranim podacima koji dolaze sa radne stanice za generisanje sadržaja (2-1c). Ova radna stanica za renderovanje koristi filmsku kameru RT+ZFI koja dolazi iz 2-1b da prikaže 3D virtuelno okruženje koje dolazi iz 2-1c, i meša rezultat u okviru stvarnog video toka koji dolazi od filmske kamere. Takođe prenosi konačni kompozitni rezultat nazad na okular filmske kamere ili kontrolni monitor bez ikakve žice.
2. Žični ugrađeni računar:
(a) Ugrađeni računar za prać enje je montiran na filmsku kameru. On prenosi translaciju i rotaciju filmske kamere (RT) na eksternu radnu stanicu za renderovanje (2-2c) koristeć i taktičke optičke kablove ili više Cat-6 RJ45 kablova. Enkoderi se ponovo koriste za zumiranje, fokus i iris (ZFI).
(b) Slično kao u konfiguraciji 2-1c.
(c) Slično kao u konfiguraciji 2-1d, osim što se konačni kompozitni rezultat šalje nazad u kameru preko HD-SDI kabla.
3. Nema ugrađenog računara (pogledajte sliku 1 za grafičku ilustraciju: sve druge verzije se mogu lako izvesti iz takve):
(a) Jedan uređaj za prać enje jedne kamere (kamera traka) je pričvrš ć en na filmsku kameru i povezan sa kutijom za razboj.
(b) Eksterna radna stanica za prać enje koja prima podatke od ugrađenog uređaja za pra ć enje. Ova jedinica obrađuje sve podatke senzora da bi izračunala matrice rotacije i translacije filmske kamere. Enkoderi se ponovo koriste za zumiranje, fokus i iris (ZFI). On emituje kameru RT+ZFI na radnu stanicu za renderovanje 2-3d.
(c) Slično kao Konfiguracija 2-1c.
(d) Slično kao u konfiguraciji 2-1d, osim što se konačni kompozitni rezultat šalje nazad u kameru preko HD-SDI kabla.
[0046] Pored prethodnih konfiguracija, svaka verzija takođe ima dve druge varijante. Jedna ima radnu stanicu za generisanje sadržaja spojenu sa radnom stanicom za eksterno prikazivanje, a druga varijanta ima radnu stanicu za eksterno prikazivanje spojenu sa radnom stanicom za prać enje.
2 Softver
[0047] Stvoreno je nekoliko novih naučnih metoda i softvera za postizanje tačnih rezultata prać enja i stvarnih vremenski proširenih stvarnosta [19]. Ove metode su opisane u narednim odeljcima.
2.1 Monoskopsko pra ć enje bez markera iz video izvora
2.1.1 Pregled procesa
[0048] Monoskopska tehnika koja se koristi u tehnologiji je izgrađena na dva odvojena prolaza koji su zapravo tehnički skoro isti, osim što jedan zahteva interakciju korisnika dok je drugi potpuno automatski.
[0049] Prvi prolaz se zove anketa. Korisnik koristi uređaj izgrađen na hardveru opisanom u drugom paragrafu odeljka 1 (videti takođe sliku 7) da skenira stvarnu scenu i objekat registracije. Tokom te faze, sistem automatski uči i izračunava prirodne markere u 3D dok korisnik skenira okolinu krećući se okolo. Čim korisnik počne da vrši anketu, mora da uhvati i objekat registracije (videti odeljak 2.1.3.2) kako bi automatski procenio razmere, poreklo i orijentaciju okoline. Kada se to postigne, korisnik može da nastavi da skenira ostatak scene kako bi napravio najbolji moguć i 3D oblak tačaka prirodnih markera (prirodni marker je tačka obeležja nevidljiva ljudskom oku i koju izračunavaju naši algoritmi). Što se ova anketa detaljnije postigne, to ć e konačni rezultat biti bolji. Anketni deo je najvažniji zadatak od svih i veoma je zahtevan.
[0050] Drugi prolaz je prać enje filmske kamere (videti odeljak 2.1.4) koje se vrši sa uređaja za pra ć enje koji je postavljen na filmsku kameru. Primenjuju se različite konfiguracije, u skladu sa opisom prethodnog odeljka pod naslovom „Hardver“ i prema različitim situacijama. Ovaj korak je potpuno automatski i obično ne zahteva nikakvu ljudsku interakciju.
2.1.2 Pregled algoritma
[0051] Tehnologija koja je ovde opisana je okvir proširene stvarnosti zasnovana na tehnici fuzije više senzora (videti odeljak 2.3).
[0052] Zaista, ne oslanja se samo na uobičajene podatke o optičkom toku za prać enje kamere i umetanje virtuelnog objekta. Takve tehnike su u mnogim slučajevima pokazale svoja naučna i praktična ograničenja. Na primer, ako korisnik sakrije kameru koja se koristi za prać enje, pra ć enje ne uspeva i gubi se. Potpuno isti problem je ako kamera ukaže na region koji nije pregledan (pogledajte odeljak 2.1.3). Štaviše, čak i ako se filmska kamera uopšte ne pomera, i dalje postoje neizbežni problemi sa blagim kolebanjem zbog tačnosti otkrivenih prirodnih markera izračunatih čistim algoritmom vizuelnog prać enja. Filtriranje podataka delimično rešava problem, ali nikada ne ć ete dobiti savršeno stabilan virtuelni objekat, posebno kada koristite veoma dugačko fokalno sočivo. Kako naša tehnologija koristi druge senzore da zna da li se kamera kreć e ili ne, naš algoritam za pra ć enje nema taj problem.
[0053] Uobičajene tehnike optičkog toka kao što su SLAM[9], PTAM[8], RSLAM[13], itd. koriste informacije sadržane u video snimku snimljenom kamerom da bi aproksimirali njegovu poziciju i orijentaciju. Naša tehnologija ima sličan pristup za svoj deo vizuelnog prać enja (koji se naziva vizuelno pra ć enje), samo što s jedne strane srž pra ć enja nije jednostavna pretraga ključnog kadra kada se izgubi, a sa druge strane koristi sve podatke 7 dostupnih senzora (jedna filmska kamera, dve kamere za svedoke, žiroskop, akcelerometar, magnetometar i senzor za preciznu orijentaciju kamere) i 3D senzor za pozicioniranje.
[0054] Koristimo prošireni Kalmanov filter (EKF, videti odeljak 2.3.2) [7, 21] da integrišemo sledeć e senzore: žiroskop, akcelerometar, senzore magnetometra i kamere za svedoke. EKF tehnika je srce našeg softvera i sav algoritam predviđanja/korekcije je zasnovan na metodi spajanja podataka koja omoguć ava da se koristi najbolje od svakog senzora. Ovo pruža robusnost bez premca u jednostavnim i kritičnim slučajevima gde sve druge tehnike ne uspevaju. Zaista, kada je senzor izgubio trag (zapravo što znači da njegova merenja više nisu pouzdana), EKF je i dalje u stanju da dobije procenu položaja/orijentacije spajanjem podataka drugih pouzdanih i preostalih senzora. Pored toga, pošto svaki senzor ima nivo poverenja, to utiče na algoritam spajanja kako bi se sprečilo da sistem koristi netačne informacije. Na primer, običan žiroskop ima prirodnu manu zvanu drift koja ima tendenciju da promeni svoju orijentaciju čak i kada se ne kreć e. Što više vremena prolazi, to više grešaka generiše žiroskop. Korekcija drifta žiroskopa se vrši korišć enjem vizuelnog pra ć enja, a vizuelno pra ć enje se koriguje žiroskopom kada njegova greška postane prevelika. EKF je tako u stanju da pronađe najbolju poziciju i rotaciju filmske kamere predviđanjem kretanja filmske kamere koristeć i prethodne ispravno procenjene vrednosti, a zatim ispravlja svoje predviđanje prema novim merenjima datim od strane svih senzora.
[0055] Štaviše, već ina čistih optičkih tehnika pra ć enja koristi ključne kadrove (tj. snimke) da locira kameru kada se izgubi. Ako nemate ključni kadar trenutnog prikaza na koji pokazujete kamerom, oporavak neć e uspeti. Robusnije tehnike su naravno upotrebljive kao SIFT[11] ili SURF[1] tehnike za rešavanje slučajeva gde ste jednostavno vertikalno rotirali kameru, na primer. Zaista, pošto svi ovi sistemi upoređuju trenutni okvir sa najsličnijim ključnim kadrom, prilično je interesantno koristiti invarijantne deskriptore rotacije i skaliranja da bi se dobilo bolje i brže podudaranje. Međutim, ako nemate nijedan ključni kadar sa pozicije na kojoj se nalazi kamera, nema načina da vaš sistem povrati svoju poziciju. Naša tehnika uzima najbolje od svake tehnike (imajte na umu da koristimo ORB[18] kao deskriptore ključnih tačaka) i istovremeno pokreć emo tri različite niti da povratimo izgubljeno pra ć enje (pogledajte odeljak 2.1.4.4 za više detalja). Proces oporavka se može posmatrati kao globalni algoritam zasnovan na probabilističkom i stohastičkom pristupu. Kada se prać enje izgubi, 3D prostor se trenutno uzorkuje oko najnovijih poznatih pozicija koristeć i elipsoidni pristup i svi ključni kadrovi unutar tog elipsoida se upoređuju sa trenutnim ključnim kadrom. Štaviše, svi ostali podaci koji potiču od preostalih senzora (žiroskop, akcelerometar, magnetometar, 3D senzor dometa) se i dalje spajaju u pretrazi omoguć avaju ć i našem softveru da razjasni sve verodostojne dobre kandidate. Naravno, ako nijedan ključni kadar nije dovoljno dobar kandidat, onda ć e sistem koristiti sve ostale senzore osim vizuelnog prać enja da izračuna aproksimaciju trenutne pozicije. Očigledna posledica te tehnike je da naša tehnologija omoguć ava korisniku da usmeri kameru na mesto koje nije ispitano bez gubitka pra ć enja. Međutim, naši algoritmi nikada ne prestaju da uzorkuju 3D prostor da bi pronašli ključni kadar (tj. bolju aproksimaciju RT) koji odgovara trenutnom snimku. Ako se vizuelno prać enje povrati, svi ostali podaci senzora se koriste i ažuriraju da bi se ispravile sopstvene informacije pored informacija kamere (pogledajte prošireni Kalmanov filter, odeljak 2.3.2).
[0056] Najnovija (tj. regularna) verzija naše tehnologije je stereoskopska (pogledajte odeljak 2.5) što znači da koristi dve kamere za svedoke razmaknute za 21 centimetar (vidi sliku 6). Ova tehnologija ne zahteva nikakvo izračunavanje homografije ili bilo kakav ručni prevod jedne kamere svedoka (pogledajte odeljak 2.1.3) da bi se izračunale informacije o dubini prirodnih markera otkrivenih u video zapisu. Ovaj metod pojednostavljuje naš glavni algoritam tako što u već ini slučajeva čini fazu ankete zastarelom (pogledajte odeljak 2.5). Kao i u monoskopskoj tehnici, samo vizuelno prać enje ima potpun pristup podpikselima koji omogu ć ava sistemu da prati poziciju na kameri na 4 različita nivoa piramide slike (pogledajte sliku 4), dok sve druge tehnologije zasnovane na optičkom toku pogrešno koriste pikselski pristup na samo dve različite rezolucije slika kada traže tačke karakteristika.
2.1.3 Prva Faza: Anketa
2.1.3.1 Korak inicijalizacije
[0057] Prvi korak je da korisnik uradi fizičko/ručno horizontalno prevođenje sa uređajem kako bi snimio dva kadra. Algoritam automatski detektuje prirodne markere (tj. tačke karakteristika) na slikama koristeć i metod detekcije uglova koji se zove FASTER[17]. Uparivanje se primenjuje da bi se pronašla korespondencija između para tačaka. Za jednu sliku, sve detektovane tačke moraju ostati na istoj 3D ravni da bi se mogla izračunati tačna homografija od te ravni do slike. Ovo daje rotaciju i translaciju kamere u odnosu na 3D ravan. Druga slika prati isti princip i dobijamo drugu poziciju i prevod kamere za trenutnu sliku. Sada je moguć e izračunati transformaciju od jedne kamere do druge i dobiti prvi 3D oblak tačaka.
[0058] Hajde da razmotrimo dva pogleda (levo i desno) snimljena kamerom. Za svaki pogled kamera svedoka je ciljala tačku M koja se nalazi u avionu. ML i MR su perspektivne projekcije M u levom i desnom prikazu.
[0059] Možemo napisati:
pri čemu:
• R je matrica rotacije kojom se M<L>rotira u odnosu na M<R>.
• N(A, B, C) je vektor normale na ravan kojoj pripada tačka M.
• D je rastojanje do ravni kao što je Ax By Cz D = 0.
[0060] Rešavanje za H u jednačini 1 daje:
[0061] Naš algoritam zahteva najmanje 4 koplanarne tačke da bi izvršio ispravnu inicijalizaciju. Sasvim je uobičajeno da mi zapravo imamo mnogo više vrednosti od toga. Zbog toga izračunavamo n moguć ih homografija koriste ć i 4 tačke iz celog skupa tačaka za svaku homografiju. Zatim koristimo RANSAC[4] metod da zapravo pronađemo najbolju moguć u homografiju i napravimo skup unutrašnjih i spoljašnjih kandidata. Spoljašnji ć e biti odbačeni, dok ć e unutrašnji biti prečišć eni Gauss-Njutnovom metodom minimiziraju ć i greške reprojekcije tačaka u dva pogleda. Pošto je najbolja homografija izračunata iz filtriranog skupa tačaka, sada je potrebno proceniti matrice rotacije i translacije između levog i desnog prikaza. Ovo se lako postiže korišć enjem dekompozicije singularnih vrednosti na dve ortogonalne matrice U, V i dijagonalnu matricu Y. Matrica H se sada može napisati kao: H = UYV<t>.
sa:
[0062] Pošto se ne bavimo neodređenim slučajevima homografije, jednačina 3 ima dva mogu ć a rešenja:
• Rešenje 1:
sa
λ1, λ2i λ3su sopstvene vrednosti matrice H iz jednačine 2, sortirane kao što su λ1, λ2i λ3i λ1= λ2= λ3.
• Rešenje 2:
sa
λ1, λ2i λ3su sopstvene vrednosti matrice H iz jednačine 2, sortirane kao što su λ1, λ2i λ3i λ1= λ2= λ3.
[0063] Pored skupa tačaka karakteristika, algoritam takođe hvata dve ključne pozicije kao snimke onoga što kamere za svedoke vide sa svake tačke gledišta. Prikupljanje dodatnih vrednosti je uvek zbir tri komponente: nove otkrivene tačke, ključne pozicije i zakrpe, koje su opisane u odeljku 2.1.3.3.
[0064] Na kraju, imajte na umu da u slučaju stereoskopskog pristupa (pogledajte odeljak 2.5), faza istraživanja postaje automatska i trenutna. Ručna anketa se i dalje može koristiti za izuzetno složene slučajeve (eksperimentalno odlučeno na setu), ali ovo ostaje anegdotično.
2.1.3.2 Automatska razmera, poreklo i orijentacija 3D okoline
[0065] Tokom monoskopskog snimanja, nije moguć e izračunati tačno poreklo, razmeru i orijentaciju okoline jer bi to zahtevalo prethodno poznavanje stvarnog objekta uključujuć i njegov tačan oblik i dimenzije, ili rastojanje koje se koristi između ova dva prikaza za izračunavanje homografije. Imajte na umu da vam u ovom poslednjem slučaju ovo ionako ne bi dalo poreklo ili orijentaciju okoline. Već ina sistema ne uzima u obzir taj deo. Često traže od korisnika da ručno izvrši skalu unosom dimenzija 3D objekta vidljivog na video snimcima. Druge opcije su da korisnik skalira 3D virtuelne likove u okviru određenog softvera za modeliranje/animaciju tokom snimanja i takođe ih pravilno poravna sa stvarnim svetom. Međutim, svaka greška na skali – čak i mala – ima dramatičan uticaj na kvalitet finalnog kompozita i zato se tako pažljivo postiže u našoj tehnologiji (vidi dole). Jedna od najčešć ih uočenih posledica lošeg skaliranja je oseć aj za korisnika da virtuelni objekti klize po zemlji, umesto da ostanu savršeno vezani za nju.
[0066] Predlažemo novi metod koji zahteva da se u scenu stavi vlasnički objekat registracije kada se vrši anketa. Ovaj objekat se automatski detektuje jer ima veoma poznat oblik, a poznate su i sve njegove dimenzije. Uopšte nije potrebna interakcija korisnika.
[0067] Naš objekat registracije je napravljen od nekoliko delova koji su u suštini sfere i kraci kao što je prikazano na slici 3. Sfere su ključni delovi tog objekta u našem sistemu, jer omoguć avaju koriš ć enje algoritama za detekciju mrlja za prepoznavanje šablona kroz video. Centri gravitacije projektovanih sfera (tj. krugova) se zatim izračunavaju i pošto tačno znamo dimenzije i rastojanje između svake sfere, sistem je u stanju da napravi veoma preciznu skalu za okolinu. Takođe imamo planarnu verziju registracionog objekta (pogledajte desnu sliku na slici 5), koja je često pogodnija za premeštanje sa jednog mesta na drugo na stvarnoj sceni.
[0068] Kada se ovo postigne, korisnik može na primer da stavi virtuelni objekat visok 1,80 m u pravi video i osigura da ć e zaista izgledati tako visoko i ispravno. Drugi pristupi ne uspevaju da postignu takav kvalitet zbog ručnog aspekta zadatka.
[0069] Automatsko skaliranje je zapravo nešto što se radi tokom samog istraživanja, ali kako se to dešava na početku ankete, važno je da se to smatra i korakom inicijalizacije. Izračunata skala se zaista koristi u narednim koracima ankete da bi se napravio tačan skup 3D prirodnih markera. Pogledajmo sada detaljno samu anketu.
2.1.3.3 Proces istraživanja i pravljenje oblaka tačaka
[0070] Istraživanje zahteva od korisnika da se kreć e kroz scenu koriste ć i uređaj za snimanje. Kako sistem uvek računa nove vrednosti u skladu sa poverenjem koje ima u prethodno naučene, anketa je uvek izgrađena na način da kamera svedoka vidi dovoljno vrednosti iz prethodnog skupa za dodavanje novih kandidata.
[0071] Tokom pomeranja kamere svedoka, algoritam kreira mapu napravljenu od tri seta podataka naučenih u 4 različita nivoa piramide slike (pogledajte sliku 4):
• Ključna pozicija. Ključna pozicija sadrži snimak u 4 različite rezolucije onoga što kamera vidi. Donji nivo piramide je originalna rezolucija kamere svedoka (640 X 480 u našem slučaju). Tu ključnu poziciju algoritam takođe koristi da povrati poziciju kamere kada prać enje pođe pogrešno.
• Skup tačaka 2D karakteristika koje procenjuje FASTER[17] na svakoj slici ključne pozicije. FASTER je veoma poznat algoritam čija je glavna karakteristika da bude algoritam detektora ugla. Svaka ključna tačka takođe ima priložen ORB deskriptor kako bi se obezbedio mnogo brži oporavak kada izgubite prać enje (pogledajte odeljak 2.1.4.4).
• Skup zakrpa (16 X 16 2D tekstura) centriranih na svaku karakterističku tačku otkrivenu prethodnim korakom. Tokom detekcije novih tačaka, ne postoji način da se krene od jednog prikaza da se izračuna njihova dubina. Za to su zakrpe korisne. Epipolarna pretraga (pogledajte sliku 2, pravougaonik Konstruktor oblaka tačaka) može se primeniti kroz 4 slike ključnih pozicija pronalaženjem korespondencije između dve zakrpe u dve što bliže ključnoj poziciji. Kada je tačka (tj. zakrpa) otkrivena u oba prikaza, tada je moguć e izračunati tačku 3D karakteristike. Skup tačaka 3D obeležja naziva se mapa. Takođe je važno shvatiti da se ova pretraga između ključnih pozicija A i B postiže prelaskom na jednake nivoe piramide A i B, ali i podnivo piramide B (vidi sliku 4).
[0072] Tokom izrade mape, kamera se pomera u skladu sa pomeranjem operatora snimanja. U ovom trenutku, naš softver zna samo parametre kamere koji su prethodno izračunati (tj. prać eni). Da bismo izračunali novu poziciju kamere, potreban nam je trenutni okvir i 3D oblak tačaka prirodnih markera. S jedne strane, FASTER izračunava skup 2D markera na nekoliko nivoa piramide slike (trenutni nivo i trenutni nivo+1), a sa druge strane, 3D oblak tačaka se ponovo projektuje na trenutni kadar. Ovaj poslednji korak se može postić i samo ako znamo položaj kamere dok se tačke ponovo projektuju sa njene tačke gledišta. Ali to je upravo ono što pokušavamo da izračunamo. Zbog toga naš softver koristi model konstantne brzine povezan sa informacijama koje pruža naš 9-DOF senzor (pogledajte odeljak 2.3) da predvidi sledeć u poziciju kamere koriste ć i prethodno tačno izračunatu poziciju. Koriste ć i to predviđanje, 3D oblak tačaka se može ponovo projektovati na trenutni okvir i primenjuje se algoritam za podudaranje tačaka da se pronađe korespondencija između 2D tačaka koje je FASTER detektovao i projektovanih tačaka 3D oblaka tačaka. Greška između dva skupa markera je minimizirana korišć enjem Levenberg-Marquardt [10,12,15] algoritma jer je poznato da je najbolji algoritam optimizacije za takvu vrstu problema. Ako je broj podudarnih tačaka podeljen ukupnim brojem projektovanih tačaka već i od datog praga, sistem je u stanju da uspešno prati kameru (pra ć enje je dobro) i dozvoljeno mu je da dodaje nove ključne pozicije. 2D tačke za koje FASTER nije pronašao podudaranje u 3D oblaku tačaka se čuvaju u memoriji za kasnijeg korisnika, kao i njihove povezane 2D 16 X 16 zakrpe teksture. Od njih ć e biti potrebno da generišu nove 3D karakteristike (pogledajte slede ć i pasus).
[0073] Nove ključne pozicije (i nove karakteristike) se dodaju ako su ispunjena 3 uslova. Prvo, kao što smo rekli u prethodnom paragrafu, prać enje mora biti dobro, što znači da je dovoljno precizno ili da se ne gubi. Drugo, ključna pozicija se dodaje svakih 30 kadrova (1 u sekundi) kako bi se izbeglo stvaranje prevelikog skupa podataka. Treć e, nova pozicija ključa mora biti na minimalnoj udaljenosti od 10 cm od najbliže pozicije ključa. Ovo sprečava sistem da zapamti dodatne tačke kada je stacioniran.
[0074] Kada su svi ovi testovi uspešno prošli, softver može dodati novi snimak i nove 3D karakteristike. Prvi korak je da ponovo koristite FASTER da biste otkrili nove relevantne 2D tačke u novom kadru (snimku). Pošto imamo skup neuporedivih 2D karakteristika koje dolaze sa trake, sada pokušavamo da uskladimo "stari" 2D skup tačaka i novoizračunati. Ovo se radi klasičnom epipolarnom pretragom koristeć i 2D zakrpe teksture novog skupa tačaka. Zakrpe se pomeraju duž epipolarnih linija (vidi sliku 2) pokušavajuć i da se poklapaju sa skupom 2D zakrpa „starog“ skupa tačaka. Zahvaljujuć i epipolarnom ograničenju, mogu ć e je izračunati dubinu 3D tačke koja dolazi iz podudaranja dve 2D tačke. Ovo je zapravo slično koraku uparivanja u fazi homografije (videti odeljak 2). Ako su nove tačke dodate na kartu, primenjuje se lokalno prilagođavanje skupa. Nakon što je precizirao položaj i rotaciju kamere koristeć i ove nove karakteristike, Levenberg- Marquardt algoritam minimizacije se koristi za preciziranje 3D pozicije svih karakteristika. Ovo se radi na prozoru od k 1 kadrova, što znači da minimizacija uzima u obzir trenutni snimak plus k najbližih da bi se pravilno procenila trenutna pozicija i rotacija kamere (lokalno podešavanje paketa). Vrednost k može biti ili empirijski određena ili adaptivno izračunata prema datom pragu greške za algoritam minimizacije.
[0075] Pored podešavanja lokalnog skupa, globalno prilagođavanje skupa se takođe primenjuje na sve postojeć e ključne pozicije. Kako skup ključnih pozicija postaje sve već i i ve ć i tokom vremena, sistemu je potrebno sve više i više vremena da izvrši globalno prilagođavanje. Ako se dodaju nove ključne pozicije, a naš softver nije imao dovoljno vremena da izvrši lokalna i/ili globalna podešavanja paketa, prilagođavanja se onda jednostavno poništavaju da bi se ostavio prioritet dodavanju novih ključnih pozicija. Oni ć e se ponovo primenjivati čim se postigne dodavanje novih ključnih pozicija.
[0076] Kada postoji postoje ć i oblak tačaka, kamera se može pratiti. Ovo je opisano u slede ć em odeljku.
2.1.4 Druga faza: Prać enje filmske kamere
2.1.4.1 Geometrijska kalibracija kamere
[0077] Kalibracija kamere ima nekoliko ciljeva. S jedne strane, to nam daje matematičku relaciju da opišemo kako se slika stvara na senzoru. Sa druge strane, on izračunava matricu transformacije između 3D tačaka i njihove projekcije na ravan slike kamere.
[0078] Ovaj važan preduslov procesa istraživanja i prać enja znači da moramo da izračunamo dve različite vrste svojstava: unutrašnje i ekstrinzične parametre. Intrinzični parametri su povezani sa svojstvima kamere i objektiva i kreć u se u skladu sa načinom na koji su fizički izgrađeni. Oni obuhvataju format slike, rastojanje između optičkog centra kamere i ravni slike i glavnu tačku. Format slike je napravljen od dva faktora skale koji se odnose na piksele i udaljenost. Glavna tačka je projekcija optičkog centra na ravan slike (koja je idealno u sredini slike). Pored toga, neka sočiva zahtevaju da se njihovo optičko izobličenje izračuna i uzme u obzir za prać enje. Tokom procesa kalibracije, kamera uzastopno snima ravnu površinu koja ima nekoliko kružnih šara (pogledajte sliku 5). Za sve pozicije, ekstrinzični parametri (tj. pozicija i rotacija kamere) i unutrašnji parametri (uključujuć i optičku distorziju) se izračunavaju pomo ć u Levenberg- Marquardt algoritma minimizacije koji minimizira grešku reprojekcije između svih snimaka.
[0079] Ovaj proces je veoma poznata tehnika zasnovana na delima Devernaia i Faugerasa[3].
2.1.4.2 Neutralizacija filmske kamere
[0080] Globalni sistem razvijen ovde zahteva postavljanje uređaja za prać enje direktno na ciljanu filmsku kameru. Položaj i orijentacija kamere svedoka se procenjuju korišć enjem tehnike pra ć enja prethodnog opisivača. Međutim, postoji problem razmere korišć enjem istog obrasca i za filmske i za kamere za svedoke. Zaista, pošto naše kamere za svedoke koriste sočiva od 180 stepeni, kružni oblici u obrascu kalibracije imaju tendenciju da izgledaju zaista mali u objektivu kamere svedoka, što ih čini teškim za otkrivanje.
[0081] Napravili smo sopstvenu tabelu kalibracije koja je zapravo napravljena od dva različita uzorka veličine i kontrasta. Jedan deo grafikona ima čisto crne krugove na čisto beloj pozadini (za kamere za svedoke). Drugi deo grafikona je napravljen od čisto belih krugova na čisto crnoj pozadini (filmska kamera). Zatim koristimo veoma jednostavan detektor obrazaca da pronađemo i obrasce za svedoka i za filmske kamere. Kao što znamo tačno relativno pozicioniranje oba obrasca, položaj i rotacija filmske kamere se mogu pronać i "propagiranjem" izračunate pozicije i rotacije kamere svedoka i obrnuto. Zaista, pošto su obe kamere direktno povezane zajedno, u moguć nosti smo da koristimo algoritam za postavku za precizno izračunavanje 3D neutralizacije (R, T) između njih. Razvili smo algoritam postavljanja na osnovu prethodno opisanih kružnih obrazaca. Obe kamere odvojeno prepoznaju obrasce čije su tačne veličine, oblici i položaji poznati, čime se stvara trivijalni matematički odnos (rotacija i translacija) između kamere svedoka i filmskih kamera.
2.1.4.3 Faza prać enja
[0082] Odvajanje ankete od procesa prać enja je samo pragmatičan način da se opiše kako se sistem koristi na setu. Zaista, proces prać enja se ne razlikuje od pra ć enja opisanog na slici 2 i koriš ć enog tokom ankete. Međutim, koristi jednostavniji uređaj (vidi sliku 6) koji je prilično blizak uređaju za istraživanje, osim što ne uključuje ekran osetljiv na dodir iz očiglednih razloga.
[0083] Pravougaonik vizuelnog prać enja na slici 2 prikazuje kako se pronalazi podudaranje između 2D prirodnih markera koje je FASTER detektovao u novom okviru i postojeć eg 3D oblaka tačaka. Zakrpe 2D teksture povezane sa svakim prirodnim markerom i koje potiču iz oba seta podataka linearno se porede. Kada su sve tačke obeležja obrađene, primenjuje se Gaus-Njutnov algoritam da bi se pronašlo najbolje moguć e podudaranje i izračunala pozicija i orijentacija kamere. Takav algoritam minimizacije obično zahteva oko 10 iteracija da bi došao do rešenja. Da bismo poveć ali robusnost kriterijuma za minimiziranje, koristimo statističku Tukey M-Estimator (procenu tipa maksimalne verovatnoć e) [6]. Ovo takođe osigurava da konvergenciju ne poremete odstupnici.
[0084] Svako prać enje se vrši dva puta i to na dva različita nivoa piramide pre dobijanja konačnih parametara kamere. Prvo, konvergencija algoritma se znatno poveć ava izračunavanjem aproksimacije položaja i orijentacije kamere kroz grubi nivo piramide slike i korišć enjem podskupa prirodnih markera. Drugo, isto izračunavanje se postiže na daleko već em skupu (oko 20 puta ve ć em) i spaja se sa prethodnom aproksimacijom da bi se dobio konačni tačan rezultat.
2.1.4.4 Prać enje kvarova i oporavak
[0085] Tokom prać enja kamere na stvarnom setu, mogu se desiti mnoge situacije u kojima se vizuelno pra ć enje izgubi. Ovo se često dešava, na primer, kada ljudi ostanu ispred kamere svedoka ili je u najmanjem jednostavno sakriven predmetima. Za sve slučajeve kada izgubimo vizuelno prać enje, istovremeno se pokre ć u tri različite trake za oporavak i prihvata se ona koja prva dobije oporavak.
[0086] Koristeć i funkciju predviđanja proširenog Kalmanovog filtera (pogledajte odeljak 2.3.2), mogu ć e je prvo pokušati da se povrati pozicija kamere počevši od pretrage iz EKF predviđenih parametara. Zaista, pošto je EKF algoritam predviđanja i korekcije, on uvek pokušava da pogodi koja ć e biti slede ć a pozicija kamere pre nego što se ona zapravo pomeri na tu poziciju. Kada je predviđanje tačno, moguć e je posti ć i trenutni oporavak. U praksi, to predviđanje funkcioniše veoma dobro kada je kamera svedoka skrivena i kada sistem prati pomoć u IMU. Međutim, često ne uspeva jer je takođe došlo do značajnog prevođenja filmske kamere dok su kamere za svedoke sakrivene.
[0087] Drugi nivo oporavka je veoma različit. Svaka tačka obeležja ima pridružen deskriptor invarijante rotacije, prateć i tehniku ORB (Oriented FAST and Rotated BRIEF) [18]. Prvo se oslanja na čuvenu tehniku FAST[16] za izračunavanje karakteristika na više skala (tj. na različitim nivoima piramide slike, videti sliku 4) povezanih sa Harisovim rezultatom [5]. Orijentacija deskriptora se izračunava pomoć u težišta intenziteta. Drugi deskriptor je rBRIEF, što je BRIEF deskriptor [2] rotiran prateć i orijentaciju ključne tačke. Koriste ć i ova dva deskriptora, naša tehnika je u stanju da se oporavi sa pozicija gde obične tehnike vizuelnog prać enja ne uspevaju. Na primer, recimo da izgubimo vizuelno prać enje iz bilo kog razloga. Pretpostavimo da sada prevedemo i rotiramo kameru za 90 stepeni oko Z ose dok se još uvek gubi. Trenutna slika koju vidi kamera nikada ranije nije zapamćena, ali još uvek ukazuje na pravac u kome dodajemo ključne pozicije i ključne tačke koje smo ranije zapamtili. Međutim, pošto običan proces oporavka nije nepromenljiv u rotaciji, ti sistemi ne uspevaju da povrate prać enje. U našem slučaju, upotreba deskriptora invarijantnih rotacije povezanih sa svakom ključnom tačkom omoguć ava brz oporavak (koriste ć i tehniku uparivanja grube sile) čim je filmska kamera već bila usmerena negde u tu poziciju (rotacija nije bitna).
[0088] Konačno, treć a traka oporavka je invanzivnija i računarski intenzivnija. Elipsoid (3D elipsa) je izgrađen oko poslednje poznate pozicije kamere. Taj elipsoid ima veličinu napravljenu od izračunate kovarijanse parametra, ali proširenog Kalmanovog filtera. Više uzoraka se zatim generiše unutar elipsoida prateć i kovarijansu greške EKF-a. Na taj skup se primenjuje RANSAC algoritam kako bi se pronašlo najbolje moguć e podudaranje za traženu poziciju i orijentaciju kamere.
2.2 Dinamički zum, fokus i iris
[0089] Tokom globalnog procesa prać enja, režiser ili direktor fotografije, na primer, može odlučiti da zumira ili fokusira lik/objekat u sceni. Naša tehnologija integriše nekoliko običnih enkodera kao što su oni koje je predložio Arri, ali je takođe u stanju da rukuje bilo kojim drugim enkoderom za snimanje vrednosti zuma, fokusa i irisa u realnom vremenu. Ovo omoguć ava dinamičko zumiranje i dubinu polja na setu.
2.3 Tehnika spajanja senzora
[0090] Sve čiste optičke zasnovane tehnike bez markera ne mogu da se prate u mnogim situacijama. Najčešć i slučaj je da nema dovoljno prirodnih markera u trenutnom prikazu kamere svedoka. U idealnim situacijama to se retko dešava jer korisnik pazi da, na primer, ne sakrije sočivo rukom. Na stvarnim setovima, ta situacija se često dešava jednostavno zato što snimateljska ekipa često treba da promeni sočiva, modifikuje kameru, očisti sočivo, premesti se na drugo mesto snimanja, itd. Na redovnoj bazi markera i bez markera (zasnovano na optičkom toku) tehnika, ovo sprečava sistem za prać enje da pronađe dobru procenu položaja i rotacije kamere.
[0091] Napravili smo metod fuzije senzora koji automatski koriguje poziciju i rotaciju kamere svedoka koristeć i više senzora: kamere za svedoke, žiroskop, akcelerometar i magnetometar. Ta tehnika je suština naše tehnologije.
[0092] Prvi korak je kalibracija sistema, što znači kalibrisanje 9-DOF IMU-a u odnosu na kamere za svedoke. Kritični je korak da se osigura da svi senzori zaista rade na istoj osnovi. Odnos između 9-DOF senzora i kamera za svedoke je blizak tehnici ruke-oko[20], ali smo dodali nekoliko zanimljivih naučnih doprinosa kako bismo ga uklopili sa našim algoritmom za prać enje.
2.3.1 Kalibracija kamere svedoka IMU
[0093] Hajde da razmotrimo transformaciju RIMU→ C koja izračunava rotaciju od 9-DOF senzora (IMU) do jedne od dve kamere svedoka (C). RIMUje poznat na svojoj lokalnoj osnovi, a RC je takođe poznat u svojoj lokalnoj osnovi. Cilj je rešiti RIMU→Cza RC= RIMU→C· RIMU.
[0094] Obezbeđeno je da RIMU→Cuvek bude konstantan jer se odnos između IMU-a i kamera ne menja tokom vremena (obe su pričvršć ene na statičku traku kamere).
[0095] Stoga je moguć e napisati za ti, i ∈ [0, n]:
[0096] Iz prethodnih jednačina možemo zaključiti:
sa odnosima:
[0097] Merenje rotacije koje daje žiroskop i vizuelno prać enje bi trebalo da budu isti. Stoga je logično smatrati da RIMUi RCopisuju iste uglove rotacije ali u različitim osnovama. Koristeć i log mapu matrice rotacije u algebri Lie definisanu kao Log : SO(3)→ so(3), moguć e je konvertovati matricu RCu reprezentaciju ugla osovine (rc,α):
pri čemu je tr(Rc) trag matrice kao što je
Sada možemo da zapišemo sledeć i preodređeni sistem jednačina:
[0098] Kao i za bilo koji preodređeni sistem, moguć e je rešiti prethodnu pravougaonu matricu koriste ć i dekompoziciju singularne vrednosti (SVD) kao S = UσV<t>, sa U m x n matricom sopstvenih vektora S · S<t>, V n x n matrica sopstvenih vektora S<t>· S i D n x n dijagonalna matrica uređenih singularnih vrednosti S.
[0099] Prethodno rešenje jednačine je podložno šumu koji dolazi od merenja. Zbog toga primenjujemo Levenberg-Marquardt šemu minimizacije da bismo minimizirali grešku:
[0100] Sada kada imamo matematički odnos između IMU-a i kamera za svedoke, moguć e je ubaciti sva merenja u prošireni Kalmanov filter kako bi se izdvojilo najbolje od svakog senzora i izračunala rotacija i translacija filmske kamere.
2.3.2 Prošireni Kalmanov filter
[0101] Prošireni Kalmanov filter (EKF) je veoma poznata tehnika u oblastima istraživanja vazduhoplovstva i robotike za spajanje različitih podataka koji dolaze od više različitih senzora. U suštini se koristi za procenu parametara nelinearnog sistema iz bučnih merenja izračunavanjem greške procene i primenom dve faze; predviđanje i korekcija. U fazi predviđanja, Kalmanov filter izračunava nove parametre kao i srodnu grešku u vremenskom koraku koristeć i parametre i grešku procenjenu u prethodnom vremenskom koraku. Faza korekcije ažurira predviđanje koristeć i nove bučne mere. Te nove mere omoguć avaju da se izračunaju novi procenjeni parametri i greška iz predviđenih parametara i greške. Ako je greška već a od datog praga, parametri se ispravljaju.
[0102] U našem slučaju ovde, EKF je razvijen na veoma specifičan način pošto imamo višestruka merenja koja se odnose na 3D rotacije (žiroskop kamere za svedoke) i ona se ne mogu lako interpolirati.
[0103] Ideja EKF-a za našu tehnologiju je da se svakom merenju (kamera za svedoke, žiroskop, magnetometar, akcelerometar) stavi neka vrsta vrednosti pouzdanosti i da se iterativno koriguje trenutna procenjena pozicija i rotacija pomoć u senzora koji dobija najbolju pouzdanost rezultat. U praksi, EKF je malo komplikovaniji od toga i može se matematički opisati kao algoritam predviđanja-ispravke za nelinearne sisteme. S obzirom na vektor stanja ^ X(t)u vremenskom koraku t, algoritam primenjuje trenutni fizički model naših jednačina kretanja da bi predvideo novo stanje vektora<^>X(t)koje postaje<^>X(t)<Δt>. Faza korekcije generiše novi vektor stanja<^>X(t+Δt) u tom trenutku t+Δt.
[0104] EKF model koji se u našem slučaju može napisati na sledeć i način:
pri čemu je h jednačine stanja za naše prikazivanje i Xtje vektor translacije, rotacije, translacione brzine i ugaone brzine u globalnoj bazi, a f funkcija ažuriranja vektora stanja. B je globalni šum u sistemu.
Definicija h
[0105]
[0106] Ako s jedne strane posmatramo merenja koja dolaze od vizuelnog prać enja bez markera (tj. kamere svedoka ovde) kao hsvedoka, a sa druge strane merenja koja dolaze iz IMU kao hIMU, možemo re ć i da je h napravljen od dva tipa opažanja, hsvedokai hIMU. Po definiciji, h je trivijalna funkcija i njen opšti oblik je dat identifikacijom: Ysvedoka(t) = X(t) i YIMU(t) = X(t). U zavisnosti od vrste senzora koji šalju mere, sada možemo napisati dve različite verzije h i tako prepisati jednačinu 11 za slučaj vizuelnog prać enja kao:
[0107] Ysvedoka(t).{α ∈ T, R, V, Ω} su vidljive vrednosti
vizuelnog pra ć enja u vremenskom koraku t za translaciju (T, u metrima), rotaciju (R, u radijanima), brzinu (V, u m · s<-1>) i ugaonu brzinu (Ω, u rad · s<-1>).
[0108] U slučaju kada je senzor žiroskop, jednačina 11 postaje:
[0109] YIMU(t).{α ∈ R, Ω} su opažanja IMU u vremenskom koraku t za rotaciju (R, u radijanima) i ugaonu brzinu (Ω, u rad · s<-1>). Zaista ne postoji izračunljiv prevod ili brzina pomoć u senzora sa 9-DOF.
Definicija f
[0110]
pri čemu je<^>X(t)<Δt>predviđeni vektor stanja u vremenskom koraku t Δt, a<^>X(t) procenjeni vektor stanja u vremenskom koraku t.
[0111] Funkcija f je funkcija ažuriranja vektora stanja i definisana je kao:
[0112] Imajte na umu da funkcija redovnog ažuriranja Kalmanovog filtera nije upotrebljiva u našem slučaju jer se matrice rotacije ne mogu interpolirati i zapisati u linearnom obliku A · X B.
Korak predviđanja
[0113] Korak predviđanja je napisan korišć enjem definicije Kalmanovog filtera:
sa:
• matrica kovarijanse predviđene greške u vremenskom koraku t Δt,
• matrica konarijacije greške u vremenskom koraku t
• A prelazna matrica kao što je
, Atje jakobijanska matrica od f i izračunata je kao zbir konačnih
razlika
• Q je matrica kovarijanse 12 X 12 šuma vektora stanja. Šum vektora stanja translacije je heuristički stavljen na 1<e-2>, kao i šum vektora stanja rotacije na 1.e<-3>
Korak korekcije
[0114] Prateć i Kalmanovu definiciju, korekcija u našem slučaju je napisana kao:
sa:
• I matrica identiteta,
• K(t Δt) Kalmanov dobitak u vremenskom koraku t Δt,
• H je jakobijanska matrica funkcije h, a sama je hsvedokaili hIMUu zavisnosti od trenutno izabranog senzora.
U našem slučaju, jakobijan se izračunava kao zbir konačnih razlika:
• U(t Δt) je matrica kovarijanse merenja šuma trenutno izabranog senzora (kamera svedoka ili IMD). Ta vrednost se menja u zavisnosti od kvaliteta mere (vrednost poverenja). U slučaju vizuelnog prać enja, ono se oslanja na grešku pra ć enja ε:
Još je lakše odrediti U(t Δt) za IMU jer greške u buci direktno daje proizvođač za sve senzore. Prethodna jednačina je direktno zamenjena tim greškama.
• P(t Δt) je matrica kovarijanse greške u vremenskom koraku t Δt.
• V i Ω su matrični prikaz vektora brzine V i ugaone brzine Ω respektivno.
• Jsvedoka| IMU jednačina 20 je takođe napisana prema vrsti senzora:
• y(t Δt) je trenutno merenje koje daje izabrani senzor. y(t Δt).(α ∈ { R, T, V, Ω}) je merenje translacije, rotacije, brzine i ugaone brzine respektivno. J.( α∈ { R, T, V, Ω}) je poznata kao Kalmanova inovacija.
2.4 3D rekonstrukcija i dubinsko označavanje
[0115] 3D rekonstrukcija u realnom vremenu se postiže korišć enjem senzora 3D opsega integrisanog u našu traku kamere. Taj senzor dometa može biti strukturirani svetlosni uređaj (Microsoft Kinect, Asus Xtion na primer) ili kamera za vreme leta (kao što je, na primer, TigerEie kompanije Advanced Scientific Concept) takođe poznat kao Flash Lidar. Obe tehnike imaju ograničenja i naša tehnologija za sada koristi samo senzor kratkog dometa Asus Xtion. Kao i obično, potreban je korak kalibracije da bi se znala pozicija Asus Xtion-a u odnosu na kamere za svedoke. Jednostavno koristimo potpuno istu tehniku kao za kameru svedoka za snimanje sastava (pogledajte odeljak 2.1.4.2). Pošto senzor dometa ima kameru u nijansama sive, koristimo naš uobičajeni obrazac kalibracije da bismo ga otkrili u obe kamere: kameri senzora dometa i jednoj od naših kamera za svedoke. Taj proces je prilično jednostavan i sličan 2.1.4.2.
[0116] Senzor dometa se koristi u dve svrhe u našoj tehnologiji. S jedne strane, pomaže u brisanju loših tačaka karakteristika stvorenih daleko iza objekata, na primer. Jednostavna ponovna projekcija tačaka obeležja na mapu dubine senzora dometa može reć i da li je tačka obeležja tačna ili ne. Tokom stereoskopskog pra ć enja (pogledajte odeljak 2.5), svaka tačka stvorena epipolarnom geometrijom i dalje može biti bliže ili dalje od procene date epipolarnim linijama. Upoređujemo rekonstruisanu 3D tačku sa trenutnom vrednošć u njene reprojekcije u mapi dubine senzora opsega da bismo poboljšali njenu tačnost ili je jednostavno odbacili.
[0117] Druga upotreba senzora dometa se oslanja na samu mapu dubine. Pošto daje dubinu na maksimalnom dometu od 12 m, mi možemo da zaklonimo sve ljude (glumca) u setu unutar tog opsega virtuelnim likovima/objektima i obrnuto. Ovo se zove dinamička okluzije i podiže još jedan nivo realizma za vizuelne efekte kako u filmovima tako i u emitovanju uživo. Naša tehnologija koristi glavni izvor filmske kamere (ovo se takođe može postić i dodavanjem dodatne kamere za svedoke visoke rezolucije) da poboljša rezoluciju senzora dometa ponovnim projektovanjem dubine na filmsku kameru i prečišć avanjem rezultata (poboljšanje ivica). Takva tehnologija je u stanju da obezbedi dubinsko kucanje u realnom vremenu i na taj način eliminiše upotrebu vezivnog zelenog ekrana, posebno kada se koristi snažniji senzor dometa (Flash Lidar).
2.5 Stereoskopska tehnika bez markera
[0118] Prethodno opisana tehnika koja koristi monoskopski pristup zapravo nije dovoljno efikasna u stvarnim situacijama. Pošto zahteva da se poznati stvarni objekat koristi kao registracija za izračunavanje razmere, orijentacije i položaja okoline, često ga je teško koristiti na filmovima u kojima je mnogo ljudi uvek na vašem putu kada pokušavate da se registrujete (otkrijte) objekat. Ali glavno ograničenje tog monoskopskog pristupa je činjenica da zahteva pregled scene. Pošto se homografija mora koristiti za inicijalizaciju sistema, to podrazumeva da tehničar mora da dođe na set da bi počeo da ga pregleda. U praksi, ta operacija se retko postiže uspešno jer ljudi koji rade na setu nikada ne napuštaju mesto pre poslednjih sekundi. Izgradili smo stereoskopski pristup da bismo se oslobodili tog ograničenja i tako doneli potpuno originalan pojam trenutnog istraživanja i prać enja.
2.5.1 Trenutna anketa
[0119] Stereoskopska tehnika ugrađena u prać enje kamere je veliki korak napred u poređenju sa bilo kojom drugom tehnikom uključujuć i naš monskopski pristup koji je prethodno opisan. Zaista, upotreba 2 unapred kalibrisane kamere za svedoke donosi nekoliko prednosti. Prvi je Instant anketa. Za razliku od tehnike opisane u monoskopskom pristupu, za scenu nije potrebno prethodno snimanje. Pošto je tačna udaljenost između dve kamere za svedoke savršeno poznata, i pošto su sinhronizovane korišć enjem svojih internih genlock hardverskih mogu ć nosti, u mogu ć nosti smo da dobijemo oblak tačaka trenutno bez pomeranja trake. Homografija opisana u paragrafu se tada više ne koristi jer 3D rekonstrukciju tačke donose dve kamere svedoka kroz teoriju Stereovizije. Druga važna stvar je da nije potrebna ručna vaga. Tokom snimanja dva video toka, pokre ć emo Levenberg- Marquardt šemu minimizacije kako bismo minimizirali zbir greške piksela između projekcije 3D tačke procenjene epipolarnom geometrijom i tačke 2D karakteristike otkrivene u trenutnom videu.
2.5.2 Automatska registracija
[0120] Međutim, korišć enje trenutne ankete otvara novo pitanje a to je nemogu ć nost koriš ć enja registracionog objekta kao što je onaj koji je detektovan u monoskopskom pristupu. Glavni razlog tog ograničenja proizilazi iz činjenice da je traka kamere direktno pričvršć ena na filmsku kameru i nije mogu ć e tražiti od snimateljske ekipe da pomera svoju kameru kako bi zapamtili objekat registracije. Zbog toga smo dodali drugu automatsku registraciju koja ne zahteva da se na scenu doda nijedan fizički objekat registracije. Međutim, zahteva od korisnika da ima dve različite interakcije sa oblakom tačaka: izbor tačaka da kaže sistemu koja je tačka koju nameravamo da koristimo kao referentnu tačku i ručnu rotaciju oko Y (vertikalne) ose da bi se pravilno orijentisao CG sadržaj u odnosu na scenu.
[0121] Da bismo mogli da imamo samo ove dve veoma brze i veoma jednostavne interakcije korisnika, onda moramo da izračunamo sve ostale leve stepene slobode, što znači izračunavanje ortonormalne osnove koja ima savršeno vertikalnu Y osu i ispravno skaliranje. Naša tehnologija jednostavno koristi prednosti ugrađenog akcelerometra u traci za izračunavanje orijentacije gravitacije, odnosno Y ose. Magnetometar daje severni pravac i na taj način daje približan vektor koji nam omoguć ava da izračunamo ortonormalnu osnovu koriste ć i regularne unakrsne proizvode.
[0122] Skala je čak mnogo lakša za izračunavanje. Potpuno je instant i automatski i ne zahteva nikakvu interakciju korisnika. Pošto je rastojanje između kamera svedoka tačno poznato, sve 3D rekonstruisane tačke direktno imaju pravu skalu, tako da nema dodatnog objekta koji bi se detektovao kao u regularnim algoritmima čiste strukture iz pokreta (SFM).
2.5.3 Trenutno prać enje
[0123] Proces prać enja se malo razlikuje od onog opisanog za monoskopski pristup u odeljku 2.1.4.3. Svaka nova tačka je kreirana korišć enjem epipolarne geometrije koja obezbeđuje da su razmera i dubina 3D obeležene tačke uvek tačna. To znači da čim se naš sistem pokrene, on već prati zahvaljuju ć i tom preciznom i trenutnom istraživanju brzine svetlosti.
[0124] Izračunavamo uniju svih ponovo projektovanih 3D tačaka koje se vide sa leve i desne kamere da bismo obezbedili maksimalnu stabilnost procesa prać enja. Oblak tačaka se jednostavno generiše 3D presekom epipolarnih linija u kombinaciji sa ORB deskriptorom za podudaranje obeležja (pogledajte odeljak 2.1.4.4). Šema podudaranja karakteristika i globalne minimizacije ostaje slična onoj koja se koristi u monoskopskom pristupu.
[0125] Da bismo mogli da se oslonimo na trenutno istraživanje, takođe smo veoma modifikovali način na koji se nove tačke grade u oblaku tačaka. Pored stereoskopske rekonstrukcije tačke, dodali smo i pojam disperzije mreže i uniformnosti karakteristika tačaka. Tokom redovnog algoritma prać enja, pokre ć e se algoritam za detekciju 2D karakteristika i tačke se rekonstruišu u 3D kao što je opisano u odeljcima 2.1.3.3 i 2.1.4.4. Međutim, mnoge od ovih tačaka su nepouzdane (loša dubina, rubne tačke, pokretne tačke, tačke senke, itd.) i algoritam ima tendenciju da zapamti mnogo tačaka u oblastima visokog kontrasta, a ništa u oblastima sa niskim kontrastom. Ovo generiše mnogo šuma u podacima prać enja daju ć i ose ć aj da se kamera trese. Tehnika disperzije mreže koju smo kreirali pokušava da distribuira prirodne markere koje je sistem zapamtio na skoro ujednačen način. Prvo počinjemo korišć enjem veoma visokog praga da bismo generisali maksimalan broj karakteristika. Zatim smanjujemo broj tačaka karakteristika prema pragu koji je dao korisnik (16 X 16 mreža, 2 uzorka po ć eliji na primer) koriste ć i Harisov rezultat (izabrali smo 2 najbolja rezultata, na primer). Dakle, svaka tačka ima kriterijum kvaliteta koji govori koliko je pouzdan. Ako uniformnost nije dovoljno dobra, sistem takođe lokalno menja prag kontrasta kako bi obezbedio moguć nost da uhvati tačke čak i u oblastima sa niskim kontrastom. Činjenica da naš algoritam raspoređuje tačke karakteristika preko slike takođe sprečava sistem da lako izgubi prać enje. Zaista, redovni monoskopski pristupi bez tehnike disperzije mreže kao što je naša mogu imati mnogo tačaka za prać enje u donjem levom delu slike, na primer. Ako glumac uđe u to da skrivaju sve ove prirodne markere, prać enje ć e se momentalno izgubiti, što je nešto što se u našem slučaju ne može desiti kada rasporedimo obeležje na celu sliku.
2.6 Poveć anje stvarnog sveta
2.6.1 Problem kašnjenja kamere/svedoka
[0126] Kako filmska kamera i kamere za svedoke rade različitim brzinama, one mogu generisati različita kašnjenja u procesu dobijanja kadrova. Filmska kamera je zapravo ona koja stvara daleko najveć e kašnjenje primoravaju ć i nas da je izračunamo kako bismo pravilno uveć ali stvarni svet.
[0127] Ponovo koristimo sopstveni uređaj za kalibraciju da automatski izračunamo kašnjenje između dve kamere. Ispred obe kamere koristi se mali LED koji svetli na suncu na 1Hz. Algoritam detektora mrlja poboljšan tehnikom praga intenziteta je razvijen da detektuje led svetlo u obe kamere. Povezane krive intenziteta koje se generišu iz hvatanja intenziteta leda u kamerama se upoređuju korišć enjem algoritma minimizacije kako bi se pronašla najbolja vremenska koherentnost između uzoraka. Nekoliko statističkih parametara je na taj način svedeno na minimum, a kašnjenje u milisekundama se automatski izdvaja iz kalibracije za oko 10 sekundi.
2.6.2 Prikazivanje i proširena stvarnost
[0128] Kada počnemo da radimo prać enje kamere, naš softver može da prima podatke iz različitih softvera za generisanje CG sadržaja kao što je Autodesk MotionBuilder, na primer. Ti podaci su direktno integrisani i prikazani unutar našeg softvera (u slučaju kada su prać enje i radna stanica za renderovanje spojeni, pogledajte sliku 1) da bi bili sastavljeni sa stvarnom pozadinom ili prvim planom (u slučaju zelene faze).
[0129] Još jedna interesantna karakteristika svojstvena našoj tehnologiji je 3D Garbage Matting. Garbage Matting svakako nije naš izum, ali je u našem slučaju urađen na inovativan način. Zaista, pošto naš algoritam za prać enje generiše tačan 3D oblak tačaka (zahvaljujuć i stereoskopskom pristupu), sve ove tačke imaju reprezentaciju u 3D i 2D kada se ponovo projektuju na video snimku filmske kamere. Razvili smo jednostavan korisnički interfejs koji omoguć ava korisniku da izabere više tačaka unutar 3D oblaka tačaka. Tako kreiramo 3D objekat triangulacijom svih izabranih tačaka korišć enjem algoritma za triangulaciju [14]. Ta novostvorena površina sada se može aktivirati kao Garbage Matting, što znači da je svaki piksel pokriven 2D projekcijom tog objekta na video zapisu filmske kamere je sada zamenjen 3D virtuelnim okruženjem koje generiše radna stanica za 3D generisanje sadržaja (pogledajte odeljak 1 ). Imajte na umu da u slučaju upotrebe senzora dubine velikog dometa (tj. najmanje 50m) tehnika Garbage Matting postaje beskorisna jer je naš metod dubinskog zaključavanja lako zamenjuje (pogledajte odeljak 2.4).
Dodatak 1
Reference
[0130]
[1] Herbert Bay, Tinne Tuytelaars, and Luc Van Gool. Surf: speeded up robust features. In Proceedings of the 9th European conference on Computer Vision - Volume Part 7, ECCV’06, pages 404-417, Berlin, Heidelberg, 2006. Springer-Verlag.
[2] Michael Calender, Vincent Lepetit, Christoph Strecha, and Pascal Fua. Brief: binary robust independent elemen- tary features. In Proceedings of the 11th European conference on Computer vision: Part IV, ECCV’10, pages 778-792, Berlin, Heidelberg, 2010. Springer-Verlag.
[3] Fr é d é ric Devernay and Olivier Faugeras. Straight lines have to be straight. In In SPIE, volume 2567, 2001.
[4] Martin A. Fischler and Robert C. Bolles. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography. Communications of the ACM, 24(6):381-395, 1981.
[5] Chris Harris and Mike Stephens. A combined corner and edge detector. In In Proc. of Fourth Alvey Vision Conference, pages 147-151, 1988.
[6] D.C. Hoaglin, F. Mosteller, and J.W. Tukey. Understanding Robust and Exploratory Data Analysis. Wiley series in probability and mathematical statistics: applied probability and statistics. John Wiley and Sons, 1983.
[7] Rudolph Emil Kalman. A new approach to linear filtering and prediction problems. Transactions of the ASME- Journal of Basic Engineering, 82(Series D):35-45, 1960.
[8] Georg Klein and David Murray. Parallel tracking and mapping for small ar workspaces. In Proceedings of the 20076th IEEE and ACM International Symposium on Mixed and Augmented Reality, ISMAR ’07, pages 1-10, Washington, DC, USA, 2007. IEEE Computer Society.
[9] J. J. Leonard and Durrant H. Whyte. Mobile robot localization by tracking geometric beacons. IEEE Transactions on Robotics and Automation, 7(3), 1991.
[10] K. Levenberg. A method for the solution of certain problems in least squares. Quart. Appl. Math, 2:164
[11] David G. Lowe. Object recognition from local scale-invariant features. In Proceedings of the International Con- ference on Computer Vision- Volume 2 - Volume 2, ICCV ’99, pages 1150-, Washington, DC, USA, 1999. IEEE Computer Society.
[12] D. Marquardt. An algorithm for least-squares estimation of nonlinear parameters. SIAM J. Appl. Math, 11:431-441, 1963.
[13] Christopher Mei, Gabe Sibley, Mark Cummins, Paul Newman, and Ian Reid. Rslam: A system for large-scale mapping in constant-time using stereo. Int. J. Comput. Vision, 94(2):198-214, September 2011.
[14] Gary Hosler Meisters. Polygons have ears. Amer. Math. Monthly, 82:648-651, 1975.
[15] J. J. More’. The Levenberg-Marquardt algorithm: implementation and theory, pages 105-116. Lecture Notes in Mathematics 630. SPRINGER, 1977.
[16] Edward Rosten and Tom Drummond. Machine learning for high-speed corner detection. In Proceedings of the 9th European conference on Computer Vision - Volume Part 7, ECCV’06, pages 430-443, Berlin, Heidelberg, 2006. Springer-Verlag.
[17] Edward Rosten, Reid Porter, and Tom Drummond. Faster and better: A machine learning approach to corner detection. IEEE Trans. Pattern Analysis and Machine Intelligence, 32:105-119, 2010.
[18] Ethan Rublee, Vincent Rabaud, Kurt Konolige, and Gary Bradski. Orb: An efficient alternative to sift or surf. In Proceedings of the 2011 International Conference on Computer Vision, ICCV ’11, pages 2564-2571, Washington, DC, USA, 2011. IEEE Computer Society.
[19] Ivan E. Sutherland. A head-mounted three dimensional display. In Proceedings of the December 9-11, 1968, fall joint computer conference, part I, AFIPS ’68 (Fall, part I), pages 757-764, New York, NY, USA, 1968. ACM.
[20] Roger Y. Tsai and Reimer K. Lenz. A new technique for fully autonomous and efficient 3d robotics handeye calibration. In Proceedings of the 4th international symposium on Robotics Research, pages 287-297, Cambridge, MA, USA, 1988. MIT Press.
[21] J.K. Ulhmann. Algorithms for multiple target tracking. American Scientist, 80(2):128-141, 1992.
Claims (23)
1. Sistem bez markera, sistem koji uključuje:
(i) video kameru;
(ii) senzore uključuju ć i akcelerometar i žiroskop koji detektuje preko šest slobodnih stepeni;
(iii) dve kamere za svedoke koje čine stereoskopski sistem; i
(iv) procesor;
za mešanje ili komponovanje u realnom vremenu, računarski generisane 3D objekte i video zapis sa video kamere, za generisanje video zapisa proširene stvarnosti u realnom vremenu za TV prenos, bioskop ili video igrice, u kojima:
(a) telo video kamere može da se pomera u 3D i senzori u ili pričvršć eni direktno ili indirektno na video kameru obezbeđuju podatke o pozicioniranju u realnom vremenu koji definišu 3D poziciju i 3D orijentaciju video kamere ili omoguć avaju 3D poziciju i 3D orijentaciju video kamere koju treba izračunati;
(b) dve kamere za svedoke koje čine stereoskopski sistem su pričvršć ene direktno ili indirektno na video kameru;
(c) sistem je konfigurisan da automatski koristi te podatke o pozicioniranju u realnom vremenu za kreiranje, opoziv, prikazivanje ili modifikovanje računarskih generisanih 3D objekata;
(d) sistem je konfigurisan da kombinuje ili komprimuje dobijene računarski generisane 3D objekte sa video zapisom iz video kamere da obezbedi video proširenu stvarnost za TV prenos, bioskop ili video igrice;
i u kojoj:
(e) sistem je konfigurisan da odredi 3D poziciju i orijentaciju video kamere u odnosu na 3D mapu stvarnog sveta, pri čemu je sistem konfigurisan da generiše 3D mapu stvarnog sveta, u najmanjem delimično, korišć enjem 3D podataka o pozicioniranju u realnom vremenu sa senzora plus optički tok u kojem dve kamere svedoci formiraju stereoskopski sistem koji snima scenu, i u kojem je softver koji radi na procesoru konfigurisan da detektuje prirodne markere u sceni koji nisu ručno ili veštački dodati toj sceni;
(f) sistem je konfigurisan da koristi model konstantne brzine povezan sa 3D podacima o pozicioniranju u realnom vremenu od senzora za predviđanje sledeć e pozicije video kamere koriste ć i prethodno tačno izračunatu ili potvrđenu poziciju, i sistem je konfigurisan da koristi to predviđanje da se projektuje 3D oblak tačaka na trenutni okvir kamere svedoka i da se koristi algoritam za podudaranje tačaka za podudaranje tačaka identifikovanih u video zapisu u realnom vremenu iz stereoskopskog sistema i projektovanih tačaka u projektovanom 3D oblaku tačaka.
2. Sistem prema patentnom zahtevu 1 u kome senzori uključuju senzor 3D opsega, koji hvata dubinu svakog piksela u video izlazu iz kamere.
3. Sistem prema patentnom zahtevu 2, u kome je 3D senzor dometa strukturisana svetlosna kamera ili kamera za vreme leta.
4. Sistem prema bilo kojem od prethodnih patentnih zahteva u kome dve kamere za svedoke koje čine stereoskopski sistem rade sa najmanje 100 fps kako bi omoguć ile da se sistem potpuno inicijalizuje bez posebne faze čistog snimanja scene koja treba da se prati, već se umesto toga vrši snimanje neprekidno dok se kamera koristi za snimanje video zapisa.
5. Sistem prema patentnom zahtevu 4 u kome dve stereoskopske kamere za svedoke formiraju stereoskopski sistem koji omoguć ava softveru da obradi slike i, čak i kada se sistem kamera uopšte ne pomera, da generiše trenutni 3D oblak tačaka.
6. Sistem prema patentnom zahtevu 4 u kome se dubina svake tačke u 3D oblaku tačaka dobija korišć enjem odgovarajuć ih 2D teksturnih zakrpa dobijenih iz svake stereoskopske kamere i algoritma za pretragu epipolarnih linija.
7. Sistem prema bilo kojem od prethodnih patentnih zahteva koji pokreć e fuzioni algoritam koji kombinuje podatke o optičkom toku iz sistema kamera za svedoke sa podacima o pozicioniranju u realnom vremenu iz senzora.
8. Sistem prema patentnom zahtevu 7 u kome se algoritam fuzije zasniva na tehnici predviđanja/ispravke proširenog Kalmanovog filtera da integriše izlaze i da se ponovo kalibrišu svi senzori, koji mogu uključivati akcelerometar, žiroskop, magnetometar, 3D senzor dometa, senzor za određivanje položaja i orijentacije kamere.
9. Sistem prema patentnom zahtevu 8 u kome algoritam fuzije proširenog Kalmanovog filtera koristi podatke o nivou pouzdanosti, povezane sa izlazom svakog senzora, kada određuje kako da spoji podatke sa svakog senzora.
10. Sistem prema bilo kojem od prethodnih patentnih zahteva u kome su ključni kadrovi generisani od strane kamera svedoka deo procesa vizuelnog prać enja i predstavljaju slike u realnom vremenu izračunate na četiri različita nivoa rezolucije video zapisa kamere svedoka.
11. Sistem prema bilo kojem od prethodnih patentnih zahteva, sistem koji uključuje 3D senzor opsega, u kome se 3D senzor opsega koristi za poboljšanje tačnosti merenja dubine povezane sa rekonstruisanom 3D tačkom dobijenom korišć enjem kamera za svedoke koje formiraju stereoskopski sistem, ili da odbaci tu rekonstruisanu 3D tačku dobijenu pomoć u kamera svedoka koje formiraju stereoskopski sistem.
12. Sistem prema patentnom zahtevu 11, u kojem se 3D senzor opsega koristi za zaključavanje dubine u stvarnom vremenu za omogućavanje dinamičke okluzije i suzbijanje eventualne upotrebe zelene pozadine.
13. Sistem prema bilo kom prethodnom zahtevu u kome je sistem konfigurisan da lokalno promeni prag kontrasta da uključi tačke čak i u oblastima niskog kontrasta, u oblaku tačaka.
14. Sistem prema bilo kojem od prethodnih patentnih zahteva od 4 do 6, uključujuć i sistem za pra ć enje kamere koji kombinuje sistem koji je potpuno inicijalizovan bez posebne faze čistog snimanja scene koja treba da se prati, sa prać enjem pomeranja video kamere kao traga režisera/snimatelja, naginje sistem za pra ć enje kamere priključen na video kameru.
15. Sistem prema patentnom zahtevu 4, u kome dve kamere za svedoke koje čine stereoskopski sistem omoguć avaju kontinuirano snimanje scene u realnom vremenu kako bi se stvorio oblak tačaka koji definiše scenu.
16. Sistem prema bilo kojem od prethodnih patentnih zahteva koji prikačuje nepromenljive deskriptore rotacije, na primer korišć enjem ORB-a, za tačke koje su otkrivene u sceni da bi se olakšao oporavak pra ć enja.
17. Sistem prema bilo kojem od prethodnih patentnih zahteva koji koristi Levenberg-Marquardt šemu minimizacije za prać enje kamere da bi se minimizirala greška između tačaka identifikovanih u video zapisu u realnom vremenu iz stereoskopskog sistema i projektovanih tačaka u projektovanom 3D oblaku tačaka.
18. Sistem prema bilo kojem od prethodnih patentnih zahteva u kome korisnik može da koristi 3D oblak tačaka koji generiše sistem za pra ć enje kamere da definiše 3D maske, kao što su 3D Garbage Matting maske.
19. Sistem prema bilo kojem od prethodnih patentnih zahteva u kome su video kamera i kamera za svedoke kalibrisane za kašnjenje akvizicije kadra korišć enjem modulisanog izvora svetlosti, kao što je poređenje krive intenziteta svetlosti povezane sa trepć u ć om LED diodom.
20. Sistem prema bilo kojem od prethodnih patentnih zahteva u kome je video kamera nešto od sledeć eg: kamera za kran; stabilna kamera; ručna kamera; kamera montirana na kolica, kamera na stativu, pametni telefon, naočare proširene stvarnosti.
21. Metod bez markera za mešanje ili komponovanje računarskih generisanih 3D objekata u realnom vremenu i video zapisa sa video kamere, za generisanje video zapisa proširene stvarnosti za TV prenos, bioskop ili video igrice, u kojem:
(a) telo video kamere može da se pomera u 3D i senzori, uključujuć i akcelerometar i žiroskop koji detektuju preko šest slobodnih stepeni, u ili pričvršć eni direktno ili indirektno na video kameru daju podatke o pozicioniranju u realnom vremenu koji definišu 3D poziciju i 3D orijentaciju video kamere, ili omoguć avanje izračunavanja 3D pozicije i 3D orijentacije video kamere;
(b) dve kamere za svedoke koje čine stereoskopski sistem su pričvršć ene direktno ili indirektno na video kameru;
(c) se podaci o pozicioniranju u realnom vremenu zatim automatski koriste za kreiranje, opoziv, prikazivanje ili modifikovanje računarskih generisanih 3D objekata;
(d) dobijeni računarski generisani 3D objekti se zatim mešaju ili kombinuju sa video izvorom iz video kamere da bi se obezbedio video sa proširenom realnošć u za TV prenos, bioskop ili video igrice;
i u kojoj:
(e) 3D pozicija i orijentacija video kamere se određuju u odnosu na 3D mapu stvarnog sveta, pri čemu se 3D mapa stvarnog sveta generiše, u najmanjem delimično, korišć enjem 3D u realnom vremenu pozicioniranjem podataka sa senzora plus optički tok u kojem dve kamere za svedoke koje formiraju stereoskopski sistem posmatraju scenu, i softver koji radi na procesoru se koristi za otkrivanje prirodnih markera u sceni koji nisu ručno ili veštački dodati toj sceni;
(f) model konstantne brzine povezan sa podacima o 3D pozicioniranju u realnom vremenu od senzora se koristi za predviđanje sledeć e pozicije video kamere koriste ć i prethodno tačno izračunatu ili potvrđenu poziciju, i to predviđanje se koristi za projektovanje 3D oblaka tačaka na trenutni okvir kamere svedoka, i algoritam za podudaranje tačaka se koristi za usklađivanje tačaka identifikovanih u video zapisu u realnom vremenu iz stereoskopskog sistema i projektovanih tačaka u projektovanom 3D oblaku tačaka.
22. Metod prema patentnom zahtevu 21, u kome su podaci o pozicioniranju u realnom vremenu snimljeni i vremenski kod je utisnut da bi se obezbedili podaci o pomeranju za postprodukcijske procese.
23. Metod prema patentnom zahtevu 21 ili 22 koji se koristi za:
(i) Prać enje studijskih kamera u realnom vremenu; ili
(ii) Prać enje u realnom vremenu za stabilne kamere; ili
(iii) Prać enje u realnom vremenu za kamere montirane na kran; ili
(iv) Prać enje u realnom vremenu za kamere postavljene na kolica; ili
(v) Prać enje u realnom vremenu za spoljno emitovanje; ili
(vi) obezbeđivanje podataka za prać enje u realnom vremenu za 2D postprodukciju; ili
(vii) obezbeđivanje podataka za prać enje u realnom vremenu za naknadnu konverziju za 3D stereoskopski sadržaj; ili (viii) obezbeđivanje podataka o prać enju u realnom vremenu za izvorni 3D stereoskopski sadržaj; ili
(ix) umetanje 3D grafike; ili
(x) umetanje 3D grafike za postavljanje objekata u studiju ili na setu; ili
(xi) umetanje 3D grafike za spoljno emitovanje; ili
(xii) umetanje 3D grafike za sponzorisane slike; ili
(xiii) umetanje 3D grafike koje je specifično za lokaciju posmatrača; ili
(xiv) umetanje 3D grafike koja je specifična za gledaoca; ili
(xv) umetanje 3D grafike koja je vremenski određena; ili
(xvi) umetanje 3D grafike za popunjavanje scena gomile; ili
(xvii) umetanje 3D grafike za zamenu zelene pozadine; ili
(xviii) 3D grafičko umetanje obrazovnog sadržaja za pomoć u učenju, u muzejima i interpretacijskim centrima u kulturnim, istorijskim ili prirodnim lokalitetima; ili
(xix) Merenje apsolutne ili relativne veličine objekata na sceni.
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| GBGB1208088.3A GB201208088D0 (en) | 2012-05-09 | 2012-05-09 | Ncam |
| PCT/GB2013/051205 WO2013167901A1 (en) | 2012-05-09 | 2013-05-09 | A system for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera |
| EP13726815.7A EP2847991B1 (en) | 2012-05-09 | 2013-05-09 | A system for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| RS64401B1 true RS64401B1 (sr) | 2023-08-31 |
Family
ID=46396728
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| RS20230594A RS64401B1 (sr) | 2012-05-09 | 2013-05-09 | Sistem za mešanje ili sastavljanje u realnom vremenu, računarskih generisanih 3d predmeta i video zapisa sa filmske kamere |
Country Status (19)
| Country | Link |
|---|---|
| US (4) | US9600936B2 (sr) |
| EP (1) | EP2847991B1 (sr) |
| JP (1) | JP2015521419A (sr) |
| KR (1) | KR20150013709A (sr) |
| CN (1) | CN104322052B (sr) |
| AU (1) | AU2013257788B2 (sr) |
| CA (1) | CA2872797A1 (sr) |
| DK (1) | DK2847991T3 (sr) |
| ES (1) | ES2951587T3 (sr) |
| FI (1) | FI2847991T3 (sr) |
| GB (3) | GB201208088D0 (sr) |
| HR (1) | HRP20230832T1 (sr) |
| HU (1) | HUE062417T2 (sr) |
| IN (1) | IN2014DN10462A (sr) |
| PL (1) | PL2847991T3 (sr) |
| PT (1) | PT2847991T (sr) |
| RS (1) | RS64401B1 (sr) |
| SG (2) | SG10201600233SA (sr) |
| WO (1) | WO2013167901A1 (sr) |
Families Citing this family (182)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2984057B1 (fr) | 2011-12-13 | 2014-01-03 | Solidanim | Systeme de tournage de film video |
| US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
| US10356363B2 (en) | 2013-06-26 | 2019-07-16 | Touchcast LLC | System and method for interactive video conferencing |
| US10523899B2 (en) | 2013-06-26 | 2019-12-31 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
| US10757365B2 (en) | 2013-06-26 | 2020-08-25 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
| US11488363B2 (en) | 2019-03-15 | 2022-11-01 | Touchcast, Inc. | Augmented reality conferencing system and method |
| US11659138B1 (en) | 2013-06-26 | 2023-05-23 | Touchcast, Inc. | System and method for interactive video conferencing |
| US11405587B1 (en) | 2013-06-26 | 2022-08-02 | Touchcast LLC | System and method for interactive video conferencing |
| US9787945B2 (en) | 2013-06-26 | 2017-10-10 | Touchcast LLC | System and method for interactive video conferencing |
| US10075676B2 (en) | 2013-06-26 | 2018-09-11 | Touchcast LLC | Intelligent virtual assistant system and method |
| US9852764B2 (en) | 2013-06-26 | 2017-12-26 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
| US10297284B2 (en) | 2013-06-26 | 2019-05-21 | Touchcast LLC | Audio/visual synching system and method |
| US10084849B1 (en) | 2013-07-10 | 2018-09-25 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
| CN105745915B (zh) * | 2013-09-06 | 2019-02-15 | 索尼公司 | 图像拍摄装置、方法和程序 |
| US9479709B2 (en) | 2013-10-10 | 2016-10-25 | Nvidia Corporation | Method and apparatus for long term image exposure with image stabilization on a mobile device |
| JP6337907B2 (ja) * | 2013-11-13 | 2018-06-06 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
| US9773313B1 (en) * | 2014-01-03 | 2017-09-26 | Google Inc. | Image registration with device data |
| KR101678389B1 (ko) * | 2014-02-28 | 2016-11-22 | 엔트릭스 주식회사 | 클라우드 스트리밍 기반의 영상데이터 제공 방법, 이를 위한 장치 및 시스템 |
| GB201404990D0 (en) * | 2014-03-20 | 2014-05-07 | Appeartome Ltd | Augmented reality apparatus and method |
| WO2015155628A1 (en) * | 2014-04-07 | 2015-10-15 | Eyeways Systems Ltd. | Apparatus and method for image-based positioning, orientation and situational awareness |
| US20150289338A1 (en) | 2014-04-08 | 2015-10-08 | Revolution Display, Inc. | Automatic chroma key background generator with incident key lighting |
| DE102014006732B4 (de) * | 2014-05-08 | 2016-12-15 | Audi Ag | Bildüberlagerung von virtuellen Objekten in ein Kamerabild |
| US10255251B2 (en) | 2014-06-26 | 2019-04-09 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
| US20150381972A1 (en) * | 2014-06-30 | 2015-12-31 | Microsoft Corporation | Depth estimation using multi-view stereo and a calibrated projector |
| EP3176756A4 (en) * | 2014-07-28 | 2017-08-09 | Panasonic Intellectual Property Management Co., Ltd. | Augmented reality display system, terminal device and augmented reality display method |
| WO2016019146A1 (en) * | 2014-07-30 | 2016-02-04 | Touchcast, Llc | System and method for providing and interacting with coordinated presentations |
| US20160061581A1 (en) * | 2014-08-26 | 2016-03-03 | Lusee, Llc | Scale estimating method using smart device |
| US9602811B2 (en) | 2014-09-10 | 2017-03-21 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
| DE102014013678B3 (de) * | 2014-09-10 | 2015-12-03 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten |
| US9609200B2 (en) | 2014-09-24 | 2017-03-28 | Panavision International, L.P. | Distance measurement device for motion picture camera focus applications |
| GB2533788A (en) * | 2014-12-30 | 2016-07-06 | Nokia Technologies Oy | Method for determining the position of a portable device |
| US10284794B1 (en) | 2015-01-07 | 2019-05-07 | Car360 Inc. | Three-dimensional stabilized 360-degree composite image capture |
| US9779512B2 (en) * | 2015-01-29 | 2017-10-03 | Microsoft Technology Licensing, Llc | Automatic generation of virtual materials from real-world materials |
| JP6511283B2 (ja) * | 2015-02-12 | 2019-05-15 | 日立オートモティブシステムズ株式会社 | 物体検知装置 |
| CN104883514B (zh) * | 2015-05-11 | 2018-11-23 | 北京金山安全软件有限公司 | 一种视频处理方法及装置 |
| US10110822B2 (en) | 2015-06-09 | 2018-10-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for tracking at least one object and method for replacing at least one object by a virtual object in a moving image signal recorded by a camera |
| RU2601169C1 (ru) * | 2015-06-11 | 2016-10-27 | Виталий Витальевич Аверьянов | Способ и устройство для взаимодействия с виртуальными объектами |
| US9836895B1 (en) * | 2015-06-19 | 2017-12-05 | Waymo Llc | Simulating virtual objects |
| US9721350B2 (en) | 2015-06-26 | 2017-08-01 | Getalert Ltd. | Methods circuits devices systems and associated computer executable code for video feed processing |
| US11002856B2 (en) * | 2015-08-07 | 2021-05-11 | King Abdullah University Of Science And Technology | Doppler time-of-flight imaging |
| KR101729165B1 (ko) | 2015-09-03 | 2017-04-21 | 주식회사 쓰리디지뷰아시아 | 타임 슬라이스 영상용 오차교정 유닛 |
| KR101729164B1 (ko) * | 2015-09-03 | 2017-04-24 | 주식회사 쓰리디지뷰아시아 | 멀티 구 교정장치를 이용한 멀티 카메라 시스템의 이미지 보정 방법 |
| US10404962B2 (en) * | 2015-09-24 | 2019-09-03 | Intel Corporation | Drift correction for camera tracking |
| JP6723720B2 (ja) * | 2015-10-20 | 2020-07-15 | キヤノン株式会社 | 表示システム、情報処理方法及びプログラム |
| DE102015223003A1 (de) * | 2015-11-20 | 2017-05-24 | Bitmanagement Software GmbH | Vorrichtung und Verfahren zur Überlagerung zumindest eines Teils eines Objekts mit einer virtuellen Oberfläche |
| KR20170096468A (ko) * | 2016-02-16 | 2017-08-24 | 한국전자통신연구원 | 자동 음장 제어 방법 및 자동 음장 제어 장치 및 상기 자동 음장 제어 장치가 제어하는 출력 장치 |
| US9883097B2 (en) * | 2016-06-03 | 2018-01-30 | Google Inc. | Optical flow based auto focus |
| US10254546B2 (en) | 2016-06-06 | 2019-04-09 | Microsoft Technology Licensing, Llc | Optically augmenting electromagnetic tracking in mixed reality |
| US10249090B2 (en) | 2016-06-09 | 2019-04-02 | Microsoft Technology Licensing, Llc | Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking |
| NO20161132A1 (en) * | 2016-07-07 | 2017-10-30 | Real Training As | Training system |
| US20180046874A1 (en) * | 2016-08-10 | 2018-02-15 | Usens, Inc. | System and method for marker based tracking |
| IT201600086859A1 (it) * | 2016-08-24 | 2018-02-24 | Osram Gmbh | Procedimento per controllare sorgenti di illuminazione, sistema e prodotto informatico corrispondenti |
| IT201600086875A1 (it) * | 2016-08-24 | 2018-02-24 | Osram Gmbh | Procedimento per controllare sorgenti di illuminazione, sistema e prodotto informatico corrispondenti |
| WO2018048704A1 (en) * | 2016-09-06 | 2018-03-15 | Carnegie Mellon University | Gaussian mixture model based approximation of continuous belief distributions |
| CN106231292B (zh) * | 2016-09-07 | 2017-08-25 | 深圳超多维科技有限公司 | 一种立体虚拟现实直播方法、装置及设备 |
| TWI612795B (zh) | 2016-09-13 | 2018-01-21 | 財團法人工業技術研究院 | 場景掃描方法及系統 |
| WO2018050725A1 (en) * | 2016-09-19 | 2018-03-22 | Thomson Licensing | A method and a device for reconstructing a point cloud representative of a scene using light-field data |
| CN107945198B (zh) * | 2016-10-13 | 2021-02-23 | 北京百度网讯科技有限公司 | 用于标注点云数据的方法和装置 |
| CN107038758B (zh) * | 2016-10-14 | 2020-07-17 | 北京联合大学 | 一种基于orb算子的增强现实三维注册方法 |
| DE102016119637A1 (de) * | 2016-10-14 | 2018-04-19 | Uniqfeed Ag | Fernsehübertragungssystem zur Erzeugung angereicherter Bilder |
| US10593116B2 (en) | 2016-10-24 | 2020-03-17 | Snap Inc. | Augmented reality object manipulation |
| WO2018089040A1 (en) * | 2016-11-14 | 2018-05-17 | Lightcraft Technology Llc | Spectator virtual reality system |
| CN106507091A (zh) * | 2016-11-14 | 2017-03-15 | 墨宝股份有限公司 | 一种利用3d动漫拍摄制作真人主题秀影片的方法 |
| KR20180075732A (ko) | 2016-12-26 | 2018-07-05 | 엘지디스플레이 주식회사 | 헤드 마운티드 디스플레이 및 그 제어 방법 |
| US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
| US10553036B1 (en) * | 2017-01-10 | 2020-02-04 | Lucasfilm Entertainment Company Ltd. | Manipulating objects within an immersive environment |
| JP6791991B2 (ja) * | 2017-01-19 | 2020-11-25 | 株式会社ソニー・インタラクティブエンタテインメント | 画像配信装置 |
| US20180210628A1 (en) | 2017-01-23 | 2018-07-26 | Snap Inc. | Three-dimensional interaction system |
| CN106846442B (zh) * | 2017-03-06 | 2019-07-02 | 西安电子科技大学 | 基于Unity3D的三维虚拟人群场景生成方法 |
| US10192111B2 (en) | 2017-03-10 | 2019-01-29 | At&T Intellectual Property I, L.P. | Structure from motion for drone videos |
| JP6969121B2 (ja) * | 2017-03-17 | 2021-11-24 | 株式会社リコー | 撮像システム、画像処理装置および画像処理プログラム |
| CN107330911B (zh) * | 2017-05-08 | 2022-01-11 | 上海交通大学 | 基于相交约束的纯旋转运动判定方法 |
| US10339714B2 (en) | 2017-05-09 | 2019-07-02 | A9.Com, Inc. | Markerless image analysis for augmented reality |
| WO2018213131A1 (en) | 2017-05-18 | 2018-11-22 | Pcms Holdings, Inc. | System and method for distributing and rendering content as spherical video and 3d asset combination |
| CN111033572B (zh) * | 2017-06-02 | 2023-09-05 | 苹果公司 | 用于检测用作虚拟衬底的平面和/或四叉树的方法和设备 |
| AU2018292610B2 (en) * | 2017-06-28 | 2022-11-17 | Magic Leap, Inc. | Method and system for performing simultaneous localization and mapping using convolutional image transformation |
| JP7000050B2 (ja) * | 2017-06-29 | 2022-01-19 | キヤノン株式会社 | 撮像制御装置及びその制御方法 |
| CN107463757B (zh) * | 2017-08-22 | 2020-07-28 | 中国有色金属长沙勘察设计研究院有限公司 | 一种基于断面结构与转向角度约束的断面插值方法 |
| WO2019041155A1 (en) * | 2017-08-30 | 2019-03-07 | Qualcomm Incorporated | ROBUST NAVIGATION OF A ROBOTIC VEHICLE |
| US10497122B2 (en) | 2017-10-11 | 2019-12-03 | Adobe Inc. | Image crop suggestion and evaluation using deep-learning |
| US10516830B2 (en) | 2017-10-11 | 2019-12-24 | Adobe Inc. | Guided image composition on mobile devices |
| US10257436B1 (en) * | 2017-10-11 | 2019-04-09 | Adobe Systems Incorporated | Method for using deep learning for facilitating real-time view switching and video editing on computing devices |
| CN110249626B (zh) * | 2017-10-26 | 2020-07-31 | 腾讯科技(深圳)有限公司 | 增强现实图像的实现方法、装置、终端设备和存储介质 |
| US11146775B2 (en) * | 2017-11-07 | 2021-10-12 | Symbol Technologies, Llc | Methods and apparatus for dimensioning an object using proximate devices |
| US10643320B2 (en) | 2017-11-15 | 2020-05-05 | Toyota Research Institute, Inc. | Adversarial learning of photorealistic post-processing of simulation with privileged information |
| US10528684B1 (en) * | 2017-12-04 | 2020-01-07 | Synopsys, Inc. | TCAD design template for fast prototyping of 2D and 3D CMOS image sensors |
| CN108257206B (zh) * | 2017-12-06 | 2021-04-13 | 石化盈科信息技术有限责任公司 | 信息展板展示方法和装置 |
| CN109931923B (zh) * | 2017-12-15 | 2023-07-07 | 阿里巴巴集团控股有限公司 | 一种导航引导图的生成方法和装置 |
| WO2019123509A1 (ja) | 2017-12-18 | 2019-06-27 | ガンホー・オンライン・エンターテイメント株式会社 | 端末装置、システム、プログラム及び方法 |
| KR102166372B1 (ko) * | 2017-12-20 | 2020-10-15 | 주식회사 고영테크놀러지 | 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법 |
| US10510145B2 (en) * | 2017-12-27 | 2019-12-17 | Industrial Technology Research Institute | Medical image comparison method and system thereof |
| CN108419090A (zh) * | 2017-12-27 | 2018-08-17 | 广东鸿威国际会展集团有限公司 | 三维直播流展示系统和方法 |
| CN108289220B (zh) * | 2018-01-15 | 2020-11-27 | 深圳市奥拓电子股份有限公司 | 虚拟图像处理方法、图像处理系统及存储介质 |
| CN108280882B (zh) * | 2018-01-24 | 2021-12-31 | 北京德火新媒体技术有限公司 | 一种在虚拟显示空间植入ar前景物品位置的方法及系统 |
| CA3031276A1 (en) | 2018-02-08 | 2019-08-08 | Ascension Technology Corporation | Compensating for distortion in an electromagnetic tracking system |
| CN108447116A (zh) * | 2018-02-13 | 2018-08-24 | 中国传媒大学 | 基于视觉slam的三维场景重建方法和装置 |
| CA3168578A1 (en) * | 2018-04-09 | 2019-10-17 | Dolby International Ab | Methods, apparatus and systems for three degrees of freedom (3dof+) extension of mpeg-h 3d audio |
| CN108259780A (zh) * | 2018-04-17 | 2018-07-06 | 北京艾沃次世代文化传媒有限公司 | 用于虚拟片场抗干扰特效视频同步显示方法 |
| CN108540731A (zh) * | 2018-04-17 | 2018-09-14 | 北京艾沃次世代文化传媒有限公司 | 实拍摄影机与虚拟场景实时同步显示方法 |
| CN108551557B (zh) * | 2018-04-20 | 2022-02-08 | 北京艾沃次世代文化传媒有限公司 | 后期前置数字虚拟片场系统 |
| KR102567947B1 (ko) * | 2018-05-03 | 2023-08-17 | 한국전자통신연구원 | G-code를 이용한 3D 프린팅 관리 방법 및 장치 |
| US10818093B2 (en) * | 2018-05-25 | 2020-10-27 | Tiff's Treats Holdings, Inc. | Apparatus, method, and system for presentation of multimedia content including augmented reality content |
| US10984600B2 (en) | 2018-05-25 | 2021-04-20 | Tiff's Treats Holdings, Inc. | Apparatus, method, and system for presentation of multimedia content including augmented reality content |
| US10475248B1 (en) | 2018-06-08 | 2019-11-12 | Microsoft Technology Licensing, Llc | Real-time compositing in mixed reality |
| CN110148178B (zh) * | 2018-06-19 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 相机定位方法、装置、终端及存储介质 |
| CN108921791A (zh) * | 2018-07-03 | 2018-11-30 | 苏州中科启慧软件技术有限公司 | 基于自适应重要性学习的轻量级图像超分辨率改进方法 |
| US10580218B1 (en) * | 2018-07-12 | 2020-03-03 | Facebook, Inc. | Augmented-reality image processing |
| CN109064536B (zh) * | 2018-07-27 | 2022-12-06 | 电子科技大学 | 一种基于双目结构光的书页三维重建方法 |
| US10887574B2 (en) | 2018-07-31 | 2021-01-05 | Intel Corporation | Selective packing of patches for immersive video |
| US10893299B2 (en) | 2018-07-31 | 2021-01-12 | Intel Corporation | Surface normal vector processing mechanism |
| US10762394B2 (en) | 2018-07-31 | 2020-09-01 | Intel Corporation | System and method for 3D blob classification and transmission |
| US11178373B2 (en) | 2018-07-31 | 2021-11-16 | Intel Corporation | Adaptive resolution of point cloud and viewpoint prediction for video streaming in computing environments |
| US11212506B2 (en) | 2018-07-31 | 2021-12-28 | Intel Corporation | Reduced rendering of six-degree of freedom video |
| CN109089100B (zh) * | 2018-08-13 | 2020-10-23 | 西安理工大学 | 一种双目立体视频的合成方法 |
| CN109168034B (zh) * | 2018-08-28 | 2020-04-28 | 百度在线网络技术(北京)有限公司 | 商品信息显示方法、装置、电子设备和可读存储介质 |
| US11030813B2 (en) | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
| DE102019127349A1 (de) | 2018-10-10 | 2020-04-16 | Intel Corporation | Punktwolkencodierungsstandard-konformitätsdefintion in computerumgebungen |
| US11057631B2 (en) | 2018-10-10 | 2021-07-06 | Intel Corporation | Point cloud coding standard conformance definition in computing environments |
| USRE50624E1 (en) * | 2018-11-19 | 2025-10-07 | Optics Innovation Llc | Method and apparatus for super resolution imaging and eye tracking devices |
| CN109509261B (zh) * | 2018-11-26 | 2023-07-25 | 端美科技(中山)有限公司 | 一种增强现实的方法、装置及计算机存储介质 |
| US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
| US11092966B2 (en) * | 2018-12-14 | 2021-08-17 | The Boeing Company | Building an artificial-intelligence system for an autonomous vehicle |
| WO2020131037A1 (en) * | 2018-12-18 | 2020-06-25 | Rovi Guides, Inc. | Systems and methods for automated tracking on a handheld device using a remote camera |
| US11645802B2 (en) | 2018-12-19 | 2023-05-09 | Anipen Co., Ltd. | Method, system, and non-transitory computer-readable recording medium for generating animation sequence |
| US11501499B2 (en) | 2018-12-20 | 2022-11-15 | Snap Inc. | Virtual surface modification |
| US20200210676A1 (en) | 2018-12-27 | 2020-07-02 | Simplex Mapping Solutions Sb Ltd. | Compact interval sweeping imaging system and method |
| JP7174074B2 (ja) * | 2019-01-09 | 2022-11-17 | 株式会社Fuji | 画像処理装置、作業ロボット、基板検査装置および検体検査装置 |
| CN109816764B (zh) * | 2019-02-02 | 2021-06-25 | 深圳市商汤科技有限公司 | 图像生成方法及装置、电子设备和存储介质 |
| GB2581792B (en) * | 2019-02-25 | 2023-01-04 | Mo Sys Engineering Ltd | Lens calibration system |
| CN109859256B (zh) * | 2019-03-13 | 2023-03-31 | 大连理工大学 | 一种基于自动对应点匹配的三维点云配准方法 |
| CN113574472A (zh) | 2019-03-14 | 2021-10-29 | 光场实验室公司 | 利用具有非零偏转角的能量引导表面引导能量的系统 |
| US12211155B1 (en) | 2019-03-15 | 2025-01-28 | Touchcast, Inc. | System and method for interactive video conferencing |
| US11212514B2 (en) * | 2019-03-25 | 2021-12-28 | Light Field Lab, Inc. | Light field display system for cinemas |
| CN109842811B (zh) * | 2019-04-03 | 2021-01-19 | 腾讯科技(深圳)有限公司 | 一种在视频中植入推送信息的方法、装置及电子设备 |
| US11601603B2 (en) * | 2019-04-24 | 2023-03-07 | Matthew Walker | System and method for real-time camera tracking to form a composite image |
| CN110123453B (zh) * | 2019-05-31 | 2021-07-23 | 东北大学 | 一种基于无标记增强现实的手术导航系统 |
| US11189098B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
| CN110446020A (zh) * | 2019-08-03 | 2019-11-12 | 魏越 | 沉浸式堪景方法、装置、存储介质及设备 |
| GB2586831A (en) * | 2019-09-05 | 2021-03-10 | Wolf In Motion Ltd | Three-Dimensional Content Generation using real-time video compositing |
| US11232646B2 (en) | 2019-09-06 | 2022-01-25 | Snap Inc. | Context-based virtual object rendering |
| KR102196032B1 (ko) * | 2019-10-21 | 2020-12-29 | 한국과학기술원 | 6 자유도 가상현실을 위한 다중 360 이미지 기반의 자유시점 이미지 합성 방법 및 그 시스템 |
| EP4051463A4 (en) * | 2019-10-29 | 2023-11-08 | ABB Schweiz AG | ROBOTIC CALIBRATION AND TUNING SYSTEM AND METHOD |
| CN111222401B (zh) * | 2019-11-14 | 2023-08-22 | 北京华捷艾米科技有限公司 | 一种手部关键点三维坐标的识别方法及装置 |
| CN110931121A (zh) * | 2019-11-29 | 2020-03-27 | 重庆邮电大学 | 一种基于Hololens的远程手术指导装置及操作方法 |
| CN111008305B (zh) | 2019-11-29 | 2023-06-23 | 百度在线网络技术(北京)有限公司 | 一种视觉搜索方法、装置以及电子设备 |
| US12106427B2 (en) | 2019-12-13 | 2024-10-01 | Sony Group Corporation | Rendering back plates |
| US11263817B1 (en) | 2019-12-19 | 2022-03-01 | Snap Inc. | 3D captions with face tracking |
| US11227442B1 (en) | 2019-12-19 | 2022-01-18 | Snap Inc. | 3D captions with semantic graphical elements |
| EP4076693A1 (en) | 2019-12-20 | 2022-10-26 | Niantic, Inc. | Location determination and mapping with 3d line junctions |
| CN111080629B (zh) * | 2019-12-20 | 2021-10-22 | 河北工业大学 | 一种图像拼接篡改的检测方法 |
| US11748844B2 (en) | 2020-01-08 | 2023-09-05 | Carvana, LLC | Systems and methods for generating a virtual display of an item |
| US12330057B2 (en) | 2020-02-10 | 2025-06-17 | Intel Corporation | Continuum architecture for cloud gaming |
| EP4107605A1 (en) * | 2020-02-20 | 2022-12-28 | Arti D2 Ltd. | Apparatus and methods for publishing video content |
| CN111461981B (zh) * | 2020-03-30 | 2023-09-01 | 北京百度网讯科技有限公司 | 点云拼接算法的误差估计方法和装置 |
| IL275163B (en) * | 2020-06-04 | 2022-07-01 | Elbit Systems Ltd | System and method for providing scene information |
| US11043041B1 (en) | 2020-07-10 | 2021-06-22 | Mindshow Inc. | Systems and methods configured to facilitate animation |
| US11514674B2 (en) * | 2020-09-04 | 2022-11-29 | Zillow, Inc. | Automated analysis of image contents to determine the acquisition location of the image |
| CN112367514B (zh) * | 2020-10-30 | 2022-12-09 | 京东方科技集团股份有限公司 | 三维场景构建方法、装置、系统和存储介质 |
| CN112767412B (zh) * | 2020-12-31 | 2024-04-12 | 东软睿驰汽车技术(沈阳)有限公司 | 车辆部件级分割方法、装置以及电子设备 |
| US12236466B2 (en) * | 2021-02-16 | 2025-02-25 | Micron Technology, Inc. | Size comparison methods including online commerce examples utilizing same |
| KR20230174237A (ko) * | 2021-04-21 | 2023-12-27 | 엘지전자 주식회사 | 포인트 클라우드 데이터 송신 장치, 포인트 클라우드데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법 |
| US11762481B2 (en) * | 2021-04-23 | 2023-09-19 | Lucasfilm Entertainment Company Ltd. | Light capture device |
| US12373999B2 (en) | 2021-04-23 | 2025-07-29 | Lucasfilm Entertainment Company Ltd. | User interfaces for color and lighting adjustments for an immersive content production system |
| US11978154B2 (en) | 2021-04-23 | 2024-05-07 | Lucasfilm Entertainment Company Ltd. | System and techniques for lighting adjustment for an immersive content production system |
| US11887251B2 (en) | 2021-04-23 | 2024-01-30 | Lucasfilm Entertainment Company Ltd. | System and techniques for patch color correction for an immersive content production system |
| CN113286163B (zh) * | 2021-05-21 | 2022-07-08 | 成都威爱新经济技术研究院有限公司 | 一种用于虚拟拍摄直播的时间戳误差标定方法及系统 |
| CN113240782B (zh) * | 2021-05-26 | 2024-03-22 | 完美世界(北京)软件科技发展有限公司 | 基于虚拟角色的流媒体生成方法及装置 |
| IL288889A (en) * | 2021-12-08 | 2025-01-01 | Elbit Systems Ltd | System and method for displaying scene information |
| CN115543065B (zh) | 2021-06-29 | 2025-09-19 | 富联国基(上海)电子有限公司 | 一种扩增实境环境中物件的展示方法与系统 |
| TWI771086B (zh) * | 2021-06-29 | 2022-07-11 | 新加坡商鴻運科股份有限公司 | 一種擴增實境環境中物件的展示方法與系統 |
| CN113345022B (zh) * | 2021-07-05 | 2023-02-17 | 湖南快乐阳光互动娱乐传媒有限公司 | 动态三维广告植入方法、装置、电子设备及存储介质 |
| CN113627983A (zh) * | 2021-08-10 | 2021-11-09 | 广州六六网络科技有限公司 | 一种基于视频创意的网络广告推广方法及系统 |
| US20230230152A1 (en) * | 2022-01-14 | 2023-07-20 | Shopify Inc. | Systems and methods for generating customized augmented reality video |
| US11948257B2 (en) * | 2022-05-09 | 2024-04-02 | Rovi Guides, Inc. | Systems and methods for augmented reality video generation |
| KR102453561B1 (ko) * | 2022-07-08 | 2022-10-14 | 이엑스 주식회사 | 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템의 동작 방법 |
| TWI870724B (zh) | 2022-10-31 | 2025-01-21 | 財團法人工業技術研究院 | 定位裝置以及載具的定位方法 |
| EP4369700A1 (en) * | 2022-11-08 | 2024-05-15 | Hexagon Geosystems Services AG | Method and system for tracking camera poses |
| CN118555352B (zh) * | 2023-02-27 | 2025-02-07 | 腾讯科技(深圳)有限公司 | 一种视频生成方法、装置、计算机设备和存储介质 |
| WO2024190223A1 (en) * | 2023-03-15 | 2024-09-19 | Sony Group Corporation | Cinema camera tracking using an ir tracking camera and calibration for virtual production |
| WO2024256966A1 (en) * | 2023-06-13 | 2024-12-19 | Imax Corporation | Coordinating image sequences captured and displayed in studio environments and theatre environments |
| WO2025105878A1 (ko) * | 2023-11-16 | 2025-05-22 | 박찬오 | 이벤트 카메라를 이용한 카메라 트래킹 시스템 |
| WO2025105877A1 (ko) * | 2023-11-16 | 2025-05-22 | 박찬오 | 라이다를 이용한 카메라 트래킹 시스템 |
Family Cites Families (55)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE69233334T2 (de) * | 1991-02-01 | 2005-02-17 | Canon K.K. | Kamera mit austauschbaren Linsen |
| US5991085A (en) * | 1995-04-21 | 1999-11-23 | I-O Display Systems Llc | Head-mounted personal visual display apparatus with image generator and holder |
| US6373489B1 (en) * | 1999-01-12 | 2002-04-16 | Schlumberger Technology Corporation | Scalable visualization for interactive geometry modeling |
| JP2000222116A (ja) * | 1999-01-29 | 2000-08-11 | Sony Corp | 表示画像の位置認識方法とその位置認識装置および仮想画像立体合成装置 |
| US7084867B1 (en) * | 1999-04-02 | 2006-08-01 | Massachusetts Institute Of Technology | Haptic interface system for collision detection and applications therefore |
| US6563105B2 (en) * | 1999-06-08 | 2003-05-13 | University Of Washington | Image acquisition with depth enhancement |
| DE10044032A1 (de) * | 2000-09-06 | 2002-03-14 | Deutsche Telekom Ag | 3-D Sehen |
| JP4878083B2 (ja) * | 2001-03-13 | 2012-02-15 | キヤノン株式会社 | 画像合成装置及び方法、プログラム |
| US20030076981A1 (en) * | 2001-10-18 | 2003-04-24 | Smith Gregory Hugh | Method for operating a pre-crash sensing system in a vehicle having a counter-measure system |
| JP4136420B2 (ja) * | 2002-03-29 | 2008-08-20 | キヤノン株式会社 | 情報処理方法および装置 |
| US20030202120A1 (en) * | 2002-04-05 | 2003-10-30 | Mack Newton Eliot | Virtual lighting system |
| US7138963B2 (en) * | 2002-07-18 | 2006-11-21 | Metamersion, Llc | Method for automatically tracking objects in augmented reality |
| US7002551B2 (en) * | 2002-09-25 | 2006-02-21 | Hrl Laboratories, Llc | Optical see-through augmented reality modified-scale display |
| JP4235522B2 (ja) * | 2003-09-25 | 2009-03-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
| US7391424B2 (en) | 2003-08-15 | 2008-06-24 | Werner Gerhard Lonsing | Method and apparatus for producing composite images which contain virtual objects |
| JP4401727B2 (ja) * | 2003-09-30 | 2010-01-20 | キヤノン株式会社 | 画像表示装置及び方法 |
| US7689321B2 (en) * | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
| JP4227561B2 (ja) * | 2004-06-03 | 2009-02-18 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
| WO2006083297A2 (en) * | 2004-06-10 | 2006-08-10 | Sarnoff Corporation | Method and apparatus for aligning video to three-dimensional point clouds |
| JP2006003263A (ja) | 2004-06-18 | 2006-01-05 | Hitachi Ltd | 視覚情報処理装置および適用システム |
| US7671893B2 (en) * | 2004-07-27 | 2010-03-02 | Microsoft Corp. | System and method for interactive multi-view video |
| US20060244831A1 (en) * | 2005-04-28 | 2006-11-02 | Kraft Clifford H | System and method for supplying and receiving a custom image |
| US7912257B2 (en) * | 2006-01-20 | 2011-03-22 | 3M Innovative Properties Company | Real time display of acquired 3D dental data |
| US20070248283A1 (en) | 2006-04-21 | 2007-10-25 | Mack Newton E | Method and apparatus for a wide area virtual scene preview system |
| JP4810295B2 (ja) * | 2006-05-02 | 2011-11-09 | キヤノン株式会社 | 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体 |
| US7558771B2 (en) * | 2006-06-07 | 2009-07-07 | Gm Global Technology Operations, Inc. | System and method for selection of prediction tools |
| US20080158345A1 (en) * | 2006-09-11 | 2008-07-03 | 3Ality Digital Systems, Llc | 3d augmentation of traditional photography |
| JP2008219788A (ja) | 2007-03-07 | 2008-09-18 | Toshiba Corp | 立体画像表示装置、方法およびプログラム |
| US8274530B2 (en) * | 2007-03-12 | 2012-09-25 | Conversion Works, Inc. | Systems and methods for filling occluded information for 2-D to 3-D conversion |
| JP4689639B2 (ja) * | 2007-04-25 | 2011-05-25 | キヤノン株式会社 | 画像処理システム |
| GB2452508A (en) * | 2007-09-05 | 2009-03-11 | Sony Corp | Generating a three-dimensional representation of a sports game |
| JP2009139995A (ja) * | 2007-12-03 | 2009-06-25 | National Institute Of Information & Communication Technology | ステレオ画像対における画素のリアルタイムマッチングのための装置及びプログラム |
| CN101464999B (zh) * | 2007-12-19 | 2011-01-05 | 鸿富锦精密工业(深圳)有限公司 | 三维色阶比对系统及方法 |
| GB2456802A (en) * | 2008-01-24 | 2009-07-29 | Areograph Ltd | Image capture and motion picture generation using both motion camera and scene scanning imaging systems |
| US8401276B1 (en) * | 2008-05-20 | 2013-03-19 | University Of Southern California | 3-D reconstruction and registration |
| US9082221B2 (en) * | 2008-06-30 | 2015-07-14 | Thomson Licensing | Method for the real-time composition of a video |
| US20100045701A1 (en) * | 2008-08-22 | 2010-02-25 | Cybernet Systems Corporation | Automatic mapping of augmented reality fiducials |
| JP5512683B2 (ja) * | 2008-09-11 | 2014-06-04 | ユニバーシティ オブ マルタ | 同期化された映像データを生成及び送信するための方法及び装置 |
| JP5328810B2 (ja) * | 2008-12-25 | 2013-10-30 | パナソニック株式会社 | 情報表示装置および情報表示方法 |
| WO2010087751A1 (en) * | 2009-01-27 | 2010-08-05 | Telefonaktiebolaget Lm Ericsson (Publ) | Depth and video co-processing |
| US20100208033A1 (en) * | 2009-02-13 | 2010-08-19 | Microsoft Corporation | Personal Media Landscapes in Mixed Reality |
| US8494225B2 (en) * | 2010-02-19 | 2013-07-23 | Julian L. Center | Navigation method and aparatus |
| US20110214082A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
| US20110222757A1 (en) * | 2010-03-10 | 2011-09-15 | Gbo 3D Technology Pte. Ltd. | Systems and methods for 2D image and spatial data capture for 3D stereo imaging |
| KR101335391B1 (ko) * | 2010-04-12 | 2013-12-03 | 한국전자통신연구원 | 영상 합성 장치 및 그 방법 |
| US8553989B1 (en) * | 2010-04-27 | 2013-10-08 | Hrl Laboratories, Llc | Three-dimensional (3D) object recognition system using region of interest geometric features |
| US9699438B2 (en) | 2010-07-02 | 2017-07-04 | Disney Enterprises, Inc. | 3D graphic insertion for live action stereoscopic video |
| JP5110138B2 (ja) * | 2010-09-22 | 2012-12-26 | カシオ計算機株式会社 | Ar処理装置、ar処理方法及びプログラム |
| US8600194B2 (en) * | 2011-05-17 | 2013-12-03 | Apple Inc. | Positional sensor-assisted image registration for panoramic photography |
| US9325960B2 (en) * | 2011-11-07 | 2016-04-26 | Autodesk, Inc. | Maintenance of three dimensional stereoscopic effect through compensation for parallax setting |
| US20130145434A1 (en) | 2011-12-06 | 2013-06-06 | William Wells | Unattended Authentication in a Secondary Authentication Service for Wireless Carriers |
| FR2984057B1 (fr) * | 2011-12-13 | 2014-01-03 | Solidanim | Systeme de tournage de film video |
| US9529426B2 (en) * | 2012-02-08 | 2016-12-27 | Microsoft Technology Licensing, Llc | Head pose tracking using a depth camera |
| CN103258339A (zh) * | 2012-02-16 | 2013-08-21 | 克利特股份有限公司 | 基于实况记录和基于计算机图形的媒体流的实时合成 |
| US8633970B1 (en) * | 2012-08-30 | 2014-01-21 | Google Inc. | Augmented reality with earth data |
-
2012
- 2012-05-09 GB GBGB1208088.3A patent/GB201208088D0/en not_active Ceased
-
2013
- 2013-05-09 WO PCT/GB2013/051205 patent/WO2013167901A1/en not_active Ceased
- 2013-05-09 GB GB1521863.9A patent/GB2535596B/en active Active
- 2013-05-09 SG SG10201600233SA patent/SG10201600233SA/en unknown
- 2013-05-09 IN IN10462DEN2014 patent/IN2014DN10462A/en unknown
- 2013-05-09 JP JP2015510876A patent/JP2015521419A/ja active Pending
- 2013-05-09 RS RS20230594A patent/RS64401B1/sr unknown
- 2013-05-09 HU HUE13726815A patent/HUE062417T2/hu unknown
- 2013-05-09 GB GB1308377.9A patent/GB2503563B/en active Active
- 2013-05-09 KR KR1020147034271A patent/KR20150013709A/ko not_active Withdrawn
- 2013-05-09 AU AU2013257788A patent/AU2013257788B2/en active Active
- 2013-05-09 SG SG11201407093UA patent/SG11201407093UA/en unknown
- 2013-05-09 EP EP13726815.7A patent/EP2847991B1/en active Active
- 2013-05-09 PL PL13726815.7T patent/PL2847991T3/pl unknown
- 2013-05-09 ES ES13726815T patent/ES2951587T3/es active Active
- 2013-05-09 FI FIEP13726815.7T patent/FI2847991T3/fi active
- 2013-05-09 PT PT137268157T patent/PT2847991T/pt unknown
- 2013-05-09 CN CN201380024596.2A patent/CN104322052B/zh active Active
- 2013-05-09 CA CA2872797A patent/CA2872797A1/en not_active Abandoned
- 2013-05-09 DK DK13726815.7T patent/DK2847991T3/da active
- 2013-05-09 HR HRP20230832TT patent/HRP20230832T1/hr unknown
- 2013-05-09 US US14/399,632 patent/US9600936B2/en active Active
-
2015
- 2015-08-19 US US14/830,494 patent/US11182960B2/en active Active
-
2021
- 2021-11-22 US US17/532,066 patent/US11721076B2/en active Active
-
2023
- 2023-08-07 US US18/230,721 patent/US12217375B2/en active Active
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12217375B2 (en) | System for mixing or compositing in real-time, computer generated 3D objects and a video feed from a film camera | |
| US11095837B2 (en) | Three-dimensional stabilized 360-degree composite image capture | |
| US10848732B2 (en) | Free viewpoint movement display device | |
| Wagner et al. | Real-time panoramic mapping and tracking on mobile phones | |
| Oskiper et al. | Augmented reality binoculars | |
| Solin et al. | PIVO: Probabilistic inertial-visual odometry for occlusion-robust navigation | |
| CN104584032A (zh) | 混合式精确跟踪 | |
| Yu et al. | A tracking solution for mobile augmented reality based on sensor-aided marker-less tracking and panoramic mapping | |
| Côté et al. | Live mobile panoramic high accuracy augmented reality for engineering and construction | |
| Baker et al. | Splat: Spherical localization and tracking in large spaces | |
| Chandaria et al. | The MATRIS project: real-time markerless camera tracking for augmented reality and broadcast applications | |
| Chandaria et al. | Realtime camera tracking in the MATRIS project | |
| Azzari et al. | Markerless augmented reality using image mosaics | |
| Oskiper et al. | Augmented reality scout: Joint unaided-eye and telescopic-zoom system for immersive team training | |
| Calloway | Adaptive Three-Tier Sensor Fusion Model with Application to See-Through Augmented Reality in Urban Environments | |
| HK1206517B (en) | A system for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera | |
| BR112014027853B1 (pt) | Sistema e método sem marcadores para mixagem ou composição em tempo real de objetos 3d gerados em computador e um sinal de vídeo de uma câmera de vídeo | |
| Gat et al. | Fusing image data with location and orientation sensor data streams for consumer video applications | |
| Galabov et al. | Adapting a method for tracking the movement of the camera in the visualization of augmented reality | |
| Tan | Virtual imaging in sports broadcasting: an overview | |
| Ventura | Wide-Area Visual Modeling and Tracking for Mobile Augmented Reality |