[go: up one dir, main page]

DE3620508C2 - Verfahren und Vorrichtung zum Erzeugen eines elektronischen Videobildsignals - Google Patents

Verfahren und Vorrichtung zum Erzeugen eines elektronischen Videobildsignals

Info

Publication number
DE3620508C2
DE3620508C2 DE3620508A DE3620508A DE3620508C2 DE 3620508 C2 DE3620508 C2 DE 3620508C2 DE 3620508 A DE3620508 A DE 3620508A DE 3620508 A DE3620508 A DE 3620508A DE 3620508 C2 DE3620508 C2 DE 3620508C2
Authority
DE
Germany
Prior art keywords
object scene
pixel
data
sampling
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE3620508A
Other languages
English (en)
Other versions
DE3620508A1 (de
Inventor
Robert L Cook
Thomas K Porter
Loren C Carpenter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pixar
Original Assignee
Pixar
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=25001650&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE3620508(C2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Pixar filed Critical Pixar
Publication of DE3620508A1 publication Critical patent/DE3620508A1/de
Application granted granted Critical
Publication of DE3620508C2 publication Critical patent/DE3620508C2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S345/00Computer graphics processing and selective visual display systems
    • Y10S345/949Animation processing method
    • Y10S345/952Simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

Die Erfindung betrifft ein Verfahren nach dem Oberbegriff der Ansprüche 1 bzw. 2, sowie eine Vorrichtung nach dem Oberbe­ griff des Anspruchs 17.
Auf dem Gebiet der Computergraphik werden zunehmend Folgen von Videobildrahmen bzw. -einzelbildern einer bewegten Objektszene aus in einem Computerspeicher gespeicherten Informationen der Szene zu erzeugt. Die Objektszenen-Datenbank oder -Datenbasis enthält Informationen der sichtbaren Charakteristiken der Objektszene, wie Farbe und Intensität sowie Bewegungsinformationen. Der Schöpfer einer Folge von Videorahmen oder -einzelbildern benutzt dann einen Computer, um Signale jedes Videorahmens aus der Datenbank in solcher Weise zusammenzusetzen, daß die vom Benutzer gewünschten Ansichten und die Bewegung der Objektszene zur Anzeige gebracht werden können.
Das elektronische Signal für jeden Videorahmen wird typischer­ weise durch elektronische Abtastung der Objektszenen-Datenbank entwickelt. Ein separater Satz von Digitalsignalen wird entwickelt, um die Farbe und/oder Intensität jedes Bild­ elements (Pixels) eines Standard-Rasterabtast-Videomonitors für jeden erzeugten Videorahmen darzustellen. Ein Pixel ist das kleinste Auflösungselement des Videodisplay.
Zur Gewinnung der Farb- und/oder Intensitätswerte für jedes Pixel wird eine in einem Speicher abgelegte Datenbasis (bzw. Datenbank) abgetastet. Die Daten der Datenbasis enthalten Parameter und Farb-/Intensitätsinformationen.
Das Abtasten erfolgt, indem ein Parameterwert gewählt wird, auf den Datensatz mit dem Parameterwert zugegriffen wird und die dem Datensatz zugeordneten Farb-/Intensitätswerte ausgelesen werden.
Im einfachsten (und anschaulichsten) Fall sind die Parameterwerte die x- und y-Koordinaten einer 2-dimensionalen Speicher­ abbildung. Durch Auswahl eines x-y-Parameterpaares wird auf einen Datensatz mit zugeordneten Farb-/Intensitätswerten zuge­ griffen, d. h. dieser Punkt der Datenbasis abgetastet.
Die abgetasteten Farb-/Intensitätswerte werden anschließend zu Farb-/Intensitätswerten des zugeordneten Pixels kombiniert.
Bei der Abtastung wird die Farbe und/oder Intensität des Pixels im allgemeinen durch Mittelwertbildung der abgetasten Objektszeneninformation über einen gewissen Teil des Bereichs des Pixels oder durch Abtasten der Information an mehreren Punkten innerhalb des Pixelbereichs in einer Form eines sich periodisch wiederholenden Musters gewonnen.
Neuere Entwicklungen auf dem Gebiete der Computergraphik wurden auf eine Erhöhung des Realismus der sich ergebenden Bilder gerichtet. Fortschritte wurden beispielsweise bei der ori­ ginalgetreueren Reproduktion von Objektmaserungen bzw. -texturen, Schatten, Reflexionen und Durchlässigkeiten erzielt. Erhebliche Anstrengungen wurden auf das Problem der Aliasing- Verfälschungen gerichtet. Existierende Abtastmethoden neigen zur Erzeugung von Vidiobildern mit verfälschten bzw. Aliasing- Abbildungen, d. h., Bildern welche als reales Abbild erscheinen, jedoch in Wirklichkeit in der Computer-Datenbank nicht gespeichert sind. Dies wird allgemein als eine typische Eigenschaft von Bildern angesehen, welche mit Hilfe der in verschiedener Weise verwendeten Punktabtastmethoden gebildet werden.
Der Erfindung liegt daher die Aufgabe zugrunde, ein Computer­ graphikverfahren und eine zugehörige Anordnung zur Verfügung zu stellen, die den Realismus der resultierenden Videobildrah­ men verbessert und die Gefahr von Aliasing-Verfälschungen verringert.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen der Ansprüche 1 oder 2 bzw. eine Vorrichtung mit den Merkmalen des Anspruchs 17 gelöst. Die Objektszeneninformation in der Computer-Datenbank wird an Punkten abgetastet, welche in einer oder mehreren Funktionen oder Dimensionen pseudo- zufällig verteilt sind.
Durch die pseudo-zufällige oder unregelmäßige Auswahl der Parameterwerte und damit der ihnen entsprechenden Datensätze mit zugeordneten Farb- und/oder Intensitätswerten der Objekt­ szene werden der Realismus der Abbildungswiedergabe erhöht und insbesondere Aliasing-Effekte verringert.
Bei einer vorteilhaften Weiterbildung der Erfindung enthalten die Parameter zwei oder drei Ortskoordinaten einer im Speicher abgelegten Objektszene. Die Abtastung erfolgt durch pseudo- zufällige Auswahl von Ortskoordinaten in dem dem jeweiligen Pixel entsprechenden Bereich.
Bei einer weiteren Ausführungsform wird die pseudo-zufällige Verteilung von Punktabtastungen über die Zeit vorgenommen, die von dem konstruierten Videobildrahmen benötigt wird.
Durch diese Verfahren werden unerwünschte Aliasing-Bilder sowohl räumlich (bei Wiedergabe räumlich periodischer Muster- z. B. Lattenzaun), als auch zeitlich (Verhindern eines Stroboskop-Effekts) beträchtlich reduziert oder sogar eliminiert. Die Verteilung von Abtastungen über die Zeit erhöht auch den Realismus des Videobildes durch Addition der Bewegungsunschärfe des Bildes, die auftreten würde, wenn die Objektszene mit üblichen Techniken photographiert worden wäre.
Gemäß einem anderen Ausführungsbeispiel der Erfindung wird ein Videobild mit einer Tiefenschärfe konstruiert, indem die Datenbank so abgetaste wird, als ob die durch sie darge­ stellte Objektszene durch eine Linse einer begrenzten Apertur betrachtet werden würde, welche nur eine begrenzte Tiefe der Objektszene scharf abbildet. Die Punktabtastungen werden pseudo- zufällig über eine definierte Linsenöffnung bzw. Lochblende gerichtet, wenn die Datenbankinformation abgetastet wird.
Gemäß einem weiteren Ausführungsbeispiel der Erfindung werden Reflexions- und Transmissionscharakteristiken eines Objektes dadurch berücksichtigt, daß der an jedem Abtastpunkt auftretende Streuungsgrad beobachtet wird. Ein besonderer Reflexions- oder Brechungswinkel wird pseudo-zufällig für jeden Abtastpunkt aus einem Bereich möglicher Winkel in Abhängigkeit von der Ob­ jektcharakteristiken ausgewählt. Dies trägt zum Realismus des resultierenden Bildes infolge der Berücksichtigung der diffu­ sen, verschwommenen Reflexionen und Durchscheineffekte bei, welche den meisten realen Objekten eigen ist.
Bei einer Weiterbildung der Erfindung wird eine Intensi­ tätsverteilung für eine Lichtquelle angegeben, welche die Ob­ jektszene beleuchtet. Ein einzelnes Lichtstrahlbündel wird pseudo-zufällig aus der angegebenen Lichtquellenverteilung für jeden Abtastpunkt ausgewählt. Diese Methode hat den Vorteil einer Eliminierung von harten Schatten, welche aus existierenden Methoden resultieren. Außerdem trägt die Erfindung zu einem verbesserten Realismus der Bilder bei, wenn eine Lichtquelle nur teilweise abgedunkelt ist.
Vorteilhafte Weiterbildungen der Erfindung sind in den Un­ teransprüchen gekennzeichnet.
Weitere Vorteile und Aspekte der Erfindung ergeben sich aus der nachfolgenden Beschreibung von bevorzugten Ausführungsbeispielen in Verbindung mit der zugehörigen Zeich­ nung. In der Zeichnung zeigen:
Fig. 1 ein Blockschaltbild eines zur Ausführung der ver­ schiedenen Aspekte der vorliegenden Erfindung ge­ eigneten Computersystems;
Fig. 2 eine mögliche Form der Objektszeneninformation, die in den Computerspeichern gemäß Fig. 1 gespeichert ist;
Fig. 3 und 4 zwei bekannte Punktabtastmethoden;
Fig. 5, 6 und 7 drei spezielle Ausführungsbeispiele der pseudo-zufälligen räumlichen Methoden der Erfin­ dung;
Fig. 8 die räumliche Pseudonymabbildung (spatial aliasing) der bekannten Methoden gemäß Fig. 3 und 4;
Fig. 9 die durch das pseudo-zufällige Punktabtastverfahren nach der Erfindung bewirkte Verbesserung;
Fig. 10 eine Fourier-Transformation eines periodisch abge­ tasteten Signals;
Fig. 11 eine Fourier-Transformation eines pseudo-zufällig abgetasteten Signals;
Fig. 12 generell die Verteilung der Punktabtastungen über die Zeit;
Fig. 13, 14, 15 und 16 einige spezielle Ausführungsbei­ spiele des pseudo-zufälligen Zeitabtast-Aspekts der Erfindung;
Fig. 17 generell eine Computer-Datenbankabtastung durch eine vorgegebene Verteilung von Abtastpunkten auf einer Bildebene;
Fig. 18 eine Abtastmethode, die ein Bild mit einer Tie­ fenschärfe erzeugt;
Fig. 19 ein Beispiel für einen Strahlverlauf für eine einzige Abtastung, welches die Effekte der Refle­ xion, der Brechung und der Lichtquellenverteilung zeigt;
Fig. 20, 21 und 22 zusätzliche Einzelheiten des in Fig. 19 gezeigten Beispiels; und
Fig. 23 eine andere Anwendung der erfindungsgemäßen Ver­ fahrensweise.
Im folgenden wird zunächst auf Fig. 1 Bezug genommen, in der ein generelles Computersystem dargestellt ist, das zum Ausfüh­ ren der weiter unten genauer beschriebenen verschiedenen As­ pekte der Erfindung geeignet ist. Ein gemeinsamer Bus 11 ist mit einer Zentraleinheit (CPU) 13 und einem Hauptspeicher 15 verbunden. Der Bus 11 ist außerdem mit einer Tastatur 17 und einem größeren Plattenspeicher 19 verbunden. Geeignet ist beispielsweise ein im Handel erhältliches VAX-11/780 oder ein Cray Großcomputersystem. Ein Einzelbildpuffer 21 erhält vom Bus 11 Ausgangsinformationen und legt sie über einen Bus 23 an einen Standard-Farbfernsehmonitor 25 oder ein anderes Peripheriege­ rät 27 an, das die resultierenden Einzelbilder direkt auf einen Film schreibt. Außerdem kann ein Ausgabegerät einfach ein Videorekorder üblicher Ausführung sein.
Fig. 2 zeigt die Organisation der Information der Objektsze­ ne, die im Speicher des Computersystems gemäß Fig. 1 gespei­ chert ist. Es gibt viele Möglichkeiten zur Speicherung dieser Informationen, von denen eine in Verbindung mit der vorliegen­ den Erfindung zur Beschreibung ausgewählt wird. Diese Methode umfaßt das Aufbrechen der Objektszene in Komponenten, die im folgenden als geometrische Primitivformen bezeichnet werden. Eine solche geometrische Primitivform ist ein Polygon 31, wie es beispielsweise in Fig. 2 innerhalb eines Rasters 33 darge­ stellt ist, das einige durch Strichlinien umgrenzte benachbarte Pixel des resultierenden Displays zeigt. Das resultierende Display zeigt natürlich die Farbe und Intensität der Objektszene in­ nerhalb jedes Pixels als einheitlich, wobei die Größe des Pixels die Auflösungselementengröße des Displays ist. Das Polygon stellt Teile der in einem Videorahmen bzw. Videobild darzustellenden Objektszene dar.
Die im Computerspeicher für jedes Objektpolygon gespeicherte Information ist so ausführlich, wie es für die Erzeugung eines Videobildrahmens besonderer Qualität notwendig ist. Seine Position muß natürlich ein Teil dieser Information sein und wird zweckmäßigerweise durch die x, y und z-Koordinaten be­ zeichnet. Die x, y und z-Koordinaten jedes der Eckpunkte des Polygons sind für jeden zu entwickelnden Videorahmen in der in Fig. 2 bezüglich des Polygons 31 gezeigten Weise gespeichert. Die "x" und "y"-Zahlen stellen natürlich die Horizontal- bzw. Vertikalpositionen der Punkte dar, während die "z"-Zahl dessen Abstand hinter dem zu entwickelnden Videorahmen (Bildebene) angibt.
Um die in der Zeitperiode eines Einzelbildes auftretende Bewe­ gung der Objektszene abtasten zu können, eine Technik, die nachfolgend genauer beschrieben werden wird, werden für jedes Polygon auch Informationen bezüglich dessen Bewegung während dieser Zeitperiode aufrechterhalten. In Fig. 2 ist eine zwei­ te Position 31′ des gleichen Polygons dargestellt, dessen Eckpunktkoordinaten als inkrementelle Änderungen gegenüber denjenigen der Anfangspositionen gespeichert werden. Die für das Polygon 31 gezeigte Position ist vorzugsweise beispiels­ weise diejenige bei Beginn eines Videorahmens, während die Position 31′ diejenige am Ende des Videorahmens ist. Das Poly­ gon kann auch während dieser Zeitperiode seine Form ändern.
Neben den Positionen jedes Objektflächenpolygons, die in der Datenbank gespeichert sind, sind auch gewisse visuelle Charak­ teristiken für jedes Polygon gespeichert. Hierzu gehören sepa­ rate rote, grüne und blaue Farbreflexionssignale, rote, grüne und blaue Transparenzsignale, das Ausmaß von Lichtstreuungen bei Reflexion, das Ausmaß von Lichtstreuung bei Transmission durch die Oberfläche und ähnliche Eigenschaften. Die Verwen­ dung dieser und anderer Informationen werden nachfolgend in Verbindung mit der Beschreibung des erfindungsgemäßen Verfah­ rens genauer erläutert.
Im folgenden wird auf Fig. 3 Bezug genommen, in der eine üblicherweise verwendete Methode zur Bestimmung der Farbe und/oder Intensität jedes Pixels des Bildrahmens dargestellt ist. Die Information in der Computer-Datenbank, in diesem Beispiel diejenige der in Fig. 2 dargestellten Polygone, die in dem von einem besonderen Pixel eingenommenen Raum vorhanden ist, wird aus einer Vielzahl von Punkten innerhalb des Pixels bzw. Bildelements bestimmt. Eine große Anzahl von Punkten ist in Fig. 3 dargestellt, wobei die Punkte periodisch in beiden Dimensionen verteilt werden. Es gibt jedoch einige Methoden, bei denen nur ein oder wenige Abtastpunkte pro Pixel verwendet werden. Die Beschaffenheit der Objektszene in jedem dieser Abtastpunkte wird bestimmt: die so bestimmten Werte werden in irgendeiner Weise, beispielsweise durch Mittelwertbildung kombiniert, um die Farbe und Intensität dieses Pixels des Bildrahmens zu bestim­ men.
Fig. 4 zeigt eine ähnliche periodische Punktabtastmethode, bei der allerdings nicht alle Punktabtastungen in jedem Falle aufgenommen werden. Stattdessen wird die volle Dichte des periodischen Abtastmusters nur in Bereichen eines Pixels ver­ wendet, wo Änderungen der Objektszene auftreten, wie dies beispielsweise durch eine Linie 35 schematisch dargestellt ist. Diese bildabhängige Methode reduziert die Anzahl der Abtastungen und die benötigte Verarbeitungszeit.
Diese und andere periodische Abtastmethoden resultieren jedoch in Bildrekonstruktionen, welche "Pseudonymbilder" bzw. Bild­ verfälschungen ("aliases") des anzuzeigenden realen Bildes enthalten. Erhebliche Bemühungen richteten sich auf die Ent­ wicklung von Anti-Aliasing-Methoden, und ein Verfahren be­ stand darin, das aus einer periodischen Punktmuster-Abtast­ methode gewonnene Videosignal zu verarbeiten, um die Aliasing-Effekte zu eliminieren. Andere Vorschläge richteten sich auf die Abtastung in einer nicht-periodischen zitternden Weise für eine Anzahl von besonderen Abtast- bzw. Samplinganwendun­ gen. Das erfindungsgemäße Verfahren umfaßt Verbesserungen an und neue Anwendungen von solchen bekannten Methoden.
Drei unterschiedliche spezielle Pseudozufalls-Abtastverfahren sind in den Fig. 5, 6 und 7 veranschaulicht, wobei ein einziges Bildelement bzw. Pixel dargestellt ist und zur Ver­ einfachung der Darstellung nur vier Punktabtastungen pro Pixel beschrieben werden. Bei einer tatsächlichen Implementierung würden wahrscheinlich 16 oder sogar 64 Abtastungen pro Pixel verwendet, wenn alle Aspekte der vorliegenden Erfindung ausge­ nutzt würden. Für andere spezielle Implementierungen könnte eine kleinere Anzahl von Abtastungen, beispielsweise eine Ab­ tastung pro Pixel, verwendet werden. In jedem Falle ist jedoch das Muster von Punktabtastungen sowohl innerhalb jedes Pixels als auch über die Fläche des Bildes in dessen Gesamtheit nicht-periodisch und bildet ein nicht-rechtwinkliges und nicht-geradliniges Gittermuster. Außerdem kann sich jedes ausgewählte Abtastmuster über einen Bereich einer Vielzahl von Pixeln oder nur über einen Teil eines Pixels erstrecken. Die im folgenden beschriebenen Beispiele verwenden eine Abtast- bzw. Samplingfläche, die mit derjenigen eines Pixels zusammen­ fällt, um das Verständnis der Erfindung zu erleichtern.
Bei jedem der Ausführungsbeispiele nach den Fig. 5, 6 und 7 wird die Lage der Abtastpunkte innerhalb des Pixels dadurch bestimmt, daß zunächst das Pixel in eine Anzahl von nicht­ überlappenden Zonen gleich der Anzahl von Abtastpunkten - in diesem Falle vier - unterteilt wird. Ein Abtastpunkt ist in­ nerhalb jeder dieser Zonen begrenzt, was dazu beiträgt, die Abtastpunkte gespreizt zu halten. Die vier Zonen des Pixels sind in den Figuren mit den Bezugszeichen 41, 43, 45 und 47 bezeichnet. Die Zonen sind rechtwinklig gezeigt, können jedoch andere Formen haben.
Bei dem Ausführungsbeispiel gemäß Fig. 5 wird der Ort des Abtastpunkts für jede dieser vier Zonen pseudo-zufällig be­ stimmt. Idealerweise sind die "Zufalls"-Zahlen, die zur Be­ stimmung der Orte verwendet werden, rein zufällig; da sie jedoch vom Computer bestimmt werden, gibt es ein Wiederho­ lungselement der Abtastposition innerhalb der definierten Zone, obwohl die Lageverteilung einer großen Zahl von Abtast­ orten mit derjenigen einer Zufallsverteilung weitgehend über­ einstimmt. Der übliche Weg eines Computers zur Erzeugung der x, y-Koordinaten jedes Abtastpunkts ist die Verwendung einer Nachschlagetabelle im Speicher, die eine Liste von Zahlen mit einer eine Zufallsgruppe von Zahlen entsprechenden Verteilung enthält. Die übliche Methode des Computerzugriffs besteht darin, die Zahlentabellen in Folge zu durchlaufen, so daß sich einige Wiederholungen ergeben, da die Zahlentabelle eine end­ liche Länge hat. Die Länge der Liste von Zahlen kann jedoch sehr groß sein, so daß die Wiederholung bei einer beträcht­ lichen Anzahl von Abtastpunkten tatsächlich nicht auftritt. Um jedoch sowohl eine vollständig zufällige Auswahl von Abtastor­ ten als auch eine von einer solchen Computer-Nachschlagetabel­ le gesteuerte Zahlenfolge angemessen zu beschreiben, werden die Orte in der vorliegenden Beschreibung und in den Ansprü­ chen als "pseudo-zufällig" bezeichnet.
Bei einer Implementierung der Methode gemäß Fig. 5 wird das gleiche Abtastmuster für jedes Pixel in einem vorgegebenen Bildrahmen verwendet. Vorzugsweise wird jedoch jede Periodizi­ tät des Abtastmusters eliminiert, wobei sichergestellt wird, daß keine zwei benachbarten Pixel dasselbe Abtastmuster haben. Dies kann dadurch geschehen, daß eine genügend lange Nach­ schlagetabelle von Zufallszahlen verwendet wird. Vorzugsweise wird ein Abtastmuster erzeugt, bei dem keine zwei benachbarten Pixel (einschließlich der diagonal benachbarten Pixel) dassel­ be Muster haben, ein Ergebnis der in den Fig. 6 und 7 ver­ anschaulichten Methoden.
Gemäß Fig. 6 hat jede der vier nicht-überlappenden Zonen des dargestellten Pixels einen lagefesten Bezugspunkt, beispiels­ weise in der Mitte jeder Zone. Jeder aktuelle Abtastpunktort wird dann dadurch vom Computer bestimmt, daß eine zufällige positive oder negative Zahl zu jeder der x und y-Koordinaten des Bezugspunkts addiert wird. Diese Offset-Zahlen werden willkürlich bestimmt, beispielsweise aus der Computer-Zufalls­ zahl-Nachschlagetabelle, so daß eine Wiederholung des Musters für eine sehr große Zahl von Pixeln nicht auftritt.
Eine andere Anwendung derselben Offset-Methode ist eine Kom­ bination der Methoden gemäß Fig. 5 und 6, wie sie in Fig. 7 gezeigt ist. Diese Methode ist sehr ähnlich derjenigen gemäß Fig. 5 und unterscheidet sich von derjenigen gemäß Fig. 6 dadurch, daß ihre Bezugspunkte, anstatt fest in der Mitte der zugehörigen Pixelzonen, verteilt angeordnet sind. Das Bezugs­ punktmuster des Ausführungsbeispiels gemäß Fig. 7 kann für jedes Pixel gleich sein, jedoch werden die aktuellen Punktab­ tastorte bestimmt durch Addition eines positiven oder negati­ ven x, y-Koordinaten-Offset-Inkrement zu den Koordinaten jedes Bezugspunkts. Zweckmäßigerweise wird für das maximale Offset jeder Zone eine Grenze gesetzt, wie dies durch die gestrichel­ te Einfassung um jeden der Bezugspunkte in Fig. 7 dargestellt ist. Die Abtastpunkte in dem Ausführungsbeispiel gemäß Fig. 6 können jedoch irgendwo innerhalb des entsprechenden Abschnitts der Zone des Pixels angeordnet werden.
Indem zunächst nicht-überlappende Zonen definiert werden, in denen ein einziger Abtastpunkt liegt, wird eine Häufung von Abtastpunkten vermieden. Es ist zu erkennen, daß dann, wenn jeder der vier Abtastpunkte irgendwo innerhalb des gesamten Pixels angeordnet werden könnte, wegen der zufälligen Auswahl dieser speziellen Orte der Fall auftreten könnte, daß zwei oder mehr der Abtastpunkte zusammenfallen würden. Obwohl die Definition eines Bereichs möglicher Abtastpunktorte innerhalb einer nicht-überlappenden Zone dies bewirkt, könnten offenbar einige Abwandlungen dieser besonderen Methode, z.B. durch Zulassen einer leichten Überlappung der Zone oder eine andere Abwandlung vorgenommen werden. Es ergeben sich selbst dann bei speziellen Anwendungen keine Probleme, wenn die Abtastpunkte in solcher Weise gewählt werden, daß ihre Häufung nur gele­ gentlich auftritt.
Jedes der anhand von den Fig. 5, 6 und 7 beschriebenen Verfahren liefert ein aus einer Computer-Datenbank abgetaste­ tes Bild, welches weniger verfälschte Bilder als bei der Anwendung einer periodischen Punktab­ tastverteilung hat. Das in Fig. 5 gezeigte Verfahren, bei dem dasselbe Muster für jedes Pixel des Bildes wiederholt wird, erbringt bereits eine gewisse Verbesserung; jedoch sind die Methoden nach den Fig. 6 und 7 wesentlich besser geeig­ net, Aliasing-Effekte zu reduzieren. Das Verfahren gemäß Fig. 7 hat sich als das Beste erwiesen, da es den zu­ sätzlichen Vorteil geringeren Rauschens bzw. geringerer Stör­ signalbildung hat.
Im folgenden wird auf Fig. 8 Bezug genommen, in der ein Bei­ spiel zur Gewinnung und Wiedergabe eines verfälschten Bildes (aliased image) angegeben ist. Fig. 8(A) zeigt ein "Lattenzaun"-Bild mit "Latten" 51, 53 55, 57 und 59. Dieses Bild wird durch eine periodische Verteilung von Punkten 61, 63, 65, 67 und 69 abgetastet, die der Einfach­ heit halber nur in einer einzigen Dimension dargestellt sind. Da die Periode der Abtastpunkte größer als diejenige einer periodischen Intensitätsänderung des Bildes ist, werden nicht alle Änderungen naturgetreu reproduziert. Fig. 8 (B) zeigt das Bild eines Videodisplay, das aus den Abtastungen gemäß Fig. 8 (A) entwickelt wurde, wobei ein Bereich 71 bei einer Intensi­ tät und ein Bereich 73 bei einer anderen Intensität abgebildet wird. Selbstverständlich ist das Bild gemäß Fig. 8 (B) keine getreue Reproduktion des Bildes von Fig. 8 (A). Da jedoch drei der Abtastpunkte einen Bereich des Bildes treffen, der die eine Intensität hat, und die anderen beiden Abtastpunkte einen Bereich des Bildes mit der anderen Intensität treffen, können die Einzelheiten der anderen Variationen nicht naturgetreu reproduziert werden. Die Kurve gemäß Fig. 8 (C) stellt die Intensitätsänderung des Bildes gemäß Fig. 8 (A), die Kurve gemäß Fig. 8 (D) die Abtastfunktion und die Kurve gemäß Fig. 8 (E) das resultierende Bild von Fig. 8 (B) dar.
Zur Vermeidung solcher Bildabweichungen wurde bereits vorge­ schlagen, die Anzahl von Abtastpunkten zur Erfassung der De­ tails zu erhöhen. Das soll heißen, daß die Zahl von Abtastun­ gen erhöht wird, um die bekannte Nyquist-Grenze zu erhöhen. Die hierfür notwendigen zusätzlichen Abtastpunkte erhöhen jedoch die rechnerische Komplexität und können das angegebene Problem niemals angemessen lösen; sie reduzieren nur die Häu­ figkeit des genannten Effekts. Unabhängig von der Zahl der verwendeten Abtastungen gibt es immer gewisse Situationen des Aliasing bzw. der Bildverfälschung, insbe­ sondere wenn sich die Szene ändert. In diesem Falle erscheint ein Lattenzaun als flimmerndes Schwarz- und -Weiß-Bild über eine große Zone, ein sehr unerwünschtes Ergebnis.
Im folgenden wird auf Fig. 9 Bezug genommen, in der der Ef­ fekt eines zufällig verteilten Musters von Abtastpunkten dar­ gestellt. Fig. 9 (A) zeigt dasselbe Bild eines "Lattenzauns" in der Computer-Datenbank wie Fig. 8 (A). Die Abtastpunkte in Fig. 9 (A) sind jedoch nicht-periodisch verteilt, so daß das resultierende Bild gemäß Fig. 9 (B) grau erscheint, anstelle der großen weißen oder schwarzen Bereiche. Das Bild gemäß Fig. 9 (B) erscheint grau, da abwechselnde Bereiche des Bildes schwarz und weiß sind, anstelle Großberei­ che jeder Farbe entsprechend der Darstellung in Fig. 8 (B) zu haben. Wenn die Abtastpunkte gemäß Fig. 9 (A) relativ zu dem "Lattenzaun"-Bild abgetastet werden, so ergibt sich ein etwas verrauschter bzw. gestörter visueller Effekt ähnlich einem Filmkorn, der jedoch wesentlich weniger störend als ein großflächiges Aufblitzen von schwarz oder weiß ist. Der Rauschpegel wird von der Anzahl von Abtastungen pro Flächen­ einheit gesteuert.
Fig. 10 und 11 zeigen in der Frequenzebene den Effekt einer periodischen bzw. stochastischen Punktabtastung. In beiden Fig. 10 und 11 sind die Kurven (A) gleich und beinhalten ein Originalsignal in Form einer Sinuswelle in der Raumebene (space domain). Die Kurven (B) unterscheiden sich jedoch dar­ in, daß Fig. 10 (B) die Frequenzverteilung eines räumlich periodischen Abtastmusters zeigt, während Fig. 11 (B) die Frequenzverteilung des idealen stochastischen Abtastmusters darstellt. In beiden Fällen ist die Abtastfrequenz unterhalb der Nyquist-Grenze des Originalsignals angenommen, so daß eine naturgetreue Reproduktion des Originalsignals nicht möglich ist. Der Vergleich der Kurven der Fig. 10 und 11 zeigt jedoch den Anti-Aliasing-Effekt einer Zufallsverteilung. Die räumliche Abtastverteilung über das Bild ist vorzugsweise so gewählt, daß eine Fourier-Transformation einer solchen Vertei­ lung über eine unendliche Ebene einer Poisson-Scheiben-Vertei­ lung, gezeigt in Fig. 11 (B), angenähert ist. Zu den Hauptcha­ rakteristiken einer solchen Verteilung gehören ein sehr hoher Pegel bei Null-Frequenz, eine Stärke von etwa Null bis zu einer vorgegebenen Frequenz (sowohl positiv als auch negativ), und dann eine im wesentlichen konstante Stärke bei höheren Fre­ quenzen. Ausgenommen bei Null-Frequenz ist die Abtastfunktion in der Frequenzebene (Fig. 11 (B)) im wesentlichen kontinuier­ lich. Solch eine Verteilung in der Frequenzebene liefert die gewünschte räumliche Zufälligkeit der Position und vermeidet eine Häufung der Abtastpunkte. Die unter Bezugnahme auf die Fig. 5 bis 7 beschriebenen Methoden kommen einer solchen Verteilung sehr nahe.
Die Verteilung (C) in Fig. 10 und 11 zeigt das abgetastete Signal in jedem der beiden Beispiele, das Ergebnis der Faltung des Signals der Kurven (A) mit der Abtastverteilung der Kurve (B). Bei dem periodisch räumlichen Abtastbeispiel gemäß Fig. 10 wird eine Anzahl von fremden Nadelimpulsen gewonnen, da jeder der abtastenden Na­ delimpulse gemäß Fig. 10 (D) individuell mit jedem der Nadel­ impulse des Signals gemäß Fig. 10(A) gefaltet wird. Da die Frequenzen des Signals gemäß Fig. 10(A) diejenige der Abtast­ funktion gemäß Fig. 10 (B) übersteigen, ist das abgetastete Signal gemäß Fig. 10 (C) nicht eine getreue Wiedergabe des Originalsignals. Wenn das abgetastete Signal gemäß Fig. 10 (C) wiedergegeben wird, ist es im Ergebnis mit einer Tiefpaßfilterfunktion ähnlich der Fig. 10 (D) multipliziert. Das sich ergebende abgetastete Signal ist in Fig. 10 (E) gezeigt, das den Teil des Signals der Fig. 10 (C) darstellt, der innerhalb des Band­ passes der Filterfunktion gemäß Fig. 10 (D) liegt. Das in Fig. 10 (E) angegebene Signal ist in der Lage, Aliasing-Bilder zu rekonstruieren, welche wenig oder keine Ähnlichkeit mit demjenigen des abgetasteten ursprünglichen Signals haben.
Das abgetastete Signal gemäß Fig. 11 (C) entspricht ebenfalls nicht dem Originalsignal der Fig. 11 (E), jedoch beim Multi­ plizieren mit seinen Filtercharakteristiken gemäß Fig. 11 (D) ist das resultierende abgetastete Signal gemäß Fig. 11 (E) gleichmäßig über den Frequenzbereich des Filters. Dies erzeugt ein weißes Bildrauschen, das bei der Rekonstruktion eines unverfälscht erscheinenden Bildes bei weitem vorzuziehen ist.
Die unter Bezugnahme auf die Fig. 5 bis 7 beschriebenen Verfahren können auch in einem Abtastsystem benutzt werden, das das Abtastmuster in Abhängigkeit vom Inhalt der abgetaste­ ten Bildinformation ändert, einer sogenannten adaptiven Ab­ tastung. Das Muster der Abtastpunkte kann in einem Flächenab­ schnitt bei reduziertem Maßstab wiederholt werden, wenn sich beispielsweise das Bild ändert oder eine Einzelheit innerhalb dieses Abschnitts einer Abtastzone dies erforderlich macht.
Gemäß einem anderen Aspekt der Erfindung werden ähnliche Samp­ ling- bzw. Abtastmethoden über die Zeit verwendet, um eine realistische Bewegungsunschärfe (motion blur), wie er bei Video- und Filmtechniken existiert, zu addieren. Zunächst wird auf Fig. 12 Bezug genommen. Danach werden für das Beispiel­ pixel gemäß Fig. 5 bis 7 die vier Abtastungen zu unter­ schiedlichen Zeiten t1, t2, t3 und t4 vorgenommen, unabhängig von der speziellen Methode der räumlichen Lokalisierung der Abtastpunkte. Diese Zeiten sollen innerhalb eines Intervalls liegen, das einer typischen Verschlußöffnung für Video-Bild­ aufnahmen entspricht, die mit diesen Methoden simuliert werden sollen. Wenn daher während des Intervalls eines einzigen, in der Computer-Datenbank angegebenen Videorahmens eine Bewegung der Objekte stattfindet, so zeigt das resultierende Bild die­ ses Rahmens, rekonstruiert aus den der Datenbankinformation entnommenen Abtastungen, in ähnlicher Weise eine Bewegungsun­ schärfe.
Um zeitliche Aliasing-Bildverfälschungen zu reduzieren oder vollständig zu eliminieren wird die Zeitverteilung der Abtastungen über das Einzelbild-Intervall pseudo-zufällig bestimmt. In Fig. 13 ist eine Zeitlinie mit vier nicht-überlappenden Zeitintervallen gezeigt, welche die zeitlichen Grenzen für das Auftreten jedes der vier Abtastpunkte darstellen. Eine pseudo-zufällige Aus­ wahl der Zeit für jede Abtastung innerhalb jedes dieser Inter­ valle ist in Fig. 13 gezeigt. Die gleiche Zeitverteilung in Fig. 13 könnte für jedes Pixel des zu konstruierenden Bild­ rahmens verwendet werden, jedoch sind die Abtastzeiten vor­ zugsweise zumindest für jedes der unmittelbar benachbarten Pixel verschieden, um den angestrebten Anti-Aliasing- Effekt zu optimieren. Ein temporärer Aliasing- Effekt kann auftreten, wenn Änderungen in der Szene auftre­ ten, beispielsweise ein Blitzlicht, das schneller als die Abtastperiode ist Stroboskop-Effekt. Es ist auch zu erkennen, daß die Zeitver­ teilung gemäß Fig. 13 die gleichen Betrachtungen wie die anhand von Fig. 5 beschriebene räumliche Verteilung ein­ schließt.
In ähnlicher Weise stellen Fig. 14 und 15 pseudo-zufällige Zeitabtastungen dar, die in der gleichen Weise ausgeführt werden, wie die unter Bezugnahme auf die Fig. 6 bzw. 7 beschriebenen räumlichen Sampling-Methoden. In Fig. 14 ist der Zeitpunkt jeder Abtastung als pseudo-zufällig bestimmtes Offset vom Mittelpunkt des für jede Abtastung bezeichneten Intervalls bestimmt. In Fig. 15 wird eine Bezugszeit pseudo­ -zufällig für jede Abtastung innerhalb des zugehörigen Inter­ valls bestimmt, und danach wird die Istzeit für jede Abtastung als Verschiebung von dieser Bezugszeit um einen Betrag festge­ legt, der innerhalb vorgegebener Grenzen pseudo-zufällig be­ stimmt wird. In jedem Falle ist die Zeitverteilung der Ab­ tastungen bzw. Samples so gewählt, daß ihre Fourier-Transfor­ mation vorzugsweise eine Poission-Scheibenverteilung approxi­ miert, und zwar in der gleichen Weise, wie dies unter Bezug­ nahme auf Fig. 11 (B) für die räumliche Verteilung von Ab­ tastungen erläutert worden ist.
Die Zeitintervalle, die für jede der Abtastungen zur Verfügung stehen, brauchen nicht immer überlappungsfrei zu sein. Ein Beispiel von überlappenden Intervallen ist in Fig. 16 ge­ zeigt, wobei die genaue Abtastzeit nach einer der Methoden gemäß Fig. 14 und 15 ausgewählt werden kann. Der Unter­ schied im Bespiel nach Fig. 16 besteht darin, daß die Wahr­ scheinlichkeit für Abtastungen erhöht wird, die in der Mitte des Zeitintervalls des Bildrahmens bewertet werden. Dadurch wird ein Kameraverschluß simuliert, der relativ langsam öffnet und schließt, so daß die Bewegung der Objektszene während des Mittelintervalls der Verschlußöffnung stärker zur Intensität des resultierenden verschwommenen Bildes beiträgt als eine Bewegung, die nahe der Verschluß-Öffnungs- oder Schließopera­ tion stattfindet. Unabhängig davon, welche der speziellen Methoden der Bestimmung der Zeitverteilung der Abtastungen eines besonderen Pixels verwendet wird, ist die gesamte Zeit­ periode, in der alle Abtastungen aller Pixel eines vorgegeben­ en Bildrahmens vorgenommen werden, das gleiche spezifizierte Zeitintervall, das in Fig. 13-16 durch die Länge der Zeit­ linien dargestellt ist.
In Fig. 17 ist ein Verfahren zum Abtasten bzw. Sampling der Polygone der Objektszene in der Computer-Datenbank durch die oben beschriebenen räumlichen und zeitlichen Abtastmethoden dargestellt. Ein Pixel 81 ist ein Beispiel für ein aus einer großen Zahl von zur Entwicklung eines Bildes auf einem Bild­ schirm (Bildebene) zusammengesetzten Pixeln. Strahlen 83 und 85 werden hinter der Bildebene von jeweils einem von zwei der Punktab­ tastungen innerhalb des Pixels 81 projiziert. Der räumliche Ort dieser Punktabtastungen wurde nach einem der oben be­ schriebenen Verfahren bestimmt. Ihre Einzelstrahlen werden danach gewöhnlich rechtwinklig zur Bildebene projiziert, um die nächstmöglichen Polygone zu bestimmen, welche von den Strahlen zu ihrer gewählten Abtastzeit geschnitten werden. Viel Arbeit wurde auf solche Strahlverfolgungsmethoden ver­ wandt. Sie umfaßt eine beträchtliche Computersortierung und Anpassung der x, y-Koordinanten der Abtastpunkte auf diejeni­ gen der Polygone in der Computer-Datenbank zu dem für jede Abtastung bezeichneten Zeitpunkt. Gewöhnlich existiert mehr als ein Polygon an jeder x, y-Abtaststelle, so daß der Compu­ ter auch aus der "z"-Information bestimmt, welches der Bild­ ebene am nächsten liegt, und diese ist dann dasjenige, welches die visuelle Information (Farbe usw.) der Objektszene an die­ sem Punkt liefert. Alle visuellen Charakteristiken, die für jede der Abtastungen eines vorgegebenen Pixels bestimmt wer­ den, werden danach in irgendeiner Weise gemittelt, um eine einzige visuelle Charakteristik für dieses Pixel zur Anzeige während des entsprechenden Einzelbildes zu entwickeln.
Die meisten Computer-Graphikverfahren zeigen die gesamte Objektszene für jeden Rahmen in Fokusposition, als ob sie durch eine Loch­ kamera beobachtet würden. Dies ist natürlich keine genaue Simulation der Realwelt von Kameras und Linsen, die nur eine begrenzte Tiefenschärfe haben. Die Tiefenschärfe kann mittels einer Strahlverfolgungsmethode berücksichtigt werden, die in Fig. 18 gezeigt ist. Ein einziges Pixel 87 hat zwei Abtast­ punkte mit den Strahlen 89 und 91, die hinter der Bildebene verlaufen. Die in Fig. 18 dargestellte Tiefenschärfetechnik ist unabhängig von den oben beschriebenen räumlichen und zeit­ lichen Abtastverfahren; jedoch werden vorzugsweise diejenigen Verfahren in Kombination mit den beschriebenen Tiefenschärfen­ methoden verwendet, um den Realismus der resultierenden Bild­ rahmen zu maximieren.
Die Beispiel-Strahlen 89 und 91 in Fig. 18 verlaufen nicht auf direktem Wege hinter der Bildebene, wie unter Bezug­ nahme auf Fig. 17 beschrieben worden ist, sondern sind so gerichtet, daß sie eine simulierte Linse 93 an Punkten 95 bzw. 97 durchstoßen. Diese Strahlen werden dabei unter dem Einfluß der Brechung an der simulierten Linse wieder aufeinander zu gerichtet. Die Strahlen durchstoßen als Ergebnis der Defini­ tion des simulierten optischen Systems eine Brennebene 99 dieses optischen Systems in dem gleichen Muster, das auf der Bildebene existiert. Die Abtastpunktstrahlen 89 und 91 schnei­ den danach das Polygon 101 bzw. 103. Nur Polygone innerhalb des Konus 105, der schematisch in unterbrochenen Linien darge­ stellt ist, werden von den von Abtastpunkten des Pixel 87 ausgehenden und von den Charakteristiken des optischen Systems definierten Strahlen geschnitten. Polygone, welche nahe der Brennebene 99 entwickelt werden, tragen zu einem fokussierten rekonstruierten Bild bei, während die von der Brennebene 99 weiter entfernten Polygone zu einem unfokussierten rekonstru­ ierten Bild beitragen. Bei einer Computer-Software-Implemen­ tierung dieses Verfahrens hat sich als zweckmäßig erwiesen, die x, y-Koordinaten der Polygone um einen Betrag zu verschie­ ben, der von deren z-Abstand von der Brennebene 99 und den Charakteristiken des simulierten optischen Systems abhängig ist, und danach mit dem Sampling bzw. der Abtastung in einer Weise ähnlich derjenigen gemäß Fig. 17 fortzufahren.
Welche besondere Implementierung auch immer durchgeführt wird, hat das Verfahren den Vorteil eines erhöhten Realismus des simulierten Bildes zu dem Zeitpunkt, bei dem das Bild zuerst durch Abtasten der Datenbank gebildet wird. Der Schnitt der Abtaststrahlen mit der simulierten Linse 99 tritt über deren gesamte definierte Apertur bzw. Öffnung auf. Um das Aliasing weiter zu reduzieren, werden die Orte der Schnitt­ punkte der Strahlen mit der Linse, beispielsweise die Punkte 95 und 97 in Fig. 18, pseudo-zufällig bestimmt, und zwar in der gleichen Weise wie bei der zuvor beschriebenen pseudo-zu­ fälligen Bestimmung der räumlichen Lage und der Zeit jedes Abtastpunkts.
Andere unrealistische Effekte, die sich aus der Verwendung bekannter Computergraphikmethoden ergeben, sind scharfe Schat­ ten, blendende Reflexionen und bei Berücksichtigung der Licht­ durchlässigkeit von Objekten auch das Ergebnis von scharfen Bildern, welche die durchscheinenden Objekte zeigen. Dies ist natürlich nicht die reale Welt von diffusen Objekten und ausgedehnten Lichtquellen, sondern entspricht vereinfachenden Annahmen unter früheren Algorithmen, um die Kompliziertheit der durchzuführenden Rechnungen in vernünftigen Grenzen zu halten. Die Verteilungsverfahren nach der vorliegenden Erfin­ dung können auch auf diese Aufgaben in ähnlicher Weise ange­ wandt werden, wie dies zuvor beschrieben worden ist, um derar­ tige realistische Überlegungen einzuführen. In Fig. 19 ist ein einzelner Strahl 111 von einer einzigen Abtastung auf der Bildebene (nicht gezeigt) gezeichnet und steht in Wechsel­ wirkung mit der Objektszene in einer Weise, die von den Cha­ rakteristiken der Lichtquellen und Objektoberflächen gemäß Spezifikation in der Datenbank bezeichnet wird. Die unter Bezugnahme auf Fig. 19 beschriebenen Methoden sind unabhängig von den zuvor beschriebenen Verfahren; jedoch wird natürlich ein maximaler Realismus erzielt, wenn alle diese Methoden miteinander kombiniert werden. Was unter Bezugnahme auf Fig. 19 beschrieben wird, gilt für jeden Abtastpunkt eines speziel­ len Bildrahmens.
Der Strahl 111 wird zunächst bestimmt, eine Fläche 113 der Objektszene entsprechend einem der Polygone zu treffen, deren Charakteristiken in der Computer-Datenbank gespeichert sind. Wenn dieser Teil der Objektszenenfläche reflektierend ist, wird ein Reflexionsstrahl 115 danach geführt, bis er eine andere Objektszenenfläche 117 schneidet. Der Objektoberflä­ chenbereich 117 kann in dem vervollständigten Bildrahmen als eine Reflexion in dem Objektszenenbereich 113 beobachtet wer­ den. Gespeichert in der Computer-Datenbank ist jedoch ein Streulichtfächer der Oberfläche 113, wie durch die unterbroch­ ene Umgrenzung 119 und separat in Fig. 20 dargestellt ist. Wenn die Oberfläche 113 ähnlich einem Spiegel total reflek­ tierend ist, wird der Fächer von Strahlreflexionswinkeln be­ schränkt im wesentlichen auf einen Winkel. Die meisten Objekte haben jedoch einen gewissen Streuungsgrad und streuen das auf sie auftreffende Licht. Daher wird jeder Abtastpunktstrahl in einer Weise geführt, daß für ihn einer der möglichen Refle­ xionswinkel ausgewählt wird, wodurch sich eine realistische verschwommene Reflexion an streuend reflektierenden Oberflä­ chen ergibt, da nachfolgende Strahlen an der Oberfläche 113 unter einem der anderen möglichen und in Fig. 20 schematisch dargestellten Winkel reflektiert werden. Die möglichen Stah­ lenreflexionswinkel, die in den Fig. 19 und 20 gezeigt sind, werden in einer Richtung bewertet, wie dies tatsächlich bei gestreut reflektierenden Oberflächen der Fall ist. Wie vorher wird die von einem vorgegebenen Strahl 115 genommene Richtung pseudo-zufällig aus der Vielzahl möglicher Refle­ xionswinkel ausgewählt.
Die gleichen Erwägungen gelten für die Bestimmung eines Trans­ missionswinkels eines Strahls 121 durch den Flächenbereich 113, wenn dieser Flächenbereich vollständig durchlässig ist. Nimmt man an, daß dies der Fall ist, so werden mögliche Bre­ chungswinkel in der Computer-Datenbank für dieses spezielle Polygon gespeichert, wobei die Verteilung solcher Winkel 123 in Fig. 19 und auch in Fig. 21 angegeben ist. Der Streukegel bzw. -fächer möglicher Brechungswinkel hängt natürlich davon ab, wie diffus die Lichtdurchlässigkeit ist. Einfaches Glas hat beispielsweise einen sehr engen Bereich von Streuwinkeln, wenn nicht überhaupt nur einen Winkel. Sobald der Strahl 121 für einen vorgegebenen Abtastpunkt pseudo-zufällig aus den möglichen Brechungswinkeln ausgewählt ist, kann ein anderer Bereich 125 der Objektszene danach bestimmt werden, der vom Strahl 121 geschnitten wird und durch den Objektbereich 113 partiell sichtbar ist.
Um scharfe Schatten zu vermeiden, werden realistische Charak­ teristiken einer die Objektszene beleuchtenden Lichtquelle 124 in Betracht gezogen. Wie in den Fig. 19 und 22 gezeigt ist, hat die Lichtquelle 127 eine begrenzte Ausdehnung und ist nicht immer ein Punkt, wie bei bekannten Computergraphiktech­ niken unterstellt wird. Ein Strahl 129 läuft von der beleuch­ teten Oberfläche 113 zurück zur Quelle 127, um zu sehen, ob es einen anderen Bereich der Objektszene, beispielsweise den Bereich 131, gibt der einen Schatten auf die Oberfläche 113 wirft. Wie in dem Beispiel der Fig. 19 gezeigt ist, bestimmt der Strahl 129 nicht einen solchen Schatten, sondern andere mögliche Strahlrichtungen, die in Fig. 22 gezeigt sind, sind im Strahlengang des Objektbereichs 131 und zeigen daher an, daß das Objekt 113 von der Quelle 127 nicht beleuchtet ist. Die besondere Richtung des Strahls 129 wird pseudo-zufällig aus den für die Quelle 127 spezifizierten möglichen Richtun­ gen veranschaulicht durch die gestrichelten Linien in Fig. 22, ausgewählt. In dem Beispiel der Fig. 19 treffen einige der Strahlen den Objektbereich 131 und einige nicht, wodurch sich weiche, realistische Schatten in dem resultierenden Bild­ rahmen ergeben.
Es ist klar, daß jede der sekundären Oberflächen, die von Strahlen getroffen werden, beispielsweise die Flächen 117 und 125 in Fig. 19, sowohl reflektierende als auch transmittier­ ende Eigenschaften haben kann. Das Verfahren wird solange fortgesetzt, bis solche reflektierten oder transparenten Bil­ der so intensitätsschwach werden, daß sie keine Unterschiede im konstruierten resultierenden Bild ergeben.
In Fig. 23 ist ein Beispiel für die Tragweite der oben be­ schriebenen und Teil der Erfindung bildenden Verfahren schema­ tisch dargestellt. Die Techniken können zur Bestimmung eines Massenzentrums eines Objekts verwendet werden, ein Beispiel, das im Falle von Computer-gestützten Konstruktionsarbeiten (CAD) erwünscht ist. Die Oberfläche eines Objekts 141 in Fig. 23 wird durch eine pseudo-zufällige Verteilung von Abtastpunk­ ten, die gestrichelt über das Objekt dargestellt sind, be­ stimmt. Die pseudo-zufällige Natur dieses Samplings stellt sicher, daß die Messung an dem tatsächlichen Objekt 141 und nicht an einem Aliasing-Bild vorgenommen wird.

Claims (20)

1. Verfahren zum Erzeugen eines elektronischen Videobild­ signals eines Videobildrahmens,
der aus der Matrix von Pixeln oder Flächenelementen ge­ bildet wird,
wobei das Videobildsignal charakteristische Informationen, wie die Farbe und/oder die Intensität jedes Pixels oder Flächenelements spezifiziert,
die charakteristischen Informationen jedes Pixels oder Flächenelements aus Abtastdaten gebildet werden, die durch elektronische Punktabtastung von in einer Computer-Datenbasis gespeicherten Daten gewonnen werden,
die Daten auf eine Objektszene bezogene Parameter, wie bei­ spielsweise die räumlichen Koordinaten, visuelle Charakteristiska und/oder den Zeitpunkt bei einer bewegten Objektszene, ent­ halten, und
wobei jedem Pixel oder Flächenelement ein Datenbereich der Computer-Datenbasis entspricht und mindestens ein Abtastpunkt in jedem Datenbereich abgetastet wird,
dadurch gekennzeichnet,
daß die Abtastpunkte im Datenbereich so ausgewählt werden,
daß sich eine pseudo-zufällige Verteilung der ihnen zuge­ ordneten Parameter ergibt, wobei die Fourier-Transformierte der Verteilung stetige Bereiche aufweist.
2. Verfahren zum Erzeugen eines elektronischen Videobild­ signals eines Videobildrahmens,
der aus einer Matrix von Pixeln oder Flächenelementen ge­ bildet wird,
wobei das Videobildsignal charakteristische Informationen, wie die Farbe und/oder die Intensität jedes Pixels oder Flächenelements spezifiziert,
die charakteristischen Informationen jedes Pixels oder Flächenelements aus Abtastdaten gebildet werden, die durch elektronische Punktabtastung von in einer Computer-Datenbasis gespeicherten Daten gewonnen werden,
die Daten auf eine Objektszene bezogene Parameter, wie bei­ spielsweise die räumlichen Koordinaten, visuelle Charakteristika und/oder den Zeitpunkt bei einer bewegten Objektszene, ent­ halten, und
wobei jedem Pixel oder Flächenelement ein Datenbereich der Computer-Datenbasis entspricht und mehrere Abtastpunkte in jedem Datenbereich abgetastet werden,
dadurch gekennzeichnet,
daß die Abtastpunkte im Datenbereich so ausgewählt werden,
daß die ihnen zugeordneten Parameter nach einem bestimmten Muster verteilt sind, wobei das bestimmte Muster jedes Pixels oder Flächenelements von den Mustern im wesentlichen aller be­ nachbarter Pixel oder Flächenelemente verschieden ist.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß sich die einem Pixel oder Flächenelement entsprechenden Datenbereiche nicht überlappen.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß die in den Daten enthaltenen Parameter zwei Koordinaten einer flächenhaften Abbildung einer Objektszene enthalten, wobei die Daten neben den Parametern Farb- und/oder Intensitätswerte der Objektszene enthalten und der Datenbereich einem Flächenaus­ schnitt der Abbildung entspricht.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß zum Auswählen der Abtastpunkte:
der Datenbereich in eine Mehrzahl nicht überlappender Daten­ bereiche unterteilt wird, wobei jeder Teil-Datenbereich einer Teil-Fläche entspricht,
innerhalb jeder der Teil-Flächen ein Abtastpunkt positioniert wird,
die Farbe und/oder Intensität des nächstgelegenen Objekts der Objektszene bei jedem der Abtastpunkte bestimmt wird, und
die Farb- und/oder Intensitätswerte der Abtastungen zu einem dem jeweiligen Pixel zugeordneten Farb- und/oder Intensi­ tätswert kombiniert werden.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die Abtastpunkte in den Teil-Flächen pseudo-zufällig positioniert werden.
7. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die Abtastpunkte positioniert werden, indem zunächst eine nomi­ nelle Punkt-Plazierung innerhalb jeder der Teil-Flächen vorge­ nommen wird und dann ein Offset für jeden der Abtastpunkte pseudo-zufällig festgelegt wird.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß die nominelle Punkt-Plazierung im Zentrum der jeweiligen Teil- Fläche vorgenommen wird.
9. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß die nominelle Punkt-Plazierung nach einem unregelmäßigen Muster vorgenommen wird.
10. Verfahren nach einem der Ansprüche 1 bis 3, dadurch ge­ kennzeichnet, daß die in den Daten enthaltenen Parameter räum­ liche Koordinaten einer Objektszene enthalten.
11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, daß die Parameter wenigstens einen Wert enthalten, der eine zeitliche Veränderung der Objektszene während eines Videoeinzelbildes repräsentiert, wobei eine Objektunschärfte der Objektszene wiedergegeben wird.
12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, daß sich die Objektszene während eines Video­ einzelbildes zeitlich ändert und die Parameter einen ver­ schiedene Zeitpunkte repräsentierenden Wert enthalten.
13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, daß die Parameter wenigstens einen Wert aus einem Bereich von Strahlenwegen enthalten, die die von einem optischen Abbildungssystem erzeugten Strahlenwege repräsentieren, wobei eine Tiefenschärfe der Objektszene wiedergegeben wird.
14. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, daß die Parameter wenigstens einen Wert aus einem Bereich von Reflexionswinkeln von Objektoberflächen der Ob­ jektszene enthalten.
15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, daß die Parameter wenigstens einen Wert aus einem Bereich von Brechungswinkeln von Objekten der Objektszene enthalten.
16. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, daß die Parameter wenigstens einen Wert aus einem Bereich von räumlichen Intensitätsänderungen der Illumination von Objekten der Objektszene enthalten.
17. Vorrichtung zum Erzeugen eines elektronischen Signals und Erzeugen eines Bildes einer Objektszene durch Wiedergeben des Signals mit einem eine Datenbank speichernde Speicher, der bestimmte statische und zeitvariable visuelle Charakteristika der Objektszene spezifiziert,
gekennzeichnet durch:
mit dem Speicher gekoppelte Mittel zum Abtasten von Infor­ mationen der Datenbank, die die visuellen Charakteristika der Objektszene an einer Mehrzahl von pseudo-zufällig über die Ob­ jektszene angeordneten Punkten bestimmen, und
mit dem Speicher gekoppelte Mittel, die die Mehrzahl von Punktabtastungen zum pseudo-zufälligen Verteilen über die Zeit veranlassen,
wodurch ein Bild mit verringertem räumlichen und zeitlichen Aliasing-Effekten oder Verfälschungen auf einem Monitor wieder­ gegeben wird.
18. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß mit dem Speicher Mittel gekoppelt sind, die Abtastpunkte in einer solchen Weise positionieren, daß das resultierende wie­ dergegebene Bild die Objektszene wie bei einer Wiedergabe durch ein optisches System mit begrenzter Aperturgröße und spezifischen Brennpunktcharakteristiken zeigt.
19. Vorrichtung nach Anspruch 17 oder 18, dadurch gekenn­ zeichnet, daß mit dem Speicher Mittel gekoppelt sind, die für jeden Abtastpunkt einen Reflexionswinkel und/oder Brechungswinkel eines Bereiches solcher Winkel aus der Objektszene, die durch Reflexion oder Transparenz durch einen einzelnen Punkt der Objektszene sichtbar sind, bestimmen.
20. Vorrichtung nach einem der Ansprüche 17 bis 19, dadurch gekennzeichnet, daß mit dem Speicher gekoppelte Mittel vorgesehen sind, um eine Teilblockierung der Beleuchtungsquelle der Objektszene zu bestimmten, wodurch Halbschatten in dem wiederge­ gebenen Bild gezeigt werden.
DE3620508A 1985-06-19 1986-06-19 Verfahren und Vorrichtung zum Erzeugen eines elektronischen Videobildsignals Expired - Lifetime DE3620508C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US06/746,626 US4897806A (en) 1985-06-19 1985-06-19 Pseudo-random point sampling techniques in computer graphics

Publications (2)

Publication Number Publication Date
DE3620508A1 DE3620508A1 (de) 1987-01-08
DE3620508C2 true DE3620508C2 (de) 1995-07-20

Family

ID=25001650

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3620508A Expired - Lifetime DE3620508C2 (de) 1985-06-19 1986-06-19 Verfahren und Vorrichtung zum Erzeugen eines elektronischen Videobildsignals

Country Status (10)

Country Link
US (1) US4897806A (de)
EP (1) EP0227812A1 (de)
JP (3) JPS6284385A (de)
KR (1) KR880700361A (de)
AU (1) AU6120286A (de)
CA (1) CA1256224A (de)
DE (1) DE3620508C2 (de)
FR (1) FR2596175B1 (de)
GB (1) GB2177577B (de)
WO (1) WO1986007646A1 (de)

Families Citing this family (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2194656B (en) * 1986-09-03 1991-10-09 Ibm Method and system for solid modelling
US5113493A (en) * 1987-05-11 1992-05-12 Liberty Life Insurance Co. Full speed animation system for low-speed computers and method
US4974176A (en) * 1987-12-18 1990-11-27 General Electric Company Microtexture for close-in detail
US5262965A (en) * 1988-10-31 1993-11-16 Bts-Broadcast Television Systems, Inc. System and method for high speed computer graphics image computation using a parallel connected, asynchronous multiprocessor ring coupled to a synchronous special purpose video processing ring
GB8828342D0 (en) * 1988-12-05 1989-01-05 Rediffusion Simulation Ltd Image generator
US5222203A (en) * 1989-01-20 1993-06-22 Daikin Industries, Ltd. Method and apparatus for displaying translucent surface
GB8910380D0 (en) * 1989-05-05 1989-06-21 Quantel Ltd Video processing
AU632628B2 (en) * 1989-11-13 1993-01-07 Apple Computer, Inc. Method and apparatus for a computer display system with a three dimensional cursor shadow
JP2774627B2 (ja) * 1989-12-28 1998-07-09 株式会社日立製作所 画像表示方法及びその装置
GB9009722D0 (en) * 1990-05-01 1990-06-20 Crosfield Electronics Ltd Improvements relating to colour vignettes
GB9012273D0 (en) * 1990-06-01 1990-07-18 Rediffusion Simulation Ltd Image generator
EP0464907B1 (de) * 1990-06-29 1996-10-09 Philips Electronics Uk Limited Bilderzeugung
EP0463700B1 (de) * 1990-06-29 1997-09-03 Philips Electronics Uk Limited Verfahren und Gerät zur Bilderzeugung
GB2245805A (en) * 1990-06-29 1992-01-08 Philips Electronic Associated Generating an anti-aliased image
CA2044558C (en) * 1990-07-09 1995-06-13 David M. Smith Methods and apparatus for cymk-rgb ramdac
US5465119A (en) * 1991-02-22 1995-11-07 Demografx Pixel interlacing apparatus and method
US5299298A (en) * 1991-02-28 1994-03-29 Hewlett-Packard Company Accelerated shadow testing method for three dimensional graphics rendering system
GB2257672A (en) * 1991-07-08 1993-01-20 Ronald Brian Tovey Speed change warning device, eg for vehicle brake lights
TW225595B (de) * 1991-09-03 1994-06-21 Gen Electric
US5267325A (en) * 1991-09-06 1993-11-30 Unisys Corporation Locating characters for character recognition
US6034667A (en) * 1992-01-21 2000-03-07 Radius Inc. Method and apparatus for displaying YUV color information on a pseudo-color RGB display
JPH0628485A (ja) * 1992-07-09 1994-02-04 Toshiba Corp テクスチャーアドレス生成器、テクスチャーパターン生成器、テクスチャー描画装置及びテクスチャーアドレス生成方法
US5973700A (en) * 1992-09-16 1999-10-26 Eastman Kodak Company Method and apparatus for optimizing the resolution of images which have an apparent depth
IL108668A (en) * 1993-02-25 1998-09-24 Hughes Training Inc A method and system for creating a plurality of 3D image characters
CN1045103C (zh) * 1994-06-18 1999-09-15 兰州炼油化工总厂三星公司 一种烷基水杨酸盐润滑油添加剂
JPH08222340A (ja) * 1994-12-14 1996-08-30 Yazaki Corp ハンドルとステアリングコラム間の電気的接続装置
US5809219A (en) 1996-04-15 1998-09-15 Silicon Graphics, Inc. Analytic motion blur coverage in the generation of computer graphics imagery
WO1998025233A1 (en) * 1996-12-05 1998-06-11 Setoguchi Laboratory Ltd. Display method of three-dimensional shape
JPH10172707A (ja) * 1996-12-13 1998-06-26 Sumitomo Wiring Syst Ltd 高滑性吸音材および該高滑性吸音材を備えたケーブルリール
GB2325131B (en) * 1997-03-27 2002-01-16 British Broadcasting Corp Improvements in artificial image generation
US6300956B1 (en) * 1998-03-17 2001-10-09 Pixar Animation Stochastic level of detail in computer animation
US7616200B1 (en) * 1998-06-12 2009-11-10 3Dlabs Inc. Ltd. System for reducing aliasing on a display device
WO2000004495A1 (en) 1998-07-17 2000-01-27 Intergraph Corporation System for processing vertices from a graphics request stream
US6157393A (en) * 1998-07-17 2000-12-05 Intergraph Corporation Apparatus and method of directing graphical data to a display device
WO2000004528A1 (en) 1998-07-17 2000-01-27 Intergraph Corporation System for displaying a television signal on a computer monitor
WO2000004443A1 (en) 1998-07-17 2000-01-27 Intergraph Corporation Byte reordering apparatus and method
WO2000004436A1 (en) 1998-07-17 2000-01-27 Intergraph Corporation Graphics processing with transcendental function generator
US7518616B1 (en) 1998-07-17 2009-04-14 3Dlabs, Inc. Ltd. Graphics processor with texture memory allocation system
WO2000004494A1 (en) 1998-07-17 2000-01-27 Intergraph Corporation Graphics processing system with multiple strip breakers
WO2000004482A2 (en) 1998-07-17 2000-01-27 Intergraph Corporation Multi-processor graphics accelerator
US6577316B2 (en) 1998-07-17 2003-06-10 3Dlabs, Inc., Ltd Wide instruction word graphics processor
US6674440B1 (en) 1999-04-05 2004-01-06 3Dlabs, Inc., Inc. Ltd. Graphics processor for stereoscopically displaying a graphical image
JP2000350346A (ja) 1999-05-31 2000-12-15 Sumitomo Wiring Syst Ltd ケーブルリールの吸音構造
US6717577B1 (en) 1999-10-28 2004-04-06 Nintendo Co., Ltd. Vertex cache for 3D computer graphics
US6618048B1 (en) 1999-10-28 2003-09-09 Nintendo Co., Ltd. 3D graphics rendering system for performing Z value clamping in near-Z range to maximize scene resolution of visually important Z components
US7119813B1 (en) 2000-06-02 2006-10-10 Nintendo Co., Ltd. Variable bit field encoding
US7230618B2 (en) * 2000-06-19 2007-06-12 Mental Images Gmbh Generating images using multiple photon maps
US7187379B2 (en) * 2000-06-19 2007-03-06 Mental Images Gmbh Generating an image using sample points determined on a sub-pixel grid offset using elements of a low-discrepancy sequence
AU2002210811A1 (en) * 2000-06-19 2002-01-14 Mental Images Gmbh And Co. Kg. Generating pixel values using strictly deterministic methodologies for generating sample points
US7061502B1 (en) 2000-08-23 2006-06-13 Nintendo Co., Ltd. Method and apparatus for providing logical combination of N alpha operations within a graphics system
US6999100B1 (en) 2000-08-23 2006-02-14 Nintendo Co., Ltd. Method and apparatus for anti-aliasing in a graphics system
US7034828B1 (en) 2000-08-23 2006-04-25 Nintendo Co., Ltd. Recirculating shade tree blender for a graphics system
US6980218B1 (en) * 2000-08-23 2005-12-27 Nintendo Co., Ltd. Method and apparatus for efficient generation of texture coordinate displacements for implementing emboss-style bump mapping in a graphics rendering system
US7002591B1 (en) 2000-08-23 2006-02-21 Nintendo Co., Ltd. Method and apparatus for interleaved processing of direct and indirect texture coordinates in a graphics system
US6867781B1 (en) 2000-08-23 2005-03-15 Nintendo Co., Ltd. Graphics pipeline token synchronization
US6937245B1 (en) * 2000-08-23 2005-08-30 Nintendo Co., Ltd. Graphics system with embedded frame buffer having reconfigurable pixel formats
US6825851B1 (en) 2000-08-23 2004-11-30 Nintendo Co., Ltd. Method and apparatus for environment-mapped bump-mapping in a graphics system
US7196710B1 (en) * 2000-08-23 2007-03-27 Nintendo Co., Ltd. Method and apparatus for buffering graphics data in a graphics system
US6700586B1 (en) 2000-08-23 2004-03-02 Nintendo Co., Ltd. Low cost graphics with stitching processing hardware support for skeletal animation
US7538772B1 (en) * 2000-08-23 2009-05-26 Nintendo Co., Ltd. Graphics processing system with enhanced memory controller
US6707458B1 (en) 2000-08-23 2004-03-16 Nintendo Co., Ltd. Method and apparatus for texture tiling in a graphics system
US7184059B1 (en) 2000-08-23 2007-02-27 Nintendo Co., Ltd. Graphics system with copy out conversions between embedded frame buffer and main memory
US6636214B1 (en) 2000-08-23 2003-10-21 Nintendo Co., Ltd. Method and apparatus for dynamically reconfiguring the order of hidden surface processing based on rendering mode
US7576748B2 (en) * 2000-11-28 2009-08-18 Nintendo Co. Ltd. Graphics system with embedded frame butter having reconfigurable pixel formats
US6811489B1 (en) 2000-08-23 2004-11-02 Nintendo Co., Ltd. Controller interface for a graphics system
US7136081B2 (en) * 2001-05-25 2006-11-14 Nvidia Corporation System and method of line sampling object scene information
JP3792149B2 (ja) * 2001-11-12 2006-07-05 任天堂株式会社 画像処理装置および画像処理プログラム
US6885384B2 (en) * 2002-03-12 2005-04-26 Sun Microsystems, Inc. Method of creating a larger 2-D sample location pattern from a smaller one by means of X, Y address permutation
US7362332B2 (en) * 2002-06-20 2008-04-22 Nvidia Corporation System and method of simulating motion blur efficiently
JP4430678B2 (ja) * 2003-12-29 2010-03-10 インテル コーポレイション 3次元グラフィック・サブシステムにおけるテクスチャマップデータのプログラム可能なフィルタ処理方法及び装置
US20050140688A1 (en) * 2003-12-29 2005-06-30 Kim Pallister Method and mechanism for programmable filtering of texture map data in 3D graphics subsystems
US7483010B2 (en) * 2004-12-22 2009-01-27 Himax Technologies Limited Frame-varying addressing method of color sequential display
US20060167670A1 (en) * 2005-01-26 2006-07-27 Deering Michael F Photon-based modeling of the human eye and visual perception
US7973789B2 (en) * 2005-06-03 2011-07-05 Pixar Dynamic model generation methods and apparatus
US8493387B2 (en) * 2005-11-23 2013-07-23 Pixar Accelerated statistical rendering methods and apparatus
US7623726B1 (en) 2005-11-30 2009-11-24 Adobe Systems, Incorporated Method and apparatus for using a virtual camera to dynamically refocus a digital image
US7742060B2 (en) * 2006-09-22 2010-06-22 Autodesk, Inc. Sampling methods suited for graphics hardware acceleration
US8842931B2 (en) 2011-02-18 2014-09-23 Nvidia Corporation System, method, and computer program product for reducing noise in an image using depth-based sweeping over image samples
US9460546B1 (en) 2011-03-30 2016-10-04 Nvidia Corporation Hierarchical structure for accelerating ray tracing operations in scene rendering
US9153068B2 (en) 2011-06-24 2015-10-06 Nvidia Corporation Clipless time and lens bounds for improved sample test efficiency in image rendering
US8970584B1 (en) 2011-06-24 2015-03-03 Nvidia Corporation Bounding box-based techniques for improved sample test efficiency in image rendering
US9142043B1 (en) 2011-06-24 2015-09-22 Nvidia Corporation System and method for improved sample test efficiency in image rendering
US9269183B1 (en) 2011-07-31 2016-02-23 Nvidia Corporation Combined clipless time and lens bounds for improved sample test efficiency in image rendering
CN107403461B (zh) 2012-01-16 2020-12-22 英特尔公司 使用随机光栅化生成随机采样分布的采样设备和方法
US9305394B2 (en) 2012-01-27 2016-04-05 Nvidia Corporation System and process for improved sampling for parallel light transport simulation
US9171394B2 (en) 2012-07-19 2015-10-27 Nvidia Corporation Light transport consistent scene simplification within graphics display system
US9159158B2 (en) 2012-07-19 2015-10-13 Nvidia Corporation Surface classification for point-based rendering within graphics display system
CN109974625B (zh) * 2019-04-08 2021-02-09 四川大学 一种基于色相优化灰度的彩色物体结构光三维测量方法
KR102770795B1 (ko) * 2019-09-09 2025-02-21 삼성전자주식회사 3d 렌더링 방법 및 장치

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US912012A (en) * 1907-10-15 1909-02-09 Taylor Matson Explosion-engine.
US3441789A (en) * 1968-01-12 1969-04-29 Lee Harrison Means and method for generating shadows and shading for an electronically generated display
UST912012I4 (en) 1972-06-30 1973-07-24 Method and system for generating shaded pictures
US4084259A (en) * 1973-11-30 1978-04-11 The Mead Corporation Apparatus for dot matrix recording
US4205389A (en) * 1976-09-24 1980-05-27 General Electric Company Apparatus for generating a raster image from line segments
JPS57116479A (en) * 1981-01-12 1982-07-20 Ricoh Co Ltd Image processing circuit
JPS57125579A (en) * 1981-01-29 1982-08-04 Ricoh Co Ltd Processing method for intermediate tone picture
JPS57119564A (en) * 1981-01-19 1982-07-26 Ricoh Co Ltd Half-tone picture processing method
DE3133889C2 (de) * 1981-08-27 1984-04-26 Honeywell Gmbh, 6050 Offenbach Verfahren zur Sichtsimulation
JPS5894052A (ja) * 1981-11-30 1983-06-04 Toshiba Corp 画像信号処理方式
US4590465A (en) * 1982-02-18 1986-05-20 Henry Fuchs Graphics display system using logic-enhanced pixel memory cells
US4591844A (en) * 1982-12-27 1986-05-27 General Electric Company Line smoothing for a raster display
US4609917A (en) * 1983-01-17 1986-09-02 Lexidata Corporation Three-dimensional display system
US4475104A (en) * 1983-01-17 1984-10-02 Lexidata Corporation Three-dimensional display system

Also Published As

Publication number Publication date
WO1986007646A1 (en) 1986-12-31
JPH06195471A (ja) 1994-07-15
EP0227812A1 (de) 1987-07-08
CA1256224A (en) 1989-06-20
US4897806A (en) 1990-01-30
FR2596175B1 (fr) 1994-03-25
GB2177577A (en) 1987-01-21
GB2177577B (en) 1990-02-21
KR880700361A (ko) 1988-02-22
DE3620508A1 (de) 1987-01-08
GB2177577A8 (en) 2003-10-01
FR2596175A1 (fr) 1987-09-25
JPS6284385A (ja) 1987-04-17
GB8614908D0 (en) 1986-07-23
JPH0636040A (ja) 1994-02-10
AU6120286A (en) 1987-01-13

Similar Documents

Publication Publication Date Title
DE3620508C2 (de) Verfahren und Vorrichtung zum Erzeugen eines elektronischen Videobildsignals
DE69127516T2 (de) Verfahren und Gerät zur Bilderzeugung
EP1784978B1 (de) Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
DE3751981T2 (de) Verfahren und Vorrichtung zur Gewinnung von Strahlungsbildern unter Verwendung eines Licht-Pufferspeichers
EP3418978B1 (de) Verfahren, visualisierungsvorrichtung und computerprogrammprodukt zur visualisierung eines dreidimensionalen objekts
DE69919145T2 (de) Stochastiches detailniveau in einer rechneranimation
DE3855231T2 (de) Prioritätsauflösungssystem zwischen Polygonen mit Antialiasing
DE69610341T2 (de) 3-D-Bildertexturierung und -schattierung
DE68927471T2 (de) Verfahren zur Schattierung eines graphischen Bildes
EP0984397B1 (de) Verfahren und Vorrichtung zum Eliminieren unerwünschter Stufungen an Kanten bei Bilddarstellungen im Zeilenraster
DE60123962T2 (de) Erzeugen von pixelwerten unter verwendung streng deterministischer methoden zum erzeugen von abtast-punkten
DE60120474T2 (de) Rasterung von dreidimensionalen bildern
DE60107130T2 (de) Sichtbarkeitsprojektion und Bildrekonstruktion für Oberflächenelemente
DE10296401B4 (de) Verbund-Rendering von 3-D-Graphikobjekten
EP0862141A2 (de) Bilddarstellungsverfahren und Vorrichtung zur Durchführung des Verfahrens
DE102016103854A1 (de) Graphikverarbeitung mit direktionalen Darstellungen der Beleuchtung an Sondenpositionen innerhalb einer Szene
DE102006025030B4 (de) Gradientenfreies Shading für Volume-Rendering unter Verwendung von Schatteninformationen
DE102005050846A1 (de) Perspektiveneditierwerkzeuge für 2-D Bilder
DE69722139T2 (de) Dreidimensionale abbildung von bildtexturen
DE3022454A1 (de) Optisches abbildesystem mit computererzeugtem bild fuer einen bodenfesten flugsimulator
DE69531536T2 (de) Synthetisches bilderzeugungsverfahren mit sphärischem puffer
DE69606177T2 (de) Verfahren und gerät zur texturabbildung
DE69901572T2 (de) Verfahren zur volumetrischen bilddatenverarbeitung eines durch texturabbildung visualisierten objektes
DE69831822T2 (de) Verfahren und System zur Bestimmung und/oder Verwendung von Beleuchtungskarten in Herstellung von Bildern
DE69015170T2 (de) Anzeigemittel.

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8172 Supplementary division/partition in:

Ref country code: DE

Ref document number: 3645326

Format of ref document f/p: P

Q171 Divided out to:

Ref country code: DE

Ref document number: 3645326

D2 Grant after examination
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: RICHTER, WERDERMANN, GERBAULET & HOFMANN, 20354 HA

8381 Inventor (new situation)

Inventor name: PORTER, THOMAS K., FAIRFAX, CALIF., US

Inventor name: CARPENTER, LOREN C., NOVATO, CALIF., US

Inventor name: COOK, ROBERT L., SAN ANSELMO, CALIF., US

Inventor name: STOCK, RODNEY, SAN ANSELMO, CALIF., US