Welche Koordinatensysteme gibt es und wie sind sie definiert?
Weltkoordinatensystem ():
Es ist ein 3D System. Hiermit werden Objekte und Kameras in der Szene lokalisiert, denn es beschreibt einen festen Referenzpunkt. Ursprung und Orientierung der Achsen können beliebig gewählt werden. (euklidisch , homogen )
Objektkoordinatensystem:
Es ist ein 3D System. Beschreibt Objektpunkte. Wird in der Computergraphik verwendet, aber nicht im Rechnersehen.
Kamerakoordinatensystem ():
Es ist ein 3D System. Dieses System gehört zu einer (sich bewegenden) Kamera und definiert deren Position und Ausrichtung. Der Ursprung befindet sich im optischen Zentrum der Kamera. Die z-Achse entspricht der Blickrichtung, fällt also mit der optischen Achse der Kamera zusammen, die x- und
y-Achsen sind parallel zu den Zeilen und Spalten des Bildes.
Bildkoordinatensystem ():
Es ist ein 2D System. Koordinatensystem des Bildes, das auf der Bildebene in der Kamera dargestellt wird. Der Ursprung liegt ungefähr in der Bildmitte und ist gekennzeichnet als Punkt H. Die 2 Achsen sind parallel zur x- und y-Achse des Kamerakoordinatensystems . Dieses Bild ist nur virtuell, da es in einer Kamera auf einen CCD-Chip abgebildet, und damit in das Pixelkoordinatensystem überführt wird.
Pixelkoordinatensystem ():
Es ist ein 2D System. Pixelkoordinatensystem p: Das System ist diskretisiert und der Ursprung liegt in der linken oberen Ecke. Die Achsen sind nicht 100% orthogonal zueinander.
Pixelkoordinatensystem ():
Es ist ein 2D System. Der Ursprung liegt in der Bildmitte M.
Es ist ein 3D System. Hiermit werden Objekte und Kameras in der Szene lokalisiert, denn es beschreibt einen festen Referenzpunkt. Ursprung und Orientierung der Achsen können beliebig gewählt werden. (euklidisch , homogen )
Objektkoordinatensystem:
Es ist ein 3D System. Beschreibt Objektpunkte. Wird in der Computergraphik verwendet, aber nicht im Rechnersehen.
Kamerakoordinatensystem ():
Es ist ein 3D System. Dieses System gehört zu einer (sich bewegenden) Kamera und definiert deren Position und Ausrichtung. Der Ursprung befindet sich im optischen Zentrum der Kamera. Die z-Achse entspricht der Blickrichtung, fällt also mit der optischen Achse der Kamera zusammen, die x- und
y-Achsen sind parallel zu den Zeilen und Spalten des Bildes.
Bildkoordinatensystem ():
Es ist ein 2D System. Koordinatensystem des Bildes, das auf der Bildebene in der Kamera dargestellt wird. Der Ursprung liegt ungefähr in der Bildmitte und ist gekennzeichnet als Punkt H. Die 2 Achsen sind parallel zur x- und y-Achse des Kamerakoordinatensystems . Dieses Bild ist nur virtuell, da es in einer Kamera auf einen CCD-Chip abgebildet, und damit in das Pixelkoordinatensystem überführt wird.
Pixelkoordinatensystem ():
Es ist ein 2D System. Pixelkoordinatensystem p: Das System ist diskretisiert und der Ursprung liegt in der linken oberen Ecke. Die Achsen sind nicht 100% orthogonal zueinander.
Pixelkoordinatensystem ():
Es ist ein 2D System. Der Ursprung liegt in der Bildmitte M.
Tags: Klausur
Source:
Source:
Wie sieht die Modellgleichung fuer eine homogene Kamera (Lochkamera) definiert und welche Probleme gibt es? Wie Schaetzt man daraus die Kamerakonstante . Oder: Beschreiben Sie ein einfaches Kalibrierungsproblem
Sei ... (i = 1, . N) eine Punktmenge aus der Kalibrierung zur Beschreibung des Kalibriermusters, und sei
... die korrespondierende Menge von Bildpunkten
Problematisch ist es,
1. dass wir mit homogenen Gleichungen rechnen. Die Formel berechnet Abstaende und das geht mit homogonen Koordinaten nicht.
2. Nicht umformen. Die Modellgleichung nehmen und gluecklich sein.
Die Kamerakonstante wird uber folgende Formel ermittelt:
... die korrespondierende Menge von Bildpunkten
Problematisch ist es,
1. dass wir mit homogenen Gleichungen rechnen. Die Formel berechnet Abstaende und das geht mit homogonen Koordinaten nicht.
2. Nicht umformen. Die Modellgleichung nehmen und gluecklich sein.
Die Kamerakonstante wird uber folgende Formel ermittelt:
Tags: Klausur
Source:
Source:
Was ist das Doppelverhaeltnis und wie ist es beschrieben?
Einziges, projektives, invariates Mass.
Doppelverhaeltnis:
Das Verhaeltnis von zwei Linien unter projektiver Betrachtung
Tags: Klausur
Source:
Source:
Nenne die Grassmannsche Gesetze
1. Wir haben ein 3D Farbvalenzsystem. Bei vier gegebenen Farbvalenzen sind sie linear abhaengig. Drei koennen maximal unabhaengig sein.
2. nicht interessant fuer uns
3. stetige Veränderungen eines Mischungsoperanden.
bewirken stetige Veränderungen der Farbmischung.
Ansonsten wuerden die Farbraeume auch keinen Sinn machen.
2. nicht interessant fuer uns
3. stetige Veränderungen eines Mischungsoperanden.
bewirken stetige Veränderungen der Farbmischung.
Ansonsten wuerden die Farbraeume auch keinen Sinn machen.
Tags: Klausur
Source:
Source:
Wie sind die Primaervalenzen definiert?
- Intensitäten nur relativ zueinander bestimmt
- Farbvalenz enthält keine absolute Helligkeitsinformation
- Summe ergibt Unbunt
Tags: Klausur
Source:
Source:
Welche Farbräume gibt es?
- (Es gibt nicht DEN RGB). Er ist lineare.
- Realisiert technisch das, was die Retina bei uns macht. Gegenfarben... . Er ist lineare
- sind imaginär, da sie keinen tatsächlich exisiterenenden Gewichtungen entsprechen. Kann man real nicht darstellen. Ist das Normvalenzsystem. Er ist lineare
- HSI und HSV (Sechseck). Sie entstehen aus nichtlineare Transformationen des RGB. Er ist nichtlineare
- Luv und Lab. Sie sind vollständig anders: Deren Abstände entsprechen dem menschlichen Farbunterschiedsempfinden. In diesen kann man sagen, was Farbähnlichkeit ist. Bestimmt wird die Differenz durch . Es ist die Differenz im Lab.
Tags: Klausur
Source:
Source:
Wie könnte eine Lösungsstrategie eines inversen Problems aussehen?
Sei
In diesem Fall:
Gelöst soll werden folgende Formel:
Zumeist, auch hier, wir eine Least-Square-Methode angewandt.
Wird diese angewandt, dann wird auch meistens die Gleichung regularisiert, um die Lösungen zu glätten.
In diesem Fall:
- Eingabedaten: ,
- Parameter / Randbedingungen:
- Ergebnisbild / Beobachtung:
Gelöst soll werden folgende Formel:
Zumeist, auch hier, wir eine Least-Square-Methode angewandt.
Wird diese angewandt, dann wird auch meistens die Gleichung regularisiert, um die Lösungen zu glätten.
Tags: Klausur
Source:
Source:
Beschreibe ein Klassifikationsmodell (Thema Bildverstehen)
Signal Vorverarbeitung Merkmalsextraktion Klassifikation Ergebnis
Die Klassifikation kann noch durch einen Lernprozess
erweitert werden, dabei wird eine Strichprobe verwendet.
In dem Modell würde dann noch zusätzlich eine Kante in die Klassifikation einfließen:
Stichprobe Lernen Klassifikation
Komplexer (Analyse durch Synthese):
Ich habe ein Bild, liefer mir das passende (synthetische) Bild.
Die Klassifikation kann noch durch einen Lernprozess
erweitert werden, dabei wird eine Strichprobe verwendet.
In dem Modell würde dann noch zusätzlich eine Kante in die Klassifikation einfließen:
Stichprobe Lernen Klassifikation
Komplexer (Analyse durch Synthese):
Ich habe ein Bild, liefer mir das passende (synthetische) Bild.
Tags: Klausur
Source:
Source:
Inverses Problem: Beispiel Poseerkennung
Poseerkennung:
Objekterkennung:
Mit:
In Worten:
Diejenige Kameraposition , für die die Bildentstehung mit einer Funktion der Graphik , einem gegebenen CG-Modell unter Annahme der Kameraposition , verglichen mit dem aktuellen Bild , den geringsten Abstand durch die Abstandsfunktion aufweist.
dies beschreibt die Lösung eines inversen Problems mit Hilfe einer Vorwärtsfunktion. Wobei die Graphikfunktion die V.-Funktion darstellt.
Objekterkennung:
Mit:
- Bild
- Modell , Modelle
- Parametervektor , z.B.
- Graphikfunktion liefert das Bild
- Abstandsfunktion
In Worten:
Diejenige Kameraposition , für die die Bildentstehung mit einer Funktion der Graphik , einem gegebenen CG-Modell unter Annahme der Kameraposition , verglichen mit dem aktuellen Bild , den geringsten Abstand durch die Abstandsfunktion aufweist.
dies beschreibt die Lösung eines inversen Problems mit Hilfe einer Vorwärtsfunktion. Wobei die Graphikfunktion die V.-Funktion darstellt.
Tags: Klausur
Source:
Source:
Wie kann das Suchproblem der Analyse gelöst werden?
Modellmatching: Bild segmentieren und in Modell- und Bildbestandteile zerlegen und diese matchen ...
... In dem man es als Graphproblem auffast.
Dabei wird ein Graph aufgebaut durch Zuordnungen zwischen Merkmalen des Modells und Merkmalen des aufgenommenen Bildes. Man darf nur zulassen, dass ein Merkmal (egal auf welcher Seite) eindeutig zugeteilt ist oder gar nicht zugeteilt ist. Mehrfachzuteilungen sind zu vermeiden.
Kanten können über Gewichtsfunktionen gesteuert werden.
Gute Zuordnung = hohe Werte der Gewichte Maximierungsproblem.
Suchprobleme: Ungarischer Algorithmus, A*-Graphsuche, dynamische Programmierung.
... In dem man es als Graphproblem auffast.
Dabei wird ein Graph aufgebaut durch Zuordnungen zwischen Merkmalen des Modells und Merkmalen des aufgenommenen Bildes. Man darf nur zulassen, dass ein Merkmal (egal auf welcher Seite) eindeutig zugeteilt ist oder gar nicht zugeteilt ist. Mehrfachzuteilungen sind zu vermeiden.
Kanten können über Gewichtsfunktionen gesteuert werden.
Gute Zuordnung = hohe Werte der Gewichte Maximierungsproblem.
Suchprobleme: Ungarischer Algorithmus, A*-Graphsuche, dynamische Programmierung.
Tags: Klausur
Source:
Source:
Wie kann ich eine BRDF parametrisieren?
Ein Lichtfeld ist eine Form der Darstellung der BRDF.
Man nimmt Bilder mit einer Kamera auf. Man fasst einen Pixel als einen Sehstrahl zwischen Kamerabrennpunkt und diesem Punkt in der Welt auf.
Diesen Strahl kann man im 3D durch zwei Ebenen darstellen, also durch vier Koordinaten.
Man brauch viele Strahlen, diese werden alle benutzt, um zwischen ihnen zu interpolieren.
Anwendung:
Das ermöglicht uns 3D Kamera-Flüge, ohne dass auch nur ein Primitv gerendert werden musste.
Es gibt Aufsätze für DSLRs, fertige Kameras (Lytro) und Patente von Apple, um es auf Smartphones zu bringen.
Es ist auch möglich die Blende im Nachhinein zu verändern.
Es ist nach Prof. Paulus ein sehr guter Kontaktpunkt der CG und BV.
Man nimmt Bilder mit einer Kamera auf. Man fasst einen Pixel als einen Sehstrahl zwischen Kamerabrennpunkt und diesem Punkt in der Welt auf.
Diesen Strahl kann man im 3D durch zwei Ebenen darstellen, also durch vier Koordinaten.
Man brauch viele Strahlen, diese werden alle benutzt, um zwischen ihnen zu interpolieren.
Anwendung:
- Man hat ein Lichtfeld wie oben beschrieben aufgebaut
- Es wird eine Kamera zwischen den Ebenen positioniert
- Es wird ausgerechnet, welche Sichtstrahlen diese Kamera haben würde
- Dann wird aus dem Lichtfeld die Strahlen genommen, die am besten zu den Sichtstrahlen der Kamera passen.
- Gegebenenfalls müssen Strahlen auch interpoliert werden, was aber ganz von der Auflösung des Lichtfeldes abhängt.
Das ermöglicht uns 3D Kamera-Flüge, ohne dass auch nur ein Primitv gerendert werden musste.
Es gibt Aufsätze für DSLRs, fertige Kameras (Lytro) und Patente von Apple, um es auf Smartphones zu bringen.
Es ist auch möglich die Blende im Nachhinein zu verändern.
Es ist nach Prof. Paulus ein sehr guter Kontaktpunkt der CG und BV.
Tags: Klausur
Source:
Source:
Was sind MacAdams-Ellipsen?
MacAdam sind Ellipsen von Bereichen, in denen Menschen die Farben als gleich wahrnehmen.
Die Größe variiert im Farbraum je nach ihrem Ort in diesem.
Als Beispiel wurde der XY-Farbraum mit ihren MacAdam-Ellipsen aufgetragen. Da solche überhaupt existieren, ist es der Beweis, dass Farbdifferenzen im XYZ nicht das selbe bedeuten.
Im Lab werden diese Ellipsen zu gleichgroßen Kreisen, was der Beweis ist, dass Lab den gleichen Farbabstand liefert wie die menschliche Wahrnehmung.
ist die Farbdifferenz des Lab.
- Die Ellipsen werden gebildet aus der Standardabweichung.
Die Größe variiert im Farbraum je nach ihrem Ort in diesem.
Als Beispiel wurde der XY-Farbraum mit ihren MacAdam-Ellipsen aufgetragen. Da solche überhaupt existieren, ist es der Beweis, dass Farbdifferenzen im XYZ nicht das selbe bedeuten.
Im Lab werden diese Ellipsen zu gleichgroßen Kreisen, was der Beweis ist, dass Lab den gleichen Farbabstand liefert wie die menschliche Wahrnehmung.
ist die Farbdifferenz des Lab.
- Die Ellipsen werden gebildet aus der Standardabweichung.
Tags: Klausur
Source:
Source:
Wie ist definiert?
CIELAB Farb-Metrik
Ein Wert von resp. entspricht der minimal menschlich wahrnehmbaren Farbdifferenz Farbmetrik durch CIE (International Commission on Illumination) verwendet den uniformen L∗a∗b ∗ Farbraum.
lightness-axis , red-green-axis , yellow-blue-axis
In diesem Farbraum: Euklidischer Abstand entspreicht der Wahrnehmung. Die Symoble , , bedeuten komponentenweise Differenz zwischen zwei Lab-Farben.
Ein Wert von resp. entspricht der minimal menschlich wahrnehmbaren Farbdifferenz Farbmetrik durch CIE (International Commission on Illumination) verwendet den uniformen L∗a∗b ∗ Farbraum.
lightness-axis , red-green-axis , yellow-blue-axis
In diesem Farbraum: Euklidischer Abstand entspreicht der Wahrnehmung. Die Symoble , , bedeuten komponentenweise Differenz zwischen zwei Lab-Farben.
Tags: Klausur
Source:
Source:
Wie lautet die Formel der radiometrischen Kalibrierung?
- Lampe:
- Color Checker:
- CCD-Chip:
- Bild:
Sensoren pro Bildpunkt, typischerweise je ein Sensor für Rot, grün un Blau, haben spektrale Empfindlichkeiten von
,
Dadurch tastet jeder Sensor im Punkt folgende Energieverteilung des Lichts ab:
In Worten nach Prof. Paulus:
"Für einen Sensor in einem gewissen Wellenlängenbereich, an einem gewissen Ort (), den ich nach draußen idealisiere mit der Beleuchtung und ihrer Reflektion und der Kameraempfindlichkeit multipliziere. Das wird integriert über den gesamten Wellenlängenbereich. "
Dabei ignorieren wir die Geometrie, die Blende und die nicht Linearität, wie sie beispielsweise von der gamma Korrektur kommt.
Diskret (nach Alsam und Finlayson):
Summe von Abtastungen
- Vector : spektrale Energie des Lichts
- Vector : diskrete reflektanz an Position
- Matrix : diskrete spektrale Empfindlichkeitskurven
Tags: Klausur
Source:
Source:
In welchem Zusammenhang steht die Aufloesung und das Signal-Rausch-Verhaeltnis (SNR)?
Das Signal-Rausch-Verhältnis (SNR) wird verbessert, desto hoeher aufgeloest wird.
Als Annäherung gilt: Eine um 1 Bit höhere Auflösung reduziert das Quantisierungsrauschen um über 6 dB.
Als Annäherung gilt: Eine um 1 Bit höhere Auflösung reduziert das Quantisierungsrauschen um über 6 dB.
Tags: Klausur
Source:
Source:
Was ist Kalibrierung?
- Waehle Modell fuer Sensor
- Suche mathematische Beschreibung, inkl. einer Parametermenge
- W aehle Kalibrierobjekt mit gut erkennbaren Merkmalen
- Miss die Merkmale
- Bildaufnahme des Kalibrierobjekts
- Gleichungssystem aufstellen
- Loese Gleichungssystem auf nach unbekannen Parametern
Tags: Klausur
Source:
Source: