-
Berechnung?
Autor: Polecat42 02.02.10 - 12:17
Hm, schade dass die Software nicht selbst die Verzerrung des ganzen Fotos berechnet und "alles" automatisch auf die 3D-Modelle appliziert...
Im Prinzip dasselbe: links ein Foto, bei dem man "soviel wie möglich" Punkte anwählt. Diese Punkte überträgt man dann auf das 3D-Modell rechts. Damit weißt die Software, welche Richtung und welcher Verzerrungsgrad gerade zutrifft und könnte alle Texturen (zusammen mit Randerkennung usw) selbst übernehmen.
Und wenn in der Nähe eine andere Webcam dasselbe Motiv aus einer anderen Richtung aufnimmt, werden diese Daten kollaboriert. -
Re: Berechnung?
Autor: G. Mops 02.02.10 - 12:25
Polecat42 schrieb:
--------------------------------------------------------------------------------
> Hm, schade dass die Software nicht selbst die Verzerrung des ganzen Fotos
> berechnet und "alles" automatisch auf die 3D-Modelle appliziert...
Das Problem dabei ist vermutlich, dass man nicht ohne Weiteres wissen kann, wo zwischen den Punkten die Flächen liegen. Bei 4 Punkten sind bspw. ja 2 Dreiecke möglich.
Bei abartig vielen Punkten wird das ganze dann sicherlich unbedeutend, ist aber nicht so flott darstellbar. -
Re: Berechnung?
Autor: Gee 03.02.10 - 17:22
http://developer.nvidia.com/attach/6549
Da die Geometrie ja vor liegt kannst das schon gut machen, allerdings müsste dann die Projektionsmatrix der Kamera bekannt sein. Aber dadurch könnte man auf jeden schonma einen guten start Hinlegen und dem User ne Menge arbeite abnehmen.



