9. Februar 2014
Puppenköpfe 3D-Scannen und vervielfältigen
Eingestellt von
whole-stopmotion
Keine Kommentare:
Labels:
3D-Print,
Laura Staab,
Puppenbau,
Robert Banning
In unserem Film gibt es keine Dialoge. Stattdessen wollen wir durch Mimik und vor allem durch Gestik Ausdruck und Leben in unsere Figuren hauchen. Für verschiedene Mimiken müssen wir jedes Mal natürlich ein anderes Gesicht mit einem anderen Gesichtsausdruck an der Puppe austauschen. Dabei wollen wir nicht den ganzen Kopf auswechseln, sondern eben nur den vorderen Teil des Gesichts (ähnlich wie bei einer Maske).
Die Masken müssen in der Grundform genau gleich aussehen, damit man den Wechsel jener später im Film nicht bemerkt. Perfekt wäre es, wenn man das Ganze als eine flüssige Animation warnimmt. Man muss aber wissen: Alle Puppenteile (ob Hand, Fuß, Finger, Kopf) werden während des Animierens sehr oft angefasst, abgenommen, wieder hingebaut und manchmal sogar verformt. Das Originalteil wird niemals den kompletten Film überstehen. Man sollte also immer Ersatzteile griffbereit halten (und sie bestenfalls schon vorher angefertigt haben).
Anfangs hatten wir den Plan mehrere Original-Gesichtsmasken mit den verschiedenen Emotionen per Hand zu modellieren und diese dann per Resin-Guss zu vervielfältigen. Dies ist sehr zeitaufwändig und auch nicht ganz billig.
Nun schwebt uns seit einiger Zeit eine Idee vor. Wir würden gerne testen, ob es möglich ist die verschiedenen Gesichtsausdrücke unserer Puppen zuerst per Hand zu modellieren, diese dann mit einer 3D-Scantechnik aufzunehmen um sie danach mit einem 3D-Drucker zu vervielfältigen.
Hier unten seht ihr den Test-Puppenkopf der Frau, modelliert aus Milliput. Es wurden nur die Augenhöhlen und die Nase ausgearbeitet. An diesem Objekt testeten wir das Verfahren mit dem Weißlicht-Sanner.
Der Scanner projeziert ein helles Feld mit dunklem Raster auf den Bereich vor sich und nimmt das Ganze mit zwei Kameras auf. Je nachdem wie das Raster sich verzerrt wird eben die Geometrie gemodellt und daraus ein Polygonmodell berechnet. Diese Technik hat bei unserem Test sehr ungenaue Ergebnisse hervorgebracht. Die ganzen Kanten im Gesicht der Frau wurden abgerundet und Teile vom Gesicht wurden gar nicht richtig erkannt.
Bei dem Gesicht des Mannes testeten wir eine andere Scantechnik aus. Diese funktioniert im Prinzip ähnlich wie Ersteres, nur dass es hier kein abgefilmtes Raster ist, sondern man die Bildinformationen direkt mit der Kamera selbst schießt. Wir haben das Modell also von schräg oben, normal von der Seite und von schräg unten fotografiert. Die Software wandelt das Ganze am Rechner wieder in ein Polygonmodell um. Das Ergebnis sieht man im unteren Screenshot.
Jetzt müssen wir die gescannten Daten nur noch etwas optimieren und bereinigen, um danach hoffentlich ein zufriedenstellendes Ergebnis zu bekommen.
Hier kann man (vor allem bei der Nase) im Vergleich zu oberen Screenshot sehen, dass diese deutlich mehr Kanten und eine definiertere Form bekommen hat.
Wir hoffen, dass wir damit bald einen Test-3D-Druck machen können! Es bleibt spannend! ;)
Abonnieren
Kommentare zum Post (Atom)
Keine Kommentare:
Kommentar veröffentlichen