Veröffentlicht am 19 Kommentare

VFX Tutorial – Teil 1 – Camera Tracking

Eine dreiteilige ausführliche Einführung in den neuen Blender 2.62 Motion-Tracker und die integration von 3D-Objekten und Effekten in Filmmaterial.

Themen in Teil 1:
– Vorraussetzungen fürs Tracking
– der neue MovieClip-Editor
– Motion Tracking
– Tipps und Tricks

Filmmaterial hier downloaden

Hier das Ergebnis des Tutorials:

hat dir das Video gefallen?
Hol dir die komplette VFX Serie!

19 Gedanken zu „VFX Tutorial – Teil 1 – Camera Tracking

  1. Hallo Tobi,

    ich versuche nun schon den ganzen Tag die Sache mit dem Tracking in Blender 2.71 hinzubekommen. Ich hab es mit einem Movieclip (mp4) und auch mit Einzelbildern (png) wie in Deinem Video beschrieben probiert, aber er trackt immer nur 3-4 frames, nicht mehr. Das Objekt das ich tracke ist permanent gut zu sehen (ein Finger).
    Woran kann das liegen???
    Noch eine Frage, wenn ich im MotionTracking bin und ein Video lade, dann läuft es zwar mit Alt-A ab, aber nicht wenn ich unten in der Timeline auf play drücke, das geht scheinbar erst wenn ich unter Playback „Clip Editors“ auswähle, ist das die richtige Vorgehensweise oder mach ich prinzipiell was falsch.
    Sorry wenn die Fragen zu banal sind, aber momentan bringt’s mich echt zum verzweifeln 😉

    Gruß und vielen Dank für Deine Hilfe
    Mario

    1. Hi Mario,
      da hast du vielleicht den Hintergrund mit im Search-Feld ?!
      Wenn sich der Hintergrund ändert springt er raus…

      du brauchst warscheinlich nen Trackingpunkt am finger

      mit > Playback > Clip Editor bestimmst du was die Timeline direkt updatet, das ist schon richtig so 🙂

      lg
      Tobi

  2. Hi Tobi,
    besten Dank für dieses tolle Tutorial.
    Ich hab’s mal mit einer Küchenszene durchprobiert:
    https://youtu.be/kK9LwVCoc9w
    Die Aussage, dass man eine ordentliche, hochauflösende Kamera nehmen sollte, kann ich allerdings nicht nachvollziehen. Hier hab ich eine 10 Jahre alte Cam genommen mit 640×480 Pixeln. Ging super.
    Grüße

    1. Hi Uwe,
      bitte bitte 😀
      is ja echt schick geworden dein Piratenschiff-Shot !

      640×480 ist schon okay – ist halt Videoqualität – hat aber auch was!

      Viele Grüsse
      Tobi

  3. Hallo Tobi, danke für die Tuts, ich benutze die neue Blender Version 2.68 da Finde ich die Funktion nicht mehr zum einstellen der Correlation. Gibt es die nicht mehr oder heißt sie anders ?

    1. Hi Sascha,
      ich habs mir angesehen – bei mir gibt es diese Einstellung in 2.68 noch !
      Viele Grüsse, Tobi

  4. Moin Tobias,

    ich schließe mich einigen Kommentaren an. Danke für die Turtorials, wenn du DVD´s zum Thema Visual FX und dem Motion Tracker erstellst sage bitte bescheid, ich bin dabei.

    Gruß

    Andy

    1. Klaro, ich schicke eine Rundmail wenn die DVD erscheint 😉

  5. super tut man kann alles nach vollziehen noch mehr von dem thema visual fx wäre genial

    1. Hy, es ist momentan eine DVD über VFX in Arbeit 😉
      lg, Tobi

  6. Hallo Tobi,
    super Tut, auf so etwas habe ich gewartet. Bitte dieses Thema weiter verfolgen.
    Wäre auch gut diese Sachen auf DVD zu bringen .
    Weiter so
    Gruß Eckhard

  7. Wow, danke für das großartige Tutorial. Du erklärst es wirklich sehr verständlich.

  8. Hallo Tobi

    Ich schaue gerade Teil 1 und mir ist aufgefallen, das das tracking bei dir sehr langsam ist. Das liegt daran, dass das Bildmaterial nicht in den Cache passt. (der blaue Balken unten im Bild, über dem gelben für das tracking) Wenn du in den Preferences unter System bei Sequencer das Memory cache limit so groß einstellst, dass alle Bilder rein passen, geht das tracking sehr viel schneller.

    1. Hy Michael, ist generel schon richtig mit dem Cachen, nur ist mein RAM zu klein dafür, hab nur 4gb drin.
      Muss mal aufrüsten…

  9. Hallo Tobi,

    danke für das Super Tutorial.
    Zu deinen „35mm-Missverständniss“. 35mm ist das Kleinbild-Vollformat, da der Sensor in deiner Kamera entsprechend kleiner als 35mm ist musst du halt relativ viel umrechnen. 🙂
    2 Große Nachteile von solchen kleinen Sensoren sind das hohe rauschen durch elektrische Störungen im Sensor und eine sehr geringe Unschärfe in der Tiefe da man mit sehr sehr kurzen Brennweiten arbeiten kann/muss. Alles im Ultraweitwinkel aufzunehmen, kann aufgrund der perspektiven Verzerrung nicht gut sein. 😉

    Viele Grüße
    Andy Flint

    1. Hy Andy, thanks a lot 😛
      das mit dem 35mm Kleinbildformat weiss ich schon – naja – das kam etwas „doof“ raus im tut 🙂

      Das was mich verwirrt ist das bei meiner Kamera eine noch kleinere minimale Brennweite angegeben wird als sie jetzt hat.
      Also im Blender gebe ich bei angabe der realen Sensorgrösse eine Brennweite von 3.98 an – im Datenblatt der Cam steht aber 2.35 – 89.3 mm Brennweite.
      Wird das Bild in der Kamers evtl. durch den digitalen Bildstabilisator beschnitten ? Das würde sich aber nicht auf die Brennweite auswirken… well complicated !
      Das hab ich bisher noch nicht rausgefunden…

      Und nennt man 32.4 mm Brennweite echt schon „Ultraweitwinkel“ ???
      Und warum sollte das nicht gut sein ? meinst du fürs Tracken oder allgemein ?
      Ich hab auch nicht vor immer alles auf 32.4 zu machen, aber da ich meine Kamera-Werte noch nicht wusste hab ich das so gemacht um wenigstens da einen festen Anhaltspunkt für die Suche zu haben.
      Interessante Diskussion, lets get on with it 😀
      Viele Grüsse !
      Tobi

    2. Hi,
      Ab 35mm Abwärts kommt man schon arg in den Ultraweitwinkel (auf Vollbild gerechnet) Der Normwert sind 70mm womit man am besten Menschen aufnimmt.

      Zu der unterschiedlichen Brennweite zwischen Datenblatt und Blender „errechnet“ kann ich noch etwas beitragen. Die Brennweite im Datenblatt wird oft auf Focus „unendlich“ angegeben. Da bei einen Focus aber in der Regel auch mindestens ein Linsenpärchen bewegt wird ändert sie sich gering. Am besten kann man es beobachten wenn man ein Festbrennweiten Makroobjektiv einmal fokusiert. Trotz gleicher Brennweite verändert sich der Bildauschnitt dramatisch, vor allen im Nahbereich.
      Das andere Problem ist das Blender die Brennweite errechnet, der aufgenommene Ausschnitt ist aber abhängig davon wie weit der der Sensor vom Objektiv entfernt ist, da kann es mal zu Unstimmmigkeiten kommen. 1 Objektiv aus unterschiedlichen 2 Kameras erzeugen trotz gleicher Sensorgröße und Brennweite 2 unterschiedliche Bildauschnitte.

      Oh warum Weitwinkel vermeiden: Es kommt auf die Situation drauf an, die Freundin/Frau sollte man am besten mit 70mm aufnehmen 😉 Ab 50mm werden die Verzerrungen immer stärker und bei 30mm sieht sie mal 5kg schwerer aus.. das mögen Frauen gar nicht.
      Ansonsten kommt es halt darauf an was man abbilden will, bei dem Robo aus dem Tutor würde wohl eine geringe Brennweite aus Bodennähe ihn sehr Kollosal wirken lassen. Try it 😉

      PS: In der Vorschau ist der Robo nicht so stark verzerrt wie das Gebäude. Ob Blender da die Verzerrung richtig berechnet hat..? Sind mit Cycles die Ergebnisse besser?

  10. Das kommt genau richtig! Darauf hab ich gewartet! Bin gespannt auf Teil 3.
    Wäre cool, wenn Du danach was zu GreenScreen Keying machen könntest!

    1. Ja das wird kommen, aber warscheinlich dann auf ner DVD für vielleicht 30 Euro oder so, denn ich will das Thema VFX viel umfangreicher abdecken und das wird mich wohl einige Wochen beschäftigen.
      Würde ja gerne alles kostenlos machen, aber man muss ja schliesslich auch von irgendwas leben 😉
      lg, Tobi

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert