Rechts sehen Sie eine Visualisierung, die mittels 123D catch in der Cloud berechnet wurde. Es wurden für das Modell insgesamt 108 Bilder in einer Entfernung von ca. 6m aufgenommen und in die Cloudanwendung hochgeladen. Dort werden die Aufnahmen zueinander orientiert und nach einigen Stunden steht das fertig vermaschte Modell zu Verfügung. Das Modell wurde nicht überarbeitet oder weiter editiert, auch gibt es keine Aufnahmen von oben, sodass im Kopfbereich noch Lücken und Artefakte auftreten. Dieselben Bilder wurden auch mit den Programmen VisualSFM und CMPMVS verarbeitet. Die Auswertung ergab ein sehr dichtes und homogenes Modell aus über 2,8 Millionen Punkten, die mit 4 Millionen Dreiecken vermascht sind.
