Photogrammetrie

Dieses Thema im Forum "VR Entwicklung" wurde erstellt von axacuatl, 13. April 2016.

  1. Vermutlich ist dies der blödeste Zeitpunkt, den man sich vorstellen kann, mit solch einem Thema hier anzuwackeln, während alle gerade ihre HMD's auspacken bzw. im Delirium darauf warten, aber ich versuche es dennoch:

    interessieren sich hier noch Andere dafür, wie man mittels Photogrammetrie Umgebungen und Objekte in 3D Modelle mit Texturen umwandeln kann für private Zwecke ? Diese Realities.io Geschichte hat mich auf die Idee gebracht, dass ich für mich selber gerne auch bestimmte Umgebungen in mittels VR HMD begehbare virtuelle Räume umwandeln möchte. Für kleinste Objekte werde ich hoffentlich irgendwann im Sommer einen kleinen Scanner (Eora 3D) den ich gebackt habe - aber der nützt mir nichts wenn ich einen ganzen Raum einfangen wollte.

    Es bieten sich da wohl entweder Cloudbasierte Dienste a la 123D Catch an oder z.B. Agisoft Photoscan, und dann gibt es auch noch Freeware. Falls es da noch Andere gibt, die den Gedanken reizvoll finden, jetzt oder in ein paar Jahren durch etwa den Balkon des Ferienhauses mit Meerblick, des später verkauften Elternhauses, des Kinderzimmers eines ihrer Kinder zu gehen (z.B. im Größenmaßstab wie es sich für das Kind darstellt), dann könnte man sich ja mal austauschen. Aber vielleicht bin ich damit auch in einem dedizierten Photogrammetrie oder 3D-Modelling Forum besser aufgehoben...

    Ich finde die Idee einfach faszinierend, auch eigene, in Zukunft vergangene Räume auf diese Art festzuhalten. DIY Memory lane, sozusagen. Photos sind gestern, ich will die alten Szenen später richtig begehen können.
     
    #1 axacuatl, 13. April 2016
    Zuletzt von einem Moderator bearbeitet: 13. April 2016
  2. Hast du bereits schon einige Tests damit gemacht?
    Beschäftige mich momentan auch mit dem Thema.

    Gesendet von meinem SM-G920F mit Tapatalk
     
  3. Nee, bin durch diesen Bericht über Realities.io drauf gekommen, und hatte vor paar Jahren mal ein paar mal mit Photosynth und 123DSketch rumprobiert, aber es nicht weiterverfolgt (das ging damals ja auch eher um den Capture von Gegenstände und weniger von ganzen Räumen).

    Ich finde natürlich den Level, den Realities.io oder wohl auch der Berg in the Lab erzeugen ziemlich klasse. Aber dann sind man halt auch ein paar wenige selbsterstellte Räume im Internet wenn man Agisoft Photoscan und room oder so googelt, und die sehen ja ganz okay aus, aber die 3D Konturen sind dort schon häufig noch relativ wellig oder nachbearbeitungsbedürftig. Und ich hätte gegen Nachbearbeitung nicht einmal viel einzuwenden, wenn das dann einigermaßen unaufwändig wäre und auch für Deppen wie mich vernünftig geht. Aber bevor ich mal eben 180,- für so eine Software locker mache will ich ein besseres Gefühl dafür entwickeln welche Qualität ich wohl in meinem Privatrgebrauch so hinkriege ohne 3 Monate Projekte aus einem Raum zu machen...
     
    #3 axacuatl, 17. April 2016
    Zuletzt bearbeitet: 17. April 2016
  4. Ein begehbares Foto aus der Vergangenheit - schöner Gedanke! :)

    Glaube realities kombiniert gleich mehrere gängige Verfahren zum Erreichen dieser hohen Qualität.
     
  5. Mit der Vive Kamera und dem genauen Tracking müsste es doch möglich sein Objekte oder Räume zu photogrammisieren, man könnte sich die Blickwinkel zum fotografieren virtuell anzeigen lassen oder so ähnlich...
    Ich hoffe die bei Valve haben auch so ne Idee
     
  6. HD
    360 4K ...
    Photogrammetrie ..
    und noch viel mehr.
    ...
    wenn das/der FB Geld/Wille nicht ausreicht ist ruck zuck ende mit VR.
     
    Kraeuterbutter gefällt das.
  7. Photogrammetrie ist schon echt ne tolle Sache und auch recht einfach zu erstellen - nur die Rechenleistung die benötigt wird ist extrem

    Bei knapp 1000 Bildern hat mein PC circa 16 Stunden gebraucht um alles zu berechnen (auf mittleren Details)


    Gesendet von meinem SM-G920F mit Tapatalk
     
  8. Der Gedanke ist nicht schlecht - man hätte die genauen Positionsdaten, was ein Riesenvorteil wäre. Dafür allerdings vermutlich eine furchtbare Auflösung und Schärfe. Aber wenn man den Gedanken mal weiterspinnt - könnte man nicht einen Vive Controller an einer DSLR befestigen, dieses Ding dann einmal kalibrieren, und damit dann die Photo-Positionsdaten erfassen ? Allerdings muß man zu diesem Zweck dann auch einen Rechner mit SteamVR und die zwei LH Boxen in den zu erfassenden Raum schaffen, was kein ganz unbeträchtlicher Aufwand ist - es sei denn, dass das durch ein einfaches Laptop erledigt werden kann, man will ja gar keine rechenintensive Aufbereitung von Bildern für's Display sondern nur die bei LH gerade nicht so rechenintensiven Positionsdaten abfassen.
    Jetzt fehlt nur noch jemand, der SteamVR und LH gut genug versteht um für diesen Zweck mal eben eine Software zu coden. :whistle:
     
  9. Die Idee klingt interessant, nur würden die LH Boxen nicht den Kompletten Raum erfassen - könnte problematisch werden.

    Das verbinden von Kamera und Controller ist kein Problem, wie wir bereits in den mixed reality Filmen gesehen haben.

    Gesendet von meinem SM-G920F mit Tapatalk