1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen

[Lighthouse] Zusätzliche Tracker

Dieses Thema im Forum "VR Eingabegeräte" wurde erstellt von SolKutTeR, 5. Januar 2017.

  1. 99Euro sind ja auch nicht wenig. Da kann ich ja froh sein, dass ich die PP Gun unterstützt habe. Da ist der Tracker bei der Pistole für 130€ schon inklusive.
     
  2. Gerade eine e-mail bekommen, dass die Finanzierung wohl scheitern wird und ich das Geld zurück bekommen werde. Ende des Monats kann ich dann zu selben Preis es im Online-Shop erwerben.
     
  3. Natürlich auch auf der deutschen Seite erhältlich.
    Kostenpunkt: 119€ zzgl. Versand.
    Bitte bedenkt dass es in erster Linie für Entwickler und co gedacht ist.
    Natürlich könnt Ihr ihn Euch trotzdem bestellen und damit herumexperimentieren. ;)

    Einigen dürfte auch die PP-Gun noch ein Begriff sein. Die Entwickler haben nun auch ihre Vive Tracker erhalten.

    Gruß
     
  4. Baron Kuo, deren Sales Rep, hat die Teilnehmer der (gescheiterten) Indiegogo Kampagne bereits angeschrieben, dass sie zum gleichen Preis eine Riffle / Gun erwerben können, irgendwann im April, aber mehr weiß man noch nicht. Ich warte... :)
     


  5. mit nur 3 tracker,2 Controllern und den HMD erreicht....
     
  6. Sieht schon sehr gut aus. Würde mich allerdings interessieren, ob sie da bestimmte (natürliche) Bewegungen vermieden haben, die eben nicht richtig dargestellt würden. Klar wird man die Arme seltsam anwinkeln können, um das zu provozieren, aber interessanter ist es, ob das auch bei natürlichen Bewegungen gelegentlich/häufiger passiert. Auf jeden Fall spannend, jetzt müssen die Tracker nur noch kleiner (und billiger) werden. Aber das wird nur eine (sehr überschaubare) Frage der Zeit sein...
     
  7. hmm, hinknienen hat sie am ende doch gemacht, und der Bereich um und vor ihren Körper wurde doch auch korrekt erkannt.. sogar als sie beim Stehen auf einen Bein das Bein verdreht hat, wurde das richtig umgesetzt... ich überlege gerade welche bewegung du jetzt speziell meinst?
     
  8. Alle möglichen - wenn das ein Marketing Clip für ein Produkt wäre, müßte man ja berücksichtigen, dass sie es im besten Licht darstellen wollen. Also würden sie, falls sie festgestellt hätten, dass bei bestimmten Bewegungen die Software die Stellung/Bewegung der Gliedmaßen nicht gut wiedergibt, diese Stellungen/Bewegungen für solch ein Video vermeiden.

    Wenn es etwa so wäre, dass es eine bestimmte Bewegung des Fußes (=Tracker) gibt, die bei zwei oder mehr durchaus unterschiedlichen Bewegungen am Fuß fast gleichartig ist, dann würde man dort ggf. nicht die korrekte Bewegung in VR sehen. Als einfaches Beispiel. Wenn ich die Füße stillhalte, wird das Programm wohl auch meine Beine als unbewegt interpretieren/interpolieren. Aber wenn man jetzt z.B. einen Twist tanzt, der Tanz (glaube ich), bei dem die Beine auf der Stelle bleiben und man die Knie wild hin und her schwingt, vermute ich, dass er das nicht erkennt und daher nicht darstellt - wie sollte er auch, er hat ja keinen Tracker außerhalb der unbewegten Fußes (+ unbewegten Kopfes & Hand). Aber vielleicht ist es so genau, dass es die feinen Kippbewegungen, die der Fuß dabei vielleicht doch macht, so genau registriert, dass er diese in seinem Ragdoll/Kinematics Algorithmus doch diesen Bewegungen zuordnen kann und die virtuellen Knie dann eben diese Bewegungen ausführen läßt.

    Das soll jetzt keine Kritik an der Software sein, ich erwarte nicht, dass sie Informationen, die sie nicht bekommt und nicht eindeutig voraussagen kann, auf magischem Wege hellsieht, es geht mir mehr darum, einfach zu verstehen, wie gut das schon funktioniert und wo es noch Beschränkungen gibt. Das Video sieht auf jeden Fall schon sehr gut aus.
     
  9. Ja, da in dem Fall Ellbogen und Knie-gelenke nicht getrackt werden, können sie nur erraten werden von dem IK Programm .
    Wenn man stehen würde und Füße und Hände auf der Stelle hält und dann Ellbogen und Knie oder Schulter umherbewegt, werden sie nicht, oder falsch umgesetzt.
    In dem Video wird da natürlich nicht drauf eingegangen. Würde ich aber auch nicht wenn ich meine IK Software demonstrieren wöllte :D

    Einzige zukunftssichere Lösung ist hier wirklich optisches Körpertracking. Dann muss man sich auch keine Tracker anbinden und die Software aufwendig darauf abstimmen.
    Aber für einfache und kostengünstige MoCap Arbeiten dürfte diese Methode schon mal nicht schlecht sein.
     
    #60 Syndroid, 5. April 2017
    Zuletzt bearbeitet: 5. April 2017