das sind aber zwei unterschiedliche Systeme: 60Hz für die Positionsbestimmung vom Tracking , 90 Hz für die Bildwiederholfrequenz auf den Displays ... nur der Rote Blitz bewegt sich schneller, als das Auge sehen kann
Ja, aber wofür bringt man denn beim VR HMD 90 mal pro Sekunde ein neues Bild statt der 30 mal, die bei einem Monitor schon ausreichen würden ?
das hab ich mich auch schon gefragt - meine sogar, dass erst unter ca. 23 Hz das Auge die Bildfolge als nicht mehr flüssig wahrnimmt. Ich ahne bereits, dass hier Werte doppelt gerechnet werden müssen ...
Denke mal, weil die Software die Zwischenschritte berechnet/vorhersagt. Ähnlich wie beim Timewarping mit der Latenz und den Bildern.
Vlt bin ich technisch zu beschränkt, aber wie berechnet er denn die 30 extra Frames ? Bei ASW/ATW bzw. Reprojection werden die. Bilder verschoben mit Hilfe des Inputs aus den Tracking Daten. Ich nahm an, und das mag falsch sein, dass das auch die Daten von den LH/Constellation Sensoren meint. Sollten es am Ende nur die Daten vom Gyroskop im HMD sein, die genutzt würden ? Aber wo wäre dann der Unterschied zwischen den grundsätzlich für die extra 30 FPS genutzten Berechnungen mithilfe der HMD Daten und den extra benannten und teils neu eingeführten ATW/ASW und Reprojection ?? Hier wird auch suggeriert,mdass die LH nur mit 60 Hz kombiniert tracken und jede weitere Box die Performance schwächen würde: https://www.pcper.com/reviews/Gener...Tracking-System-Dissected-and-Explored/SteamV Das wäre dann allerdings gelinde gesagt auch etwas Verarsche gewesen seinerzeit durch Alan Yates. Der hatte deutlich suggeriert, dass die LH der Vive CV1 scalable wären. Nicht irgendwelche neue Versionen...
Naja, aber weiter unten sagt er auch das die LH effektiv nur xy Daten im 60 Hz Takt liefern (aber x und y getrennt, darum 120 Hz, im Gegensatz zu einem Kamera-basierten Tracking, bei dem zwar "nur" 60 Hz Updates statfinden, dafür aber mit xy Daten). "A second effect is that the total amount of information provided by the Lighthouse system to the sensor fusion code is only half of what a camera-based system would provide at the same frame rate. Specifically, this means that, even though Lighthouse sweeps the tracking volume in intervals of 8.333ms or a rate of 120Hz, it only provides the same total amount of information as a camera-based system with capture frame rate of 60Hz, as the camera delivers X and Y positions of all tracked markers for each frame. Meaning, a dead-reckoning tracking system with Lighthouse drift correction running at 120Hz is not automatically twice as “good” as a dead-reckoning tracking system with camera-based drift correction running at 60Hz. To compare two such systems, one has to look in detail at actual tracking performance data (which I hope to do in a future post)." Very confusing für me, das Ganze... Mir kann's mit meinen 3 x 3 am Ende schnuppe sein, aber @Oimann wird nicht erfreut sein :/
jup, aber so wie ich das rausgelesen habe ist nicht das rauswerfen der Daten mit 60 hz das relevante sondern die abtastrate der Sensoren. Und die ist natürlich höher.... Allerdings sind diese überlegungen sinnfrei, das ist wie Äpfel mit Birnen zu vergleichen.
falsch nicht, vielleicht nicht eindeutig kommuniziert, aber das ist auch nicht meine Aufgabe und habe auch keine Möglichkeit dies zu überprüfen. Spielt aber auch keine Rolle. Wir wissen dass das Vive Pos.Tracking mit 2 LHBs gut funktioniert, ob jetzt mit 60Hz oder nicht. Das Thema war eine Erweiterung auf mehr als zwei Laserschleudern
Naja das flüssig wahrnehmen liegt schon bei so 90 Bilder die Sekunde. Sonst wäre der Aufwand bei den 3D Brillen nicht nötig. Man merkt ja schon das ruckeln wenn man im Spiel nur wenige Framedrops hat. Film im Kino mit 24 Bilder die Sekunde nehme ich als relativ ruckelig war. Drum habe ich auch zuhause den Splash Player der Filme auf 60 Bilder die Sekunde hochrechnet wie bei SteamVRs Asynchronous Reprojection. Das erhöht die Bewegungsschärfe enorm.