https://mixed.de/hp-reverb-g2-omnicept-eye-tracking-spart-rechenleistung/ Titel: HP Reverb G2 Omnicept: Eye-Tracking spart Rechenleistung. Zitat: "Als Benchmark diente die VR-Grafikdemo “Showdown”, die mit der Unreal Engine erstellt wurde" Ich denke das geht bei Spielen noch nicht.
Wurde ziemlicher sicher dafür neu kompiliert, also softwaremäßig angepasst. Diese Experience scheint sich dafür gut zu eignen, da es sich lediglich um eine Kamerafahrt durch eine automatisch ablaufende 3D-Szene handelt. Hat ja auch die StarVR One genutzt, um ihr volles 210°-FOV zu präsentieren, was laut Sebastian auch nur durch eine "spezielle Version" von “Showdown” möglich war. Für normale Spiele ist schon eine richtige Implementierung notwendig.
Würde es nicht die Möglichkeit geben den Sweetspot in der MItte des Bildes bei Brillen ohne Eye-Tracking in voller Auflösung zu rendern und den Rest dann niedriger das müsste die Rechenleistung doch auch reduzieren. Den Gyrosensor entsprechend auszulesen um zu wissen wo der User gerade hinschaut ist ja schon vorhanden.
Was du meinst wäre zunächst kein vollwertiges dynamic foveated rendering, sondern statisches (hochauflösendes) Rendern des zentralen Sehfeldes ("fovea"). Gyrosensoren müssen gar nicht benutzt werden, weil deine Augen ja in fester Position hinter den Linsen sitzen. Das Problem ist: es funktioniert eben nicht ausreichend gut. Man bewegt seine Augen ständig zumindest etwas und guckt damit öfters neben bzw. außerhalb des hochauflösenden Bereiches. Man müsste den Bereich so groß wählen, dass man es auch gleich lassen kann. Man muss unbedingt in Echtzeit wissen, wo deine Pupille innerhalb des FOV genau hin guckt und den hochauflösend gerenderten Bereich dorthin verschieben. Dafür braucht man eben zwingend eye tracking. [EDIT] Kannst ja mal auf die Seite der StarVR One https://www.starvr.com/product/ schauen und dort etwas runter scrollen. Da kommt dieses Bild, wo man mit dem Mauszeiger etwas mit Foveated Rendering rum spielen kann. Nur eben, dass du per Mauszeiger das Eye Tracking übernehmen musst
@DonCarlo z.B. Batman Arkham VR nutzt diese Funktion, ich meine das Oculus SDK greift auch auf diese Funktion des Fixed foveated Renderings zu. Aber ich muss Dir recht geben, ich würde mir dieses Feature auch in mehr Spielen/Experiences wünschen. Ein Dynamic foveated Rendering durch Eye Tracking macht in meinen Augen derzeit aber keinen sonderlichen Sinn, da die derzeitigen HMD mit ihrem kleinen FOV und Sweetspot eine viel zu kleine Fläche besitzen, wo die Augen ein scharfes Bild besitzen. Einzig fällt mir da lediglich Pimax/StarVR usw. ein, wo ein Eye-Tracking und Dynamic foveated Rendering wirklich Sinn macht. Aber so oder so, begrüßenswert das die Eye-Tracking Technik so langsam einen weg in die HMD findet und das ganze zu einem essentiellen Feature reifen lässt.
@SolKutTeR das war mir neu das es schon Spiele gibt die FFR ohne Eye-Tracking nutzen schade das so wenige sind. Da hilft nur warten bis GPUs im Bezahlbaren Preisbereich mal so Leistungsfähig werden das Fixed Foveated Rendering nicht mehr nötig ist.
Die HP Reverb G2 Omnicept Edition wird ca. $1249 kosten (gestaffelte Preisgestaltung, siehe hier), soll im Mai verfügbar sein und richtet sich wie erwartet nicht an Endkonsumenten. Quelle: Artikel der VR-Nerds
Günstiger als ich gedacht habe, auch in B2B Hinsicht fast geschenkt. Wäre das ganze im Lighthouse Sektor, würde ich ehrlich über eine Investition nachdenken.