1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen

Wie viele Pixel hat die VR-Welt?

Dieses Thema im Forum "VR Allgemeine Themen" wurde erstellt von Bjoern44, 7. Februar 2022.

  1. Hallo liebes Forum,

    Gibt es irgendwo Daten über die gesamte Pixelanzahl im 360grad Raum, in meinem Fall die HP Reverb g2 ?... Evtl hier im Forum?also quasi die maximale Anzahl an Pixel um damit eine 360grad Sphäre um die Cam zu bilden...bzw im Radius der Nativen Auflösung der VR Brille?
    Zb 360grad/Field of View × Displayauflösung...mal 3,14usw?;D

    Halt ne Formel, oder besser gleich ein Wert daraus:)

    Weil....

    Ich könnte bis maximal 10000x10000 pro Auge rendern mit Daz Studio, hab ich bis jetzt aber gelassen, dauert ewig,trotz rtx3090, ausser es würde mit noch mehr Bildqualität belohnt werden;)

    Würde mich mal interessieren ob ich mit meinen aktuellen 6000×6000 pro Auge und 360grad, die sichtbare Auflösung der Reverb überhaupt voll nutze...auch wenn es jetzt schon hammermässig aussieht...

    Liebe Grüße
    Björn
     
  2. Da kommt auf jeden Fall mehr raus, als jedes technische System im Moment händeln könnte. Deswegen sehen 360° Videos ja selbst mit "8K" immer noch ziemlich bescheiden aus.

    Falls man es berechnen will, könnte man das so tun:

    Schaut man sich mit einer VR Brille um, stellt die ein Sichtfeld der Größe [vertikal-FOV] mal [horizontal FOV] zur Verfügung. Dieses ist aufgelöst in a mal b Pixel. Will man die Schärfe der Brille voll ausnutzen, muss ein noch größeres Bild vor-gerendert werden, da noch die Linsenverzerrung raus gerechnet werden muss; bei der G2 z. B. sind 100% Sampling irgendwas mit ca. 3000x6000 Pixel insgesamt. So viele Pixel müssten also für den Ausschnitt [vertikal-FOV] mal [horizontal FOV] bereit gestellt werden. Hierbei sollte man im Hinterkopf behalten, dass ein großer Teil der Brillen-Gesamtauflösung sich überschneidet, da das Sichtfeld ja zum Teil stereoskopisch ist (binocular overlap). Letztendlich entspricht das FOV einem bestimmten Ausschnitt auf der Kugeloberfläche (bzw. hier "-innenfläche"), die man als 360° Video verstehen kann. Im Prinzip (nicht maßstabsgerecht!) sieht das so hier aus:

    [​IMG]

    Du musst also für eine Einheitskugel berechnen, wie groß der durch das FOV projizierte Flächenausschnitt ist. Dann ergeben sich die insgesamt notwendigen Pixel für die gesamte Kugelfläche berechnen aus:

    ( [Kugel-Gesamtoberfläche: 4· π · r²] durch [projizierte Fläche FOV] ) mal [Renderpixel für die Brille] :coffee:
     
  3. Super Antwort, vielen Dank,sogar mit Formel, dann könnte ich tatsächlich eh auf 20000×10000 Stereo gehen...Das ist ja auch mein Softwarelimit...die arme Grafikkarte:D
    Liebe Grüße
    Björn