Ja, genau das habe ich ja auch schon gesagt - wieviel relevante Information hat man denn oben & unten schon, solange man nicht gerade the Climb spielt... ist glaube ich vor allem eine Gewöhnungssache. Bei den Pimax Brillen, die ja allesamt sehr viel mehr horizontales FoV haben, aber nur sehr moderat gesteigertes vertikales FoV, hat sich doch auch kaum einer darüber wirklich beschwert. Hier kommt noch die Form der Linse störend dazu, aber eben Gewöhnungssache.
Naja unterschätzt das nicht. Es geht glaube ich weniger um die "Bildinformation", sondern das Gefühl, das die virtuelle Umgebung unter und über dir weiter geht. Immer wenn ich die O+ nochmal aufsetzte (die hat ja eines der größten V-FOV überhaupt) hab ich tatsächlich nen kleinen Wow-Effekt, wie tief ich nach unten gucken kann, vor allem wenn man an einer hohen Position steht. Beispiel: Richie’s Plank Experience finde ich bis heute intensiver mit der O+ statt der G2!
Aber 96 mit facemod hört sich doch ok an, wird vermutlich ohne schraubzwinge am kop immer noch 92-94 werden ... Auf die Werte von Voodoo darf kann man sich ja auch nur bedingt bei seinem kop hatte er ja auch bei der g2 unterirdische Werte. Allerdings hat keiner von distortions in der Mitte oder am Rand erzählt... Vielleicht war seine Brille ja wirklich schon von anfang an kaputt...
Ich hab mir Teile von dem VoodooDE Test nochmal angeschaut. Der Test ist nicht aussagekräftig. Man kann doch nicht von der besseren Bildklarheit der Index sprechen, wenn das Display der Index vermutlich nativ angesteuert war, während man die Vive Pro 2 wegen Softwareproblemen nicht in der nativen Auflösung testet. Ein Downsampling macht doch immer ein etwas matschiges Bild. Und dann noch diese Screenshots durch die Linse. Da sieht man doch am rechten Bildrand, das die Kamera nie in Augenposition war. Was ist eigentlich ein Compositor?
Soweit ich noch weiss sagte Voodoo im Review aber dass das Bild im Sweetspot klar und scharf sei .. nur das der Sweetspot halt ziemlich klein is und alles ausserhalb des Sweetspots halt unscharf. Is also eher eine Sweetspot Problematik bei ihm gewesen als eine reine Bildschärfe Problematik. Also das 4K Downsampling was ich seit 2012 an meinem 1080p BenQ PC Monitor mache und davor noch mit meinem alten 16:10 Monitor sieht seltsamerweise Schärfer aus als das Native Bild. Da läuft das allerdings auch anders ... die Graka errechnet ein 4K Bild und das wird auf den 1080p Monitor Gedownsampelt. Ich würde also bei VR nun nich von Downsampling reden sondern eben von dem Errechnen einer niedrigeren Auflösung als die Eigentliche Native. Denn wählt man zb wie Voodoo nur "High" wird deine Grafikkarte ja auch nur die Jeweilige Auflösung die du mit High wählst errechnen und diese dann zur Brille Schicken .. es findet somit kein Downsampling statt Downsampling = Graka Errechnet eine Höhere Auflösung zb 4K als die Native zb 1080p und Downsamplet diese 4K dann auf die geringere Monitor Nativ Auflösung runter zb auf 1080p .. ergebniss is ein klareres Bild als die Nativen 1080p plus man spart sich das Antialaising. Verbraucht aber halt auch mehr Performance als die Nativ Auflösung 1080p weil deine Graka dann ein 4K Bild errechnen muss anstelle nur des 1080p Nativ Bildes. Upsampling = Graka Erechnet eine Auflösung zb 720p die Unter der Nativen Auflösung des Monitors ist zb 1080p und zb eine AI ( wie bei DLSS ) wird dann das 720p erechnete Bild auf 1080p upsamplen also hochrechnen. Ergebiss .. leicht unschärferes Bild als die Nativen 1080p dafür aber weniger Rechenaufwand und dennoch besseres Bild als mit 720p Nativ Hier übrigens der alte 3DCenter Monitor Downsampling Thread von 2009 ... das war noch bevor es DSR im Nvidia Treiber gab .. wir mussten das damals alles noch von Hand machen https://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129
Vorsicht bei diesen Begrifflichkeiten... weiß nicht ob's für sowas übergreifende Konventionen gibt. In VR gilt jedenfalls folgendes: Wird eine Geometrie höher abgetastet (z. B. ein Dreieck wird in Pixel zerlegt), als das Ausgabegerät (VR-Brille) darstellen kann, wird von SuperSampling geredet. Das braucht mehr Rechenleistung, aber das Bild verbessert sich etwas gegenüber einem 1:1 Sampling (genau dies wird auch beim SSAA gemacht). wird eine Geometrie niedriger abgetastet und muss im Ausgabegerät hochskaliert werden (um trotzdem alle Pixel zu nutzen) spricht man von Upscaling. Das wäre z. B. der Fall, wenn man ein 360p Video im einem Full-HD Bildschirm im Vollbild anguckt. Das spart Rechenleistung sieht aber natürlich schlechter aus. In letzterem Modus war Voodoo mit seiner Pro 2 unterwegs. Zu seiner Verteidigung muss man noch sagen, dass die native Auflösung angeblich nicht funktionierte (PC schmierte ab), wie weiter oben schon genannt wurde.
Jup .. supersampling is dann wie Downsampling und passt zu meinem oben geschriebenen. Upscaling seh ich allerdings anders ... da wird zb eine 1080p Video Quelle auf einem 4K Bildschirm Bildfüllent angezeigt ... ohne Scaling würde man dann nur 25% des Bildschirms mittig auf dem Bildschirm das 1080p Video sehen und der Rest des Bildschirms würde nur schwarz anzeigen. Sprich in der Mitte des Bildschirms das 1080p Video und ausen um das Video einen Schwarzen Rahmen da keine Scallierung ( Upscaling ) stattfindet und der 1080p Content dann auf dem 4K Bildschirm eben nur 25% des Bildes ausmacht. Mit Upscaling also Hochscallierung des Contents wird das 1080p Video auf der gesamten Bilschrimfläche Dargestellt. Kann man auch im Nvidia Treiber ausprobieren wenn man die Skallierung dort ändert. Hat man ein 4K Bildschirm und nutzt die Auflösung 1080p mit der Standart einstellung bei der Skallierung wird das 1080p Bild gestreckt auf den ganzen Monitor angezeigt .. es wird somit ein upscaling betrieben, Stellt man nun im Nvidia Treiber auf "keine Skallierung" sieht man das 1080p Bild nur auf 25% der Bildschirmfläche mittig mit einem großen schwarzen Rahmen drum ... da dann keine Scallierung stattfindet.