1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen

VR Bottleneck - CPU <> GPU

Dieses Thema im Forum "Computer Hard- & Software" wurde erstellt von ReVoltaire, 30. August 2024.

  1. Muss mal schauen ob ich das Video finde. Glaub PCGH wars wo das auch gesagt hat mit der CPU / Kernen, wichtiger sei die GPU Auslastung, ich glaub kleiner gleich 95% GPU Auslastung ist CPU der BN.
     
  2. Ja, also wenn man über 95% GPU Auslastung hat, brauch man sich über die CPU (-Auslastung) natürlich keine Gedanken machen. Erst wenn man die GPU nicht mehr voll ausreizt, machts Sinn sich näher damit zu befassen.
     
  3. Natürlich immer auch abhängig von Einstellungen etc. 720P bist immer kleiner 95% usw. Hier was zum Thema, sehenswert

     
  4. Ja, das klingt natürlich plausibel, was du schreibst. Da würde eine "Hotspot"-Angabe des jeweils am meisten ausgelasteten Kern natürlich am meisten Sinn ergeben. Anhand der Balken in meinen Screenshots oder auch der gespeicherten Historie kann man da leider nicht viel entnehmen. Interessanterweise wird der 14900 dann sogar (in Prozenten) mehr ausgelastet. Aber vermutlich, weil da mehr Luft nach oben ist und auch die restlichen Kerne noch was zu tun haben.
     
  5. Genau sowas dachte ich mir auch schon. Die Auslastung der ein, zwei meist genutzten Kerne wäre für Gaming viel nützlicher, als irgendein Durchschnittswert aller Kerne, bei denen die meisten nicht mal was mit aktuelle laufenden Spiele-Rendering zu tun haben...

    Ja, kommt vor allem daher, weil der die 4090 wirklich händeln kann und die ihm auch die Arbeit verschafft. Das konnte der 10900k nicht, der eben ab einem gewissen Auslastungspunkt "hängen blieb" bzw. einfach nicht mehr konnte.
     
  6. Sorry, ich muss noch mal nachfragen. Das hatte ich zuletzt nämlich völlig vergessen.

    Ich bin über die Aussage gestolpert, dass du so niedrige CPU-Frametimes hast. Dabei ist deine CPU ja schon signifikant 'schlechter' als der i9-10900k. Wie kann das sein?

    https://cpu.userbenchmark.com/Compare/Intel-Core-i9-10900K-vs-AMD-Ryzen-5-3600/4071vs4040

    War es vielleicht bei mir die ungünstige Kombi, dass ich auch schon mit der 3090 eine (zu) flotte GPU hatte, dass die CPU überforderte und am Ende noch schlechtere Werte bei rumkamen? Klingt viel zu unlogisch, als ob das Sinn ergeben würde. ^^ Aber auch die RX 6800 ist ja ebenfalls weit niedriger angesetzt als die 3090.

    ...oder spielst du einfach auf äußerst niedrigen Details mit niedriger Auflösung. Lt. Signatur nutzt du ja die G2 und/oder PS2VR. Beide haben ja schon entsprechende Auflösungen.

    Wie gesagt...verstehe ich nicht und das Thema lässt mich nicht wirklich los. :D
     
    Odyssey_Plus_Man gefällt das.
  7. Ja, da diskutiere ich durchaus gerne drüber, alles gut ^^

    Dein 10900k ist tatsächlich stärker gewesen, als mein Ryzen 3600. Deswegen wundert es mich ja so, dass deine "alte" CPU so stark limitiert hat bzw. konkret gesagt: keine besseren Frametimes erreichen konnte. An dieser Stelle kann man die GPU sogar erstmal außen vor lassen, denn nochmal zum Verständnis:

    Die CPU übernimmt beim Rendering nur die Geometrie, Physik usw. Das alles ist (weitestgehend) auflösungsunabhängig. Man kann sich das so vorstellen, dass der gerenderte Frame (ein Einzelbild) als Vektorgrafik von der CPU geliefert wird (=Frametime_CPU) und die GPU "hackt" das ganze in die gewünschte Anzahl von Pixel. Die gesamte Frametime ist dann Frametime_CPU + Frametime_GPU, wobei nur zweiteres (wesentlich) mit der Auflösung zunimmt.

    Daher sollten die CPU Frametimes nahezu gleich sein, egal welche GPU nachgeschaltet ist.

    Um mal direkte Werte für Frametimes ins Spiel zu bringen, werde ich auch mal paar fpsVR screenshots posten.

    Wir haben hier übrigens ein Problem; der Thread heißt PC für Meta Quest 3, aber wir reden hier eher über PC für Varjo Aero :LOL:
     
    ReVoltaire gefällt das.
  8. Sehr gut, dann mal weiter... ;)

    Vielleicht stehe ich nur völlig auf dem Schlauch, aber:

    Ich kann zwar 'nen PC bis auf die letzte Schraube auseinander und wieder zusammenbauen, doch die genauen Funktionsweisen bzw. Abhängigkeiten von jedem µ auf der Platine sind mir fremd. So wie du es beschreibst, ergibt das Ganze nämlich noch weniger Sinn (für mich). Denn das würde ja bedeuten, dass meine frühere CPU auch ohne VR ständig ans Limit hätte laufen müssen. Das war aber nicht so.

    Bestes Beispiel: Minecraft/Vivecraft

    In VR (hat man ja auf den Screenshots gesehen) war die CPU hart am Schnaufen. Das resultierte dann auch in einer niedrigen Bildrate, obwohl ja die GPU quasi nichts zu tun hatte. Java halt, da ist das nicht überraschend. In Flat allerdings habe ich genau die gleiche Map an der gleichen Stelle ausprobiert, da lief alles immer butterweich. Zwar hatte ich kein fpsVR zum Vergleich (war ja flat), aber man hat ja schon gemerkt, dass kein Ruckeln/Laggen mehr da war, mit Frames im ordentlich 3stelligen Bereich.

    Also irgendwas ist in VR (oder dann halt in wirklich hohen Auflösungen) grundlegend anders....

    Kein Problem, nur Lösungen... Ich zitiere mich mal selbst:

    Dann mal etwas offensichtlicher: Kannst du bitte ab diesem Post, alle weiteren in ein neues Thema namens...
    ...(oder ähnlich Geeignetes) in das Varjo Unterforum verschieben, lieber Herr Admin @SolKutTeR *schleimschleim*?
     
  9. @ReVoltaire ich hab es mal in das Computer Hard- & Software Forum ausgegliedert. :notworthy:

    Denke wegen der übergreifenden VR-Rig Thematik, könnte es hier besser aufgehoben sein.
    Bei der Gelegenheit habe ich es mal im entsprechenden Forum noch festgepinnt.

    Wenn ich einen Beitrag übersehen habe, oder der Titel nicht passt, sage bitte bescheid. (y)
    Oder geht es nur in Bezug auf deinem Vajo Aero Setup?
     
  10. Das ist tatsächlich zu erwarten. Der Berechnungsaufwand für die CPU entsteht pro "Perspektive" im Spiel (viewport), die gerendert werden muss. Flatgames haben logischerweise nur einen viewport, der in die 3D Szene "hineinschaut". Für VR müssen zwei gleichzeitig gerendert werden. Beide viewports schauen zwar in die gleiche 3D-Szene, durch den leichten Perspektivwechsel müssen aber alle Berechnungen erneut durchgeführt werden (das sieht dann so aus, wie die mittleren beiden Viewports in diesem Schema).

    Die beiden viewports kann man übrigens selbst "simulieren", in dem man seine Augen mal abwechselnd auf und zu macht, während man auf einen Gegenstand schaut. Man stellt dieses leichte "hin- und Herspringen" des Objektes fest, weil man in leicht unterschiedlichen Winkeln drauf schaut (Augenabstand). VR-Rendering macht (im Prinzip) nix anderes: man platziert zwei viewports im menschlichen Augenabstand in die 3D Szene eines Spiels und rendert die sich ergebenden Perspektiven. Diese Bilder werden an die VR Brille übertragen und dadurch entsteht der perfekte 3D-Eindruck und die 1:1 Weltskalierung.

    Letztendliche ist der Aufwand für die CPU ist nicht unbedingt als x2 zu betrachten, aber er ist definitiv höher, als bei flat.
     
    Blitzz-Licht, ReVoltaire und kellerbach gefällt das.