1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen

Nvidia GeForce Grafikkarten

Dieses Thema im Forum "Computer Hard- & Software" wurde erstellt von ToM, 6. Januar 2020.

  1. So ein Dreck...war mir komplett unbekannt. Verdammt schade, hätte gern mal gewechselt.
     
  2. Erstmal die neue Serie abwarten. AMD schubst ja alles irgendwann mit Treibern hinterher...
     
  3. Deswegen sind die von dstar genannten (High End) Brillen quasi gar nicht mit AMD kompatibel, da denen natives Displayport 1.4 nicht mehr reicht und die GraKa per DSC vorkomprimieren muss. Ist natürlich nur relevant, wenn man eine dieser Brillen hat.

    Aber genau, mal gucken, wie das heute abend mit den RX 7000er aussieht...
     
    kellerbach gefällt das.
  4. Rede bei 90hz immer von nativer Auflösung. Also G2 30xx X 30xx ;)
     
  5. Das muss man wirklich zur Kenntnis nehmen, die 2160p Brillen (besonders die G2 mit ihrem hoch angesetzten 100% Sampling) erfordern gg. 1440 x 1600 Brillen ein Vielfaches an Rechenleistung. Merkt man, wenn man die Pixelgesamtzahl mal berechnet und damit skaliert ja im Wesentlichen der Renderaufwand. Die O+ (selbe Auflösung wie Index) konnte ich auch noch mit einer GTX 1650 betreiben; die RX 5700 XT war sogar schon unterfordert, selbst bei ausgereizten 140% SS (mehr war für die O+ sinnlos). Bei der G2 hat die aber kein Land mehr gesehen.
     
  6. Wobei Herz ja schon wieder etwas anderes ist, als die fps. Da spielen so viele Faktoren in so eine Aussage, z.B. mit oder ohne Reprojektion, alle Details auf Anschlag usw. welche Experience, welche weitere verbaute Hardware etc. pp. und der Umstand das VR doch eine recht individuelle Erfahrung darstellt. Ähnlich wie bei z.B. Content Creator welche über Performanzprobleme klagen, aber das ganze Capturing und diverse Tool im Hintergrund werden nicht berücksichtigt. Mit den Vorserien Modelle kann man natürlich auch jede Menge Spaß mit haben, aber mehr Power in der Kiste unterm Tisch, ist doch immer besser, wäre da nicht die unverschämte Ausgabe für ein Beast diesen Ausmaßes.
     
    ToM gefällt das.
  7. Klar das ist schon brutal was da an Pixel zusammenkommen. Die 8kx hat auch erst die volle schärfe bei 1,5 im Pitool, fand ich auch erst heraus. Viele können ja nur auf 1.0 stellen, das ist ein Unterschied von Oculus Rift S zu G2. Das sind halt dann auch nicht die 3840x2160 sondern irgendwas mit 5500x4200. Als wäre das nicht schon genug, werden da um den Faktor 3 mehr berechnet. 8,5 mio zu 23 mio. 4090 passt da aber könnte auch ne 5090 sein ;). Da sieht man mal wie weit die da voraus waren. Edit: Pro Auge :)
     
  8. Muss ich leider widersprechen. Kumpel der sich gerade n PC zusammenbaut hat den 13900 mit der 4090. Ich habe den 5900X mit der 4090. und er schlägt mich teilweise um bis zu 50 fps in 4k durch die Single Core Performance. auch in 3D Mark sehe ich da kein Land.

    Daher: Wenn Geld keine Rolle spielt, definitiv den 13900.
     
  9. Im Vergleich zum 5900X ist der 13900 klar vorn, der ist halt ne Gen neuer; keine Frage. Das liegt aber nicht an der Kernzahl des 13900. Abgesehen davon müsste man den mit dem 7950X vergleichen.
     
  10. Na gut lass mich nochmals hinreisen weil bei 4K die CPU immer unrelevanter wird. Bleibt immer offen und prüft manche aussage, können auch stimmen dann aber auch bitte spiel etc. nennen:




    Edit:
    Wobei 50 FPS unterschied dass möchte ich bitte sehen
     
    #1840 ToM, 3. November 2022
    Zuletzt bearbeitet: 3. November 2022