1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen

nVidia und die zukünftigen Pläne mit VR

Dieses Thema im Forum "VR Branche & Business" wurde erstellt von SolKutTeR, 27. April 2018.

  1. Die ersten VR-Titel bekammen nun RTX und DLSS Support, darunter Wrench, No Man' Sky, Into the Radius VR & Redout. (y)

    NVIDIA DLSS: No Man’s Sky And 8 Other Games
    Including The First VR Titles, Add Performance-Accelerating Tech This Month

    NVIDIA DLSS adoption continues at rapid pace, with a further 9 titles adding the game-changing, performance-accelerating, AI and Tensor Core-powered GeForce RTX technology. This follows the addition of DLSS to 5 games last month, and the launch of Metro Exodus PC Enhanced Edition a fortnight ago. This month, DLSS comes to No Man's Sky, AMID EVIL, Aron's Adventure, Everspace 2, Redout: Space Assault, Scavengers, and Wrench. And for the first time, DLSS comes to Virtual Reality headsets in No Man’s Sky, Into The Radius, and Wrench. By enabling NVIDIA DLSS in each, frame rates are greatly accelerated, giving you smoother gameplay and the headroom to enable higher-quality effects and rendering resolutions, and ray tracing in AMID EVIL, Redout: Space Assault, and Wrench. For gamers, only GeForce RTX GPUs feature the Tensor Cores that power DLSS, and with DLSS now available in 50 titles and counting, GeForce RTX offers the fastest frame rates in leading triple-A games and indie darlings. Weiterlesen →
     
    ToM gefällt das.
  2. Die Auswahl der Spiele ist aber ziemlich absurd. Wrench ?! Wieviele Leute spielen das wohl ? Aber so etwas wie PJC2, Asseto Corsa, usw. wird nicht optimiert ? Vermute mal, dass es nur eine Minderzahl an Spielen gibt, die so programmiert wurden, dass DLSS dort überhaupt viel bringt. Vielleicht eher mies optimierte Spiele ?
     
    komisch gefällt das.
  3. Man muss ja immer berücksichtigen, dass es letztendlich auf "geschätztem" Supersampling basiert, und nicht auf echter höherer Abtastung der Geometrie. Sprich, der Vorhersage-Algorithmus wertet die letzten Frames aus, und erfindet dann die fehlenden Pixel anhand der, die vorher dort waren. Klingt erstmal verrückt, aber das funktioniert erstaunlich gut, da Nvidia dies sehr gut optimiert hat und genau das spart ja GPU-Leistung. Es gibt aber ein Problem: wenn sich die aufeinanderfolgenden Frames zu schnell zu stark unterscheiden, versagt das Verfahren zunehmend mehr und anstatt sinnvoller Pixel entstehen nur Artefakte (das ist ja auch mehr oder weniger das Problem bei allen Verfahren zur Zwischenbildberechnung).

    Meine Vermutung ist: Gerade bei Rennspielen ist letzteres der Fall. Dann muss man die echt gerenderte Auflösung doch wieder relativ hoch wählen und kann nicht z. B. bis 360p runter (was in einigen Spielen durchaus möglich ist); somit ist kaum noch Benefit vorhanden, weil ja auch neuer Overhead durch den Algorithmus entsteht. Ist aber nur meine Vermutung.
     
    dstar und Rocco gefällt das.
  4. DLSS würde ich jetzt aber auch nicht als den heiligen Gral ansehen, besonders Grafikh*ren ziehen eine natives Supersampling dennoch immer vor, sei es in Flat oder VR. :notworthy:
     
  5. Ich auch nicht, es ist immer mit Qualitätseinbußen verbunden. Die gewonnene GPU-Ersparnis bekommt man eben nicht geschenkt. Nichts geht über nativ. Aber man muss es Nvidia schon hoch anrechnen, dass sie hier innovative Wege gehen und die Ergebnisse sind schon erstaunlich. Ist übrigens auch wieder eine Errungenschaft von Deep Learning Methoden (d. h. der Algorithmus, mathematisch ein neuronales Netz, verbessert sich selbst anhand bestimmter Zielgrößen, ohne das man "ihm" genau erklären muss, was er wie zu tun hat).
     
  6. Klar keine Frage, wie allein nVidia teils das Gaming durch neue Features bereichert, hält mich seit Jahrzehnten bereits an einer langlebigen nVidia Nutzung fest. Auf der anderen Seite würde ich mir jedoch eher eine allgemein bessere Spiel-Optimierung im PC Sektor wünschen, so wie es auf Konsolen gang und gäbe ist. Im PC Sektor wird teils soviel Rechenleistung einfach nur unnötig verbraten durch fehlende Optimierung da der allgemeine Tenor immer noch darin besteht, es wäre ja genug Rechenleistung vorhanden und wenn nicht, rüstet man auf usw. Da müsste man eher ansetzen. :coffee:
     
  7. Das sehe ich auch als riesen Problem. Jede Effizienzsteigerung der Hardware wird übertrieben ausgedrückt durch schlampige Spieleoptimierung wieder aufgefressen. Merkt man schon am Speicherbedarf heutiger Spiele. Kaum vorstellbar, wie Vollpreistitel vor nicht allzu langer Zeit noch auf 1...2 DVD's gepasst haben. Heute ist jede 5-Min Demo schon zu groß dafür. Da ist garantiert ne Menge Potenzial vorhanden, zumindest bei PC-Spielen.
     
  8. Aber wofür optimieren wenn man alle paar Monate neue und überteuerte Hardware verkaufen kann^^:cautious:
     
  9. Mit DLSS ist die Schwelle der Optimierungsnot noch weiter gefallen... Momentan "nur" für Raytracing (?) - abwarten... Ein ACC-Developer (Aris) hat mal verkündet, warum Assetto Corsa Competizione kein DLSS hat: das funktioniert nur bei "festen definierten Geschwindigkeiten" der Protagonisten - in einem Rennspiel (ACC) funktioniert das wohl überhaupt nicht!

    BTW: ACC ist ein von nVidia unterstütztes Projekt - sollte sogar ursprünglich Raytracing verwenden. Is aber ned - sonst könnte gar keiner damit fahren ^^
     
  10. Genau das dachte ich eben...

    Man sieht es selbst bei 3rd-Person Spielen, das bei schnellem Rundumgucken das Bild kurzeitig zusammenbricht und erst nach paar Frames (Sekundenbruchteile) wieder DLSS greift. Im Rennspiel wäre das ja der Dauerzustand. Einzig der Cockpit-Innenraum ließe sich vlt. gut supersamplen, aber das reicht ja nicht...

    Die schwierige Performance bei ACC kommt aber auch durch die Unreal 4 Engine; die ist halt einfach nicht primär für Rennspiele gemacht und arbeitet da nicht wirklich effizient.