Wenn DLSS wirklich solche Leistungssteigerungen möglich macht wie man schon gesehen hat und das durch die Bank bei allen Spielen möglich ist, so wie du sagst, dann werden die die kein DLSS nutzen bald aussehen wie ATARI Spiele im Vergleich zu denen die DLSS nutzen. Da gibt es meiner Meinung nach nur Friss oder stirb.
Ein solches Feature sollte irgendwie auch in DirectX eingebunden werden, damit da ein Standard entsteht, der für alle Entwickler (auch AMD und Intel) offen steht. Sonst haben wir wieder viele unterschiedliche Standards und es gibt nicht "alles für alle", sondern möglicherweise Exclusivdeals (welche ich nicht mag)
@Flens07 wie stellst du dir das vor? Die entwickeln mit einigem Aufwand ne sehr interessante neue DeepLearning-Optimierungsmethode und sollen die jetzt an die direkte Konkurrenz "verschenken" ?!
Wird ja schon nicht gehen, weil diese ja die CUDA/Tensor Cores nutzt, wenn ich das richtig verstehe - die hat eine AMD GPU nicht. Klar werden die auch irgendwie was für den Tensorflow basteln können, aber ob's eben so performant ist, wäre die Frage, und ein wenig performates DLSS auf AMD Karten würde letztlich NVidia in die Karten spielen...
Ja, gleich neues Machen es ja nicht. Nutzern von Mitbewerprodukten steht ja die, Hust, kostengünstige, Hust, Variante offen, sich eine Teslakarte reinzuschrauben. xD
Keine Ahnung - wollte mit dem Post lediglich auf die möglichen Konsequenzen der verschiedenen Töpfe aufmerksam machen...
Zahlen, Zahlen, Zahlen.. 3080 ungefähr. 30% schneller als 2080ti und 50% gegenüber der ohne. https://videocardz.com/newz/alleged-geforce-rtx-3080-graphics-card-test-leaks-online Das macht, 2-3 FPS in XP und ca. 4-6 FPS in DCS für mich, wenn sie identisch übertaktbar ist. Meine 2080ti liegt etwa 28% über der FE, also fast gleichauf mit der 3080 on Stock Should i buy?