Das war bei mir vor VR auch der glückselige Zustand, als ich einen Monitor mit XGA Auflösung hatte und es mir völlig reichte, alle 4 Jahre eine in der oberen Mittelklasse angesiedelte Karte zu kaufen, ich fand die Grafik gut genug und die Unterschiede nicht so wirklich spürbar. Sobald man mit einer VR Brille eine gute Auflösung erreicht hat, was m.E. die 4K pro Auge sind, könnte dieser Zustand in ein paar Jahren auch wieder eintreten - und selbst wenn dann 6K pro Auge mit weitem FoV nötig würden, ist hoffentlich DFR auch mit an Bord, und man hat wieder mehr Ruhe und trägt das Geld nicht mit der Schubkarre zu Alternate & Co..
Jetzt noch schnell eine 4090 für nur 3800,- beim gewerblichen Händler kaufen Achja, Zoll und Steuern kommen auch noch hinzu. Ebay ist so lustig… edit - für 6500 auch zu haben https://www.ebay.de/itm/36468922022...536S89&hash=item54e92be282:g:SD0AAOSw6uxlq5kI weiß der Chinese mehr als Andere?
Naja die 4090 ist seit kurzem end of life (ist doch bekannt, oder?) - daher steigen die Preise seit Monaten immer weiter an. Naja und irgendwo gibts immer noch jemanden, der die auch für 10k kauft...
Endzeitkapitalismus. Die pressen überall noch schnell raus was noch zu holen ist und dann macht es "plopp". Wollte mir eigentlich mit der 5000er Serie ein neuen Gaming-Rechner mit einer 5090 kaufen. Aber der Preis ist übel.
Ach, also ich glaube bei nVidia machts nicht so schnell plopp Ist ganz interessant zu sehen, dass in dem Segment wo AMD Konkurrenz bietet die Preise noch durchaus passen; aber darüber drehen sie halt völlig frei... Naja wirtschaftlich machen sie alles richtig, solange die Leute da immer noch zuschlagen... Mal noch was zu DLSS: es wird ja immer behauptet, das wäre ein KI-basiertes Hochrechnen der Bildauflösung bzw. Generieren von "Zwischenframes". Wenn dem so wäre, müsste aber ein entsprechend trainiertes neuronales Netz (cooler Begriff, meint aber "nur" das ist das mathematische Gebilde hinter einer KI) irgendwo (auf der Karte gespeichert?!) hinterlegt sein, das dafür bemüht wird... das ist doch aber ziemlich sicher nicht so oder ?! Also wie macht nVidia das dann? Meine Vermutung ist: viele Abläufe sind eher geschickte, stochastisch optimierte Verfahren. Das Marketing knallt aber natürlich den KI bzw AI Stempel drauf.