1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen

Nvidia GeForce Grafikkarten

Dieses Thema im Forum "Computer Hard- & Software" wurde erstellt von ToM, 6. Januar 2020.

  1. Das war bei mir vor VR auch der glückselige Zustand, als ich einen Monitor mit XGA Auflösung hatte und es mir völlig reichte, alle 4 Jahre eine in der oberen Mittelklasse angesiedelte Karte zu kaufen, ich fand die Grafik gut genug und die Unterschiede nicht so wirklich spürbar. Sobald man mit einer VR Brille eine gute Auflösung erreicht hat, was m.E. die 4K pro Auge sind, könnte dieser Zustand in ein paar Jahren auch wieder eintreten - und selbst wenn dann 6K pro Auge mit weitem FoV nötig würden, ist hoffentlich DFR auch mit an Bord, und man hat wieder mehr Ruhe und trägt das Geld nicht mit der Schubkarre zu Alternate & Co..
     
    dstar gefällt das.
  2. Naja die 4090 ist seit kurzem end of life (ist doch bekannt, oder?) - daher steigen die Preise seit Monaten immer weiter an. Naja und irgendwo gibts immer noch jemanden, der die auch für 10k kauft...
     
  3. Also für 10k würde ich mein 4090 auch verkaufen.
     
    axacuatl gefällt das.
  4. RTX 5090 ab dem 30.01.2025 für 2,400 €, hmm. :notworthy:


     
  5. o_O:rolleyes::confused:
    Die haben ne Macke... Meine Meinung :coffee:
     
  6. Also eine 5080 wäre für mich interessant.
     
  7. Endzeitkapitalismus. Die pressen überall noch schnell raus was noch zu holen ist und dann macht es "plopp".

    Wollte mir eigentlich mit der 5000er Serie ein neuen Gaming-Rechner mit einer 5090 kaufen. Aber der Preis ist übel.
     
  8. Ach, also ich glaube bei nVidia machts nicht so schnell plopp :LOL:

    Ist ganz interessant zu sehen, dass in dem Segment wo AMD Konkurrenz bietet die Preise noch durchaus passen; aber darüber drehen sie halt völlig frei... Naja wirtschaftlich machen sie alles richtig, solange die Leute da immer noch zuschlagen...

    Mal noch was zu DLSS: es wird ja immer behauptet, das wäre ein KI-basiertes Hochrechnen der Bildauflösung bzw. Generieren von "Zwischenframes". Wenn dem so wäre, müsste aber ein entsprechend trainiertes neuronales Netz (cooler Begriff, meint aber "nur" das ist das mathematische Gebilde hinter einer KI) irgendwo (auf der Karte gespeichert?!) hinterlegt sein, das dafür bemüht wird... das ist doch aber ziemlich sicher nicht so oder ?! Also wie macht nVidia das dann?

    Meine Vermutung ist: viele Abläufe sind eher geschickte, stochastisch optimierte Verfahren. Das Marketing knallt aber natürlich den KI bzw AI Stempel drauf.
     
    #2279 Odyssey_Plus_Man, 7. Januar 2025 um 09:44 Uhr
    Zuletzt bearbeitet: 7. Januar 2025 um 10:00 Uhr
  9. Solange sie alles verkaufen was sie produzieren können ja.
     
    dstar gefällt das.