Ich sag mal, wenn man keine Brille in der 3000 x 3000 Region hat, macht die Karte, vor allem für den Preis, kaum Sinn. Klar kann man dann eine Quest 3 vlt. durchweg 200% super-samplen aber das bringt keinen Mehrwert. Und ja, ich weiß, der MSFS(20, 24) frisst jede Karte, aber das trifft wahrscheinlich auch noch für ne 6090 zu und wird immer so sein
Gibt jetzt auch Benchmarks zur RTX 5080 (PCGH). Sie kommt auf 14% mehr Leistung als die 4080 Super, die 4090 ist 19% schneller in Rohleistung. Was für uns vielleicht uninteressant, aber generell interessant, die 4080 Super ist in Raytracing nur 11% langsamer. Die Raytracing Kerne scheinen also nicht wirklich verbessert/erhöht worden zu sein. Vielleicht ist Raytracing also auserzählt was Leistung ohne mehr Kerne angeht.
Ich denke generell befindet sich die Chipfertigung in einer schwierigen Zeit. Die richtig großen Sprünge hat man in den letzten Jahrzehnten immer durch Miniaturisierung (immer mehr Transistoren pro mm²) erreichen können. Aber hier steuert man langsam auf technische und sogar physikalische Grenzen zu. Mit der Architektur allein (also dem "Schaltplan" des Chips) lässt sich anscheinend kaum was holen, wie man anhand der RTX 5000er sieht. Die Zunahme in Rechenleistung musste fast komplett durch mehr Leistungsaufnahme erkauft werden, Effizienzsteigerung hat man kaum hinbekommen, max. 1-stellige %. Und wer jetzt denkt, beim Militär oder was weiß ich haben die doch schon viel bessere Chips - nein. Die Chips für consumer CPU und GPU produziert werden sind hinsichtlich Miniaturisierung die fortschrittlichsten der Welt. In anderen Bereichen wie Automotive usw. wird mit deutlich "gröberen" Strukturgrößen gearbeitet, bei denen es vor allem um Zuverlässigkeit geht.
Diese Preise... bis 3250 EUR für Luftkühlung und bis zu 3400 für Wasser ...wow Per scalper dann bestimmt für 3999 oder so...
Muss ich mir heute Abend mal anschauen mit den PCIe5 Problemen, vielleicht hat sich das dann erstmal komplett von selbst erledigt......also doch wegschmeissen.
Stimmt so nicht ganz aber wir bewegen uns dort hin. Nvidia hat mit der aktuellen Generation gespart. TSMC hat bereits funktionierende 2 nm Produktionen (z.B. fürs IPhone wird das genutzt). Die sind aber teuer und ggf. nicht in der Masse verfügbar. Das wären 100% mehr Units pro 1 cm². Sie sind auch schon im Testlauf für 1,4 nm und forschen an 1 nm mit einer 2 lagigen Schicht. Der Kapitalismus fordert immer neue Methoden und Verfahren. Sonst schließt die Konkurrenz auf und der Aktienkurs sinkt. Aber irgendwann ist da auch Schluss. Der 1nm Prozess arbeitet schon mit einem 2. Layer um die Chips auf die Strukturbreite zu bekommen. Und man sollte nicht übersehen, dass die 1 nm der Name des Prozesses sind. In Wahrheit sind die Strukturen größer. Ich meine mal gelesen zu haben (Vorsicht Halbwissen) bei 1-2 echten nm sei Schluss.
Klar, irgendwie kommt da immer noch Fortschritt, aber eben nicht mehr so richtig auf dem Moore'schen Level. Das iPhone 30 hat vermutlich Quanten-Prozessoren mit holographischen Speicher, aber die regelmäßige Steigerung für Consumer Produkte mit dem gleichen Minituarisierungstricks ist halt langsam an seinem absehbaren Ende angelangt.
Ich finde das aber eine Scheindebatte... klar gibt es irgendwo eine physikalische Grenze, aber da sind wir noch nicht. Nvidia hat sich bewusst dafür entschieden die Rohleistung nicht weiter zu steigen... am besten ist das ja beim VRAM zu sehen. Da kommt man ja bis zur 5080 weiterhin nicht über die 16GB. Da wäre problemlos mehr drin gewesen... man WILL aber nicht. 16GB sind zwar -stand heute- noch in den meisten Fällen ausreichend, man merkt aber schon an einigen Titeln (z.B. Indiana Jones) wohin die Reise geht. Und dann sind 16GB schon sehr knapp. Nvidia setzt ganz bewusst nicht mehr auf Rohleistung sondern schlägt vermehrt den Weg der Upscaler und FrameGenerator ein. Das war ja auch bei der Präsentation ersichtlich. Und das wohl aus dem einzigen Grund der für ein Unternehmen zählt: Das Geld. Ich nehme an dass mehr Leistung durch Upscaler & Co. einfach eine größere Gewinnspanne bringt als ein Leistungsgewinn hinsichtlich der Rohleistung. Die gleiche Richtung sieht man ja auch bei der Playstation. Anstatt für eine Pro-Variante die Hardware deutlich zu steigern (wie es noch bei der PS4 war) setzt man hauptsächlich auf irgendwelche Upscaler die man für teures Geld versucht zu verkaufen. Für jemanden wie mich, der sich grundsätzlich von Upscalern fernhält, ist diese Entwicklung natürlich alles andere als gut. Für mich sind Upscaler & Co. Krücken bzw. Hilfsmittel wenn es mal knapp wird... vergleichbar mit einer Reduzierung der Details, der Effekte oder der Auflösung. Ich tausche Bildqualität gegen Leistung. Will ich aber das Maximum an Bildqualität bleiben die Sachen aus. Wenn nun aber grundsätzlich gar nicht mehr die Rohleistung zur Verfügung steht hab ich ein Problem.