Also viel Raum zur Spekulation lässt das Teaserbild jetzt aber nicht. Es steht doch da und wird grafisch sogar verdeutlicht, dass es eine Vive mit höherer Auflösung geben wird, d.h. sie verbauen einfach höher aufgelöste Displays im Modell. Würde vermuten, dass sie sie jetzt Teasern, um die Aufmerksamkeit zu catchen und zur CES einen Prototypen zeigen, den man ab August dann kaufen kann. Ob jetzt die alte Vive dann nicht mehr produziert und verkauft wird und stattdessen dann nur die ´neue´, ist schwer abzusehen, aber Sinn würde es so schon machen. Oder aber es fällt der Preis für die alte Vive und die neue bleibt auf aktuellem Preisniveau oder aber die alte Vive bleibt zum bisherigen Preis und das neue Modell wird teurer verkauft. Mal sehen wie hoch sie dann auflöst und mit wieviel Hertz die Displays takten.
... lustig wie die Frustkommentare in den Foren hochschießen (generell). Aber nach 2 Jahren wäre es gut zu wissen, was da noch so kommt. Was mich interessiert, wie schaut es mit der Performance auf höher aufgelösten Linsen aus? Hat da jemand Erfahrung mit der Samsung ... Auch Pimax und Co würden mich da interessieren. Ich sehe halt das Problem, wenn die "neuen" HMDs wieder High-End zwingend brauchen und preislich wieder über 600 Euro ansetzen, dann wird sich an der Verbreitung nicht soviel verändern.
GPU'S sind ein Problem. Meine 1060 hat im letzten Jahr kaum an Wert verloren. Die Preise sollen stabil bleiben, teils sogar steigen!(Chinanachfrage) Also wer kann sich eine GPU für "HDVR" leisten? Und Supersampling wäre auch schön. Folglich müsste die 1080 mal langsam in den mittleren Preisbereich rutschen was sie aber erstmal nicht macht....
mal sehen, wie der Leistungssprung zur nächsten GPU-Generation aussieht. Noch besser sind aber die RM-Preise im Moment. Für mein DDR4-Speicher (32 GB) habe ich vor einem Jahr ca. 170 Euro bezahlt, bekomme jetzt 420 Euro dafür. Vielleicht kann ich meine alte HTC ja auch für das doppelte verkaufen
Ich glaube, die Zeit ist langsam reif für eine Differenzierung des Marktes in High-End und Budget VR. Wir brauchen High-End, um das Medium attraktiver zu machen und die Entwicklung zu puschen. Solange es nur um Auflösung, SDE usw. geht, ist das auch keine Fragmentierung weil die Entwickler sich dort nicht für das Eine oder Andere entscheiden müssen. Bei Flatgames haben wir ja schließlich auch schon die Leute, die die High-End Grafikkarten kaufen, 4K oder 21:9 Monitore nutzen und damit z.B. in Shootern natürlich potentiell auch Vorteile haben, was Multiplayer angeht, und keiner regt sich darüber auf. VR braucht jetzt Entwicklungsschübe, es fehlt imho gar nicht soo viel, um es noch universell überzeugender zu machen. Wenn man in VR auf seinem Desktop arbeiten kann, einen Film genießen kann, das sind dann weitere Meilensteine. Allerdings wird selbst die Pimax-Auflösung von 6K da noch nicht ganz ausreichen. Daher ist foveated Rendering ja so wichtig, damit das mit den GraKa‘s der übernächsten Generation auch irgendwie klappen kann. Zum Thema: ich interpretiere die Ankündigung eindeutig als Auflösung & Sweetspot Verbesserung. Erwarte da nicht viel anderes. aGlass, wenn verbunden mit SteamVR Implementierung, könnte da natürlich auch Wunderbares schaffen, glaube aber ehrlich gesagt nocht nicht daran.
Um die Leistungsfähigkeit der GPUs für VR mache ich mir wenig Sorgen. Man darf halt nicht davon ausgehen, dass die aktuelle Chip / Platinenarchitektur für VR beibehalten und ausgereizt wird, sondern dass neue Architekturen gefunden werden, um speziell für die Bedürfnisse von VR die Leistungsfähigkeit zu erhöhen. Alle jetzigen Grafikkarten sind eigentlich gar nicht für VR ausgelegt, müssen die Anforderungen aber trotzdem stemmen. Z.B. wäre es jetzt einfach, auf einer Grafikkarte 2 GPUs zu verbauen und über die Treiber entsprechend zu steuern, um die Leistung in VR zu verdoppeln. Für den Monitor Betrieb würde so eine Grafikkarte im üblichen Rahmen laufen, aber für VR könnten dann die Bilder für jedes Auge simultan in einem Rechentakt verarbeitet werden. Der Punkt ist halt, dass die Grafikchip- und Kartenhersteller hardwareseitig noch nicht speziell für VR Anwendungen entwickelt haben, aber das wird kommen in den nächsten zwei Jahren und für dramatische Performanceschübe für VR sorgen. Insgesamt glaube ich, dass wir uns mit VR noch in einer Vorlaufphase befinden, die die meisten technischen Innovationen haben. So z.B. das Smartphone ( iPhone 1 bis 4 ) auch einige Jahre nur von Apple für einen quasi hochpreisigen Nischenmarkt existierte und dann BAM! hatte auf einmal jeder ein Smartphone und ausnahmslos alle Hersteller haben auf die neue Technik mit Touchscreen, Internet und Apps für ihre Handymodelle umgestellt. Das hat damals etwa 3 bis 4 Jahre gedauert, seit diese Technik am Markt war. Es gibt immer eine Vorlaufzeit und dann ist die Technik quasi über Nacht allgegenwertig. Wenn man jetzt noch einbezieht, dass die Entwicklungszyklen in der Digitaltechnik immer kürzer werden und die Leistungsfähigkeit der Computer nach dem Moorschen Gesetz exponentiell steigt, würde ich davon ausgehen, dass Virtual Reality und VR-Techniken schon sehr bald die Schwelle ihres Nischendaseins überschritten hat. Edit: Mir ist gerade noch ein gutes Beispiel für die Vorlaufzeit einer technischen Innovation eingefallen. Es wurde ja schon oft die CD-Rom genannt, um den Sprung vom magnetischen Speichermedium zum optischen Datenträger zu markieren, tatsächlich gab es die optische Speichertechnik aber schon vorher und war als Nischenprodukt durch die Laserdisk für Spielfilme schon einige Jahre am Markt ( die waren damals noch so groß wie Schallplatten und goldfarben ), bis sie letztendlich dann magnetische Speichermedien im Video- und Softwaremarkt vollständig ersetzt hat. Heute ist beides hinfällig und die Informationen werden ohne physische Datenträger transportiert.
Hatte nVidia nicht ab der 9'ner Reihe bereits neue VR bezogene Architektur (VR Direct) und ab der 10'ner Reihe neue Features wie z.b. Simultaneous Multiprojection? Auf AMD ebene kenne ich mich da nicht aus, aber zumindest sind die Sprünge der vorherigen Reihen 4→5→6→7, nicht so groß gewesen wie zwischen 7→9→10 und das in der 3D sowie VR Leistung. Selbst die neuen Tegra Revisionen (Autarkes VR) enthalten bereits VR spezifische Architekturen. Mir ist bewusst das es alles noch am Anfang ist, aber das es keine Fortschritte bei neuer GPU Architektur gibt, welche noch nicht genutzt wird, kann ich so zumindest nicht unterschreiben. Aber Ihr habt recht, Speziell nur für VR entwickelte GPUs sind mir auch keine bekannt oder gibt es bereits Informationen das nVidia, AMD, Intel, Samsung usw. dahingehend etwas in der Entwicklung hat, oder gibt es bei der Quadro Reihe gewisse Anstrebungen? Würde sich das eigentlich rational betratet lohnen, eine nur für VR ausgelegte Architektur, 2D/3D würde dann die CPU erledigen? Gut für Autarke Systeme denke ich auch, aber für Stationäre Systeme wird es eher darauf hinauslaufen, dass vielleicht Zusatzhardware bereitgestellt wird, ähnlich wie damals mit 3dfx und den PhysX Karte.
Dennoch: HTC ist angeschlagen und die werden die Einstiegshürde nicht nochmal zu hoch hängen: PC (2x 4k bräuchte doch auch 2 HDMI Zuspieler), Preis etc.. Man hat ja gesehen - und das ist auch noch nicht dauerhaft - ab wann die Verkäufe so langsam angezogen sind. ACHTUNG: Ich bin nicht gegen Fortschritt, sehe aber auch die Wirklichkeit. Mir wären heute 8K pro Auge, kabellos sowie autark lieber - aber gibt's nicht . Sicher in 3, 4 oder 5 Jahren sieht es anders aus. noch wenige Tage, dann weiß man mehr. Wenn es ein Update wird dann hoffe ich, dass es die Brille auch einzeln gibt. Diese neuen Controller würde ich auch lieber gestern gekauft haben als irgendwann.
Das ist eine gute Frage, die sich sicherlich auch Nvidia und AMD stellen. Für wahrscheinlicher als eine Zusatzkarte halte ich aber integrierte Hardware für VR Brillen auf den normalen Grafikkarten. Allein wegen dem Bedarf an Bandbreite. Die meisten Systeme haben heute auch nur einen PCI Express 16 Steckplatz, aber wie die Boards in den letzten Jahren designt sind, ist schon ein Thema für sich ( mit fast jeder neuen CPU Generation wird ein neues Board fällig ). Das Performanceproblem für VR Anwendungen ist die nächste große Herausforderung, wenn die Bildqualität der Brillen auf einem ansprechenden Niveau ist und SDE und Sweetspot langsam verschwinden. Dabei macht es, glaube ich, keinen Sinn, nur die Taktraten von GPU und Grafikspeicher wie bisher weiter zu erhöhen. Das Nvidia Softwareset für VR Anwendungen, das mit der 10er Generation nur kurze Zeit nach der Präsentation der ersten Consumer VR Brillen von Nvidia vorgestellt wurde, zeigt nicht nur das Know-How sondern auch das Interesse von Nvidia bei VR ganz vorne dabei zu sein. Dass das in der Praxis nicht funktionierte, lag wohl daran, dass die VR Softwaretools nur auf die Hardwarearchitektur für den normalen Monitorbetrieb aufsetzten und die Anwendungssoftware dem Anschein nach mühselig angepasst werden musste, um darüber einen optischen und Performancegewinn im VR Betrieb zu erreichen. Für einen Performancesprung in VR braucht es VR Hardwarebeschleunigung. Die muss allerdings im Treiber und den Software Schnittstellen zur Brille voll unterstützt sein. Das Know-How ist da, die Erfahrung ist da und auch der Bedarf daran ist omnipotent. Die Frage, die sich Nvidia wahrscheinlich auch stellt, ist, können wir mit unserer Lösung schneller an den Markt gehen als AMD.
Ich denke die haben längst die Pläne in der Schublade liegen aber mal ehrlich... die Fahren doch nicht ne Produktionslinie für VR-Karten hoch um nachher dann 10-30.000 davon abzusetzen. Ich glaube das ist denen einfach noch zu riskant und lohnt sich nicht. Die Teile wären sicher auch megateuer weil Spezialhardware und die Brillenhersteller und wohl auch die Contenthersteller müssten mit ins Boot geholt werden. Könnte mir aber vorstellen dass spezielle VR-Chips zuerst in autarken VR-Systemen zum Einsatz kommen und irgendwann dann für den PC kommen.