Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Turing: Erste GeForce RTX 2080 (Ti) der Partner in Bildern
2008/2009, aber da hatten wir einen extrem starken Euro und eine Weltwirtschaftskrise, wo jeder versucht hat sein Zeug irgendwie loszuwerden. Ich finde es aber auch lustig, dass dieses eine extrem immer herangezogen wird, obwohl die restlichen 20 Jahre der Preis sich nicht viel genommen hat.
Die 285 ist da aber auch die Ausnahme. Es war nur eine leicht optimierte und geshrinkte 280. Davor und danach sahen die Preise bei den großen Nvidia Chips deutlich anders aus.
mich würde eher verwundern wenn eine 2080 TI kommt die die schnellste Karte stellt. Eher käme doch eine TITAN RTX und dann iwann Anfang 2019 eine fast identische 2080 TI...
Oder beide gleichzeitig. Eine mit 11GB, eine vollaktiv mit 24GB.
Die drehen den Spieß um. Gab es vorher erst die 1080 und dann die Ti, gibt es jetzt die Ti und dann die TITAN.
Heißt: Enthusiasten steigen dann eher von Ti auf TITAN um als von 2080 auf Ti.
Früher hatte mal die grüne Oberklasse 350,- gekostet. Nun haben sie es also tatsächlich geschafft, die Preise fast zu verdreifachen. Und die Gamer sagen weiterhin, Take my Money .
Grüße
Auf der Rechnung zu meiner Geforce 3 Classic (keine Ti) stehen 950 D-Mark im Jahre 2001. Umgerechnet in Euro und unter Einbeziehung der Inflation von 2001 zu 2018 kommen wir heute auf ca. 610 € als vergleichbaren Einstiegspreis.
Halte ich für unrealistisch, weil Nvidia keinen Big-Chip in ihrer Performance-Klasse positionieren würde. Die Ti kommt wahrscheinlich einfach nur deshalb, weil das Leistungsplus dieses Mal nicht mehr so hoch ausfällt wie noch von Maxwell auf Pascal. Da würde eine RTX2080, die bei Raytracing dann schneller wäre, im Vergleich zu einer 1080ti mit mehr VRAM und gleicher Performance für 99% der Zeit nicht ausreichend Kaufanreiz schaffen, damit 1080ti Besitzer umsteigen.
Ich rechne damit, dass die 2080 Ti von der Leistung her auf TITAN V Niveau landen wird (die liefert bis zu 50% mehr Leistung in höheren Auflösung als die 1080ti) und die 2080 kommt auf 1080ti Niveau und überholt sie dann, wenn Raytracing zum Einsatz kommt.
Interessant das gleich ne 2080Ti kommt, deutet für mich drauf hin das die normale 2080 wenn überhaupt nur ein bischen schneller als ne 1080Ti ist.
Als 1080Ti Besitzer würde ich trotz Raytracing etc nicht von 11GB auf 8GB downgraden, fühlt sich falsch an
Die 2080Ti dagegen hört sich interessant an, bin mal gespannt was die kosten wird, wäre über MSRP 899/949€ für die FE aber nicht sonderlich überrascht.
Ich denke, das ist aber nur der eine Aspekt, was die Leistung der RTX 2080 gegenüber der Pascal GTX 1080Ti betrifft. Das andere wird wohl so sein, das man hauptsächlich auch für das neue Feature Raytracing bezahlen wird, auch wenn man im Moment noch überhaupt nicht weiß, wann genau man dieses bei einem Game sehen und nutzen kann.
Vielleicht zaubert Nvidia mit dem Release der Turing RTX Serie auch noch einen Joker aus dem Hut und Shadow of the Tomb Raider kann dann nicht nur HDR besser wie Pascal, sondern auch Raytracing!
Das stimmt, wobei die Implementierung ja an sich vergleichsweise easy sein sollte da man es eben weniger massiv in der Engine aufwendig einbauen muss. Du hast zb dein klassisch gerechnetes Bild, fügst aber noch Global Illumination über RTX hinzu. Genauso lässt du zb die üblichen Schatten und Reflektionen weg und überlässt das der RTX Layer.
Was natürlich gemacht werden muss ist die Material Definition (er legt Texturen, Reflektionswert, Rauheit usw fest).
Bin auch mal gespannt. Raytracing an sich sollte die Sache aber prinzipiell eher vereinfachen, gerade gegenüber dem Entwickler da der sich weit weniger mit der Grafik auseinander setzten muss.
Mal schauen. Mass Effect Andromeda und Final Fantasy VX benutzen für einige Effekte ja Raytracing angeblich. (ME:A Spiegelungen, FF XV Schatten) Mal schauen ob das auch beschleunigt wird bei den RTX-Karten :-)
Nutzt Nvidia einfach nur spezialisierte Kerne um Raytracing zu beschleunigen, oder kombinieren sie Machine Learning + Raytracing so wie in diesem Video zu sehen:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.