News Nvidia Turing: Erste GeForce RTX 2080 (Ti) der Partner in Bildern

mattes06a schrieb:
Wann war das denn?
Die Geforce2 Ultra hat beim Start 1300 Mark gekostet.

2008/2009, aber da hatten wir einen extrem starken Euro und eine Weltwirtschaftskrise, wo jeder versucht hat sein Zeug irgendwie loszuwerden. Ich finde es aber auch lustig, dass dieses eine extrem immer herangezogen wird, obwohl die restlichen 20 Jahre der Preis sich nicht viel genommen hat.
 
  • Gefällt mir
Reaktionen: psYcho-edgE und Cpt.Willard
Shoryuken94 schrieb:
Die 285 ist da aber auch die Ausnahme. Es war nur eine leicht optimierte und geshrinkte 280. Davor und danach sahen die Preise bei den großen Nvidia Chips deutlich anders aus.

+1

Genauso ist es. Sowohl NVIDIA als auch AMD hatten jeweils eine Generation von High-End GPUs die so günstig gewesen sind.

Eine 8800 GTX hat 2006 zum Release 600 Euro gekostet, eine 2007 nachgeschobene 8800 Ultra sogar 700 Euro und das vor mehr als 12 Jahren.

https://www.computerbase.de/2007-05/test-nvidia-geforce-8800-ultra/

Liebe Grüße
Sven
 
Krautmaster schrieb:
mich würde eher verwundern wenn eine 2080 TI kommt die die schnellste Karte stellt. Eher käme doch eine TITAN RTX und dann iwann Anfang 2019 eine fast identische 2080 TI...

Oder beide gleichzeitig. Eine mit 11GB, eine vollaktiv mit 24GB.

Die drehen den Spieß um. Gab es vorher erst die 1080 und dann die Ti, gibt es jetzt die Ti und dann die TITAN.
Heißt: Enthusiasten steigen dann eher von Ti auf TITAN um als von 2080 auf Ti. ;)
 
franeklevy schrieb:
Früher hatte mal die grüne Oberklasse 350,- gekostet. Nun haben sie es also tatsächlich geschafft, die Preise fast zu verdreifachen. Und die Gamer sagen weiterhin, Take my Money .
Grüße

Auf der Rechnung zu meiner Geforce 3 Classic (keine Ti) stehen 950 D-Mark im Jahre 2001. Umgerechnet in Euro und unter Einbeziehung der Inflation von 2001 zu 2018 kommen wir heute auf ca. 610 € als vergleichbaren Einstiegspreis.
 
  • Gefällt mir
Reaktionen: psYcho-edgE und Lübke82
Was auch sein kann, Nvidia ändert Mal wieder das Namensschema.

Spricht die 2080 Ti ist der Nachfolger der 1080 und die 2080 zur 1070. Nvidia dreht ja gerne Mal an der Einordnung.
 
  • Gefällt mir
Reaktionen: aivazi und Neo1179
Shoryuken94 schrieb:
Was auch sein kann, Nvidia ändert Mal wieder das Namensschema.

Spricht die 2080 Ti ist der Nachfolger der 1080 und die 2080 zur 1070. Nvidia dreht ja gerne Mal an der Einordnung.

Halte ich für unrealistisch, weil Nvidia keinen Big-Chip in ihrer Performance-Klasse positionieren würde. Die Ti kommt wahrscheinlich einfach nur deshalb, weil das Leistungsplus dieses Mal nicht mehr so hoch ausfällt wie noch von Maxwell auf Pascal. Da würde eine RTX2080, die bei Raytracing dann schneller wäre, im Vergleich zu einer 1080ti mit mehr VRAM und gleicher Performance für 99% der Zeit nicht ausreichend Kaufanreiz schaffen, damit 1080ti Besitzer umsteigen.

Ich rechne damit, dass die 2080 Ti von der Leistung her auf TITAN V Niveau landen wird (die liefert bis zu 50% mehr Leistung in höheren Auflösung als die 1080ti) und die 2080 kommt auf 1080ti Niveau und überholt sie dann, wenn Raytracing zum Einsatz kommt.
 
  • Gefällt mir
Reaktionen: GERmaximus
Interessant das gleich ne 2080Ti kommt, deutet für mich drauf hin das die normale 2080 wenn überhaupt nur ein bischen schneller als ne 1080Ti ist.

Als 1080Ti Besitzer würde ich trotz Raytracing etc nicht von 11GB auf 8GB downgraden, fühlt sich falsch an :D

Die 2080Ti dagegen hört sich interessant an, bin mal gespannt was die kosten wird, wäre über MSRP 899/949€ für die FE aber nicht sonderlich überrascht.

Edit: @SKu ;)
 
Naennon schrieb:
jupp, NVidia packt teildefekte "VOLTA" Chips in die "Turing" 2080 - eigentlich total logisch

Namen sind Schall und Rauch.
 
  • Gefällt mir
Reaktionen: yurij
Naennon schrieb:
jupp, NVidia packt teildefekte "VOLTA" Chips in die "Turing" 2080 - eigentlich total logisch

Volta is wieder anders. Volta hat nur Tensor, kein Rayracing. Das sind neue Chips.
 
  • Gefällt mir
Reaktionen: GERmaximus und xBitwinSDKx
Mustis schrieb:
Aus dem Mund eines AMDianers ist das jetzt aber die pure Realsatire oder? Seit wann ist AMD ein Beispiel für Effizienz im Verbrauch?
Seit Ryzen ;)

Die Vega 56 ist aber auch sehr genügsam, wenn man weiß wie man sie anständig untervoltet. Und schneller wird sie dadurch auch noch.
 
johnieboy schrieb:
Interessant das gleich ne 2080Ti kommt, deutet für mich drauf hin das die normale 2080 wenn überhaupt nur ein bischen schneller als ne 1080Ti ist.

Ich denke, das ist aber nur der eine Aspekt, was die Leistung der RTX 2080 gegenüber der Pascal GTX 1080Ti betrifft. Das andere wird wohl so sein, das man hauptsächlich auch für das neue Feature Raytracing bezahlen wird, auch wenn man im Moment noch überhaupt nicht weiß, wann genau man dieses bei einem Game sehen und nutzen kann.

Vielleicht zaubert Nvidia mit dem Release der Turing RTX Serie auch noch einen Joker aus dem Hut und Shadow of the Tomb Raider kann dann nicht nur HDR besser wie Pascal, sondern auch Raytracing! :o
 
Zuletzt bearbeitet:
Naennon schrieb:
ICH habe das nicht behauptet, nur zitiert ;)

Stimmt. Grad gesehen.

@SKu

nope. Volta GPU haben nichts mit der neuen 2080 TI zu tun, das is nen anderer Chip.
Ergänzung ()

Zotac2012 schrieb:
enn man im Moment noch überhaupt nicht weiß, wann genau man dieses bei einem Game sehen und nutzen kann

Das stimmt, wobei die Implementierung ja an sich vergleichsweise easy sein sollte da man es eben weniger massiv in der Engine aufwendig einbauen muss. Du hast zb dein klassisch gerechnetes Bild, fügst aber noch Global Illumination über RTX hinzu. Genauso lässt du zb die üblichen Schatten und Reflektionen weg und überlässt das der RTX Layer.

Was natürlich gemacht werden muss ist die Material Definition (er legt Texturen, Reflektionswert, Rauheit usw fest).

Bin auch mal gespannt. Raytracing an sich sollte die Sache aber prinzipiell eher vereinfachen, gerade gegenüber dem Entwickler da der sich weit weniger mit der Grafik auseinander setzten muss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus und xBitwinSDKx
Mal schauen. Mass Effect Andromeda und Final Fantasy VX benutzen für einige Effekte ja Raytracing angeblich. (ME:A Spiegelungen, FF XV Schatten) Mal schauen ob das auch beschleunigt wird bei den RTX-Karten :-)
 
Nutzt Nvidia einfach nur spezialisierte Kerne um Raytracing zu beschleunigen, oder kombinieren sie Machine Learning + Raytracing so wie in diesem Video zu sehen:

 
  • Gefällt mir
Reaktionen: noxon, xBitwinSDKx und StefVR
Zurück
Oben