Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

Eins muss man Nvidia lassen. Für die Händler und Grakahersteller ist es ziemlich geil.

Endlich sind die Laufzeiten der Grakas deutlich länger.

Ich glaube nicht, dass die 1080 und die 1080 Ti so schnell vom Markt verschwinden werden. Die Fallen auch nicht großartig im Preis.

Ich bin mal gespannt, wann die Pascal-Architektur nicht mehr produziert wird.
 
Hier mal eine schöne Grafik, wie sich die Performancesteigerungen der letzten GPU-Generationen zueinander verhalten haben.

GPU-Performance-Vergleich über viele Generationen

Das läuft fast analog zu den CPUs. Die Leistungssprünge sind nicht mehr so hoch wie vor 10 Jahren. Es gab schon einige Generationen wo der Leistungsgewinn unter 30% lag.
Warum sollten GPU-Entwickler bei der Entwicklung nicht in die selben Probleme laufen wie CPU-Entwickler? Im Endeffekt arbeiten beide letztendlich mit Silizium und die Rate der verbesserten Herstellungsstrukturen verlangsamt sich nicht erst seit gestern.

AMD ist bis Ende 2019 oder gar bis Anfang 2020 im High-End Consumer-Markt bei den GPUs erstmal raus. Leider. Die konzentrieren sich erstmal auf Custom-Silicon für die Konsolenhersteller. Das ermöglicht eine kalkulierbare wirtschaftliche Aussicht.
Niemand liest sich doch diesen Bericht hier durch und entscheidet sich dann für eine Vega64, denn da liegen Welten dazwischen. Und dann hätte eine 1080 Ti ja immer noch lange gereicht. Es muss aber immer das obere Limit her....gib uns die täglichen High-Framerate...Amen.

Über allem in dieser GPU-CPU-Community thront immer "die max. FPS muss her bei höchster Auflösung". Als wenn diese einzige Maxime für alle gelten würde. Da reichen dann selbst 70fps nicht mehr aus bei einem 60Hz Monitor. Und gefühlt unter 1440p und 144Hz geht es ja auch nicht mehr. Dieser Maßstab scheint ja auch ein weiteres Mantra der PC-Master-Race geworden zu sein. 0 oder 1, schwarz oder weiß. Nur diese Lager darf es geben. Und genau so wird über alles geurteilt. Und jeder spielt das neueste Spiel auf Ultra...aber das Spiel darf ja quasi auch nichts kosten. Muss auch für lau her. Sieht man ja auch überall. "Cooles Game...aber das hol ich mir für nen Zwanni. 50-60€ Neupreis...die spinnen wohl." Der Monitor muss gefühlt 144Hz bei UHD können, darf aber nicht mehr als 500€ kosten.

Dieses trotzig rotzige Verhalten !!einiger!! in dieser "Techn-Community" lässt mich an deren geistiger Haltung zweifeln. Nüchtern sachlich ist heutzutage schon lange out. Es ist trendy sich zu empören und sich entitled zu fühlen und sich quasi als Opfer von XY darzustellen. Da drängen sich Leute quasi selbst in eine bevormundete Stellung um dann zu sagen "wie können die mir nur sowas antun". Selbstständiges, verantwortungsvolles und gegenüber anderen Leuten respektvolles Denken und Handeln ist nur noch selten anzutreffen. Emotionen übernehmen den Verstand und somit sind keine sachlichen Diskussionen mehr möglich.

Ich finde den Zustand in diesem speziellen Bereich der Tech-Community wirklich traurig und erschütternd.
Pfui deibl.
 
  • Gefällt mir
Reaktionen: pcfours, Cronos83, Grestorn und 12 andere
zombie schrieb:
DLSS find ich persönlich sehr interessant, weil das Bild klarer und schärfer aussiehtund dabei mehr FPS geboten werden. Ist das ein exclusives 20xx Feature oder wird es das auch für die 10xx Serie geben ?

So wie ich das erstanden habe, läuft DLSS auf den Tensor Cores der GPU. Das sind neue, auf "Deep Learning" spezialisierte Einheiten, die es, wenn ich mich nicht irre, erst ab Volta und Turing gibt. (Das DL in DLSS steht für Deep Learning.)

Also keine bis wenig Chancen, dass es DLSS für ältere Karten geben wird.
 
meine 1080ti asus kostet als 2080 200 euro mehr und ist fast langsamer und dann das ti modell ohne kommentar..

pure geldabzocke.. nein danke :)
 
DonL_ schrieb:
@ Krautmaster

Und du bist dir so sicher, dass die ganzen Studios RT umsetzen, obwohl es vielleicht in einem Jahr 3-5% der Käufer überhaupt nutzen können?
Die absolute Mehrzahl spielt mit Midrangekarten und Konsolen, für die Literation der neuen Konsolen habe ich bei Navi nichts von RT gelesen. Ich bin mal gespannt,ob die Studios wirklich so viel in die Entwicklung stecken, wenn es nur eine überschaubare Anzahl an Käufern für das Feature gibt.
Dazu kommt noch, dass die 2070 wohl wirklich untauglich zum spielen mit RT ist, da zu wenig Rohleistung und selbst die 2080 dürfte sich schwertun, da die meisten Nutzer, eher ungern mit 45 FPS in 1080 spielen.

da hast du mich nicht ganz richtig verstanden. Das was du hier schreibst trifft eher auf meinen Satz "aktuell mehr als Gimmik" zu. Da sind wir uns ja einig.
Mein genereller Post war auf mehrere Generationen und Jahre hinaus bezogen. Irgendwann muss man den Bruch hin zu RT machen, der ja durchaus soft und nicht hart erfolgt.

Auch die nächsten 2 GPU Generationen werden wenig dran ändern das Rasterizing dennoch das Mittel der Wahl bleiben wird. RT in den Engines wird aber nach und nach diverse klassische Berechnungen ablösen.
Die werden gern herangezogen wen es darum geht dass sich Techniken erst durchsetzen wenn in Konsole... denke das ist nicht der Fall. Nicht bei so leistungsfressenden Sachen wie RT.

3D Grafik am PC kam meines Wissens auch vor der Konsole. Auch logisch, da letztere deutlich günstiger und wirtschaftlicher sein muss was sich mit dem Leistungshunger schwer vereinbaren lässt.
 
c2ash schrieb:
Hier mal eine schöne Grafik, wie sich die Performancesteigerungen der letzten GPU-Generationen zueinander verhalten haben.

GPU-Performance-Vergleich über viele Generationen

Das läuft fast analog zu den CPUs. Die Leistungssprünge sind nicht mehr so hoch wie vor 10 Jahren. Es gab schon einige Generationen wo der Leistungsgewinn unter 30% lag.
Warum sollten GPU-Entwickler bei der Entwicklung nicht in die selben Probleme laufen wie CPU-Entwickler? Im Endeffekt arbeiten beide letztendlich mit Silizium und die Rate der verbesserten Herstellungsstrukturen verlangsamt sich nicht erst seit gestern.

AMD ist bis Ende 2019 oder gar bis Anfang 2020 im High-End Consumer-Markt bei den GPUs erstmal raus. Leider. Die konzentrieren sich erstmal auf Custom-Silicon für die Konsolenhersteller. Das ermöglicht eine kalkulierbare wirtschaftliche Aussicht.
Niemand liest sich doch diesen Bericht hier durch und entscheidet sich dann für eine Vega64, denn da liegen Welten dazwischen. Und dann hätte eine 1080 Ti ja immer noch lange gereicht. Es muss aber immer das obere Limit her....gib uns die täglichen High-Framerate...Amen.

Über allem in dieser GPU-CPU-Community thront immer "die max. FPS muss her bei höchster Auflösung". Als wenn diese einzige Maxime für alle gelten würde. Da reichen dann selbst 70fps nicht mehr aus bei einem 60Hz Monitor. Und gefühlt unter 1440p und 144Hz geht es ja auch nicht mehr. Dieser Maßstab scheint ja auch ein weiteres Mantra der PC-Master-Race geworden zu sein. 0 oder 1, schwarz oder weiß. Nur diese Lager darf es geben. Und genau so wird über alles geurteilt. Und jeder spielt das neueste Spiel auf Ultra...aber das Spiel darf ja quasi auch nichts kosten. Muss auch für lau her. Sieht man ja auch überall. "Cooles Game...aber das hol ich mir für nen Zwanni. 50-60€ Neupreis...die spinnen wohl." Der Monitor muss gefühlt 144Hz bei UHD können, darf aber nicht mehr als 500€ kosten.

Dieses trotzig rotzige Verhalten !!einiger!! in dieser "Techn-Community" lässt mich an deren geistiger Haltung zweifeln. Nüchtern sachlich ist heutzutage schon lange out. Es ist trendy sich zu empören und sich entitled zu fühlen und sich quasi als Opfer von XY darzustellen. Da drängen sich Leute quasi selbst in eine bevormundete Stellung um dann zu sagen "wie können die mir nur sowas antun". Selbstständiges, verantwortungsvolles und gegenüber anderen Leuten respektvolles Denken und Handeln ist nur noch selten anzutreffen. Emotionen übernehmen den Verstand und somit sind keine sachlichen Diskussionen mehr möglich.

Ich finde den Zustand in diesem speziellen Bereich der Tech-Community wirklich traurig und erschütternd.
Pfui deibl.
Wenn ich sowas lesen muss, wird mir auch ganz schlecht!
 
  • Gefällt mir
Reaktionen: Verak
Jetzt, wo die Wolken des 1 Monatigen Marketingfeuerwerks abgezogen sind bleibt nur die ernüchternde Erkenntniss, dass man einen riesigen Aufpreis für eine Technik zahlt, die noch nicht wirklich nutzbar ist und Pascal keinen würdigen Nachfolger erhalten hat. (was FPS angeht)
 
  • Gefällt mir
Reaktionen: CBL, DanHot und EchoeZ
Krautmaster schrieb:
Was erwarten hier viele?

Nicht weniger als das, was Jensen im Zuge der Präsentation versprochen hat. Nix is mit "Twice the Performance of the previous Generation" und noch weniger die auf der Webseite angepriesenen, 6x schnelleren Leistung
Turing Webseite 6 mal schneller.png


Das was nVidia mit Turing abgezogen hat, erinnert mich stark an den Rattenfänger von Hameln
rattenfaenger.jpg
 
  • Gefällt mir
Reaktionen: s0UL1, McLovin14, Smartcom5 und 5 andere
Don Sanchez schrieb:
Überhaupt, was ist das für eine beschissenen Auswahl für "E-Sports-Spiele"? ... World of Warcraft?! Wo ist Counter-Strike: Global Offensive? Wo ist Dota 2?

Wen interessieren die meist uralten Spiele bei denen auch eine Grafikkarte vor 2 Generationen ausreicht schon?

@raphe: Für mich bleibt als nüchterne Erkentnnis eher, dass manche es sich wegen fehlender Konkurrenz nicht leisten können oder wollen.

Wer in 4K spielt weiß die Mehrleistung zu schätzen, denn endlich werden damit Spiele spielbar und große Monitor mit den dazu passenden Auflösungen endlich sinnvoll.
 
@raphe: FPS sind ja heute auch kein Problem mehr wenn man Regler zu bedienen weiß. Es ist aber sehr wohl ein Problem die Rasterisierung immer leistungsfähiger zu machen. Zumindest dann wenn man im Kostenrahmen bleiben will. Shrinken geht nicht ewig, und spätestens dann steht man vor der Frage wie es weitergehen soll. Nochmal mehr Shader, mehr Takt, mehr RAM für Karten mit 1000mm² Chipfläche und 500W Leistungsaufnahme die dann 8K@60FPS@Max schaffen?

Das Interessanteste an dieser Architektur ist das was noch gar nicht getestet werden konnte. Daher taugt für mich der Test auch nicht für eine finale Einordnung der Karten was Preis und Leistung angeht.

Postman schrieb:
Wer in 4K spielt weiß die Mehrleistung zu schätzen, denn endlich werden damit Spiele spielbar und große Monitor mit den dazu passenden Auflösungen endlich sinnvoll.

4K ist seit locker 3 Jahren spielbar. Das Problem sind hier die User die einen Anfall kriegen wenn auch nur ein Grafikregler nicht auf Vollanschlag steht. "Ich habe viel Geld bezahlt, also muss auch jedes Spiel auf Max Einstellungen so laufen wie ich das haben will" (*Schnutezieh*)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, xexex und Dark Matter
Postman schrieb:
@raphe: Für mich bleibt als nüchterne Erkentnnis eher, dass manche es sich wegen fehlender Konkurrenz nicht leisten können oder wollen.

Wer in 4K spielt weiß die Mehrleistung zu schätzen, denn endlich werden damit Spiele spielbar und große Monitor mit den dazu passenden Auflösungen endlich sinnvoll.

4K kannst du auch mit deiner 1080(ti) haben. Für mich hat die RTX 2080 keine Existenzberechtigung. Da zahle ich lieber 250€ weniger, hab gleich viel FPS, 11 statt 8GB VRAM und verzichte auf die neuen "Features" (GTX 1080ti)

DocWindows schrieb:
@raphe: FPS sind ja heute auch kein Problem mehr wenn man Regler zu bedienen weiß. Es ist aber sehr wohl ein Problem die Rasterisierung immer leistungsfähiger zu machen. Zumindest dann wenn man im Kostenrahmen bleiben will. Shrinken geht nicht ewig, und spätestens dann steht man vor der Frage wie es weitergehen soll. Nochmal mehr Shader, mehr Takt, mehr RAM für Karten mit 1000m² Fläche und 500W Leistungsaufnahme die dann 8K@60FPS@Max schaffen?

Ich denke der Shrink auf 6nm wäre das gewesen, was sich die meisten Nutzer hier gewünscht hätten - mehr Leisung, bessere Effizienz, günstigere, da kleinere Dies.
 
  • Gefällt mir
Reaktionen: DanHot
@EchoeZ: Das Bildchen hätte unter JEDEN Grafikkartenlaunch der letzten 15 Jahre gepasst, weil im Schnitt nie auch nur eine Leistungsverdoppelung verglichen mit der Vorgängergeneration rausgekommen ist. Aber geworben wurde natürlich immer mit dem einen Spiel/Benchmark/Situation/Anwendungsfall in dem die Leistung vervielfacht war.

Ist doch immer so. Wer das jetzt erst bemerkt, hat ziemlich lange geschlafen.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, xexex, Toprallog und eine weitere Person
mcsteph schrieb:
Lol, 6 mal mehr Leistung

Jeder, der aufgepasst hat bei der damaligen Präsentation und nicht nur hirnlos rumstänkern möchte, weiß genau, dass sich dies auf Raytracing-Szenarien bezog und sogar eher noch konservativ geschätzt ist. Der exorbitante Zuwachs ergibt sich logischerweise aus den RTX Cores, die auf den Vorgängerkarten rein physikalisch schon nicht vorhanden sind.

Ähnliche (und zwar ebenso zutreffende) Werbeaussagen hat es bei Pascal in Bezug auf die VR-Performance gegeben (durch die spezielle Projektionstechnologie, die mit Pascal eingeführt wurde, war ein Vielfaches der VR-Performance gegenüber Maxwell möglich).
Das ist also nicht mal was Neues, dass nVidia die neuen Features entsprechend bewirbt. Wer da "Lol" zu schreibt, bestätigt lediglich, nun schon bei zwei nVidia Präsentationen in Folge gepennt zu haben. Glückwunsch dazu.
 
  • Gefällt mir
Reaktionen: Grestorn, xexex, Dark Matter und eine weitere Person
*hust* nenne mir einen Grund 1200€ für eine GPU auszugeben wobei es nichtmal Spiele gibt, die so gut aussehen wie Spider-Man auf einer 200€ Konsole und ich kaufe Sie *hust*
 
  • Gefällt mir
Reaktionen: BorstiNumberOne
@EchoeZ & mcsteph

euch ist schon klar dass sich das ausschließlich auf die Raytracing Performance bezieht? Und ja, Echtzeit Raytracing ist möglich.
 
  • Gefällt mir
Reaktionen: Dark Matter
onkel_axel schrieb:
Nö Performance per Watt gegenüber Pascal ist fast identisch.
Also ich weiß ja nicht wo du das siehst, aber hier im Test ist ist die 2080Ti FE 24% besser in Perf/Watt als die 1080Ti FE, OC gegen OC ebenfalls 23%
 
Zurück
Oben