Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

Xes schrieb:
Extrem schade, dass sich Nvidia nicht rechtzeitig mit Entwicklern zusammengesetzt hat um RT und DLSS zumindest in einer Handvoll (von Start ab verfügbaren) Titeln präsentieren zu können.
Ich hatte mir da bereits seinerzeit vor über einem Monat schon Gedanken drüber gemacht …

Ich bitte die jeweiligen (zusammenhangslosen) Formulierungen zu entschuldigen!
Es sind größtenteils allesamt Gedankensplitter, welche bereits vor geraumer Zeit entstanden sind – etliche gar letzten Monat zur Vorstellung der Turing-Architektur auf der Gamescom.
Aus der Not heraus etwas bringen zu müssen, hat sich nVidia wohl aufgrund AMD's anhaltender Untätigkeit zu der Initiative des Raytracing entschlossen. Das bot zu dem Zeitpunkt ein manigfaltiges Repertoire an positiven Begleiterscheinungen.

Die Hauptbeweggründe wären in dem Fall folgende …
  1. Man überspringt elegant eine gesamte Generation.
    … und spart sich Entwicklungskosten, indem man einfach ein paar RT-Kerne auf Pascal packt.
    Die Neuauflage auf 12nm sorgt schon für entsprechende Mehrleistung ohne größere Mühe.
  2. Man bekommt die Restbestände zweifellos unter das bereitwillig (siehe unten) zahlende Volk, zum UVP.
  3. Man etabliert nebenbei eine weitere Preissteigerung bei Grafikkarten.
  4. Man etabliert im Vorbeitgehen eine weitere proprietäre nVidia-Only-Technik à la PhysX
  5. Es wird funktionieren, weil AMD im Moment mit Nichts kontern kann und wird.
  6. nVidia verbaut bewußt den zurzeit langsamsten GDDR6 der gesamten Industrie. Auf Karten für +1200,– €. Also wird selbst damit schon wieder mit diesem Winkelzug à la Billigheimer die Marge und der Profit massiv erhöht.
  7. Man generiert bei all dem massive Gewinne.
Ich versuch‘s mal mit ein bisschen Hintergrundinformationen;

Beabsichtigtes Schauspiel
Für Diejenigen, die es noch immer nicht verstanden haben;
nVidia will gar nicht, daß ihr eine Karte der RTX-Generation kauft (wird sich aber aus naheliegenden Gründen und aufgrund des deutlich höheren Profites eher nicht beschweren, wenn ein paar Fanboys zuschlagen werden und den Early-Adaptor spielen wollen)!

Die ganze Farce Namens RTX dürfte eine gezielte Manipulation des Kunden sein, damit dieser empört sich über die neue RTX 2xxx-Generation aufregt und echauffiert mit den Worten „Ne nVidia, so einen Scheiß mach‘ ich nicht mit! Da kaufe ich mir lieber noch eher eine GTX 1080 Ti im Abverkauf und habe die nächsten Jahre Ruhe!“ zur alten Generation greift.

Warum? Ganz einfach, es funktioniert.
Killerphil51 schrieb:
Bin immer froher mir vor kurzem die 1070ti geholt zu haben und mir das ganze erstmal vollkommen egal sein kann. Hatte schon ein ungutes Gefühl was die neuen Karten betrifft... :D:D
… und Kommentare derlei Couleur dürfte man am Tage der Veröffentlichung allerorten auf sämtlichen Portalen lesen. Der Plan scheint aufzugehen. In all den Themen der letzten Tage las man ja immer wieder, daß man dann eh wieder zur GTX 1080 Ti greifen kann, was wohl beabsichtigt war.

Gezielter Misskredit
Die Grafikkarten der RTX 2xxx-Generation bieten offensichtlich bewußt von Seiten nVidia's kaum Mehrleistung (was man durch den RT-Nonsense elegant verschleiert), bringen dem Kunden praktischen keinen Nutzen und im Gros kann man die 2xxx-Generation einzig auf eine bewußt überteuerte Preissteigerung zum Zwecke der Etablierung höherer Preise mißbrauchen.

→ Et voilà: Problem der Restbestände elegant gelöst;
Die Jahre alten Karten auf Halde noch zum UVP abverkauft, eine gesamte Grafikkarten-Generation vollständig eingespart (da die RTX 2xxx-Generation ohnehin nichts anderes als die GTX 1xxx-Generation plus nutzlose RT-Cores sind), obendrein noch einen riesigen Reibach gemacht und nächstes Mal wirkt der Leistungs-Unterschied zur neueren 3xxx-Serie dann umso brachialer, da man die RTX 2xxx-Generation bewußt nicht wesentlich schneller gemacht hat.

Glaubt man denn allen Ernstes, daß nVidia hingehen würde und die riesigen Bestände als Verlustgeschäft abschreiben würde? Mitnichten! Dafür gib‘s doch Marketing.

Husarenstück an Marketing
Die Preise sind schon ziemlich clever gewählt …
Durch die doch ziemlich ausverschämt teuren neuen Karten erscheinen die Karten der alten GTX 10x0-Generation ja geradezu als Schnäppchen – und werden gekauft. Hier wird von nVidia in geradezu perfider Manier mit der Psychologie des Kunden gespielt.

Man macht die neuen Karten einfach derart teuer, daß Niemand wirklich so dämlich sein sollte, sie tatsächlich zu solchen Preisen haben zu wollen – aber genau dies dürfte hier absolut gewollt sein. Man will wahrscheinlich (zum jetzigen Zeitpunkt) auch gar keine neuen Karten verkaufen.

Nachwirkungen des Mining Hype?
Der gemeine Gamer dachte doch allen Ernstes, daß er einfach mit dem Kauf der nächsten Karte auf die neueste Generation von nVidia warten könne. Oh, welch Trugschluß! Da hat der Kunde wohl nicht die Rechnung mit nVidia gemacht!

Warum sollte nVidia auch neue Karten verkaufen wollen, wenn sie durch ihre maßlose Geldgier derart auf den Mining-Hype gesetzt haben, daß sie nach dem ja doch recht abruptem Absturz der jeweiligen Kurse auf bis zu einer Million (sic!) Karten der GTX 10x0-Serie sitzen geblieben sind?

Wir erinnern uns, selbst schon ein einzelner großer AIB-Partner von nVidia mußte bis zu 300.000 Karten der alten Serie wieder an nVidia retournieren lassen – aufgrund fehlender Verkäufe.

Eine Frage des Absatzes
Also hat man sich bei nVidia gedacht, man verkauft die Posten der alten Karten einfach weiter – und zwar so lange, bis sie allesamt verbraucht sind. Wie stellt man das an?

Man bringt eine 'neue' Generation, die nichts wirklich Neues bringt, macht sie absichtlich derart technisch wie preislich unattraktiv, daß die ältere Generation geradezu wie ein Schnäppchen wirken muß und verkauft stattdessen die alte Generation. Dem Kunden bleibt aus Gründen fehlender Mitbewerber keine andere Option – sie ist schlicht alternativlos.

Raytracing als PhysX 2.0
Auf der einen Seite wirkt der plötzliche Vorstoß Richtung Raytracing doch schon sehr überraschend, auf den zweiten Blick bietet er nVidia wiederum die grandiose Möglichkeit erneut eine entsprechende Hersteller-eigene Technik zu etablieren, wie es PhysX ist und war. Die ultimative Konsequenz wäre (wie auch schon bei PhysX), daß man viele Spiele in der Zukunft gar nicht mehr ohne eine entsprechende RT-Karte spielen könnte. Das wäre demnach die selbe beabsichtigte Analogie, wie sie nVidia schon bei PhysX verfolgte.

N.U.R.B.S. läßt grüßen
Weiterhin hat nVidia schon einmal einen solchen Vorstoß Richtung experimenteller Technik fernab der normalen und im Markt üblichen Render-Verfahren mit Polygonen versucht. Wer alt genug ist und sich an den Markt erinnert, welcher damals™ noch im professionellen Sektor und in der Industrie vollständig von SGI mit OpenGL beherrscht wurde und im privaten Sektor ATi die Obberhand hatte (und man den Namen nVidia gar überhaupt nicht kannte), der wird sich an nVidia's NV-1 erinnern können, nVidia's erste Grafikkarte überhaupt.
Welche ja eben nicht eine Grafikkarte und Rasterizer für Polygone (wie damals wie heute üblich) war, sondern auf die N.U.R.B.S.-Technik und Quadratic Texture Maps setzte. Am Rande vielleicht etwas Geschichte in Verbindung mit 3Dfx.

Nun ja, die Karte war ein absoluter Flop, charmant gesagt. Sie war ein kapitales Desaster und brachte nVidia, '95 gerade erst in den jungen Kinderschuhen, an den finanziellen Ruin. Und das, obwohl nVidia die Karte gar noch um diverse Audi-Chips ergänzte – ein Novum, wofür (zu diesem Zeitpunkt) bisher eine eigene Soundkarte wie eine SoundBlaster oder Ähnliches vonnöten war. Der Grund lag darin, daß wohl außerhalb von nVidia Niemand so recht sich vorstellen konnte, daß dies sich durchsetzen und was werden könnte – etwaige Parallelen oder gar eine Analogie zu Turing und Raytracing wären in diesem Fall übrigens rein zufälliger Natur!

Analogien für die Zukunft
Ob Turing das Selbe Schicksal ereilen möge, wie seinerzeit die NV-1 und NV-2 vor 23 Jahren? Möglich ist‘s. Verschwand doch nVidia's zum Launch zum Preis von $450 und später nur noch $ 249,99 USD selbst damals schon überteuerte NV-1-Architektur (vergleichbare Grafikkarten kosteten etwa die Hälfte …) kurz nach dem Augenblick vom Markt, als Microsoft im DirectX ankündigte.

Der Nachfolger NV-2 erschien übrigens nie – er wurde folgerichtig noch vor Auslieferung eingestelt und ersatzlos gestrichen.
Kuriose Randnotiz: Selbst auf der ersten Karte mit nVidia-Chip lieferte AMD bereits Chips zu.
Edit: Mir fällt gerade (wieder) ein, daß ich total vergessen habe, sämtliche Dinge bezüglich des Speichers mitzukopieren. nVidia hat ja ganz bewußt den zurzeit langsamsten GDDR6 der gesamten Industrie verbaut. Auf Karten für +1200,– €. Also wird selbst schon wieder mit diesem Winkelzug à la Billigheimer die Marge und der Profit am Quartalsende massiv nach oben gedrückt …


In diesem Sinne

Smartcom
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1, Herr Melone, Pure Existenz und 6 andere
Vitec schrieb:
Ich glaube der Anteil derer die ihre 1080Ti abgestossen haben um eine 2080 zu holen ist doch eher gering. Hier will man wieder das schnellste haben nämlich die 2080Ti und das bekommt man auch geliefert , wenn auch P/L mässig unterirdisch.

also es sind definitiv mehrere hier, auch in 3DC, HWL und in den ami-foren... wobei die amis schmerzfreier sind und viele ihre bestellung storniert haben... :D
 
  • Gefällt mir
Reaktionen: CBL
Eine 2080 mit fhd Monitor zu kombinieren ist so sinnvoll wie einen Ferrari zum Acker umpflügen einzusetzen...Beides der völlig falsche Ansatz beim Kauf...
 
  • Gefällt mir
Reaktionen: Deleo
Für die Hater und "Raytracing sei sinnlos" Scheuklappenträger, falls Ihr mal eine SPielfilmlänge Zeit habt :)

 
  • Gefällt mir
Reaktionen: USB-Kabeljau und Zwirbelkatz
Sebbi schrieb:
so nun dürfen sich die Vorbesteller mal gepflegt in den Allerwertesten beißen .... maximal im UHD, welches nur geringfügig durchgesetzt hat, an der 40´% Marke, im FHD, was den Größteil abdeckt, eher so um die 5 - 30 % im Idealfall (https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/8/)

Leistungsaufnahme im Betrieb massiv verschlechtert (2D und auch 3D) (https://www.computerbase.de/2018-09...st/4/#abschnitt_messung_der_leistungsaufnahme)

Preis jenseits von maßlos überteuert, entsprechendes Preisleistungsverhältniss (https://www.computerbase.de/2018-09...test/7/#abschnitt_preisperformanceverhaeltnis)

Dann kommt noch das mit den Geforce Experience hinzu und der ganzen Moralischen Kram was Nvidia so abzieht ....

Leider kaufen es wieder viel zu viele .... und auch hier im Forum wird die Karte hochgelobt von den Vorbestellern mit der grünen Brille, die Ihren Fehler nicht einsehen wollen.

@Laphonso

jap der Titel ist wieder schön werbeträchtig ... aber passt leider zu der Richtung die CB eingeschlagen hat :(

Die karten sind effizienter als die alte Generation. Das heißt im vergleich zur leistung verbrauchen sie weniger strom. Außerdem laufen die besten nvidia karten in full hd alle ins cpu limit. Sie könnten also schneller, aber der intel cpu kann nicht schneller. Man man man..wie leute sich ihre alten karten schön reden. Das sind top karten. In allen belangen besser als jede karte zuvor auf dem markt. Nur für viele halt zu teuer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeusTheGod, t3chn0, m.Kobold und 2 andere
Jousten schrieb:
Niemand kann es sich dennoch erlauben, seine Kunden oder den Markt zu verarschen, das rächt sich entweder absatzmäßig oder in Imageverlust.

Also das ist Ansichtssache. Apple verarscht seine Kunden aus meiner Sicht seit vielen Jahren ohne dafür bestraft zu werden. Im Gegenteil, der Kurs steigt und steigt und steigt und ich wette das geht auch noch eine ganze Weile so weiter. Auch Intel hat das lange Zeit gemacht und tut es immer noch, wobei sich dort jetzt möglicherweise ein Wachwechsel andeutet.
nVidia kann sich das auch erlauben, solange es eben keine nennenswerten Alternativen gibt. Und die sehe ich von AMD jedenfalls für die nächsten Jahre nicht, eher kommt von Intel 2020 doch noch ne Überraschung. Der Markt interessiert sich eigentlich nur für Angebot und Nachfrage. Und ich wette auf das aktuelle Angebot von nVidia gibt es eine ganze Menge Nachfrage. Ich bezweifle, daß sie auf ihren Turings sitzen bleiben werden. Ich erwarte auch keine Preissenkungen in nächster Zeit. Sicher, eines Tages mag sich das mal rächen. Dieser Tag kann aber so fern liegen das sich dann nicht mehr eindeutig sagen läßt was jetzt wirklich die Ursache war. Ich würde mich daher nicht darauf verlassen, daß nVidia so bald die Quittung dafür bekommt.

AthlonXP schrieb:
und was ist mit einem sli test ?
Ja, den hätte ich auch sehr gerne gesehen.

Aldaric87 schrieb:
Womit es weiterhin aber nicht ihre Schuld ist, dass nVidia die Preise so ansetzt. Die Schuld tragen die Early Adopter, die zu diesen Preisen auch kaufen.

Nur ist es denen verständlicherweise sowas von scheiss egal wie die Preise sind oder ob irgendwer das doof findet. Die Early Adopter beschweren sich nur äußerst selten über den Preis wenn sie gleichzeitg ne Vorbestellung laufen haben oder den Kauf schon fest eingeplant haben, die kaufen so oder so und zwar aus den unterschiedlichsten Motiven.
 
Die 2080ti ist es mir den Preis nicht wert. Die 2080 ist kaum schneller als die 1080ti, hat weniger VRAM und ist teurer. Warum sollte ich aktuell soviel Geld investieren für eine Leistungskategorie, die es für einen niedrigeren Preis schon vor beinahe 18 Monaten gab. Der Sprung von der 1070 auf die 2070 wäre mir jedoch zu klein, da hätte ich dann ebenso schon vor langer ZEit eine 1080 kaufen können und hätte vielleicht 10% weniger LEistung als mit einer 2070. Irgendwie lohnt sich diese Generation für mich nicht.
 
@Smartcom

manchmal find ich deine Ausschweifungen ganz gut aber da hast wirklich nen Haufen Quatsch zusammen geschrieben ;)


Edit: Bis auf das Nvidia natürlich die Chance nutzt Profit aus einem neuen Feature zu schlagen - welche Wunder. Der Weg Richtung Raytracing als solches ist aber absolut richtig.
 
  • Gefällt mir
Reaktionen: Silverangel
ich fand es in den letzten wochen auch ausßerhalb des CB forums inteeressant - die betrachtungen zum fertigungsprozess zum beispiel.
es gibt mutmaßungen dass nvidia ursprünglich mit samsungs 10nm fertigung antreten wollte, da angeblich der yield der 10nm tsmc fertigung schlich zu schlecht war.
dann hat tsmc wohl ein sehr konkurenzfähiges angebot für 12nm fertigung abgegeben, welches deutlich bessere yield raten als samsungs 10nm aufweisen soll.
der mining hype und die vergleichsweise ungefährliche amd vega hätte nvidia dazu bewogen mit der zusätzlichen zeit doch auf das tsmc angebot einzugehen.

das würde zum teil erklären warum die chips so riesig geworden sind - mit 10nm bei samsung wären sie ein gutes stück kleiner - UND die takterwartung wäre etwa 15-20% höher als das was die turings jetzt abgeliefert haben.

wie gesagt, ich finde diese betrachtungen schon recht spannend.
 
  • Gefällt mir
Reaktionen: TechFA, Rock Lee und Celinna
Blade0479 schrieb:
Eine 2080 mit fhd Monitor zu kombinieren ist so sinnvoll wie einen Ferrari zum Acker umpflügen einzusetzen...Beides der völlig falsche Ansatz beim Kauf...
Nunja, den Monitor kann man ja zu gegebener Zeit austauschen. Ich habe in meinen Zockergruppen (je nach Spiel) jetzt in den letzten 1-2 Jahren den Wechsel auf 27 Zoll erlebt (den Enthusiasten und early adopter längst vollzogen wurde und im fünften Jahr auf 1440p spielen), und viele kaufen sich a priori die Hardware und sind dann "vorbereitet" für den Umstieg.
Und die 2080 wird dann wunderbar auch mal die Gsync Monitore auf 144 Hz/fps treten mit maxes settings, ist doch super :)
 
Leli196 schrieb:
Hier, Leute, seht ihr wie erfolgreich Nvidias Marketingabteilung ist. Es wird einfach mal die 1080 Ti mit der 2080 Ti verglichen, weil "der Name ja gleich ist" und dabei völlig außer Acht gelassen, dass eigentlich die 2080 monetär der Nachfolger der 1080 Ti ist. Dann wird sich über doch tolle 35 % Leistungszuwachs gefreut und ignoriert, dass man im Preissegment der 1080 Ti nur die 2080 bekommen kann und hier der Leistungszuwachs lediglich 6 % beträgt (4K).

du sagts es: monetär. in diesem punkt magst du recht haben - was die chips und die gebotene performance betrifft, nicht.
wenn man bedenkt dass nvidia noch mehrere monate parallel zu den 2080 auch die 1080er regulär verkaufen und vermarkten will, ergibt die preisgestaltung sogar einen sinn.

wäre amd mit konkurenzfähigem produkt am markt oder in release sichtweite - sähe das sicherlich etwas anders aus..
 
Zuletzt bearbeitet: (noch mehr typos)
  • Gefällt mir
Reaktionen: Laphonso
Blade0479 schrieb:
Eine 2080 mit fhd Monitor zu kombinieren ist so sinnvoll wie einen Ferrari zum Acker umpflügen einzusetzen...Beides der völlig falsche Ansatz beim Kauf...

Quatsch!

Technik bleibt nicht stehen und eine Karte die heute für Full-HD überdimensioniert ist, wird in ein paar Jahren für diese Auflösung noch immer ausreichen. Diese Anmerkung hätte CB sich eigentlich komplett sparen können.

Spätestens wenn die Entwickler dann RT einsetzen werden und die Spiele mit noch mehr Effekten und realistischer Grafik daher kommen, wird man auch eine 2080(Ti) in Full-HD an die Leistungsgrenze bringen.

Die Behauptung sich immer nur die "passende" Grafikkarte für eine bestimmte Auflösung zu holen ist absolut kurzsichtig und führt nur dazu sich bei der nächsten Grafikkartengeneration wieder "genötigt" zu fühlen eine neue Grafikkarte zu kaufen.

Ich finde es lustig wie hier immer behauptet wird, man "bräuchte" solche Karten für Full-HD nicht, einen Thread weiter wird hingegen angeraten heute schon eine CPU mit 8 Kernen zu kaufen. Entweder man kauft die Leistung die man JETZT braucht und geht davon aus in 2-3 Jahren aufrüsten zu müssen oder man kauft etwas mehr Leistung im voraus um länger was davon zu haben. Es gibt da kein gut oder schlecht, soll doch jeder für sich entscheiden.

Vor allem aber warten heute noch viele auf bezahlbare und gute 4K Monitore oder TVs und haben dann schon mal die passende Hardware in ihrem PC, 1440p ist letztlich nur eine Zwischenauflösung und weder Fisch noch Fleisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dark Matter und Laphonso
Ich würde keine Grafikkarte im Bereich 850-1250 Euro kaufen die "Potential" hat.

Letztlich ist es wie immer, neue Technik wird am Anfang kaum genutzt und bis das der Fall ist, gibt es längst die nächste Generation. Man möge mich eines besseren belehren, allerdings war das bisher immer so. Es gibt ja quasi noch nicht mal ne Möglichkeit die neuen Features zu testen bisher. Also sehr schwierig.

Der Performance-Sprung von 30-35% ist sehr gut (wenn auch unter den 50% von Nvidia behauptet) aber letztlich entscheidet da der Preis und wenn Nvidia, dann würde ich echt eher eine 1080 Ti kaufen, So oder so, die Sprünge sind zwar gut die Nvidia macht, aber wer kein 4K-Gaming betreibt, muss gar nicht in dem Bereich kaufen.

Magenschmerzen bereitet mir auch mal wieder die Tatsache, dass neue Technik teils ältere Games ausbremst und man kann hier halt nicht wie bei CPUs einfach HT ausschalten oder dergleichen, sondern muss schlichtweg damit Leben oder darauf hoffen, Nvidia würde da noch was anpassen. Bei viel alter Software wird das aber nicht mehr passieren.

Sumasumarum kauft man sich ein Produkt mit Potential zu einem sehr hohen Preis und muss hoffen, dass sich das irgendwie auszahlt bis die nächste Gen ansteht.

Mir fällt es echt schwer zu beurteilen wie ich diese Karten jetzt einordnen soll, denn der Preis ist einfach hoch und die Leistung nur bei 4K nötig. Alles andere ist Zukunftsmusik und ungewiss. Ich hätte sehr große Bauchschmerzen mir so ein Modell zu kaufen und dann in 1 oder 2 Jahren zu merken, dass sich entweder die Technik gar nicht durchsetzt oder das Potential erst im Nachfolger ausgebaut wird. Von daher werde ich die Karten nicht in Betracht ziehen, für das Geld bekommt man nach wie vor einen kompletten Gaming-PC der alle Games in Ultra FullHD schafft, Regler bedienen kann auch nicht schaden. Die meisten Games sehen auch auf hoch kaum schlechter aus.
 
  • Gefällt mir
Reaktionen: Blade0479
Muss NV loben..

Verdienen selbst bei der alten Generation noch ein schönes Geld und werden alle Lager Bestände los, selbst die jetzigen Preise jucken die wenigsten und NV verdient einen noch größeren Batzen, aber da ja diese zu teuer sind greifen die meisten zur 1080Ti die aus Zufall gleich mal wieder ein wenig teurer geworden ist..

Hammer... 😁

Und ja technologisch und generell eine sehr gute Karte (2080Ti)... Aber meine Vernunft Seite sagt... Nein...
 
  • Gefällt mir
Reaktionen: Mort626 und smart-
test der 2080 lässt die verkaufszahlen in die höhe schießen! (verkaufszahlen der 1080ti):evillol:
 
  • Gefällt mir
Reaktionen: Zockmock, Deleo, Mort626 und eine weitere Person
Laphonso schrieb:
Für die Hater und "Raytracing sei sinnlos" Scheuklappenträger, falls Ihr mal eine SPielfilmlänge Zeit habt :)

Genau das wollte ich letztens auch schon in diesem Zusammenhang posten - dachte mir aber nach einer Minute überlegen: "Kannste nicht bringen, ist eh zu abstrakt" ;)
 
  • Gefällt mir
Reaktionen: t3chn0, Zockmock und Laphonso
Zurück
Oben