Test GeForce RTX 2080 Super im Test: In allen Belangen gut, aber nicht super

r4yn3 schrieb:
Aha, ich sehe nur das 50% zwischen 4 und 11GB Vram haben.
Der Mainstream von aktuellen käuflichen Karten versteht sich natürlich.
Aber dreh es wie du willst.
8gb oder mehr haben rund 20 prozent
6gb oder weniger haben rund 80 prozent

mainstream kauft keine ueber 300 euro karten das ist performance oder hoeher.
 
xexex schrieb:
Der "Mainstream" ist weit von 8GB entfernt.
Anhang anzeigen 803532

Die meisten Spiele kommen auch heute noch mit 6GB oder weniger VRAM aus und abgesehen von der extrem teuren 2080Ti oder der bereits ausgelaufenen 1080Ti und Radeon VII, bieten keine bezahlbaren Karten mehr VRAM an.
Er wird sich mit Sicherheit auf den Desktop-Markt bezogen haben, daher ist die Steam Survey sinnlos (was sie generell ist, aber das nur am Rande). Dort werden nämlich genauso Laptops/Notebooks mit erfasst. Laut Steam nutzt nämlich über ein Viertel noch Dual Core CPUs, was natürlich am Desktop total Sinn ergibt und nicht durch den ganzen mobilen Quatsch verfälscht wird. Gibt's oberhalb von 100€ überhaupt noch 2C CPUs? Die hat Intel doch auch alle mittlerweile in das "Ramsch-Segment" verbannt.
 
  • Gefällt mir
Reaktionen: Mort626, Cpt.Willard und Chaos Theory
Jens1882 schrieb:
mainstream kauft keine ueber 300 euro karten das ist performance oder hoeher.
8GB kosten auch keine 300€.
 
  • Gefällt mir
Reaktionen: Chaos Theory
Linmoum schrieb:
Er wird sich mit Sicherheit auf den Desktop-Markt bezogen haben, daher ist die Steam Survey sinnlos

Spiele werden aber nicht für den Desktop Markt entwickelt, sondern für den PC Markt und dieser schließt auch mobile Geräte mit ein.

Aber selbst wenn du den Markt ausklammern möchtest, die beliebtesten Karten haben ebenfalls noch keine 8GB VRAM und mehr als 8GB gehört zu einer absoluten Nische, selbst im Enthusiastenbereich.
803545
 
  • Gefällt mir
Reaktionen: .Sentinel. und v_ossi
Jens1882 schrieb:
mainstream kauft keine ueber 300 euro karten das ist performance oder hoeher.
Wurde ich auch mal so sagen. Immerhin spielen schon 64.50% auf 1920 x 1080. Das sah vor einiger Zeit noch anders aus. Alles darüber ist noch unter 10% und könnte man schon fast als Enthusiasten bezeichnen.
 
r4yn3 schrieb:
8GB kosten auch keine 300€.
aber du meinst er dreht sich das zu recht... du meinst
die steam charts zaehlen nicht weil nur aktuelle karten, mir ist nicht bekannt das amd seid neusten neue 7nm karten mit 8gb ram unter 300 euro gebracht hat damit ist in diesem preissegment die steam liste noch aktuell.
:evillol:
Linmoum schrieb:
Er wird sich mit Sicherheit auf den Desktop-Markt bezogen haben, daher ist die Steam Survey sinnlos (was sie generell ist, aber das nur am Rande). Dort werden nämlich genauso Laptops/Notebooks mit erfasst. Laut Steam nutzt nämlich über ein Viertel noch Dual Core CPUs, was natürlich am Desktop total Sinn ergibt
Also ich nutze ein Dual Core von Intel das teil reicht voellig und geht gut ab fuer so eine kleine cpu.
Freundin hat extra msi gaming notebook gekauft und spiel wow und dieses panzer mmo.
 
Zuletzt bearbeitet von einem Moderator:
v_ossi schrieb:
..., der Ton war aber -auf beiden Seiten- unnötig scharf und an manchen Stellen fast schon beleidigend.
Das ist aber allgemein hier das Problem, egal ob jetzt AMD, nvidia oder Intel. Man nimmt sich selbst und die eigene Meinung immer unglaublich wichtig, stellt sie als Fakt hin und jeder der diese Meinung nicht teilt wird als "doof" dargestellt.

Hätte man sich da selbst direkt bessere Wortwahl bedient, hätte man da echt mal spannend diskutieren können, stattdessen ist da aber direkt eine gewisse Aggressivität dahinter, die in der Regel unnötig ist. Im Endeffekt ist es egal ob man nun nV besser findet oder AMD, das muss man am Ende immer für sich persönlich klären.

Es zeigt sich aber halt all zu oft, dass man andere Meinungen nicht einfach mal stehen lassen kann, sie akzeptieren kann, nein, es muss der andere immer überzeugt werden und wenn er sich nicht überzeugen lässt. dann stimmt ja etwas mit dem anderen nicht.

Ich will da nun die Gegenseite nicht aus nehmen, aber wer die Argumente anderer damit beiseite wischt, dass die Gegenseite nur polemisieren will, dass man ein Fanboy ist, wenn man es nicht erkennt usw., der legt eben bereits ein gewisse Aggressivität.

Dazu kommt dann die gegenseitige Bestärkung in den eigenen Filterblasen durch Likes usw.

Wie gesagt, an einem wirklichen Austausch ohne Aggressivität, mit Argumenten und sachlichen Widerlegungen bin ich auch hier durchaus interessiert, nur dafür war der Grundtenor einfach schon zu vergiftet und da gebe ich dir nun auch recht: Von beiden Seiten.

v_ossi schrieb:
Stimmt auch, aber das ist mMn wenig zielführend in der Diskussion um die aktuellen oder zukünftigen Grafikkarten. Jedes Unternehmen, das noch am Markt ist, hat zwangsläufig Einiges richtig gemacht. Daraus lässt sich bloß überhaupt nicht ablesen, was in Zukunft passiert.
Deswegen sprach ich ja von Hoffnung, nicht davon, dass es so kommen muss. Wie gesagt, Navi hätte genau so ein totaler Flop werden können, auch Zen hätte es werden können, man steckt da nicht drin. Man kann mutmaßen, man kann vermuten, man kann interpretieren, aber am Ende kann es immer anders kommen und genau da sind wir halt auch wieder bei dem Punkt. Während du nun hier doch sehr differenziert heran gehst und auch ich persönlich eher sage, dass etwas in einer bestimmten Art kommen kann, gibt es hier viele die ihre bescheidene Meinung so darstellen, als ob es wirklich so kommen muss und dann beleidigt sind, wenn man sagt: Nö, da liegst du in meinen Augen falsch.

Wir haben es doch nun an Zen gesehen und ebenso an Zen2, was haben da manche schwadroniert, dass AMD ja diesen Rückstand nie aufholen kann, nicht mal in 20 Jahren und dass Intel sofort mit einer super neuen Architektur nachlegt, die dann mit AMD sofort wieder den Boden aufwischt und nur so kann es kommen.

v_ossi schrieb:
Wir stecken da alle nicht weit genug drin um anhand von 5 oder 10 Jahre alten Entwicklungen realistische Prognosen für die Zukunft abgeben zu können.
Absolute Zustimmung von mir, ich bleib also dabei, dass ich sage es kann so oder eben anders kommen, am Ende werden wir es sehen.

v_ossi schrieb:
NVidia wird ja auch nachlegen und hat es vermutlich einfacher, da sie noch durch den Prozess Leistungssteigerungen erwarten können, während AMD den Trumpf schon gezogen hat.
Ich denke, Ampere wird ein tolles Stück Hardware werden, mehr? Keine Ahnung. Genau so denk ich über RDNA2, das wird ein tolles Stück Hardware, aber mehr. Wer weiß.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Jens1882 schrieb:
weil nur aktuelle karten, mir ist nicht bekannt das amd seid neusten neue 7nm karten mit 8gb ram unter 300 euro
Polaris ist nicht aktuell weil es Navi gibt?
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Aktuell käufliche Karten. Polaris kannst du normal kaufen, sind auch so in den Kaufempfehlungen drin. Verstehe ich nicht.
 
PHuV schrieb:
ber die dadurch resultierenden Effekte wie Wärmeentwicklung und der sich dadurch ergebenden erhöhte Kühlaufwand mit entsprechender Lautheit sind doch sehr prägnant.
Gut, das mag ein Argument sein, allerdings gibt es ja genügend Auswahl mit vernünftigen Kühlerdesigns. Mir ging es allein darum, dass man angeblich arm wird, nur weil eine Karte unter Volllast 40 - 100 Watt mehr verbrät
PHuV schrieb:
Und der Streit entzündete sich ja daran, daß jemand eine 2080TI-Leistung wollte für 500 € ... Wenn dann immer verzweifelt AMD schöngeredet wird, empfinde ich das doch als subjektives Fanboytum, weil die Faktenlage aktuell einfach anders ist.
Es ist gar nicht schwierig, AMD-Sympathisant zu sein und trotzdem die Fakten zu sehen. AMD hat sich ganz klar positioniert. Mitmischen in der Oberklasse erst ab nächstes Jahr wieder. Versprechen, Nvidia zu übertrumpfen hat man noch gar keine Gemacht, also gehe ich maximal von Einholen ohne Überholen aus. Da gibt es nichts zu beschönigen.
Und ja, ich bin ganz bei Dir, AMD wird noch drei, vier vielleicht auch fünf Jahre brauchen, bis sie ganz zu Nvidia aufgeschlossen haben. Man kann nur hoffen. Ob das klappt, weiß keiner. Was dabei rumkommt, sehen wir dann.
 
Dann fragt man sich, zu was eine 2080 S nun gut sein soll, da sie im AMD-Umfeld eh keine Konkurrenz zu fürchten hat? Ich tät ja dann lieber gleich ein bißchen mehr drauflegen für eine 2080 TI mit mehr RAM, damit es sich auch wirklich lohnt. Und als 2.Karte für nen Anwendungsrechner würde es auch noch ein 2060 ohne S tun, solange man nicht auf die Tensorcores für DeepLearning und Co angewiesen wäre, oder von den beschleunigenden Effekten bei Davinci Resolve oder Adobe Premiere CC wesentlich profitieren würde.
 
PHuV schrieb:
Gerade das Volta (und ich habe zu keinem Zeitpunkt was von einer Titan-V gesagt) gegen Vega-Beispiel sieht in der Praxis genau so aus:
https://technical.city/en/video/Radeon-Pro-Vega-64-vs-Quadro-GV100


Mag ja sein, daß ich nichts verstehe und von der Materie keine Ahnung habe (die Kollegen werden darüber lachen, wenn ich demnächst wieder mal einen Server für DL-Anwendungen aufsetzen muß), aber ich kann lesen, und da steht klar und deutlich etwas anderes. Habe ich einen Knick in der Optik? Leide ich unter Wahrnehmungstrübung? Wohl nein, da steht ganz klar 11.8% faster.

Das denke ich mir doch nicht alles aus, sondern ich mache vermutlich das gleiche wie Du, ich lese es. Also, wo liege ich hier nun falsch in dem, was ich sagte? Meiner Meinung nach habe ich Dich auch hier klar widerlegt.
Also bei einer Karte, die locker 8500€ teuerer ist, hätte ich schon etwas mehr als nur knappe 12% Vorsprung
gegenüber einer auf 250W gedrosselten Vega erwartet... Aber nicht schlimm :P
 
  • Gefällt mir
Reaktionen: Cpt.Willard
DeathShark schrieb:
Ich hoffe, dass die 1070 noch so lange lebt, zeigt leider einige Alterserscheinungen -.-'

Was hast du denn mit deiner Karte angestellt, dass sie Alterserscheinungen zeigt? Ich habe hier noch 'ne 6 1/2 Jahre alte Asus GTX 670 und die läuft wunderbar.
 
Iines schrieb:
Was hast du denn mit deiner Karte angestellt, dass sie Alterserscheinungen zeigt? Ich habe hier noch 'ne 6 1/2 Jahre alte Asus GTX 670 und die läuft wunderbar.

Ich habe sogar noch eine 8800 GTX aus 2007 zuhause, die noch funktionstüchtig ist - relativ ungewöhnlich, denn diese Karte kannte noch keinen Idle-State und hat daher kontinuierlich vor sich hingekocht, wenn sie in Betrieb war :D

Wie auch immer, dieses Mal war der Zufall was Langlebigkeit angeht wohl einfach nicht auf meiner Seite ....
Ma' hat ma' Glück, ma' hat ma' Pech, Mahatma Ghandi.
 
DeathShark schrieb:
Ich habe sogar noch eine 8800 GTX aus 2007 zuhause, die noch funktionstüchtig ist - relativ ungewöhnlich, denn diese Karte kannte noch keinen Idle-State und hat daher kontinuierlich vor sich hingekocht, wenn sie in Betrieb war

Ich habe noch eine funktionierende Ati X800 GTO mit Custom-Kühler von Zalman hier, weil der Lüfter von Sapphire entweder nur laut war oder den Geist aufgegeben hat und dann laut wurde. Ich weiß es nicht mehr. Eine Elza Erazor III fliegt hier auch noch herum.;-) Bis auf etliche RAM-Module ist bei mir zum Glück noch nichts kaputt gegangen, sieht man von den (einem) kleinen Lüftern auf einem Motherboard (und Grafikkarte) ab.
 
PHuV schrieb:
... geht es hier doch gar nicht, schau Dir mal die Postings davor an. :rolleyes: Jemand will erst umrüsten, wenn es eine 2080TI-Leistung für 500 € gibt. Wir haben sowas - wie Du es richtig bemerkst - nicht! Und alles was ich sage ist eine Feststellung, daß wenn die Steigerungen wie bisher in den letzten 5 Jahren waren, wir schlichtweg in 5 Jahren mitnichten eine solche Karte für 500 € haben werden, weder von Nvidia noch von AMD. Seit Pascal gehen die Preise höher, aber die Leistung steigt nicht entsprechend. Jetzt verstanden?

Haettest Du es gleich so generell ausgefuehrt, dass naemlich beide aktuellen dGPU-Entwickler da in der Verantwortung stehen und aufgrund aktueller Preisentwicklung RTX 2080Ti Leistung fuer unter 500 Euro auch in Zukunft (wobei eine solche Prognose bei 5+ Jahren schon arg gewagt ist) unwahrscheinlich erscheint, anstatt einseitig die AMD-Keule zu schwingen und auf deren angeblicher Unfaehigkeit zu pochen, dann waere meine Reaktion und die anderer hier sicherlich auch milder ausgefallen ;).

Wie Teralios aber ebenfalls trefflich hervorhebt sind solche einseitig anprangernden Wahrsagungen/Maerchen unwuerdig bzw. sehr schlechter Stil, zumal diese nicht belegbar sind sondern komplett an den Haaren herbei gezogen, Stichwort "Fake-Prognosen".

Wie zuvor erwaehnt, sollte die Entwicklung der letzten 5 Jahre mit Sicherheit nicht mit der Entwicklung in den kommenden 5 Jahren gleich gesetzt werden koennen (wie mit RyZen im CPU-Bereich bspw. eindrucksvoll unter Beweis gestellt).

Ja, natuerlich wird durch die dGPU-Preispolitik beider Entwickler (wobei da nVidia als Marktfuehrer und nicht AMD/RTG federfuehrend agiert) der PC-Gaming Markt zunehmend zunehmend kaputt gemacht (siehe steigende Abwanderung zu den Konsolen hin), weil das Gebotene (Preis-Leistung) nicht mehr wirklich stimmig ist, da gebe ich Dir Recht ;).

Bei mir stehen aus dem Grund auch immer laengere Lauf-/Nutzzeiten bei den GPUs an und ich hoffe, dass meine naechste Grafikkarte auch so lange halten wird ... es koennte eine der letzten bei mir werden, wenn die Preistreiberei im dGPU-Bereich so weiter geht, zumal es in keiner gesunden Relation mehr zur oftmals durchwachsenen Qualitaet der Spiele steht, bei denen es auch immer mehr begab geht (es gibt zwar noch vereinzelt Perlen, aber der z.T. mit Mikrotransaktionen versetzte und in Publisher-Spieleabos gebuendelte Einheitsbrei - nicht nur bei den Multiplayern - nimmt auch immer groessere Ausmasse an ... wenn es nur noch Spiele zum streamen, im Abo gibt oder vollgepflastert mit Werbung geben sollte, ist das Ganze sowieso Geschichte bei mir).
 
Chismon schrieb:
Ja, natuerlich wird durch die dGPU-Preispolitik beider Entwickler (wobei da nVidia als Marktfuehrer und nicht AMD/RTG federfuehrend agiert) der PC-Gaming Markt zunehmend zunehmend kaputt gemacht (siehe steigende Abwanderung zu den Konsolen hin), weil das Gebotene (Preis-Leistung) nicht mehr wirklich stimmig ist, da gebe ich Dir Recht

Deine Aussage an dieser Stelle ist nur leider ziemlich reißerisch und unüberlegt. Die Politik der beiden Firmen, ist nur ein Faktor bei der Preisgestaltung, wie du unschwer an den aktuellen Navi Karten erkennen kannst. Der treibende Preisfaktor sind hier schlichtweg die Produktionskosten!
803796

https://www.reddit.com/r/nvidia/comments/9bwihc/major_nvidia_die_size_comparison/

803879


Wie du unschwer erkennen kannst, kennt die Chipgröße über die Jahre hinweg, nur eine Richtung und die Produktionskosten sind mit jedem Shrink weiter gestiegen. Ein 754mm2 Chip in 7nm? Dieser würde im aktuellen 7nm Prozess das doppelte kosten und den Preis einer RTX3080Ti jenseits der 2000€ Marke befördern.

803797


Während man im CPU Bereich über Jahre hinweg die Anzahl der Transistoren kaum noch erhöht hat und bei Intel mehrere Jahre vier Kerne im Mainstream üblich waren, wurde im GPU Sektor richtig geackert und die Chips grösser und komplexer gemacht.

Ich habe es auch oft schon angemerkt, aber man kann es nicht oft genug wiederholen, in spätestens 10 Jahren ist das ganze Rennen um immer kleinere Strukturen gelaufen und Leute sollten sich jetzt drauf einstellen, dass die aktuelle Entwicklung im IT Sektor auf einen normalen Level zurückkehren wird. Die Physik hat nun mal ihre Grenzen und schon die aktuellen Prozesse sind unverhältnismäßig teuer, was den ursprünglichen Gedanken, die Kosten durch einen Shrink reduzieren zu können, zunichte macht.

Die Kosten für entsprechende GPU Lösungen werden auch mit Konkurrenz durch AMD und Intel weiter steigen und mittelfristig nur noch für Cloudlösungen interessant sein. Der klassische Markt so wir den kennen, dürfte in 10 Jahren Geschichte sein und die wenigsten werden bereit sein, 5000€ für eine potente GPU Lösung zum daddeln auszugeben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: M1ximili1n, Jens1882 und BacShea
hamju63 schrieb:
Da das lediglich ein Refresh der alten Karten und keine neue Generation ist (und auch nicht anders angekündigt war) - auf was hast Du denn gewartet?

4K deutlich über 60 FPS wahrscheinlich dann mit der großen Ti der folgenden Volta Generation.... für um die 1.500 Euro ;)

Ja genau, ich kann erst eine Neue gebrauchen wie sie das für 500€ kann. Für alles andere hab ich ne 1070oc.
 
Die 2080 ist mmn aufgrund des kleinen Speichers eine Fehlinvestition. 10 GB hätten ihr besser gestanden
 
  • Gefällt mir
Reaktionen: BlackBirdBerlin und Gsonz
Zurück
Oben