Test GeForce RTX 2080 Super im Test: In allen Belangen gut, aber nicht super

Chaos Theory schrieb:
  • Games, die in 4K auflösung mit Ultra Settings den RAM voll machen können zählen nicht. angeblich ist das Spiel dann schlicht und ergreifend schlecht programmiert. 8 GB reichen.

Die Spiele machen den RAM nicht "voll". Die Spiele Engines sind so konstruiert, das sie versuchen soviel Ram wie möglich zu nutzen.

Kann man schön in SOTTR sehen. Die alte 2060 füllt knapp 6 GB in WQHD, die 2070 füllt knapp 8 GB in gleichem Szenario.

Die Frametimes sind dann zwar auf der 2070 geringfügig besser, aber das ist eher mess-denn fühlbar !

Dieser "Fehler" wird in der Betrachtung oft gemacht, was natürlich nicht heißt das es nicht auch Spiele gibt wo 6 GB knapp werden.
 
  • Gefällt mir
Reaktionen: xexex, v_ossi und Aduasen
PHuV schrieb:
... wette mit Dir und anderen, daß es AMD bis 2024 nicht schafft, eine Grafikkarte vergleichbar wie die 2080 IT für 500 € rauszubringen.
Du hast mitbekommen, das es bei vielen Mitbewerbern wie Intel, TSMC und Co. große Probleme gab und gibt bei der Umstellung auf 7nm Fertigung?
Das entscheiden hier weder Du noch ich, sondern der Markt. Und wenn die Effizienz nicht paßt, wird das sehr wohl ein ein entscheidendes Nicht-Kauf-Kritierium werden. Und die jetzige Ober- bis Enthusiastenklasse sollte in 5 Jahren durchaus in die Mittelklasse rutschen.
Wo wird hier gebashed? Fakt ist, AMD hängt bei der GPU seit ca. 7 Jahren immer hinterher. Gut, bei der CPU haben sie nun endlich mal was konkurrenzfähiges geliefert.
Es ist eine anhand der Vergangenheit gestellte Prognose, daß es in 5 Jahren von AMD keine GK für 500 € mit einer Leistung einer Nvidia 2080TI geben wird. Sie haben es weder bei Maxwall noch bei Pascal und jetzt Turing geschafft. Von Volta sprechen wir erst mal gar nicht. Nochmals, wo ist nun dieses Wunder, daß alles ändern soll?
Es zerredet niemand hier was. Das mit unausgereifteste Variante hast Du jetzt in den Mund genommen, also bist Du ja der AMD-Basher, nicht ich. ;)
Fakt ist, AMD kommt in der aktuell höchsten Ausbaustufe gerade mal auf ein Niveau einer 2070. Da mag ich nicht so recht an das vielfach beschworene Wunder glauben.
Auch schon zigmal seit vielen Jahren gehört, AMD könnte (Polaris, Vega, nun Navi)....
Nochmals die Nachfrage, warum gibt es jetzt keinen Navi-Superchip? Allein um Nvidia hier Paroli zu bieten, hätte ich an deren Stelle mal so einen "Superchip" auf den Markt geworfen. Tun sie aber nicht. Und das sind nun mal Fakten, so leid es mir für Dich tut.

Bietet nVidia aktuell RTX 2080Ti Niveau fuer um die 500 Euro? Nein, leider extrem weit gefehlt; wieso legst Du diese Massstaebe jetzt oder fuer die Zukunft an AMD/RTG an und nicht etwa an nVidia, die fuer die ganze Preistreiberei in den letzten Jahren bei den GPUs hauptverantwortlich sind?

Bietet der unangefochtene dGPU Marktfuehrer nVidia aktuell die neueste Fertigungstechnologie?

Nein, ebenso weit gefehlt, stattdessen wird zum zweiten Mal (als Refresh) Turing RTX in altbackenener 12nm Fertigung aufgekocht und den Leuten angedreht, auch wenn man finanziell der Konkurrenz weit voraus/ueberlegen ist und sich gerne medial als Innovator (gelobhudelt) sieht.

Des Weiteren haette man die Turing RTX GPUs gleich als "Super"-Varianten anbieten koennen (also eine RTX 2070 direkt mit TU-104er Oberklasse-Chip bspw., wie seit langer Zeit/Kepler GPUs, anstatt des TU-106er Mittelklasse-Chips) und hat es nur nicht gemacht um die Kundschaft wieder einmal richtig schoen zu melken und durch den Kakao zu ziehen, so sieht es doch (seit Maxwell/der bewussten GTX 970 Kundentaeuschung) bei nVidia aus, aber Du verlangst den Grosschip von AMD jetzt, wo nVidia (als fast schon Quasi-Monopolist im dGPU-Bereich) deutlich mehr Bringschuld hat?

Verkehrte Welt und es zeigt wie verblendet und einseitig Du (und einige andere hier) denken und natuerlich auch fuer diese sehr ungleiche/schiefe Marktlage durch Ihr Kaufverhalten verantwortlich sind.

Es ist schon erstaunlich, was hier von einigen Herrschaften fuer surreale Ansprueche gegenueber AMD/RTG formuliert werden wohingegen nVidia trotz aller Verfehlungen komplett aussen vor bleibt :rolleyes:.

Es gibt wenigstens zwei Gruende, weswegen AMD/RTG noch nicht Navi20/21 Chip-Grafikkarten in 2019 bringt:

- der erste ist finanzieller Natur, denn die Grosschip-Fertigung unter 7nm (deutlich teurer als die billige 12nm Grosschip-Fertigung nVidias) ist aktuell noch nicht erschwinglich genug und die Karten muessten dann so teuer zum Marktstart angesetzt werden, dass es AMD/RTG in eine finanzielle Schieflage bringen wuerde anders als der Marktfuehrer/vergleichsweise Bonzen-Verein nVidia,

- und der zweite Grund ist, dass mittlerweile RT-Raytracing fuer neue Oberklasse-GPUs auch von AMD/RTG erwartet wird und die Technik und RDNA2-Architektur als naechste Evolutionsstufe eben noch nicht ausreichend optimiert ist, um die Oberklasse-GPUs (RX 5800(XT)) noch in 2019 zu bringen.

Gut' Ding will Weile haben und von solchen Leuten wie Dir wuerde dann doch wieder nur gelaestert werden, wenn RDNA1 Oberklasse-GPUs ohne RDNA2 Features in diesem Jahr kommen wuerden, denn die wenigsten beschweren sich hier noch (von den nVidianern), dass es keine GTX nVidia GPUs im oberen Leistungsbereich/HighEnd (oder gar oberhalb einer RTX 2080Ti, welches durch Nutzung der Tensor-Core-Platzes, etc. moeglich erscheint und 4K/UHD HardCore-Gamer ansprechen koennte fuer die RT-Raytracing eh keine Rolle spielt, da bisher deutlich die RTX-Hardware zu schwach dafuer ist) gibt, weil nVidia dieses bewusst unterbindet.

Ergo, solltest Du (und andere hier) vielleicht erst einmal lernen die hoeheren Masstaebe/ueberzogenen Forderungen an den Marktfuehrer anzulegen, der noch immer nicht bei 7nm im Gaming-Bereich angekommen ist, ein Armutszeugnis, welches zeigt, dass man nur auf maximalen Reibach/Kundenschroepfung dort aus ist (G-Sync waere da ein anderes passendes Beispiel) und nicht wirklich der technischen Innovation hoechste Prioritaet einraeumt und nicht die Kundschaft nach Moeglichkeit bestens bedienen will.

Trotz der bisher relativ verplanten/durchwachsenen RTX-Initiative/-Einfuehrung ist diese nach Jahren ohne relevante Fortschritte bei GPU-Features endlich wieder einmal wenigstens ein Licht am Ende des Tunnels bei nVidia.

Was AMD/RTG als resourcentechnisch deutlich unterlegener Gegenspieler, der mit den eigenen vergleichsweise begrenzten Mitteln schon erstaunliches zustande bringt, schafft ist aller Achtung wert, auch wenn das von Dir und einigen anderen (so gut wie) nie gewuerdigt wird.

Alleine damit AMD/RTG Preissenker fuer RTX 2080Ti Mondpreis-Karten von nVidia spielen soll, haettest Du doch gerne RDNA1-Oberklasse-Chip-GPUs auf den Markt geworfen.

Tja, es geht eben nicht danach was Du gerne haettest, sondern was fuer das Unternehmen am besten ist.

In der Vergangenheit hat man GPU-Preissenker fuer Ober- und Luxusklasse-GPUs der Konkurrenz gespielt, aber die Zeiten sind bei AMD/RTG unter Lisa Su wohl vorbei, denn die diesen Zeiten nachtrauernde Nische aus Early Adoptern, Hobby-Enthusiasten und HardCore-nVidianer geschehen die (selber/per Kauf ueber Jahre hinweg befeuerten) Spitzenpreise nVidias fuer deren HighEnd GPUs nur recht :).

Da ich nicht zur o.g. Nische gehoere und gerne bis 2020 auf 7nm Oberklasse-GPUs mit RDNA2-Architektur warte, braucht es Dir fuer mich nicht leid zu tun, aber danke dafuer.

Du kannst die Zukunft nicht anhand der Vergangenheit zuverlaessig fuer AMD/RTG prognostizieren, das hat RyZen schon bewiesen, aber Du (und Gleichgesinnte) uebersehen das wohl gerne bzw. haben daraus nicht gelernt, daher bleibe ich dabei, dass Deine Prognose kompletter Murks und unwuerdig ist (da sie nur darauf abziehlt hier AMD/RTG anzuprangern und im voraus deren zukuenftige Produkte schon zu diskreditieren), so leid es mir fuer Dich (und die Gleichgesinnten) tut ;).

Die erste Evolutionsstufe einer GPU-Generation ist natuerlich die unausgereifteste Variante und dafuer sind die Navi10 Karten schon verdammt gut gelungen (etwa im Vergleich mit den Polaris10 GPUs), wohl auch z.T. Koduris Verdienst, und das scheint wohl bei Dir (und Deinem Anhang) noch nicht angekommen zu sein.

In der Fachpresse ist die Resonanz aber weitestgehend sehr positiv und ich bin schon gespannt auf die RX 5600(XT) GPUs und wie diese im Vergleich zu den aktuellen GTX Karten nVidias abschneiden werden (vielleicht muss ja nVidia wieder mit GTX "Super" GPUs nachlegen, weil die RTX Turing Karten dann doch bewusst etwas schwachbruestig in Sachen Leistung und/oder Ausstattung von vornherein angesetzt waren, wer weiss?).

Allerdings passt mir auch nicht alles, was AMD/RTG aktuell bietet.

Fuer meine Ansprueche reicht mir RDNA1 und vor allem der stagnierende Speicherausbau (ich will mindestens 12 GB Speicher, 8 GB ist mir Stand jetzt schon zu wenig als langfristig orientierter Kaeufer/Nutzer und es passt mir nicht, was AMD/RTG da aktuell bietet, mit Ausnahme der Radeon VII, die es aber leider nie als Custom-Modell zu einem angemessenen Preis gegegeben hat und geben wird) noch nicht aus, auch angesichts der kommenden NextGen-Konsolen, die auf RDNA2 basieren werden, was eben (indirekt auch) der Gradmesser fuer die kommenden 3-5 Jahre in der Spieleentwicklung sein duerfte und da warte ich eben noch auf das passende Produkt im kommenden Jahr.

Dass die RDNA1-Architektur nicht perfekt ist, leuchtet ein und ist nicht abzustreiten, aber allzuviel Angriffsflaeche bietet sich fuer Dich und andere die den Marktfuehrer huldigen auch nicht wirklich bei den aktuellen Navi10 GPUs, wie es scheint, was heisst, dass AMD/RTG im Interesse der Kundschaft fuer einen ausgeglicheneren Markt allgemein auf dem richtigen Weg sind (wie bei den CPUs) und das ist m.M.n. erfreulich.

Mich interessieren im uebrigen irgendwelche Markenfan-Gelueste da wenig, sondern was ich (auch zukuenftig) bestenfalls fuer mein Geld bekommen kann (idealerweise ohne von einem Unternehmen durch den Kakao gezogen zu werden) und man merkt schon ziemlich genau, welche Leute hier Markenfetischisten sind (aus welchen z.T. bizarren Gruenden auch immer) und welche Leute nicht (die auch ab und zu kritische oder lobende Worte fuer den ein oder anderen Hersteller oder deren Produkte parat haben).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thraker, IBISXI und Stellarix
ralf1848 schrieb:
Die Spiele machen den RAM nicht "voll". Die Spiele Engines sind so konstruiert, das sie versuchen soviel Ram wie möglich zu nutzen.
Nicht pauschal. Die Spiele sind einfach zu 95% so hin optimiert dass sie mit 8GB auskommen. Muss man ja, da dass der Mainstream ist.
Aber das skaliert nach oben hin nicht weiter raus. Diese 4K Ultra Settings sind auch nur so, damit die 11GB einer Ti irgendwo gerechtfertigt sind.

Kurzum, wenn man mal mehr als genug Vram hat, sieht man dass Spiele nicht beliebig viel belegen.
 
r4yn3 schrieb:
Nicht pauschal. Die Spiele sind einfach zu 95% so hin optimiert dass sie mit 8GB auskommen. Muss man ja, da dass der Mainstream ist.
Aber das skaliert nach oben hin nicht weiter raus. Diese 4K Ultra Settings sind auch nur so, damit die 11GB einer Ti irgendwo gerechtfertigt sind.

Kurzum, wenn man mal mehr als genug Vram hat, sieht man dass Spiele nicht beliebig viel belegen.
Danke für deine Erklärung, fand ich ziemlich hilfreich !
Würde mich ja echt mal interessieren, was eine Radeon VII in diesem Szenario so "belegt".
 
PHuV schrieb:
Und hier fängt es schon mal an, typisch reines Cherry-Picking, wie man so schön. Ja, die Performance der 290X war allein gesehen in Ordnung. Jedoch sollte man hier das Gesamtpaket bzw. das gesamte Erscheindungsbild anschauen. Dann schau Dir mal schön auch alles andere an. Was ist mit der Temperaturentwicklung, Leistungsaufnahme usw. ?
Schön, dass du hier zumindest mal wieder den empirischen Beweis angetreten bist, dass sowohl Lesekompetenz als auch Textverständnis selbst bei Erwachsenen immer mangelhafter wird.

Hätte ich Cherry-Picking betrieben, hätte ich nicht erwähnt, dass Hawaii etwas ineffizienter ist. Man kann sich hier höchsten über die Wortwahl streiten und sich die Frage stellen, ab wann für mich oder dich der Unterschied liegt, ob etwas deutlich ineffizienter ist oder nicht. Ich persönlich sehe im Mittel ca. 10% nicht als deutlich ineffizienter an, sondern eben als etwas ineffizienter.

Aber schön, wie du mir nun Cherry-Picking vorwirfst, aber im Endeffekt nun nichts anderes machst, in dem du nun zu den beiden relevanten Faktoren noch Temperatur und Lautstärke dazu nehmen willst, nur damit du etwas hast.

Gehen wir doch da mal drauf ein: Unter Windows war die 290X leiser als die Titan, wobei man hier von leiser nicht wirklich sprechen kann, da Computerbase den Schalldruckpegel angibt und der steht per se nicht unbedingt für Lautstärke, aber die Karten trennen 1dB, was bei der niedrigen dB-Zahl aber bereits 1% ausmacht und je nach Hz-Zahl der Lüfter sogar bereits massiv störend sein kann. Im oberen Bereich liegen zwischen beiden Karten 4dB, macht dann zwar 32%, aber auch hier kommt es wieder auf Hz-Zahl an und wie sich das Geräusch zusammen setzt. 46dB mit der falschen Hz kann weit schlimmer sein als 50dB mit einer anderen. Daraus ein wirkliches Fazit zu ziehen ist mutig, aber am Ende bleibt da zu sagen: Kommt drauf an. Ich hab keine der beiden Karten besessen und kann mir daher kein Urteil erlauben was nun wirklich besser oder schlechter war. Hier greift nur meine Erfahrung mit dem ach so tollen IceQ von HIS, denn ich damals obwohl er leiser war als meine vorherige Karte, als unerträglich empfand, weil es ein leises hochfrequentes Surren war.

Gehen wir auf die Temperatur ein:
80° zu 94°, okay knapp 20% Differenz, aber welche Bedeutung hat das nun? Die meisten GPUs sind heutzutage und waren damals teilweise bis 110°C ausgelegt, zu mal beide Karten, wenn man es so will teilweise in bedenklichen Regionen agierten.

Gegen Lautstärke und Temperatur helfen in der Regel leider nur die Modelle der Partner, ansonsten haben sich sowohl AMD als auch nVidia da über lange Jahre nicht mit Ruhm bekleckert. Das erste wirklich gute "Design" was Temperaturen und eben Lautstärke angeht, hat nVidia mit der 20x0-Serie abgeliefert.

Ansonsten, wir können ja auch mal weitere Werte betrachten wie Verbrauch bei Desktop, Filmwiedergabe, 3 Monitore und so weiter. Da gewinnt oft AMD durch bessere Stromsparmechanismen im Chip.

Einigen wir uns deswegen lieber auf Leistung und Effizienz, das sind zwei Faktoren, die man abseits der Partner-Modelle wirklich unabhängig betrachten kann, alles andere hängt von zu vielen Umständen ab und da hättest du meinen Beitrag mal besser lesen sollen, denn ich habe nie nur rein die Leistung erwähnt, sondern auch die Effizienz und dazu Erläuterungen abgeben.

PHuV schrieb:
Du ja auch nicht, siehe Anmerkungen oben. Du liest falsch und interpretierst es so, wie es Dir in den Kram paßt. Bei der 290X gehst Dir nur um die Leistung, und läßt alles andere außer acht. Später willst Du plötzlich alle Faktoren wieder für AMD sprechen lassen. Ja, was denn nun?
Ich habe nie die Effizienz ausgeblendet, ich hab sogar offen zugeben, dass sowohl Polaris als auch Vega in Sache Effizienz das nachsehen hatten, gleichzeitig dazu aber auch eine Erklärung geliefert - im übrigen auch etwas, was ich bereits vor 2 Jahren in den entsprechenden Beiträgen gemacht habe. Ich habe sogar zugeben, dass AMD nVidia ab eben 2016 hinterher hinkt - was aktuell nun mal eben erst 3 Jahre ausmacht, nicht wie von dir behauptet besagte 7 Jahre - es wäre nun ins 4 Jahr gegangen.

AMD konnte sowohl bei Kepler als auch Maxwell in der Regel nach 6 - 9 Monaten aufschließen, sowohl was Leistung als auch den Sweetspot an Effizienz anging.

Gehen wir aber mal auf deinen Vorwurf ein, dass ich das Diagramm nicht richtig gelesen habe: Ich habe dieses Diagramm sehr genau gelesen und erneut zeigst du, dass bei dir wohl massiv große Defizite im Bereich Lesekompetenz als auch Textverständnis bestehen.

Die "schlechtest" Turning-Karte in dem Diagramm ist die RXT 2070 Super, sie liegt gerade mal 1% vor einer Pascal-Karte - was man durchaus als Messungenauigkeit und/oder Rundungsfehler abtun kann - und liegt 4% hinter der besten Pascal-Karte GeForce GTX1070. Ist jetzt Turning nicht effizienter als Pascal?

AMD wiederum liegt mit der schlechtesten aktuellen Navi-Karte 3% zur schlechtesten Turning-Karte zurück, während die aktuell beste Turningkarte 10% vor der besten Navi und den meisten Turning-Karten liegt. Problem nur: Die RTX2070 wird eingestellt, die Gegner sind nun die 2060 Super und 2060. Hier liegen wir nur noch ca. 1% bis 5% in Front oder eben 1% bis maximal 4% zurück.

Schon dumm, wenn man selbst nur Cherry-Picking betreibt, maximal Überschriften ließt und ansonsten nicht in der Lage ist Zahlen zu interpretieren.

Und dein Argument zur Tesla V100 gegenüber der Radeon MI25 - wobei aktuell ja MI50 und MI60 die "Kontrahenten" sind - ich sprach nicht davon dass die Karte besser ist, sondern dass sie mithalten kann. Ein kleiner aber eben doch feiner Unterschied. Zudem kommt es gerade in diesem Bereich auch auf die Software-Infrastruktur an und in wie weit sie optimiert ist. Je nach Ausgangslage - kann die MI25, als auch MI50 und MI60 mit der V100 sehr gut mit halten, an anderen Stellen hängt die V100 die Vegas gnadenlos ab, zeigt im Endeffekt aber nur, wie wichtig hier Software ist. AMD hat seit Jahren ein Softwareproblem, das ist bekannt, spielt hier aber nur eine untergeordnete Reihe, da ich nur deine Behauptungen, die du als Fakten hinstellen wolltest, widerlegen muss.

Der glückliche Umstand für mich ist, dass ich deine Behauptungen nur mit einzelnen gezielten Argumenten angreifen kann.

PHuV schrieb:
Mag ja sein, daß ich nichts verstehe und von der Materie keine Ahnung habe (die Kollegen werden darüber lachen, wenn ich demnächst wieder mal einen Server für DL-Anwendungen aufsetzen muß)
Ach wie süß, du bist ein Systemintegrator, dann pass aber besser auf, das deine Kollegen nicht deine Beiträge hier lesen, ansonsten könnte es sein, dass sie über dich lachen.

Du magst vielleicht ein guter Systemadministrator sein, das ändert aber nichts daran, dass du hier bisher nur mit Behauptungen und mangelndem Textverständnis sowohl im literarischen als auch mathematischen Kontext brillieren konntest. Argumentativ bewegst du dich auf ganz dünnem Eis, das einzige was bei dir heraus kommt ist, dass du dich für unglaublich objektiv und erhaben hältst:

PHuV schrieb:
Das kann man jetzt auch wieder so oder so betrachten. Du redest jetzt hier die Situation von AMD sehr schön, und das klingt verdächtig nach Fanboygehabe. Du bist hier klar nicht objektiv!

Du merkst dabei aber nicht, dass dein Hauptargument nur eines ist: Du bist unglaublich objektiv, während alle anderen nicht objektiv sind und Fanboys sind. Dabei merkst du nicht, dass genau diese Argumentation dich selbst in die Fanboy-Ecke drückt, denn genau das ist es, was Fanboys machen: Anderen die Objektivität absprechen, sich selbst dabei für wahnsinnig objektiv halten und doch nur mit Behauptungen auftrumpfen.

Deine Meinung sei dir gegönnt, ebenso ist es aber allen anderen gegönnt eine eigene Meinung zu haben. Das ist das schöne an Meinungsfreiheit.

Ansonsten muss ich aber an der Stelle jetzt sagen: Das war mein letzter Beitrag zu genau dieser Thematik, da ich nicht denke, dass eine weitere Diskussion mit dir irgendeinen Erkenntnisgewinn für mich bereit hält oder Sachverhalte an den Tag bringt, die ich nicht bereits kenne.

Viel Spaß.


MasterWinne schrieb:
Hatte AMD (nicht ATI) eigentlich je eine Karte auf dem Markt, die in Sachen GAMING, Effizienz, Temperaturen und Lautstärke mit Release-Zeitraum innerhalb 1 Jahr mithalten konnte? Ich denke damit sollte die Diskussionen über mir erledigt sein.
Ja, genau 2 Stück in den letzten 7 Jahren:

GK110 kam im März 2013, 8 Monate später kam die 290X.
September 2014 - Maxwell Groß, im Juni 2015 kommt Fury, 9 Monate.

Ansonsten bleibt bei dir genau das gleiche zusagen: Temperatur als auch Lautstärke der Referenzmodelle ist zwar interessant, aber da hat sich keiner der Hersteller zu der Zeit mit Ruhm bekleckert und nackte dB-Zahlen bringen nichts, da die Hz-Zahl des Geräusches am Ende entscheidet ob es wirklich störend ist oder nicht.

Beide Hersteller waren damals auf die Designs der Drittanbieter angewiesen um wirklich gute Karten auf den Markt zu bekommen.

Wirklich gut ist nVidia auch erst mit der 20x0 Version geworden, dass muss man anerkennen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Thraker, Stellarix und Chismon
ralf1848 schrieb:
Würde mich ja echt mal interessieren, was eine Radeon VII in diesem Szenario so "belegt".
Nicht wesentlich mehr, da das Spiel, hier SotTR, auch mit 16GB Vram immer wieder Speicher freigibt.
Man kann also mit genug Vram immer noch "Nachladeruckler" haben.
Und es gibt auch Engines, die geben so gut wie gar keinen Speicher frei und behalten alles so lang es geht, siehe CoD.
Für mich ist das immer Programmierungs oder Optimierungssache.
Ein Division 2 "braucht" halt plötzlich 16GB Vram, wers glaubt.
 
Vergesst bitte nicht, dass die 2080 Super besseren RAM hat, der sich SEHR STARK übertakten lässt.

Hier sind Werte von +1200 und mehr drin, was die Karte dann noch schneller werden lässt.

RTX 2080 Super +1350Mhz RAM OC

Das ganze bei guter Verfügbarkeit 680-750€ finde ich schon ganz okay.

Wartet mal auf die Custom Karten ab .. da wird dann noch mehr drin sein und schon steht die 2080 Super schon garnicht mehr so schlecht da.

Könnte mir Vorstellen, dass eine Lightning Z oder so mit +200 Core und +1500 Mhz RAM der TI schon gefährlich nah kommt. ( Klar nicht ganz ran, aber dennoch "Nah").
 
Klar, kostet dann auch wohl mehr als ne Ti.
 
Naesh schrieb:
und schon steht die 2080 Super schon garnicht mehr so schlecht da.
Starke Leistung was das OC angeht, aber mit 11 GB VRAM würde sie noch besser da stehen.
 
Teralios schrieb:
Ach wie süß, du bist ein Systemintegrator, dann pass aber besser auf, das deine Kollegen nicht deine Beiträge hier lesen, ansonsten könnte es sein, dass sie über dich lachen.
Nein, ich mache viel viel mehr, bestimmt mehr als Du hier, daher wäre ich mit Deinem Urteil sehr sehr vorsichtig!
Teralios schrieb:
Ich hab keine der beiden Karten besessen und kann mir daher kein Urteil erlauben was nun wirklich besser oder schlechter war. Hier greift nur meine Erfahrung mit dem ach so tollen IceQ von HIS, denn ich damals obwohl er leiser war als meine vorherige Karte, als unerträglich empfand, weil es ein leises hochfrequentes Surren war.
Tja, ich hatte diese Karten, und fast alle Titanen (bis jetzt auf die RTX). Und nu? Und ich kann Dir sagen, alle AMD-Karten, die ich bis dato besessen hatte, waren lauter, heißer und etwas langsamer als eine Nvidia-Karte.
Teralios schrieb:
Gegen Lautstärke und Temperatur helfen in der Regel leider nur die Modelle der Partner, ansonsten haben sich sowohl AMD als auch nVidia da über lange Jahre nicht mit Ruhm bekleckert. Das erste wirklich gute "Design" was Temperaturen und eben Lautstärke angeht, hat nVidia mit der 20x0-Serie abgeliefert.
Damit stehst Du vermutlich aber ziemlich alleine da, wenn ich daran denke, wie viele die RTX-Generation als überflüssig hier tituliert hatten. ;)
Teralios schrieb:
Ansonsten, wir können ja auch mal weitere Werte betrachten wie Verbrauch bei Desktop, Filmwiedergabe, 3 Monitore und so weiter. Da gewinnt oft AMD durch bessere Stromsparmechanismen im Chip.
:
Gehen wir aber mal auf deinen Vorwurf ein, dass ich das Diagramm nicht richtig gelesen habe: Ich habe dieses Diagramm sehr genau gelesen und erneut zeigst du, dass bei dir wohl massiv große Defizite im Bereich Lesekompetenz als auch Textverständnis bestehen.
:
Du magst vielleicht ein guter Systemadministrator sein, das ändert aber nichts daran, dass du hier bisher nur mit Behauptungen und mangelndem Textverständnis sowohl im literarischen als auch mathematischen Kontext brillieren konntest. Argumentativ bewegst du dich auf ganz dünnem Eis, das einzige was bei dir heraus kommt ist, dass du dich für unglaublich objektiv und erhaben hältst:
Ernsthaft jetzt? Trollst Du jetzt?

https://www.computerbase.de/2018-11...st/4/#abschnitt_messung_der_leistungsaufnahme
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/3/
Der Stromhunger auf YouTube
Für die Wiedergabe eines UHD-Videos auf YouTube benötigen die neuen Grafikkarten mit 31 Watt (RX 5700 XT) respektive 31 Watt (RX 5700) dagegen verhältnismäßig viel Energie. Damit liegt Navi in dieser Disziplin nur auf Polaris-Niveau, während Vega weniger Strom benötigt. Das gilt vor allem im Vergleich zur Radeon VII, die sich bereits mit 16 Watt zufriedengibt. Auch die versammelte Turing-Riege ist sparsamer, wobei dies primär für die Super-Modelle gilt. Die Differenz zu den „alten“ Turing-Karten ist dagegen nur gering.
https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/10/
Die Leistungsaufnahme bei der Blu-ray-Wiedergabe hat sich mit der Radeon R9 290X zudem weiter verschlechtert. Mit 143 Watt bleibt der neuen AMD-Karte nur der letzte Platz im Testfeld; 29 Watt mehr Leistungsaufnahme als die Radeon HD 7970 GHz Edition. Beim Multi-Monitor-Betrieb sieht es etwas besser aus, doch auch dort war die Leistungsaufnahme bei der letzten Generation geringer.

Habe ich nun einen Knick in der Leitung oder sehe ich die roten Balken hier falsch, die meistens deutlich über den grünen Balken bei den Punkten
  • Leistungsaufnahme Desktop
  • Leistungsaufnahme - Blu-ray/Multi-Monitor
  • Leistungsaufnahme der Grafikkarte – YouTube-Video"
liegen? Nur bei 3 Monitoren (die ja so viele Leute hier betreiben) ist eine 290x mal besser, ansonsten glänzt je nach Konstellation mal eine Radeon VII oder mal ne Vega, sonst sind sie immer etwas schlechter.

Also, wie war das nochmals mit meinen angeblich mangelnden Text und Leseverständnis?

Sorry, spätestens hier steige ich jetzt aus, weil das was Du da so viel schreibst in vielen Punkten so nicht stimmt.
 
Naesh schrieb:
Wartet mal auf die Custom Karten ab .. da wird dann noch mehr drin sein und schon steht die 2080 Super schon garnicht mehr so schlecht da.
Es hat hier keiner behauptet, dass die RTX2080 Super schlecht da steht, über alle Seiten hinweg ist ja das Fazit vorhanden, dass die RTX2080 Super eine gute Karte ist, nur im Vergleich zu den anderen Super-Karten eher enttäuscht.

Naesh schrieb:
Könnte mir Vorstellen, dass eine Lightning Z oder so mit +200 Core und +1500 Mhz RAM der TI schon gefährlich nah kommt. ( Klar nicht ganz ran, aber dennoch "Nah").

Definiere mal bitte gefährlich nah, denn aktuell liegen zwischen Super und Ti he nach Auflösung bereits nur noch ca. 10% (1440p beim 99.8%) und bei 2160p sind es 17%. Bei beiden Auflösungen kann sich die Super um 5% im Mittel von der FE absetzten. Dabei hat die Super ein höheres Energiebudget, dazu 4% mehr Shader und 10% mehr Speicherbandbreite.

Das spricht nicht unbedingt dafür, dass der TU104 ein Bandbreitenproblem hat. Wäre aber sich interessant zu sehen, in wie der Chip wirklich noch von mehr Bandbreite profitiert, aber ich denke, dass am Ende die Effizienz im Arsch ist.
 
Chismon schrieb:
Bietet nVidia aktuell RTX 2080Ti Niveau fuer um die 500 Euro? Nein, leider extrem weit gefehlt; wieso legst Du diese Massstaebe jetzt oder fuer die Zukunft an AMD/RTG an und nicht etwa an nVidia, die fuer die ganze Preistreiberei in den letzten Jahren bei den GPUs hauptverantwortlich sind?
Darum geht es hier doch gar nicht, schau Dir mal die Postings davor an. :rolleyes: Jemand will erst umrüsten, wenn es eine 2080TI-Leistung für 500 € gibt. Wir haben sowas - wie Du es richtig bemerkst - nicht! Und alles was ich sage ist eine Feststellung, daß wenn die Steigerungen wie bisher in den letzten 5 Jahren waren, wir schlichtweg in 5 Jahren mitnichten eine solche Karte für 500 € haben werden, weder von Nvidia noch von AMD. Seit Pascal gehen die Preise höher, aber die Leistung steigt nicht entsprechend. Jetzt verstanden?
 
ralf1848 schrieb:
Die Spiele machen den RAM nicht "voll". Die Spiele Engines sind so konstruiert, das sie versuchen soviel Ram wie möglich zu nutzen.

Kann man schön in SOTTR sehen. Die alte 2060 füllt knapp 6 GB in WQHD, die 2070 füllt knapp 8 GB in gleichem Szenario.

Die Frametimes sind dann zwar auf der 2070 geringfügig besser, aber das ist eher mess-denn fühlbar !

Dieser "Fehler" wird in der Betrachtung oft gemacht, was natürlich nicht heißt das es nicht auch Spiele gibt wo 6 GB knapp werden.
der fehler liegt höchstens (mal wieder) in meiner Formulierung. es ist mir oft nicht bewusst, dass sich hier im Forum soviele an Kleinigkeiten aufhängen....
viele hier haben Resident Evil 2 Remake wahrscheinlich gespielt und wissen genau wie das spiel aussieht und tickt. der RAM wird nicht voll gemacht indem das Spiel 4 GB und dann noch 4 GB usw. nachlädt bis nix mehr geht. das Spiel braucht in 4K Auflösung mit Ultra Settings in manchen Situationen tatsächlich bis zu 14 GB VRAM. die 11 GB der GTX 1080TI werden also sehr schnell voll. man sieht an der Anzeige für die RAM Belegung, dass der Speicher mal mehr mal weniger gebraucht wird. ich habe das Spiel auch mit einer Radeon VII gespielt und bei der Karte werden manchmal 12-13 GB von den verfügbaren 16 GB VRAM belegt. ich bin mir eigentlich sicher, dass ihr das alles schon gewusst habt. zu dem Spiel gibts hier einen Test und einen 16 Seiten langen Thread.
https://www.computerbase.de/2019-01/resident-evil-2-test-benchmark/
 
Vitali.Metzger schrieb:
Starke Leistung was das OC angeht, aber mit 11 GB VRAM würde sie noch besser da stehen.
Aber wie kriegt man 11GB an 256 bit?

Zu der ganzen Diskussion, wie weit und seit wann AMD zurück liegt:

Ich denke, dass man erstmals mit Kepler in Rückstand geraten ist, ansonsten hätte man die Titan (der eigentliche Konkurrent der 7970) nicht für 1000€ verkaufen können.

Aufholen konnte man das erst mit der 290x.Diese Karte war dann meiner Meinung nach auch die letzte wirklich konkurrenzfähige High End Karte von AMD.

Mit Maxwell konnte man dann auch in der Mittelklasse erheblich bessere Perf/Watt liefern, als AMD mit dem Refresh der 290er.
Ab da hinkt AMD was Perf/Watt angeht 1 Gen hinterher.

Ab Pascal liegt man dann auch rein auf die Leistung des Topmodells bezogen 1 Gen hinten.
Das ist bis heute so, eine 1080 = 5700 Perf/Watt und 2070(s) = 5700xt leistungsmäßig.
Das Turing sich nicht gut absetzen kann liegt daran, dass man unbedingt den Chip so aufblasen wollte für RT. Wie sich das bei AMD auswirkt, müssen wir noch sehen.
Es kann gut möglich sein, dass RDNA2 keine Perf/Watt Steigerung schafft.
 
PHuV schrieb:
Sorry, spätestens hier steige ich jetzt aus, weil das was Du da so viel schreibst in vielen Punkten so nicht stimmt.
bis hier hin hasst du aber wirklich viel geduld gezeigt!
nach 15 jahre 3dc forum hab ich hater abgeschrieben.
 
  • Gefällt mir
Reaktionen: PHuV
Teralios schrieb:
Jetzt kommen wir aber zu etwas sehr interessantem: AMD schafft es durch die Restrukturierung ihrer Shader-Blöcke die IPC soweit zu steigern, ein Shaderblock von AMD mit den aktuellen Turning-Shaderblöcken konkurrieren kann UND dass, obwohl ein Turning-Shaderblock sowohl 64 FP32-Berechnungen und gleichzeitig 64 INT32-Berechnungen durchführen kann.

Das heißt, dass die RTX 2070 aktuell primär nur aus einem Grund schneller ist als die 5700: Sie kann höher takten.
Dabei darf man allerdings nicht Vergessen, dass die Restrukturierung der Shaderblöcke und der mögliche Maximaltakt einer Architektur ja systemimmanent ist.

Das Gesamtkonstrukt und der Einfluss eines jeden einzelnen "Gewerks" auf dem Chip macht die Endkomposition aus.
Da findet meines Erachtens auch immer ein Denkfehler statt, der sich eigentlich seit der Netburst Architektur in den Köpfen aller Technikinteressierter in Wohlgefallen hätte auflösen müssen.

Es ist eben technisch nicht zielführend, Einzelattribute von z.B. Grafikkarten oder Prozessoren gegeneinander zu stellen.

Was nützt es mir zu wissen, dass die eine Architektur der anderen Architektur in der IPC überlegen ist?
Was bringt es mir, dass ein Prozessor auf 7 GHz takten kann, wenn die IPC nicht stimmt?

In der Praxis ergeben sich die IPC Sprünge ja gerade aus den Veränderungen an den Pipelines/Stages, welche aber wieder UNTRENNBAR eine Auswirkung auf die Taktfreudigkeit einer Architektur haben.
Auch die Skalierbarkeit einer Architektur spielt da rein.
So ist es nicht selbstverständlich, dass große Chips, wie Turing einfach so funktionieren, wie sie funktionieren, da ab einem gewissen Punkt Signallaufzeiten/Latenzen eine immer größere Rolle spielen.

Man kann also nicht hingehen, wie es viele immer tun und sagen: Die IPC stimmt, jetzt muss man es "nur noch" höher Takten und "nur noch" mehr Shaderblöcke auf den Chip quetschen.
Wie wir seit Jahren sehen können, ist es auch ein Irrtum anzunehmen, dass Shrinks automatisch zu höheren Taktraten führen.

Anders wird also ein Schuh draus und das zeigt auch schnell die Grenzen der Architekturen der Fertigungen auf. Die IPC stimmt oft nur deshalb, WEIL man nicht so hoch taktet und sich nur mit einem kleineren Die bzw. nicht so vielen Rechenwerken arrangieren muss.

Das nur mal so zum drüber nachdenken.

LG
Zero
 
  • Gefällt mir
Reaktionen: Oneplusfan, Fraggball und ZeroStrat
Es ist ja sogar so, dass zusätzliche Transistoren dafür eingesetzt werden müssen, allein dafür, um höhere Taktraten zu erreichen, was sozusagen zur einer überproportional steigenden Verlustleistung führt. Eigentlich verrückt...

@ZeroZerp Meinst du wirklich, dass Signallaufzeiten schon bei 2GHz eine Rolle spielen?
 
  • Gefällt mir
Reaktionen: .Sentinel.
Herdware schrieb:
Warum billigerer Kühler? Ist doch genau der selbe FE-Kühler wie beim alten Modell, oder?

Ja hab mich vertan hab irgendwie gedacht der Lüfter sei kleiner geworden wohl ein Bild mit 2060 mit dem kürzeren Lüfter falsch zu geordnet, mein Fehler...
 
Jens1882 schrieb:
bis hier hin hasst du aber wirklich viel geduld gezeigt!
nach 15 jahre 3dc forum hab ich hater abgeschrieben.
Dann bin ich ja froh, daß ich wohl nicht der einzige hier bin, der das so sieht. Keine Frage, jeder übersieht mal was oder macht Fehler, und wenn man sehr viel in verschiedenen Medien liest, verwechselt man sicher auch mal was, so wie ich mit den 7mn. Aber das manche so verzerrt die Realität wahrnehmen erstaunt mich immer wieder. Ich mach doch auch nichts anderes als mir die Balken anschauen und den Text lesen.
 
Zurück
Oben