Test GeForce RTX 2080 Super im Test: In allen Belangen gut, aber nicht super

Chismon schrieb:
Da hast Du eleganter Weise Deine Prognose heraus gelassen, dass AMD/RTG in den kommenden 5+ Jahren nichts entgegen zu setzen haben soll, was ich (bestimmt nicht als einziger) als Märchenstunde empfunden habe, denn auf Mutmaßungen oder Wunschdenken kann sich das stützen aber mit Sicherheit nicht auf Fakten oder kannst Du Jahre in die Zukunft blicken?
Das nicht, aber man kann sehr wohl Abschätzungen machen. Ich wette mit Dir und anderen, daß es AMD bis 2024 nicht schafft, eine Grafikkarte vergleichbar wie die 2080 IT für 500 € rauszubringen.
Chismon schrieb:
Gut, da hätten wir in 5 Jahren 2024 und höchstwahrscheinlich schon 5nm Fertigung, so dass Du mit optimierter 14nm (aka 12nm) Fertigung einer RTX 2080Ti trotz aller Optimierung der Architektur (die natürlich auch Grenzen hat) alt aussehen dürftest.
Du hast mitbekommen, das es bei vielen Mitbewerbern wie Intel, TSMC und Co. große Probleme gab und gibt bei der Umstellung auf 7nm Fertigung?
Chismon schrieb:
Des Weiteren reden wir hier von Ober- bis Enthusiastenklasse-GPUs bei denen Effizienz traditionell eine untergeordnete Rolle spielt und schiere Rohleistung vordergründig zählt.

Effizienz ist da "nice to have" aber auch nicht ausschlaggebend und wenn nVidia die Architektur ausgereizt hat, dürfte AMD/RTG weiter aufschliessen, etwa vergleichbar im umgekehrten Fall wie nVidia der Leistung nach auf AMD/RTG bei DX12 und Vulkan mit neuen GPU-Generationen aufschliesst.
Das entscheiden hier weder Du noch ich, sondern der Markt. Und wenn die Effizienz nicht paßt, wird das sehr wohl ein ein entscheidendes Nicht-Kauf-Kritierium werden. Und die jetzige Ober- bis Enthusiastenklasse sollte in 5 Jahren durchaus in die Mittelklasse rutschen.
Chismon schrieb:
Was soll das also, die ganze AMD/RTG Basherei , dass die es ja angeblich eh nicht können (und nie packen werden), auch in 5+ Jahren keine RTX 2080Ti Leistung, auch wenn RDNA1 das m.E. ziemlich eindrucksvoll (besser als von den meisten erwartet, die maximal Leistung zwischen RTX 2060 Vanilla und RTX 2070 Vanilla Niveau prognostiziert haben) widerlegt hat?
Wo wird hier gebashed? Fakt ist, AMD hängt bei der GPU seit ca. 7 Jahren immer hinterher. Gut, bei der CPU haben sie nun endlich mal was konkurrenzfähiges geliefert.
Chismon schrieb:
Du sprichst von "Kindergarten", aber was ist genau das denn und was ist da bitteschön zweckführend an solchen "Wahrsagungen"?
Es ist eine anhand der Vergangenheit gestellte Prognose, daß es in 5 Jahren von AMD keine GK für 500 € mit einer Leistung einer Nvidia 2080TI geben wird. Sie haben es weder bei Maxwall noch bei Pascal und jetzt Turing geschafft. Von Volta sprechen wir erst mal gar nicht. Nochmals, wo ist nun dieses Wunder, daß alles ändern soll?
Chismon schrieb:
Zu guter Letzt sollte man die komplette neue RDNA Architektur - von der wir bisher gerade einmal die erste, noch unausgereifteste Variante präsentiert bekommen haben - m.M.n. nicht schon vorverurteilen/zerreden und unterschätzen, wie das zum Teil hier geschieht von selbsternannten Experten.
Es zerredet niemand hier was. Das mit unausgereifteste Variante hast Du jetzt in den Mund genommen, also bist Du ja der AMD-Basher, nicht ich. ;)

Fakt ist, AMD kommt in der aktuell höchsten Ausbaustufe gerade mal auf ein Niveau einer 2070. Da mag ich nicht so recht an das vielfach beschworene Wunder glauben.
Chismon schrieb:
RDNA könnte evt. ein Kepler Pendant sein und mit der Zeit richtig gut reifen (zumal Compute bewusst hinten angestellt würde). Ich würde an AMDs/RTGs Stelle auch schrittweise die GPUs weiter entwickeln, nVidia macht das ja auch nicht anders, als direkt das ganze Pulver zu verschiessen, nur um auf Teufel komm raus für eine Enthusiastennische Preissenkung für nVidia GPUs zu spielen ... es scheint da hat man dazu gelernt, auch wenn es den Nischennutzern nicht gefällt (die aber eben nicht der Nabel der Welt für das Unternehmen sind).
Auch schon zigmal seit vielen Jahren gehört, AMD könnte (Polaris, Vega, nun Navi)....

Nochmals die Nachfrage, warum gibt es jetzt keinen Navi-Superchip? Allein um Nvidia hier Paroli zu bieten, hätte ich an deren Stelle mal so einen "Superchip" auf den Markt geworfen. Tun sie aber nicht. Und das sind nun mal Fakten, so leid es mir für Dich tut.
 
  • Gefällt mir
Reaktionen: Aduasen, KlaraElfer und Jens1882
dersuperpro1337 schrieb:
5% schneller
15% lauter
3% wärmer
6% mehr Leistungsaufnahme

16% teurer

"Super"
Besser kann man das nicht beschreiben. Die 2080 Super ist letztendlich eine übertaktete 2080, und wie wir es wissen, mehr OC um so exponentieller die negativen Faktoren. Bei AMD kann man dies immer am besten sehen.
 
Bevor man von den großen Navi-Chips nichts weiß, braucht man da auch nicht groß drüber reden. Was bringt das Glaskugelgehabe?

AMD greift im Moment die Leistungsspitze nicht an und bis die großen Chips raus kommen vergeht wohl noch Zeit. Da kann noch viel passieren, auch bei Team Grün...

Meine reine Spekulation:
Wenn AMD 2020 mit den großen Chips mit einer 2 Jahre alten 2080 Ti aufholt, wäre das imho zu wenig. Und da man bei der 5700(XT) das P/L-Verhältnis von nVidia aktuell nur moderat unterbietet, glaube ich auch nicht, dass man 2020 mit den großen Chips so viel günstiger sein wird als eine 2080ti ...
 
Endlich 4K deutlich über 60 FPS ?
 
PHuV schrieb:
Das nicht, aber man kann sehr wohl Abschätzungen machen. Ich wette mit Dir und anderen, daß es AMD bis 2024 nicht schafft, eine Grafikkarte vergleichbar wie die 2080 IT für 500 € rauszubringen.
Ohne es böse zu mein, aber was du hier als auch @Jens1882 schreibt, ist schon harter Tobak, vor allem oder gerade weil hier ihr hier andere als Fanboys diffamiert, selbst aber nur eure Vermutungen äußert, die aber auf keinen belegbaren Fakten basieren, sondern eben auf nichts anderem als Fanboy-Geblubber, das vermutlich gepaart mit maximalem Halbwissen was technische Informatik angeht.

Du kannst zudem noch so sehr behaupten, dass deine Aussagen Fakten sind, es wird aber nicht richtiger. Typisches Verhalten, gerade wenn man keine Ahnung von der Materie hat.

PHuV schrieb:
Wo wird hier gebashed? Fakt ist, AMD hängt bei der GPU seit ca. 7 Jahren immer hinterher. Gut, bei der CPU haben sie nun endlich mal was konkurrenzfähiges geliefert.
Na betrachten wir diese Aussage und untermauern sie mit Fakten: 7 Jahre, wäre aktuell also 2013:

Kepler gegen Hawaii, wäre also dieser Test von CB. 290X legt sich im Mittel mit der ersten Titan an, ist dabei etwas ineffizienter. Sie hängen hinterher? Nun, da muss man schon sehr pedantisch sein. Kleinere Hawaiis sind ähnlich effizient die Kepler Pendants.

Natürlich bringt nVidia Anfang 2014 bereits die ersten Maxwell-Chips, aber wirklich große Maxwells kommen auch erst im letzten Drittel des Jahres 2014 auf den Markt. Die Steigerung der Rechenleistung zwischen Kepler und Maxwell kommen daher, dass die Shader umorganisiert werden. Was vorher 192-Shader versorgen musste, ist nun nur noch für 128 zuständig. Maxwell wischt mit Hawaii den Boden, AMD bringt im Sommer 2015 Fury in den Markt, holt eigentlich wieder auf. 5% Unterschied im Mittel bei der Leistung ist relativ gesehen, gerade die Nano zeigt, dass die Fury-Architektur relativ gut in der Effizienz skalieren kann.

2016 bringt nVidia Pascal auf den Markt, die Effizienzsteigerung geht vollständig auf den Fertigungsprozess zurück, die Änderungen zwischen Pascal und Maxwell sind mit der Lupe zu suchen, AMD bringt Polaris raus, Polaris liegt in der Effizienz hinter, was primär daran liegt, dass AMD die eigenen Chips an der Kotzgrenze betreibt, die gewählten Settings sind sehr konservativ. Es zeigt sich gleichzeitig, dass man mit UV auch bei Polaris einiges an der Effizienz schrauben kann. AMD kann ab der 1070 nicht mit halten, Vega verzögert sich.

2017 Vega kommt auf den Markt, Vega konkurriert mit 1070 und 1080, ist durchaus ineffizient, kann aber aufschließen. Was sich bei Polaris bereits zeigte, trifft erneut zu: Vega wird mit konservativen Settings betrieben, mit UV lässt sich die Effizienz in Schlagdistanz zu Pascal treiben. Gleichzeitig zeigt aber aber auch, dass "GCN" in dieser Form eigentlich am Ende ist.

2018: nVidia bringt Turning auf den Markt, Turning reorganisiert die Shader erneut, die Effizienz steigt erneut. AMD kontert Anfang 2019 mit Vega 7, erneut zeigt sich, das UV die Effizienz gut steigern kann, sie legen sich zwischen 2070 und 2080, gleichzeitig zeigt sich, dass Vega 56 und Vega64 ihren ehemaligen Konkurrenten in modernen Spielen nun langsam "davon" ziehen. Was Anfangs ein Rückstand war, wird in neueren Spielen immer mehr zum Vorsprung.

Wenn man nun wirklich alle Fakten betrachtet, liegt AMD seit 2016 eine Klasse zurück, aber ganz sicher nicht seit 7 Jahren. Das ist FAKT

PHuV schrieb:
Sie haben es weder bei Maxwall noch bei Pascal und jetzt Turing geschafft. Von Volta sprechen wir erst mal gar nicht. Nochmals, wo ist nun dieses Wunder, daß alles ändern soll?
Wir sprechen hier nur von Pascal und Turning und auch dann kommt es drauf an, was man wie betrachtet. Hier gibt es ein paar mehr Kennzahlen als die maximale Leistung.

Gehen wir von der reinen Leistungsklasse aus, dann hat AMD aktuell keinen Konkurrenten zu Turning, betrachten wir aber andere Kennzahlen, dann sieht es schon anders aus.

Betrachten wir doch mal die aktuellen direkten Fakten die wir sofort greifen können: Die 5700 und 5700XT bewegen sich auf dem Niveau der Turning-Architektur. Der Korridor für die Effizienteste Navi beläuft sich auf 4% Vorsprung oder 10% Rückstand. Kann man auch hier auf CB durchlesen.

Klar, nVidia hat den Schritt mit 7nm noch vor sich, gleichzeitig nutzt aber nVidia einen speziell auf ihre Architektur zugeschnittenen Prozess von TSMC. Intel hat mit dem 14nm-Prozess gezeigt, was man aus dem Prozess heraus holen kann und dass auch innerhalb einer Prozessklasse durchaus noch Platz für Optimierungen ist. Ich würde hier die 12nm für nVidia von TSMC nicht unbedingt als "schlechter" gegenüber den 7nm-Prozess bezeichnen, gerade wenn man bedenkt, dass nVidia lieber auf die nächste Inkarnation der 7nm wartet, nur steht diese auch AMD zur Verfügung.

Jetzt kommen wir aber zu etwas sehr interessantem: AMD schafft es durch die Restrukturierung ihrer Shader-Blöcke die IPC soweit zu steigern, ein Shaderblock von AMD mit den aktuellen Turning-Shaderblöcken konkurrieren kann UND dass, obwohl ein Turning-Shaderblock sowohl 64 FP32-Berechnungen und gleichzeitig 64 INT32-Berechnungen durchführen kann.

Das heißt, dass die RTX 2070 aktuell primär nur aus einem Grund schneller ist als die 5700: Sie kann höher takten. Das wiederum spricht dafür, dass der spezielle nVidia-Prozess von TSMC durchaus seine Vorzüge hat, was auch erklärt, warum nVidia da doch recht "cool" reagierte.

Im übrigen ist Volta bereits seit Ende 2017 auf den Markt und auch nicht der Konkurrent für Navi. Volta gibt es zwar als Titan V, ist aber eher auf den HPC-Bereich ausgelegt und dort kann Vega wiederum durchaus sowohl von der Effizienz als auch Rechenleistung recht gut mithalten. Im Endeffekt hast du mit dieser Aufzählung gezeigt, dass du von der Materie nicht wirklich etwas verstehst.

Als nächste nVidia "GPU"-Architektur geistert der Codename Ampere herum, nur ob es jetzt wirklich eine Architektur für Grafikberechnung ist oder wieder HPC, wird sich noch zeigen müssen und was Ampere leisten wird, da wird man abwarten müssen.

PHuV schrieb:
Fakt ist, AMD kommt in der aktuell höchsten Ausbaustufe gerade mal auf ein Niveau einer 2070. Da mag ich nicht so recht an das vielfach beschworene Wunder glauben.
Das ist auch der einzige Fakt von den vielen angeblichen Fakten die du als auch Jens1882 hier aufgetischt haben, nur ist dieser Fakt irrelevant.

Betrachtet man alle Kennzahlen - ähnliche IPC, ähnliche Effizienz - und beherrscht etwas Mathematik, kann man hier relativ gut interpolieren. Die GeForce 2070 kann in der Regel ca. 6% höher Takten und oh wunder, wie viel ist sie schneller? 6% im Mittel - Test hier.

Natürlich muss man sich mal mit den wirklichen Fakten beschäftigen, statt einfach nur stumpf irgend etwas zu behaupten und es dann als Fakten hinzustellen.

PHuV schrieb:
Nochmals die Nachfrage, warum gibt es jetzt keinen Navi-Superchip? Allein um Nvidia hier Paroli zu bieten, hätte ich an deren Stelle mal so einen "Superchip" auf den Markt geworfen.
Weil es für AMD in der aktuellen Situation wirtschaftlich nicht relevant ist mit einer 2080 oder 2080TI zu konkurrieren, da die meisten Nutzer in der Regel nicht dazu bereit sind mehr als 500€ für eine Grafikkarte auszugeben und man im Bereich um die 200 - 400€ weit mehr Nutzer abholt.

Die 2080 oder 2080Ti zu schlagen wäre für AMD maximal ein Prestige-Sieg, würde aber Ressourcen binden und AMD ist aktuell gerade erst auf dem Weg der Erhohlung.

PHuV schrieb:
Tun sie aber nicht. Und das sind nun mal Fakten, so leid es mir für Dich tut.
So leid es mir für dich tut, aber alles was du hier verzapft hast, hat weder Hand noch Fuß gehabt und deine angeblichen Fakten sind nur deine Meinung gewesen.

Wie geschrieben: Wenn du andere als Fanboys diffamieren willst, solltest du es wirklich mit faktisch richtigen Argumenten tun, statt mit gefühlten Fakten, die eigentlich keine Fakten sind.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Thraker, Chismon, McTheRipper und 7 andere
Wegen solchen Preisen werde ich meinen Rechner nicht mehr aufrüsten. Bis 1080p und teils 1440p sind die Preise fair aber wenn man in Richtung 4k geht, werden die Preise einfach nur utopisch. Ich warte auf die PS5 und werde 4k Spiele nur damit abspielen. Schade, dass die Hardwarehersteller den Markt in diesem Leistungssegment für mich killen.
 
@lio da wird auch kein natives 4K laufen.
WQHD tuts doch auch?

In ein paar Jahren wird dann auch 4K interessanter oder man lebt jetzt mit weniger Details.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
lio schrieb:
Bis 1080p und teils 1440p sind die Preise fair aber wenn man in Richtung 4k geht, werden die Preise einfach nur utopisch.
Ja, das kann man so sehen, mir tut das auch weh, jedoch muss man bei der Perspektive eines berücksichtigen.
Das 4kBild ist mal eben 8x Fhd so groß wie bei Fhd, da braucht es einfach brachiale Leistung und es war immer so, dass non-mainstream eben auch viel mehr kostet, leider. Wenn 4k Standard ist, dann wird es auch Einsteiger- und Mainstreamkarten zu entsprechenden Preisen geben.
Das dauert aber halt noch.
 
Wohin mit den Preisen Nvidia?

Ihr jagt noch die letzten PC Verfechter vom Hof.

Kein Wunder dass der PC Markt ständig schrumpft und die Leute zum Preis einer GPU lieber 2 Konsolen holen.

Selbst als PC Fan kann ich die Abwanderung mittlerweile verstehen 🤮
 
  • Gefällt mir
Reaktionen: Vitec, Chismon und Zitterrochen
Smartin schrieb:
Was ist daran glaubwürdig? Der Test suggeriert, dass die 5700XT stock 3% vor der 2070 Super Custom liegt. Und das ist Quatsch. Allein schon so zu testen, dass am Ende ein verfälschtes Ergebnis rauskommt, ist fragwürdig. Früher hat man theoretische Benchmarks genommen und die Hersteller ihre Treiber auf die Benches hin manipuliert, teilweise die Settings runtergefahren, um einen möglichst hohen Wert zu erreichen. Seiten haben die Spiele getestet, die AMD optimiert oder NVidia-optimiert sind, je nach gusto. Eigentlich habe ich gedacht, wir haben diese Zeiten hinter uns. Entscheidend ist, was im Spiel bei raus kommt, denn das entscheidet darüber, ob das Game ruckelt oder nicht.
Auch wenn man sich den Rest des Vergleiches anschaut, gehört der eigentlich nur in die Tonne, weil die Hälfte der Ergebnisse damit mitverfälscht werden (zB Value, Bewertung, etc). Auf den Vergleich gebe ich nichts
Die Seite bietet ein Programm man, dass du runterladen bzw direkt ausführen kannst. Die Ergebnisse können hochgeladen werden.
Dementsprechend sind sie natürlich nicht mit "Labortests" vergleichbar, das weiss man aber auch, wenn man den Namen der Seite
nicht komplett ignoriert... Was soll daran unglaubwürdig sein? Wenn aus einem Schwarm von Usern eine Karte gemittelt
in einem bestimmten Bench schneller ist als eine Andere, warum denn nicht? Wenn man überall nur "FPS" reinliest, obwohl
das da gar nicht steht oder nicht versteht, dass "Value % Sentiment" nicht einfach erfunden werden, dann sollte man
vielleicht keine englischsprachige Seite nutzen für solche Informationen. Für FPS gibt es übrigens einen eigenen Abschnitt,
bei neuen Karten muss man natürlich warten, bis die USER diese auch gekauft und mal getestet haben.
Bei CB beschwert sich ja auch keiner dass die Vega 64 gar nicht um Längen schneller ist
als die 1080TI (nach Blick auf der Tabelle mit dem Stromverbrauch)...
 
  • Gefällt mir
Reaktionen: Arcamemnon
bensen schrieb:
Welche sind denn das? Außer der 1080Ti fällt mir in dem Preisbereich nichts ein.
die 1080TI habe ich gemeint, aber wenn es dir nicht reicht, gibts noch seit dem 7.2.2019 die Radeon VII.
Nvidia hat halt keine Konkurrenz. Wozu sollten sie dann den RAM verdoppeln?

Die einzige Karte mit halbwegs passendem VRAM war die 2070 und 1660. Bei dem Preis einer 2080 ist das schlicht zu wenig. Gleiches bei der 2060.
Die 2080Ti hat genug, sähe aber blöd aus wenn eine 2080 16 gehabt hätte. Also haben sie überall auf Sparflamme gekocht.
keiner sagt, dass der RAM verdoppelt werden muss. es sollen nur nicht weniger sein als bei einer bereits seit jahren existierenden, ähnlich schnellen Karte. der Kundenkreis für Enthusiastenhardware ist wie wir wissen vergleichbar mit dem Mainstream Segment nicht wirklich groß und ein großer teil der Käufer sitzt gerade auf einer 1080TI und versteht die welt nicht. wieso soll man sich eine Karte mit einer ähnlichen Leistung, aber mit weniger RAM kaufen? seihen wir mal ehrlich. gäbe es eine RTX 2080 Super mit 8 GB und eine RTX Super Duper Deadpool 2 Edition mit 11 GB RAM, hätten 90% der RTX 2080 Käufer zu der 11 GB variante gegriffen und die restlichen 10% hätte man in den Foren ausgelacht weil sie sich auf einen schlechten Deal eingelassen haben. im moment gibt es diese wahl aber nicht, also was tun? richtig. in den Foren die 8 GB schön reden. was haben wir in diesem Thread nicht schon alles gehabt....
  • eigene Ansprüche auf die Hardware zählen nicht, denn das wiederspricht irgendwie den Testberichten 8 GB reichen.
  • 4K Mods zählen nicht. frag mich nicht wieso. 8 GB reichen
  • Games, die in 4K auflösung mit Ultra Settings den RAM voll machen können zählen nicht. angeblich ist das Spiel dann schlicht und ergreifend schlecht programmiert. 8 GB reichen.
  • mein beispiel mit den RTX 2060 ist angeblich BS und ich muss aus irgendeinem grund das Fazit der CB Redaktion lesen. lol
  • und jetzt gehts um den vergleich mit der 1080TI. kein plan was hier jetzt wieder nicht stimmt.
ernsthaft, wo soll das alles uns noch hinführen?
Beim Nachfolger wirds garantiert verdoppelt. Alleine schon weil auch AMD, wenn sie was über den 5700 bringen entsprechend ausstatten werden.
oh ja und darauf warte ich nur. der Thread zu den neuen Karten wird legen.... warte.... :D

Edit: ....där, legendär! :D
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Cpt.Willard
DerHechtangler schrieb:
Die werden trotzdem gekauft wie blöde...

vorallem wenn man sich die Preis Leistungs Diagramme ankuckt .... man wird von Nvidia wie immer von vorne bis hinten beschissen .....

Vitali.Metzger schrieb:
Wenn es die 2080ti Leistung für 500€ gibt, dann kommt für mich auch wieder ein Upgrade in Frage. Mal sehen wie der Markt so aussehen wird wenn die neuen Konsolen draußen sind.

da kannste aber lange waren solange Nvidia einen Vorteil (wie auch immer der gewonnen wird hust gameworks hust) in Games hat.
 
  • Gefällt mir
Reaktionen: Chismon
Teralios schrieb:
Ohne es böse zu mein, aber was du hier als auch @Jens1882 schreibt, ist schon harter Tobak, vor allem oder gerade weil hier ihr hier andere als Fanboys diffamiert, selbst aber nur eure Vermutungen äußert, die aber auf keinen belegbaren Fakten basieren, sondern eben auf nichts anderem als Fanboy-Geblubber, das vermutlich gepaart mit maximalem Halbwissen was technische Informatik angeht.
Na klar, Du bist der Top-Informatiker hier, prust, wenn Du wüßtest.
Teralios schrieb:
Na betrachten wir diese Aussage und untermauern sie mit Fakten: 7 Jahre, wäre aktuell also 2013:

Kepler gegen Hawaii, wäre also dieser Test von CB. 290X legt sich im Mittel mit der ersten Titan an, ist dabei etwas ineffizienter. Sie hängen hinterher? Nun, da muss man schon sehr pedantisch sein. Kleinere Hawaiis sind ähnlich effizient die Kepler Pendants.
Und hier fängt es schon mal an, typisch reines Cherry-Picking, wie man so schön. Ja, die Performance der 290X war allein gesehen in Ordnung. Jedoch sollte man hier das Gesamtpaket bzw. das gesamte Erscheindungsbild anschauen. Dann schau Dir mal schön auch alles andere an. Was ist mit der Temperaturentwicklung, Leistungsaufnahme usw. ? Überlesen? Übergangen?
Von der Lautstärke mal ganz zu schweigen.
https://extreme.pcgameshardware.de/grafikkarten/416376-r9-290x-custom-wie-laut-ist-sie-wirklich.html
Ja, ich hatte diesen Krachmacher auch mal kurz, er war nicht überzeugend. Daher ist das wohl ein Punkt, den man so oder so sehen kann, je nach Betrachtungsweise.
Teralios schrieb:
Wenn man nun wirklich alle Fakten betrachtet, liegt AMD seit 2016 eine Klasse zurück, aber ganz sicher nicht seit 7 Jahren. Das ist FAKT
Wenn Du rein auf Performance gehst, kann man das so sehen. Sieht man das Gesamtbild mit allen Faktoren komme ich zu einem anderen Schluß. Daher würde ich hier - trotz Deiner mal ausnahmesweise wirklich guten Argumentation - sagen: Nein! Die Leistung pro Watt war schon vor 7 Jahren bei Nvidia besser, ebenso die Leistungsaufnahme bei diversen Messungen, die Temperatur war bei allen Nvidia-Chips niedriger.
Teralios schrieb:
Wir sprechen hier nur von Pascal und Turning und auch dann kommt es drauf an, was man wie betrachtet. Hier gibt es ein paar mehr Kennzahlen als die maximale Leistung.

Gehen wir von der reinen Leistungsklasse aus, dann hat AMD aktuell keinen Konkurrenten zu Turning, betrachten wir aber andere Kennzahlen, dann sieht es schon anders aus.
Ist ja interessant, daß Du nun genau an dieser Stelle genau das machst, was ich oben aufwerfe. ;)
Teralios schrieb:
Betrachten wir doch mal die aktuellen direkten Fakten die wir sofort greifen können: Die 5700 und 5700XT bewegen sich auf dem Niveau der Turning-Architektur.
Nein, was hast Du hier gelesen? :confused_alt: Siehe Dein Link:
RX 5700 liegt auf Turing-, RX 5700 XT auf Pascal-Niveau

Die GeForce RTX 2060 ist in Full HD nur ein Prozent effizienter als AMDs Navi-Einstieg, der Abstand zur GeForce RTX 2060 Super ist mit fünf Prozent gering. Die Radeon RX 5700 XT schafft es nicht ganz in die Turing-Welt, liegt aber recht nahe dahinter. Die GeForce RTX 2060 Super ist zwölf Prozent effizienter, die GeForce RTX 2070 18 Prozent. Auf Turing-Niveau ist die XT-Karte nicht, an die Pascal-Generation kommt die Grafikkarte aber heran.
Teralios schrieb:
Im übrigen ist Volta bereits seit Ende 2017 auf den Markt und auch nicht der Konkurrent für Navi. Volta gibt es zwar als Titan V, ist aber eher auf den HPC-Bereich ausgelegt und dort kann Vega wiederum durchaus sowohl von der Effizienz als auch Rechenleistung recht gut mithalten. Im Endeffekt hast du mit dieser Aufzählung gezeigt, dass du von der Materie nicht wirklich etwas verstehst.
Du ja auch nicht, siehe Anmerkungen oben. Du liest falsch und interpretierst es so, wie es Dir in den Kram paßt. Bei der 290X gehst Dir nur um die Leistung, und läßt alles andere außer acht. Später willst Du plötzlich alle Faktoren wieder für AMD sprechen lassen. Ja, was denn nun?

Gerade das Volta (und ich habe zu keinem Zeitpunkt was von einer Titan-V gesagt) gegen Vega-Beispiel sieht in der Praxis genau so aus:
https://technical.city/en/video/Radeon-Pro-Vega-64-vs-Quadro-GV100

Advantages of AMD Radeon Pro Vega 64

We are unaware of any advantages of AMD Radeon Pro Vega 64 over NVIDIA Quadro GV100.

Advantages of NVIDIA Quadro GV100
11.8% faster in synthetic tests
Somewhat newer
(27 March 2018 vs 27 June 2017)
Wider memory bus(4096 vs 2048 bit)
More pipelines (5120 vs 4096)
Higher memory bandwidth (870.4 vs 402.4 GB/s)
Finer manufacturing process technology (12 vs 14 nm)
Mag ja sein, daß ich nichts verstehe und von der Materie keine Ahnung habe (die Kollegen werden darüber lachen, wenn ich demnächst wieder mal einen Server für DL-Anwendungen aufsetzen muß), aber ich kann lesen, und da steht klar und deutlich etwas anderes. Habe ich einen Knick in der Optik? Leide ich unter Wahrnehmungstrübung? Wohl nein, da steht ganz klar 11.8% faster.

Das denke ich mir doch nicht alles aus, sondern ich mache vermutlich das gleiche wie Du, ich lese es. Also, wo liege ich hier nun falsch in dem, was ich sagte? Meiner Meinung nach habe ich Dich auch hier klar widerlegt.
Teralios schrieb:
Weil es für AMD in der aktuellen Situation wirtschaftlich nicht relevant ist mit einer 2080 oder 2080TI zu konkurrieren, da die meisten Nutzer in der Regel nicht dazu bereit sind mehr als 500€ für eine Grafikkarte auszugeben und man im Bereich um die 200 - 400€ weit mehr Nutzer abholt.

Die 2080 oder 2080Ti zu schlagen wäre für AMD maximal ein Prestige-Sieg, würde aber Ressourcen binden und AMD ist aktuell gerade erst auf dem Weg der Erhohlung.
Das kann man jetzt auch wieder so oder so betrachten. Du redest jetzt hier die Situation von AMD sehr schön, und das klingt verdächtig nach Fanboygehabe. Du bist hier klar nicht objektiv! Jeder Hersteller wäre saublöd, wenn er nicht den Rahm abschöpfen würde, den Enthusiasten liefern. So funktioniert nun mal Marktwirtschaft, und dem ist AMD wie Nvidia unterworfen. Ich bin hier ganz anderer Meinung, ich glaube schon, daß das Management und die Marketingabteilung es sehr begrüßén würde, wenn AMD etwas auf den Markt werfen könnten, daß in der Gesamtleistung mithält und für sie rentabel ist. Sie können es aber aktuell nicht, warum auch immer. Darüber können Du und ich nur spekulieren, wir kennen beide hier keine Internas.

Fakt ist, es gibt aktuell noch einen gewaltigen Leistungsunterschied, den AMD bisher nicht aufholen konnte, egal was Du jetzt hier - um Deine Worte zu verwenden - verzapfst. Die aufgezählten Optimierungen und Fertigungsprozesse spielen doch gar keine Rolle, es ist wichtig, was am Ende an Performance messbar rauskommt, wie heiß das Ding wird, wieviel es verbrät. Und hier liegt im Gesamtpaket sehr wohl Nvidia seit mehr als 7 Jahre vorne, das zeigen sogar Deine Links, wenn man sie mal komplett durchliest.

Also, wer verzapft jetzt hier was? Und nein, ich bin kein Fanboy von irgendwas mehr, schon lange nicht mehr. Bei mir muß das Zeugs einfach sehr gut laufen, egal ob privat oder auf Arbeit. Wer dann als Hersteller und Label draufsteht ist mir persönlich sowas von egal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jens1882
PHuV schrieb:
Und hier fängt es schon mal an, typisch reines Cherry-Picking, wie man so schön. Ja, die Performance der 290X war allein gesehen in Ordnung. Jedoch sollte man hier das Gesamtpaket bzw. das gesamte Erscheindungsbild anschauen. Dann schau Dir mal schön auch alles andere an. Was ist mit der Temperaturentwicklung, Leistungsaufnahme usw. ? Überlesen? Übergangen?
Von der Lautstärke mal ganz zu schweigen.
https://extreme.pcgameshardware.de/grafikkarten/416376-r9-290x-custom-wie-laut-ist-sie-wirklich.html
Ja, ich hatte diesen Krachmacher auch mal kurz, er war nicht überzeugend. Daher ist das wohl ein Punkt, den man so oder so sehen kann, je nach Betrachtungsweise.
Interessant. Man kann es "so oder so sehen", aber laut dir ist es dann ja doch ein Fakt, dass AMD seit 7 Jahren bei den GPUs hinterherhängt. Irgendwie komplett widersprüchlich, nicht wahr?

Davon ab Frage ich mich vielmehr, warum du Partnerkarten völligst bei der Betrachtung ignorierst. Das sind sowohl bei Nvidia, als auch AMD im Endeffekt die Karten, die von den Kunden gekauft werden. Schneller, leiser, kühler als Referenzbrüllwürfel.

PHuV schrieb:
Also, wer verzapft jetzt hier was?
Das frag ich mich ja insbesondere hier auch: ;)

PHuV schrieb:
Du hast mitbekommen, das es bei vielen Mitbewerbern wie Intel, TSMC und Co. große Probleme gab und gibt bei der Umstellung auf 7nm Fertigung?
1. Die Probleme betreffen Intels 10nm. Wie kommst du auf 7nm?
2. Es gibt weder "große" noch irgendwelche Probleme bei TSMC und 7nm. Im Gegenteil, der 7nm-Prozess von TSMC läuft sehr gut.

TSMC hat erst vor einer Woche die aktuellen Quartalszahlen veröffentlicht (auch hier auf CB Thema gewesen). Zu 7nm:

803408

https://www.tsmc.com/uploadfile/ir/quarterly/2019/2Li3x/E/2Q19PresentationUpload(E).pdf

Oder auch sowas hier:
Ohhh, I have some numbers/yield graphs for this one (albeit from TSMC, not AMD). TSMC reported the fastest D0 reduction ever for their N7. For large dies, TSMC says it's near their 16FF levels and better than their N10, reach near-parity by EoY. #VLSI2019
https://twitter.com/david_schor/status/1145012516616957952

Daher bin ich mal sehr gespannt, welche Quellen du für deine Behauptung hast, dass es große Probleme gab/bzw. es große Probleme bei TSMC 7nm-Prozess gibt.
 
  • Gefällt mir
Reaktionen: Thraker und Chismon
Hatte AMD (nicht ATI) eigentlich je eine Karte auf dem Markt, die in Sachen GAMING, Effizienz, Temperaturen und Lautstärke mit Release-Zeitraum innerhalb 1 Jahr mithalten konnte? Ich denke damit sollte die Diskussionen über mir erledigt sein.
Auch wenn ich es AMD sowie mir wünsche, aber auch 2019 ist das einzig interessante an ihren Karten für mich der RIS Filter. Der Rest ist eher wieder nur übliche kost wo mit dem Preis über die Defizite gegangen wird. Ich sehe das einfach so, das Effizienz, Temp und auch die gebotene Gaming Leistung gegenüber der Konkurrenz (die mehr seit 2017 bietet 1080 ti zB.) auch 2019 hinter her hängt. Und die Sache mit der Preis/Leistung sehe ich auch anders, denn es kommt darauf an wo jeder seine Prioritäten setzt. Ziehe ich jetzt für mich die ganzen Pro und Kontras zusammen, bleibt für AMD einzig RIS stehen. Und im Gesamtpaket sehe ich für das extra an Lautstärke, Temps (die immerhin das gesamte System belasten) und auch den Stromkosten (2070-> 5700xt bei meiner Nutzung =+ ca. 60 Euro/Jahr) zuzüglich der Leistung Nvidia schlicht als günstiger an. Die Spielebundles dabei sogar noch außen vor gelassen. (Limitierter Spielepass vs 2 Spiele unbegrenzt) .... Klar bin ich nicht mit der Preistreiberei und mancher "verarsche" von Nvidia nicht einverstanden. Aber wenn ich dann auch noch in die Bucht schaue, wo 2 Monate alte 2070ér ab 315,- mit Garantie und Customkühlung über den Tisch gehen wo AMD mit noch nicht einer Custom am Markt vertreten ist ... sorry, aber da hat AMD auch definitiv wieder geschlafen. Dabei interessiert es mich als Kunde, der überlegen muss wo er sein Geld investiert auch nicht das AMD doch so viel weniger Entwickler hat.

Wenigstens konnte AMD am CPU Markt was Ryzen. Auch wenn ich mich bei AMD verarscht fühle mit dem PCIe und den ganzen Bioswahnsinn aktuell (von 2600x auf 3600 gewechselt), drücke ich AMD die Daumen. Trotz das ich im Bereich der GK da keine Hoffnung mehr habe.
 
  • Gefällt mir
Reaktionen: Jens1882
dersuperpro1337 schrieb:
5% schneller
15% lauter
3% wärmer
6% mehr Leistungsaufnahme

16% teurer

"Super"
Nailed it.
Man darf Nvidia wirklich wünschen, dass sie genauso von ihrem goldenen Thron auf die Fresse fallen, wie es bei Intel aktuell passiert.
 
  • Gefällt mir
Reaktionen: russianinvasion
Deleo schrieb:
Endlich 4K deutlich über 60 FPS ?

Da das lediglich ein Refresh der alten Karten und keine neue Generation ist (und auch nicht anders angekündigt war) - auf was hast Du denn gewartet?

4K deutlich über 60 FPS wahrscheinlich dann mit der großen Ti der folgenden Volta Generation.... für um die 1.500 Euro ;)
 
Zurück
Oben