News AMD-Gerüchte: „Big Navi“ angeblich zu klein und Zehn-Kern-Zen-3

Adzz schrieb:
Nvidia plant den counter
Ich glaube gar nicht, dass da noch ein Konter kommt. Die Launches liegen schon soooo dicht zusammen. Beide dürften auch jetzt schon relativ genau wissen, was der andere Hardware-mäßig zu bieten hat. Die Welt ist zu klein, und jeder kennt einen "Schwippschwager eines Cousins", der mal was erzählt hat...

Meine Erwartung ist, dass beide gute Angebote machen werden und sich gut einrichten können.

Blutschlumpf schrieb:
Habt ihr den Blick für die Realität etwas verloren?
500 Tacken für ne Grafikkarte kann man mit allem möglichen beschreiben, aber definitiv nicht mit dem Wort "nur".
Was den Realismus angeht, ohne dabei abzuheben, hast du wohl Recht.
Die Sache ist nur, dass wir über Navi 21 reden, also den größten Chip. Dafür wären 500 € im Vergleich wirklich wenig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nurfbold
Adzz schrieb:
Das weißt du doch gar nicht ob es um 50% gesteigert wurde. Würde nicht so viel auf AMDs eigene Aussagen geben. Es wurde kein Shrink vollzogen, darum würde es mich schon sehr wundern.
Die 50% Perf/Watt die von GCN zu RDNA1 angegeben wurden(anhand des Vergleichs von Navi zu einer Vega64), wurden exakt so eingehalten, teilweise sogar übertroffen.

Aus dem CB Test
5700 vs Vega56 = +49%
5700XT vs Vega64 = +63% (Das war der Vergleich bei dem AMD auf 50% kam)
5700 vs Vega64 = +74%

Ich sehe also keinen Grund, der Ansage über erneute +50% Perf/Watt von RDNA1 zu RDNA2 keinen Glauben zu schenken. RDNA2 soll sich auf Architekturbasis ja deutlich von RDNA1 unterscheiden und der Sprung von 7nm auf 7nm+ ist auf dem Papier durch EUV auch nicht soooo viel kleiner als der von 14nm auf 7nm.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strikerking, KlaraElfer, Colindo und 2 andere
Adzz schrieb:
Das weißt du doch gar nicht ob es um 50% gesteigert wurde.
Schau mal in die Vergangenheit. Nicht wie Volker Rißka bis zum 2. Weltkrieg, sondern in die jüngere Vergangenheit mit der aktuellen Führung. Dann weißt du, dass ihre Angaben recht gut stimmen werden.

RDNA2 soll ja auch Compute-Bestandteile weglassen können, die nur für CDNA gebraucht wurden. Deren Fläche und Ressourcen werden auch frei. Neben der deutlich überholten Architektur, der verbesserten 7 nm-Fertigung usw.
 
Zuletzt bearbeitet:
Ich warte natürlich auch auf AMD´s Antwort mit dem nächsten Zen, aber ich hoffe ebend auch das man sich nicht nur im die Hardware bemüht sondern auch um den Treiber, einen stabilen ohne jeglichen Bloat der nur den reinen Treiber beinhaltet wäre ein Vorteil gegenüber Nvidia wo man sich jedesmal selbst einen entschlackten erstellen muss, oder aus dem guru3d Forum einen sauberen saugen. Wieso sollten Hersteller nicht einmal von sich aus den reinen Treiber anbieten. Wenn dem nicht so ist warte ich ebend weiter auf 30xx ti.
 
HAse_ONE schrieb:
Artikel lesen? lol wo kommen wir denn da hin? In der Überschrift steht AMD = schlecht, also wird sofort losschwadroniert. Hurr durr wir wussten es alle AMD kann nix bla blub.

CB halt eine Nvidia Hochburg. Schon immer gewesen. Wolfgang auch sehr pro NV.
 
dec7 schrieb:
Ich warte natürlich auch auf AMD´s Antwort mit dem nächsten Zen
Da fällt mir gerade erst wieder ein, dass es im Artikel auch um Zen3 geht, in den Kommentaren findet man das hier kaum, vermutlich, weil man sich hier recht einig ist, dass Zen3 gut wird^^
 
  • Gefällt mir
Reaktionen: bad_sign, Cpt.Willard, .Sentinel. und eine weitere Person
Blutschlumpf schrieb:
Habt ihr den Blick für die Realität etwas verloren?
500 Tacken für ne Grafikkarte kann man mit allem möglichen beschreiben, aber definitiv nicht mit dem Wort "nur".

Das haben die Meisten wenn du dir mal die ganzen News zu den neuen Nvidia Karten anschaust.

Für viele sind z. B. die 500€ und mehr für die 3070 günstig oder vom P/L her sehr gut.

Und das nur weil Nvidia in den letzten Jahren immer weiter die Preise erhöht hat.

Ich betone es immer wieder, die GTX970 gab es früher zu Release für 330€,die 980 kostete 530€...
 
Windell schrieb:
Ich betone es immer wieder, die GTX970 gab es früher zu Release für 330€,die 980 kostete 530€...
Erstmal den jeweiligen Euro-Dollar Kurs rausnehmen und die reine UVP in Dollar vergleichen.
Die 980 kam für $549 und hatte im Gegensatz zut 3080 eben nicht den großen 02 Chip sondern hat sich den kleineren 04 mit der 970 geteilt, die eine beschnittene Variante davon hatte.

Die 3070 hat jetzt den Vollausbau des 04er chips, wie die 980 damals und kommt für $499
 
Taxxor schrieb:
Erstmal den jeweiligen Euro-Dollar Kurs rausnehmen und die reine UVP in Dollar vergleichen.
Die 980 kam für $549 und hatte im Gegensatz zut 3080 eben nicht den großen 02 Chip sondern hat sich den kleineren 04 mit der 970 geteilt, die eine beschnittene Variante davon hatte.

Die 3070 hat jetzt den Vollausbau des 04er chips, wie die 980 damals und kommt für $499
Heißt also du findest die Preise momentan angemessen?
 
Windell schrieb:
Heißt also du findest die Preise momentan angemessen?
Jap, in der Tat, die 980 würde heute Inflationsbereinigt $579 kosten und wie gesagt den Vollausbau des kleineren und schwächeren Chip nutzen, den man jetzt in der 3070 für $499 bekommt.
Die 3080 nutzt den beschnittenen Big Chip, wie die 980Ti auch, die Inflationsbereinigt heute für $685 kommen würde.

Wie @HaZweiOh bereits erwähnt hat, man muss auch auf den Chip schauen der dahinter steckt, anstatt nur auf den Namen.
Hätte man die Aufteilung von Turing beibehalten würde die 3080 jetzt eben 3080Ti heißen(beschnittener 102) und die 3070 würde man 3080 nennen(Vollausbau 104) und die normalen 30-40% Mehrleistung wären auch zum Vorgänger gegeben.

Denn wie die Karte am Ende heißt, kann mir egal sein, was zählt ist die Mehrleistung die ich fürs Geld bekomme, und die 3080 steht hier wohl fast soweit über einer 2080, wie es die 2080Ti über der 1080 war.
 
Zuletzt bearbeitet:
Einfach abwarten, bis die finalen Produkte vorgestellt und getestet worden sind, dann kann man sich ein Urteil bilden. Unfundierte Meinungen nach Bauchgefühl sind wenig hilfreich.

Blackfirehawk schrieb:
meine einschätzung dazu ist im moment folgende..
5700xt x2

= 250w x2 =500watt
Nur "leicht" verschätzt. Die 5700XT benötigt im Betrieb, zumindest laut Test von CB, 210 Watt. Davon zieht man den Leistungsbedarf der Lüfter, der Speicherchips sowie die Verlustleistung der Spannungswandler ab. Die GPU der 5700XT weist eine TDP von 180 Watt auf. Eine geeignetere Abschätzung sähe somit folgendermaßen aus: 2 * 180Watt * 0,66 [+50% Perf/W] * 0,95 [Verbesserte Lithographie/Implementierung]. Kurz mit Kopfrechnen überschlagen sind das ungefähr 225 Watt für eine GPU mit 80 CU. Mit Speicherbestückung, SpaWa und Lüfter käme man damit Pi*Daumen auf 275 Watt für die gesamte Grafikkarte. Selbst diese Abschätzung hat den Charakter einer Milchmädchenrechnung, weil wir keine Kenntnisse über RDNA2@GFX1030 haben und immer noch unbekannt ist, welchen Fertigungsprozess AMD für die neuen GPUs nutzen wird (TSMC N7P oder N7+). Die 2080Ti sowie die 3070 sind keine Gegner für "Big Navi".
 
  • Gefällt mir
Reaktionen: Colindo
Iapetus schrieb:
Unfundierte Meinungen nach Bauchgefühl sind wenig hilfreich.
Aber ohne Spekulatius hält man es ja nicht bis zu den Tests aus^^
Zumal es auch nicht alles unfundiert ist, du rechnest es ja selbst vor.
 
  • Gefällt mir
Reaktionen: bad_sign und MrNejo
Taxxor schrieb:
Die 50% Perf/Watt die von GCN zu RDNA1 angegeben wurden(anhand des Vergleichs von Navi zu einer Vega64), wurden exakt so eingehalten, teilweise sogar übertroffen.
Aus dem CB Test
5700 vs Vega56 = +49%
5700XT vs Vega64 = +63% (Das war der Vergleich bei dem AMD auf 50% kam)
5700 vs Vega64 = +74%

Und wie viel ist davon auf die Architektur zurückzuführen? Dass hier der Sprung von 14nm auf 7nm inkludiert ist hast du ja mal eben übergangen.
Beinhaltet der angekündigte Effizienzsprung von RDNA1 auf RDNA2 auch Gewinne durch die Fertigung oder alleine durch die Architektur?
 
Ratterkiste schrieb:
Und wie viel ist davon auf die Architektur zurückzuführen? Dass hier der Sprung von 14nm auf 7nm inkludiert ist hast du ja mal eben übergangen.
Wo habe ich das übergangen? Ich spreche doch explizit von Vega64 vs 5700XT.

Ratterkiste schrieb:
Beinhaltet der angekündigte Effizienzsprung von RDNA1 auf RDNA2 auch Gewinne durch die Fertigung oder alleine durch die Architektur?
Er galt bei GCN vs RDNA für den konkreten Vergleich Vega64 vs 5700XT und er wird für RDNA1 vs RDNA2 daher zu 99% ebenfalls wieder für den konkreten Vergleich 5700XT vs 6XXX gelten.

Der Anteil der Fertigung wird hierbei etwas kleiner ausfallen, dafür eben der Anteil der Architektur höher.

Und zu deiner Frage oben, wie man hier sieht, war der Anteil des Prozesses selbst bei 14 vs 7nm gar nicht mal so groß, für RDNA2 kommen dann vmtl 80% von der Architektur und nur noch 20% vom Prozess, statt den 30% bei RDNA1
Navi-Slide-21.jpg
 
  • Gefällt mir
Reaktionen: Colindo und Strikerking
Schön, die meisten Milchmädchenrechnungen die ich hier gelesen habe träumen von 50% durch die Architektur und zusätzlich dazu noch weitere Effizienzgewinne durch die Fertigung. Halten wir also fest: das ist mal wieder reines Wunschdenken.
 
  • Gefällt mir
Reaktionen: Colindo und Dural
Ratterkiste schrieb:
die meisten Milchmädchenrechnungen die ich hier gelesen habe träumen von 50% durch die Architektur und zusätzlich dazu noch weitere Effizienzgewinne durch die Fertigung.
Hab ich jetzt hier noch nicht wirklich gesehen.

Im Gegenteil, viele der Milchmädchenrechnungen nehmen ja die 50% Perf/Watt und machen daraus erstmal weniger Leistungsaufnahme bei gleicher Performance. Da die Angabe aber immer einen Mittelweg aus Leistung und Verbrauch beschreibt, wären es bei gleicher Leistung deutlich weniger Verbrauch.

Hau mal eine 5700XT im Takt soweit runter, dass du auf die Performance der Vega64 kommst, dann braucht die Karte vielleicht noch 150W vs den 300W der Vega und du hättest direkt +100% Perf/Watt.
 
  • Gefällt mir
Reaktionen: Colindo
Taxxor schrieb:
Hätte man die Aufteilung von Turing beibehalten würde die 3080 jetzt eben 3080Ti heißen und die 3070 würde man 3080 nennen
Das bringt mich auf den Gedanken: Wenn man Nvidias Angaben nimmt und die 3070 ca. so schnell ist wie die 2080ti ist, dann ist die 3070 in dieser Gen eigentlich ziemlich genau das was die 2080 bei Turing war (leicht beschnittener 04er Chip). 80ti Leistung mit 8GB VRAM und das füttert irgendwie meinen Gedanken das AMD eben auch eine Stufe höher konkurriert (Navi 1 ca. auf 70er Niveau und Navi 2 nun eventuell auf 80er Niveau). Aber wir werden sehen, entweder AMD hat ein ganz heißes Eisen und eben Vega 2.0 (welches ja immerhin auch heißes Metall hatte) im Ofen. Man sollte einfach die Erwartungen niedrig halten, dann kann man nur überrascht werden.
 
Taxxor schrieb:
Denn wie die Karte am Ende heißt, kann mir egal sein, was zählt ist die Mehrleistung die ich fürs Geld bekomme, und die 3080 steht hier wohl fast soweit über einer 2080, wie es die 2080Ti über der 1080 war.

Also wenn ich Mehrleistung mit immer mehr Geld bezahlen muss,ist das kein Fortschritt für mich.

Weil wenn es so weitergeht zahle ich dann paar Jahren 2000€ für die TOP Karte oder wie?
 
Windell schrieb:
Also wenn ich Mehrleistung mit immer mehr Geld bezahlen muss,ist das kein Fortschritt für mich.

Weil wenn es so weitergeht zahle ich dann paar Jahren 2000€ für die TOP Karte oder wie?
Wie kommst du darauf? Du bekommst doch mit der 3080 ~75% Mehrleistung fürs gleiche Geld und selbst im Vergleich mit der 2080Ti noch ~40% Mehrleistung für deutlich weniger.

Auf Maxwell zurückgerechnet hättest du statt einer 550€ 980 heute eine 500€ 3070 mit ca 170% Mehrleistung
 
Zurück
Oben