News AMD-Gerüchte: „Big Navi“ angeblich zu klein und Zehn-Kern-Zen-3

Taxxor schrieb:
Wie kommst du darauf? Du bekommst doch mit der 3080 ~75% Mehrleistung fürs gleiche Geld und selbst im Vergleich mit der 2080Ti noch ~40% Mehrleistung für deutlich weniger.

Was ich sagen will,das generelle Preisniveau der Karten ist einfach insgesamt gestiegen. Ganz egal wie sie auch heißen.

In paar Jahren dann:

6060: 700€
6070: 900€
6080: 1200€
6090: 1800€

oder wie?
 
Windell schrieb:
Was ich sagen will,das generelle Preisniveau der Karten ist einfach insgesamt gestiegen. Ganz egal wie sie auch heißen.
Und warum schreibst du das ausgerechnet jetzt, wo das Preisniveau mit Ampere wieder deutlich gesunken ist?
Genau so eine Liste mit ähnlichen Zahlen wurde hier schon massig vor der Ampere Vorstellung für die 3000er Karten spekuliert.

Die 3080 ersetzt die 2080Ti und deren 20GB Version, dann evtl auch 3080Ti genannt, dürfte trotzdem unter 1000€ bleiben.
Und die 3090 ersetzt die Titan RTX für deutlich weniger.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., McFritte und MrNejo
Fighter1993 schrieb:
AMD hat gesagt das der Referenzkühler kein Radiator sein wird.
Was war dann in dem Twitter Post zu sehen?

Selbst wenn nicht, wird AMD wohl keinen brauchbaren Kühler hinbekommen.
Wenn ich da daran denke, wie laut meine Radeon VII mit drei Lüftern war. :(
Die auf eine Wasserkühlung umzubauen war ja praktisch Pflicht.
 
Baal Netbeck schrieb:
Was war dann in dem Twitter Post zu sehen?

Ein ganz normaler 2fach Axiallüfter, oder welchen Twitter Post meinst du?
Ich kenne nur dieses Bild
AMD-Radeon-RX-Big-Navi-1-scaled.jpg
 
  • Gefällt mir
Reaktionen: bad_sign
Colindo schrieb:
Ich gehe von genau diesen üblen Effizienzgewinnen aus!
Auch als AMD Zugeneigter halte ich dass jetzt für SEHR optimistisch. Aber okay, hoffe wem Hoffnung gegeben ist, und vielleicht werden wir ja alle überrascht.
 
Ah, naja coreteks halt, das ist doch nichts weiter als ein verzerrtes Bild einer 5700XT
 
  • Gefällt mir
Reaktionen: Colindo, Benji18, Cpt.Willard und 5 andere
Laphonso schrieb:
I'll just leave this here

Und was willst du uns damit sagen?

Deine Grafik bestätigt meine Aussage komplett. nVidia Turing hat sich erst dieses Jahr wirklich gut verkauft, obwohl die Teile mittlerweile ja schon "alt" sind. Es zeigt das es auf dem GPU Markt völlig egal ist, ob nVidia oder AMD zuerst ein paar GPU's auf den Markt bringen.

GPU Leistung wird immer gekauft, in dem moment wo Leistung gebraucht wird. Da ist es für den Käufer völlig Latte ob nun AMD die neue Generation erst einen Monat später bringt als nVidia.

Also danke für die Bestätigung?
 
Hat er es also doch geschafft in Deutschland gleichgesinnte zu finden, der Donald. J. T. Jetzt werden schon aus Gerüchten Fakten ohne wirkliches Wissen. Na dann liebe NV Fans kauft mal am besten gleich 2 grakas von NV. Da AMD ja den NV Fans schon gesteckt hat das sie es nicht bringen werden. Was Marketing so in manchen Köpfen abgehen lässt ist schon krass. Da werden 699€ bis 1499€ als Schnäppchen angesehen und bereitwillig auch gezahlt. Nur mal so es ist nur ein Teil eines PCs. Aber macht mal so wird später das geheule darüber um so unterhaltsamer für mich.
 
Colindo schrieb:
Davon kamen nur etwas mehr als die Hälfte vom 7nm-Shrink, und auch das war mehr als die üblichen +25%, die der Shrink überall sonst hatte. Ich gehe von genau diesen üblen Effizienzgewinnen aus!

RDNA also die 5700XT ist aber bereits in 7nm. Genau der Schrinkvorteil fällt bei RDNA2-Karten weg und die Effizienzsteigerung ist lediglich durch die Architektur zu holen. Wenn also AMD wie üblich bei unter 300 W Leistungsaufnahme bleibt und nicht effizienter als Nvidia ist, werden die Leistungsmäßig unterhalb der 320W RTX 3080 bleiben.
 
Convert schrieb:
RDNA also die 5700XT ist aber bereits in 7nm. Genau der Schrinkvorteil fällt bei RDNA2-Karten weg und die Effizienzsteigerung ist lediglich durch die Architektur zu holen.
Der Vorteil von 7nm zu 7nm+ ist trotzdem da und nicht unerheblich. Von TSMC12 auf Samsung 8 dürfte er nicht wirklich größer sein, ist er ja auch eher mit TSMC10 vergleichbar.

Außerdem, hast du mein Bild weiter oben gesehen?
Auch bei RDNA1 hatte der 7nm Prozess laut AMD schon nur einen Anteil von unter 30% an der Effizienzsteigerung.
 
  • Gefällt mir
Reaktionen: Colindo
Taxxor schrieb:
Auch bei RDNA1 hatte der 7nm Prozess laut AMD schon nur einen Anteil von unter 30% an der Effizienzsteigerung.

Bei der Radeon 7 konnte man ja sehen, was die 7 nm bringen.

https://www.computerbase.de/2019-02/amd-radeon-vii-test/4/

37 Prozent bessere Effizienz aufgrund der besseren Fertigung und größerem RAM. Ohne RAM-Vergrößerung wäre man wohl tatsächlich bei knapp über 30 Prozent rausgekommen. Sieht man ja auch daran, dass bei niederiger Auflösung der Effizenzvorteil sinkt... Aber UV zeigt, was da an Potential noch drin steckt...

Aber ich denke den Vorteil von 7+ gegenüber den 7nm wird AMD brauchen um die erhöhte Leistungsaufnahme des von 256 Bit auf 512 Bit Speicherinterfaces auszugleichen. Daher muss AMD doch die restliche Effizienzsteigerung durch die Architektur rausholen. Nvidia hat noch den Vorteil GDDR6X mit einem kleineren Speicherinterface verwenden zu können um auf gleiche Speicherbandbreite zu kommen, womit Nvidia den 8nm-Prozessnachteil zum Teil wieder ausgleichen können sollte.

Es bleibt dabei, wenn AMD nicht auf HBM umsteigt oder bei der Architektur einen großen Effizienzvorsprung gegenüber Nvidia herausarbeitet, wird es für die nicht möglich sein mit einer 300W Grafikkarte eine 320 W Grafikkarte von Nvidia zu schlagen...
 
Zuletzt bearbeitet:
Wenn der Prozess allein die Effizienz um 30% steigert und neue Arch+Prozess 50% Steigerung bedeuten, dann ist der Prozess für 60% der Effizienzsteigerung verantwortlich.
Das passt im übrigen zu den Aussagen AMDs bei den Ryzen 3000 Prozessoren.
Die Effizienzverdopplung gegenüber dem Vorgänger ist zu etwa 2/3 auf den Fertigungsprozess zurückzuführen, der Rest Architekturverbesserungen. Stand so zumindest mal auf einer Präsentationsfolie
 
Taxxor schrieb:
Und warum schreibst du das ausgerechnet jetzt, wo das Preisniveau mit Ampere wieder deutlich gesunken ist?
Genau so eine Liste mit ähnlichen Zahlen wurde hier schon massig vor der Ampere Vorstellung für die 3000er Karten spekuliert.

Die 3080 ersetzt die 2080Ti und deren 20GB Version, dann evtl auch 3080Ti genannt, dürfte trotzdem unter 1000€ bleiben.
Und die 3090 ersetzt die Titan RTX für deutlich weniger.

Für mich ziemliches blabla, Die Karten ersetzen die Nummern, und da hat sich am Preisniveau nichts getan. Nvidia reagiert gegen AMD mit einem unüblich höheren Boost und zeigt damit auch effektiv wie die Hardwarehersteller, den Verbraucher bespielen, wenn solche Sprünge effektiv immer möglich sind, aber erst mit Ti/Super kommen und damit zwei statt einer richtigen Generation verkauft werden. Auf das Leistungsniveau zu schauen ist einfach nur naiv, denn hier geht es um kühle Kalkulation. Man kann es auch so sehen, jetzt wo AMD wieder ein ernst zunehmender Gegner ist, geht es endlich mal wieder voran mit der Leistung. Der Unterschied Pascal zu Turing war ja ein schlechter Witz, wenn man das nutzlose RTX ausklammert. Positiv betrachtet ist eben nur die 3090 explodiert als Topkarte, die anderen sind im Preis ungefähr gleich geblieben.
 
  • Gefällt mir
Reaktionen: Thorque
aldaric schrieb:
nVidia hatte z. B. seine besten Turing Monate erst anfang dieses Jahres, obwohl die Karten eben nicht der neuste Scheiß waren.

Vom Featureset her waren die Karten trotz der Radeon 5700XT nach wie vor der "neueste Schei*", deshalb hat der Marktanteil für Nvidia auch nochmal ordentlich angezogen.
In Q3 könnten >80% Marktanteil anstehen., momentan sind es je nach Quelle 78%%, bzw 80%.

aldaric schrieb:
Und was willst du uns damit sagen?

Er will sagen, dass du wieder mal alternative Sichtweisen verbreitest, die sich mit konkreten Zahlen nicht decken.

aldaric schrieb:
Deine Grafik bestätigt meine Aussage komplett. nVidia Turing hat sich erst dieses Jahr wirklich gut verkauft, obwohl die Teile mittlerweile ja schon "alt" sind.

Die ersten Monate des Jahres sind doch nicht Q2, außerdem hast du behauptet nach dem Weihnachtsgeschäft verschiebe sich da nichts, was durch seinen Post ja auch widerlegt wurde.

aldaric schrieb:
Es zeigt das es auf dem GPU Markt völlig egal ist, ob nVidia oder AMD zuerst ein paar GPU's auf den Markt bringen.

Das würde ich nicht so sehen, denn AMD hatte relativ starke Probleme mit den Treibern was Blackscreens ansgeht, eventuell ist das mit ein Grund.

aldaric schrieb:
Da ist es für den Käufer völlig Latte ob nun AMD die neue Generation erst einen Monat später bringt als nVidia.

Für den Käufer mag das stimmen, für AMD oder Nvidia ist es meines Erachtens wichtig.
 
Zuletzt bearbeitet von einem Moderator:
Iapetus schrieb:
Einfach abwarten, bis die finalen Produkte vorgestellt und getestet worden sind, dann kann man sich ein Urteil bilden. Unfundierte Meinungen nach Bauchgefühl sind wenig hilfreich.


Nur "leicht" verschätzt. Die 5700XT benötigt im Betrieb, zumindest laut Test von CB, 210 Watt. Davon zieht man den Leistungsbedarf der Lüfter, der Speicherchips sowie die Verlustleistung der Spannungswandler ab. Die GPU der 5700XT weist eine TDP von 180 Watt auf. Eine geeignetere Abschätzung sähe somit folgendermaßen aus: 2 * 180Watt * 0,66 [+50% Perf/W] * 0,95 [Verbesserte Lithographie/Implementierung]. Kurz mit Kopfrechnen überschlagen sind das ungefähr 225 Watt für eine GPU mit 80 CU. Mit Speicherbestückung, SpaWa und Lüfter käme man damit Pi*Daumen auf 275 Watt für die gesamte Grafikkarte. Selbst diese Abschätzung hat den Charakter einer Milchmädchenrechnung, weil wir keine Kenntnisse über RDNA2@GFX1030 haben und immer noch unbekannt ist, welchen Fertigungsprozess AMD für die neuen GPUs nutzen wird (TSMC N7P oder N7+). Die 2080Ti sowie die 3070 sind keine Gegner für "Big Navi".


275W halte ich aber für optimistisch, weil schon der speicher alleine(dürften wohl min. 24GB im dickschiff sein) um die 60W verbraten wird, dazu kommt verlust der spannungsversorgung, und verbrauch diverser bauteile und lüfter hinzu... denke verbrauchsmässig wird man wohl +/- bei dem mitbewerber(3080) landen(bei mehr speicher und -zumindest ohne RT- höherer rohleistung als der 3080)
 
Taxxor schrieb:
Und warum schreibst du das ausgerechnet jetzt, wo das Preisniveau mit Ampere wieder deutlich gesunken ist?
Genau so eine Liste mit ähnlichen Zahlen wurde hier schon massig vor der Ampere Vorstellung für die 3000er Karten spekuliert.

Die 3080 ersetzt die 2080Ti und deren 20GB Version, dann evtl auch 3080Ti genannt, dürfte trotzdem unter 1000€ bleiben.
Und die 3090 ersetzt die Titan RTX für deutlich weniger.

Genau das ist der Irrtum. Die Preise sind weiterhin hoch,nur war der Anstieg zu der 2000er Serie so groß das jetzt Viele glücklich sind das der Anstieg zwar im Vgl. gesunken,aber insgesamt immer noch zu hoch ist.
Es gab diesbezüglich hier auch eine Quelle,falls du nachschauen willst.

Ich glaub wir haben hier einfach Beide andere Ansichten.
 
Windell schrieb:
Genau das ist der Irrtum. Die Preise sind weiterhin hoch,nur war der Anstieg zu der 2000er Serie so groß das jetzt Viele glücklich sind das der Anstieg zwar im Vgl. gesunken,aber insgesamt immer noch zu hoch ist.

es gibt keinen anstieg des preisniveaus mit ampere, daher ist der "gesunkene anstieg" falsch - das preisniveau ist real gesunken.

die 2080ti hat den beschnittenen 02 chip. "fullsize" 02 chip war die titan rtx. die 2080 hatte nur den 04er chip.

bei ampere hat die 3080 einen beschnittenen 02 chip und die 3090 den "fullsize" 02 - was die 2080 ti und 3080 in eine hardwareklasse einordnet und die 3090 und die titan rtx. und hier ist ampere ein gutes stück günstiger als turing.

die preise sind absolut gesehen nicht niedrig und das preisniveau von turing und navi10 war eine komplette katastrophe, aber die preise sind mit ampere definitiv gesunken.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und dynastes
chb@ schrieb:
... wir alle auf eine 6900XT mit 16GB auf 3080 Niveau und eine 6800XT mit 8GB auf 3070 Niveau. Für die Preise aus dem Tweet wäre das schon ein Knaller.

AMD müsste dann noch bei der Software aufholen, Nvidia hat da einiges in Angebot was nicht schlecht ist.

12 GB hielte ich für eine RX 6800XT schon eher für angebracht als gestrige 8GB (das geht bei der Leistung eher nicht mehr/nur noch für 2Jahre, es sei denn man ist Hochfrequenz-Niedrigauflösung-Spieler).

Ansonsten erwarte ich eine AMD/RTG Halo-Karte (RX 6900XT oder 6950XT?), die spürbar schneller als eine RTX 3080 ist, mit Ausnahme von RT-Raytracing Spielen, aber letztere werden vor 2022 sowie nur Nische und wenig relevant bleiben.
 
Ich finds immer lustig, wie gemeint wird ALLE kaufen JETZT Nvidia weil AMD nichts gezeigt hat und AMD deswegen komplett leer ausgeht.
Da wird argumentiert, dass ja nur die Forums Nerds etc. warten würden, aber dabei wird unterschlagen, dass es auch hauptsächlich die Forums Nerds etc. sind, die gleich nach Vorstellung ne GPU kaufen.

Wir sind hier ein kleiner % von den Leuten die dann wirklich eine Graka kaufen. Und der Großteil kauft wenn er eine braucht und nicht sofort wenn Nvidia was ankündigt.

Ich hab in der Arbeit paar Leute die regelmäßig zocken, alle mit Nvidia 2070 Super oder 2080. Kein einziger wusste dass Nvidia grad was neues vorgestellt hat.
 
Zurück
Oben