News AMD Radeon RX 7000 („RDNA 3“): PowerColor zeigt roten Teufel, Leaker ersten Navi-31-Chip

@Ayo34
Die Fertigung spielt doch für die Leistung keine Rolle. Das hat doch nachher nur Einfluss auf den Takt und die Leistungsaufnahme. Und es ist ja schon bekannt das die Karten mit 2x8pin auskommen. AMD hebt die Core Anzahl einfach mal um 2.4 fache an. Das resultiert ja nicht in 20% mehr Leistung sondern in min. 60-70%. Dazu kommt noch der höhere Takt zu RDNA2.
 
  • Gefällt mir
Reaktionen: Colindo und FreedomOfSpeech
DevPandi schrieb:
Eine Seite mit einer begrenzten Auswahl an Spielen, in der die 3090 stärker ist. Computerbase ist ebenso eine Seite mit begrenzter Auswahl an Spielen, in der die 3090 erst als OC ca. 10 % schneller ist.
Auch auf CB ist die 3090 ohne OC schneller.

DevPandi schrieb:
Wenn man weitere Ergebnisse zusammenträgt, dann kommt heraus, dass die 3090 im Mittel zwischen 5 - 10 % schneller ist und erst mit RT dann 20 - 30 % voraus ist.
Wenn die 3090 5-10% schneller ist, wie kann die 6900XT dann überlegen sein? So oder so bleibt die Aussage falsch.
Dass die Ergebnisse, je nach Parcour, variieren können, sollte jedem klar sein. Ändert aber nichts an der Tatsache, dass die 6900XT nicht die grundsätzlich überlegene Karte ist.

Ayo34 schrieb:
Du machst den Fehler, dass die Angabe von 50% mehr Effizienz genau zutrifft. Das war aber nur das Ziel von AMD. Niemand weiß aktuell, was am Ende wirklich geschaffen wurde. Wenn die Effizienz sogar um 70% gesteigert werden konnte und man dann noch etwas mehr Strom oben drauf gibt, dann landet man durchaus auch über 100% mehr Performance.
Dann würde AMD vermutlich mit 70% werben. Ich schätze mal, dass es sich eher zwischen 50-55% bewegen wird.

modena.ch schrieb:
Nimm andere Titel, nimm kein 4K und die 6900XT ist eher schneller als die 3090.
Wer kauft eine 7900XTX oder 4090 für 1080p?
Und wenn Weihnachten und Neujahr auf den selben Tag fallen und ich Samstags auf einem Bein hüpfe, ist die Karte auch schneller... :freak:

In 4K sehe ich die wahre Leistung der Karte. In 1080p können Treiberoverheads oder CPU Limit die Leistung beeinträchtigen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ragnarök88
modena.ch schrieb:
Bei dem Verbrauch eher gar nicht realistisch.
Und Preis noch weniger.

NVs ADA hat die Gen gut vorgelegt was die Effizienz angeht und für eine 3090 bist im
Bereich einer 4080 12GB angekommen. Die sollt ursprünglich 285W TDP haben.
Wenn AMD das mit 200-220W reisst, wär das schon top.
Hm, das wären dann so 31% mehr FPS/Watt (3090 gegen 6800 in WQHD). Hieß es nich mal 50% mehr FPS/Watt irgendwo?
 
Ayo34 schrieb:
Wenn die Effizienz sogar um 70% gesteigert werden konnte und man dann noch etwas mehr Strom oben drauf gibt, dann landet man durchaus auch über 100% mehr Performance.

Sehe ich auch so.
Die >50% Perf/Watt (also mindestens 51% ;) für RDNA3 hat AMD ja bereits vor Jahren als Ziel angekündigt. Ich kann mir nicht vorstellen, dass eine solche Aussage gemacht wird wenn man nicht absolut sicher ist diese Zahlen erreichen zu können. Da AMD schon bisher eher zum Understatement geneigt hat, klingt eine 70% Perf/Watt-Steigerung für mich durchaus vorstellbar.
Wenn die neuen Karten noch 15-20% mehr verbrauchen dürfen (300->350 Watt) lande ich rechnerisch ebenso bei ~100% mehr Performance.
 
  • Gefällt mir
Reaktionen: Ayo34
MrHeisenberg schrieb:
Dann würde AMD vermutlich mit 70% werben. Ich schätze mal, dass es sich eher zwischen 50-55% bewegen wird.

Naja, AMD hat ja noch gar nicht "richtig" geworben, sondern einen kleinen Einblick und ein kleines Ziel für RDNA3 ausgegeben und das war eben min. 50% mehr Effizient. So wie es bei RDNA1 -> RDNA2 auch war. AMD hat eigentlich immer eher tief gestapelt um dann auch diese Dinge einhalten zu können.


bigdaniel schrieb:
@Ayo34
Die Fertigung spielt doch für die Leistung keine Rolle. Das hat doch nachher nur Einfluss auf den Takt und die Leistungsaufnahme. Und es ist ja schon bekannt das die Karten mit 2x8pin auskommen. AMD hebt die Core Anzahl einfach mal um 2.4 fache an. Das resultiert ja nicht in 20% mehr Leistung sondern in min. 60-70%. Dazu kommt noch der höhere Takt zu RDNA2.

Ja und Nein, du hast natürlich einige Vorteile durch eine neue Fertigung und kannst die unterschiedlich einsetzen. Am Ende kann man dann auch sagen, dass eine Fertigung x% schneller y% effizienter ist im Vergleich.

TSMC says that, compared with its own 5nm process, its latest bleeding-edge fabrication nodes will offer 70% denser logic. That translates to 15% improved clocks at iso-power, or 30% reduced power consumption at iso-clocks. That 70% improvement in density gives NVIDIA a lot of room to build an even more absurdly-massive monolithic GPU, but it also helps make Intel and AMD's chiplet designs that much more compact, power-efficient and faster. https://hothardware.com/news/tsmc-is-on-schedule-for-3nm-chip-production-this-year
 
ShiftyBro schrieb:
Hieß es nich mal 50% mehr FPS/Watt irgendwo?
Ja von der 6900XT zur 7900XT wird das wohl auch so kommen.

Aber bei einer 150-220W Karte sprechen wir eher von einer 7600XT-7700XT und was das
für die Effizienz bedeutet werden wir erleben müssen. Bei den Kleineren Chips ist die Effizienzgewinn
meist etwas schlechter.
 
bigdaniel schrieb:
RTX 3090 Ti ~10750 Cores
RTX 4090 ~16400 Cores.
Nvidia hat am Aufbau nichts geändert, also sind es hier tatsächlich ~50% mehr Einheiten
bigdaniel schrieb:
RX 6900 XT ~ 5100 Cores
RX 7900 XTX ~ 12300 Cores
AMD scheint das gemacht zu haben, was Nvidia schon mit Ampere gemacht hat: Doppelte FP32 Einheiten, bei selber Anzahl INT. Das heißt eigentlich gibt es nur ~20% mehr Einheiten.
bigdaniel schrieb:
Die nackten Zahlen können für eine stärkere Karte als die 4090 sprechen oder übersehe ich etwas?
Ich denke etwas schwächer bis gleich stark.
 
MrHeisenberg schrieb:
Wer kauft eine 7900XTX oder 4090 für 1080p?
Und wenn Weihnachten und Neujahr auf den selben Tag fallen und ich Samstags auf einem Bein hüpfe, ist die Karte auch schneller... :freak:

In 4K sehe ich die wahre Leistung der Karte. In 1080p können Treiberoverheads oder CPU Limit die Leistung beeinträchtigen.
Wir haben bisher auch eine 6900XT und 3090 verglichen.
Du kommst jetzt mit den Neuen ums Eck.

Und die bisherigen Karten die im Schnitt in 4K gerade so auf 60-70 Bilder kommen sind für mich keine 4K Karten. Daher würd ich sie schon in WQHD oder FHD vergleichen und da ist die 6900XT eher schneller.

Was jucken mich NVs Treiberoverheads?
 
habe noch eine 5700XT Red Devil und spiele The Ascent, Cod, Cyberpunk auf einem 40" Dell (max 60hz)
Lohnt sich ein umstieg, wenn ja auf was? Warten auf die neue Gen und dann die alte kaufen?
 
Ayo34 schrieb:
AMD hat eigentlich immer eher tief gestapelt um dann auch diese Dinge einhalten zu können.
Wenn ich mich recht entsinne, war das bei ZEN4 nicht der Fall. Dort wurde genau das geliefert, womit im Vorfeld geworben wurde.
 
Philste schrieb:
AMD scheint das gemacht zu haben, was Nvidia schon mit Ampere gemacht hat: Doppelte FP32 Einheiten, bei selber Anzahl INT. Das heißt eigentlich gibt es nur ~20% mehr Einheiten.

Wir wissen immer noch nicht, was AMD bei RDNA3 gemacht hat. Ob sie wirklich wie Nvidia die FP32 mit in die Int pipeline gebaut haben, oder ob die zusätzlichen FP32 unabhängig der Int pipeline arbeiten können ist noch nicht bekannt.
Wenn letzteres möglich ist, kann der Sprung durch die zusätzlichen FP32 einheiten deutlich höher als bei Nvidia ausfallen.
 
  • Gefällt mir
Reaktionen: Ragnarök88 und Colindo
slider.sk schrieb:
habe noch eine 5700XT Red Devil und spiele The Ascent, Cod, Cyberpunk auf einem 40" Dell (max 60hz)
Lohnt sich ein umstieg, wenn ja auf was? Warten auf die neue Gen und dann die alte kaufen?
du stellst die Fragen die erst bei Lieferbarkeit beantwortet werden koennen. Tendiere zwar eher zu rot, aber das liegt eher an den Preisen, dem miesen Ruf, dem ueberladenen Treiber, den andauernden Luegen(970desaster, etc.) - trotzdem muss man nicht jeden Wert vom LiveStream 100% glauben.


ODER ja klar lohnt es sich umzusteigen wenn du mehr FPS benoetigst, weniger werdens nicht (hoffentlich) xD
 
MrHeisenberg schrieb:
Wenn ich mich recht entsinne, war das bei ZEN4 nicht der Fall. Dort wurde genau das geliefert, womit im Vorfeld geworben wurde.

Das waren aber Aussagen später bei der Präsentation. Die sehen wir ja bei den Grafikkarten erst heute Abend. Das was heute gesagt wird, wird sicherlich relativ dicht an der Wirklichkeit dran sein. Was vor Monaten/Jahren gesagt wurde, als Ziel, ist eben ein grober Richtwert wo es hingehen soll.

Heute Abend sind wir schlauer. Ich denke, dass wir min. 50% sehen werden und max. 70% in Sachen Effizienz. Der Sprung zwischen TSMC 7nm und 5nm ist einfach nicht so gigantisch wie bei Nvidia. Daher muss eben auch in anderen Bereichen noch was gefunden werden und das weiß man einfach noch nicht.
 
Und hatte er recht?
 

Anhänge

  • DEB5C551-DCD2-46F2-8C11-B07D13EFE0CD.jpeg
    DEB5C551-DCD2-46F2-8C11-B07D13EFE0CD.jpeg
    133,6 KB · Aufrufe: 227
Zuletzt bearbeitet von einem Moderator:
MistressOfAgony schrieb:
bereits vor wochen wurde geleakt das die 4090 weder in raster noch raytracing bedroht wird.

Echt? Wo denn genau
 
Philste schrieb:
AMD scheint das gemacht zu haben, was Nvidia schon mit Ampere gemacht hat: Doppelte FP32 Einheiten, bei selber Anzahl INT. Das heißt eigentlich gibt es nur ~20% mehr Einheiten.
Da wäre ich mir nicht so sicher. Wenn AMD eine ähnliche Transistordichte fährt wie NVIDIA müsste die Erhöhung der Shaderzahl auch so möglich sein. Genau wissen wir es dann heute Abend.
 
Wurde widerlegt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fighter1993 und DevPandi
BenTheBig schrieb:
Ich warte auch und bin gespannt. Endlich die 480 ablösen. Entweder mit ner 6900XT oder was schickem aus der 7er Reihe
Ich dachte schon ich bin der einzige mit einem Oldie ^^
 
  • Gefällt mir
Reaktionen: BenTheBig
Zurück
Oben