News AMD-Gerüchte: „Big Navi“ angeblich zu klein und Zehn-Kern-Zen-3

meine einschätzung dazu ist im moment folgende..
5700xt x2

= 250w x2 =500watt

n bischen hardware vodoo und die bekommen die geschichte auf 400w runter gedrückt..

um die 275watt hin zu bekommen wird das ganze noch n bischen im powertarget gedrosselt.. (so 30%)

also hat man im bestfall 2x 80-85% leistung einer 5700xt... sind wir also wieder grob im bereich von ner 2080ti

wir werden also irgentwo rtx3070 leistung sehen +- 10%

einige hardwarefreaks werden mit entsprechenden Karten die mit Waku gekühlt werden und vom powertarget unlocked sind vielleicht nahe an ne 3080 rankommen wenn sie genug saft in die Karte Pumpen.. und nur in n paar Spielen.. aber das macht nur n bruchteil der Karten mit und viele werden sich wundern warum die karte dauernt Crasht

was die Preisgestaltung angeht.. diesmal könnte sich AMD preislich sogar verzetteln.. die 3070 ist.. wenn die Preis leistung so Stimmt, und da werden wir auf Benches Warten müssen...n guter deal.
AMD hingegen ist eventuell in n spot wo sie diese Karte aus kostengründen (chip, ram ect) eventuell gar nicht für unter 600€ anbieten können....
und weil sie kalkuliert haben das NVIDIA 2080TI leistung nicht für unter 700-800€ hergeben wird

also stehts im nachhinein..
3070 8gb Ram mit ner menge zusatzfeatures wie dlss, rtx ect 500€
vs
AMD 6900xt 16gb ram für 500+€ (vielleicht sogar 600)
vs
3080 10gb Ram wieder mit den ganzen features (+30% mehrleistung) für 700€

wobei der einzige vorteil der AMD Karte der Ram ist


das kann Nvidia ganz easy Kontern.. mit ner 3070 16gb oder ner 3070TI für 600€
und schon steht AMD wieder Kacke da.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi und Dural
modena.ch schrieb:
Das ist die Frage. In der Zeit der Strahlenberechnung durch den RT Core ist das SM, dass auf Resultat
wartet blockiert, egal ob da jetzt 128 oder 1024 Shader drin wären.

Aus dem Preview:
Turing konnte entweder gleichzeitig die FP32-ALUs und die Raytracing-Kerne nutzen oder die FP32-ALUs und die Tensor-Kerne. Alle drei Einheiten gleichzeitig konnten dagegen nicht betrieben werden. Ampere kann das jetzt.
 
  • Gefällt mir
Reaktionen: Colindo
@Blackfirehawk

Was ist denn das für ne Rechnung? Du weißt das es sich bei der neuen Serie um RDNA2 handelt, und nicht RNDA1.

Zudem wurde das Perf/W Verhältnis mit RNDA2 um 50% gesteigert.

Du solltest deine Rechnung nochmal...überdenken..
 
  • Gefällt mir
Reaktionen: Kodak, Terminator-800, eXe777 und eine weitere Person
aldaric schrieb:
@Blackfirehawk

Was ist denn das für ne Rechnung? Du weißt das es sich bei der neuen Serie um RDNA2 handelt, und nicht RNDA1.

Zudem wurde das Perf/W Verhältnis mit RNDA2 um 50% gesteigert.

Du solltest deine Rechnung nochmal...überdenken..
Ich glaube dazu fehlen ihm die Recourcen.
 
  • Gefällt mir
Reaktionen: Terminator-800, XTR³M³ und eXe777
aldaric schrieb:
@Blackfirehawk

Was ist denn das für ne Rechnung? Du weißt das es sich bei der neuen Serie um RDNA2 handelt, und nicht RNDA1.

Zudem wurde das Perf/W Verhältnis mit RNDA2 um 50% gesteigert.

Du solltest deine Rechnung nochmal...überdenken..

ja angeblich perf/w um 50%.. mal eben den stromverbrauch zu halbieren innerhalb einer generation ist schon mal n gegantischer Sprung.. wir reden hier bei RDNA2 von 125w für 1080ti leistung .. aber du hast auch komponnenten wie RAM, interposer ect die nach wie vor das gleiche an Strom ziehen..
 
Blackfirehawk schrieb:
meine einschätzung dazu ist im moment folgende..
5700xt x2

= 250w x2 =500watt

n bischen hardware vodoo und die bekommen die geschichte auf 400w runter gedrückt..

um die 275watt hin zu bekommen wird das ganze noch n bischen im powertarget gedrosselt.. (so 30%)

also hat man im bestfall 2x 80-85% leistung einer 5700xt... sind wir also wieder grob im bereich von ner 2080ti

wir werden also irgentwo rtx3070 leistung sehen +- 10%

einige hardwarefreaks werden mit entsprechenden Karten die mit Waku gekühlt werden und vom powertarget unlocked sind vielleicht nahe an ne 3080 rankommen wenn sie genug saft in die Karte Pumpen.. und nur in n paar Spielen.. aber das macht nur n bruchteil der Karten mit und viele werden sich wundern warum die karte dauernt Crasht

was die Preisgestaltung angeht.. diesmal könnte sich AMD preislich sogar verzetteln.. die 3070 ist.. wenn die Preis leistung so Stimmt, und da werden wir auf Benches Warten müssen...n guter deal.
AMD hingegen ist eventuell in n spot wo sie diese Karte aus kostengründen (chip, ram ect) eventuell gar nicht für unter 600€ anbieten können....
und weil sie kalkuliert haben das NVIDIA 2080TI leistung nicht für unter 700-800€ hergeben wird

also stehts im nachhinein..
3070 8gb Ram mit ner menge zusatzfeatures wie dlss, rtx ect 500€
vs
AMD 6900xt 16gb ram für 500+€ (vielleicht sogar 600)
vs
3080 10gb Ram wieder mit den ganzen features (+30% mehrleistung) für 700€

wobei der einzige vorteil der AMD Karte der Ram ist


das kann Nvidia ganz easy Kontern.. mit ner 3070 16gb oder ner 3070TI für 600€
und schon steht AMD wieder Kacke da.
Hier ist so vieles falsch das man sich wünschen muss, dass Du dich vielleicht noch einmal ein bisschen mit der Materie auseinandersetzt. Stimme meinem Vorredner somit zu ... sorry.
 
  • Gefällt mir
Reaktionen: PS828, Terminator-800, Derenei und 4 andere
Blackfirehawk schrieb:
ja angeblich perf/w um 50%.. mal eben den stromverbrauch zu halbieren innerhalb einer generation ist schon mal n gegantischer Sprung..
Der Stromverbrauch wird durch +50% Perf/Watt nicht halbiert.....

Und die 5700XT hat auch keine 250W sondern 225W....
Blackfirehawk schrieb:
wir reden hier bei RDNA2 von 125w für 1080ti leistung
Nein, wir reden von 150W für 5700XT Leistung....

Durch CU Verdoppelung also ca 275W.

Und das ist eigentlich schon Worst Case, da die 50% Perf/Watt eher einer Mischung aus Mehrleistung und Verbrauchsersparnis bedeuten, zielt man wirklich auf die exakt gleiche Leistung der 5700XT an, wird an der Stelle deutlich mehr als 50% Perf/W rauskommen, sieht man auch schon an der Nvidia Präsentation wo es bis zu 90% sein sollen, wenn man bei der Leistung der 2080Ti bleibt.

Von der 5600XT ausgehend kommen wir übrigens mit deren 130W und einer exakten Verdoppelung der Karte(doppeltes SI, doppelter VRAM, doppelte CUs) auf eine 72CU Karte mit 260W, 50% Perf/Watt drauf und noch ein bisschen mehr Takt wir haben 175-200W für ca 2080Ti bzw 3070 Performance.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign, Toni_himbeere und HaZweiOh
Wenn erste AMD customs erst bei Jahreswechsel kommen kann man ja gleich noch auf die RTX3070ti oder Super warten. Nvidia plant den counter doch bestimmt schon für nächstes Jahr Quartal eins oder zwei mit nochmals deutlich mehr Leistung wenn AMD abliefert. Das gleiche wie mit den "Super" Karten die nochmals 30% schneller waren. AMD ist meiner Meinung nach immer einen Schritt behind.
Ergänzung ()

aldaric schrieb:
@Blackfirehawk

Was ist denn das für ne Rechnung? Du weißt das es sich bei der neuen Serie um RDNA2 handelt, und nicht RNDA1.

Zudem wurde das Perf/W Verhältnis mit RNDA2 um 50% gesteigert.

Du solltest deine Rechnung nochmal...überdenken..

Das weißt du doch gar nicht ob es um 50% gesteigert wurde. Würde nicht so viel auf AMDs eigene Aussagen geben. Es wurde kein Shrink vollzogen, darum würde es mich schon sehr wundern.
 
.Sentinel. schrieb:

Das ändert nix an meiner Aussage, fürs Raytracing brauchst einen RT Kern zum Berechnen und ein SM um es umzusetzen. Während der RT Kern rechnet, muss das SM auf das Resultat warten um es danach umzusetzen.
Währenddessen kann dieses SM keine klassiche Rasterisation machen, weil sich sonst der Raytracing Effekt verzögern würde. Das würde das Sheduling zu sehr verkomplizieren.
 
aldaric schrieb:
Interessanterweise war in den letzten Monaten z.B. die 5700XT ein Dauerläufer, trotz der Problemchen welche die Karte hat.
Soviel auch zu dem ganzen Konsumschaf und Marketing- Gebrabbel, was hier immernoch unreflektiert einfach weitergetragen wird.
Die Kunden kaufen das Produkt mit dem in ihren Augen besten Preis-/Leistungsverhältnis.

Die 5700er sind vergleichsweise ein Renner...
 
Adzz schrieb:
Das gleiche wie mit den "Super" Karten die nochmals 30% schneller waren. AMD ist meiner Meinung nach immer einen Schritt behind.
Wieso behind ? Nvidia hatte damals die 1070Ti gebracht um an die Leistung der Vega56 zu kommen und bei den Super Karten doch genauso wegen der 5700 XT und non XT ... weis net wo du deine 30% herholst, aber bei mir sind es nur 10% bei der 2070 Super, sowie net mal 3% bei der 2060 Super ... gegenüber der 5700XT sowie non XT. Was einiger hier ablassen is echt nemmer feierlich ...
 
  • Gefällt mir
Reaktionen: Derenei und Colindo
Iguana Gaming schrieb:
Wieso behind ? Nvidia hatte damals die 1070Ti gebracht um an die Leistung der Vega56 zu kommen und bei den Super Karten doch genauso wegen der 5700 XT und non XT ... weis net wo du deine 30% herholst, aber bei mir sind es nur 10% bei der 2070 Super, sowie net mal 3% bei der 2060 Super ... gegenüber der 5700XT sowie non XT. Was einiger hier ablassen is echt nemmer feierlich ...
30% zum Vorgängermodell...
 
Die Superkarten haben se aber net wegen der Vega56/64, sondern wegen den neuen Navi Karten gebracht ... wo ich mich übrigens als non Super Kartenbesitzer von Nvidia, nach keinen 6 Monaten Release, recht verarscht vorgekommen wäre
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Derenei
modena.ch schrieb:
Während der RT Kern rechnet, muss das SM auf das Resultat warten um es danach umzusetzen.
Das BVH- Traversal und dessen Auswertung können asynchron parallel zu anderen Operationen laufen.

Währenddessen kann dieses SM keine klassiche Rasterisation machen, weil sich sonst der Raytracing Effekt verzögern würde.
Der SM ist kein statisches Gebilde. Dem kannst Du immer füttern, was Du willst. Kommt ein RT Shader dazwischen, frühstückt der das normal nebst all den anderen Aufgaben ab. Du hast es hier mit massiv parallel rechnender Hardware zu tun.

Wofür Du sorgen musst ist einfach, dass die Laufzeiten und die Auslastung so gewählt sind, dass man möglichst optimiert auf ein Zielframe hinarbeitet bzw. keine Bottlenecks oder Leerlaufzeiten entstehen.
Dafür gibt es aber Profiler. Man kann da auch abseits des internen und automatisierten Schedulers/Dispatching einiges an Optimierungsarbeit leisten...
 
Zuletzt bearbeitet:
SilvanV schrieb:
Und schon geht wieder die alte Neiddebatte los. Niemand hier weiß über die Lebensumstände der anderen Bescheid, aber Vorurteile kann man ja schon mal raushauen ne?
Ich gönne es jedem, wenn er sich eine Top-Grafikkarte leisten kann und wünsche viel Spaß beim Zocken!
😂 Und wo genau hast du nun den Neid gelesen? Fakt ist das Gamer die mit 16 ihre Ausbildungsvergütung oder ihren Nebenjob hatten zwar weniger Geld zur Verfügung hätten, aber auch weniger Ausgaben.

Jetzt 20 Jahre später zB haben sie zwar mehr Geld zur Verfügung, aber auch höhere Ausgaben. Sei es nun die Miete, der Hauskredit, das Auto, Kinder, Strom, Wasser, Abgaben, Versicherungen, alles zusammen.

Ja es es gibt auch Leute, die haben all diese Kosten, können sich auch jeden Monat ohne groß nachzudenken einen GeForce 3090 kaufen, aber auch deren Lebensstandard und somit deren Lebenskosten haben sich erhöht.
 
  • Gefällt mir
Reaktionen: McTheRipper
Die Gerüchte wurden u.A. auch durch Igor befeuert, der kürzlich noch von (baldigen) extrem hohen Preisen für die letzten RTX20XX schwadronierte. Jetzt ist es Resterampe und die Gebrauchtpreise befinden sich im freien Fall. Mit wieviel TDP würdet ihr denn bei den neuen rdna2 Konsolen rechnen? Die fp32 Leistung ist bekannt und lässt sich näherungsweise auf 250 oder 300W hochrechnen. 50% Performance/Watt Gewinn wurden ebenfalls angekündigt. Damit wäre eine 225W Karte (6700XT?) rechnerisch etwa auf 3070 Niveau. Es könnte daher ein enges Rennen werden, welches durch Preis und Speicher entschieden wird.
 
Adzz schrieb:
30% zum Vorgängermodell...
Mit Vorgängermodell meinst du die jeweilige non-Super Karte?

15% und 18%

Anmerkung 2020-09-08 210106.png

Anmerkung 2020-09-08 210118.png
 
  • Gefällt mir
Reaktionen: Colindo
Plötzlich tauchen Preisvorstellungen von um die 500 US-Dollar auf, die Big Navi nur kosten soll.
Habt ihr den Blick für die Realität etwas verloren?
500 Tacken für ne Grafikkarte kann man mit allem möglichen beschreiben, aber definitiv nicht mit dem Wort "nur".
 
  • Gefällt mir
Reaktionen: ahuev0, Senephar, Windell und 4 andere
wie, wann, was wie big werden soll......? ich hab noch zeit und lasse mich überraschen. weder habe ich eine 3xxx karte nötig, noch muss ich blindlinks zuschlagen. im dezember wird wohl einiges klarer sein:)
 
Benji18 schrieb:
bloß blöd das Nvidias Marketing wiederum total übertrieben hat und fakten verwischt. Nvidia hat keine 10 000 cores sondern nur die hälfte, man kann aber INT u. FP32 Berechnungen gleichzeitig durchführen das hat man halt Marketing gerecht aufbereitet.

Aber schön das du dich als Marketing opfer outest
Ist doch zu 100% akkurat ausgedrückt: Da steht ANGEBLICH - weil eben NVIDIA genau das behauptet hat - Ihre 5000 sein so gut wie früher 10000. Was ist daran Marketingopfer?
Ich merke doch gerade kritisch an, dass es an Fakten fehlt - auf der einen Seite Marketinggeschwurbel auf der anderen Seite Gerüchte, die als Halbfakten diskutiert werden.
 
Zurück
Oben