News AMD Radeon RX 7800 (XT): Es tut sich etwas in der RDNA-3-Gerüchteküche

  • Gefällt mir
Reaktionen: MaverickM, Grundgütiger und ShiftyBro
bensen schrieb:
Wen sonst? Aus dem Kontext ist rein gar nichts anderes möglich.
doch, dass Nvidia den Chip eigentlich kleiner haben wollte
bensen schrieb:
Zum Thema erwartbar habe ich oben schon geschrieben. Argument deinerseits gibt's bisher keins.
Es ist seit Jahren klar, dass AMD hier eine flexibles Chipletdesign angehen wird und Nvidia nicht.
Es ist also auch klar, dass Nvidia - sollten sie die Nr1 bleiben wollen was Prestigeprodukte betrifft - vorne bleiben möchte und damit einen möglichst großen monolithen auflegen muss.

Also die Schätzungen gingen schon vor mehr als 2 Jahren von einem in Entwicklung befindlichen großen Nvidia-Chip aus. Im übrigen hat die Entwicklung der 4090 vor ca 5 Jahren begonnen, aber nicht die Spezifikation. Es werden immer mehrere SKUs angedacht wovon einige dann nicht kommen.
Und es ist schon lange klar, dass Nvidia den 102er Chip zuerst bringen wird. Es war klar, dass diesmal der Cache deutlich vergrößert wird (braucht viel Chipfläche und massiv Transistoreaufwand)
Nachdem der 102er Chip schon bei der 3000er Serie ~630mm² groß war, INWIEFERN WAR ES NUN NOCH ÜBERRASCHEND DAS DER 102er Chip der 4xxxer Reihe auch ~600m² groß wird?
Ich kann dir auch schon jetzt sagen, dass wenn man wieder viel Cache verbauen möchte, auch der Chip wieder groß wird, aber die Transistormenge nicht mehr so stark zunimmt
Ergänzung ()

SaschaHa schrieb:
Das scheint bei MindFactory aber noch nicht ganz angekommen zu sein:

https://twitter.com/TechEpiphany/status/1667537641288417283
Ist die Frage ob er mit Endkunden die DIY Bastler meint die GPUs extra bestellen oder ob er damit auch Leute meint die Fertigpcs für sich kaufen?
Bei letzteren und bei Firmen hat AMD derzeit tatsächlich kaum noch Marktanteil laut JPR oder Mercury Research, ich weiß nicht mehr woher die Zahlen kommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SaschaHa
Ich würde diese Generation auch komplett auslassen.

RDNA3 ist zu langsam und Nvidia Grafikkarten sind VRAM-Krüppel. Ich hoffe RDNA4 wird wieder spannender, dann werden die Architekturellen Probleme bestimmt behoben sein. Und RDNA4 wird auch endlich richtig Displayport 2.1 unterstützen, nicht nur die langsamen Displayport 2.1 Verbindungen.
 
  • Gefällt mir
Reaktionen: SSGFrost
hab die reine RT diskussion mal verschoben, dafür haben wir andere threads ;)


die 7800XT sollte wenn möglich so bepreist sein dass sie tatsächlich gekauft wird. das ist eigentlich das kernproblem der aktuellen GPU generation sowohl bei nvidia als auch bei AMD. dazu kommen teilweise enorme einschränkungen etwa beim speicher, der anbindung oder der performance in aktuellen spielen die zwar die spielemacher zu verantworten haben, einen teil der käuferschaft dennoch davon abhält überhaupt noch eine neue GPU zu kaufen
 
  • Gefällt mir
Reaktionen: FrankN84 und SIR_Thomas_TMC
Basically leicht schneller als eine 6900XT in Raster und entweder gleich schnell wie die 6950XT in Raster oder leicht schwächer (2-3%), dafür aber 70-80 Watt weniger Verbrauch und besser als beide in Raytracing, also beiden Karten vorzuziehen, sollte sie unter 649€ kosten. Aber um wirklich interessant zu sein, eher 579-599€, glaub ich aber kaum, wäre dann in Amerika "nur" knapp 499-529$, naja schau mer mal, was wird...
 
Holzinternet schrieb:
Nicht das ich eine neue GraKa brauchen würde... sollte die 7800(XT) irgendwo bei einer 3080Ti oder besser ankommen, 16GB VRAM mitbringen und deutlich unter 1000 Euro kosten dann könnte ich eventuell über eine Neuanschaffung nachdenken. Aber nur wenn alle wenn und aber erfüllt sind.

Wenn nicht dann bleibt die olle 1080 drinne bis sie draufgeht. Reicht für WQHD bisher. Lediglich SC braucht mehr Dakka. Wobei ich auch mit 30 bis 45 fps da gut leben kann.

Gruß
Holzinternet
Bin eigentlich Fan von AMD aber warum nicht die 4070ti sie ist knapp unter 1k haha
 
  • Gefällt mir
Reaktionen: Holzinternet
BAR86 schrieb:
Es ist seit Jahren klar, dass AMD hier eine flexibles Chipletdesign angehen wird und Nvidia nicht.
Es ist also auch klar, dass Nvidia - sollten sie die Nr1 bleiben wollen was Prestigeprodukte betrifft - vorne bleiben möchte und damit einen möglichst großen monolithen auflegen muss.
Aha. Also AMD weiß haargenau, wie groß der AD102 wird aber Nvidia hat keinen Schimmer was AMD treibt. Klingt plausibel.

BAR86 schrieb:
Also die Schätzungen gingen schon vor mehr als 2 Jahren von einem in Entwicklung befindlichen großen Nvidia-Chip aus.
Vor knapp zwei Jahren hatte N31 schon seinen tape-out. Ein bisschen spät um den Chip nochmal neu zu designen.
BAR86 schrieb:
Nachdem der 102er Chip schon bei der 3000er Serie ~630mm² groß war, INWIEFERN WAR ES NUN NOCH ÜBERRASCHEND DAS DER 102er Chip der 4xxxer Reihe auch ~600m² groß wird?
Wie oft soll ich das noch schreiben? Weil es eben eine 2.7 fache Steigerung der Transistoren war, während es zuvor nur 1.5x Steigerungen gab. GA102 war auf einem uralt Prozess. Auf einen nagelneuen Prozess gab es nie zuvor so einen großen Consumer Chip.

Aber klar, du hast das alles natürlich schon von vorneherein gewusst. Vielleicht heuerst du bei AMD an. Die können so pfiffige Leute brauchen.
Nur eine kleine Zwischenfrage. Wenn AMD gewusst hat, was Nvidia vor hat. Warum haben sie nichts adäquates entgegen gesetzt?

BAR86 schrieb:
Ich kann dir auch schon jetzt sagen, dass wenn man wieder viel Cache verbauen möchte, auch der Chip wieder groß wird, aber die Transistormenge nicht mehr so stark zunimmt
Wow, was für eine Leistung. Der Chip wird natürlich groß, sonst wäre er langsamer als sein Vorgänger. Und natürlich wird die Transistormenge nicht wieder so extrem zunehmen (wobei ist ja nicht extrem, sondern völlig normal wenn man dir zuhört) weil das selbst bei maximal möglicher Die size in N3e nicht annähernd möglich ist. Selbst +50% werden stramm.

Es sei denn sie gehen auch auf Chiplets. Sollte dir sicherlich schon bekannt sein oder? Der Nachfolger wird ja spätestens in zwei Jahren releast. Bitte teile deine Informationen.
 
@yamiimax
Die 4070 Ti ist für die gebotene Gamingleistung einfach zu teuer. Ich persönlich habe mir zwar trotzdem kürzlich eine gegönnt, da sie ich von der Computing-Performance und dem niedrigen Stromverbrauch (185 Watt mit 65% Powerlimit und dank 180 MHz OC kaum Performanceverlust) profitiere und sie super leise betreiben kann, aber allgemein halte ich sämtliche RTX 40XX-Karten für zu teuer aktuell.

Die RX 7800-Karten könnten da ganz gut Druck auf die 4070 (Ti) ausüben, von daher bleibt es durchaus sehr interessant, wie diese bepreist werden.
 
  • Gefällt mir
Reaktionen: ComputerJunge
Ich warte noch auf 6900xt +70-100% Leistung für max 600€, dann können wir von Technischem Fortschirtt weiterreden... mehr Leistung zum günstigern Preis = Fortschirtt.
7900XTX 60% 1000€
7900XT 35% 820€
sind a) nicht mal bei 70% Leistungsplus und b) Preise ein witz zur Mehrleistung
Naja hoffen wir mal auf
8900XT 120% 800€
8800XT 80% 600€
 
Schon beim Erscheinen der unabhängigen Tests von Navi 31 war absehbar dass Navi 32 und Navi 33 nicht gut aussehen werden.

Die Ausbeute des 5 nm Prozesses ist so gut, dass beim Beschneiden von 96 auf 70 CU sehr viele funktionierende CU abgeschaltet werden. Angesichts des Verkaufspreises schmerzt dies bei einer Profigrafikkarte nicht. Wenn die 7800XT so kommt, wird es ziemlich teuer für AMD.

Der Vollausbau der Navi 32 wird mit 60 CU gehandelt. Das sind nur 10 CU weniger als es bei der 7800XT angenommen wird. Dass eine 7800XT mit 70 CU kommen soll, ist für mich ein weiteres Zeichen dafür, dass es bei RDNA 3 nicht wie geplant läuft.

CB_KeinNameFrei schrieb:
Die Story geht in etwa so, laut Gerüchten aus der Branche...
Wir brauchen nicht darüber zu diskutieren, dass die RDNA 3 nicht so performt wie es AMD geplant hat.

Was genau los ist, wird AMD wohl nie raus lassen. Diese Geschichte kann stimmen, weil sie einiges gut erklärt. Aber weil sie stimmig ist, muss sie nicht richtig sein. Es muss auch nicht ein Fehler sein, sondern kann auch das Zusammenspielen mehreren Dinge sein.

Zur Erinnerung: Im Dezember 2022 ist eine andere Geschichte herum gegeistert. Nämlich die, dass Navi 31 wegen Designfehlern nicht hoch takten könne und dass bei Navi 32 dieser Fehler behoben wäre. Das hat sich als Unsinn herausgestellt.

Was ich für realistisch halte, ist dass AMD erst relativ spät die Ursache gefunden hat und nicht mehr reagieren konnte.

Holgmann75 schrieb:
Die Performance ist das kleinste Problem, es ist eher die Performance pro Watt die nicht so berauschend ist!
Man kann jedes Design so betreiben, dass es ineffizient ist. Einfach die Frequenz weit über den Sweetspot jagen. Das war meiner Meinung nach bei Vega der Fall. Performance Ziel verfehlt. Frequenzen bis zum Anschlag hoch. Effizienz versaut.

Wenn man sich anschaut wie AMD das Referenzdesign der 7900XTX betreibt, dann war das so IMO nicht geplant. AMD ging von einem niedrigeren Verbrauch aus. Um an der 4080 vorbei zu kommen, musste AMD fast alles reinprügeln, was mit 2 Steckern + PCIe-Bus möglich ist.
Holgmann75 schrieb:
AMD hatte nie vor die 4090 herauszufordern und die 4080 hat die 7900XTX bei Rasterizing im Griff, so lang man nicht auf den Stromverbrauch schaut :freak:
Dass die 7900 XTX nicht an die 4900 rankommt, ist schon beim Vergleich der Die-Flächen offensichtlich.
Dass die 7900 XTX sich gerade so vor die 4800 setzt, ist angesichts der Die-Fläche enttäuschend.
Crifty schrieb:
AMD würde sich einen gefallen wenn sie:
  1. alle neuen Karten aus der Generation canceln würden
  2. alle jetzigen Karten nochmals im Preis senken, damit die hohen Lagerbestände weggehen
  3. vollen Fokus auf RDNA 4, damit man wenigstens wieder in einem Jahr voll zuschlagen kann.
  4. Das Treiberteam massiv vergrößern.
Denn die Generation ist verloren und darf sich nicht wiederholen, sollte das nochmal in so einem eklatanten Ausmaß passieren, gehört Nvidia alles.
Sorry das ist billige Polemik. Punkt 3 und 4 kannst Du Dir dann auch schenken und gleich sagen AMD soll die PC Grafikkarten einstellen.

Zu 1: AMD verzichtet also auf Gegenspieler zur 4070TI und 4080?
Zu 2: Sind es tatsächlich hohe Lagerbestände? Ich denke AMD hat die Navi 21 zumindest eine Weile weiterlaufen lassen. Navi 21 ist für AMD billiger als Navi 32 zu produzieren.
Zu 3: Was soll das bringen? Wenn AMD tatsächlich das Release von RDNA 4 für Ende 2024 plant, arbeitet das Architekturteam schon längst am Folgeprojekt und das Chip-Design von RDNA 4 nähert sich der Fertigstellung.
Zu 4: Das hat AMD schon längst gemacht. Ich bin zum Jahreswechsel zufälligerweise bei LinkedIn auf eine Gruppe von AMD-Treiberentwicklern gestoßen. Die meisten dieser Gruppe haben 2021/22 bei AMD angefangen.
ghecko schrieb:
RDNA3 erinnert mich etwas an die Vega-Karten. Die Computeleistung hat sich bei den Karten fast verdoppelt, wie man in vielen Anwendungen sehen kann.
IMO ist eines der Problem von RDNA 3, dass sich die Computeleistung nicht generell verdoppelt hat.
Sie hat sich in nur einigen Teilbereichen verdoppelt. In anderen Teilbereichen ist die Computeleistung von RDNA 3 im Vergleich zu RDNA 2 nur wenig gestiegen. Deshalb sind die hohen Werte für die theoretische Rechenleistung irreführend.

Dual Issue, das die theoretischen Performance-Werte aufbläst, ist massiv eingeschränkt. Für das erste ISSUE stehen 14 Befehle und für das zweite ISSUE stehen 19 Befehle zur Verfügung:
1687084432643.png

1687084628806.png

Für FP32 stehen einige Befehle zur Verfügung. Aber dies ist auch nur ein Teil des FP32-Befehlsumfangs, z B. fehlt die Division. Bei den Bit-Funktionen für 32 Bit, bei FP16 und vor allem bei Integer sieht es deutlich schlechter aus.

Für Dual Issue muss bei beiden Issues muss das 2-Operanten Befehlsformat verwendet werden. Bei Dual Issue stehen die Befehlsformate mit einem oder drei Operanten nicht zur Verfügung.

Wenn das Problem, das man lösen will, weitgehend mit den Dual Issue Befehlen auskommt, profitiert man gut von RDNA 3. Wenn das Problem das man lösen will nur zum geringen Teil mit Dual Issue Befehle verwendet, profitiert man nicht von RDNA 3. Und dies passt sehr gut auf die von Game zu Game stark schwankende Performance von RDNA 3.

Außerdem performen die neuen Spiele nuicht durchweg gut. Auch hier ist es schankt es von Spiel zu Spiel. schwankend. Deshalb liegt es IMO weniger an den Compilern und dem Umfang der manuellen Treiberoptimierung, sondern eher an der Art und Weise wie die Games programmiert sind.

ghecko schrieb:
Auch mit RT kommt man langsam an NVIDIA ran.
Das sehe ich genauso. Aber der Fortschritt war nicht so groß dass er honoriert wird. Klar es hat nicht gereicht Nvidia einzuholen, aber AMD hat den Rückstand verkürzt. Wenn die Rasterperformance ähnlich gestiegen wäre, ...

Envoy schrieb:
Die 7900xt hätte eine 7800xt sein sollen, die 7900xtx hätte eine 7900xt sein sollen... Hätte hätte Fahrradkette... Sorry aber die Namengebungen in diesem Jahr sind so absurd, aber darüber wurde nun ja genug gflennt....
AMD hätte sich jede Menge Probleme bei der Platzierung erspart, wenn sie die Grafikkarten anders benannt hätten.

Aber AMD musste die Topmodelle von Navi 31 als 7900 auf den Markt bringen, weil sie 1000 USD verlangen wollten/mussten. Eine 7800XT für 1000 USD hätte ganz andere Diskussionen entfacht. Und die wäre weit schlimmer gewesen.

Philste schrieb:
Immer schön den Aussagen von AMD glauben, die dann plötzlich nach dem Launch kamen...
Einfach mal ne 384Bit GPU mit 5.3TB Infinity-Cache Bandbreite entwickeln, inklusive 7 Dies und 530mm^2 Gesamtfläche um damit einen 256Bit 380mm^2 Monolithen zu matchen.
Monolithisch umgesetzt hätte Navi 31 unter 500 mm². Immer noch deutlich mehr als der AD103.

Dass Navi 31 nur ein bisschen vor dem AD103 liegt, war ganz sicher so nicht geplant. Wenn Navi 31 die von AMD verkündigten 54 % höhere Effizienz als Navi 21 tatsächlich liefern würde, dann würden wir hier nicht diskutieren.

Philste schrieb:
Wer AMD glaubt, dass ein 4090 Gegner nie geplant war, der glaubt auch echt alles.
Aber wenn Du schon einen solchen überheblichen Tonfall anschlägst, dann solltest Du bitte auch die Die-Fläche der 4090 nennen. AD102 hat 608 mm² Die-Fläche. Nvidia hat hier voll durchgezogen und wollte auf alle Fälle so etwas vermeiden wie bei Ampere vs RDNA 2.

Ich denke es war AMD frühzeitig klar, dass es für die 4090 nicht reichen wird. Dass Navi 31 so weit zurückliegt ist, IMO auch für AMD eine Enttäuschung.

Rick Bergmann und David Wang waren mit ihrem Interview in Japan ziemlich offen und ehrlich. AMD hat Navi 31 für den Preispunkt 1000 USD entworfen. AMD kann vom Preis her nicht höher gehen. Auch RDNA 4 wird AMD für den Preispunkt 1000 USD entwerfen.

Bei Strix Point ist neuerdings von RDNA 3.5 die Rede. Wenn das stimmt und auch keine Marketingphrase ist, bringt Strix Point vielleicht ein paar Antworten über RDNA 3 bringen.
bensen schrieb:
Gleichzeitig ist AD102 einfach deutlich fetter geworden als angenommen. Selbst für Nvidia ist es doch ungewöhnlich, dass die gleich im neuesten Fertigungsprozess die Die size fast komplett ausreizen.
GA102 hat 628 mm². AD102 ist sogar kleiner. Die Wafer bei TSMC sind deutlich teurer als das Sonderangebot bei Samsung. Also hat Nvidia schon ordentlich draufgepackt.

Ich finde die 4090 ist keine Überraschung. Wieso sollte Nvidia beim Halo-Produkt 4090 zurückschrauben? Außerdem ist die 4090 kein reines Consumerprodukt. Viele setzen sie beruflich ein. Alle Leute, die bisher die 3090 beruflich eingesetzt haben, müssen IMO nicht lange überlegen, um zu entscheiden, dass sie eine 4090 holen.

flaphoschi schrieb:
Frage
Haben wir Daten zur Leistung und Stromverbrauch der mobilen RDNA3 im Ryzen 74xx?
Nach allem was schon herumgeistert verhält es sich so wie bei bei Navi 31 und Navi 33.
Ein bisschen besser als RDNA 2 aber nicht viel.

Wenn man die Verbesserungen bedenkt, die RDNA und RDNA 2 gebracht haben, gibt es für RDNA 3 im Vergleich nur ein Wort: Enttäuschend. Bei GPUs ist Stillstand ein Rückschritt.

flaphoschi schrieb:
Wir haben hier ja auch die Theorie, dass es einen Hardwarefehler gibt.
Das verdichtet sich immer mehr.
flaphoschi schrieb:
Liegt der an den Chiplets?
IMO nein. Latenzen und Bandbreite von Navi 31 passen. Das Problem liegt IMO bei den Shadern.

Siehe auch:
https://chipsandcheese.com/2023/06/14/latency-testing-is-hard-rdna-3-power-saving/

flaphoschi schrieb:
Aber sollte dann nicht die 7600 wenigstens gut skalieren?
Die 7600 skaliert schlechter:
7900XT (84 CU) vs 6950XT (80 CU): ca +20 %
7600 vs 6650XT jeweils 32 CU: ca +8 %

Hier profitiert Navi 31 natürlich vom breiteren Speicherinterface und dem fortschrittlicheren Prozess.

https://www.computerbase.de/artikel...benchmarks_in_spielen_mit_und_ohne_raytracing

flaphoschi schrieb:
Wenn RDNA3 an sich problem hat, müsst dir mobile GPU ja auch gegen RDNA2 im Zen3+ 68xx verlieren?
RDNA 3 verliert nicht gegen RDNA 2. aber es ist eben nicht so viel besser wie RDNA 2 wie eigentlich erhofft/erwartet

Hatsune_Miku schrieb:
Je mehr ich über RDNA3 lese umso eher hätte ich mir gewünscht das AMD einen RDNA2 refresh mit einem shrink auf den markt geworfen hätte. RDNA2 ist wirklich gut.RDNA3 hätte wohl einfach noch etwas mehr zeit benötigt, mal vom treiber zu schweigen.
Bei Navi 33 wäre IMO fast dasselbe raus gekommen, wenn AMD Navi 23 komplett neu in N6 layoutet hätte. IMO spielt die Raytracingleistung, die bei RDNA 3 deutlich gestiegen ist, bei der 7600 keine große Rolle.

Bei der Navi 31 ist die gestiegene Raytracing Leistung schon interessanter.
Wenn RDNA 2 so wie Zen 4 vom neuen Prozess profitiert hätte, dann wäre es bezüglich Rasterleistung bzw. Effizienz sehr interessant geworden.

Ich bin inzwischen gar nicht mehr so sicher, dass die Software und die Treiber bei RDNA 3 zum Problem entscheident beitragen. Dass der hohe Idle-Verbrauch auf der Know-Bug-Liste des Treibers steht, kann muss aber nicht bedeuten dass hier ein Fehler im Treiber vorliegt.
 
  • Gefällt mir
Reaktionen: 0xtapi, flaphoschi und Vitche
kachiri schrieb:
RDNA3 ist wirklich eine richtige Enttäuschung.
Was sört dich denn? Vielen hier kann man leider gar nichts recht machen. Die finden immer etwas zu meckern. Ich werde mir eine 7900XTX holen. Eigentlich warte ich nur auf eine 7950XTX.
 
SaschaHa schrieb:
Das scheint bei MindFactory aber noch nicht ganz angekommen zu sein:

https://twitter.com/TechEpiphany/status/1667537641288417283
ist das ein schlechter scherz?

da sind doch nur knapp 1k amd gpus verkauft in dem zeitraum.. dazu auch nur in de... das ist doch nen furz in der statistik.

darauf schliesst du das es prima läuft für amd? oder was bitteschön willst du damit sagen?

das ist nichtmal ein tropfen auf dem heissen stein statisk wise.


TOP 25 GPUs nach verbreitung

nix von rdna 2 geschweige den rdna 3 zu sehen (rdna 3 wird nichtmal in der statistik geführt da zu niedrige verkäufe, die 4090,80,70ti tauchen aber einzeln schon auf)

und nun schau mal

amd taucht erst irgendwo bei 23,24 platz auf mit einer diskreten gpu, und dann noch vega 580... mit mit 1.1% marktanteil


ich bin weder nv noch amd fanboy mir gehts am a vorbei, ich sags nur wie es ist, und daraus lässt sich schliessen das amd gpus nicht gekauft werden verglichen mit nvidia, einfach kein bedarf.

top 25 nur eine alte rdna1 karte, RDNA2 taucht erst irgendwo bei platz 40 auf !

anscheinend kaufen die kunden nvidia, ist einfach so.

mir bringts weder was nv oder amd zu pushen beide haben mich im arsch aber man muss auch einfach die fakten akzeptieren und richtig deuten.

die 4000er Serie von Nvidia ist bereits einzeln vertreten 4090,4080,4070ti, während die 7900xtx/xt nichtmal einzeln aufgrund niedriger verbreitung geführt werden.

man man man
 

Anhänge

  • Screenshot 2023-06-18 195657.png
    Screenshot 2023-06-18 195657.png
    52,6 KB · Aufrufe: 164
  • Screenshot 2023-06-18 200137.png
    Screenshot 2023-06-18 200137.png
    269,4 KB · Aufrufe: 162
Zuletzt bearbeitet:
bensen schrieb:
Aha. Also AMD weiß haargenau, wie groß der AD102 wird aber Nvidia hat keinen Schimmer was AMD treibt. Klingt plausibel.
woher soll ich wissen was du denkst?
Ich kann leider nix dafür, dass du das nicht korrigierst
bensen schrieb:
Vor knapp zwei Jahren hatte N31 schon seinen tape-out. Ein bisschen spät um den Chip nochmal neu zu designen.
eigentlich waren da so einige Chips in Entwicklung, welcher am Ende dran kommt weiß man oft erst 1 Jahr später.
Und ja, offenbar hatte man die richtige Annahme. Hätte der Compute Chip die erhofften Taktraten erreicht wäre man ja an Nvidia wesentlich näher dran
bensen schrieb:
Wie oft soll ich das noch schreiben? Weil es eben eine 2.7 fache Steigerung der Transistoren war, während es zuvor nur 1.5x Steigerungen gab.
und wie oft muss ichs noch erklären, dass die Transistoren zu einem großen Teil vom Cache kommen, der nunmal neu ist.
Die reine Zahl der Logik ist eine andere, dazu gibts Schätzungen im Netz, kannst sie dir ja aussuchen.
bensen schrieb:
GA102 war auf einem uralt Prozess. Auf einen nagelneuen Prozess gab es nie zuvor so einen großen Consumer Chip.
Tjo, wenn man den Chip nicht bringen muss, bringt man ihn nicht, in Entwicklung war er immer.
Es gibt da einige direkte Berichte von ATI/AMD, wie man mit falschen Gerüchten Nvidia schon früher gezwungen hat einen größeren Chip vorzubereiten.
Solche Varianten hat Nvidia immer in theoretischer Planung. Diesmal hat man sie halt miteingeplant weil AMD ein skalierbares Konzept hat, also macht man einen Chip dem du auch mit mehreren kleinen Chips nicht beikommst (weil ein großer Monolith immer noch einige kleine Vorteile gegenüber insgesamt gleich großen kleinen Chips hat).

bensen schrieb:
Aber klar, du hast das alles natürlich schon von vorneherein gewusst. Vielleicht heuerst du bei AMD an. Die können so pfiffige Leute brauchen.
Ja, auch bei AMD hat man das gewusst
bensen schrieb:
Nur eine kleine Zwischenfrage. Wenn AMD gewusst hat, was Nvidia vor hat. Warum haben sie nichts adäquates entgegen gesetzt?
Hokus-Pokus-Fidipus so einfach erstellt man einen besseren Chip wenn man die Specs des Konkurrenten kennt.
Warum hat ATI/AMD diesen Zauberspruch nur die letzten 15 Jahre nur 1x angewandt (bei der Radeon 5870)
bensen schrieb:
Wow, was für eine Leistung. Der Chip wird natürlich groß, sonst wäre er langsamer als sein Vorgänger. Und natürlich wird die Transistormenge nicht wieder so extrem zunehmen (wobei ist ja nicht extrem, sondern völlig normal wenn man dir zuhört)
wenn man verstehend lesen kann ist es nicht so herausragend. Vielleicht hast du dich einfach zu wenig mit den Daten befasst.
Auf dem Papier sind fast 3x so viel Transistoren verbaut worden.
Aber eben nicht 3x so viele Einheiten, viel geht eben auf dem Cache zurück.
bensen schrieb:
weil das selbst bei maximal möglicher Die size in N3e nicht annähernd möglich ist. Selbst +50% werden stramm.
Aber 50% mehr Logik wären kein Problem
Und 200% mehr RT Einheiten wären auch kein Problem.
Cache fügt man halt 1x zum Konzept hinzu, dann ist es ab nun immer dabei. Wird immer Chipfläche fressen.
bensen schrieb:
Es sei denn sie gehen auch auf Chiplets. Sollte dir sicherlich schon bekannt sein oder? Der Nachfolger wird ja spätestens in zwei Jahren releast. Bitte teile deine Informationen.
Nvidia probt seit Jahren mit Chiplets und solange es nicht notwendig ist wird man sie auch nicht (über die ganze Serie hinweg sowieso noch nicht) einsetzen. Und ja, auch da schaut es aktuell richtung Monolith aus, bei den größeren Chips.
 
Zuletzt bearbeitet:
@shayenaaa, in der Steam Statistik sind verwendete, nicht immer vom Händler oder Privat Personen verkaufte Karten.
Das Ex Mining Rig im Internetcafe in Indien, Dell „Workstation“ usw.

Nvidia hat auch groß in allen News 100.000 ausgelieferter AD102 Chips gefeiert. 160.000 4090+4080 zusammen.

Hatte ich so vorher noch nie gelesen und scheint wohl eine ordentliche Hausnummer zu sein.
Dementsprechend sind die Verkaufszahlen der Händler nicht zu unterschätzen.

Mindfactory und ein paar andere US/UK Händler geben noch verkaufte Einheiten an und auch hier kommt AMD gut weg.

Beim Umsatz für Gaming in den öffentlich zugänglichen Dokumenten, ist der Unterschied auch nicht so eklatant wie in der Steam Umfrage gelistet.
Hier spielt auch RDNA2 noch oben mit, von RDNA3 werden derzeit nur die Speicher Prepper angefixt.

Eine 7800XT müsste der Vollausbau von Navi 31 sein, mit gesenktem Takt um mit 4070/ti mit halten zu können.
 
ETI1120 schrieb:
Ich bin inzwischen gar nicht mehr so sicher, dass die Software und die Treiber bei RDNA 3 zum Problem entscheident beitragen. Dass der hohe Idle-Verbrauch auf der Know-Bug-Liste des Treibers steht, kann muss aber nicht bedeuten dass hier ein Fehler im Treiber vorliegt.
Danke bezüglich Einordnung RDNA2 und RDNA3 im Mobilbereich :)


Treiber und Kernelmodule
Wenn es nur ein Softwareproblem wäre, müsste wir von Phoronix hören wie viel besser es unter Linux läuft?
https://www.phoronix.com/review/may-2023-linux-gpus/2

AMD steht gut da bei CSGO. Aber nicht überall! Offene Dokumentation und gut ausgebaute Kernelmodule. Nvidia hat nur Closed-Source Kernelmodule, welche sich mit Windowstreibern den Code teilen müssen.

Faustregel: Lieber langsam und zuverlässig als instabil und problembehaftet. Also kaufen alle AMD oder Intel mit Linux. Und es ist vernünftig, es soll stabil laufen. Wieso sollte man auch jemand Geld geben der schlechte Arbeit liefert und mit einer Verweigerungshaltung stört - ich meine Nvidia. Torvalds hat dazu alles gesagt…äh Handgeste ;)

Nur hat halt weder die Windowsfraktion noch die Linuxfraktion großes Interesse and plattformübergreifenden Tests. Ich finde es aber interessant, weil es erlaubt Hardware und Software - in gewissen Rahmen - zu trennen.

ComputerBase hat zum Glück angefangen Vergleichswerte bei Diablo 4 zu liefern. Das erlaubt Hardware und Software zumindest getrennt zu betrachten. Und auch bei Intel Arc lohnt sich das auch.

Bei RDNA4 und Nvidia Lovelace + 1 wäre eine unmittelbare OS-Vergleich aufschlussreich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sardok und LPCyber
Schade für alle die auf RDNA 3 Mittelklasse gewartet haben.
Ich habe zum Glück ne 6800xt und bin sehr zufrieden.
Für um die 600 Euro würde ich aktuell vermutlich zur 4070 greifen oder 6950
 
  • Gefällt mir
Reaktionen: LPCyber
SaschaHa schrieb:
Die 4070 Ti ist für die gebotene Gamingleistung einfach zu teuer. Ich persönlich habe mir zwar trotzdem kürzlich eine gegönnt, da sie ich von der Computing-Performance und dem niedrigen Stromverbrauch (185 Watt mit 65% Powerlimit und dank 180 MHz OC kaum Performanceverlust) profitiere und sie super leise betreiben kann, aber allgemein halte ich sämtliche RTX 40XX-Karten für zu teuer aktuell.
du meinst 16 gb vram war auch mit der gebotenen geringen wattleistung gegangen alles klar
SaschaHa schrieb:
Die RX 7800-Karten könnten da ganz gut Druck auf die 4070 (Ti) ausüben, von daher bleibt es durchaus sehr interessant, wie diese bepreist werden.
So viel Watt wird es warscheinlich auch nicht sein klar leistung auch nicht so krass aber 16 gb vram hehe
 
Philste schrieb:
Immer schön den Aussagen von AMD glauben, die dann plötzlich nach dem Launch kamen...
Einfach mal ne 384Bit GPU mit 5.3TB Infinity-Cache Bandbreite entwickeln, inklusive 7 Dies und 530mm^2 Gesamtfläche um damit einen 256Bit 380mm^2 Monolithen zu matchen. Wer AMD glaubt, dass ein 4090 Gegner nie geplant war, der glaubt auch echt alles.
Auch hier muss ich dir bedingt zustimmen..

Ich denke mal die 7900XTX war ausgelegt auf einen abgespeckten 4090 Chip, da AMD nicht daran glaubte, dass NV sowas macht.. Weiterhin vermute ich, dass der 4090Chip mit der 450W TDP am Ende nicht ganz die Leistung gehabt hätte.. Nvidia hatte hier massiv Luck, dass TSMC Wafer frei hatte.
Aber alles deutet bei Full N31 auf einem AD102 Gegner hin. Ich hätte gerne gesehen, wie RDNA3 performed hätte bei 50% Improvement pro Watt

Sollte die 7800XT das fairere Angebot zur 4070 sein, dann nehme ich diese gerne.. Auch wenn NV wohl die besseren Verbrauchswerte haben wird. Wenn die 7800XT am Ende bei dem von Igor ermittelten Wert raus kommt, darf diese GPU keine 600€ kosten.. eher 499USD..
 
Nun das amd nochmal den n31 beschneidet ist überraschend
Bringt aber gute sku mit aber bei den preisen werden einige aufstoßen
rx7700 vermutlich 430€ 16,3tf
rx7700xt vermutlich 530€ 21tf
rd7800 vermutlich 630€ 23tf
rx7800xt vermutlich 730€ 27,5tf

Zu der Annahme von rdna3 simd32 doppel fp32 nutzung

keiner wirklich keiner programmiert spiele auf hardwarelevel
das geht vond er api aus nicht und weil das viel zu speziell ist

Wie die rdna3 arch mit den zusätzlichen simd32 fp32 auslasten kann liegt allein am Speichersystem
Und das ist direkt Treiber gebunden und bedingt ne Latenz
GPu sind linear um eine alu mehr Operationen pro cu zu erreichen muss mehr daten im cache und renderpfad sein
mehr als nur 2 Operationen pro alu gab es schon früher mit nvidia g80 arch (tesla) mit den fpu Einheiten diese hatten aber breiteres cache system und waren primär für fp64 gedacht aber konnten eben 4 fp32 ausführen weil die daten dafür im cache der kerne passten.
Das kostet aber Chipfläche, amd Ansatz ist das sich die alu die daten teilt mit der simd32 Einheit folglich entscheidet wer zuerst den Befehl ausführt bzw zuerst die daten bekommt zum rechnen.
Daraus ergibt sich eine Auslastung von 17% bei einen bestimmten Takt.(Angabe von nen amd engineer)
bei 6nm ist dass 1,6ghz mit dem vollem 2,6 Operationen oder eben 25% von 2 Operationen plus 2 Operationen nativ
Oder 2,34 bei 2,6ghz =17% bei 5nmn

amd hat sich aber vorgestellt das min 3,6ghz und bei n6 2,6ghz gehen
Das blöde aber ist das die Auslastung sinkt je höher der Takt wird. Was an der latenz des sram liegt.
Oder anders je höher der Takt desto mehr Fehler macht der cache.
Das ist ein schwerwiegender design Fehler und lässt sich nur mit einer neuen gpu design ändern.
Am ende kann man sagen das rdna3 quasi taktseitig nen schritt zurück gegangen ist
n6 auf 1,6ghz und n5 nur 2,6ghz
Folglich kann amd aktuell nur abwarten bis rdna4 bereit ist und den rest des lineups mit reduzierter Produktion von n5 und dann rdna4 mit n3p, n4 das gefixt bekommt.
ursprünglich war ein refresh angedacht aber das hat sich erledigt.
Ob n3p oder n4 ist eine reine Kostenfrage und sollte sogar ne sku frage werden ab high end also n41 sehe ich n3p mit etwa 4,0ghz gpu Takt und bei n4 mit gefixten n42 dann nur 3,6ghz
Die cu per gcd werden beim high end dann 7680 und n42 nur 3840 den n43 sehe ich bei 2560 und den n44 monolith n6 2048.


Es gab schon früher fp16 Ansatz und fp64 Ansatz (gcn) die eine ähnliche Limitierung am cache hatten das die alu nicht ausgelastet werden konnten das macht man nur um chipfläche zu sparen.
amd versuche das per mehr alu zu fixen stoßen früh auf grenzen der shademenge
terrascasle fp16 bis hd6000 war 1536 alu (alu *Takt *2*0,3 operrationen pro cu)
gcn fp64 war 4096 alu (0,6 opertioen pro cu)
erst rdna2 auf fp32 basis (1 operatuonen pro cu) erreicht 5120 aus kostengründen
und aktuell rdna 3 mit 2,34 Operationen pro cu aktuell 6144 alu
grenze offen ich rechne mit 7680 alu bei rdna4 bei gleicher 17%

nvidia ist seit 2006 fp32 basierend mit Änderungen an fpu und int32 seither.

man kann ne arch auf fp64 basierend bauen die auch dann 4 Operationen fp32 kann muss aber ne menge platz an cache in der alu aufwenden was die chips heiß und groß werden lässt.
Will man dann mehr dichte verhindert die wärme das der Takt steigt.
Darum macht amd den Kompromiss und muss wohl zwangsweise den cache leicht vergrößern und den Aufbau mehr wärmeleitend gestalten damit die Taktraten steigen und die Auslastung gleich bleibt.
Wenn schlecht läuft wird n3p lediglich bei 3,4ghz sein und n4 die 3,0ghz nicht überschreiten.
Die alternative wäre die ganze arch umbauen und größere chips und dann mehr Takt zu erreichen.
Das wird sich mit n2p ändern
Da dann etwa -40% strombedarf ankündigen
Aber das ist erst 2028 soweit
 
  • Gefällt mir
Reaktionen: Rockstar85
Grundgütiger schrieb:
@shayenaaa, in der Steam Statistik sind verwendete, nicht immer vom Händler oder Privat Personen verkaufte Karten.
Das Ex Mining Rig im Internetcafe in Indien, Dell „Workstation“ usw.

Nvidia hat auch groß in allen News 100.000 ausgelieferter AD102 Chips gefeiert. 160.000 4090+4080 zusammen.

Hatte ich so vorher noch nie gelesen und scheint wohl eine ordentliche Hausnummer zu sein.
Dementsprechend sind die Verkaufszahlen der Händler nicht zu unterschätzen.

Mindfactory und ein paar andere US/UK Händler geben noch verkaufte Einheiten an und auch hier kommt AMD gut weg.

Beim Umsatz für Gaming in den öffentlich zugänglichen Dokumenten, ist der Unterschied auch nicht so eklatant wie in der Steam Umfrage gelistet.
Hier spielt auch RDNA2 noch oben mit, von RDNA3 werden derzeit nur die Speicher Prepper angefixt.

Eine 7800XT müsste der Vollausbau von Navi 31 sein, mit gesenktem Takt um mit 4070/ti mit halten zu können.
Das passt schon so mit der Steam Survey, bestes Beispiel und Indikator ist wieder mal die neue Generation:

7900xtx <0.15%
7900xt <0.15%

sind in der Kategorie "Andere" unter <0.15% Marktanteil gelistet da sehr sehr niedrige verbreitung.

derweil haben
4070ti 0.46%
4090 0.44%
4080 0.33%

Sollte deine These stimmen das die garnicht so schlecht wegkommen, würden sie auf eine ca gleiche evtl etwas schlechtere verbreitung treffen.

Tun sie aber nicht. Obwohl ähnlicher Zeitraum sowie günstiger...und mehr Ram und das für weniger Geld sogar :-)
Hier spielt auch RDNA2 noch oben mit
Die Erste RDNA2 Karte taucht auf dem 40ten platz auf, komm erzähl doch nichts bitte das RDNA2 irgendweie von relevanz wäre im Gesammt Markt :).

Die karten sind kaum verbreitet im Gesammt Bild.

Die erste RDNA2 Karte taucht erst irgendwo auf den 40ten platz auf, schon seltsam.
Mindfactory und ein paar andere US/UK Händler geben noch verkaufte Einheiten an
Aha.. und dort schneiden die karten also komischerweise viel besser ab, und die Einträge in Steam spiegeln ein falsches Bild ab, da Mindfactory und irgendein UK Händler vllt mehr AMD Gpus verkauft hat? Bzw gleichviel wie Nv?
 
Zurück
Oben