Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD Radeon RX 7000 („RDNA 3“): PowerColor zeigt roten Teufel, Leaker ersten Navi-31-Chip
Die 7900XTX ist >50% schneller als die 6900XT bei gleichem Verbrauch (304 W). Der Rest kommt über den Takt und den minimal größeren TDP Headroom (75 W).
Hast du eine Quelle dafür? AMD hat +50% Performance / Watt angegeben und das gilt bei dem fertigen Produkt. Bisher hat AMD diese Vorhersage zweimal eingehalten und nie sowas wie "(bei gleichem Verbrauch)" gebracht, anders als Nvidia. Ich gehe davon aus, dass es diesmal wieder mindestens exakt 50% beim Vergleich von 6900XT auf 7900XT sind, und bei kleineren Modellen wie bisher mehr.
Philste schrieb:
AMD scheint das gemacht zu haben, was Nvidia schon mit Ampere gemacht hat: Doppelte FP32 Einheiten, bei selber Anzahl INT. Das heißt eigentlich gibt es nur ~20% mehr Einheiten.
Nvidia hat damals gar nix erhöht, sondern nur die bestehenden INT-Einheiten verändert. AMD hatte schon immer Einheiten, die beides können. Ein Umstellen auf dedizierte INT- bzw. FP-Einheiten halte ich für extrem unwahrscheinlich. Es kommt nur darauf an, wie gut die Auslastung wird und ob die Einheiten schnell genug vom Speicher gefüttert werden können.
Ich glaube ein paar grüne Fanbois bekommen gerade Arschflattern. Deswegen wird hier was von Userbenchmark genommen oder halt die 6800 mit der 3090 verglichen. Weil man sie zum gleichen Preis bekommen hat. Ja nee ist klar.
Ich hätte wohl schreiben sollen, in meinem persönlichen PC waren bisher nur Nvidia GPUs. Der PC meines Vaters hat eine AMD GPU, die hatte mehrmals Treiberprobleme, auch halt bei neuen Spielen. Um mal ein Beispiel zu nennen...
Ich habe die ihm sogar gekauft.
AMD scheint das gemacht zu haben, was Nvidia schon mit Ampere gemacht hat: Doppelte FP32 Einheiten, bei selber Anzahl INT. Das heißt eigentlich gibt es nur ~20% mehr Einheiten.
AMD HATTE NIE dedizierte INT Rechenwerke. Die CU bestand zu GCN Zeit aus 4 * Vec16-ALUs, die entweder INT oder FP können und seit GCN 1.3 sogar OHNE Kontextswitch.
Bei RDNA wurde der Aufbau der CU angepasst an 2 * Vec32 und eine zusätzliche Skalare Unit für bestimmte Funktionen wie Cosinus und Sinus.
RDNA3 wird aktuell auf zwei Umbauten spekuliert: CU, die zwei zusätzliche Vec32-Alus bekommen oder die WGP wird von 2 auf 4 CU erweitert.
Es kommen also nicht nur 20 % dazu, wie du falsch behauptest, sondern die 140 %.
Unbekannte sind aktuell TMU, RT-Kerne, da die abhängig sind, was AMD gemacht hat und wie.
Es wäre echt mal schön, wen. Einige von euch Oberschlaubergern sich mal wirklich mit dem Thema befassen, oder einfach mal sich zurück halten.
Ob sie wirklich wie Nvidia die FP32 mit in die Int pipeline gebaut haben, oder ob die zusätzlichen FP32 unabhängig der Int pipeline arbeiten können ist noch nicht bekannt.
AMD scheint das gemacht zu haben, was Nvidia schon mit Ampere gemacht hat: Doppelte FP32 Einheiten, bei selber Anzahl INT. Das heißt eigentlich gibt es nur ~20% mehr Einheiten.
AMD hat massiv umgebaut, was dabei rauskommt werden wir bald wissen.
Auch dass die Shader von der Fläche massiv geschrumpft sind kann sich negativ auf die Performance eines einzelnen Shaders auswirken. Aber solche Umbauarbeiten macht AMD nicht wenn sich in Summe daraus kein Nutzen ziehen lässt.
Ich finde das interessanteste an heute Abend wird sein, dass wir einen Einblick in die Performance von RDNA 3 bekommen. Das wird die meisten in Hinblick auf Navi33 und Phoenix Point interessieren. Auch wenn AMD heute Abend weder über Navi 33 noch über Phoenix Pouit spricht.
Navi 33 soll laut Angstronomics eine Die-Fläche von 203 mm² und 4096 Shader/ALUs haben. Das sind sie doppelte Anzahl von Shader und eine kleinere Fläche als Navi 23. Vom Infinity Cache erwarte ich mir auch einen Beitrag.
Phoenix Point hat auch RDNA3. Hier wurde etwas von 6 WGP mit 1536 Shader/ALUs erzählt. Wobei die erstmal die nötige Bandbreite brauchen.
Ich finde es ist wichtig die Erwartungen niedrig zu halten.
Nur so kann man positiv überrascht werden.
@MistressOfAgony
Nur wenn irgend jemand was behauptet ist es noch lange kein Leak.
Der Grund für die lange Frist zwischen Vorstellung und Auslieferung ist auch, dass AMD erst jetzt Treiber herausgibt mit denen die Performance von RDNA 3 abgerufen werden kann. D. h. aktuell weiß nur AMD was tatsächlich kommt.
@DevPandi ok sry, da habe ich nicht nachgedacht. Aber irgendwas muss man verändert haben, denn N7 auf N5 ist ungefähr ×1.5 Scaling und alle 6 Dies von N31 sind ungefähr so groß wie N21. Und fast die Hälfte der Chipfläche ist N6 und nicht N5. Da 2.4× mehr Einheiten in der bisherigen Form zu verbauen ist unmöglich.
Und die Leistung pro Shader muss ja auch um einiges gesunken sein, ansonsten müsste man ja mit 12k Shadern bei den kolpotierten weit über 3GHz die 4090 komplett beerdigen. Und das kann ich mir nicht virsteölen
Zum Glück sitz ich noch auf meiner 2080ti . Mal schauen was es im Januar wird 😁. AMD wär dieses mal mein favo... Mich nervt Nvidia mit ihren Linux Treibern -___-
Muss man sich jedes mal Ärgern...
Hast du eine Quelle dafür? AMD hat +50% Performance / Watt angegeben und das gilt bei dem fertigen Produkt. Bisher hat AMD diese Vorhersage zweimal eingehalten und nie sowas wie "(bei gleichem Verbrauch)" gebracht, anders als Nvidia. Ich gehe davon aus, dass es diesmal wieder mindestens exakt 50% beim Vergleich von 6900XT auf 7900XT sind, und bei kleineren Modellen wie bisher mehr.
Wozu willst du dann eine Quelle? Du sagst es doch selbst: die 7900XT ist bei gleichem Verbrauch (300 W) >50% schneller als die 6900XT. Nichts anderes habe ich behauptet, aber die 7900XT hat im Referenzdesign die Möglichkeit bis zu 375W zu ziehen. Es werden am Ende als mehr als 50%, aber sehr wahrscheinlich keine 100%.
@Philste Den Leak von Angstronomics nicht gelesen? Die Transistoren pro Shader wurden deutlich verringert, zum Beispiel indem man die FP64-Leistung weiter verringert hat. Daher die geringe Größe pro CU.
Ergänzung ()
@MrHeisenberg Das bedeutet erstmal, dass die 7900XT bei 375W die 50% Vorteil hat. Bei gleichem Verbrauch wird mehr als +50% Leistung anfallen. Das scheinst du irgendwie nicht zu verstehen.
@MrHeisenberg Das bedeutet erstmal, dass die 7900XT bei 375W die 50% Vorteil hat. Bei gleichem Verbrauch wird mehr als +50% Leistung anfallen. Das scheinst du irgendwie nicht zu verstehen.
Nein, heißt es eben nicht. Es gibt keine RDNA2 Karte mit 375 W und zur TDP von RDNA3 hat AMD sich nicht geäußert. Die 375 W kommen daher, weil das Referenzdesign nur 2x8 Pin bietet und damit mehr nicht möglich sind.
Selbst wenn wir von deinem Standpunkt ausgehen, dann sieht es noch düsterer aus (siehe 6950XT).
@Philste Gegenüber N7s low density standard cells ist das weit mehr als nur 1,5x scaling. Memory Bus und Infinity Cache haben bei RDNA2 schon nicht so recht miskalliert, allerdings war die Transistor für N7 trotzdem sehr mager. Da wurden sicherlich viele Dummy Zellen, sowie allgemein größere Standardzellen (Wasserfallkurve der Schwellenspannung) eingesetzt.
AD102 hat einen großen Cache und den Memory Bus on Die und kommt auf auf das 2,5 Fache der Transistordichte von Navi 21.
Dieser Preis wird der sehr wahrscheinlich nicht der endgültige Preis der 4080 sein.
IMO hat Nvidia hier bereits eine Preisreduzierung eingeplant. Aber jetzt die 4080 billiger anzubieten hätte die Preise für die 3000er versaut.
Ich sag nur Intel I5 13600K. Der einfach mal den größten AMD Prozessor in den meisten Umgebungen einkassiert. Wenn man sich dann den Preisunterschied anschaut, auch in Hinblick auf das drum rum, wie Mainboards etc. ist das nicht mehr das AMD was wir vor wenigen Jahren noch kannten.
Das ist so was von vereinfacht... Im Gaming mag der 13600 gut abschneiden - das war's dann aber auch... Und Intel ist was PCI E 5 mit DDR 5 betrifft nicht billiger.
Aber passt zu deiner Argumentation - wide wide wit ich mach mir die Welt wie sie mir gefällt....
Aber bei deiner Argumentation ist der Gegener der 5800x3d und der steht in allen deinen Belangen gut da gegen den 136k ... Beides eine EOL Plattform... Und beides im Gaming sehr stark..
Weil Nvidia aus irgendwelchen Gründen wohl HD Libraries benutzt. Laut Angstronomics bietet N5 sowohl bei HD als auch HP libraries ~1.5× an. HP von 60 auf 90 MTr/mm^2 und HD so von 95 auf 140 MTr/mm^2. Früher dachte man N5 HD wäre bei 170 MTr/mm^2 aber dem scheint nicht so zu sein.