Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Grundsätzlich sind das Luxusprobleme, daher lassen wir das mit dem Gehalt/Lohnthema jetzt.

Gott sei Dank hält meine 2070 auf WQHD noch ordentlich mit. Falls Sie morgen den Löffel abgeben würde,
würde ich mir dann notgedrungen eine 2070ti holen (Habe GSYNC, sonst muss auch ein neuer Monitor her)
So hoffe ich halt darauf das sie noch ganz lange hält und Nvidia und AMD von den derzeitigen Absatzzahlen
lernen und die nächste Generation wieder in "niedrigeren" Preisregionen siedeln.
 
Hatte bisher 6900 XT, 6950 XT und aktuell eine 7900 XTX.
Vorher 3080 & 3080 Ti.

Mit der 7900 XTX gibt es für meinen Geschmack zu viele kleine Probleme bei Games.

The Division 2:
Wenn man ein Safe House im Untergrund verlässt und die Abwassergänge entlang läuft.
Ein extremes UP & Down der FPS. Dieses Problem gab es bei der 6950 XT auch schon mal.
Wurde bei der 6950 XT durch Treiber-Fix gelöst. Und nun das gleiche wieder.

3080 Ti eingebaut: Smoothe FPS in den Abwassergängen.

Nioh 2:
Das Spiel hat von Haus aus Probleme mit gleichmäßigen FPS. Gibt es dort einfach nicht.

In der Untergrund Arena ruckelt das mit der 7900 XTX teilweise dahin. Puhhh.
Mit der 3080 Ti um einiges weniger.

RE4-DEMO 2023:
Beim Eingang zum Haus ruckelt es kurz und heftig (3 kleine Ruckler).
Mit der 3080 Ti ist der Ruckler auch vorhanden, aber bei weitem nicht so ausgeprägt.

Werde jetzt wieder zu NV & 4080 wechseln.

Mit dem total überfrachteten Treiber-Menü von AMD konnte ich mich nie anfreunden.
Da sind Dinge drin, dich ich nie brauche.

Sobald der PC aus Testgründen (CPU-RAM-Test) mal abschmiert, werden alle Einstellung
(GPU-Takt; Mem-Takt) zurückgestellt.

Das PC-Booten mit der 7900 XTX dauert doppelt so lange wie mit der 3080 Ti.

Alles Kleinigkeiten, die zusammengezählt auf Dauer für mich nervig sind.

Das war es mit dem Ausflug ins AMD-Lager.
Nach CPU (5800X; 5950X) bleib ich bei Intel & NV.
 
Zuletzt bearbeitet von einem Moderator:
Komisch. Die Probleme mit der RE4 Demo kann ich nicht nachvollziehen. Genau wie beim booten.
 
hm. Kann ich auch nicht bestätigen. Fast alles davon klingt so, als hättest du nicht Windows neu installiert bzw. zumindest nicht richtig Treibercleanup (DDU) betrieben und noch nVidia spuren im System. Das geht immer schief.

Der Treiber setzt übrigens "nur" dein OC zurück, nicht "alles". Dann kannst du den OC Export einfach wieder importieren. Das dein PC crasht sollte nicht so oft passieren als dass es erwähnenswert wäre. Scheint als hast du ein generelles Problem mit deiner Systemstabilität.

Ich finde den Treiber ziemlich gut. Wenn er durch Grafik OC crasht, stürzt niemals der ganze PC ab und fängt sich noch (mit dem OC reset). Sowie das mit der Übersicht: In dem nVidia Panel und Experience gedöns finde ich es schlimmer. Bis auf die integrierten Aufnehmen und Streamen Funktionen finde ich den AMD Treiber eigentlich ziemlich schlank und die paar Tabs kann man ignorieren. ¯\(ツ)
 
  • Gefällt mir
Reaktionen: MegaDriver und Ghostfacekalle
Ich denke das in 90% das Problem eher vorm Rechner sitzt ;)
Theoretisch sollten die alten NV Treiber nicht stören. Wer weiß was er alles an Software installiert hat oder was er mal "optimiert" hat.
Ich persönlich habe mir bei einem GPU wechsel auch angewöhnt immer das ganze System gleich frisch zu machen,da ich in der Vergangenheit auch mal Probleme hatte.
 
  • Gefällt mir
Reaktionen: Eld0r
haha ja.
Ghostfacekalle schrieb:
Theoretisch sollten die alten NV Treiber nicht stören.
- das hatte ich auch mal gedacht. Die Erfahrung sagt aber was anderes und Jay hatte vor nicht allzu langer Zeit ein ytv dazu. Die Treiber sind alle Krebs und Windows leistet seinen Beitrag alles so kompliziert wie möglich zu gestalten. Von nVidia zu AMD ist unmöglich ohne Probleme, andersrum geht manchmal. Wipe ist immer das sicherste. Ich kenne nur einen einzigen Grafiktreiber der gut mit anderen Grafiktreibern klar kommt: Intel integrated Graphics. ^^
 
  • Gefällt mir
Reaktionen: CMDCake, Klever und Ghostfacekalle
Ich hatte sogar schon Probleme beim tausch zweier ATI Karten. Deswegen mache ich vorsorglich immer das Betriebssystem frisch. ;)
 
Nvidia intern und AMD intern konnte ich das noch nicht beobachten. Aber nie verkehrt. 😅
Gefühlt braucht Windows das sogar bei jedem eigenen Monats-Updates. Windows Updates sind qualitativ so schlecht geworden; seit 2019 mit dem neuen WDM Display Manager nervt mich dass Mal mehr und Mal weniger...
 
  • Gefällt mir
Reaktionen: Ghostfacekalle
Eld0r schrieb:
Von nVidia zu AMD ist unmöglich ohne Probleme
Also von meiner 2070 auf die 6900XT ging damals problemlos.
So viel zu "Unmöglich".
Alten Treiber runter via DDU und happy sein.
 
  • Gefällt mir
Reaktionen: MegaDriver und Eld0r
Danke, das war der Kern meiner letzten Nachrichten. Das war das erste, was ich ihm an den Kopf geworfen habe: Wenn man nicht ordentlich aufräumt, bekommt man seltsame Nachwirkungen durch die verbliebenen Treiber und braucht sich dann nicht über ein instabiles System wundern.
 
  • Gefällt mir
Reaktionen: Asghan
@Asghan
Also ich würde ja auch darauf tippen das das UEFI seines Mainboards vielleicht nochmal geupdatet werden muss.
Gerade bei AM5 gab es am Anfang Probleme und da könnte ein Update durchaus was beheben. Ich erinnere mich auch das die Bootzeit mal speziell erwähnt wurde.
 
C.J. schrieb:
Bei der Effizienz hat sich AMD trotz 5nm wirklich nicht mit Ruhm bekleckert. Von den +50% ist man sehr weit entfernt und man ist im Gegensatz zur vorigen Gen deutlich hinter Nvidia... [...] AMD will Perf/Area, kleine Chips, günstige Fertigungskosten, weil sie erkannt haben, dass die immer steiler anziehenden Preise bei Entwicklung und Fertigung ein massives Hindernis für Fortschritt sind. In Zukunft noch viel mehr. Da passen die MCDs mit älterem Fertigungsverfahren zwar perfekt rein, aber ...
Aber das Problem ist, dass AMD zu sehr auf die Kosten geschaut hat und damit die Effizienz verlor. Die Fehlentscheidung im Design liegt meiner Meinung nach hier:

1713650797674.png


Um die Latenz im Zaun zu halten, steigert man den Takt um satte 43 Prozent bei Infinity Fabric und 18 Prozent beim Gfx. Und da der Infinity Fabric auch noch außerhalb des Chips liegt, verbraucht der auch noch mehr.

Das hätte man anders lösen müssen.

Möglichkeit 1: Man hätte nur die Speichercontroller abgetrennt, den Infinity-Cache aber im Chip gelassen, zumal man den Infinity-Cache ja schon eh bezogen auf die Recheneinheiten halbiert hat. Dann hätte man außerhalb des Chips nicht so viel Bandbreite benötigt und die Latenz wäre bei steigendem Takt deutlich gefallen, weil der Cache im Chip verlieben wäre.

Möglichkeit 2: Man hätte nur die Hälfte an Cache in die MCDs ausgelagert. Die andere Hälfte hätte man im Chip belassen, ob als L2 oder L3 sei mal AMD überlassen. Damit hätte man auch das Latenzproblem des MCD-Designs mit dem verbleibendem Cache auf dem Chip verstecken können.

1713652546652.png


Aber vielleicht kommt diese Lösung mit RDNA 5 dann im Jahr 2025. Bei RDNA 4 im Jahr 2024 soll es ja erst mal wieder monolithische Dies geben...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RAMSoße, Kazuja, Mcr-King und eine weitere Person
Erstaunlich wieviele Chipsarchtitekten hier auf CB sind :-)
 
  • Gefällt mir
Reaktionen: MegaDriver, RAMSoße, Asghan und 2 andere
@Convert, Du suchst Dir die Folien ja ziemlich mit Bedacht aus, nicht war?

AMD gibt die Kosten der Datenübertragung über die Infinity links mit weniger als 5 % des GPU Verbrauchs an. Wieso lässt Du diese Folie 15 weg und zeigst nur Folie 17?

1713686620608.png


Und das Überschlagen mit dem für Fanout genannten Wert von 0,5 pJ/bit bestätigt, dass diese weniger als 5% des GPU Verbrauchs realistisch sind. Bezogen auf den Boardverbrauch liegen sie noch mal niedriger
  • Mit 3,5 TB/s ergeben sich 14 W
    Selbst wenn der Verbrauch an dieser Stelle im Vergleich zu RDNA 2 verdoppelt wurde, spielen die ca. 7 W keine Rolle.
  • Mit dem theoretischen Maximum von 5,3 TB/s ergäben sich 21,2 W

Der Wert in pJ/bit zum GDDR-Speicher hin ist weit höher als diese 0,5 pJ/bit. Auf dem Substrat gibt man typischer Weise 2 pJ/bit an und bei Datentransport über das Board liegt es noch 4 Mal höher.

1713693254992.png



Also wieso sollen diese ca. 14 W bei 3,5 TB/s das Problem bei Navi 31 und Navi 32 sein?


Kannst Du bitte Mal erklären,
  • warum die Navi 33 bei dem AMD deinen Vorschlag gefolgt ist, und alles monolithisch gemacht hat, so schlecht im Vergleich zu RDNA2 performt?
  • warum die iGPU in Phoenix, obwohl sie gar keinen L3-Cache hat und ebenfalls komplett monolithisch ist, im Vergleich zur iGPU in Rembrandt nur einen bescheidenden Zuwachs bringt. Obwohl sie von TSMC N6 auf TSMC N4P wechselt?

AMD hat die Taktdomains getrennt und taktet das Front End höher als die eigentlichen Shader.

Die 7900XTX zeigt ein absolut wildes Taktverhalten.
Das sieht man sehr schön bei dem Plots die TPU beim Grafikkartentests veröffentlich.

AMD Radeon RX 7900 XTX Review - Disrupting the GeForce RTX 4080​

1713686993984.png

https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/38.html

ASRock Radeon RX 7800 XT Phantom Gaming Review​


1713687534203.png

https://www.techpowerup.com/review/asrock-radeon-rx-7800-xt-phantom/39.html

Bei der 7900 XTX erkenne ich 2 Kurvenverläufe mit sehr viel Streuung außen herum.
D.h. bei einigen Lasten erreicht Navi 31 2500 GHz mit ca. 0,87 V bei anderen sind ca. 0,97 V notwendig.

Bei der RX 7800XT hat AMD das Frequenzverhalten deutlich gezähmt und nun eine Gerade mit einer Streuung unterhalb der Gerade. Aber diese Gerade liegt ungüstiger als viele Punkte der 7900 XTX, also hat AMD nichts repariert, sondern nur beruhigt.



Das alles hat dazu geführt dass die allgemeine Ansicht ist, dass RDNA 3 zu viel Spannung benötigt um höhere Frequenzen zu erreichen. Also wenn man die Plots oben betrachtet, dass die Frequenz/Spannungskurve zu flach ist.

Wenn man den Leaks Glauben schenkt taktet RDNA 3.5 erheblich höher.
 
  • Gefällt mir
Reaktionen: ThirdLife, cr4phh, Mcr-King und eine weitere Person
ETI1120 schrieb:
@Convert, Du suchst Dir die Folien ja ziemlich mit Bedacht aus, nicht war?

AMD gibt die Kosten der Datenübertragung über die Infinity links mit weniger als 5 % des GPU Verbrauchs an. Wieso lässt Du diese Folie 15 weg und zeigst nur Folie 17?
Weil Folie 17 zeigt, dass nicht nur der Infinity Fanout im Takt gesteigert wurde, sondern auch der Chiptakt um 18 Prozent um die Latenzen gleich zu halten. Im Klartext bedeutet das: Man macht die Recheneinheiten Dual-Issue, man steigert den Takt um 18 Prozent mit entsprechend höherem Stromverbrauch, doch sobald man Latenzmäßig in der Performance eingeschränkt ist, landet man wieder bei der Navi 21-Limittierung, weil die Latenz trotz höherem Takt nur ausgeglichen, nicht aber reduziert worden ist. Es macht die Effizienz eben kaputt, wenn Recheneiheiten im Leerlauflauf auf Höchsttaktraten laufen, weil diese auf Daten warten. Und ja, zusätzlich kommen noch die von dir ausgerechneten Extra-Watt dazu, durch den Mehrverbrauch, dass die Links durch Fanout, statt durch den Chip laufen. Aber ja, mein Punkt war nicht, dass Fanout Links so viel verbrauchen, sondern dass die Latenz schlechter ausfällt und man die Latenz eben z.B. durch mehr Cache auf dem Chip hätte ausgleichen müssen, statt mit mehr Takt, deswegen spielt die Folie 15 keine große Rolle für meine Argumentation.
ETI1120 schrieb:
Kannst Du bitte Mal erklären,
  • warum die Navi 33 bei dem AMD deinen Vorschlag gefolgt ist, und alles monolithisch gemacht hat, so schlecht im Vergleich zu RDNA2 performt?
In wie fern performt Navi 33 schlecht? Navi 33 ist im 6nm Prozess hergestellt, der wiederum kaum Effizenzsteigerung zum N7P Prozess des Navi23 bringt, sondern vor allem die Kosten reduzieren soll und die Packungsdichte zunimmt. Deswegen ist Navi 33 auch kleiner als Navi 23 und trotz dessen ist Navi 33 schneller und effizienter. Genau genommen ist Navi 33 genau so effizient wie Navi 32. D.h. die Effizenzsteigerung des 5nm-Prozesses bei Navi 32/Navi31 verpufft durch die negativen Effekte des MCD-Designs.

1713709914052.png


ETI1120 schrieb:
  • warum die iGPU in Phoenix, obwohl sie gar keinen L3-Cache hat und ebenfalls komplett monolithisch ist, im Vergleich zur iGPU in Rembrandt nur einen bescheidenden Zuwachs bringt. Obwohl sie von TSMC N6 auf TSMC N4P wechselt?
Ich weiß nicht, was IGPU mit dem Thema zu tun hat. IGPUs von AMD sind Banbbreitenlimitiert, wegen des vergleichsweise langsamen DDR-Speichers am Dual-Channel. Ich weiß jetzt nicht, wie uns das bei dedizierten Grafikkarten mit GDDR6 und einem gleich bleibendem oder gar verbreitendem Bus-System weiter helfen soll.

ETI1120 schrieb:
AMD hat die Taktdomains getrennt und taktet das Front End höher als die eigentlichen Shader.
Weil im Front-End die Infinity-Links ankommen und diese höher getaktet werden mussten, damit der Chip nicht noch mehr auf Daten warten muss, richtig?

ETI1120 schrieb:
Die 7900XTX zeigt ein absolut wildes Taktverhalten.
Das sieht man sehr schön bei dem Plots die TPU beim Grafikkartentests veröffentlich.

AMD Radeon RX 7900 XTX Review - Disrupting the GeForce RTX 4080​

Anhang anzeigen 1476383
https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/38.html

ASRock Radeon RX 7800 XT Phantom Gaming Review​


Anhang anzeigen 1476386
https://www.techpowerup.com/review/asrock-radeon-rx-7800-xt-phantom/39.html

Bei der 7900 XTX erkenne ich 2 Kurvenverläufe mit sehr viel Streuung außen herum.
D.h. bei einigen Lasten erreicht Navi 31 2500 GHz mit ca. 0,87 V bei anderen sind ca. 0,97 V notwendig.

Bei der RX 7800XT hat AMD das Frequenzverhalten deutlich gezähmt und nun eine Gerade mit einer Streuung unterhalb der Gerade. Aber diese Gerade liegt ungüstiger als viele Punkte der 7900 XTX, also hat AMD nichts repariert, sondern nur beruhigt.



Das alles hat dazu geführt dass die allgemeine Ansicht ist, dass RDNA 3 zu viel Spannung benötigt um höhere Frequenzen zu erreichen. Also wenn man die Plots oben betrachtet, dass die Frequenz/Spannungskurve zu flach ist.
Gibt es irgendwo eine Quelle, die besagt, dass man mit den von AMD ausgewählten Tranistoren in 5nm höhere Taktraten hätte erziehlen können, mit der besagten Spannung? Also ich kenne da nichts auch nichts von dennen, die darüber spekulieren, dass die Taktraten angeblich zu niedrig sind.

ETI1120 schrieb:
Wenn man den Leaks Glauben schenkt taktet RDNA 3.5 erheblich höher.
RDNA 3.5 wechselt ja auch von 5nm auf 4nm und 4nm bringt tatsächlich etwas mehr Leistung zum 5nm Prozess, im Gegensatz zum Wechsel von N7P auf 6nm
 
  • Gefällt mir
Reaktionen: Mcr-King
Convert schrieb:
Gibt es irgendwo eine Quelle, die besagt, dass man mit den von AMD ausgewählten Tranistoren in 5nm höhere Taktraten hätte erziehlen können, mit der besagten Spannung? Also ich kenne da nichts auch nichts von dennen, die darüber spekulieren, dass die Taktraten angeblich zu niedrig sind.
Naja, haben das nicht AMD Mitarbeiter in diversen Interviews selbst gesagt ? Dass sie von den Taktraten enttäuscht sind und eigentlich mal 3-3,5 Ghz angepeilt waren ?

Convert schrieb:
RDNA 3.5 wechselt ja auch von 5nm auf 4nm und 4nm bringt tatsächlich etwas mehr Leistung zum 5nm Prozess, im Gegensatz zum Wechsel von N7P auf 6nm
Naja, N6 hat zumindest rund 18% mehr Logikdichte ermöglicht wenn auch sonst nichts bzw. nicht viel. Man könnte also durchaus mehr Leistung hieraus ziehen bei gleicher Die-Size.
 
  • Gefällt mir
Reaktionen: Mcr-King
ThirdLife schrieb:
Naja, haben das nicht AMD Mitarbeiter in diversen Interviews selbst gesagt ? Dass sie von den Taktraten enttäuscht sind und eigentlich mal 3-3,5 Ghz angepeilt waren ?

Ich habe das eher so verstanden, dass man sich mehr erhofft hat beim Takt, aber höhere Taktraten einfach in keinem Verhältnis zum Stromverbrauch mehr sinnvoll waren.

Gerade bei den 7000er Karten muss man ja auch sagen, dass die häufig ihre TDP komplett ausreizen und damit am Limit agieren. Jetzt schon erkauft man sich die letzten 10% Leistung mit enorm mehr Strom. Wahrscheinlich hätte man noch mal 100 Watt drauf packen müssen um 7-8% mehr Leistung über den Takt rauszubekommen.

Dagegen bei Nvidia das komplette Gegenteil. Sowohl bei der 4080 als auch 4090 wird die TDP quasi fast nie erreicht. Die Frage ist wie viel davon auf das Herstellungs-Verfahren und wie viel auf das Design zurück zu führen ist.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ayo34 schrieb:
Ich habe das eher so verstanden, dass man sich mehr erhofft hat beim Takt, aber höhere Taktraten einfach in keinem Verhältnis zum Stromverbrauch mehr sinnvoll waren.
Takten können die ja in der Tat ohne Ende. 3,5Ghz sind überhaupt kein Problem, wenn man 600W aus dem BIOS gezaubert kriegt - siehe Irrsinnstunind der PCGH. Da erreicht die 7900xtx fast eine 4090 in der Rohleistung. Aber un einen verrückten Preis.

Unterm Strich sind die Karten eigentlich gut im Vergleich zur Vorgängergeneration - NV hat einfach nur richtig stark abgeliefert, muss man halt auch anerkennen
 
  • Gefällt mir
Reaktionen: Enyo79, Mcr-King und ThirdLife
Convert schrieb:
Effizenzsteigerung des 5nm-Prozesses bei Navi 32/Navi31 verpufft durch die negativen Effekte des MCD-Designs.
Schon erstaunlich was so ca. 14 W alles bewirken können.

Aber wir reden hier nicht von 14 W sondern von mehreren 100 W die notwendig sind um die mehr als 3 GHz zu erreichen.

Convert schrieb:
Also ich kenne da nichts auch nichts von dennen, die darüber spekulieren, dass die Taktraten angeblich zu niedrig sind.
AMD hat auf der Folie, aus der Du die Angaben zu den Caches ausgeschnitten hast, folgendes geschrieben:
Architected to exceed 3 GHz. 2. Absatz linke Spalte.

pasted_image019.png


Dass das Design von Navi 31 prinzipiell hochtakten kann ist bekannt, aber wie gesagt steigt die Power ganz massiv an. Dazu gab es auch auf Computerbase einen Artikel.

Woran soll der hohe Verbrauch liegen, wenn nicht an der hohen Spannung, die erforderlich ist die Taktraten zu erreichen?

Convert schrieb:
Aber ja, mein Punkt war nicht, dass Fanout Links so viel verbrauchen, sondern dass die Latenz schlechter ausfällt und man die Latenz eben z.B. durch mehr Cache auf dem Chip hätte ausgleichen müssen, statt mit mehr Takt, deswegen spielt die Folie 15 keine große Rolle für meine Argumentation.
Es spielt doch gar keine Rolle was deine Argumentation ist.

Die Fanout Links verbrauchen die Leistung nicht, da sind wir also einer Meinung (Darin sind die 43 % Frequenzsteigerung enthalten).

Wenn die Fanout Links nicht so viel verbrauchen, verbraucht es die Rest-GPU. Also auch hier sind wir uns einig, dass das Problem in der Rest-GPU liegt.

Der höhere GPU-Takt würde nicht nur die Latenz verbessern, sondern auch die Performance steigern. Wie so soll den Takt steigern grundsätzlich ein Problem sein? Bei Navi 21 hat AMD die Frequenz deutlich im Vergleich zu Navi 10 angehoben, auf demselben Prozess, und in Summe hat AMD die Effizienz um 50 % gesteigert, weil der Frequenzanstieg bei Navi 21 nicht zu einem Anstieg der Power geführt hat.

Bei Navi 31 redet AMD von 30% Frequenzsteigerung bei gleicher Power im Vergleich zur Navi.
Also nicht nur 18 % wie es der Ausgleich der Latenz erfordern würde. Bei 18 % mehr Frequenz müsste sogar die Power sinken:

1713713325349.png


Die Frequenzsteigerung sollte der Hauptbeitrag zur Performancesteigerung sein. Ohne die Power hochzutreiben.

Navi 31 ist übrigens nicht die erste GPU die AMD mit Fanout macht. Die MI250X verwendet Fanout um die beiden GPU-Chiplets zu koppeln und Silizium-Brücken, um die HBM Stacks anzukoppeln.

Zur Navi 33, die Performed so "gut", dass AMD für den Vollausbau den Namen RX7600 verwendet hat, Hätten sie die XT drangehängt, wäre der Fortschritt zur 6600XT ziemlich mickrig geworden. Eine komplett neue Architektur mit massiv ausgeweitetem Cache auf L0 bis L2 Level und die Navi 33 hat denselben L3-Cache wie Navi 23. Navi 31 und Navi 32 haben weniger L3-Cache als Navi 21 bzw. Navi 22.

Kurzum Du willst doch jetzt nicht behaupten, dass AMD die Performance der Navi 33 genau so geplant hat, oder? Auf die RX6600XT sind es 9% und auf die RX6650XT sind es 1% (lt TPU relative Performance).

DerRico schrieb:
Unterm Strich sind die Karten eigentlich gut im Vergleich zur Vorgängergeneration - NV hat einfach nur richtig stark abgeliefert, muss man halt auch anerkennen
Mit Nvidia gebe ich Dir vor allem bei den großen Dies recht.

Bei AMD bin ich anderer Meinung. AMD hatte 50 % Effizienzsteigerung angekündigt. Und die kamen eben nicht im Mittel sondern nur ganz vereinzelt als Ausreißer an.

Außerdem gab es im Vorfeld einiges an Interviews mit Sam Naffziger, der hat wiederholt gesagt, dass nicht die Frequenz das Problem ist, sondern das Steigern der Spannung um eine hohe Frequenz zu erreichen, das Problem ist.
 
Zurück
Oben