News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

@.Sentinel.
True ich würde lieber eine 320W AMD Karte kaufen, als eine 320W Nvidia, was aber klar am Speicher liegt.
Downgrade kommt nicht in Frage.
Es geht auch nicht um Umwelt, sondern Hitze im Raum. 500W aus dem PC ist wirklich kein Spaß.
 
Hallo zusammen,

@ xexex
xexex schrieb:
Das ist Quatsch oder braucht eine ASUS Strix RTX3090 mit einem Powerlimit von 480W eine Wasserkühlung?
Also wirklich, Butter bei die Fische, ob eine Karte ein Powerlimit von XYZ hat und ellenlang niemals auch nur annähernd dahin kommt, ist schon ein gewaltiger Unterschied. Daß du gerade dieses Beispiel zur Untermauerung nimmst, will ich nun wirklich gar nicht weiter kommentieren. Da soll sich jeder selbst seinen Reim draus machen.

So long...
 
Luxmanl525 schrieb:
Also wirklich, Butter bei die Fische, ob eine Karte ein Powerlimit von XYZ hat und ellenlang niemals auch nur annähernd dahin kommt, ist schon gewaltiger Unterschied.

Wenn die Karte einen solchen Powerlimit hat, wird sie auch am Powerlimit laufen und die Lüfter es wegkühlen können oder glaubst sie verglüht dann im Dauerbetrieb etwa?
 
Krautmaster schrieb:
klingt nicht so geil was Igor sagt muss ich sagen.
Lustig, wem ist ein entscheidener Fehler aufgefallen?
Am Anfang sagt er noch das die TGP bei AMD die Abwärme von GPU und Speicher beinhaltet (2:30) und was passiert mit der Abwärme des Spannungswandlers wenn der ebenfalls seine Wärme an den Kühler abgibt?
Bei der Rechnung sind GPU und Speicher getrennt aufgeführt wodurch nochmal zusätzliche 20W in der Rechnung sind.

Warum ist das so?
Würde man die 20W für den Speicher wieder abziehen dann würde man bei den spekulierten 300W landen und sind dort auch noch die Wandlerverlußte mit drin dann würde man wiederum bei den ebenfalls spekulierten 275W landen.
 
Luxmanl525 schrieb:
Es konmt ja noch dazu, daß Nvidia nunmehr auch nicht besser da steht.
Das is richtig, aber angesichts des Prozesses hätte ich mir da schon deutliche Vorteile bei AMD erhofft, was ja aber noch kommen kann.
Ich denke bei gleichem Takt müsste AMD deutlich effizienter agieren, imho sehen wir hier einen recht guten 7nm TSMC Prozess gegen einen quasi 10nm Samsung Prozess, auch wenn er 8nm genannt wird.

Also rein was Leistung angeht und Effizienz ohne RT DLSS usw. muss AMD das eigentlich für sich entscheiden, meine Meinung. Zumal noch nen kleineres SI genutzt wird.

@Wadenbeisser
Ich sehe da keinen Fehler. Wenn AMD für die TGP nur GPU und Speicher ranführt dann is das wohl so, und er rechnet ja alle Verluste also Wandler und Co on top.
Ausgehend von einer mutmaßlichen TGP von 255 Watt für Navi 21 XT, von denen 235 Watt auf die GPU und 20 Watt auf den 16 GB großen GDDR6-Speicher entfallen, hat die Website folgende Prognose abgegeben.

Er hat die TGP also aufgeschlüsselt.
1603217039589.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luxmanl525 und jemandanders
Wadenbeisser schrieb:
Bei der Rechnung sind GPU und Speicher getrennt aufgeführt wodurch nochmal zusätzliche 20W in der Rechnung sind.
Nein, er bezieht sich ja auf die 255W von Patrick Schur, das trennt er dann auf in 235W TDP für den Chip und 20W für den Speicher.

Wadenbeisser schrieb:
Am Anfang sagt er noch das die TGP bei AMD die Abwärme von GPU und Speicher beinhaltet (2:30) und was passiert mit der Abwärme des Spannungswandlers wenn der ebenfalls seine Wärme an den Kühler abgibt?
Naja die ist ja laut Aussage einfach bei AMD nicht in der TGP enthalten, was mir aber auch komisch vorkommt.

Trotzdem, anhand der Tatsache, dass er bei der 5700XT ja bereits eine deutlich niedrigere wirkliche TDP berechnet hat, als die 180W die AMD angibt, glaube ich einfach auch, dass diese aus der TGP aufgeschlüsselten 235W bereits die Verluste enthalten.
 
.Sentinel. schrieb:
Ich bin schon gespannt, wie sich die Fähnchen im Wind drehen werden und die vermeintlichen Umweltschützer dann mit schmerzverzerrtem Gesicht dann doch zu solch einer Karte (300W+) aus dem Lager AMD überreden lassen, wo man doch solche Produkte im Thread des Konkurrenten noch verbieten wollte... ;)
Ich werde mir jedenfalls keine >300W Karte in den Rechner hängen. Schon aus Prinzip nicht.
Nebenbei ist dieses Forum wohl auch nicht unbedingt Repräsentativ, wenn man sich die allgemeinen Verkaufszahlen div. Kartenmodelle anschaut und diese mit den Wünschen und (angeblichen) Kaufabsichten dieses Forums vergleicht.
Ergänzung ()

yummycandy schrieb:
Das ist doch mal eine gute Aktion.
Kampf den Bots und Preistreibern. 👍
 
xexex schrieb:
Das ist Quatsch oder braucht eine ASUS Strix RTX3090 mit einem Powerlimit von 480W eine Wasserkühlung? Man wird es soweit treiben wie es nur geht und Kunden werden auch 800W Grafikkarten mit 3x120mm Lüftern kaufen, wenn sie denn die entsprechende Leistung bringen, hat man vor Jahren zu SLI Zeiten auch schon gemacht.

Jain. Laut Reviews ist die Strix bei den vollen 480 Watt durchaus als laut zu bezeichnen.

Außerdem ist irgendwann der Punkt erreicht, an dem es nicht mehr sinnvoll ist, so viel Abwärme per Axial-Lüfter ins Gehäuse zu ballern. Bei meiner 330W 1080 Ti waren das schon über 10° auf dem RAM weniger, nachdem ich die Karte von LuKü auf Wasser umgebaut hatte.

Pack mal eine 480 Watt GPU und eine CPU mit 150-250 Watt Abwärme in ein Gehäuse, selbst mit sehr gutem Airflow ist das extrem grenzwertig. Mit halbwegs geschlossenem Gehäuse wird das ein Ofen für die Hardware.

Nvidia zeigt mit der 3090 FE recht gut, wie ein leiser Luftkühler für 400+ Watt aussehen sollte. Extrem groß und mit ca. 40% der Abwärme direkt hinten raus aus dem Case.

Mit Loop und MoRa ist das alles halb so wild, da wird höchstens der Raum warm, die Hardware bleibt kühl. Nur ist das nicht der Anwendungsfall des durchschnittlichen Nutzers.

Ich würde niemandem empfehlen, seine luftgekühlte 3080/3090 mit 400+ Watt laufen zu lassen, dafür ist das Leistungsplus viel zu gering. Mit UV und einem halbwegs guten Chip schafft man die Stock Performance der 320 Watt 3080 FE mit 240 Watt.
 
@Taxxor

Bleiben dennoch die anderen Punkte.

Hat nicht mal wer ne Sapphire Nitro+ Radeon RX 5700 XT SE mit dem 285er Power Limit könnte diese auf Vollast fahren und z.B. per hwinfo64 den Verbrauch der GPU auslesen? Wäre vielleicht deutlich sinniger um die zusätzlichen Kartenverlußte abzuschätzen als die Kaffeesatzleserei.
 
.Sentinel. schrieb:
Da scheint AMD ja jetzt doch ganz schön die Düse zu gehen, wenn sie solche Schreiben versenden und davon ausgehen, dass deren Inventory "rapidly depleted" werden.
Frustrierte Nvidia-Nichtkäufer, Weihnachtsgeruch in der Nase, "Zweite Welle" und eine Armee von Parasiten mit ihren Bots dürfte selbst ne gesunde Verfügbarkeit in die Knie zwingen.

.Sentinel. schrieb:
Die werden sich ganz schön warm anziehen können, wenn dann die Hasstiraden über sie in ähnlichem Maße wie über nvidia ausgekippt werden.
Einerseits zeigen sie ja, dass sie zumindest proaktiv Initiative ergreifen, zudem ist die Messlatte recht niedrig;
Code:
if(now() < 17.09.2020-15:00)
    {
       label = "notify me"
    } else {
       label = "out_of_stock"
    }
...ist nicht wirklich schwer zu schlagen. :freaky:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Piep00, t3chn0, Colindo und 4 andere
Wadenbeisser schrieb:
Hat nicht mal wer ne Sapphire Nitro+ Radeon RX 5700 XT SE mit dem 285er Power Limit könnte diese auf Vollast fahren und z.B. per hwinfo64 den Verbrauch der GPU auslesen? Wäre vielleicht deutlich sinniger um die zusätzlichen Kartenverlußte abzuschätzen als die Kaffeesatzleserei.
Dafür kannst du dir ja auch einfach ne Referenz 5700XT nehmen, die riegelt bei 180W ab und die komplette Karte verbraucht dabei 215-225W.
Das hatte Igor ja auch mal aufgeschlüsselt und ist zu dem Urteil gekommen, dass die Wandlerverluste viel zu gering wären, als dass 180W der tatsächliche Chip Verbrauch sein könnte, weshalb er ja mit den eigenen Verlusten auf 157W TDP gekommen ist, die der Chip haben müsste.

Dass AMD nun aber wirklich bei 180W abriegelt, wirft die Frage auf, was in diesen 180W denn enthalten ist.
 
.Sentinel. schrieb:
Ich dachte, dass sie keinen Paper- Launch hinlegen wollten und genug Karten zur Verfügung ständen?
Wenn dir nicht die Lager Ruck Zuck von den Bots und Geschäftemachern leer gekauft werden sollen, muss man so etwas schon mal schreiben.
Selbst wenn die genügend Karten haben, gegen die Bots kannst Du nicht anliefern. Und dann geht der große Reibach in der Bucht los. Hat man ja vor kurzem gesehen
 
Taxxor schrieb:
Naja die ist ja laut Aussage einfach bei AMD nicht in der TGP enthalten, was mir aber auch komisch vorkommt.

ich denke das wäre durchaus logisch da AMD wohl anders als Nvidia eine konkrete Leistungsaufnahme nach den Wandlern errechnet / erfasst, also quasi GPU + Speicher Power Limitiert betreibt (und AMD erstmal egal ist was die Wandler zb machen) - während Nvidia wohl immer an den 12V Eingängen misst und damit quasi das ganze Board hinsichtlich Power regelt.

https://www.igorslab.de/leistungsau...n-entmystifiziert-und-nachgerechnet-igorslab/

Heißt wenn bei AMD die GPU und Speicher zu viel W ziehen wird gethrottelt. Egal ob dabei der Lüfter noch auf 100% oder 20% läuft. Bei Nvidia taktet die GPU sogar zum Teil runter wenn man den Lüfter hochdreht und dieser dadurch ein paar W mehr verbrät.
 
@Krautmaster Das ist ja genau der Artikel auf den ich mich beziehe.
Wenn Igor abzüglich der Wandlerverluste auf 157W kommt, die der Chip bei 225W Kartenverbrauch ziehen dürfte, was sind dann die 180W die einem dabei von AMD angezeigt werden und nach denen die Karte ihren Takt regelt?
Diese 23W Differenz muss ja irgendwas sein. Für 8GB VRAM ist es zu viel.
 
Che-Tah schrieb:
@bad_sign : diese Spikes sind schon behoben. Ein klassisches Beispiel aber warum ein überhasteter Launch nach hinten los geht. Die Day 1 Probleme werden für immer so im Testbericht drinnen stehen bleiben.
Also... Deine Info ist Falsch weil schon gepatcht. A

Naja behoben. Sie spiket halt nicht mehr auf 490W sondern nur noch auf 430W.
Da geht halt ein 550W NT nicht mehr und ein 650W NT ist auch knapp.

Wo selbst auf der dicksten 2080TI ein gutes 550W NT gereicht hat.
Ist schon ziemlich doof das Ganze.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Krautmaster
Krautmaster schrieb:
Also rein was Leistung angeht und Effizienz ohne RT DLSS usw. muss AMD das eigentlich für sich entscheiden, meine Meinung. Zumal noch nen kleineres SI genutzt wird.
Oberflächlich gesehen mag das so sein. Der Punkt ist aber, daß die beiden Firmen verschiedene Konzepte verfolgen. Deshalb ist das nicht so ganz in dem aufgeführten Maße vergleichbar. So sehe ich das jedenfalls.

Für mich ist vor allem ausschlaggebend, daß AMD eine deutliche Lernkurve hingelegt hat, was das Verhältnis Performance / Effizienz Respektive Stromverbrauch angeht. Wenn man beachtet, daß dies auch bei der CPU-Sparte so der Fall ist, ist es in meinen Augen ganz klar, daß AMD hier einen deutlichen Richtungswechsel absolviert hat, zum besseren möchte ich meinen. Fehler aus der Vergangeneheit wurden so nicht mehr gemacht.

Und in dem Sinne könnte ich mir vorstellen, daß Nvidia in der nächsten Generation hinten liegen wird. Mir sticht vor allem dazu ins Auge, wo AMD bei den GPU`s her kommt. Der Schritt ist ganz erheblich. Nvidia hingegen hat einen Rückschritt in meinen Augen vollzogen.

Der wäre nicht so groß, wenn man nicht die letzten Meter regelrecht durch die Mauer wäre, wie die 4 % Performance für ca. 60 zusätzliche Watt unschwer Aufzeigen. Ich Glaube, Nvidia hat nicht gedacht, daß AMD so nah kommen wird und das zeigt mir auch das Neuauflegen der eigenen GPU`s mit größerem Speicher so kurz nach Erscheinen der RTX 3000er Reihe. Das hat schon was teils Absurdes. In meinen Augen läßt Nvidia da ganz schön die Hosen runter.

Vor allem aber bin ich froh, daß jetzt auch bei den GPU`s endlich wieder dies zu registieren ist wie bei den CPU`s, nämlich dies was man "Wettbewerb" nennt.

So long...
 
  • Gefällt mir
Reaktionen: Colindo und daknoll
absolut. Wobei AMD auch eher im Zugzwang ist.

Nvidia hat bei Maxwell innerhalb einer Fertigung stark an Effizienz gewonnen, was auch dem tiled based rendering zugeschrieben wird. Seither läuft Nvidia AMD in Sachen Effizienz davon, obwohl man teils auf 16 statt 7nm gesetzt hat. Außer eventuell am Sweet Spot. AMD scheint mit RDNA einiges richtig gemacht zu haben, ich meine auch das tiled based rendering erst mit RDNA2 weitergetrieben wird und eventuell sorgt das nun bei AMD für den boost.

Ich mein das ist ja auch alles eine Auslegungssache. Ein großer Chip betreibe ich bei wenig Takt viel viel effizienter als einen kleinen Chip den ich an die Taktgrenze prügel. Das sieht man ja gut wenn man die 3080 auf 70% Power Limit setzt oÄ.

Es kann also durchaus sein dass die kleinen AMD Karten oder die Notebook Modelle in 7nm TSMC ne ganze Ecke effizienter laufen als ein Nvidia Pendant in 8nm Samsung.

Oben hinaus siehts aber grad so aus als muss AMD einige viele % Effizienz für die Mehrleistung opfern die nötig ist.

Mehr dazu:
https://www.hardwareluxx.de/index.p...der-maxwell-pascal-architektur-enthuellt.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luxmanl525
Taxxor schrieb:
Dafür kannst du dir ja auch einfach ne Referenz 5700XT nehmen, die riegelt bei 180W ab und die komplette Karte verbraucht dabei 215-225W.
Kann man nicht da die Wandlerverlußte prozentual sind.
Hier hatten sie offenbar die Version mit dem 265er Limit getestet und damit kam die GPU auf 205W.
https://www.ocinside.de/test/sapphire_nitro_plus_rx_5700_xt_8g_se_d/4/

Rechnet man dann aber noch die 20W für den Speicher oben drauf dann würde man bereits über den im Video gezeigten Werten der Navi21 XL liegen die wiederum mit 290W angegeben ist. Ein Zufall das es das die GPU Spannungswandler mit 25W angesetzt sind?
 
Nobel ! Geht die Welt zu Grunde.

Verrückt wenn ich überlege wie viele PCs spätestens 2021 einfach mal so 100-150W die Stunde mehr rausballern.

Durch Corona ist man ja auch ein rechtschaffender Bürger wenn man daheim sitzt und zockt.

Nebst sowas wie Insta-Server sind auch das eben Dinge, die die Welt nicht brauch.

Wenn ich zB weiß das ich länger als 5min nicht am Rechner bin, geh ich zumindest ausm Game raus damit der Rechner im idle ist und nicht sinnfrei Strom zieht.

Manche meinen hier wirklich: "Ja wenn du zu knapp kaufst"

Mein System erreicht wohl nie 400W unter Volllast.
Selbst wenn wäre das bei einem 550W Netzteil alles andere als "knapp"

Wir werden sehen wie die Karten performen.
Ohne UV kann man das Zeug ja sowieso nicht mehr leise betreiben.

Hab da echt keine Lust mir so eine Heizung da hinzustellen.
Die 250W der 1080 Ti sind eigentlich schon echt grenzwertig, gerade was die Kühlung unter Luft angeht.

Ein leises Customerdesign ist wohl mit einer ü300W Karte eigentlich schon unvorstellbar.
 
  • Gefällt mir
Reaktionen: jemandanders und Luxmanl525
Zurück
Oben