News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Hm, komisch...
Bisher außer paar Zahlen keinerlei Infos von AMD und (meines Wissens) Boardpartner zu BN und trotzdem wissen wollen welcher Grafikspeichertyp mit welcher Geschwindigkeit bei welcher GPU-Type verbaut ist...

Wie kann das sein? Glaskugel? Oder doch - sagen wir mal - höchst vertrauliche Informationsquellen? :D
 
foo_1337 schrieb:
Ein "Gimmick", welches in so ziemlich jedem Next-Gen AAA Titel präsent sein wird. Selbst bei der Konsolenfraktion wird das ja ständig angepriesen.
Und DLSS 3.0 muss nicht mehr explizit in jedem Spiel implementiert werden. Bei den AAA Titeln wird es auch ab jetzt schon implementiert werden, wie RTRT auch.
Wenn das in den Konsolen kommt, mach ich mir bei AMD Karten weniger Sorgen, als bei NV, weil da eben AMD Karten drin sind.
 
Wadenbeisser schrieb:
Lass mich raten, die A Variante ist die die nochmal 10W mehr fressen durfte?

Gerade war die Rede von der Leistung und nicht des Strombedarfs, du weichst hier wieder unnötigerweise aus.
Aber ja, ich gebe dir recht. Eine 2070 FE ist wirklich viel viel langsamer als eine 5700XT.:freaky:

Luxmanl525 schrieb:
... nun einmal in vielen Fällen noch Zusatzkosten entstehen für NT`s oder Gehäuselüfter.

Mein Be Quiet Pure Power 500 Watt hat selbst eine 3080 mit Ryzen 5 3600 gestemmt.
 
  • Gefällt mir
Reaktionen: ComputerJunge
xexex schrieb:
Die Chiptemperatur ist bei Nvidia auf maximal 80°C spezifiziert und das ergibt ein Delta von 40K, was problemlos kühlbar ist.
Klar, abzuführen ist dass dann immer gleich gut, wenn der Chip immer 80°C hat. Der Chip kommt dann aber auch nie auf 500W Verbrauch, weil er Temp limitiert die ganze Zeit runtertakten müsste.

500W würden die Karte 50% schneller auf die 80°C bringen, als die 340W der 3080 Customs. Der Kühler müsste also nochmal 50% leistungsfähiger sein, um das weiterhin abzuführen und dabei leise zu sein.


xexex schrieb:
350W bei 35dbA gekühlt, aber 500W sollen gar nicht mehr gehen?
Joa, mit 5 statt 2,5 Slot Kühlern vielleicht dann auch mit 35dbA. Praktikabel ist aber anders.
 
peterX schrieb:
Genauso könnte man sich auch fragen, warum sie die 3070 um zwei Wochen nach hinten geschoben haben. Richtig, um erst mal zu sehen, wo AMD leistungsmäsig überhaupt liegt und dann vieleicht mit dem Takt nach zulegen, sollte die 3070 doch etwas im Nachteil sein.
Du meinst die ändern über Nacht den Takt von fertigen Karten einfach? Da müsste man ein neues BiOS aufspielen mindestens um große Sprünge zu schaffen, das was AMD bei der 5600XT gemacht hat zB.

Klar unmöglich ist es nicht aber wenn sie wirklich einen Tag nach der AMD Ankündigung launchen wollen, dann kriegen die Leute alle Karten mit altem BiOS.

Im Treiber kann man natürlich was verändern von einem Tag auf den anderen den Takt erhöhen, das lüfterprofil aggressiver machen und das Powerlimit vielleicht etwas freischalten(wobei das wohl auch wieder ein BiOS flash wäre).

Wie viel mehrleistung wären das dann, 10% vielleicht? Dann ist man 5-10% schneller als ne 2080Ti statt 5% langsamer.

Dann kommt noch hinzu, dass Nvidia wohl 1 tag vor launch die testembargos wieder beenden wird also haben die ganzen Tester bereits ihre Benchmarks durchlaufen lassen und die Ergebnisse parat...

Müssten schon den launch um ne Woche extra verschieben.
 
@KlaraElfer

Nun ja, dann wären wir bei 1-2% mehr Leistung die 4% mehr Strom kosten, welche den Vorsprung der 5700XT auf ca. 5-6% reduziert hätten und nun? Die Radeon wäre abseits von der Hand voll DLSS Spielen immernoch schneller und könnte vor dem Kauf nicht feststellen welche Version der 2070 man erwischt.
 
  • Gefällt mir
Reaktionen: Blekota und xRedF
Wadenbeisser schrieb:
Wie muß die Gehäusebelüftung ausfallen damit die Umgebungsluft der Karte die Temperaturdifferenz nicht überschreitet?

Genau das bietet doch die von mir verlinkte Tabelle. Das hat sich da niemand aus dem Finger gesaugt, mit einer solchen Formel berechnet man die benötigte Luftzufuhr.

Man geht davon aus, die Innentemperatur des Gehäuses darf maximal 50°C betragen und die Außentemperatur beträgt 30°C und es ergibt ein Delta von 20K. Die benötigte Luftmenge kannst du dir dann einfach aus der Tabelle entnehmen. Das kannst du dir jetzt variieren wie du willst, bei 40°C Gehäusetemperatur und 30°C im Zimmer bleibt halt nur noch ein Delta von 10K, aber auch bei 50°C wird eine GPU nicht den Geist aufgeben, wobei es hier letztlich irrelevant ist.

Einzige Schwierigkeit ist natürlich der Kühler der auf einer GPU verbaut ist, weil dieser für den Wärmetausch zuständig ist und genug Fläche benötigt. Die dazu benötigte Formel habe ich aber weder parat, noch habe ich Lust danach auf die schnelle zu suchen.

Halten wir also mal fest, 500W in einem Gehäuse zu kühlen ist problemlos mit Luft möglich. Um 500W von einem GPU Chip abzuführen, bedarf es allerdings einen üppig dimensionierten Kühler, der die bisherigen Ampere Lösungen um 30% übertreffen müsste.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Meine Vega56 hat ja auch nur 220W verbraucht, die war mit dem dicken Morpheus 2und 2 120mm Noctuas(insgesamt 3,5 Slot) auf 1000rpm fix noch auf 70°C kühlbar, wenn ich die 220W jetzt auf 500W erhöhe, sehe ich nicht wie man die von der GPU wegbekommen sollte.

Erste OC 3090s zeigen es doch ganz gut, dass man durchaus auch 400 Watt mit Luft gut gekühlt bekommt. Mit entsprechendem Aufwand sollten auch 500 Watt möglich sein. Von einem bestimmten Chip mit einem bestimmten Kühler auf alle anderen Konstellationen zu schließen macht wenig Sinn. Demnach müsste ja schon die Referenz 3080/3090 ein Ding der Unmöglichkeit sein.

Taxxor schrieb:
Logisch ist dann mit der Aussage gemeint, dass eine Grafikkarte die 500W verbraucht nicht in einem PC Gehäuse, wo man dann 40°C+ Umgebungsluft hat, nicht ordentlich mit Luft kühlbar sei.

Warum sollte das ein Problem sein. Es kommt hier lediglich auf das Temperaturdelta an. Bei 40 Grad Umgebungsluft kannst du Problemlos eine GPU kühlen, deren zulässige Temperatur bei 80-90 Grad liegt. Die niedrigstmögliche Temperatur verschiebt sich nur nach oben. Weniger als 40 Grad sind halt nicht drin, alles andere ist eine Frager des Kühleraufbaus und des Luftaustauschs. Du kannst ja auch problemlos einen Motor mit 100kw mit kochendem Wasser kühlen oder auch einen Motor mit 1000kw.

Du kannst immer auf die Umgebungstemperatur kühlen. In einer 40 Graf Umgebung kannst du theoretisch auch eine 1000 Watt GPU auf 40 Grad kühlen, wenn für genug Luftaustausch sorgst.

Sieht man auch schön an den Spannungswandlern, die bei Luftkühlern wunderbar mit warmer Abluft durch die CPU gekühlt werden. Ob 20 oder 500 Watt ist am Ende nur eine Frage der Fläche und des bewegten Luftvolumens.

Ob Luft oder Wasser ist da auch egal. Am Ende ist das Prinzip gleich und muss die Energie an die Ungebungsluft abgegeben werden.

Mit einer extremen Wasserkühlung oder extrem fixen Luftaustausch und großen Kühlkörpern kannst du eine GPU auch bei 70 Grad umgebungsluft theoretisch mit knapp über 70 Grad betreiben
 
Zuletzt bearbeitet:
@xexex

Irrelevant weil er sich auf deine Aussage zur 500W Karte bezog und deine Beispielgrafik dafür nutzlos ist weil sie ein bestimmtes Gehäuse mit der Abwärmeverteilung über alle Komponenten hinweg voraussetzen würde.
Da die Grafikkarte nur einen vergleichsweise kleinen Bereich im Server Gehäuse einnehmen würde auf den die Abwärme konzentriert wäre könntest du mit einem Vielfachen der 500W rechnen um die Abwärme dort hinreichend abzutransportieren und auf eben jene Umgebungstemperatur zu kommen. Ist dann noch nicht einmal genug Platz damit die Abwärme sich verteilen kann wird das ne Turbine.
 
  • Gefällt mir
Reaktionen: modena.ch
.Sentinel. schrieb:
Du kannst mit ca. 10% Leistungsverlust die 3080 auf 250 Watt drücken:
Anhang anzeigen 981668

...und hast dann immernoch fast die doppelte Leistung Deiner 1080 Ti.

Wird auch einer der interessanten Punkte, wieviel es braucht um die Big Navis in ihren Sweetspot zu rücken.

Das macht Hoffnung. Japp, wird wirklich interessant zu sehen wer das Rennen macht.
Schon bei Pascal war UV das neue OC xD

Danke für die Info - hast du ein Link zu diesem Ausschnitt ?

Bisher habe ich die neuen Karten nicht so verfolgt.
Jetzt hat es mein Interesse geweckt - was eben tatsächlich möglich ist an Leistung vs Strom/Temp
 
Wadenbeisser schrieb:
Und in Spielen die keinen DLSS Support besitzen abstinken...

Ich halte fest, die 2070 FE, welche höchstens 5% langsamer als eine 5700XT ist, "stinkt ab".^^ Joa.
Regelmäßig ist jedoch die Mehrleistung von Intel CPUs und Nvidia GPUs aber nicht der Rede wert.^^ Klingt irgendwie nach Fahne im Wind.

Wadenbeisser schrieb:
Nun ja, dann wären wir bei 1-2% mehr Leistung die 4% mehr Strom kosten...

Stromverbrauch war kein Thema, ging ausschließlich um die Leistung und dass der Stromverbrauch bei einer 5700XT besser sei, glaubst du doch selbst nicht.:rolleyes:

Wadenbeisser schrieb:
, welche den Vorsprung der 5700XT auf ca. 5-6% reduziert hätten und nun?

Und nun? Du bist doch der, der behauptet, eine 2070 stinke ohne DLSS ab, dabei weißt du, dass weder die non A Chips und schon gar nicht die A Chips das tun.

Wow, ganze 3% respektive 6%.
8% für die 5700XT gegenüber der 2060 Super und somit ~3% gegenüber der 2070 FE.
Und jetzt lass es doch mal gut sein, du weißt doch selbst, dass dich Fakten nur dann interessieren, wenn sie für die wichtige Marke deiner Wahl gerade in den Kram passen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: foo_1337
Ich bin mir nahezu sicher das wir keine 500 Watt Singlecore GPUs sehen werden. Dabei ist nicht die Wattzahl das entscheidende sondern die Chiptemperatur an sich. Dazu kann man sich gerne OC Versuche von OClern auf einer Plattform seiner Wahl anschauen, ist auch egal ob CPU oder GPU. Ab ca. 250W Leistungsaufnahme des Chips an sich wird es zunehmend schwieriger die Wärme richtig abzuführen und ich schätze mal das bei ca. 350-450W selbst Wasser am Limit ist, dass ist ja gerade der Grund weshalb LN2 nötig ist ab einem gewissen Punkt. Insofern gibt es da harte physikalische Grenzen was unter Luft (und Wasser) möglich ist, da spielt die Größe des Kühlers gar keine Rolle mehr.
Darüber hinaus belasteten die hohen Temps natürlich auch die Komponenten, insbesondere müssen die Hersteller ja auch davon ausgehen das nicht jeder Kunde 20 Lüfter im Gehäuse hat, es sei denn hohe RMA Zahlen sind in Ordnung.

Insofern gehe ich persönlich davon aus das wir ziemlich am Limit sind was bei beiden Herstellern sinnvoll unter Luft zu kühlen ist. Natürlich ist noch etwas mehr möglich (z.B. AiO für die GPU), aber der Aufwand für die Kühlung wird halt mehr und deutlich teurer. Solange Nvidia und AMD ans Limit gehen wollen werden wir auch weiterhin Karten im High End mit +300 Watt sehen, was auch kein Problem ist, aber darüber hinaus wird es schwierig und teuer.

Mfg
 
  • Gefällt mir
Reaktionen: blackTEHhawk
Wadenbeisser schrieb:
Da die Grafikkarte nur einen vergleichsweise kleinen Bereich im Server Gehäuse einnehmen würde auf den die Abwärme konzentriert wäre könntest du mit einem Vielfachen der 500W rechnen um die Abwärme dort hinreichend abzutransportieren

Das ist wiederum Quatsch! Du wirfst hier zwei komplett verschiedene Sachen durcheinander!

Die Tabelle zeigt welche Luftmenge benötigt wird um das Delta konstant zu halten, da benötigt man weder ein vielfaches, noch irgendwelche anderen Fantasiewerte.

Komplett davon abgetrennt benötigst du aber eine entsprechende Wärmetauschlösung zur Kühlung der GPU und diese hängt natürlich von dem eingesetzten Kühler, der Fläche und dem Luftstrom der zum Wärmetausch eingesetzt wird. Auch das lässt sich an dieser Stelle aber berechnen und braucht nicht aus dem Finger gesaugt werden.

1603230107543.png


1603230284839.png


https://celsiainc.com/resources/calculators/heat-sink-size-calculator/

Als Grundlage habe ich hier mittleren Luftstrom gewählt bei einem Kühler mit 2,5 Slot höhe (5cm). Nichts was technisch nicht umsetzbar wäre und wohlgemerkt eher als Richtwert von einem Kühlerhersteller zu sehen ist. Mit Sicherheit gibt es da auch Lösungen die einen effektiveren Wärmetausch ermöglichen.
 
  • Gefällt mir
Reaktionen: dohderbert
@KlaraElfer

Bei nvidia wurden auch schon kleinere Unterschiede als uneinholbar gefeiert. ;)
Ergänzung ()

@xexex

Red dich nicht raus, es geht um die Einhaltung der Umgebungstemperatur für die Kühlung der Komponenten.
Sind die Wärmequellen gut im Gehäuse verteilt und die Wärmeverteilung gut genug sein mag die Rechnung passen, konzentriert sie sich in einer Ecke mußt du die Gehäusebelüftung entsoprechend weit aufdrehen um eben jenen Luftdurchsatz an der Stelle zu erhalten. Was irgendwo anders daran vorbei geht ist dafür irrelevant.
Konzentrieren sich die 500W also bei 1/4 des Gehäuses kannst du problemlos das 4 fache durchs Gehäuse jagen um dort genug Luftdurchsatz zu bekommen und das auch nur wenn sie dort auch wieder raus kann.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Luxmanl525
Wadenbeisser schrieb:
konzentriert sie sich in einer Ecke mußt du die Gehäusebelüftung entsoprechend weit aufdrehen um eben jenen Luftdurchsatz an der Stelle zu erhalten.

Das nennt man Wärmestau und mit Sicherheit pustet man nicht 4 mal so viel Luft durchs Gehäuse wie benötigt, um einen Wärmestau zu vermeiden. Bei einem normalen Gehäuse ist das was du hier erzählst absolut irrelevant.

1603231091147.png


Wo entsteht denn da ein Wärmestau?

Die Probleme die du ansprichst, entstehen vor allem bei wassergekühlten Systemen, weil dort unter Umständen einige Komponenten gar nicht gekühlt werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dohderbert
Dr.Pawel schrieb:
Dazu kann man sich gerne OC Versuche von OClern auf einer Plattform seiner Wahl anschauen, ist auch egal ob CPU oder GPU. Ab ca. 250W Leistungsaufnahme des Chips an sich wird es zunehmend schwieriger die Wärme richtig abzuführen und ich schätze mal das bei ca. 350-450W selbst Wasser am Limit ist

Da muss man nicht raten. Schau dir die 3090 Modelle an. Diese bekommen relativ Problemlos 350-400 Watt mit ganz klassischen Luftkühlern weggekühlt.

OC Versuche sind da eher nicht ausschlaggebend, da man hier einen Kühler der nicht darauf ausgelegt ist mehr zumutet.

Sehr entscheidend ist die Energiedichte. 400 Watt auf einem 600mm^2 Chip sind leichter zu kühlen als 200 Watt auf einem 150mm^2 Chip.

Auch das sieht man praktisch gut, wenn man sich mal einen i9 anschaut und eine 3090.

Dr.Pawel schrieb:
Insofern gibt es da harte physikalische Grenzen was unter Luft (und Wasser) möglich ist, da spielt die Größe des Kühlers gar keine Rolle mehr.

Nein das stimmt so nicht. Hier spielen viele Faktoren rein. Energiedichte, wie schnell bekommst du Hitze von A nach B transportiert etc.

Die reine Wattzahl ist da relativ egal. Die ungeliebten Autobeispiele, aber hier sieht man, dass man problemlos mittels Luftkühlung mehrere hundert kW kühlen kann und mittels Wasserkühlung auch mehrere tausend KW.

Es gibt kein Limit von X Watt. Schau dir einen Verbrennungsmotor an. Du kannst Brennräume von mehreren hundert grad und eine Gesamtabwärme von hunderten kw mittels Wasser problemlos kühlen.

Bei modernen Chips wird die Energiedichte das Problem. Du hast zu viel Abwärme auf kleinem Raum. Hier ist es aber auch egal, ob 400 Watt auf 200mm^2 oder 100 Watt auf 50mm^2. Auch hier ist die Gesamtenergie alleine nicht entscheidend.
 
  • Gefällt mir
Reaktionen: Colindo, Haldi, Cpt.Willard und 2 andere
@xexex

Und was bringt dir die Absaugung beim Prozessor wenn sich die 500W im unteren Drittel unter der Grafikkarte befinden? Der Luftstrom beim Prozessor bringt dir da recht wenig, eher darf sie Richtung Slotblech durchgedrückt werden damit überhaupt genug Frischluft ankommt. Bei dem Gehäuse also grob geschätzt das doppelte bis dreifache von dem rein drücken was du dir zusammengerechnet hast und das auch nur wenn es oben nicht gleich wieder abgesaugt und der Luftstrom im Gehäuse entsprechend verbogen wird.
 
FormatC schrieb:
5 Watt hoch oder runter sind Peanuts. Dafür werden die 7 Phasen mehr verbrutzeln.
oder auch nicht (bei Navi wurde immer von 93-95% Eff.bei den Spawas geredet, je nach Typ-Werksangaben)

In Deinem Txt hast Du sehr richtig erkannt, das die XL prima auf das Board der RX 5700XT Nitro passen würde.
Die XL hätte theoretisch sogar 5W weniger TGP als die RX 5700XT Nitro. (220W vs. 225W)
Kannst Du bitte eine Milchmädchenrechnung für die RX 5700XT Nitro in Deinem Artikel ergänzen?
(Warum wird net AMD mit AMD verglichen sondern ein Grünes Wunder beschworen.
Klingt für mich sehr nach "Clickbaiting".)

Zwecks Treiber sagt DavidSchur übrigens "keine Limitierung der AIB´s" seit September.
3DCenter Forum - Einzelnen Beitrag anzeigen - AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Von daher bei AMD keine Probleme ala XYZ zu erwarten.
(was soll so ein süffisanter Satz im Txt)

Hast Du überhaupt Kontakt zu Sapphire oder kommen Deine Zahlen nur von grünen AIB´s?
(Wie kann denn die XL auf einmal mehr verbrauchen als die RX 5700XT Nitro und in der Milchmädchenrechnung
mehr Zusatzwatt verschlingen als die große 3080, sehr merkwürdig.)
edit: Dann hinterher in Deinem Thread zu schreiben, das der gar net genutzte USB und ein 3.Lü. den Mehrverbrauch erklären ist net glaubwürdig. Die Nitro hat ja bereits nen 3. Lü.!
(Die meisten User haben keinen Mac und werden sicher ohne USB auskommen. --> Moni am DP für Vgl.)
 

Anhänge

  • Nitro_225W-Bios@260W_gesamt.png
    Nitro_225W-Bios@260W_gesamt.png
    83,5 KB · Aufrufe: 290
  • XL-290W.jpg
    XL-290W.jpg
    91,5 KB · Aufrufe: 286
  • 3080-320W.jpg
    3080-320W.jpg
    80 KB · Aufrufe: 272
  • IL-txt.png
    IL-txt.png
    318,9 KB · Aufrufe: 266
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Und was bringt dir die Absaugung beim Prozessor wenn sich die 500W im unteren Drittel unter der Grafikkarte befinden?

Dir sagt Luftstrom was? Luft ist ein bewegliches Medium und nichts was unten für alle Ewigkeit "festhängt". Schaue dir einfach mal das verlinkte Video und höre auf dir irgendwelche Weisheiten aus dem Finger zu saugen. Da "hängt" jedenfalls nichts, auch nicht bei der wassergekühlten Variante.
 
Zurück
Oben