News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Gut das ich von 550w be quiet wegen der vega 56 und abstürzen auf 750w gegangen bin, jetzt zahlt sich das aus.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und bugmum
Ebu85 schrieb:
Wie will man denn mit 2x 8 pin und pci Express Stromversorgung 355 Watt raus bekommen... :/

75 Watt aus dem PCIE + 150 Watt aus dem ersten 8 Pin + 150 Watt aus dem zweiten 8 Pin = 375 Watt
 
sTOrM41 schrieb:
Weil der schön Bunt und Hip ist 🤣?
https://www.computerbase.de/2020-10/adrenalin-2020-edition-schwachstelle-bsod-cve-2020-12911/

Ich persönlich hatte allerdings in über 15 Jahren bisher weder bei AMD noch bei Nvidia Probleme mit dem Grafiktreiber.

Bei mir ebenfalls, hatte bei beiden lange Zeit schon keine Probleme, was mir aber gefallen hatte ist, dass sich AMD zumindest ins Zeug legt die Treiber (auch die GUI) zu verbessern. Immerhin geht es voran :)
 
Abwarten und Tee trinken. So lange ist es ja jetzt nicht mehr hin! Persönlich und ganz subjektiv bezweifle ich das AMD massiv über 300 Watt gehen wird, aber natürlich ist es nicht auszuschließen. Solche theoretischen Berechnungen halte ich für halb unsinnig, selbst wenn es Igor macht der davon wirklich eine Menge Ahnung hat. Ergibt halt eine nette News.... Für mich selbst bin ich eigentlich ziemlich sicher das die Karten gut werden, die wirkliche Frage ist halt der Preis und die Features. Gerade beim Preis bin ich mir absolut nicht mehr sicher das AMD wirklich attraktiver sein wird als Nvidia. AMD wird wenn es irgend geht sich mit Freude an die Preise von Nvidia anpassen. Ich lasse mich da aber gerne positiv überrachen, aber Navi 1 und seine Ableger haben ja schon gezeigt das AMD nicht zu kompetetiv werden will bei den Preisen.

Was Nvidia und die Konsolen angeht, die würden mit Freude die Chips für die PS5 und XSX produzieren, aber ohne x86 wird das nichts mehr. Ich bin mir aber ziemlich sicher das sie mit ARM im Hintergrund versuchen werden Nintendo um den Daumen zu wickeln, da sind Plattform überspannende Titel und auch die CPU Leistung nicht ganz so wichtig. Die PS5 und XSX können sich das einfach nicht mehr erlauben, dass einfache portieren von einer Plattform auf die andere der allermeisten Games ist der entscheidene Faktor. Deshalb ist AMD derzeit der einzige Anbieter der überhaupt in Frage kommt, natürlich mag es sein das Intel irgendwann noch im Rennen ist, allerdings bezweifel ich das selbst für die nächste Gen.

Mfg
 
Das klingt doch realistisch. Nachdem die Chipleistung bekannt war ist der Rest relativ logisch. AMD wird sicherlich bei den größten Karten ihre Effizienzsteigerung komplett in die Leistung gepumpt haben. Die kleineren Karten sind dann die effizienteren. (Siehe zum Beispiel 5600)

Und was die unnötige Wassertemperatur Diskussion angeht: einfach wie in jeder gut konstruierten Anlage neben dem Vorratsbehälter noch ein Ausdehnungsgefäß installieren sollte nicht genug Luft im System sein, sonst übernimmt die Luftkompression diesen Job bei steigenden Temperaturen
 
  • Gefällt mir
Reaktionen: Baal Netbeck und Cpt.Willard
Auf Youtube gibt es ein Video wie jemand i9 10900k mit einer 2080 Ti auf einem 450W Netzteil ohne Probleme betreibt. Die Panik hier in den Kommentaren ist völlig übertrieben.
 
  • Gefällt mir
Reaktionen: ComputerJunge und foo_1337
Wadenbeisser schrieb:
Im Gegensatz zu Luft läßt sich Wasser nicht komprimieren und die Volumenzunahme in den festen Komponenten wie Kühler, Radiator, Pumpe usw. kann sonst nur über die Schläuche kompensiert werden könnten und sich entsprechend aufsummieren.
Also von dem Lapsus mit den 4°C mal abgesehen, wer bitte sitzt denn in einem Zimmer mit unter 10, 15 oder 18 Grad? Und dann sollte eine brauchbare WaKü doch einen Ausgleichsbehälter mitbringen, um zu Hohe Volumina abzufedern, oder? Auch sind die Temperaturunterschiede ja wohl gering.
Wenn da zur Zimmertemperatur mehr als 30 Grad herrschen, ist das doch schon viel.
Oder irre ich da irgendwo?
Da ich keine habe, würde mich das mal interessieren, da ich immer wieder mit dem gedanken spiele mir doch eine anzuschaffen.
 
  • Gefällt mir
Reaktionen: stevefrogs
Captain Mumpitz schrieb:
Dann kauft man sich demnächst ein 1000w NT und dann heisst es wieder, man sei bescheuert. So schaut's doch aus...

isso !!

kostet halt das Graka Update gleich mal 180€ mehr .... kotz
 
  • Gefällt mir
Reaktionen: Thorque
TBP deutlich höher als TGP

Oje, da können die AMD Fans nur hoffen das Igor sich irrt.
Denn das wäre schon peinlich für AMD nachdem man den Mund bisher so voll genommen hat.

Aber schon blöd wenn die Realität das Marketing überholt.
 
basic123 schrieb:
Auf Youtube gibt es ein Video wie jemand i9 10900k mit einer 2080 Ti auf einem 450W Netzteil ohne Probleme betreibt. Die Panik hier in den Kommentaren ist völlig übertrieben.

Bei Teillast reicht das sicherlich, bei Volllast sicherlich nicht.
 
  • Gefällt mir
Reaktionen: stevefrogs und der Unzensierte
Damit wird ein brauchbares Netzteil mit 750W zum Pflichtkauf. Hatte ich allerdings auch so erwartet, dass die TGP bei AMD etwas anderes ist als die TGP bei Nividia war mir noch erinnerlich. Der post von Patrick Schnur hat mich schon sehr gewundert.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
leipziger1979 schrieb:
Denn das wäre schon peinlich für AMD nachdem man den Mund bisher so voll genommen hat.
Aber schon blöd wenn die Realität das Marketing überholt.
AMD hat den Mund bisher nicht voll genommen und Marketing gab es diesbezüglich auch nicht.. Ich hab das Problem ja hier schon formuliert:
foo_1337 schrieb:
Und genau das ist das Problem. Anstatt nüchtern an die Sache dran zu gehen, wird Nvidia gedisst ohne Ende und AMD gleichzeitig in einen virtuellen Höhenflug gebracht, der seinesgleichen sucht. Alles basierend auf Gerüchten. Wenn AMD dann nicht liefert, sei es in der Leistung oder in der Vergügbarkeit.. oh oh ;)
 
  • Gefällt mir
Reaktionen: sent!nel, blackTEHhawk, ThePlayer und 14 andere
Ebu85 schrieb:
Wie will man denn mit 2x 8 pin und pci Express Stromversorgung 355 Watt raus bekommen... :/
Mit 150W pro Stecker und 75W ex Steckplatz?

Je nach Reserve von Board und Netzteil gehen da auch kurzfristig mehr drüber, siehe Peaks der RTX 3090 > 400W.
 
  • Gefällt mir
Reaktionen: Unnu
der Unzensierte schrieb:
Damit wird ein brauchbares Netzteil mit 750W zum Pflichtkauf.
Das war bei mir schon vor 1,5 Jahren der Gedanke, da riet man mir im Thread auch zu einem 550er - natürlich war das nicht aus der Luft gegriffen die Empfehlung, doch ich wollte "langsam" etwas neues aufbauen, zu dem Zeitpunkt war Vega und wenn ich mich nicht irre Turing aktuell, beides wollte ich nicht mitnehmen - rechnete aber mit Lastspitzen.

foo_1337 schrieb:
AMD hat den Mund bisher nicht voll genommen.
Gott sei Dank haben die mal gar nichts rausgehauen, trotzdem wird zu 75% wieder das Gejammer, die Belustigung und Enttäuschung obwiegen - is doch immer so.
Ich wünsche mir, dass wenn Tests rauskommen, ein UV-Test und eine Gegenüberstellung von Ampere und RDNA2 durchgeführt wird.
Keine Ahnung wie verlässlich das Radeon Overlay ist, doch bei Tomb Raider hatte ich letztens nicht schlecht gestaunt, als 182 Watt (NO-OC!!!!)angezeigt wurden - wenn ich richtig erinnere kommen da noch die 75W vom PCIE drauf, somit liege ich schon bei ~260W ?!? - Drauf geschissen, wenn ich 300+ Watt dann nutze, bei X-Facher Performance gegenüber der RX580 Special Edition...
Hätte mich gefreut, wenn die Premium-Karte maximal im gleichen Bereich läge - aber Tja, dafür läuft 4k auf TV wie es soll und WQHD auf Desktop...
 
  • Gefällt mir
Reaktionen: tunichgut, Piep00 und Unnu
jk1895 schrieb:
Solche Gerüchte können einen gigantischen Schaden anrichten, wenn sie total daneben liegen. Aber das weiß AMD leider nicht und deshalb schweigen sie immer noch, obwohl ihr Konkurrent einen Volltreffer mit der 3000er Serie gelandet hat.
Für mich bedeutet das, dass sie Nvidia nichts entgegen bringen können.
Die Ernüchterung wird für viele sehr schmerzhaft sein.

Einen Volltreffer mit der RTX Ampere/3000 Serie :lol: :evillol: :D ... selten so gelacht ...

... durchschnittliche Leistungszuwächse, bei RT-Raytracing weit unter vorherigen Erwartungen, dazu ein seit Fermi/Thermi-GPUs nicht mehr gesehenes "Verbrauchs- und Abwärmewunder", entgegen Effizienz/echtem Fortschritt aufgrund des Billigst-Fertigungsprozess von Samsung, einen total verpatzten Marktstart aus Kundensicht und für die ersten/Bauernfänger RTX 3070 und 3080 Modelle schon jetzt absehbar in einigen Spiel- und Anwendungsszenarien zu wenig Speicher.

Aber ja klar, echt der Hit diese Ampere GPU-Generation, am besten legt man sich eine Huang Größenwahn-Büste aus dem RT-Raytracing nVidia Präsentationsvideo zu (obendrein wird vielleicht noch ein nettes Lederjackenimitat als Bonusmitgabe mitgeliefert), so dass man nVidia dafür gebührend feiern/huldigen kann.

Die erste Lisa Su RDNA2 Navi Teaser-Präsentation muss für Dich und andere nVidia-Jünger schon sehr schmerzhaft gewesen sein, wie es scheint.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer, derSafran, gesperrter_User und 5 andere
Wenn das stimmt mit der tdp dann kaufe ich mir ne gebrauchte 2080 super oder ti
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
foo_1337 schrieb:
AMD hat den Mund bisher nicht voll genommen und Marketing gab es diesbezüglich auch nicht.. Ich hab das Problem ja hier schon formuliert:

Das ist gerade bei AMD-Themen leider immer so. Extreme Erwartungshaltung, alle anderen sind "scheisse", nur keine Kritik an AMD aufkommen lassen.

Die ganze Rechnung da neuerdings kann aber auch nicht hinhauen. Dann wäre die Lösung einfach so krass ineffizienter als zuvor, was keinen Sinn ergibt bei gleichem Speicherinterface, nur minimal angepasstem Speicher usw. bzw sogar quasi das gleiche Board als Grundlage zu nutzen.

Hier mal als Zitat:

I'm sorry but the math on this doesn't add up.5700 XT is 180w core 225w TBP so 45w for mem + VRM losses + everything elseNeither 235w nor 205w require a substantial VRM upgrade and Navi21 is using the same 256bit memory systemWhy would N21 board require 88% more power? Quelle: https://twitter.com/_rogame/status/1318470450914205696

[..]

I completely disagree with the whole breakdown... Why are board power losses separated from the core power consumption, they are not at all easy to isolate from the actual core power as they occur after all the measuring devices. The GDDR power numbers are also completely incongruent with every figure I've seen from both Ampere and Turing... They point towards around 35w for the DDC and 35w for the DDQ rails foe 384b. On most cards the two rails are combined as they are the same voltage in spec. Quelle: https://twitter.com/gorbazthedragon/status/1318476939045330944
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer, Unnu, Haldi und 9 andere
Chismon schrieb:
Aber ja klar, echt der Hit diese Ampere GPU-Generation, am besten legt man sich eine Huang Größenwahn-Büste aus dem RT-Raytracing nVidia Präsentationsvideo zu (obendrein wird vielleicht noch ein nettes Lederjackenimitat als Bonusmitgabe mitgeliefert), so dass man nVidia dafür gebührend feiern/huldigen kann.
Die Aktionäre und die meisten Gamer draußen sehen das anders. Daher hat nVidia aus rein kommerzieller und strategischer Sicht alles richtig gemacht und man kann durchaus von einem Volltreffer sprechen.
Schau dir einfach auch hier die 30xx Threads an: Trotz der Lieferschwierigkeiten bleiben die meisten dabei und wollen eine nVidia Karte.

Und bzgl. des VRAM: Viel hilft nicht immer viel. nVidia hat Asse wie RT und DLSS. Insbesondere RT zieht bei vielen mehr als die VRAM Anzahl. Und da viele Aktionäre auch nicht technisch unbewandert sind und wissen, wie wichtig Software ist, spielen Themen wie DLSS eine große Rolle.
 
  • Gefällt mir
Reaktionen: Chismon
@basic123 da kannst du auch sagen, er hat nen Bugatti und fährt damit ohne Probleme durch die Stadt..... Sagt nichts aus!
 
Zurück
Oben