News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Ich hoffe echt, dass das mit den 320W nicht stimmt, ich will im Sommer keine elektrische Heizung im Zimmer haben.

@Wolfgang : Wenn ihr die Karten zum Test habt, könntet ihr gerade bei diesen Stromfressern direkt Undervolting mittesten? Denn das könnte bei denen sehr interessant werden.
 
  • Gefällt mir
Reaktionen: C3LLoX, fox40phil, Cpt.Willard und 3 andere
ChrisM schrieb:
Ich hoffe echt, dass das mit den 320W nicht stimmt, ich will im Sommer keine elektrische Heizung im Sommer haben.

Mehr Leistung raus bedeutet im Moment noch mehr rein - ganz simple Rechnung.
Von nix kommt nix.
Und die Hürde von 4k mit Frames jenseits der 60fps war halt auch entsprechend hoch - für AMD wie auch Nvidia.

Es wird ganz einfach Zeit für andere Materialien.
 
  • Gefällt mir
Reaktionen: fox40phil, Cpt.Willard und ChrisM
Chismon schrieb:
Einen Volltreffer mit der RTX Ampere/3000 Serie :lol: :evillol: :D ... selten so gelacht ...

... durchschnittliche Leistungszuwächse, bei RT-Raytracing weit unter vorherigen Erwartungen, dazu ein seit Fermi/Thermi-GPUs nicht mehr gesehenes "Verbrauchs- und Abwärmewunder", entgegen Effizienz/echtem Fortschritt aufgrund des Billigst Fertigungsprozess von Samsung, total verpatzten Marktstart aus Kundensicht und für die ersten/Bauernfänger RTX 3070 und 3080 Modelle schon jetzt absehbar in einigen Spiel- und Anwendungsszenarien zu wenig Speicher,.

Aber ja klar, echt der Hit diese Ampere GPU-Generation, am besten legt man sich eine Huang Größenwahn-Büste aus dem RT-Raytracing nVidia Präsentationsvideo zu (obendrein wird vielleicht noch ein nettes Lederjackenimitat als Bonusmitgabe mitgeliefert), so dass man nVidia dafür gebührend feiern/huldigen kann.

Die erste Lisa Su RDNA2 Präsentation muss für Dich schon sehr schmerzhaft gewesen sein, wie es scheint.

Schwachsinn, ampere hat den grössten leistungs gewinn seit dem g80 gebracht, immer x800 gegen x800. wie kann man das nur abstreiten wenn man das sogar jederzeit selber überprüfen kann?!?
 
  • Gefällt mir
Reaktionen: Khalinor und Blade0479
Chismon schrieb:
Einen Volltreffer mit der RTX Ampere/3000 Serie :lol: :evillol: :D ... selten so gelacht ...

... durchschnittliche Leistungszuwächse, bei RT-Raytracing weit unter vorherigen Erwartungen, dazu ein seit Fermi/Thermi-GPUs nicht mehr gesehenes "Verbrauchs- und Abwärmewunder", entgegen Effizienz/echtem Fortschritt aufgrund des Billigst-Fertigungsprozess von Samsung, einen total verpatzten Marktstart aus Kundensicht und für die ersten/Bauernfänger RTX 3070 und 3080 Modelle schon jetzt absehbar in einigen Spiel- und Anwendungsszenarien zu wenig Speicher.

Aber ja klar, echt der Hit diese Ampere GPU-Generation, am besten legt man sich eine Huang Größenwahn-Büste aus dem RT-Raytracing nVidia Präsentationsvideo zu (obendrein wird vielleicht noch ein nettes Lederjackenimitat als Bonusmitgabe mitgeliefert), so dass man nVidia dafür gebührend feiern/huldigen kann.

Die erste Lisa Su RDNA2 Navi Teaser-Präsentation muss für Dich und andere nVidia-Jünger schon sehr schmerzhaft gewesen sein, wie es scheint.

Du musst schon echt in einer fremden Welt leben wenn du sowas schreibst. Wie kann man nur so viel falsches schreiben und auch noch überzeugt sein. Amd Fans sind einfach so unsympathisch. Ihr lebt an der Realität vorbei und träumt soviel. Die Fakten sprechen leider was anderes.
 
  • Gefällt mir
Reaktionen: Blade0479
Die Fakten liegen doch schon quasi auf dem Tisch ...

Nvidia und AMD ungefähr gleicher Stromverbrauch - AMD etwas mehr Rohleistung durch den neuen Cache dafür Nvidia mehr Raytracing Leistung und DLSS (im Vergleich mit der 3070/80 - XT und XTX)
Speicher wird egal sein wenn Nvidia die neuen Modelle mit mehr Speicher rausbringt
Preis wird ähnlich sein + die Verfügbarkeit das Zünglein an der Waage.
Müsste ich mich entscheiden würde ich trotzdem auf eine RTX Karte setzen wenn ich müsste, dafür ist DLSS einfach zu genial.
 
Captain Mumpitz schrieb:
Dann kauft man sich demnächst ein 1000w NT und dann heisst es wieder, man sei bescheuert. So schaut's doch aus...

kommt immer drauf an, auf wessen meinung man wert legt.

dieses "netzteil so klein wie möglich" kaufen ist genau so einzuordnen wie folgende aussagen:

"lieber 2 schnelle als 4 langsame kerne"
"4 kerne ohne ht reichen"
"4 kerne mit ht reichen"

hat sich jedes mal als falsch herausgestellt.

"für sandybridge reicht 1066MTs ram"
"intel profitiert nicht von dram oc"
"aegis ist ein guter speicher"
"asus b350 plus ist das beste board"

sind auch so urban legends, die sich hartnäckig halten.

für nen office rechner 1000w netzteile zu kaufen ist unfug, aber für alles andere ist ein knapp kalkuliertes netzteil in jeder hinsicht ein fehlkauf. moderne netzteile haben eine exzellente effizienzkurve. ob das ding 30 oder 90% ausgelastet ist, macht fast keinen unterschied. oft ist der sweetspot sogar bei grob 40-60%.

seasonic focus plus 650w platin:

Seasonic-SSR-650PX-Toms.png


ein groß dimensioniertes netzteil läuft ruhiger, effizienter, hat mehr anschlüsse und kabel, hält länger und ist eben nicht zu klein um bei hoher last oder lastspitzen einzuknicken.

ein 500w netzteil vs 750w netzteil macht folgendes: 15€ weniger kosten. dafür im zweifelsfall 120% mehr kopfschmerzen.

seasonic gibt 10 jahre garantie auf die netzteile - wo rechnen sich da bitte die paar gesparten euro für 50% weniger leistung? das ist im prinzip das einzige, was dieses netzteil innerhalb der garantiezeit obsolet machen kann.
 
  • Gefällt mir
Reaktionen: Unnu, derSafran, Tonks und 12 andere
patrickschur schrieb:
Ich habe keinen Einfluss darauf, welche News auf Computerbase kommen. Ich habe lediglich auf Twitter darüber geschrieben. Also beschwere dich bitte nicht bei mir.

Das habe ich nie getan. Seit meinem ersten Post nicht. Es ging immer nur drum aufzuzeigen aus was heute Meldungen generiert werden.


patrickschur schrieb:
Richtig, wenn du das aus der Sicht von PCGH und Co. siehst, dann sind diese Informationen unbelegt. Aber nicht aus meiner Sicht. ;)

Aus Igors Sicht schon. Der hat dich erwähnt und deine Powerwerte angezweifelt.
Und genau darum sehe ich es nicht gern wenn Artikel zu solchen Leaks gemacht werden die Erwartungen wecken, die vermutlich nicht Erfüllt werden und zu Enttäuschungen führen.
Damit hat das was du auf Twitter machst nur am Rande zu tun. Wenn du es nicht postest machts ein anderer.
 
Zuletzt bearbeitet:
Okay, wen die Rechnung von Igor stimmt, dann wird die Wahl der Karte etwas schwerer. Wenn die 3080 und das Gegenüber von AMD ähnlich viel saufen, bleibt ja nur noch Preis/Leistung übrig.
 
  • Gefällt mir
Reaktionen: blackTEHhawk, Unnu und ChrisM
DocWindows schrieb:
Aus Igors Sicht schon. Der hat dich erwähnt und deine Powerwerte angezweifelt.

Im Gegenteil, er hat die Werte als richtig eingestuft und diese nur ergänzt um die fehlenden Werte rund ums PCB. Du solltest das Video lieber nochmal ansehen.
 
duskstalker schrieb:
Ich stimme deinem Beitrag zu, wollte nur loswerden was ein Rotz diese Grafik doch ist. Während sie deine Aussage unterstützt, vermittelt sie durch die Skalierung echt riesen-Unterschiede. Man würde meinen TomsHardware wäre groß genug. :freak:

Mein nächstes NT wird auf jeden Fall nicht auf Kante gekauft, auch wenn das 550 Watt von BQ ja noch ziemlich frisch ist.
 
  • Gefällt mir
Reaktionen: Unnu
DocWindows schrieb:
Aus Igors Sicht schon. Der hat dich erwähnt und deine Powerwerte angezweifelt.
Und genau darum sehe ich es nicht gern wenn Artikel zu solchen Leaks gemacht werden die Erwartungen wecken, die vermutlich nicht Erfüllt werden und zu Enttäuschungen führen.

In dem VBIOS Eintrag stehen doch diese 255W genau so drin?! Ich denke übrigens, dass Igor mit seiner Kalkulation ziemlich falsch liegt diesmal.
 
  • Gefällt mir
Reaktionen: ThePlayer, G5y, bad_sign und 2 andere
@DocWindows Dann lies bitte den kompletten Absatz. Igor zweifelt nicht die Werte von Patrick an, sondern die Artikel von Zeitschriften die basierend darauf falsche Schlussfolgerungen ziehen.

Ergänzung: Im englischen Artikel heißt es explizit: " Patrick was right, but from the sight of AMD. That’s a difference. "
 
  • Gefällt mir
Reaktionen: derSafran, Unnu, patrickschur und eine weitere Person
Lefty220 schrieb:
Du musst schon echt in einer fremden Welt leben wenn du sowas schreibst. Wie kann man nur so viel falsches schreiben und auch noch überzeugt sein. Amd Fans sind einfach so unsympathisch. Ihr lebt an der Realität vorbei und träumt soviel. Die Fakten sprechen leider was anderes.

AMD Fans vs Nvidia Fans die 344395673690731047346te
Kann man nich mal über sowas diskutieren ohne jeden gleich in eine Schublade zu stecken?
Die meisten hier werden wohl schon beiden Herstellern ihr Geld in den Rachen geworfen haben.

Die RTX Karten laufen schon an der Kotzgrenze und wenn AMD das besser macht, Hut ab.
Schätze aber das ist Wunschdenken und die Karten werden ebenso am limit laufen.
Am Ende interessiert doch die Wenigsten was die Karte verbraucht, Hauptsache sie leistet und ist kein Brüllwürfel.
 
  • Gefällt mir
Reaktionen: Hells_Bells, Unnu, tunichgut und 2 andere
DocWindows schrieb:
@Blade0479 Ich lese lieber die Artikel.

...... Ja logo...
Das die Gesamt Aufnahme der Grafikkarte nicht nur aus Chip und RAM bestehen - Aber das die Werte von Chip und RAM, einzeln, die er angegeben hat stimmig sind.
Nur dass eben die restlichen Strom benötigten Komponenten da nicht mit eingerechnet sind.
So hat er es gesagt (im Video vor ein paar Minuten).
Falsch ist, was dann wieder auf irgendwelchen Kanälen von PC Comedy Channels aus dem Zusammenhang gerissen daraus fantasiert wird, da geb ich dir ja Recht.
 
Che-Tah schrieb:
....da nimmt man die 48" halt in Kauf und rutscht mit dem Sessel etwas weiter nach hinten.
ne nix nach hinten rutschen, nach vorne, 65" @ 1m Abstand XD
 
  • Gefällt mir
Reaktionen: Twin_Four
Chismon schrieb:
Die erste Lisa Su RDNA2 Navi Teaser-Präsentation muss für Dich und andere nVidia-Jünger schon sehr schmerzhaft gewesen sein, wie es scheint.
Und wenn ich mir in ein paar Wochen eine AMD-GPU kaufe, bin dann immer noch ein Nvidia-Jünger? 🤔
 
basic123 schrieb:
Auf Youtube gibt es ein Video wie jemand i9 10900k mit einer 2080 Ti auf einem 450W Netzteil ohne Probleme betreibt. Die Panik hier in den Kommentaren ist völlig übertrieben.
Auf YT gibt es viele Videos/YTber die viel Blödsinn erzählen ;)
 
  • Gefällt mir
Reaktionen: tunichgut, Khalinor, Kalsarikännit und 2 andere
foo_1337 schrieb:
Vollzitat entfernt.

Es fragt sich, wie viele Gamer und wie viele Miner an Werk denn RTX Ampere Karten ueberhaupt bekommen haben (?), dass die (RTX Ampere Grosschip-)Karten bewusst nicht in ausreichenden Mengen im Handel ankommen (nur fuer mehr Geld bzw. mit Scalper-Aufschlag) und anderswo hingehen bzw. fuer Gewinne sorgen (sonst wuerde Huang das nicht trotzdem so feiern und von Rekordquartalen vorauschauend toenen).

Das stinkt relativ auffaellig (bzw. gewaltig), was auch immer dahinter stecken mag, die Kunden bleiben die Gelackmeierten, einige lassen sich aber auch gerne von nVidia duerch den Kakao ziehen, komme was da wolle.

Naja, mir ist das relativ egal, wenn AMD/RTG halbwegs liefert mit RDNA2, hat nVidia bei mir aktuell keine Chance zu landen, auch nicht mit einer RTX 3070 mit 16GB (ohne GA-104 Vollausbau).

So etwas muss man nicht unterstuetzen und die, die es trotzdem tun, koenne sich dann als Mitverantwortliche der Preismisere auf dem Grafikkartenmarkt mitfeiern.

Was denn fuer Asse, fuer jeweils nicht einmal 10 Spiele? Der Hype um etwas mehr als eine Handvoll RT-Raytracing Spiele in den Medien ist doch absolut laecherlich und ebenso DLSS solange es nicht in quasi jedem Spiel anwendbar ist und keine ungewollten Grafikartefakte zaubert ... ausgereift sind beide Techniken nicht und nateurlich wird es da bei AMD/RTG auch nicht anders sein ... die ersten Kunden sind die neuen Beta-Tester.

Mit dem Marketing sind da beide bei mir an der falschen Adresse, damit koennen sie vielleicht irgendwelche Hobby-Enthusiasten oder Kinder beeindrucken oder das als das Verkaufsargument-Top-Feature nahelegen, aber fuer mich ist das eher nebensaechlich, die VR-Tauglichkeit (RDNA2 Navi ist ja auch erstmals mit passenden Ports am Start) ist fuer mich da bedeutend interessanter mit Blick auf die naechsten 4(+) Jahre.

Ja, wenigstens ist RTX nicht mehr komplett Vaporware wie damals noch Monate nach dem RTX Turing Marktstart/leeren Versprechungen von CEO Huang, das stimmt, aber wird das signifikant meinen Spielspass erhoehen koennen (neue Grafik-Maetzchen sind und bleiben immer noch weit abschlagen zweitrangig, bis sie - im Falle von RTX - irgendwann einmal ausgereift sind und dann nichts weltbewegendes mehr sind), ich denke eher nicht.

Das moegen andere Leute natuerlich anders sehen, z.T. auch weil sie mit Tomaten auf den Augen herum laufen, sich (und anderen) etwas vormachen oder fuer sich andere Massstaebe setzen bzw. andere Standards haben.

Mit mehr VRAM bekommt man (in deutlch mehr Spielen) deutlich mehr fuer sein Geld als mit RTX und DLSS Sperenzchen aktuell und daran wird auch ein nVidia gesponsorter RTX-Vorzeige-Titel wie Cyberpunk 2077 nichts aendern, egal wie abgehoben der Hype dafuer ist/sein wird.

Dass die breite Masse sich relativ kostspielige GA102-Karten kaufen wird/kann, halte ich fuer ein Geruecht und natuerlich wird wie ein Wunder RTX 3070 deutlich besser verfuegbar sein zum Marktstart, aber die runderen Produkte wird vermutlich AMD/RTG mit RDNA2 nach sehr langer Durststrecke wieder einmal bieten, auch wenn es die groesstenteils verblendete Kundschaft (anders als bei RyZen, insbesondere Zen+ und Zen2) nicht zu wuerdigen weiss.

Mindshare ist m.E. nicht alles (zumindest fuer mich nicht ... "nevermind the mainstream" ;) ) und bewegt mich eher dazu kein nVidia Produkt auf absehbare Zeit zu kaufen, egal ob eine RTX Ampere GPU, eine Nintendo Switch oder eine nVidia Shield, zumal die mir alle als Produkte irgendwie zu unrund sind ... vielleicht klappt es ja mit dem Hopper Nachfolger, denn in die erste/teure MCM-GPU-Generation werde ich wohl auch nicht einsteigen (da wuerde mich hoechstens eine Intel Xe HPG Karte auch als Sammelobjekt reizen).

Was Deinen Ausblick (Pessimismus bzgl. der RDNA2 Navi Verkaeufe) angeht, teile ich aber Deine Ansichten, dass es sich - wie ueblich - verkehrt entwickeln wird und der falsche (nVidia) wieder einmal von vielen Treu(doof)en bedient/gekauft/gefeiert werden wird (fuer das voraussichtlich schlechtere Produkt), keine Frage.

Bei RyZen hat die Wende ja auch eine Weile gedauert und wer weiss, wenn AMD/RTG dranbleibt und nVidia weiter Fehler macht mit der Produktpolitik, dann koennte das auch im GPU-Bereich passieren, auch wenn nVidia vorgewarnt ist (durch die Wende von Intel zu AMD im CPU Bereich) und es somit laenger dauern duerfte und weniger extrem ablaufen und ueberraschend waere.

Wie heisst es so schoen, "der Teufel scheisst immer auf den groessten Haufen" :D.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben