Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestRadeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“
Wichtig ist wie sich NVIDIA und AMD in UE5 mit den neuen karten so schlagen, sollte NVIDIA auch unter UE5 deutlich besser performen dann wirds sehr dunkel für AMD.
Diese ENGINE wird in den nächsten jahren noch viel stärker dominieren als UE4 und UE4 kam auch nicht gerade selten zum einsatz !!!
Ich konnte heute keine UE5 Benchmarks finden (demos), falls ihr welche gefunden habt, postet es mal bitte.
AMD gibt aber ehrlich zu, dass das Chiplet-Verfahren bei CPUs zwar Kostenvorteile bringt, jedoch zugleich Leistungsnachteile. Bei gleichem Takt hat Navi 21 im Vergleich zu Navi 31 eine zwischen 5 bis 10 Prozent schlechtere Latenz beim DRAM-Zugriff.
=> das wäre doch ein Vor- anstatt Nachteil für Navi 31. Eventuell die beiden Generationszahlen vertauscht?
und:
Der bei den CPUs genutzte „Infinity Fabric“ ist für GPUs nicht geeignet,
....
Darüber hinaus steigt die Latenz zum „Infinity Fabric“ um einen vergleichbaren Wert an.
Im vorherigen Absatz wird ja geschrieben, die GPU nutze keinen Infinity Fabric sondern die "infinity Fanout Links".
Ist das jetzt hinfällig? gibt es trotzdem einen (anderen) Infinity Fabric auf der GPU?
Bei sowas bin ich mir selbst nicht sicher ob ein Typo ist oder ich einfach eine technische Gegebenheit übersehe
Das habe ich immer wieder gesagt. AMD hat auf den Folien immer von "up to" gesprochen und meinte damit ganz exklusiv Maximalwerte, was aber irgendwie keiner hören konnte oder wollte.
Auf alle Fälle waren AMD´s Angaben damit nicht gelogen aber sehr kreativ.
genau so is es....
und wehe man hat es mal klar benannt wurde man von allen angeriffen und die 7900xtx is doch top und werde nur knapp (10%) hinter der 4090 liegen
tja jetzt wurde man von der realität wieder eingeholt das es aber dann doch so dürftig is und die 4080 nur knapp schlägt oder gleich auf ist im raster is aber trz sehr entäuschend, gerade bei rt wirds aber noch deutlich statt aufzuholen is der abstand noch größer geworden
da sieht man doch wieder rdna is doch nicht so stark wie man dachte und wie schlecht der samsung 8nm doch gewesen ist
Ergänzung ()
Geringverdiener schrieb:
AMD muss sich auf gar keinen Fall verstecken, ihre Karten sind Bombe und können mit der 4090 (ohne RTX) mithalten.
bitte was mit der 4090 XD in welcher realität bist du denn
weißt schon das die 4090 außer konkurrenz ist.....
meintest eher die 4080......
die karten sind keinesfalls bombe
1. hoher verbrauch im idle
2. sehr hoher verbrauch bei 4k144hz ezc.... geht gar nicht
3. viel höherer verbrauch
4. geringere effizienz
vom rt brauchen wir nicht reden.....
rasterleistung nur auf 4080 niveau ist dann schon sehr entäuschend
also zeig mir doch mal wo die bombe sind und komm jetzt nicht mit dem preis XD
Ja, richtig ! 980Ti kam vor Fury raus und war deutlich schneller unterwegs, zudem viel mehr OC Potenzial.
AMD ist einfach zu schwach für die erste Liga (4090, 1080TI, 980TI) und spielte in den letzten jahren immer in der zweiten. Es vergingen jahre bis die drei Musketiere da oben überholt wurden.
4090 muss sich überhaupt keine sorgen machen, wird sehr lange auf dem Thron bleiben.
Man kann das hin und her diskutieren, aber in dieser Form und zu diesen Preisen ist die Radeon RX 7900 Serie einfach nur enttäuschend.
Die müssen ein ganzes Stück mit ein Preisen runter. Eine 7900 XTX für 899 Euro und eine 7900 XT für 749 Euro würden Käufer finden.
Die RTX 4080 müsste irgendwann auch auf 1.000 Euro runter und dann hätte man eine ordentliche Oberklasse mit entsprechender Auswahl.
Wirklich High-End ist aktuell nur eine Karte und das ist die RTX 4090. Da muss Nvidia aufgrund der Ausnahmestellung gar nichts machen und wird das auch nicht tun.
Die möglichen 4090 Ti und 4080 Ti werden die Situation für Nvidia noch komfortabler machen. Sehr schade und eine vertane Chance seitens AMD.
Man kann nur hoffen, dass der zweite Wurf mit MCM dann im kommenden Jahr gelingen wird.
nicht objektiv scheinbar oder cherrypicking....
igorlsab hat im endeffekt die selben ergebnisse wie pcgh oder computerbase.....
die xtx mit der 4090 zu vergleichen obwohl hier welten dazwischen liegen is utopisch oder man is in einer anderen realität mit roter brille unterwegs
Ausgehend von meiner jetztigen 3090, macht nur ne 4090 Sinn, die 7900XTX wäre da nur ein Sidegrade, leider. Naja mal sehen wo die Preise hingehen, 2k wollte ich jetzt nicht unbedingt aus dem Fenster werfen.
hättest du vorher upgraden sollen als die 4090 zu release easy zu bekommen war.
so hättest noch was für 3090 bekommen und hättest für weit weniger geld aufrüsten können.
jetzt kosten die 4090 zwischen 2700 und 3000 aktuell
ich hab meine 4090 asus tuf für 2100 bekommen und für meine alte 3090 noch 1100 bekommen so gesehen war das ein super deal
Der vielgelobte Preisvorteil: nun ja, warten wir auf die Custom-Modelle, denn das AMD-Referenzdesign scheint ja nicht so pralle zu sein (einschl. starkes Spulenrasseln, s. GamersNexus).. Wenn die XTX-Customs bei 1.200 - 1.250 € liegen sollten und es weiterhin Customs der RTX 4080 ab 1.350 € geben sollte, schrumpft der vermeintliche Preisvorteil auf gerade mal 100-150 €. Da frage ich mich doch: wie stark wiegt diese Summe bei Leuten, die bereit und fähig sind, um 2.500 € für einen PC auszugeben, wenn sie für rd. 5% Aufpreis deutlich besseres RT, (derzeit noch) überlegenes DLSS 3..0 und bessere Effizienz erhalten? Das kann der größere VRAM, der AMD m. E. nicht komplett aufwiegen.
Ich glaube, viele Testredaktionen unterschätzen die Bedeutung , die solvente Käufer in der Preisklasse ab 1.000 € diesen Features (insbes. RT) beimessen, zumal die Rasterizing-Leistung ja, sieht man sich viele Tests an, alles in allem zwischen RX 7900XTX und RTX 4080 ungefähr gleich ist (+/+ 5% mit einzelnen Ausreißern bei bestimmten Games). Wer so viel Kohle hinbälttert, erwartet, glaube ich, schlicht mehr als "nur" flüssiges gameplay @ UHD "ohne alles". Und da ist "Team grün" nun mal objektiv besser aufgestellt, egal, ob man die mag oder nicht. Wie Mr. Owen richtig feststellt, überteuert sind sie derzeit beide.
Aber ich kann mich irren, die Verkaufszahlen der nächsten Monate werden es zeigen.
Diese Unwissenheit.
Samsung 8nm gehört zu den 10nm Fertigung und Nvidia, soweit ich weiß, nutze die neuste Revision, und AMD nutze N7 also ohne EUV! Da ist die Transistordichte nur etwa bezogen auf N7 nur so etwa 30% weniger. Du siehst Samsung hat auch manchmal sehr akzeptable Nodes!
Und jetzt zu RDNA2 zu RDNA3: da ist viel Fortschritt reingeflossen, aber auch in gewisser Weise auch Rückschritte und zwar verlagert die Aufgabenverteilung/Auffüllen extrem auf den Treiber.
Der Wechsel von 7nm auf 5nm gibt es sogar offizielle Zahlen von TSMC: 15% mehr Leistung! Mehr ist nicht drin! Und dann hasst du noch die N6 Speicher. RDNA2 ist eine der besten Architekturen ( wenn man RT ausklammern)
RDNA3 mache ich mir gerade sehr viel Sorgen ob sie doch nicht zuviel in die Treiber und Gamesunterstützung verschoben haben, weil viele Spiele auch immer noch bevorzugt gegen Nvidia-Karten eher getestet und auch optimiert werden.
Da wurde viel auf reine Wirtschaftlichkeit (Produktionskosten) optimiert.
ahh der große experte....
1. samsungs 8nm war vergleichbar mit tsmc in 10nm.......
man sah doch deutlich das der verbrauch viel höher war und der takt war auch sehr niedriger.....
2. amd war nur deshalb mit rdna 2 so stark weil man von tsmc weg ging (sah man doch jetzt bei gleicher fertigung etc....
3. mag sein das viel entwickelt wurde etc aber fakt ist davon kommt auf der straße nichts an und das ist nun mal das entscheidene.....
aber ja glaub mal weiter an die roten samariter etc aber naja so ist das mit den roten fanbrillen trägern wenn man die wahrheit nicht wahrhaben will
ich finds nur lustig das niemand vor den tests hören wollte
Fakt ist jedoch
das dies nun mal sehr entäuschend ist
rasterleistung nur auf 4080 niveau
rt kaum verbessert
schlechtere effizienz
höherer verbrauch
schlechter verbrauch im idle etc....
eklanter verbrauch bei 4k144hz
und dann sind das nun mal keine guten karten mehr eher aktzeptabel
immer diese amd fanboys
ja weil die leistung bei weitem nicht ausreicht um das flagschiff zu erreichen deswegen gab es auch keine vergleichswerte bei der vorstellung.... und sie schlagen die 4090 eben nicht.... erzähl nicht solche fake news....(und komm mir jetzt nicht mit fhd oder wqhd da is man im cpu limit bei der 4090)
auch hat nvidia nicht rtx einführt so heißen ihre gpus...
rt ist ein offener standard etc diese technik gibt es schon seit zig jahren nur reichte bisher die leistung nicht aus....
ahhh jetzt kommt das wieder mit den wundertreibern also bitte.....
lass es lieber.....
seit ihr echt so in eueren welt oder wie?
diese wundertreiber geschichte gibt es nicht.....
wenn es hoch kommt vllt 2 bis 5 % aber in dieser zeit hat auch nvidia ihrer treiber etas verbessert etc..... das gleicht sich im endeffekt wieder aus....
dazu kommt die ineffizient der höhere verbrauch aber plötzlich is das ja kein thema mehr weil amd nicht mehr die effizienz krone hat....
bei ampere hat man die drauf eingeschlagen als nvidia mehr verbraucht hat komisch das es jetzt bei amd kaum zu sprache von euch kommt
ahh der große experte....
1. samsungs 8nm war vergleichbar mit tsmc in 10nm.......
man sah doch deutlich das der verbrauch viel höher war und der takt war auch sehr niedriger.....
2. amd war nur deshalb mit rdna 2 so stark weil man von tsmc weg ging (sah man doch jetzt bei gleicher fertigung etc....
3. mag sein das viel entwickelt wurde etc aber fakt ist davon kommt auf der straße nichts an und das ist nun mal das entscheidene.....
aber ja glaub mal weiter an die roten samariter etc aber naja so ist das mit den roten fanbrillen trägern wenn man die wahrheit nicht wahrhaben will
ich finds nur lustig das niemand vor den tests hören wollte
Fakt ist jedoch
das dies nun mal sehr entäuschend ist
rasterleistung nur auf 4080 niveau
rt kaum verbessert
schlechtere effizienz
höherer verbrauch
schlechter verbrauch im idle etc....
eklanter verbrauch bei 4k144hz
und dann sind das nun mal keine guten karten mehr eher aktzeptabel
Ergänzung ()
immer diese amd fanboys
ja weil die leistung bei weitem nicht ausreicht um das flagschiff zu erreichen deswegen gab es auch keine vergleichswerte bei der vorstellung.... und sie schlagen die 4090 eben nicht.... erzähl nicht solche fake news....(und komm mir jetzt nicht mit fhd oder wqhd da is man im cpu limit bei der 4090)
auch hat nvidia nicht rtx einführt so heißen ihre gpus...
rt ist ein offener standard etc diese technik gibt es schon seit zig jahren nur reichte bisher die leistung nicht aus....
ahhh jetzt kommt das wieder mit den wundertreibern also bitte.....
lass es lieber.....
Ergänzung ()
und warum wurde dann miles morales nicht mit rt getestet wenn du schon behauptest das se immer die top fordernsten szenen nehmen....
Ergänzung ()
immer diese wundertreiber geschichte....
wird die nicht langsam alt wie ein kalter kaffee
Raytracing ist bei AMD nicht zu gebrauchen, welten ! Die Funktion lieber direkt auf "OFF" schalten.
Wie attraktiv die RTX4080 plötzlich geworden ist, unglaublich. So nicht AMD.
RDNA3 also weniger effizient als Nvidia, hat sich wieder umgedreht. Nvidia-Einstiegskarten wie RTX 4050 aber sicherlich im Preisbereich (auch UVP) von minimum 350-400 Euro. Trotz womöglicher Weiterkürzung auf jetzt 4 PCIe-Lanes (die müssen ja sparen!!!1). Und auch wenn sie wie fast alle Karten für Luxus-Ray-Ban-Tracing so tauglich sein werden wie Fallout 4+5+6+7 als Fallouts.
Ergo wird die Ablösung für meine 1050ti entweder eine von mir undervoltete RX 6600, wenns mal wieder eine in einem ordentlichen Angebot gibt (für 240,- war schon mal ein Modell zu haben, da kann man immerhin drüber reden). Oder irgendwas Gebrauchtes. Geld hätte ich. Ich sehs aber nicht ein. Da wir hier von Grafikkarten reden: Ich sehs nicht ein -- im Wortsinn.
Vielleicht kommt ja doch noch irgendwann die Kyro 3 to the rescue.
Hauptrechner und Notebook haben grüne Karte (nur mein kleines Media und Entertainment hat rot).... ich glaube an den gelben Samariter, und meine Brille ist rot-grün...ich möchte nicht auf 3D verzichten.
Hab ja gesagt das Samsung 8 ein 10nm war aber für ein 10nm waren die ziemlich gut. Und du kamst mit der Aussage Samsung ist Schlecht. Ja öfter war Samsung deutlich schlechter, aber im 10nm haben die sich gut geschlagen.
Habe nie gesagt das Rdna3 in dieser Form das grüne Lager schlagen kann. Und irgendwie vergessen die Leute vor RDNA2 gab's auch RDNA und da gabs kein Shrink und trotzdem hat man locker 55% effizienter machte. Und das wurde hier einfach verfehlt und rein auf Produktionskosten kalkuliert. Zum einen verstehe ich das man um den Chipletdesign nicht herumkommt und hier was neues ausprobiert, aber da wurde Potential verschenk und diese vielen Bugs und Powerlimits. Naja zumindest werde ich bestimmt keine Navi31/32 kaufen.
Nur auf die Navi33 bin ich gespannt, denn diese wird ja ein N5 Monolith.
Das Fazit ist Lustig günstig bei über 1000 Euro für eine Grafikkarte ? Wenn man 1000 Euro dafür übrig hat dann wird es keine Rolle spielen ob man nun noch 100 oder 300 drauflegt.