Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Novasun schrieb:
Joa Mann - wenn ich Produktverantwortlicher bei AMD wäre - weißt du was mich dann alte Nischen Games jucken würden... Und dich - wenn du ehrlich bist...
Logisch. Sehe ich genau so. Ist halt leider so. Die 6900XT wird leider von der 3090 aufgewischt in DCS VR und auch in IL2. Die absoluten FPS sind gar nicht so übel, die Frametimes leiser umso mehr. Deutlicher Unterschied. Also auch hier leider keine "Budgetlösung" am Start.
 
DayvanCowboy schrieb:
Den Begriff Monopol zu verwenden halte ich für Quatsch. Ein Monopol wäre z.B. wenn Spiele nur auf nVidia Grafikkarten laufen würden. Das ist einfach nicht der Fall.
Deshalb hab ich den qualifier (also eine Abschwächung) von "quasi" verwendet. Ich kann auch den technokratischeren technisch richtigeren Begriff "marktbeherrschende Stellung" heraus zaubern wenn dich das glücklich Macht.
Ergänzung ()

ThePlayer schrieb:
Naja da geht das Dispo ins Minus und es werden andere Dinge für 2-3 Monate auf Sparflamme gestellt. Hungern tut der nicht. Aber grenzwertig ist es schon.
Vielleicht bin ich zu buchstäblich, aber vom Munde ab-sparen kommt zumindest ursprünglich vom sich beim Essen beschränken.
 
  • Gefällt mir
Reaktionen: ThePlayer und Rockstar85
Rockstar85 schrieb:
Sorry aber du solltest dich dringend mit den Fakten vertraut machen.
Und jetzt erklär mir noch, wie die von dir genannten Beispiele ein nVidia gaming Monopolstatus rechtfertigen. Und nicht falsch verstehen: Ich finde dich extrem unterhaltsam. Schade, dass du das ”Englisch” aus deiner Signatur gelöscht hast, aber immer noch vom Unterhaltungswert 1A.
 
Rockstar85 schrieb:
Aber das Latenzproblem würde doch bestehen bleiben, oder?
Der Latenznachteil des Caches auf den MCDs bleibt bestehen, ja. Aber der 3D-Cache, der auf den GCD drauf gepackt wird, hat keine Latenznachteile gegenüber Cache, das auf dem Chip direkt drauf ist. Die Latenz steigt da nur minimal mit der größe des Caches an. Damit hätte die GPU also mehr Cache mit geringerer Latenz zur Verfügung, das Latenzproblem wäre damit insgesamt abgemildert.
 
blackiwid schrieb:
Deshalb hab ich den qualifier (also eine Abschwächung) von "quasi" verwendet.
Und auch das trifft nicht zu. Aus Wikipedia z.B: Wenn es auf einem Markt zwar mehr als einen Anbieter gibt, von denen einer aufgrund eines sehr starken natürlichen Wettbewerbsvorteils eine marktbeherrschende Stellung hat, handelt es sich um ein Quasi-Monopol

Wo hat nVidia einen natürlichen Wettbewerbsvorteil?
 
Convert schrieb:
Der Latenznachteil des Caches auf den MCDs bleibt bestehen, ja. Aber der 3D-Cache, der auf den GCD drauf gepackt wird, hat keine Latenznachteile gegenüber Cache, das auf dem Chip direkt drauf ist. Die Latenz steigt da nur minimal mit der größe des Caches an. Damit hätte der Chip also mehr Cache mit geringerer Latenz zur Verfügung, das Latenzproblem wäre damit insgesamt abgemildert.
Okay, also das gleiche "Problem" wie die Core to Core Latency bei Zen..
Dann vermute ich mal, dass CDNA beides haben wird und RDNA3 ggf mit einem 3D Cache kommen könnte... Ich bin aber echt gespannt, ob wir echt A0 Chips hier sehen, oder im BIOS Text Blödsinn steht.
Kennste jemanden, der einen Teardown getätigt hat?

@mojomojo
Das klingt fast als schreibst du das öfter ;) Ich meine das schonmal von dir gelesen zu haben.
 
DayvanCowboy schrieb:
Die Epyc Server CPUs sind top
Definitiv, am Markt haben sie es dennoch schwer das Intel quasi Monopol aufzuweichen. Das passiert einfach mal nicht mit einer oder 2. Generationen über das Ganze gesehen und die anderen legen auch nach, zudem wäre es sehr blauäugig davon auszugeheen Intel verkaufe keine Server CPUs mehr seit dem Epyc start.

Es gewinnt leider nicht immer das bessere Produkt. Das wäre ja zu einfach :lol:
 
  • Gefällt mir
Reaktionen: Rockstar85
Digensag schrieb:
So wie NVIDIA auch ;
https://www.computerbase.de/news/gr...gt-geforce-rtx-3000-zum-rtx-4090-start.82084/

Beachtliche Zuwächse in einzelnen Titeln​

Die Durchschnittswerte verschweigen dabei, dass es einige Titel gibt, in denen die Leistung signifikant steigt. Drei Beispiele sind Cyberpunk 2077, Halo Infinite und Far Cry 6.

In Cyberpunk 2077 steigen die FPS in WQHD auf einem potenten Core i9-12900K um beachtliche 16 Prozent an, was den Abstand auf die RTX 4090 von 48 auf 28 Prozent schrumpfen lässt. In UHD und 5K, wo die CPU eine geringere Rolle spielt, sind es 7 respektive 6 Prozent Zuwachs.
OK, das wusste ich nicht und hätte es ehrlich gesagt auch nicht mehr erwartet, der Test stammt schließlich vom Oktober 2022. Also dann hat Nvidia mit einem Treiberupdate doch noch einiges aus Ampere herausgeholt. Touche
 
  • Gefällt mir
Reaktionen: Rockstar85
mojomojo schrieb:
Intel verkaufe keine Server CPUs mehr seit dem Epyc start.

Es gewinnt leider nicht immer das bessere Produkt. Das wäre ja zu einfach :lol:
Nicht sofort, aber auf längere Sicht hoffentlich. Ich kaufe die jedenfalls gerne
 
  • Gefällt mir
Reaktionen: mojomojo
Ein halber Monatslohn oder mehr für ne Graka ... Ich muss mich mal an die zweite Million halten, mit der ersten hats ja noch nicht geklappt ... :D

Was mich an den AMD Karten bisher echt gestört hat, war der Verbrauch wenn man Videos abspielt ..
Und die 7900er Karten eskalieren vollständig! ... nur leider in die falsche Richtung :( ... Ist sparsames UHD60 Playback in 2023 wirklich so schwierig?
 
Rockstar85 schrieb:
Kennste jemanden, der einen Teardown getätigt hat?

Gamers Nexus, aber die Chips waren dort blank. :D
Auf dem "Rahmen" konnte man glaub ich keine Revision sehen.

Aber wer weiß was AMD bei dem Package betreibt, es wird verschiedene Revisionen von allen geben im Zweifel, A0 muss ja nicht auf alles zutreffen...
 
DayvanCowboy schrieb:
Wo hat nVidia einen natürlichen Wettbewerbsvorteil?
Spielehersteller optimieren ihre Spiele auf Nvidia Hardware, sie haben durch mehr Verkäufe mehr Geld, also mehr Geld für Treiberentwickler und kann mehr Spielefirmen helfen die Spiele auf ihre Hardware zu optimieren, durch die höhere Marktanteile machen Spieleentwickler mehr Richtung RT würden sie nicht machen hätte NV nur 50 oder gar 20%.

Dadurch das sie höhere Stückzahlen und Margen haben können sie Firmen wie TSMC bessere bevorzugte Behandlung verlangen etc...

Wieso gibts hier immer jemand der das absolut offensichtliche Hinterfragt? Muss ich als nächsten Begründen warum die Erde keine Scheibe ist?

Auch hat NV mehr Geld und kann daher mehr Sozial Media Firmen entweder noetigen oder bestechen ihnen gute PR Tests zu schreiben.
 
  • Gefällt mir
Reaktionen: Anon-525334 und Rockstar85
DayvanCowboy schrieb:
Ja, ich halte die aktuelle Generation zum aktuellen Preispunkt für einen Flop, und meine Hauptkritikpunkte sind Energieeffizienz und RT Performance. Ryzen 1000 war von Anfang an Konkurrenzfähig! RDNA DREI ist es nicht, von daher also ein schlechter Vergleich.
Wenn man nur das Thema Gaming betrachtet, war Ryzen 1000 den damaligen Intel-CPUs deutlich unterlegen, zumal man selbst in heutigen AAA-Spielen noch keinen automatischen Vorteil mit einem Achtkerner gegenüber einem Sechskerner hat. Das Novum zu der Zeit war einfach, dass man für vergleichsweise wenig Geld einen guten Achtkerner kaufen konnte. Die 8 Kerne waren jedoch ausschließlich für Anwendungsprogramme interessant. Mein Vergleich war also richtig, denn ich sehe die RX 7900 XT(X) zu allererst als Gaming-GPU.
DayvanCowboy schrieb:
Im Serverbereich kaufe/verbaue ich derzeit übrigens fast ausschliesslich AMD Epyc, die haben ein viel besseres Preis/Leistungsverhältnis.
Du verbaust also im Serverbereich Server-CPUs - du bist ein Genie! (War nur Spaß, ich weiß was du damit sagen möchtest.)
 
TigerherzLXXXVI schrieb:
Du verbaust also im Serverbereich Server-CPUs
Hah! Es gibt aber tatsächlich auch Ryzen basierende Server im low-end Bereich zu meiner Verteidigung :)
 
Ja ich weiß, du meinst sicherlich die Ryzen 16-Kerner. War ja nur ein Witz.
 
DayvanCowboy schrieb:
Absoluter Unsinn. Du glaubst ernsthaft, dass nVidia, die letzte Gen noch bei Samsung gefertigt haben eine besseren Deal bei TSMC bekommen als AMD?
Jop! Erstens weil sie einen Marktanteil von über 80% haben, also zumindest in diesem Bereich einige Wafer mehr abnehmen und zweitens weil sie nun bei TSMC fertigen.

Es wird schon seine Gründe haben wieso NVidia nun wieder alles bei TSMC fertigen lässt. Der technische Vorteil mit Sicherheit, aber nicht zu jedem Preis. Es ist durchaus vorstellbar und in Anbetracht der überdimensionierter Kühler denkbar, dass Ada auch bei Samsung vom Band hätte laufen können. Das dem nicht so ist, wird mit Sicherheit auch am Preis gelegen haben den TSMC mit Nvidia ausgemacht hat.

Welches "Druckmittel" kann AMD vorlegen? Wir gehen zurück zu GF? AMD ist von TSMC komplett abhängig, von der Fertigung bis zum Bonding.
 
  • Gefällt mir
Reaktionen: Rockstar85
Zurück
Oben