Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Drejk schrieb:
Wäre ein ryzen 5600x inkl 6800 XT ein zukunftsorientierter Rechner ?

bin Am überlegen einen pc zu holen , habe nämlich keinen.

Was heisst hier zukunfstorientierter Rechner? Das Zeug gibt es jetzt, in 2 Jahren ist es "leistungsmäßig" überholt und im best case immer noch Mittelklasse. Wenn sich noch mehr Programmierer für Games auf RT stürzen vielleicht nicht mal mehr das. Aber Spieleentwicklung hat glücklicherweise längere Reaktionszeiten, besonders wenn Cross-Plattform-Entwicklung betrieben wird..... Du brauchst jetzt nen PC? Legt dein Budget und dein Einsatzszenario fest, gewichte dann ob du mehr CPU oder mehr GPU-Power brauchst und kauf das Zeug dementsprechend.
 
Ich zitiere mich mal selbst vom 1.9. diesen Jahres:
Fortatus schrieb:
Was alle, die glauben, dass AMD nicht in die Nähe der RTX 3000 kommen wird, vergessen: Nvidia erkauft diese Leistung mit großen Chips: Die größten Chips von 2080Ti und 3080 liegen im Bereich von 600-750mm². Die AMD 5700XT liegt bei gerade mal 250mm² und taktet dafür höher(was zu schlechterer Effizienz führt). Prinzipiell hätte AMD auch schon RDNA1 hochskalieren können und mit niedrigerem Takt bei mehr CUs mehr Leistung verkaufen können.
Der Markt für Hochleistungsgrafikkarten wurde in dieser Generation von AMD aber gar nicht ins Visier genommen. Nvidias Architektur ist nicht so überlegen, wie es aktuelle Benchmarks vllt suggerieren.

Die Firma (AMD) ist aber mit den Zen-Architekturen und den Semi-Custom-Chips für MS und Sony voll ausgelastet gewesen.
Die Konsolen kommen bald raus, die Entwicklungsressourcen von SemiCustom können jetzt wieder anderweitig genutzt werden und deswegen ist davon auszugehen, dass RDNA2 mit verbesserter Architektur und im Vergleich zu den Top-RDNA1-Karten verdoppelten CUs mit Nvidia mithalten können wird.
Nvidias Preise sprechen auch dafür, dass sie nicht von einer Monopolstellung ausgehen.
Told you so.

Freut mich, dass AMD jetzt wirklich an allen Fronten konkurrenzfähig ist. Jetzt muss noch die Verfügbarkeit stimmen und ich kaufe mir keine RX6000, weil mir die Kohle dafür fehlt. :D

Und jetzt zeigt sich auch der Vorteil für AMD, dass sie die Konsolen-Hardware liefern. Direkt zum Start für die neuen Features optimierte Titel wie Godfall (PS5-Titel) und Dirt5 (kommt für XSX und PS5).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rubidox, m2020, Benji18 und 2 andere
bad_sign schrieb:
Genau das konnte meine Creative Soundkarte Soundblaster Z auch und machte auch ncoh erheblich besseren Sound.
Seit Creative E-MU abgewrackt hat und die Nutzer nicht mehr bereit sind für leistungsfähige DSP zu zahlen, kann nvidia mit der Grafikkarte noch etwas aus dem Hut zaubern, was kein ANC oder Core3D beherrscht.
Dafür reicht es, wenn der Nutzer ein vordefiniertes Stimmensample abgibt und der Algorithmus in der Lage ist der Stimme gleichgültig der Art der Hintegrundstörung zu folgen und sogar Konsonanten und Vokale in der Artikulation und Tonfall aufzufüllen. Sofern natürlich das Hintergundgeräusch nicht lauter ist und die Stimme überdeckt. Aber......

Wenn nvidia aber mit RTX Studio die Greenscreen ersetzen kann, könnte es für RTX Voice sogar von den Lippen lesen lernen und dann reicht sogar das Sprachsample.
Bei RTX Studio gibt es noch einen weiteren, kommenden Anwendungsfall für Fernsehstudios. Kann die Grafikkarte in Zukunft die komplette Person nachverfolgen, reicht nur noch die Grafikkarte in der Aufnahmetechnik oder Aufnahmewagen aus, die sogar intern mit angepassten Studio DLSS 8K 60Hz Sendungen fabriziert. Mit Verzug könnten auch hereinlaufende Passanten optisch raus gelitert werden

Da könnte man sogar in Maya oder Blender das Studio fast komplett digital aufbauen, raytracen und den Moderator in höchster Qualität in Echtzeit einbinden.

Die nvidia Grafikkarten regen die Fantasien durch das GPGPU Potenzial an, was AMD nicht mal im Ansatz an mangelnder Vorstellungen vorstellen kann..

Die steigende Rechenleistung mit Qualität für Echtzeit Raytracing, die nvidia sich abmüht, wird Hollywood dankend bei digitalen Effekten annehmen.

Seit dem nvidia G80 Chip hat nvidia einfach einmal einen führenden Grafikchip vorgestellt, der neben der Leistung auch bei der Bildqaulität durch alle neuen Generationen hinweg vorne.

Revan1710 schrieb:
Ich bin aber auch kein Freund davon, dass auf Kosten der Effizienz alles auf Leistung getrimmt wird. In der oberen Leistungsklasse ist das aber auch meist Nebensache (3090-Customs mit 500 W BIOS :freak:).
Eine kleinere RDNA2-Karte mit weniger VRam hat jedenfalls mächtig Potential, neuer Effizienz-König zu werden
Der nvidia Chip ist komplexer aufgebaut. Mit den Tensor Cores kann man auch arbeiten udns lebst über CUDA prügelt nvidia alle AMD Karten in ihre Ineffizienz. Da müsset AMD endlich aml Produktunterstützung für OpneCL bieten, die an CUDA heran reicht. Die alte VEGA II säuft nämlich als doch entwickelte GPGPU Karte auch mal gerne ineffzient. Die RDNA Chips sind einfach gestrickt, weil sie bis jetzt allein dem Gaming dienen sollen und wenn die bei doppleten Streamprozesoren nicht doppelt so schnell in OpenCL sind, dann sind diese trotz einafcher Bauweise abseits von Gaming schlicht ineffizient. Da kann man auf 10% Leistung bei m nvidai Vergleichsmodell in Spielen mal verzichten, wenn die Karte in den genutzten Zusatzanwendungen sogar mit weniger VRAM einfach abgeht.
 
Zuletzt bearbeitet:
Turrican101 schrieb:
Und warum seh ich da als allererstes nen Benchmark wo groß RTX 2080 Ti drauf steht? :rolleyes:

Muss ich das wirklich nochmal erklären??? Wieso stellst du dich absichtlich als dumm dar?
Und das als Turrican :(
 
  • Gefällt mir
Reaktionen: Otsy, Pisaro, Makso und eine weitere Person
Sun_set_1 schrieb:
Wie wäre das bei der Verdopplung der Recheneinheiten, mit anschließend noch +40% mehr Takt pro Einheit, bei gerade mal +30% Verbrauch, möglich?

Naaaja. Ganz so magisch wird das ganze auch nicht zugehen. Die frühen 7nm Chips haben mehr Spannungsaufschlag durch mehr Streuung in der Fertigung.

Did a few test runs today with my 5700XT reference design in Shadow of the tomb raider with different voltagesettings etc. Tested with TAA, dx12 and highest in 1080p. Custom fancurve. Temps are maxtemps.

Stock 2050/1200mv:
110fps, 185W max, 160W avg, rpm 2950, gputemp 74C, junction 93C
1900MHz/1000mv:
110fps, 149W max, 130W avg,
rpm 2700, gputemp 70C, junction 81C.
1800/950mv:
108fps, 133W max, 115W avg, rpm 2300, gputemp 66C, junction 74C.
1750/910mv:
106fps, 134W max, 110W avg, rpm 2300, gputemp 66C, junction 74C.
1700/890mv:
104fps, 126W max, 105W avg, rpm 2200, gputemp 65C, junction 73C

Und wir haben auch keine 40% mehr Takt. Nimm hier die 5700 XT bei 1900 Mhz und 150W, dann wäre die 80CU Version bei idealer Skalierung und gleicher Spannung / Takt bei ~1900 Mhz und 300W.

Durch den etwas reiferen Prozess kann man nun bei 1V sicher > 1900 Mhz rausfahren (ich schaffe bei 12nm TSMC und der 2080 TI zB 2040Mhz bei 1V).
Sicher hat man auch hier und da was optimiert - keine Frage.

Ich denke eher dass AMD nun die 300W etwa in allen Szenarien halten wird, schön im Power Limit. Je nach Auslastung der Kerne werden dann 2400Mhz oder nur 2000 Mhz abgerufen. Du kannst also nicht einfach mit 500 Mhz Mehrtakt rechnen, denn ein kleiner Navi ist sehr viel einfacher ausgelastet als ein 80CU.

Wenn man die 80CU super auslastet dropt sicher auch der Takt bei 300W in den 2100er Bereich und liegt dann nicht mehr so weit über den 1900 Mhz einer 150W 5700XT.

Am Ende kann AMD auch nicht zaubern und aus 700W 300W machen.
 
Zuletzt bearbeitet:
mylight schrieb:
Die 1080Ti ist super gut gealtert, genau das wofür NVIDIA steht.
GTX970 und die GTX1060 nicht so vorallem dass 3GB model. 😉
 
Mcr-King schrieb:
GTX970 und die GTX1060 nicht so vorallem dass 3GB model. 😉

Die Karten unter der 5700 sind aber auch nicht super empfehlenswert, meiner Meinung nach
 
  • Gefällt mir
Reaktionen: Nefcairon und Mcr-King
Sieht alles ganz nett aus. Ich bin auf die Effizienz gespannt. Und auf eine eingehende Untersuchung, ob der Cache ohne Probleme das kleine Speicherinterface kaschieren kann.

Aber die 3800 ist etwas schwach auf der Brust. Immerhin ist der Die genauso schwer (Transistoren) wie der GA102. Da ist eine 3700 der falsche Gegner. Da dürfte Nvidias Marge deutlich größer sein. Dazu kommt dann der ganze Speicher. Für den Kunden ist der toll, für die Hersteller eher nicht.

Aber wie die Ergebnisse im Detail auch aussehen mögen, es gibt wieder Konkurrenz im high-end.
Allerdings auch mit entsprechenden Preisen. AMD bepreist nach Performance. Da gibt's keinen Preisbrecher. Das Hauptargument wird wohl der Speicher sein.
 
  • Gefällt mir
Reaktionen: Mcr-King
HardRockDude schrieb:
Mega. Und alle durch die Bank weg mit 16 GB. Die RTX 3070 wird's schwer haben :D
Wenn sich die Preise einpendeln sehe ich für die 3070 kein Land^^
 
  • Gefällt mir
Reaktionen: Mcr-King
DrFreaK666 schrieb:
Was für Einschränkungen? Du hast dann einfach etwas weniger Performance
Das ist ne Einschränkung. Weil die Wahl logischerweise dann auf AMD fallen würde. Weil die bestmöglich Kombo dann eben AMD-CPU und AMD-GPU wäre, überspitzt gesagt
 
@andy484848
Ist es doch sowieso wegen der Konsolen und mit der Präse und den dort gegebenen Schilderungen sollte das doch echt jeder checken. Anscheinend nicht so wirklich, wenn hier Leute davon reden das Nvidia auf und davon ist beim Thema Vorteile xD
 
bensen
Der kleinere Navi 22 kommt auch noch. Der wird zwar nicht an die 3070 herankommen, aber mit 192 Bit Si, 12 GB dürfte sie trotzdem Druck machen und günstiger sein.
Und was die Margen angeht, NV plant selbst eine 3070 TI und 3080TI als Konter auf den Markt zu bringen. Da dürften die Margen nicht unbedingt "besser" ausfallen.

Im Endeffekt sind die 3080 und 3070 bald durch die TI Versionen bald "ersetzt". Besonders wenn die 3080TI mit 12 GB kommen soll und die 3070 TI kaum weniger Shader und ebenso 10 GB wie die 3080 .

NV wurde hier kalt erwischt und seien wir uns ehrlich. Die wenigsten wollten die Leaks glauben und haben sie teils sogar angefacht um dann fassungslos zu merken, dass die leaks am Ende sehr nahe der Realität waren.


PS. Ryzen hat es nicht mal so schnell auf 1000+ Beiträge geschafft. Jetzt wundert es auch nicht mehr, wieso AMD dieses mal die CPU und GPU getrennt vorgestellt haben.
 
  • Gefällt mir
Reaktionen: Nefcairon, Mcr-King, danyundsahne und 2 andere
andy484848 schrieb:
Wirklich schöne Vorstellung von AMD. ABER dieses Smart Access Memory stößt mir Sauer auf.
Wenn sowas tatsächlich Mainstream wird führt das für Konsumenten wie uns, zu viel zu starken Einschränkungen. mMn....
[/QUOT
Wieso, SAM optimiert die Latenz. Ganz normale Technik und nicht Propitaer, einfach dabei um die Funktion der Grafikkarte zu optimieren. Anders sieht es bei TensorCores, DLSS aus. Das ist propitaer.
 
  • Gefällt mir
Reaktionen: DonL_
Intel und Nvidia können ja auch eine Koop starten...
AMD geht halt ein Büro weiter und klärt das.
Ich finde dies nicht schlimm. Schlimm wird es erst, wenn Software dann nur noch auf einer Plattform läuft oder eben nicht, ähnlich wie PS und Xbox Exclusiv Spiele.

AMD bietet und zeigt halt einen Performance-Vorteil bzw. eine Möglichkeit, wie sie mehr Performance herausholen können, muss man ja nicht nutzen.
 
  • Gefällt mir
Reaktionen: DonL_
Ich besitze ein Seasonic Prime Platinum 750 Watt NT. AMD gibt für die 6900 XT 850 Watt vor. Was meint ihr? Mit Bling Bling RGB und i7 10700K @ 5,0 GHz machbar?!?
 
Tolle Vorstellung. Die RTX3070 8Gb ist damit EOL, mit ihren 16Gb ist die RX6800 jetzt schon der bessere Kauf. RX6800XT vs RTX3080 geht auch eher an AMD aufgrund der 10 vs 16Gb, da helfen der RTX auch nicht schnelleres(?) RT . DLSS vs DirectML muss man erst bewerten. Bei RTX3090 vs RX3900XT sehe ich eher Nvidia vorne. Die RX3900XT ist imho locker 100$ zu hoch angesetzt.
 
andy484848 schrieb:
Das ist ne Einschränkung. Weil die Wahl logischerweise dann auf AMD fallen würde. Weil die bestmöglich Kombo dann eben AMD-CPU und AMD-GPU wäre, überspitzt gesagt

Zen 3 wird wahrscheinlich sowieso für Monate das Nonplus Ultra sein.
Wer frisch aufrüstet, kauft AMD, sollte AMD kaufen.
Verstehe das Problem irgendwie nicht.
Ich gehe davon aus, dass Intel etwas ähnliches auf die Beine stellen wird

Nekkepenn schrieb:
... DLSS vs DirectML muss man erst bewerten...

Das kann nicht bewerten, und wann AMDs Lösung kommt, weiss noch niemand.
Da AMD aber mit MS zusammenarbeitet, gehe ich davon aus dass es effizient sein wird
 
KornY05 schrieb:
Intel und Nvidia können ja auch eine Koop starten...
AMD geht halt ein Büro weiter und klärt das.
Ich finde dies nicht schlimm. Schlimm wird es erst, wenn Software dann nur noch auf einer Plattform läuft oder eben nicht, ähnlich wie PS und Xbox Exclusiv Spiele.

Was für ein Coop sollte das sein?
Wie sollte man alle Triple-A Gaming Publisher davon überzeugen Games nur am PC für Intel und Nvidia zu optimieren wo man doch mit DX12 Ultra, Microsoft und Sony den Konsolenmarkt im Fokus hat und den PC Markt einfach nur noch mitnimmt?

Was sind das bitte für Vorstellungen?
Wenn Intel und Nvidia etwas liefern könnten, dann wären die doch in der Konsole drin und eben nicht AMD.
 
  • Gefällt mir
Reaktionen: Dittsche und Makso
Monstranz schrieb:
Wieso, schau dir an was Moderne Engines koennen, z.B. die Frostbite. Da brauchst kein extra RT.
Leider doch- Weil Du gewisse Dinge einfach nicht effektiver "faken" kannst.
Gerade Halos und blickwinkelabhängige Spiegelungen sind an Störung der gesamten Szenerie nicht zu übertreffen.

Ich will sowas in modernen Titeln nicht mehr ertragen müssen. Da besteht man auf 4K und 144Hz, zählt und zoomt auch sonst jeden Pixel und akzeptiert dann aber solche eklatanten Bildfehler?


 
  • Gefällt mir
Reaktionen: HardRockDude, eXe777, Nachos HW Tipps und 3 andere
Zurück
Oben