Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

AppZ schrieb:
Es sind selektierte Benchmarks mit Ryzen 5000.
Auf Intel werden die AMD Karten damit schonmal langsamer sein (da kein shared memory oder wie das ding heißt).

Mensch Leute jetzt lernt doch mal ein bisschen zu differenzieren, die 6800XT wurde OHNE Smart Access Memory getestet, wo sie hier 4-5% über der 3080 liegt, wird sie mit einem Ryzen 5000 und 500er Board also in diesen Benches eher 7-10% drüber liegen.
 
  • Gefällt mir
Reaktionen: eXe777, s0UL1, Dai6oro und 6 andere
Sollten die Preise bei den AMD Partnerkarten genauso unverschämt sein dann bestelle ich direkt bei AMD die FE Karte oder wie die sie auch immer nennen
 
  • Gefällt mir
Reaktionen: GerryB
Ich bin mal gespannt, was AMDs SAM im CPU Limit bringen wird. Auch die Auswirkungen von PCIe 4.0 und 3.0 wird interessant.
@Volker
Bitte mit im Test anschauen. PCI4.0 mit SMA zusammen könnten schon wieder 2-10% ausmachen, die man ggü non-R5000 und 500er Chipsatz verlieren kann.
 
HAse_ONE schrieb:
Und Raytracing Leistung unter einer 3090 ist auch unspielbar. Überhaupt ohne Raytracing kann man jetzt nicht mehr spielen. Da sehen die Spiele ja aus wie Mario 64.


I
hier nochmal ein Auschnitt aus dem Fazit von HWLuxx WatchDogs/Raytracing dazu:
Zitat: " Man muss dieser Technik aber zu Gute halten, dass wenn man sie einmal gesehen hat, in vielen Fällen ein Zurück nicht mehr möglich ist"
 
Sehr viele nervige Kommentare hier, finde ich.
Anstatt man froh ist, dass endlich wieder Konkurenz da ist, wird von den ganzen Neidern wieder rumgehatet. Schlimm!

Es hatte schon seinen Grund, warum NVIDIA die letzten paar % aus ihren neuen GPUs rausgekitzelt und auf die Effizienz geschissen hat. Warum wissen wir seit gestern. Ich habe die ganzen Threads im Voraus mitverfolgt.

  • erst hieß es AMD kann froh sein, wenn Big Navi an die 3070 herankommt
  • dann war es die 3080 und auf einmal die 3090

Nun erhält man für weniger Geld im Durchschnitt gleich gute GPUs, die dabei auch noch weniger Strom verbrauchen. Jetzt wird rumgeheult, weil es ja noch keine offiziellen Tests gibt. Und der letzte Stromhalm ist dann noch DLSS/RTX. Nettes Feature, aber eben closed source. Wird wahrscheinlich den gleichen Weg wie GSync/FreeSync nehmen.

Davon mal abgesehen, dass DLSS aktuell nur eine handvoll Spiele überhaupt unterstützen, geschenkt. Es werden natürlich nicht weniger ;)

Zusammengefasst:
AMD
NVIDIA
Preis
✅​
❌​
Leistung
✅​
✅​
mit DLSS NVIDIA, ohne, AMD besser
Effizienz
✅​
❌​
Technologie Vorsprung
❌​
ca. 10 Jahre​
VRAM
✅​
❌​
Features
Raytracing (DirectX)
RA
✅ RTX​
da hat NVIDIA mit RTX aktuell die besseren Karten
DLSS
❌​
✅​
Infinity Cache
✅​
❌​

Ich weiß gar nicht, wie viele Jahre am Stück NVIDIA die deutlich besseren GPUs entwickelt hat, ich glaube 10 Jahre? Nun hat AMD das aber aufgeholt und das obwohl nicht nur GPUs (NVIDIA) sondern auch Prozessoren parallell (die Intel gerade mächtig ins Schwitzen bringen) entwickelt werden - alles natürlich mit einem Budget was im Vergleich zu NVIDIA und Intel eher ein Witz ist? Wie man die neuen GPUs dann so dermaßen schlecht reden kann - Fanboy gelaber par excellence.

Ich habe wirklich Respekt, vor dieser Aufholjagd.
Vor Wochen hieß es noch, AMD kann froh sein, mit der 3070 auf Augenhöhe zu sein.

Versucht einfach mal Objektiv zu sein! Konkurrenz belebt das Geschäft, sonst würden wir im Mainstream immernoch mit 2-4 Kernen rumgurken... :rolleyes: Man hat neben NVIDIA nun endlich wieder eine Alternative in allen Bereichen! Gut für uns!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: znarfw, KadmosIII, JohnVescoya und 16 andere
Also man weiß einfach bis dato nicht, ob es 6900XT Customs geben wird oder? Dass diese Karte AMD exklusiv ist, ist bloß ein Gerücht? Ich frage mich wie genau diese Karte sich positioniert, wenn die Customs der 6800XT durch OC 7% mehr Takt generieren. Könnten die dann nicht an der 6900XT vorbeiziehen? Naja eigentlich nicht, da die 6900 etwa 10% Vorsprung zu haben scheint.

Mich interessiert hier auch, wo genau Nvidia ihre 3080Ti positionieren möchte. Die kostet doch ziemlich wahrscheinlich genausoviel wie die 6900XT, hat aber dann weniger Leistung, weil sie ja weniger Leistung als die 3090 haben müsste, mit der sich die 6900XT ja misst. Also geht es dann nur über Features? Sehr knapp da oben im Enthusiastbereich.
 
  • Gefällt mir
Reaktionen: bugmum und Dittsche
bad_sign schrieb:
Bitte mit im Test anschauen. PCI4.0 mit SMA zusammen könnten schon wieder 2-10% ausmachen, die man ggü non-R5000 und 500er Chipsatz verlieren kann.
Du verlierst gar nichts. Du bekommst höchstens etwas oben drauf. So würde ich es sehen. Es wurde klar gesagt wie die Leistung ohne SMA aussieht und extra aufgeschlüsselt was man erwarten kann wenn SMA an ist.
 
  • Gefällt mir
Reaktionen: edenjung und Dittsche
GerryB schrieb:
Dachte sich wohl auch Mediamarkt: siehe Picture
Die 3070 ist seit gestern DOA und war 1 Tag relevant. Hatte ich schon Mittags vermutet vor dem RDNA2 Launch

Bessere 2080 Super oder schlechtere 2080Ti mit weniger VRAM. Ciao.
 
  • Gefällt mir
Reaktionen: Nefcairon, Dittsche und bad_sign
Die Gigabyte Aorus Xtreme 3080/3090 haben 3xHDMI und 3XDP.
Weiß jemand ein Design oder eine Datenbank in der die Anschlüsse der Karen aufgelistet werden, wo ich z.B. danach filtern kann?
Ich brauch nämlich nicht nur 4XDP, ich brauch auch einen Wasserkühler....
 
bad_sign schrieb:
Ich werde mir die 300W 6800XT zum 550W SP reinhängen und ein wenig am der Spannungsschraube drehen
Mal schauen wie viel geht, wenn man 100% 6800XT Leistung erhalten will. 220W?^^
Mit einem 3700X bei 60%, 5700XT, 16gb, 3x SSD unter BFV zieht die Kiste 350w an der Steckdose. Mit 550W Netzteil wird es knapp werden da mehr als 100W dazu kommen. Hab auch nur 500W Netzteil und bei einer kommenden 6800XT muss ein neues Netzteil her. Igor's Messungen sind da zu deutlich.
 
AppZ schrieb:
@Ethylamin

Basiert die PS4 und die bisherige XBox nicht auch auf AMD? Hat denen da ja bisher nicht viel geholfen.

Die damalige Hardware für die Konsolen hat sich aber vom Desktop deutlich unterschieden.
Auch die Nutzung der Schnittstellen.

Heute ist man mit DX12 Ultimate und einer gemeinsam genutzen RDNA2 Technologie auf dem gleichen Stand, so dass Anpassung viel einfacher und komfortabler werden, als noch bei den Vorgängern mit speziellen Konsolen-GPUs und nicht so einheitlichen Schnittstellen.
 
  • Gefällt mir
Reaktionen: bad_sign
Grundsätzlich ist schon gut, dass es endlich wieder eine Alternative zu NVidia im "HighEnd-Bereich" gibt. Jedoch sehe ich leider wieder Preise ab etwa € 579,00 aufwärts die mich nicht gerade ermutigen, eine potente Grafikkarte zu kaufen, zumal die Verfügbarkeit nicht sicher ist und die angekündigten Preise möglicherweise sich noch oben bewegen könnten. Ich werde daher etwa bis zum Frühjahr 2021 abwarten und die Preispolitik und die tatsächliche Verfügbarkeit beobachten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dittsche
DJMadMax schrieb:
Na, da musst du schon aufpassen. Die US-Preise sind in der Regel ohne Mehrwertsteuer angegeben. Zeitgleich kommen die Artikel nicht kostenlos in deutsche Regale - nebst Transport muss hier ebenfalls Zoll und Einfuhrumsatzsteuer entrichtet werden. So günstig ist der USD-Kurs nicht, als dass man hier blauäugig 1:1 umrechnen könnte.

EuSt wird von Händler bezahlt und er bekommt die dann auch wieder zurück und darf auf dem Endpreis nicht angerechnet werden.
Ich hab auch nicht gesagt 1:1 sondern ungefähr. Es ist mal ein Anhaltspunkt um zu sehen was auf einen zu kommt.
 
  • Gefällt mir
Reaktionen: DJMadMax
Selber schrieb:
Du verlierst gar nichts. Du bekommst höchstens etwas oben drauf. So würde ich es sehen. Es wurde klar gesagt wie die Leistung ohne SMA aussieht und extra aufgeschlüsselt was man erwarten kann wenn SMA an ist.
Ich verliere Leistung ggü dem Optimum, was R5000 mit 500er Chipsatz darstellt
Der Sprung ist gering (<10%) aber ich spiele eh mit dem Gedanken auf Zen3 aufzuspringen.
Aber 6900XT (wenn schon denn schon) + Waküblock + 5950X + B550 Board sind grob 2200€, wenn man's genau nimmt, absolut unnötig ist, aber bei dem Gedanken bekomme ich ein gaaanz großes Grinsen :D
 
AppZ schrieb:
Basiert die PS4 und die bisherige XBox nicht auch auf AMD? Hat denen da ja bisher nicht viel geholfen.
Das war aber ganz andere, schwächere Hardware und AMD FidelityFX gibt es mW. auch nur für die RDNA-Architektur.
 
  • Gefällt mir
Reaktionen: mc_ace
BTICronox schrieb:
Ich glaube doch, denn AMD entwickelt DLSS für die PS5 :p
News kam heute erst für mich.
nein DLSS ist nvidia proprietär. Allerdings ist AMD an einer zumindest auf machine-learning basierenden Alternative dran.
HerrRossi schrieb:
AMD FidelityFX gibt es mW. auch nur für die RDNA-Architektur.
FidelityFX ist soweit ich weiß sogar open, sollte also mit jeder Karte die dx12 kann (zumindest teilweise) funktionieren
 
  • Gefällt mir
Reaktionen: edenjung
@Ray Donovan

Sorry deine Tabelle weisst seltsame Daten auf. Erstens woher kommen die 10 Jahre Technologievorsprung von Nvidia her ? Welche Glaskugel von Nvidia hast du gekauft ? Was für ein blödsinn. Nur weil Nvidia die "besseren" Gpus gebaut hat die letzten Jahre ? Schwachsinn, siehe Intel und AMD. Sowas wie Technologievorsprung ist für unser einer nicht zu ermitteln, weil wir nicht bei der Entwicklungsabteilung von AMD und Nvidia und Intel arbeiten. Und um das zu ermitteln müssten wir bei allen gleichermaßen Einblick haben

Zweitens Nvidias Raytracing und AMD' Raytracing basieren beide auf DX12 und NEIN Nvidia ist nicht der Erfinder von Raytraycing, denn RT ist, keine Ahnung ....... ein 40 bis 50 Jahre alter Hut.
 
  • Gefällt mir
Reaktionen: Nefcairon und eXe777
Monstranz schrieb:
Mit einem 3700X bei 60%, 5700XT, 16gb, 3x SSD unter BFV zieht die Kiste 350w an der Steckdose. Mit 550W Netzteil wird es knapp werden da mehr als 100W dazu kommen. Hab auch nur 500W Netzteil und bei einer kommenden 6800XT muss ein neues Netzteil her. Igor's Messungen sind da zu deutlich.
Meine 1080Ti läuft auf 200W, den 3900 habe ich noch nie bei 70W gesehen.
Peaks an der Dose sind 400W, normal auch 350W
Ich Rendere und zocke manchmal parallel, das sind 460W.
Also alles ez :)
 
bad_sign schrieb:
Meine 1080Ti läuft auf 200W, den 3900 habe ich noch nie bei 70W gesehen.
Peaks an der Dose sind 400W, normal auch 350W
Ich Rendere und zocke manchmal parallel, das sind 460W.
Also alles ez :)
Mutig
 
Zurück
Oben