Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Ano_Dezimal schrieb:
Hä ? In sogut wie jedem Forum haben die leute genau das orakelt. Es ist doch immer so in Foren das AMD besser da steht als Nvidia wenn man die Community frägt.
Selbst unter den AMD Fans war die Meinung, Big Navi könnte an 3090 heranreichen, nicht weit verbreitet.
Das ist heute die eigentliche Überraschung. RT mal hinten angestellt.
 
  • Gefällt mir
Reaktionen: Nefcairon, Otsy, -Ps-Y-cO- und 4 andere
Tronix schrieb:
.
Edit: Wenn die 37dB Angaben stimmen, ist sie bestellt.

Meistens sind Angaben, die zu schön sind, um wahr zu sein, auch zu schön, um wahr zu sein. AMD hat sicherlich nicht Noctua, Be Quiet und viele andere technologisch dreimal überrundet bei der neuen Generation des Referenzkühlers. Also wird das vermutlich bei -10°C Raumtemperatur und CS:GO auf 1280x720 bei 60fps Framelimit gemessen worden sein. (überspitzt formuliert)
 
Derenei schrieb:
Weiß jemand wann es Partner Karten der 6800er Serie geben wird?

Hab mir den Live Stream von 8auer angesehen. Roman meinte, er hatte Kontakt mit Asus und morgen um 14:00 sollen die angeblich vorgestellt werden.
Bin mir aber nicht zu 100% sicher ob ich das richtig verstanden habe.
 
  • Gefällt mir
Reaktionen: Derenei
mylight schrieb:
Glaubt ihr NVIDIA hat keine Pfeile mehr im Köcher?
Die Pfeile sind doch bekannt. 16+20GB sind gestorben. GA103 wohl auch.
Bleibt nur noch die Ti ala Super-Lösung mit kastrierten Salvage-Chips über den Preis zu kommen bei
der 3060Ti und 3070Ti(GA102-150)
Diese Pfeile haben aber immer noch weniger Vram.
 

Anhänge

  • GA102-150.png
    GA102-150.png
    113,8 KB · Aufrufe: 154
  • Gefällt mir
Reaktionen: konkretor und Mcr-King
ManPon schrieb:
Kann man plötzlich keine Spiele mehr ohne DLSS zocken? Habe ich was verpasst?! :freak:
Ja- Auch ohne 16GB VRAM gehts nicht mehr....
Nicht mitbekommen? ;)

Seit Neuestem feiert man auch den Preis von 1000$ Karten.
 
  • Gefällt mir
Reaktionen: JanTenner, KlaraElfer, Smartbomb und 2 andere
t3chn0 schrieb:
Der Müll ist halt die Gsync Geschichte bei mir. Ich kann einfach keine AMD Karte an meinem Monitor anschließen und auf ein key Feature verzichten.


Das ist eine Frage der Herangehensweise.

Ich habe weder Gsync noch Freesync noch jemals verwendet.
Ich bin mir auch sicher das Du die richtigen Einstellungen für ein Spiel treffen kannst.

Deaktiviere Gsync mal und sag mir ob du was merktst.
Für mich ist das eher was für Leute mit zu schwacher Hardware.

Allerdings wird sich ein Wechsel bei Dir nicht merkbar lohnen.
 
Zu beachten ist darüber hinaus, dass die Benchmarks der Radeon RX 6800 inklusive dem neuen Feature „Smart Access Memory“ durchgeführt worden sind, das in Zusammenspiel mit einer Ryzen-5000-CPU die Performance verbessern kann (Details auf der 2. Seite).

Würde mich interessieren, wie der Leistungszuwachs ist, wenn nicht der OC-Modus über dem Treiber an ist und die CPUs so eingestellt sind, dass sie exakt die gleiche Leistung liefern. Ansonsten ist die gefühlte 512-Bit-Speicherschnittstelle a.k.a. Infinity Cache unabhängig voll nutzbar?

Da frage ich mich, warum Nvidia nicht auch diesen Cache genommen hat, dann hätte man 2GB-GDDR6-Chips verbauen können, somit wäre die RTX3080 kein Speicherkrüppel mit 20GB und hätte die verringerte Speicherbandbreite auch kompensiert.

Ansonsten wäre die ATI* RX6800XT auch eine interessante Karte für mich. Schön wären auch mal zeitnah reale Benchmarks, weil AMD kann ja dann selber auch Fake-Marketing-Benchmarks machen, wenn Nvidia das auch unterstellt wird.

Problem ist aber, ich benötige tatsächlich einen Freesync-Monitor, der in der kompletten Range was taugt, daher auch vernünftige Schaltzeiten bei ~60Hz, da ich je nach Spiel auch wenig FPS habe. (Transport Fever 2, du Dualcore-Krüppel!) Der S2721DGF soll die Schaltzeiten erfüllen, aber gibt auch Leute mit Bildverlusten auf dem Desktop oder im Freesync bei ~48Hz. Auch das unterschreite ich. Noch geiler wäre es, wenn AMD auch G-Sync nutzen kann, wo der Monitor kein AMD-Update hat.

Und bei den bestimmten Raytracing-Sachen, wo die AMD gegen Nvidia verliert, wird mehr Raytracing von der CPU berechnet?

*Eine Hommage an den alten Namen - ATI!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Werden die Daten dort präsentiert oder tatsächlich die Modelle? Bin mir nicht sicher was er gesagt hat.
Die 6800 scheint sehr interessant zu sein, ich schwanke noch :)

In einem neuen Youtube Video auf dem AMD Kanal konnte man sehen, dass Smart Access Memory ohne Rage Mode 5% - 11% mehr Leistung bringt in den dortigen Benchmarks, Rage Mode bringt also nur 2%? Könnt ja selbst schauen, das Video ist frei zugänglich und geht 15min.
 
  • Gefällt mir
Reaktionen: Mcr-King
DrFreaK666 schrieb:
Du hast geschrieben dass AMD RT nachreichen will, aber RT wird bei Erscheinen sofort unterstützt
Wäre auch mehr als lächerlich wenn RT nicht unterstützt werden würde, genauso ist aber auch das Ausbleiben der Vergleiche mit NVIDIA im RT-Bereich nicht minder lächerlich. Warum kam da noch nichts?
 
  • Gefällt mir
Reaktionen: Mcr-King und bad_sign
Laphonso schrieb:
Irgendwie sonderbar.

Die 6900XT ist so platziert und stellt das dar, was Nvidia zum Launch als Flaggschiff hätte präsentieren sollen und als 1080Ti und 2080Ti Erbe:

Eine 3080Ti für 999 Euro mit 16 GB VRAM und den fps, die eine 3090 hat.

Das liefert nun ausgerechnet AMD.
Minus DLSS Featureset.
Ich sehe es so das nur 6800XT und 6900XT einen Nachfolger für die 1080TI darstellen. Nvidia hat keine Nachfolger im Portfolio
 
  • Gefällt mir
Reaktionen: Tornavida und Mcr-King
GerryB schrieb:
Die Pfeile sind doch bekannt. 16+20GB sind gestorben. GA103 wohl auch.
Bleibt nur noch die Ti ala Super-Lösung mit kastrierten Salvage-Chips über den Preis zu kommen bei
der 3060Ti und 3070Ti(GA102-150)
Diese Pfeile haben aber immer noch weniger Vram.

WOW. Wenn die 3075 (so nenne ich sie jetzt mal tatsächlich mit dem GA102 bestückt ist, dann sinkt die Marge bei NV aber wirklich "drastisch".
 
  • Gefällt mir
Reaktionen: Mcr-King
Balikon schrieb:
Diese Art gefällt mir nicht. Das ist nicht korrekt und nicht ehrlich. Und das kritisiere ich. Ist mir vollkommen Wurscht, ob Nvidia/Intel/Apple das genauso gemacht hätten. Das gehört sich einfach nicht.

Und deswegen muss AMD das kopieren?

OK jetzt verstehe ich worauf du hinaus willst, NEIN das müssen Sie nicht kopieren. Das Probleme ist aber die genannten "anderen" Firmen kommen jahr für Jahr damit durch.

Nvidia mit dem 970 Betrug (ja ich schreibe Betrug denn wenn man "falsche" Technische Specs. absichtlich auf der homepage veröffentlicht ist das Betrug, denn da wurden mehr Cache und Rops angegeben als die karte tatsächlich hatte. Was ist passiert? Die Leute haben Nvidia nicht abgestraft sondern die Karte wurde der Sellingpoint von Nvidia.

Wie man sieht ist nicht AMD "schuld" od. "böse" sondern die Dummheit/Ignoranz der Kunden straft die Aufrichtigen Firmen, daher kann ich AMD hier nichts vorwerfen denn ein "geschönter" Benchmark Chart ist das eine, aber das was Nvidia da damals gemacht hat ist ne ganz andere Hausnummer und es interessiert tatsächlich niemanden.

Aber ja moralisch ist das nicht schön da gebe ich dir recht.
 
  • Gefällt mir
Reaktionen: eXe777, Smartbomb, KarlsruheArgus und 5 andere
Ich finde die 16GB für alle Karten übrigens toll. Das ist sehr fair von AMD und aus meiner Sicht ein kompletter Gamechanger.

Das es nun eine Synergie aus ZEN3 und Big Navi gibt, ist ein guter Schachzug. Das man dies nur mit 5er Chipsatz bekommt, ist auch verschmerzbar.

Alles in allem ist diese Vorstellung super. Man muss bedenken das man nun binnen kurzer Zeit mit Intel und Nvidia parallel gleichgezogen ist und diese teilweise überholt hat. Das ist unfassbar.

Vor allem hat man auch noch deutlich mehr Perspektive als die Kontrahenten. Zwischen Nvidia und AMD wird ein handfester Zweikampf entstehen. RDNA 3 wird darauf aufbauen und Ampere ist so schlecht nicht.

Intel hat es da deutlich schwieriger nochmal Anschluss zu finden. Was deren GPU macht wird spannend.
 
  • Gefällt mir
Reaktionen: KlaraElfer, jemandanders, PS828 und 4 andere
mylight schrieb:
Wäre auch mehr als lächerlich wenn RT nicht unterstützt werden würde.

Wieso schreibst du es dann? verstehe dich gerade irgendwie nicht 🤔
 
  • Gefällt mir
Reaktionen: Mcr-King
gut und richtig schrieb:
Und die AMD Karten altern schlecht?

Reden wir in 2 Jahren nochmal drüber, Stichwort VRAM und sonstige Features (Konsolen-Hardware)

Die Karten sind doch jetzt schon zu langsam für 4K nativ und unterhalb von 4K spielt der VRAM keine Rolle.

Schau dir mal den 3090 Test hier auf CB an und klick die FPS der Einzeltitel durch.

60-70 scheint normal zu sein, eine 50 sieht man aber auch mal. Bei vereinzelten Titeln positiv auch mal 90, 100, 110. Kurz im Luxx geschaut, das neue Watch Dogs: Legion ist auch so ein 60-70 FPS Titel.

Das ist eine 3090. Zieh davon noch mal 10-15% ab, dann hast du eine 3080/6800 XT. Man kauft doch keine GPU für 700-2000€ und einen teuren 4K Monitor, um dann bereits jetzt gerade so mit 50-60 FPS rumzugurken.

4K ohne DLSS ist DOA, wer nativ spielen will, sollte bei 1440p bleiben. Wo sind dann 10 GB VRAM zu wenig?
 
Das einzige was ich jetzt mal hinterfragen würde, gibt es ein richtiges DLSS Äquivalent bei AMD?
Wenn ich mir die Watch Dogs Legion Benchmarks anschaue sind das in 4k selbst auf Quality Settings mal grad so knapp 60 % Mehrleistung.
 
IBISXI schrieb:
Mach mal eine Liste von Spielen die keine DLSS Unterstüzung haben.
Die wird mindestens hundert mal so lang.

3 oder 4 aktuelle und interessante Spiele sind dabei, wenn überhaupt.

Nichts wofür man eine neue Grafikkarte braucht.

Außer Cyberpunk, COD, BF5 und Minecraft sehe nichts von Relevanz, das auch noch länger gespielt werden wird und bei der Grafikkarten Wahl eine Rolle spielen sollte.

Die proprietären "Features" haben ja eine lange Firmengeschichte bei NV.

Nichts davon hat sich durchgesetzt, nur daraus gelernt hat man nicht.

Hoffentlich kommt da bald mal der Deckel drauf.

Richtig und für alle anderen Games brauchen wir keine NV3000er series oder RDNA2 da reicht immer noch eine alte 1080TI / 5700XT ...
 
  • Gefällt mir
Reaktionen: Benji18 und IBISXI
So genug gelesen, alle 46 Seiten
Zeit zum essen und zocken
Gute Nacht :D
 
  • Gefällt mir
Reaktionen: KarlsruheArgus, haudegen84, Mcr-King und 4 andere
Benj schrieb:
Meistens sind Angaben, die zu schön sind, um wahr zu sein, auch zu schön, um wahr zu sein. AMD hat sicherlich nicht Noctua, Be Quiet und viele andere technologisch dreimal überrundet bei der neuen Generation des Referenzkühlers. Also wird das vermutlich bei -10°C Raumtemperatur und CS:GO auf 1280x720 bei 60fps Framelimit gemessen worden sein. (überspitzt formuliert)

od. man hat endlich mal ordentlich Geld in die Hand genommen und ein sauberes Lüfterdesign von Sapphire (die übrigens scheinbar die Referenzkühler designed haben) bestellt. Sapphire weiß schon wie man ordentliche Kühlerdesigns hinbekommt und nachdem Nvidia 150$ für einen Ref Kühler zahlt wer sagt den das dies auch nicht so bei AMD ist?
 
  • Gefällt mir
Reaktionen: Mcr-King, Benj und The_Jensie
Zurück
Oben