News RX 6800, 6800 XT und 6900 XT: AMD veröffentlicht weitere Benchmarks in 4K und WQHD

Gortha schrieb:
Du scheinst schon eine Sehhilfe zu brauchen. Man sieht heute in jedem Spiel, wieviel besser RTX On als Off aussieht. Außerdem kenne ich keines in dem sich alles überall spiegelt. Es ist eben realistisch. Das ist der Raytracing Hintergrund, Licht wird realisitsch gespielgelt und beleuchtet indirekt...

Mal im ernst.... Ich vermisse die alten Zeiten wo Gameplay, Geschichte, Story eine größere Rolle gespielt haben als Grafik... Ich Spiele lieber ein Game mit einer geilen Story, als ein Spiel mit mega Grafik mit Sinnlosen Inhalten wo man in 3 Stunden durchgespielt hat. Da verzichte ich freiwillig auf RT... Cool ist auch, Minecraft mit RT^^
Naja, leben und leben lassen
 
  • Gefällt mir
Reaktionen: blackTEHhawk, manfredham, Blueline56 und 8 andere
GerryB schrieb:
Alles über 144fps ist eh brotlose Kunst an nem 144Hz-Freesync-Moni. Dafür gibts AntiLag/RadeonBoost,
falls der Inputlag besser sein soll. Ansonsten würde ich per Chill Strom sparen.
Einfach FPS Limit auf 144 und fertig, mit meinem 1440p 144Hz Freesync Monitor werde ich mir die FPS sogar auf 72 setzen, ich brauche nicht mehr.
Aber die Werte zeigen, dass ich diese 72FPS mit einer 6800XT noch einige Jahre halten können werde und auch der VRAM wird nie Probleme bereiten.

Selbst wenn die Leistung mit RT um 50% einbricht, wenn ich so schon 150fps haben kann, ist das immer noch in Ordnung, braucht die Karte nur mehr Strom für die 72FPS.

Und das Super Resolution Feature kommt ja erst noch, das in Verbindung mit dem FPS Limit kann den Verbrauch der Karte dann nochmal um ~30% reduzieren, auch wenn es sich in der Präsentation so angehört hat, als würde das speziell für die Nutzung von RT kommen, im Gegensatz zu DLSS welches man auch so nutzen kann.
 
  • Gefällt mir
Reaktionen: jemandanders und Philanthrop
Hui. Das sind aber lange Balken. Scheint der Kompromiss zwischen ehrlichen Proportionen und dem dem Marketingteam gewesen zu sein.

Gestaucht sieht der Abstand plötzlich sehr viel unbedeutender aus.
Mit dem besseren Preis und dem Plus an Speicher steht ihr doch ohnehin besser da AMD.
 
@5654
Eine "vollständige" Implementierung von RT würde auch neue Möglichkeiten für das Gameplay eröffnen und die Immersion auf eine andere Ebene heben. Einzig fehlt mir das Vertrauen, dass Mainstream-Entwickler diese Möglichkeiten ausschöpfen werden. Was man in der Entwicklungszeit einsparen könnte, wenn man etlicher grafischer Tricks und Umwegen einfach nur "das Licht einschalten müsste", würde wahrscheinlich eher dafür genutzt werden, noch ein wenig mehr Spielwelt mit noch mehr tumben Achievement-Sammeleien einzubauen.
 
Botcruscher schrieb:
Cherry picking fürs Marketing. Wird eben gedreht bis es stimmt. Die letzten Ergebnisse waren auch ein bunter Mix aus allem.

Also wieder mit OC, freiem Power Target und allen Hilfen die so gehen.

Naja und?

Solange man nicht wie Intel einfach mal die eigene schnelle Riege gegen die mobile Varianten oder mit Singlechannel Ram verkrüppelte System der Konkurrenz antreten lässt - oder bei sich den Ramtakt hochjuchtelt und bei der Konkurrenz auf DDR4 2400-2933 setzt anstatt auf DDR4 3600.

Ganz ehrlich.

nVidia macht nichts anderes. Die zeigen auch nur RT Games oder Spiele mit massivem DLSS Gain und das wars.
 
  • Gefällt mir
Reaktionen: derSafran, manfredham, Ernie75 und 3 andere
Philanthrop schrieb:
jedoch benötigt man den GameRady Treiber der bei aktiviertem DLSS immer mit der Nvidia K.I Supercomputer kommuniziert
So ein Blödsinn. DLSS läuft komplett lokal (Treiber + Tensor Cores) und natürlich auch offline.
 
  • Gefällt mir
Reaktionen: RogueSix, Mumusud und Philanthrop
Taxxor schrieb:
Einfach FPS Limit auf 144 und fertig, mit meinem 1440p 144Hz Freesync Monitor werde ich mir die FPS sogar auf 72 setzen, ich brauche nicht mehr.
Aber die Werte zeigen, dass ich diese 72FPS mit einer 6800XT noch einige Jahre halten können werde und auch der VRAM wird nie Probleme bereiten.

Selbst wenn die Leistung mit RT um 50% einbricht, wenn ich so schon 150fps haben kann, ist das immer noch in Ordnung, braucht die Karte nur mehr Strom für die 72FPS.

Und das Super Resolution Feature kommt ja erst noch, das in Verbindung mit dem FPS Limit kann den Verbrauch der Karte dann nochmal um ~30% reduzieren, auch wenn es sich in der Präsentation so angehört hat, als würde das speziell für die Nutzung von RT kommen, im Gegensatz zu DLSS welches man auch so nutzen kann.
1+
Geht denn Fps-Limit in allen Games oder doch per Chill den Wert festlegen?

Schon das alte TrixxBoost war bei 85% x 85% Bildauflösung=ca. 1800p (bei nativ 4k) ungefähr 28% schneller.
Wenn AMD die Superresolution in der Größenordnung hinbekommt, wärs NICE.

Falls doch mal 5-10fps an den 50-72fps@RT fehlen sollten hoffentlich mit Übertakten die Units auch mit hochgehen.
Das sah bei den 3070customs im Review komisch aus, die reagierten gar net auf die 50W mehr von der GB vs FE.
Kann AMD eigentlich nur besser machen.
 

Anhänge

  • Control.png
    Control.png
    54,5 KB · Aufrufe: 308
Zuletzt bearbeitet:
Anker2310 schrieb:
es wird genauso wie bei der GTX 970 4GB und R9 390 8GB
Das Duell war da leider 970 mit nur 3,5 GB nutzbaren Speicher weil die restlichen 0,5 GB so langsam angebunden waren dass sie nutzlos waren.

Man kann erwarten: in Spielen mit RT ist Nvidia deutlich vorn (also wenn überhaupt aktiviert). 2560p ist AMD minimal vorn, in 4k Nvidia. Wobei Dann noch anzumerken ist dass teilweise jetzt aber spätestens sehr kurzfristig die 10 GB der 3080 dann nicht mehr reichen und für 4k nur die 3090 oder eben AMD die sinnvolle Wahl ist.

Preisentwicklung und Verfügbarkeit wird spannend, weil im Moment ist Ampere halt extrem überteuert wenn überhaupt zu bekommen dass man die im Moment auch nicht kaufen kann. 800€ für ne 3070 bei Saturn - wie bitte?? 😂
 
Payne19 schrieb:
Wow. Pure Zerstörung.
Also wer jetzt noch zu NVIDIA greift, ist einfach nur ein Fanboy.

Wieder einer der es nicht verstanden hat...
Es sind beides Gute Karten egal ob die 3000er Serie oder RDNA2, es ist für jeden was dabei und wenn du im Enthusiasten Bereich schaust hast du sowieso nicht viel Auswahl!
Einfach mal freuen das es wieder Konkurrenz gibt, anstatt hier so einen Stuss zu schreiben..."Pure Zerstörung"

Wenn dann ne 3070 in DLSS Games schneller ist als ne 6900XT was schreibst den dann ? Auch Fanboy...

Schade das Dummheit manchmal nicht weh tut, aber scheinbar kannst du eh nur von der Tapete bis zur Wand denken daher Spare ich mir hier den Rest... geh mal lieber weiter LOL Spielen für sowas braucht man solche Karten :lol:

Und komm mir bitte nicht mit Intel / NV Fanboy ich werde zu Release ebenfalls ne ZEN 3 und RDNA 2 bestellen einfach weil ich die beste Leistung haben will und nicht weil ich ein Fanboy bin und auf die Marke schaue...

Nebenbei ist "MIR" Raytracing und DLSS wichtig für andere wieder nicht, gut das des jeder selber entscheiden kann :schluck: :hammer_alt:
 
  • Gefällt mir
Reaktionen: stevefrogs, RogueSix, Darken00 und 2 andere
Sehe ich das richtig, dass die 6800 vermutlich aus allen vorgestellten Karten der grünen und roten vorauss. das Beste OC-Potential hat?

Warum? Weil der Chip langsamer getaktet ist als prinzipiell möglich -siehe 6800XT und 6900XT mit gleicher Basis - und das Powerlimit deutlich unter den beiden anderen Chips liegt, somit über Erhöhung PT der Chiptakt deutlich erhöht werden können sollte. Und an den Kühlern sollte es ja nicht scheitern, oder?

Zu einfach gedacht?
 
  • Gefällt mir
Reaktionen: Haldi
leipziger1979 schrieb:
Hinzukommt der noch utopischere Stromverbrauch gegenüber Nvidia

Das die neuen AMD Karten soviel wie die NVidia Karten verbrauchen sollen hast du mitbekommen? Ganz ehrlich, du laberst richtig dummen Müll.

Jedem halbwegs logisch denkenden Menschen war klar das AMD richtig gute Grafikkarten bringt. Hat man an zwei Sachen gesehen: An dem Preis der RTX 3080 und daran das ALLE RTX 3000er Modelle von Hause aus extrem an der Kotzgrenze laufen.

Mach dich mit deinen Posts halt noch lächerlicher
 
  • Gefällt mir
Reaktionen: ComputerJunge, Zwenki, Teeschlürfer und 13 andere
leipziger1979 schrieb:
Ohne unabhängige Test glaube ich AMD nichts.
Die Lügen genauso wie alle anderen mit ihren "Benchmarks" und versprechen einem "Das blaue vom Himmel".

Hätten sie "Eier" würden sie unabhängige Test gestatten.
Aber ohne "Eier" wird das wohl nichts.

Die Werte die Nvidia Anfang September versprochen hatte lagen später auch deutlich unter dem was, Anhand der Folien und späteren Benchmarks bis zu 40%.
Und wenn bei AMD "nur" ca. 20% weniger rauskommen rutschen die ganzen Karten eine Stufe nach unten.

Hinzukommt der noch utopischere Stromverbrauch gegenüber Nvidia gepaart mit der Schummelei TBP statt TDP.

Und als Krönung die Preise, leider haben hier viele vergessen das diese in Dollar angegeben waren.
Das bedeutet das mind. 16%/19% Mehrwertsteuer draufkommen.

Wenn man diese ganzen Punkte zusammenrechnet sieht es gar nicht mehr so rosig für AMD aus.
Einziger Mehrwert bleiben dann nur noch die 16GB GDDR6.

Das würde auch erklären warum Nvidia die intern für Dezember geplanten 16GB/20GB Versionen erst einmal gestrichen hat.

and ist nicht Nvidia. Du projizierst.
So wie es aussieht und sollte amd liefern können, gibts demnächst ne richtig schlackernde Saft-Klatsche für Nvidia.
 
  • Gefällt mir
Reaktionen: miro98 und Philanthrop
sialickiz schrieb:
Warum postest du diese Promo-screenie 20000000x mal am Tag, denkst du ernsthaft das jemand so naiv ist und darauf reinfällt ?

Back to Reality :
Schau mal : https://wccftech.com/amd-hbm-fury-x-fastest-world/

Genauso kann man dich fragen warum du Jahre alte Tests x mal am Tag postest, die nichts mit dem Thema zu tun haben, aber es hält dich nicht davon ab, es weiter zu tun^^

Und dass das Marketing Team bei Fury ein komplett anderes war, als man seit Zen1 hat, wurde auch schon oft genug erwähnt, eigentlich schade dass man das überhaupt erwähnen muss
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derSafran, manfredham, karl_laschnikow und 5 andere
leipziger1979 schrieb:
Hinzukommt der noch utopischere Stromverbrauch gegenüber Nvidia gepaart mit der Schummelei TBP statt TDP.
Wo siehst du da eine Schummelei?

TDP ist bei Nvidia und bei AMD genau das gleiche, der Verbrauch des reinen Chips.

Was die komplette Karte verbraucht, wird bei Nvidia TGP genannt und bei AMD TBP(wobei es bei AMD auch eine TGP Angabe gibt, die man aber sogut wie nie irgendwo sieht und TDP + VRAM beschreibt), die beiden Werte sagen auch genau das gleiche aus.

Eine AMD Karte mit 250W TBP(6800) wird 250W verbrauchen.
Nur arbeitet der Treiber hinsichtlich der Taktsteuerung nicht nach diesem Wert, sondern nach der TDP, bei Nvidia wird der Verbrauch der Karte genutzt.

leipziger1979 schrieb:
Und als Krönung die Preise, leider haben hier viele vergessen das diese in Dollar angegeben waren.
Das bedeutet das mind. 16%/19% Mehrwertsteuer draufkommen.
Die Preise werden immer in Dollar angegeben, bei Nvidia nicht anders.
In Deutschland führt dass dann zu nahezu 1:1 Umrechnung nach Aufschlag der Steuern und bei AMD sieht man historisch die letzten Jahre für den €-Preis einen Aufschlag von ca 5% auf den Dollarpreis.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Otsy, m2020, .Snoopy. und 2 andere
Ich lese daraus, Ryzen5000 + RX6000 gibt extra Bonus. Somit wird es für Spieler attraktiver zu AMD zu greifen.
Bin auf die Tests gespannt, wie viel die neuen Feature zwischen CPU/GPU ausmachen, die only AMD sind.
 
Sehr schön, in BFV machen sich die Karten sehr gut das ist für mich wichtig, vor allem dann auch für BF6 dann sollte das dan passen.
6800XT ist mein wen ich eine abbekomme oder ich warte...
 
Gortha schrieb:
Ich denke nicht, dass AMD in Sachen Raytracing Geschwindigkeit an NVidia ran kommt.
In RTX/Raytracingspiielen wird NVidia ein großes Stück vorne sein.
Es war doch schon lange kla das AMD etwas vor 2080ti RT Leistung liegt, bei dem Dampf den die Karten hab reicht das auch für cp2077. Dazu der dlss konkurent im Januar und alles ist tuti. Die rohleistung sieht doch sehr gut, ich denke eine RX 6800XT könnte es werden.
 
  • Gefällt mir
Reaktionen: Dittsche
jo, es festigen sich langsam die Eindrücke, Nvidia wird weg gepowert und fertig gemacht.

am geilsten ist die 3070 (aka "2080 Ti" hier in den Benchmarks) -> absoluter Looser mit 15-20% hinter der 6800,
und dann noch nur halb soviel VRAM.

auch die 3090 wird mit jedem Benchmark der 6900 XT bekloppter -> man soll also 500 Ocken mehr zahlen für
+- die gleiche Performance -> abgedreht 👊

am ehesten kann noch die 3080 dem AMD Kugelhagel standhalten, gibt sich
in den Benchmarks +- gleiche Performance wie die 6800XT nicht viel,
pro NV kommt jetzt einer mit RT und DLSS,
pro AMD ballern aber wieder die 6 GB mehr VRAM sowie die 50 Euro weniger rein.

Wenn sich der ganze Verfügbarkeits-Scheiss in ein paar Monaten mal gelegt hat,
muss Jenson seinen Kopf mal kurz in den Backofen halten und die Preise
von 3070 und 3090 nach unten korrigieren, sonst stellen diese Karten im
Frühjahr 2021 einen neuen Lagerhaltungsrekord bei den Händlern auf 🤛
 
  • Gefällt mir
Reaktionen: Dittsche
Zurück
Oben