News RX 6800, 6800 XT und 6900 XT: AMD veröffentlicht weitere Benchmarks in 4K und WQHD

leipziger1979 schrieb:
Ohne unabhängige Test glaube ich AMD nichts.
Die Lügen genauso wie alle anderen mit ihren "Benchmarks" und versprechen einem "Das blaue vom Himmel".

Hätten sie "Eier" würden sie unabhängige Test gestatten.
Aber ohne "Eier" wird das wohl nichts.
?
Die Möglichkeit der unabhängigen Tests werden nach Ablauf der Schweigeverpflichtung gestattet und kommen.
Was hat dies mit Eiern zu tun?
Desweiteren waren die Vorhersagen der Marketingabteilung von AMD seit 2017 richtig. Ich sehe da keine großen Abweichungen kommen.
Das Ihre Version des Raytracings etwa auf 3070 Niveau sein wird, ist auch Recht klar.
 
  • Gefällt mir
Reaktionen: muh0rsen, DannyA4, karl_laschnikow und 4 andere
rumcajs schrieb:
AMD Marketing Engineer Reacts to Radeon 6000 Series Announcement :
Hallo Troll geh wieder in deinen Keller wenn man keinen vernünftigen Beitrag dazu leisten will oder kann
 
  • Gefällt mir
Reaktionen: Philanthrop und BlackRain85
Ich weiß wirklich nicht, was ihr alle habt.
WENN ein Hersteller soviel Rückrad besitzt solche Benchmarks zu Veröffentlichen (von mir aus auch noch Cherry Picked und was Ihr sonst noch so alles anführt) denkt mal keiner darüber nach, dass wenn das Produkt "ACH SO LANGSAM" wäre wie manche hier Suggerieren der Hersteller sich bis auf die Knochen Blamieren würde. Mein Gott, wenn ein gesunder Menschenverstand sich mal AMD als Firma ansieht, dann checkt doch eigentlich gleich so "ziemlich" jeder etwas Intelligentere Mensch, dass die sich solche EXTREMEN schön Rechnungen gar nicht leisten können in Ihrer derzeitigen "Aufwärtssituation".

Ihr seht den Wald vor lauter Bäumen kaum.

Die Produkte sind auf Augenhöhe, dass ist es, was am Ende des Tages aus dem ganzen Material nun ersichtlich ist.
Wie beide Hersteller diese Performance erreicht haben, sei nun mal dahingestellt.

Und ob jetzt irgendjemand mit oder ohne OC, RAGE, SAM und was auch immer macht, liegt die Wahrheit bei jedem der das Produkt später in seinen Rechner einbaut auf einer anderen ebene. Solange es keine SIGNIFIKANTE Abweichung gibt ist doch alles im bereich des sonst WELTÜBLICHEN Marketinggeblubbers.

Ich will gar nicht drüber nachdenken, was passiert wäre, hätte AMD zuerst vor Ampere vorgestellt. ALLE SIND GLEICH. ENDE!
 
  • Gefällt mir
Reaktionen: gecan, manfredham, Ernie75 und 4 andere
Ich meine am Ende bestreitet niemand, dass AMD sich zum Beispiel mit SAM oder Rage-Modus bei den Vergleichen nen Heimvorteil sichert - aber der ist transparent und wird am Ende bei den Benches auch hinten rauspurzeln. Und pauschal "Die Benches stimmen nicht" ist halt nichts weiter als haltlose Stammtischparole, helfen tun da irgendwelche Beispiele von vor 5 Jahren im übrigen auch nicht.

sialickiz schrieb:
Ich wünsche allen ein schönes Wochnende :schluck:
Wünschen wir dir auch, und immer den Aluhut nicht vergessen; Soll ordentlich strahlen am Wochenende. :schluck:
 
  • Gefällt mir
Reaktionen: Rawday, Duffy Duck, Otsy und 3 andere
leipziger1979 schrieb:
Hätten sie "Eier" würden sie unabhängige Test gestatten.
Aber ohne "Eier" wird das wohl nichts.

Gott wie ich dieses Argument hasse.... Was hat das denn mit Eier haben zu tun. Nach Ablauf des NDAs und bevor du die karten kaufen kannst, wirst du unabhängige Tests bekommen. Erinnert immer an nicht allzu helle Kerzen, die meinen man habe keine Eier sich zu Boxen :D

leipziger1979 schrieb:
Die Werte die Nvidia Anfang September versprochen hatte lagen später auch deutlich unter dem was, Anhand der Folien und späteren Benchmarks bis zu 40%.

Nein, die meisten haben nur mit abgeschaltetem Hirn zugeschaut und nicht betrachtet, was wirklich gezeigt wurde. Nvidia hat bei seinen Angaben nicht wirklich gelogen, es war allerdings Cherry Picking wie es im Buche steht. Gelogen haben sie hingegen nicht, die meisten sind nur aufs marketing Bla Bla reingefallen. Up to 2x ist bei den meisten eher hängen geblieben, als die danach gezeigten benchmarks.

leipziger1979 schrieb:
Hinzukommt der noch utopischere Stromverbrauch gegenüber Nvidia gepaart mit der Schummelei TBP statt TDP.

Ach, du kennst den Stromverbrauch schon, hast du denn da einen unabhängigen Test? Und wo ist es Schummelei, wenn ein Hersteller klar kommuniziert, was er unter den Angaben versteht? Nur weil es dir zu viel Arbeit ist zu gucken, was wer mit welchem Wert meint?

leipziger1979 schrieb:
Und als Krönung die Preise, leider haben hier viele vergessen das diese in Dollar angegeben waren.
Das bedeutet das mind. 16%/19% Mehrwertsteuer draufkommen.

Richtig 649$ entsprechen 557,28€ zuzüglich 16% Mwst. sind das 646,44€. Preislich wird man sich wohl also irgendwo zwischen 650 und 670€ bewegen bei der 6800XT

leipziger1979 schrieb:
Wenn man diese ganzen Punkte zusammenrechnet sieht es gar nicht mehr so rosig für AMD aus.

Welche Punkte jetzt genau?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge, derSafran, muh0rsen und 19 andere
seth777 schrieb:
Anhang anzeigen 985779
🤦‍♂️

Man sollte auch das Ganze lesen was man als Quelle Postet.
Man muss aber auch berücksichtigen, dass die Preise auf der Grundlage gerechnet worden sind, dass die Anzahl der Transitoren gleichbleibt. Ist dass der Fall?

1604075128389.png


Bei größerem Chip und höheren Kosten pro Wafer, muss die GPU teurer werden.
 
Zuletzt bearbeitet:
@SV3N

Evtl sollte man noch erwähnen dass man sich sogar die FPS/$ anzeigen lassen kann. Ich schätze man hat die UVP genutzt. Und wie vermutet schneidet innerhalb von AMD die 6800XT am Besten ab:

1.PNG
 
  • Gefällt mir
Reaktionen: or2k, Colindo, PietVanOwl und 2 andere
Mcmeider schrieb:
aber das 16GB-Argument ist eigentlich schon meine Kaufentscheidung. Sorry
Wofür entschuldigst du dich? Meine Kaufentscheidung ist auch schon längst zugunsten der 6800XT gefallen.
Aus meiner Sicht ist Nvidia aufgrund der aktuellen Verfügbarkeit und Preise gar keine Kaufoption mehr.
 
  • Gefällt mir
Reaktionen: DDM_Reaper20, Hercule Poirot, GINAC und eine weitere Person
Holy Moly, BigNavi anscheinend die optimale High-Refresh-Gpu @ 1440p!
Nun kann man anhand mehrerer Tests (TechSpot) herauslesen, dass AMDs RIS (Radeon Image Sharpening) sehr gut funktioniert, wenn man die Auflösung auf 75% (um den Dreh) downsampled.

@Wolfgang Ich hoffe, RIS wird in dem kommenden 6800 Test berücksichtigt und es wird getestet, wie sich dieses Feature macht, wenn man auf einem 4K-Monitor noch mehr frames herausholen möchte fürs competitive gameplay. Also auf einem 4K downsamplen auf 1440p, RIS an und dann mit der nativen 4K-Auflösung vergleichen. Das wäre seeeeehr interessant!
 
  • Gefällt mir
Reaktionen: Rambo5018
Assel18 schrieb:
Aber ganz ehrlich, AMD sollte endlich mal versuchen erkennbar günstiger zu sein bei der gleichen bzw. etwas besseren Leistung wie nvidia. [...]
Das sind sie doch bereits, siehe RX 5700 vs RTX 2070. Dass es nun bei der 6800 die zusätzlichen 8GB GDDR6 nicht kostenlos gibt, ist irgendwie verständlich.
 
  • Gefällt mir
Reaktionen: manfredham
Das ich Idiot mich aber auch dazu hinreißen lasen musste einen G-Sync Monitor zu kaufen....

Ich werde den Krempel jetzt benutzen bis er auseinander fällt. Danach ist der Drops zwischen mir und Nvidia gelutscht. Proprietäre Standards entwickeln mit dem Zweck den Kunden zu melken unterstütze ich nicht mehr.

Das einzige was jetzt noch bleibt ist der Nutzwert, schönen Dank auch.
 
  • Gefällt mir
Reaktionen: derSafran, ogdullum, Iscaran und 6 andere
Bright0001 schrieb:
Lustigerweise ist das auf physiologischer Ebene tatsächlich so: Die meisten Endorphine werden vor einer erwarteten Belohnung ausgeschüttet, nicht bei oder danach. Ich könnte trotzdem kotzen vor so viel "Freude" in letzter Zeit. :D
Es gibt nur eine Ausnahme... :D Da kommen die Enorphine erst wenn der Berg erklommen ist :daumen:
Da fällt mir ein - Schaatz....
 
  • Gefällt mir
Reaktionen: floTTes und Einfallslos^99
Assel18 schrieb:
Warum einen Seat Leon nehmen wenn ich fürs gleiche Geld einen VW Golf bekomme?
Mal wieder ein Vergleich, der nicht passt. Lt UVP ist AMD günstiger bei vergleichbarer Leistung.
Und ich kenne Leute, die sich lieber nen Seat kaufen, auch wenn der Golf genau so viel kostet. Weil sie einfach auf Seat stehen.
 
  • Gefällt mir
Reaktionen: DaBo87
Shoryuken94 schrieb:
Bis dahin sind aber auch alle Grafikkarten die hier behandelt werden völlig veraltet. Ich denke diese Konsolengeneration kommen wir da nicht hin. Wir schnuppern jetzt etwas RT Luft und haben genug Leistung für Hybrid Rendering in vielen Spielen. Aber voll auf RT werden Spiele wohl erst in 5+ Jahren setzen. Zumindest bei aufwändigen Spielen.
Das ist Quark. Sorry. Ich weiß da gibt es einige die hier rum rennen und meinen... Sorry eine rein auf RT basierte Grafikengine wird es auch nicht in den nächsten 5 Jahren geben...
Zumindest nicht wenn es keinen entsprechenden Durchbruch bei der Algorithmik gibt. Rein Hardwareseitig wird man gar nicht so sehr beschleunigen können wie man müsste...
 
Dai6oro schrieb:
@SV3N

Evtl sollte man noch erwähnen dass man sich sogar die FPS/$ anzeigen lassen kann. Ich schätze man hat die UVP genutzt. Und wie vermutet schneidet innerhalb von AMD die 6800XT am Besten ab:

Anhang anzeigen 985792
Das ist aber schon etwas gemein, da die 2080Ti gebencht wurde und nicht die 3070. :D Aber AMD wird zu der Zeit der Anfertigung der Benchmarks einfach noch keine 3070 gehabt haben.

Ich freue mich sehr auf die Benchmarks von CB. Ich hoffe sehr, CB wird sich auch die Mühe machen, mit und ohne SAM zu testen. Für mich ist die 6800XT aber auch schon zu 95% gesetzt, solange die Benchmarks halbwegs stimmen. Sie muss nur verfügbar sein. Denn ich muss doch in den 4 Wochen Urlaub im Dezember meine Zeit sinnvoll nutzen. :D
 
@divabremer

divabremer schrieb:
Das ich Idiot mich aber auch dazu hinreißen lasen musste einen G-Sync Monitor zu kaufen....

da bin ICH dir Lichtjahre vorraus..................ich war zu arm mir einen G-Sync zu kaufen und musste mir einen FreeSync holen🤣😂😅
 
  • Gefällt mir
Reaktionen: derSafran, floTTes, Stefan1200 und 10 andere
Dai6oro schrieb:
Habe mir mal die Mühe gemacht und die Auswirkungen von SAM in 1440p in ne Tabelle eingetragen mit absolutem FPS Gewinn und %:

1+
Wenn man jetzt mal ohne SAM nur die Spiele unter 144fps markiert sieht man schön, das sich die Leute mit Ryzen 3000 eigentlich auch keine Sorgen machen brauchen.
Im Prinzip bleiben nur D2+G5 übrig wo man mit der 6800XT aber auch mal noch 20W drauflegen könnte.
(B3 braucht sicher keine 144fps)
Alles über 144fps ist eh brotlose Kunst an nem 144Hz-Freesync-Moni. Dafür gibts AntiLag/RadeonBoost,
falls der Inputlag besser sein soll. Ansonsten würde ich per Chill Strom sparen.
 

Anhänge

  • SAMoff.png
    SAMoff.png
    412,1 KB · Aufrufe: 351
Dai6oro schrieb:
Habe mir mal die Mühe gemacht und die Auswirkungen von SAM in 1440p in ne Tabelle eingetragen mit absolutem FPS Gewinn und %:




BFV @ 1440p ohne SAM​

BFV @ 1440p mit SAM​

FPS​

%​

198 FPS​

199 FPS​

1​

0.5​

Borderlands 3 @ 1440p ohne SAM​

Borderlands 3 @ 1440p mit SAM​

111 FPS​

119 FPS​

8​

7​

COD Modern Warfare @ 1440p ohne SAM​

COD Modern Warfare @ 1440p mit SAM​

148 FPS​

146 FPS​

-2​

-1,3​

Division 2 @ 1440p ohne SAM​

Division 2 @ 1440p mit SAM​

135 FPS​

138 FPS​

3​

2​

Doom Eternal @ 1440p ohne SAM​

Doom Eternal @ 1440p mit SAM​

216 FPS​

216 FPS​

0​

0​

Forza Horizon 4 @ 1440p ohne SAM​

Forza Horizon 4 @ 1440p mit SAM​

201 FPS​

230 FPS​

29​

14​

Gears of War 5 @ 1440p ohne SAM​

Gears of War 5 @ 1440p mit SAM​

132 FPS​

142 FPS​

10​

7.5​

Resident Evil 3 @ 1440p ohne SAM​

Resident Evil 3 @ 1440p mit SAM​

225 FPS​

229 FPS​

5​

1.7​

SOTR @ 1440p ohne SAM​

SOTR @ 1440p mit SAM​

155 FPS​

154 FPS​

1​

-0.6​

Wolfenstein YB @ 1440p ohne SAM​

Wolfenstein YB @ 1440p mit SAM​

253 FPS​

254 FPS​

1​

0.3​


Danke fürs Raussuchen! Baue mir jetzt demnächst auch einen neuen Rechner zusammen und da ist natürlich die Frage, ob es nen 5000er wird oder man doch lieber zur alten 3000er Reihe greift. Bei den Unterschieden wirds dann wahrscheinlich doch nen 3700x, wenns den demnächst mal im Angebot gibt. Schätze mal knapp unter 250€ wirds dann werden und damit ist der Preisabstand zum 5800x dann einfach zu groß. Schätze mal unter 500€ wird der nicht starten.
 
Zurück
Oben