News RX 6800, 6800 XT und 6900 XT: AMD veröffentlicht weitere Benchmarks in 4K und WQHD

Du warst noch nicht oft in London, oder? Aber hey, passt schon. Und wegen der Pfützen: Es tut mir wirklich leid, wenn du noch nie eine Spiegelung in einer Pfütze gesehen hast*
Davon abgesehen: Seit wann wird denn Spielen angekreidet, keine absolute Fotorealität zu zeigen? Ist quasi wie wenn man einen Actionfilm kritisieren würde, weil das ja alles völlig unrealistisch ist.
Wenn AMD jetzt der RT King wäre, würde es in diesem Thread sicher anders aussehen. Konstruktiv und objektiv geht anders.

*Hier mal ein Beispiel:
1604102525706.png

Source:
https://twitter.com/HeldtPhoto/status/956288362012344321/photo/1

Und zum Vergleich: WDL

1604102480737.png

Source: https://www.nvidia.com/de-de/geforce/news/watch-dogs-legion-ray-tracing-trailer-screenshots/
 
  • Gefällt mir
Reaktionen: Onkel Föhn
 
  • Gefällt mir
Reaktionen: Cpt.Willard, DarkerThanBlack und LäuftBesser2000
foo_1337 schrieb:
Du warst noch nicht oft in London, oder? Aber hey, passt schon. Und wegen der Pfützen: Es tut mir wirklich leid, wenn du noch nie eine Spiegelung in einer Pfütze gesehen hast*
Davon abgesehen: Seit wann wird denn Spielen angekreidet, keine absolute Fotorealität zu zeigen? Ist quasi wie wenn man einen Actionfilm kritisieren würde, weil das ja alles völlig unrealistisch ist.
Wenn AMD jetzt der RT King wäre, würde es in diesem Thread sicher anders aussehen. Konstruktiv und objektiv geht anders.

1. Habe ich nie behauptet, das es keine spiegelnden Pfützen gibt. Nur sind die eher die Ausnahme, als die Regel. Spiegelt jede Pfütze in einem Spiel, stört mich (!) das halt mehr, als wenn gar keine spiegeln würde.

2. Kreide ich einem Spiel fehlende Fotorealität nicht an. Aber ich bemängel halt übertriebenen Einsatz von Raytracing. Im normalen Leben sind halt mehr Fahrzeuge stumpf/verdreckt/zerkratzt und mehr Böden stumpf, als auf Hochglanz poliert. Das mag in einer 5-Sterne-Hotellobby sein, aber nicht in jedem kleinen Bürogebäude oder dem Bäcker neben an.

3. Interessiert es mich einen feuchten Kehricht, ob AMD oder Nvidia bei RT der King ist. So lange die Spieleentwickler aus jeder x-beliebigen Fläche einen Spiegel machen, nur um möglichst viel Blinki-Blinki zu zeigen, geht mir RT ziemlich am Allerwertesten vorbei.
 
  • Gefällt mir
Reaktionen: DF86, Schuhkarton, wolve666 und eine weitere Person
foo_1337 schrieb:
Nett von AMD, das nur ab Zen3 zugänglich zu machen.

Was nicht nett ist, ist dass du Alex Deucher zitierst, der hier einfach nur eine sachliche Anmerkung zur allgemeinen SMA-Technik macht, und dann einen Rando zitierst, dem du damit mehr "Glaubwürdigkeit" verleihst.
Zumal auch Deuchler aktuell nicht weiß, was SAM konkret macht und wie es implementiert ist.
foo_1337 schrieb:
Es geht mit Intel, das ist doch der Witz. AMD implementiert es nur nicht im Treiber.
Klar, AMD muss ja auch unbedingt dafür sorgen, dass Intel-CPUs bestens laufen...richtig?
Schliesslich greift Intel ja auch regelmäßig AMD unter die Arme, indem sie ihre Treiber für AMD optimieren
wie zB mit dem Optane Memory - hier könnte ja AMD Unterstützung gebrauchen (nein, macht Intel nicht).
Oder der besagten MKL:

It's no different from what Intel has been doing with their optimization in math libraries for years.

Äh, nein, und das wird auch im selben Thread von jemand anderem erklärt:
der betreffende Intel-Code ist schon fertig zur optimalen Nutzung mit AMD-CPUs,
Intel hätte also, so wie sie die MKL entwickelt hatten, keinen weiteren Aufwand gehabt, das
zu ermöglichen. Stattdessen haben sie zusätzlichen Aufwand betrieben, damit es suboptimal läuft.
Das ist absolut was anderes als einen Aufwand von vornherein zu scheuen.
Im Übrigem ist die MKL nicht frei, sondern gratis. Das weiß Intel als Unterstützer von mancher
OpenSource auch sehr genau...

Ich glaube das ist schon gut wie es ist. Das Pendant zu DLSS soll übrigen Herstellerübergreifend funktioniern,
sobald veröffentlicht. Das hilft vielleicht Nvidia nicht sofern sie es ignorieren,
aber den Spieleentwicklern durchaus, die dann auch plattformübergreifend eine weitere
Technik einsetzen können - und somit auch den Gamern von Konsolen und PCs...
Ergänzung ()

McFritte schrieb:
So lange die Spieleentwickler aus jeder x-beliebigen Fläche einen Spiegel machen
Im Moment ist das halt der neue Hype und ein bißchen wie RGB - jeder muss zeigen, dass er das
auch hat. Das wird sich aber hoffentlich mit der Zeit legen und dann auch
sinnvoll eingesetzt werden (zB nicht wie bei WoW).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daknoll und znarfw
Gortha schrieb:
Fast alle neuen Spiele die was auf sich halten bieten Raytraycing und damit eine wesentlich realistischere und dynamsichere Optik.
Ka auf welchem Planeten du lebst. Erde Version 2015?

Fast alle Games, insbesondere die Big-Player entwickeln ihre Games ausschließlich für die beiden Next-Gen Konsolen und bieten teils erst Jahre später die selben Games als Aufguss für den PC an.
Erzähl mal von den nativen Nvidia Games am PC die alle so weg flashen sollen :P
Aber falls du es nicht verstehst, AMD hat auch RT und Microsoft / Sony dahinter - und noch direkter gesagt: Denen geht am Popo vorbei was Nvidia mit einer 1.000 Euro Grafikkarte veranstaltet, wie 99% aller Gamer.
 
  • Gefällt mir
Reaktionen: Crimvel, DonL_, Benji18 und eine weitere Person
daivdon schrieb:
Klar, AMD muss ja auch unbedingt dafür sorgen, dass Intel-CPUs bestens laufen...richtig?
Schliesslich greift Intel ja auch regelmäßig AMD indem sie ihre Treiber für AMD optimieren
Wie gesagt: Es geht hier um RTG und nicht um die CPU Sparte. Sowas sollte bzw. muss ein Konzern trennen und nicht solche Streitigkeiten auf dem Rücken der Kunden austragen. Wie oben erwähnt ist hier Apple vs Samsung ein gutes Beispiel.

daivdon schrieb:
Im Übrigem ist die MKL nicht frei, sondern gratis.
Das ist mir klar. Frei heißt nicht automatisch open-source oder gar copyleft bzw. bsd/isc style.
daivdon schrieb:
Ich glaube das ist schon gut wie es ist. Das Pendant zu DLSS soll übrigen Herstellerübergreifend funktioniern,
sobald veröffentlicht. Das hilft vielleicht Nvidia nicht sofern sie es ignorieren,
aber den Spieleentwicklern durchaus, die dann auch plattformübergreifend eine weitere
Technik einsetzen können - und somit auch den Gamern von Konsolen und PCs...
Herstellerübergreifend, ja. Plattformübergreifend nicht. Die PS5 wird außen vor sein, Linux auch (da geht wenigstens DLSS) und macos ebenso. Übrigens hat nvidia da mitgewirkt:
1604105064036.png

Ergänzung ()

IM Erika schrieb:
Fast alle Games, insbesondere die Big-Player entwickeln ihre Games ausschließlich für die beiden Next-Gen Konsolen und bieten teils erst Jahre später die selben Games als Aufguss für den PC an.
Zuerst schreibst du fast alle, dann teils. Zu letzterem ist das der geringste Teil. Zum ersten: Das ist auch so nicht richtig. Viele, aber sicher nicht fast alle, und dann auch nicht ausschließlich, sondern allenfalls primär.
IM Erika schrieb:
wie 99% aller Gamer.
Wenn du dir die Steam Charts so anschaust, sieht das ganze da recht grün aus. Das ist den Spieleherstellern nicht egal.
 
@foo_1337 AMD hat es für sich implementiert und muss es für Intel nicht! Intel bremst aber AMD sonst immer absichtlich aus. Aber du scheinst eh auf Intel und Nvidia fixiert zu sein. Du bist seit 1 Monat und 1 Woche auf CB, mit fast 600 Beiträgen..

Warte doch einfach mal ab, ob und was AMD gehen RT setzen wird. RT frisst, für mich, zu viel FPS und 10GB VRAM oder sogar nur 8GB VRAM sind mir ebenfalls zu wenig, wir werden sehen, wie hoch der VRAM Verbrauch in den kommenden Jahren steigen wird, oder eben nicht.
 
  • Gefällt mir
Reaktionen: wolve666
Wenn du Aussagen wie sie da stehen nicht verstehst kommt es blöd wenn man diese falsch kommentiert.
Ich bin mir aber recht sicher du hast es verstanden. Wenn nicht, mir doch egal.

Aber zu dem Witz mit den Steam Charts muss ich noch was sagen.

Da wurde aus der Statistik bei GPUs Intel raus genommen, da die so 90% bei GPUs hatte.
Warum und wieso ist dir vielleicht bekannt. Vielleicht auch nicht.
Nur so viel, fast alle Gamer am PC zocken auf Notebook oder irgendwelchen Office Kisten.
Gaming Rechner oder Enthusiast sind nur wenige % auf den PC Markt gesehen oder Konsole.
Deswegen ist das mit den Vergleichen immer so eine Sache, die nicht jeder versteht ;)
Aber glaub daran das eine 3080, 3090 und wie sie heißen bei Steam ganz gefragt ist für die ganzen Tetris Games.
Welche Rechtfertigung gibt es eigentlich außer VR und 4k für solch eine Karte? Genau. Keine.
 
Syrato schrieb:
@foo_1337 AMD hat es für sich implementiert und muss es für Intel nicht! Intel bremst aber AMD sonst immer absichtlich aus. Aber du scheinst eh auf Intel und Nvidia fixiert zu sein. Du bist seit 1 Monat und 1 Woche auf CB, mit fast 600 Beiträgen..
Ja, wenn du schon darauf wert legst, wie viele Beiträge ich in welcher Zeit schreibe, dann nimm dir vielleicht auch die Zeit, die zu lesen. Dann wüsstest du ggf. dass ich eine Ryzen CPU nutze und AMD viel Lob für die RX6x00 ausgesprochen habe.
Aber ja, ich habe auch Intel CPUs im Einsatz und bin ganz froh, wenn ich diese bald durch Apple Silicon ersetzen kann. Das liegt aber nicht daran, dass ich irgendwas gegen Intel hätte, sondern dass ich mir hier mehr Effizienz erhoffe.
Ergänzung ()

IM Erika schrieb:
Nur so viel, fast alle Gamer am PC zocken auf Notebook oder irgendwelchen Office Kisten.
Um diese Art Spiele geht es hier aber nicht. Btw:
1604106129058.png

Ja komisch, dass da Intel sichtbar ist. Aber wieso eigentlich nicht mit 90%?
Und den Rest erspare ich mir zu kommentieren.
 
Die Statistik ist Fake, denn eigentlich ist Intel Platz 1 und AMD auf Platz 2 wegen Onboard, aber egal ^^

Man hat warum auch immer die ganzen free2play Gamer aus China / Indien und sonst wo raus genommen, das Intel führt ist ja wohl jedem einleuchtend der Plan von Statistiken hat.

Aber rede dir ruhig ein das Nvidia 80% mega Nerd Gamer am Start hat die ALLE mit RT bei Steam voll abgehen.

Mal abgesehen davon das PC Gaming fast nur aus so Gelegenheitsgames für Notebooks besteht, der Rest sind doch eh Konsolenports, aber darauf kannst und willst du eh nicht eingehen.

Selbst das Crysis Remaster ist nur die geportete Konsolenversion :P
 
Beitrag schrieb:
Wieso sollte man einen kleineren Cache nutzen müssen, wenn man langsameren VRAM verbaut? Und desto langsamer der RAM, desto mehr Performance kann man mit Caching gewinnen.

Hab ich nicht gesagt, allerdings hätte man unter 14 oder 28nm nicht einfach so mal 128Mb On Die Cache hinbekommen, ohne dass der Chip riesig wird.

Prozentual ja, aber des Gesamtperformance dürfte es nicht gut tun. Ansonsten hätte AMD ein noch kleineres Interface genommen.

naicorion schrieb:
Ich vermute mal ins Blaue hinein, dass man die Bandbreite von PCI-E 4 braucht um das sinnvoll nutzen zu können?

Könnte natürlich sein. Dann müsste es aber auch auf Rocket Lake funktionieren, aber irgendwie bezweifle ich das ;)
 
Achso, jetzt verstehe ich dich. Ja, SRAM kostet natürlich Platz. Kann natürlich sein, dass es sich früher mehr gelohnt hat diesen für weitere Recheneinheiten zu nutzen und heute der Speicher ein engerer Flaschenhals ist als damals.
 
Wird aufjedenfall interessant. Mal abwarten wie sich das Feature von AMD gegen DLSS stellen wird und wie es mit dem Treibern läuft, habe ja als langer Nvidia Nutzer in der Richtung eher negatives gehört.
 
foo_1337 schrieb:
Sowas sollte bzw. muss ein Konzern trennen und nicht solche Streitigkeiten auf dem Rücken der Kunden austragen.

Erstens muss ein Konzern nichts trennen; da kann er ganz frei entscheiden wie er die verschiedenen Sparten
des Hauses separiert oder bündelt. Sony hat zB Jahrelang die Smartphonesparte getrennt von der Fotokamerasparte betrieben: als Ergebnis waren ihre Kamerasensoren in allen Konkurrenzmodellen..und haben
mit deren Software-implementation bessere Ergebnisse abgeliefert als die hauseigenen Smartphones.
Mittlerweile hat Sony diese Trennung aufgegeben und setzt endlich auf gewisse Synergieeffekte.

Und welche Streitigkeiten? Intel´s vorsätzliche Blockade der Konkurrenz hat, wie beschrieben, nichts mit AMDs
Entscheidungen hier zu tun - es "streitet" sich da keiner, AMD bietet ein Feature an, dass die Konkurrenz halt nicht hat momentan.
foo_1337 schrieb:
Das ist mir klar.
Dann haben wir ja endlich geklärt, dass das Ganze mit der MKL kein gutes Beispiel in jeglicher Hinsicht ist und somit auch dein Zitat, darum gehts ja eigentlich.
foo_1337 schrieb:
Die PS5 wird außen vor sein, Linux auch (da geht wenigstens DLSS)

https://www.computerbase.de/2020-05/amd-fidelityfx-neue-effekte/

Ich wüsste jetzt nicht wieso weder Sony noch Entwickler für Linuxsoftware sich das nicht zunutze machen
können sollten. Da kommt jetzt halt noch ein Feature dazu, auch wenn das von AMD selbst erstmal für Windows
fertigstellt, ist Linux ja nicht außen vor. Und Sony hat, wie MS einen ganz anderen Zugang dazu und
wird mit der RDNA-Hardware etwas zu wissen angefangen haben.

Übrigens hat nvidia da mitgewirkt

Sicher nicht an ein AMD-Feature. Bei der Entwicklung von DirectML hat MS mit Nvidia durchaus zusammengearbeitet aufgrund der DL-Erfahrung seitens Nvidia - weswegen es noch kruder
anmutet, dass Nvidia dann RTX quasi "solo" angegangen ist, wo das sowieso mit DirectML
erst wirklich ausgebaut wird. Aber du erwähnst das überhaupt, weil das was genau zur Sache tut?

Du wolltest erst AMD "kritisieren" weil sie ein Feature nicht so bringen wie du es gerne hättest
und am Ende kommt raus, dass du doch nur "NVIDIA ABER BESSER" sagen wolltest.
Gut, hättest du ja auch gleich machen können :p

Edit: Natürlich hatte Nvidia einen bzw zwei gute Gründe, alleine mit RTX loszulegen. Erstens als "Betaphase"
(damals hat AMD noch entgegengehalten, dass man RT möglichst breit anbieten will), zweitens als
lukrative Einnahmequelle da Alleinstehungsmerkmal. Gut, die Betatester mussten gut Asche dafür hinlegen, während jetzt wo es nach und nach mit den Spielen klappt das Ganze auch günstiger geht..
aber kann man Nvidia vorwerfen, dass sie das Geld abgreifen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derSafran, Onkel Föhn und Beneee
Wer Interesse hat :) jetzt kaufen und Platz frei machen für mich als amd Käufer ;)
 

Anhänge

  • 839FABDD-2F24-4326-8AA6-D26BFFD33B23.png
    839FABDD-2F24-4326-8AA6-D26BFFD33B23.png
    2 MB · Aufrufe: 461
Wird wohl nicht mehr lange dauern bis auch dieser Thread geschlossen wird...
... ich frage mich immer öfter was mit manchen Leuten nicht stimmt.

Ja, Intel vs. AMD-Diskussionen gibt es nicht erst seit gestern, aber vielleicht würde es helfen einfach mal kalt zu duschen.

Sollten sich die Benchmarks von BN bewahrheiten, dann werde ich seit langer Zeit zu einer AMD-Grafikkarte greifen und mir einen 5900X zulegen.

Diese ganze RT-Debatte finde ich einfach erschöpfend. Man sollte einfach abwarten was AMD hier bringt.

Gesunder Wettbewerb kann nie schaden und nach Jahren der Stagnation kommt nun auch endlich Bewegung in den GPU-Markt. :)
 
  • Gefällt mir
Reaktionen: Gerry18
ArrakisSand schrieb:
Bitte habe es allerdings anhand der AMD Folien vorhin selbst kurz in eine Excel-Tabelle eingetippt.
Habe es zweimal überprüft um auszuschließen das sich da ein Fehler eingeschlichen hat aber wer einen findet kann das gerne melden, dann korrigiere ich es entsprechend.

Ich glaube auch nicht das da groß cherrypicking betrieben wurde.
Computerbase kommt beim Test der 3080 FE bei 1440p auf eine Differenz von 28% relativ zur 2080ti
laut AMDs Benchmarks sind es 26%.

Bei 4k das selbe 31% vs. 29%.
Der kleine Unterschied könnte schon aus dem nur 16GB Ram@3200 bei AMD kommen.
Könnte CB bitte mal bei den Reviews immer die CPU+Ram dazuschreiben oder den Lnk prinzipiell mit angeben:
Grafikkarten von AMD und Nvidia im Vergleich - ComputerBase
und
Mit SAM wird evtl. höher getakteter teuerer Ram net mehr so wichtig sein.

Ansonsten sind dann Summen overall eh Quark, weil Ausreisser ala FH4 zu sehr reinhauen.
(dito für den Ampere-Launch-CB-Parcour, wo auch Ausreisser zugunsten von NV drin sind)


wolve666 schrieb:
ich warte lieber auf unabhängige tests (Igor, Von Euch)

Der kann nix besser oder anders, ausser evtl zusätzliche Stroboskop-Verbrauchsmessungen.
Eher fällt in seinem 3070msi-Review der schlechte Shape der ollen 2080Ti auf.
Ergo sollte Er mal den Airflow in seinem Gehäuse verbessern und die WLP auf der Ti erneuern.
Er hatte wohl auch net alle Games MAXED, damit net die 8Gb ausgehen.
Kann man sich so ein Review auch sparen.

Für den Normalverbraucher passt das CB-Review eigentlich schon ganz gut.
Die Ti ist zwar auch net so optimal getaktet, aber der Abstand zum realen User net ganz so groß wie
beim I.
Daher sollten diese sinnlosen Verweise (Werbung) für I mal überdacht werden, braucht net Jeder.

btw.
Um mal Klarheit in die NT-Diskussion zu bringen wäre eigentlich ein Midrange-System in nem Special-Review ganz nützlich, sobald die Grakas verfügbar sind, z.Bsp:
3700x vs 5600x (wg.SAM)
3070 vs 6800
650W vs 550W
Sowas trifft auf ca.50% aller Leser zu, net immer nur die absolute Highend-Einzelkomponenten sieht schön aus Werbung für die Hersteller.
Die anderen 45% -Leser mit noch kleinerem Sys habens noch schwerer an gescheite Infos zu kommen.
Da könnte man mit dem Erscheinen von der 3060+6700 in nem Sys mit 3600 mal schauen, ob 400-500W reichen.
Die 5% Highend werden nach m.E. überproportional informiert. (Wen interessiert ein 1200W-NT.)
Ich denke mal die meisten Watt zieht highFps@WQHD, weil die CPU auch stark mitarbeitet.
Man könnte dann zu den Gesamtwerten noch 100W draufschlagen, um ne sichere NT-Dimensionierung zu haben.
 
Zuletzt bearbeitet:
Selbst wenn am Ende die amd Karten im Durchschnitt 10 Prozent hinter Nvidia liegen, aber den selben Verbrauch usw haben, wäre es ein gelungenes Produkt. Wenn man sich anschaut wie amd die letzten Jahre angehängt wurde und jetzt sowas raushaut kann man sie nur beglückwünschen. Bei mir wird's jetzt nach 6 Jahren Mal wieder ne amd. Freu mich schon drauf, sie vorzubestellen.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und ActionNews
Zurück
Oben