News Radeon RX 6800 (XT): Asus setzt bei Custom-Karten auch auf Wasser

Control Schreenshots von DLSS 720p (!) skaliert vs 4K nativ zeigeb, was bereits möglich ist.
Siehe hier
und hier

https://www.techspot.com/article/1992-nvidia-dlss-2020/

https://www.vrone.co.uk/articles/dlss

https://www.pcgamer.com/death-stranding-dlss-2-4k-2060-performance/

https://www.pcworld.com/article/3533463/nvidias-faster-better-dlss-20-could-be-a-game-changer.html

https://www.gamestar.de/artikel/wie-gut-ist-nvidias-dlss,3360685,fazit.html

https://www.golem.de/news/gaming-warum-dlss-das-bessere-8k-ist-2009-150620.html

Und so weiter und so fort.

Wer DLSS als "nice to have" erklärt, ist bereits abgehängt von der Realität

Die Technik ist da, sie muss noch reifen, aber die Ergebnisse sind SICHT-bar und wer wirklich noch "Beweise" braucht:

Nvidias DLSS zwingt AMD zu handeln.

Alleine das reicht zur Demonstration, welchen impact DLSS hat, denn die Fachpresse hat genau dieses Urteil: AMD muss hier etwas liefern.

Sonst, siehe oben, landet die 1000 Euro 6900XT hinter einer 3070.

Ergänzung ()

Rockstar85 schrieb:
Da kann ich nur sagen, grüne Brille abnehmen.

Check mal meine Posthistory, seit Wochen werde ich in der Gruppe "Nvida hater" verortet.
Evtl ist DEINE Brille begeschlagen oder Du bist überfordert mit der Differenzierung. Ist ja nicht jeder so drin in den Technikthemen. Ich helfe Dir gerne, oben sind Links.
 
  • Gefällt mir
Reaktionen: Gsonz
Mcr-King schrieb:
Wird sich auch nicht ändern so schnell ausser auf der Switch 4k und auch auf den kleinen GTX17er oder wie sie heißen gibt es dass auch.

Da die Konsolen immer noch die Lead Plattform ist und Sony macht ja lieber was Eigenes. 😉

Ich rufe in Erinnerung: Raytracing war "Spielkram" und "nice to have" 2018. Überflüssig, hieß es sogar.
Frage: Was präsentieren die neue Xbox und Playstation 5 als ein Key Feature?

;)

Da kann man Nvidia für viele doof finden, aber Technologietreiber und die "ersten" waren sie immer schon oder oft genug.
Ergänzung ()

nekro1 schrieb:
Anstatt nativ in 8K bei 10 Fps zu spielen, ist per DLSS 2.0 hochskaliertes 8K somit die weitaus sinnvollere Lösung

Scheisse dabei hab ich mir doch extra ein 80Zoll 8K TV für mein Schreibtisch besorgt.
🤣

Die Botschaft ist hier eher: Die 4K Transition wird einfacher, wenn auch "Midrange" (kann man sich bei 500-600 Euro streiten, aber wir nehmen hier gerne auch die 2060 und 2070) via ML+AI ein 4K @ 60 fps gaming ermöglicht.

Die GPU Tests hier und überall drehen sich um fps.

DLSS schenkt fps bzw entfaltet 40 - 60 % fps Korridore.
Wer das als "nice to have" abtut, würde analog sagen, dass ein CPU Feature, das über über ML+AI Option on top 50% Bonus Performance freischaltet, nur "nice to have" wäre.

Völlig Absurd.
 
Zuletzt bearbeitet:
War ja auch spaßig gemeint :)

Wer DLSS und RT brauch okay, der mag sich mit Team Green anfreunden. Early adaptor zu sein hat nicht immer Vorteile dabei auf Team Green zusetzen. Ich sag nur G-SYNC viele bereuen das mittlerweile. Da hat AMD einfach später nice gekontert ;)

Und „wenn“ AMD mit MS da was geiles als Alternative gebastelt bekommt könnte sich das wiederholen.
 
  • Gefällt mir
Reaktionen: Laphonso
DLSS und Raytracing sind ja ganz nett. Aber was bringt das ganze wenn es kaum ein Spiel unterstützt.
Sämtliche Titel die ich in diesem Jahr gespielt haben nichts von beiden unterstützt.
Vor Mitte nächsten Jahres wird sich das vermutlich auch nicht ändern, ich Kauf mir kein Spiel nur weil es Raytracing oder dlss, es muss mir auch gefallen.
 
  • Gefällt mir
Reaktionen: nekro1
Schranz0815 schrieb:
Naja das sind die typischen Vorurteile. Das Spulenfiepen ist bei meinem Nvidia Karten deutlich schlimmer als bei AMD. Das ist also nicht Hersteller bezogen.

Auch das mit dem Treiber ist eher ein Vorteil. Ich habe noch nie Probleme mit AMD Treibern gehabt. Bei Nvidia schon eher, zumindest damals zur Black OPS 3 Zeit und der 900et Reihe war Nvidia ein Graus. Da hat AMD deutlich besser performt.

Die Treiber und Tauglichkeit ist eher Spieleabhängig. Deshalb finde ich sollte jeder überlegen welche Spiele er spielt und dann die Karte kaufen, welche auf den Spielen am besten performt. So mach ich das jedenfalls und komme damit prima zurecht und habe keine Probleme.

Die Spiele in den Nvidia riesige Vorteile hat aufgrund generell schlechter Optimierung für AMD (z. B. ANNO) sind für mich eh total uninteressant.

Voruteile ? :D

Nachbars Bub hatte knapp 180 AMD Karten ( RX580/8G und Vega64, hauptsächlich PowerColor,Sapphire und Referenz ) parallel dazu knapp 60 NV Karten ( GTX1070 und 1080 Zotac und Asus ) am minen.

War nicht sonderlich schwer mit geschlossenen Augen zu erragten wo die AMD Rigs standen, klar rasseln/fiepen die NV auch, aber nicht mal annähernd so grauslich wie die Vega Karten.

Bezüglich Treiber, kann ich nicht aus Eigenerfahrung sprechen aber zur 5700XT ließt es sich nicht sonderlich prickelnd.
 
rasenschach schrieb:
aber das sind keine Killerfeatures, die quasi unersetzbar sind.
Dem stimme ich halbwegs zu, allerdings will ich weder RT noch MI+AL re/upscaling missen.
Macht gar keinen Sinn, auf "geschenkte" fps zu verzichten bei einer GPU.

"Wer" das am "besten" anbietet, werden wir sehen.

Nvidia muss man lassen, dass sie da, wie so oft, schneller und erste waren und Turing Technolgie in Iteration 2 bereits rausbringen.

Wer SotTR, Metro Exodus, CoD MW oder Control mit RT und DLSS gespielt hat, "sieht", im Wortsinne, was das ausmacht: An Zusatz fps und/oder Immersion und Atmosphäre.

Wem die Grafikslider egal sind, der wird sich dafür sicher nicht begeistern.
Die fps for free sind aber niemals "nice to have" bei einer GPU.

So, das wars mit meinem Offtopic.

Ontopic:
6800 unter Wasser fps interessieren mich brennend, bei der 6900er auch.

Ferner: Wie schaut es mit Crossfire aus, oder ist das auch so tot wie SLI/nvlink? 🤔
 
Laphonso schrieb:
Wer SotTR, Metro Exodus, CoD MW oder Control mit RT und DLSS gespielt hat, "sieht", im Wortsinne, was das ausmacht: An Zusatz fps und/oder Immersion und Atmosphäre.
Tja das ist immer so schade an diesen Ansätzen (meist von nvidia). Wenn die Features nativ in ein Spiel implementiert werden müssen & nvidia ausschließlich Untersützung für Spiele leistet, die mich nicht (genug) interessieren.

Erinnert mich so ein bisschen an den "system-seller" Ansatz der Exklusivtitel für Konsolen.
 
  • Gefällt mir
Reaktionen: Laphonso
Laphonso schrieb:
Nvidias DLSS zwingt AMD zu handeln.

Alleine das reicht zur Demonstration, welchen impact DLSS hat, denn die Fachpresse hat genau dieses Urteil: AMD muss hier etwas liefern.

Sonst, siehe oben, landet die 1000 Euro 6900XT hinter einer 3070.
Wenn wir den Ultra Performance Modus nehmen, der von 720p auf 4K geht und dabei immer noch nicht schlechter als FidelityFX CAS aussieht, dann würde ich sogar sagen reicht eine 3060.
Ergänzung ()

Und auch was RT angeht, alle Zahlen und Benches die man bisher kennt, sehen eine 6800XT in der RT Rohleistung knapp über einer 3070, zu sehen z.B. an den 471FPS die die 600XT laut AMD im Microsoft DXR Bench erreicht.
Paul von Redgamingtech hat seine 3070 FE mal drauf losgelassen und kommt auf ca 420FPS.

Seine 3080 kommt hingegen auf 630FPS, ist also 50% schneller. Betrachtet man den gemsichten Workload, also Spiele, liegt die 3080 hier im Test 32% vor der 3070.

Mit den 471FPS der 6800XT wäre die 3080 hier 33% schneller, nimmt man das gleiche Verhältnis in Spielen wie oben, dann müsste sie in Spielen mit RT 20-25% schneller sein als die 6800XT, die wiederum 5-10% schneller als die 3070 wäre.

Allerdings wissen wir nicht, wie sich der RT Ansatz von AMD bei besagten gemischten Workloads verhält, es könnte auch sein, dass er dann stärker einbricht wenn gleichzeitig auc hviel Rasterleistung gebraucht wird.
Dafür haben wir aber ja die Werte von 3DMark PortRoyal 4K, wo sie 5% vor einer 2080Ti lag.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
Laphonso schrieb:
Ontopic:
6800 unter Wasser fps interessieren mich brennend, bei der 6900er auch.

Das denke ich die ganze Zeit, inwiefern kann man die fehlenden CU Einheiten 60vs72 mit mehr Powerlimit und Takt CORE und RAM eliminieren.

was bei der Vega56 Referenz unter Wasser mit BIOS Mod möglich ist , ist krass und darauf hoffe ich auch wieder :)
 
nekro1 schrieb:
Das denke ich die ganze Zeit, inwiefern kann man die fehlenden CU Einheiten 60vs72 mit mehr Powerlimit und Takt CORE und RAM eliminieren.
Der Unterschied zwischen 6800 und 6800XT ist den Slides nach auch nur bei ca 15%.

Der Unterschied im Game Clock beträgt 2015/1815 = 11%, so viel kommt durch die CUs also am Ende nicht zusammen, selbst wenn man sagt der Takt skaliert nicht zu 100%, sind das dann bringen 20% mehr CUs vielleicht 10%

Ich vermute aber, dass die RT Performance bei der 6800XT besser sein wird, da man hier einfach mehr RT Accellerators hat(einen pro CU) und das eher nicht so gut mit mehr Takt ausgeglichen werden kann.
 
Laphonso schrieb:
Eine 6900XT, die von einer 3070 in Cyberpunk gestellt wird mit den fps bei gleichen Effekten wird mehr als ein Schlag in die Magenkuhle.

Existiert die Gaming Welt nur noch von Cyberpunkt und DLSS Spielen ? Spielen jetzt plötzlich alle Leute nur noch DLSS Spiele weil alles andere ohne DLSS nicht mehr Spielbar ist ? Das ist mit zu einfach. Ich vermisse es stand jetzt nicht und wahrscheinlich auch vorerst in Zukunft nicht. Es ist schon seltsam das man aktuell so eine Nische als DAS Kaufargument anpreisen möchte. Wäre was anderes wenn über 70 - 80 % aller Spiele von DLSS profitieren würden - dann wäre es DAS Kaufargument. Dazu kommt noch das stand jetzt viele Spiele auch ohne DLSS sehr gut laufen, es sei den man macht RT an - aber ganz ehrlich - RT ist auch noch eine Nische und wird auch noch ein weilchen brauchen bis es Standard ist.
 
  • Gefällt mir
Reaktionen: modena.ch, feris, Dai6oro und 2 andere
@Laphonso
2 Dinge:
1. Deine Posthistorie ist mir völlig Wurst, ich bewerte den Markt. Und was du sagst, ist nicht marktrelevant in 2 Jahren. Und du bewertest die 5% Nische, ich den Markt
Und erst mit den folgenden Generationen könnte es auch ändern., Analog zu RT mit der RTX 20 Serie. Dank der Konsolen könnte RT endlich marktrelevant werden. Könnte!

2. Wenn du die RT Leistung einer 6900XT kennst, dann belege sie doch bitte. Und wir reden von einem fundierten Test

Thema durch

DLSS 2.0 hat derzeit und in naher Zukunft 12 Spiele mit Support. Wenn es dann 50% sind, dann könnte man von marktrelevant reden. So aber? No way
Sollte AMD am Ende 2080Ti RT Leistung haben mit Direct ML, reicht auch das 90% des Marktes
 
  • Gefällt mir
Reaktionen: feris
Wasserkühlung, ist da der Wiederverkaufswert nicht noch eingeschränkter?
 
Rockstar85 schrieb:
@Laphonso
2 Dinge:
1. Deine Posthistorie ist mir völlig Wurst, ich bewerte den Markt. Und was du sagst, ist nicht marktrelevant in 2 Jahren. Sondern erst mit den folgenden Generationen. Analog zu RT mit der RTX 20 Serie, wo auch hier es durch die Konsolen präsenter werden könnte. Könnte!

2. Wenn du die RT Leistung einer 6900XT kennst, dann belege sie doch bitte. Und wir reden von einem fundierten Test

Thema durch

DLSS 2.0 hat derzeit und in naher Zukunft 12 Spiele mit Support. Wenn es dann 50% sind, dann könnte man von marktrelevant reden. So aber? No way
1.) Die 6900 RT Leistung habe ich nicht thematisiert, es ging um die fps drops, die RTX on hat,
AMDs RT Leistung müssen wir überhaupt erstmal live sehen.

2.) Das Urteil der Gaming und Technikjournalisten sowie mein RT+DLSS Spielerlebnis gewichte ich höher als Deine Anti Sicht . Durchaus deutlich höher, quasi DLSS skaliert ;)

3.) Das "könnte" kannst Du streichen, die Konsolen bewerben RT als selling feature. Das wird Mainstream mit Multimillionen Konsolen. Deal with it.

4.) 12?! Mach 50 draus: https://www.ign.com/articles/50-games-with-rtx-and-dlss resp. https://www.nvidia.com/en-us/geforce/news/october-2020-rtx-blockbuster-and-indie-game-update/

5.) Cyberpunk ist das most hyped Multiplattform und antizipierte Game seit den dreistelligen Millionen Umsatz Blockbustern GTA V und RDR2
Es wird DLSS und Raytracing mitbringen. Es wird ein Türöffner und eine Katalysator für "woah I need this" Features

Raytracing und ML+AI Scaling werden zunehmend prevalence erfahren und ein Faktor für die devs, hier nachziehen zu müssen.

Dein ignorante bzw. Verweigerungshaltung hält das, was Industriestandard und Technologiesprung wird, nicht auf.

Und das is gut so :)
 
Muss eigentlich in jedem Thread der AMD/Nvidia Karten tangiert eine DLSS diskussion losbrechen?
Ja die Technolgie ist sehr interessant.
Ja das Thema ist kontrovers.
Aber kann man das nicht irgendwo bündeln anstatt in jedem einzelnen Topic ein Privatkrieg darüber führen?


TxKreator schrieb:
@SV3N
Sapphire und Gigabyte haben auch referenz Modelle veröffentlicht
Mhmm Laut CB wäre Gigabyte da zu bevorzugen da Garantie bei Kühlerwechsel.


haltezeit schrieb:
ob es diesmal ein Hersteller schafft eine AMD Karte ohne Spulenfiepen/rasseln auf die Reihe zu bekommen.
Hoffentlich.... Gerade bei steigender Anzahl 240-360Hz Monitoren ist das ein Aspekt der nicht vernachlässigt werden sollte.

@Wolfgang macht im Normalfall die Grafikkarten Tests bei CB oder?
Wäre es möglich die neuen Karten bei Minimalen Lüfter Umdrehungen auf 400fps zu bringen um sowas zu testen?
Bei dem 3070FE test steht ja:
Die GeForce RTX 3080 und die GeForce RTX 3090 – sowohl Founders-Edition, als auch Custom-Modelle – hatten mit einem ungewöhnlich lauten Spulenrasseln unter Last zu kämpfen. Beim Muster der GeForce RTX 3070 FE ist es deutlich weniger ausgeprägt und fällt damit wieder auf das für Grafikkarten übliche Niveau hinab.
Bei den 3070 Customs wird es hingegen mit keinem Wort erwähnt.
Also dauerhaft unhörbar? Auch bei höheren FPS?


Laphonso schrieb:
Ontopic:
6800 unter Wasser fps interessieren mich brennend, bei der 6900er auch.
Ferner: Wie schaut es mit Crossfire aus, oder ist das auch so tot wie SLI/nvlink? 🤔
Crossfire Treiber wurden afaik seit ner Weile eingestellt. Das funktioniert neu alles über DirectX MultiGPU render. Muss also alles vom Spiel unterstützt werden.
Find ich aber schön das ihr euch neben dem Privatkrieg über DLSS doch auch noch ein wenig für das Topic interessiert.


nekro1 schrieb:
Das denke ich die ganze Zeit, inwiefern kann man die fehlenden CU Einheiten 60vs72 mit mehr Powerlimit und Takt CORE und RAM eliminieren.
60->72=12
72->80=8
Wenn die 6800 es schaft der 6800XT nur durch Takt Konkurrenz zu machen. Dann dürfte die 6800XT der 6900XT davon rennen.
Die Frage ist natürlich immer wie gute VRMs auf den Boards verbaut sind. Und ob der GDDR6 auf den höheren Modellen so viel besser gebinnt ist.

Aber ehrlich gesagt find ich den Aufpreis von 70$ für die 12CU in jedem fall gerechtfertigt. (So aufm Papier betrachtet ohne echte Tests gesehen zu haben)
 
  • Gefällt mir
Reaktionen: Rockstar85
Laphonso schrieb:

Wenn unter den 50 so gut recherchierten Games noch weitere Leichen wie z.B. Islands of Nyne: Battle Royale sind, dann ist die Liste so viel Wert wie Herstellerbenchmarks.

Selbst Nvidia hat sich entschieden die News vom zweiten Link zu löschen ^^
Game Over
This Page is Toast.
[IMG]https://www.nvidia.com/content/dam/en-zz/Solutions/404/geforce-web-404-hearts-udt.png[/IMG]
Find what you're looking for by using the footer and header links.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
haltezeit schrieb:
Voruteile ? :D

Nachbars Bub hatte knapp 180 AMD Karten ( RX580/8G und Vega64, hauptsächlich PowerColor,Sapphire und Referenz ) parallel dazu knapp 60 NV Karten ( GTX1070 und 1080 Zotac und Asus ) am minen.

War nicht sonderlich schwer mit geschlossenen Augen zu erragten wo die AMD Rigs standen, klar rasseln/fiepen die NV auch, aber nicht mal annähernd so grauslich wie die Vega Karten.

Bezüglich Treiber, kann ich nicht aus Eigenerfahrung sprechen aber zur 5700XT ließt es sich nicht sonderlich prickelnd.

Das Spulenfiepen ist dennoch nicht AMD typisch wie du es hinstellst. Das haben beide Hersteller. Die eine Karte mehr die andere weniger. Manche entwickeln das auch erst im Laufe der Zeit. Kann mir aber gut vorstellen das es sich bei aktuellen Reihe zwischen AMD und NV nicht viel nimmt.

Nvidia ist ans Limit getaktet, dass wurde direkt zu Beginn bewiesen und der hohe Stromverbrauch ist auch nicht NV typisch.

AMD wiederrum taktet sehr hoch. Die echten Tests werden zeigen wie nah AMD ans Limit gegangen ist.

Für mich ist das Spulenfiepen jedenfalls kein Kaufargument für den einen oder anderen Hersteller. Es liegt an den verwendeten Bauteilen welche von Boardpartner zu Boardpartner schon in Teilen unterschiedlich ausfallen können.

Was DLSS betrifft, auf dem die Nvidiafans hier so rumreiten. AMD arbeitet an einer Alternative, also warum wird das als Totschlagsargument gesehen? Da AMD immer zum Jahreswechsel mit neuen Treiberfeatures ankommt, ist die Wartezeit eher überschaubar bzw. genau so lang wie es dauern wird bis es die Referenzdesigns zu vernünftigen Preisen im Handel gibt. Die 3080 als Gegenspieler ist ja auch nicht wirklich gut verfügbar. Also was soll das mit DLSS? (Fanboy Überbewertung um verzweifelt das eigene Produkt besser zu reden?)

Die Vergangenheit zeigt das die NV Exklusivlösungen fast alle durch günstigere, ziemlich gleichwertige oder besseres opensource Produkt abgelöst wurde. Also immer schön die Bälle flach halten und die Early Birds die teuren Produkte kaufen lassen, damit die Entwicklung bezahlt wird. Der Mainstream bekommt dann das ausgereifte Produkt. DLSS hat auch lange gebraucht bis es wirklich was taugt. Am Anfang als Turing rauskam war es nur Pixelbrei und unscharfer Matsch und die Technik reifte beim Kunden.

Die jetzigen Ampere Karten sind für mich erst die Karten welche wirklich für RT taugen. Turing war unausgereift und bei den überzogenen Preisen hat man die Entwicklungskosten gezahlt.
 
Genoo schrieb:
Wie kommst du darauf dass das Unsinn wäre?
Ich komme aus der Branche..
Er meint wohl deine konstruierten Zusammenhänge. Die oassen nicht zum Thema der benötigten Bauteile für die Grafikkarte.
 
Zurück
Oben