News AMD Radeon RX 6800: Navi 21 XL auf über 2,5 GHz stabil übertaktet

GerryB schrieb:
Dieses Verfahren kann allerdings (vorerst) nur bei der Inferenz – also der Anwendung eines neuronalen Netzes – angewandt werden. (ich lese Da NIX von Games raus)
Sag ich doch... -> Wenn man es nut nutzen würde.
Macht aber im Augenblick keiner, weil keiner (inkl. unserem Entwicklerteam) Bock hat, ne weitere Renderpipeline aufzubauen...
Ändert nichts daran, dass man zu den bereits vorhandenen 20 TFlops der nvidia- Karten mal eben zusätzlich das 3- Fache oben drauflegen könnte.

Das könnte sich bei Zeiten zu einem Fine Wine- Faktor mausern....
oder auch nicht.
Die Rechenleistung der Karten wird nunmal immernoch nach dem klassischen Prinzip (reine Shaderleistung) klassifiziert.
Was aber wiederum an dem Fakt nichts ändert, dass z.B. Ampere durch seine Zusatzeinheiten einen Shitload an Rechenleistung abseits der Shader zur Verfügung stellt.
 
  • Gefällt mir
Reaktionen: stevefrogs und Mcr-King
.Sentinel. schrieb:
Sag ich doch... -> Wenn man es nur nutzen würde.
Macht aber im Augenblick keiner, weil keiner (inkl. unserem Entwicklerteam) Bock hat, ne weitere Renderpipeline aufzubauen...
Ändert nichts daran, dass man zu den bereits vorhandenen 20 TFlops der nvidia- Karten mal eben zusätzlich das 3- Fache oben drauflegen könnte.

Das könnte sich bei Zeiten zu einem Fine Wine- Faktor mausern....
oder auch nicht.
Spielt keine Rolle, .. bis sich Das in genügend Games durchgesetzt hätte gibts längst RDNA3.
 
  • Gefällt mir
Reaktionen: ThePlayer, elvis2k1 und Mcr-King
.Sentinel. schrieb:
Vorsicht, der einzig bekannte "Ausflug" von DLSS auf Shadern war die Variante 1.9 bei Control....


Laut Doku von Nivida gabs 2 Versionen von DLSS 2.0 und V1 von August 2019 benutze noch die Cuda Cores erst ab der Version aus dem März 2020 setzt auf Tensor.
 
Benji18 schrieb:
Laut Doku von Nivida gabs 2 Versionen von DLSS 2.0 und V1 von August 2019 benutze noch die Cuda Cores erst ab der Version aus dem März 2020 setzt auf Tensor.
Es gab drei Versionen. V1 lief auf Tensor, V1.9 war Compute, V2 ist wieder Tensor.
Das kannst Du sehr schön im Nsight verifizieren.

Interessanter Weise ist nvidia mit v1.9 auf cuda relativ offen umgegangen. Hat es doch die Notwendigkeit von Tensor in Frage gestellt....
V1.9 war Control- Exklusiv.

Neueste Iteration von DLSS (2.1) kannst Du in Wolfenstein Youngblood sehen. Dort arbeiten die Tensor- Cores async und parallel zu den RT Cores.
 
  • Gefällt mir
Reaktionen: stevefrogs, Mcr-King, ufopizza und 2 andere
Ganz schön viel OT.

Da will ich auch mal meinen Senf dazu geben. Wünschenswert wäre für die 8GB-Grakas eher ne Einsparung an
Vram+Ram-Bedarf durch DLSS.(scheint aber net so zu sein)
HiSN meinte mal das bei nem Rechner mit nur 16GB Ram das Auslagern auf das Pagefile bei ca. 13GB einsetzt.
Das könnte bei nextGen Games knapp werden. K.A. ob deswegen die Ti besser läuft als die 3070.
Und nach ner Stunde spielen oder auf neuen Maps wirds sicher ruckeln.
DLSS="Performance" ist sicher auch Geschmackssache, bei nem Ballerspiel evtl. noch erträglich.
 

Anhänge

  • ColdWar-Ram@RT.png
    ColdWar-Ram@RT.png
    25,9 KB · Aufrufe: 356
  • ColdWar-Vram@RTX.png
    ColdWar-Vram@RTX.png
    26,4 KB · Aufrufe: 369
  • DLSS-Cold-War.png
    DLSS-Cold-War.png
    318,9 KB · Aufrufe: 344
Ich muss gestehen, ich habe noch nie eine Grafikkarte übertaktet. Da kaufe ich mir dann doch lieber immer das Top-Modell und muss nichts machen.
 
  • Gefällt mir
Reaktionen: elvis2k1
neuhier08 schrieb:
Ich muss gestehen, ich habe noch nie eine Grafikkarte übertaktet. Da kaufe ich mir dann doch lieber immer das Top-Modell und muss nichts machen.
Mit Deinem NT wirds sicher auch für ne 6900XT langen. Hoffentlich gibts bis zum Launch im Dez. auch Leaks
über evtl. gute Customs dafür.
Durch das net OCen ist ja die Vorgabe von AMD=300W gesamt sehr vernünftig/passend.
 
Bard schrieb:
Mich würd da aber auch das Undervolting-Potential interessieren.
Wie tief kann man runter gehen ohne Leistung zu verlieren, etc.
Warum seid ihr alle so geil aufs undervolting? Strom spaaren? Mir wären die paar kwh mehr im jahr egal.
 
Virtramp schrieb:
Warum seid ihr alle so geil aufs undervolting? Strom spaaren? Mir wären die paar kwh mehr im jahr egal.
die Karte wird dadurch auch Kühler, also auch leiser
 
  • Gefällt mir
Reaktionen: karl_laschnikow, derSafran, ThePlayer und 5 andere
Virtramp schrieb:
Warum seid ihr alle so geil aufs undervolting? Strom spaaren? Mir wären die paar kwh mehr im jahr egal.
in der Regel weniger abwärme und dadurch leisere Lüfter. Bei den 300+ Watt teilen müssen die schon recht hoch drehen.
 
Ja ehrlich, Hauptsache sich eine High End Karte holen und dann undervolten... rechnet das mal aufs Jahr hoch, selbst bei 4 Stunden zocken jeden einzelnen Tag seid ihr mit euren 50 Watt Ersparnis bei 73 gesparten kWh pro Jahr oder etwa 22 Euro. Und 4 Stunden zocken im Schnitt pro Tag ist schon sehr hoch gegriffen.

Hucken schrieb:
in der Regel weniger abwärme und dadurch leisere Lüfter. Bei den 300+ Watt teilen müssen die schon recht hoch drehen.

Die 3090 FE ist der beste Gegenbeweis. Selbst unter 100% Last ist Karte praktisch unhörbar, selbst bei absurder Leistungsaufnahme. Da kommt es also drauf an sich eine Karte mit vernünftigem Kühler zu holen.
 
Es geht bei dem UVen eher ums austesten der Chipgüte.
AMD ist ja meist reichlich@Stock.

Gerade wenn man nur ne Ref. kauft sind die 300W+20W eigentlich genug, wenn man noch 75..150mV runter kommt bei gleichzeitigem OCen.(idealerweise hat man dann auch nen Vgl. zur 3080FE bzgl. dB)

Gerade Du mit ner 3090 solltest ja UVen müssen: aus dem Luxx
Undervolting PT Usage Tests mit meiner 3090 FTW3
800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign, ufopizza und GERmaximus
Chilisidian schrieb:
Ja ehrlich, Hauptsache sich eine High End Karte holen und dann undervolten...
Vielleicht gerade WEIL man sie undervolten (die Komfortgründe sollten bekannt sein) kann und dann trotzdem noch sehr gute Leistungen hat?
Komfort im wie immer unpassenden Autovergleich: 200km/h erreicht auch ein 122ps Golf.... bei geschätzt über 6000rpm. Ich fahre entspannt 200 mit unter 2500rpm.
 
  • Gefällt mir
Reaktionen: bad_sign, Cpt.Willard, GERmaximus und eine weitere Person
~25% weniger Stromverbrauch bei ~5% weniger Leistung? Wenn man die letzten paar Prozent Leistung dann mal doch brauch kann man ja immer noch aufreißen. Wo ist das Problem?

Bitte die dämlichen Autovergleiche in der Schublade lassen. Der deutsche Zwang alles mit einem Auto vergleichen zu müssen.
 
  • Gefällt mir
Reaktionen: elvis2k1, cmi777, Keloth und 4 andere
Wichelmanni schrieb:
~25% weniger Stromverbrauch bei ~5% weniger Leistung? Wenn man die letzten paar Prozent Leistung dann mal doch brauch kann man ja immer noch aufreißen. Wo ist das Problem?

Dein Exrrembeispiel lässt sich so sicher nicht auf alle Karten übertragen. Bei Karten die eh schon sehr nah am Limit laufen, wie die 3080/90 kommt das vllt iwie hin, bei den AMD wird die Spannung aber deutlich mit der Leistung skalieren weil hier der Takt ein viel größeres Gewicht zu haben scheint.
 
Virtramp schrieb:
Warum seid ihr alle so geil aufs undervolting? Strom spaaren? Mir wären die paar kwh mehr im jahr egal.
OC+UV ergibt deutlich mehr Sinn, als Stumpf nur den Takt hochzusetzen und das PT aufzudrehen.
 
  • Gefällt mir
Reaktionen: Mcr-King und stevefrogs
GerryB schrieb:
DLSS="Performance" ist sicher auch Geschmackssache, bei nem Ballerspiel evtl. noch erträglich.
Erträglich?
Erst hohe auflösung dann wieder zu matsch machen mit DLSS so ein witz.
Da kann man gleich die ingame settings auf min setzen und hat noch mehr frames.
Und das sieht noch besser aus als der DLSS mist.
DLSS ist ein argument für lange balken bei hohen auflösungen.
Wenn mans mit nativ vergleicht sieht man den unterschied.
Ausser man hat eine grüne brille auf. :D
Das wird bei dem was AMD da vor hat als DLSS alternative nicht anders sein.
 
  • Gefällt mir
Reaktionen: kailipps, Mcr-King und DarkerThanBlack
andr_gin schrieb:
Der große Vorteil, den Nvidia derzeit hat ist DLSS, wo AMD hinterher hinkt und es sehr fraglich ist, ob AMD eine Technologie mit vergleichbarer Qualität zusammen bringt. Hier hat AMD einfach weniger Support der Spielehersteller und vermutlich auch weniger Manpower.

Würde ich gar nicht mal so sagen. Microsoft arbeitet da mit AMD zusammen was das DLSS Gegenstück betrifft. Das kann schon sehr sehr gut werden.
 
  • Gefällt mir
Reaktionen: EyBananaJoe und Mcr-King
Motkachler schrieb:
Erträglich?
Erst hohe auflösung dann wieder zu matsch machen mit DLSS so ein witz.
Da kann man gleich die ingame settings auf min setzen und hat noch mehr frames.
Und das sieht noch besser aus als der DLSS mist.
Aaah ja. Wieder ein Experte.
Die Bildruhe ist mit DLSS minimal bis deutlich besser als mit der nativen Auflösung, was das gesamte Bild betrifft. Das gilt sowohl für niedrige als auch für hohe Auflösungen. Darüber hinaus zeigt sich die Grafik mit DLSS schärfer als mit TAA, was zwar nicht durchweg ins Auge springt, aber vor allem bei der Darstellung von Schrift zu bemerken ist. Die bisherigen Beobachtungen beziehen sich auf die Einstellung DLSS Quality, die mit den gezeigten Ergebnissen der nativen Auflösung vorzuziehen ist.
https://www.computerbase.de/artikel/gaming/death-stranding-benchmark-test.72840/seite-3

DLSS bietet ein besseres Bild als die native Auflösung
Auch wenn Death Stranding kein Raytracing unterstützt, bietet es aktuell die beste Umsetzung von DLSS 2.0 (Test). Nvidias nur auf GeForce RTX verfügbares KI-Upscaling liefert in der Quality-Einstellung ein besseres Bild als die native Auflösung, ohne störende Grafikfehler zu erzeugen. Zudem gibt es einen ordentlichen Leistungsschub.
https://www.computerbase.de/artikel/gaming/death-stranding-benchmark-test.72840/seite-4
 
  • Gefällt mir
Reaktionen: stevefrogs
Bei Death Stranding trifft das zu... bei Death Stranding ;)

DLSS ist schon gut. Nur in sehr wenigen Spielen ist die Qualität schlechter als nativ.
 
  • Gefällt mir
Reaktionen: elvis2k1
Zurück
Oben