News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Novasun schrieb:
Dann definiere doch du mal was es ist...
Nvidia nutzt DGX-1 Server um das neuronale Netz zu trainieren. Dazu werden jeweils Bilder mit sehr hoher und niedriger Auflösung verwendet. Die Ergebnisse werden dann im Treiber gespeichert. Das neuronale Netz vergleicht dann das aktuelle Bild mit dem Referenzbild und generiert eines mit der vollen Auflösung. Durch die Bewegungsvektoren weiß das neuronale Netz, in welche Richtung die Objekte gehen und kann dann schätzen, wie der nächste Frame aussehen wird.
Wenn du das als "Upscaler mit Scharfzeichener plus etwas mehr" bezeichnest, würdest du wohl (analog zum Fidelity FX Vergleich) auch im Vergleich eines Lada Niva und eines G-Modells das G-Modell als "Auto mit Allradantrieb plus etwas mehr" bezeichnen.
Ich würde es eher so bezeichnen: "DLSS nutzt Machine Learning um ein Bild nahezu verlustfrei hochzuskalieren bzw. oftmals werden sogar mit besserem Ergebnis als nativ"
Das entspricht der Realität und zeigt ganz gut, dass es eben nicht mit Fidelity FX vergleichbar ist.
Novasun schrieb:
Du weißt schon das AMD und Samsung an einer GPU für Android dran sind?
Das war mir tatsächlich nicht bekannt, danke. Das ist eine sehr gute Nachricht für die Exynos SoC und keine gute für Qualcomm ;)
 
AMDs Größtes problem war immer das "Liefern"
Da Nvidia nun auch nicht liefern kann in dieser Generation (Samsung, MLCCs, Micron (6X), Neuer PCIe Stecker, Corona what ever)
Eigentlich war NV immer der, der geliefert hat.
15.06.xxxx "Es wird neue Karten geben" -> 26.06.xxxx waren die Shops schon voll mit mind. 3x MSI, 3x Asus, 3x Gigbyte, Gainward, EVGA und und und.

Sollte es AMD gelingen, und sollte ein bisschen was an den Leaks dran sein, könnte sich AMD die Lorbeeren einheimsen...
Fakt is: AMD hat viele dinge parallel am Laufen -> GPU, CPU, APU, SOC-(Konsolen)
Leistung ist das eine, theoretisch habe Ich da vertrauen. Lieferbarkeit ist das andere, da könnten sie mich ruhig mal Positiv überraschen. Glaube Ich zum jetzigem Zeitpunkt aber kaum.

27.10? Vorstellung und Wann Lieferbar?
05.11? 12.11? (19.11 kommen schon die Konsolen.)
Also eher 04.12?? Hmm!!
04.12 Klingt ziemlich Sportlich wenn Ihr mich fragt. 3070 wird (mal sehen!) schneller da sein.
 
  • Gefällt mir
Reaktionen: Pinsel
Sgt.Slaughter schrieb:
Entäuschend sind in erster Linie eigentlich nur die Instabilitäten des Treibers....
...
auch bei einem 3 Monitor Setup mit unterschiedlichen Screens und darauf kommt es mir an.
....
Hoffentlich bekommt AMD das diesmal zum Marktstart hin.
Was man so hört soll RDNA2 ne komplett neue Displayengine haben.
(ist also hoffentlich net mehr so empfindlich wie RDNA1 bei 2-3 unterschiedlichen Monis)
Ergänzung ()

KlaraElfer schrieb:
Die BQ ist ja sogar höher als nativ, ...
Meistens werden doch die Vgl. immer mit DLSS 2.0 vs. TAA gemacht.
Wenn z.Bsp. in Games z.T. der Hintergrund nur ein dummes Bild(ala Textur) ist, wird von TAA drübergewischt und schon siehts Crappy aus. siehe Bsp. von WY im Anhang
(Fenster Vordergrund OK aber Hintergrund verwischt)

btw.
Ansonsten ist hier ein AMD-Thread und nicht ein DLSS 2.0-special für Noobs, die eh nie Rot kaufen würden.
Macht halt Euren eigenen Thread auf, wenn Ihr bekannte Fakten zum 100ten Mal durchkauen wollt.
 

Anhänge

  • wolfenstein-youngblood.png
    wolfenstein-youngblood.png
    1,1 MB · Aufrufe: 446
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kodak, Otsy, CloudConnected und 2 andere
Taxxor schrieb:
Wenn man die RDNA1 Effizienz zugrunde legt, ja, ansonsten passen 250-275W zu einer 80CU Karte die im Schnitt mit 2GHz läuft.


Der Cache verbraucht nicht so viel, sehr viel weniger als es ein 512bit SI tun würde.
Und die 16GB Speicher verbrauchen auch nicht mehr als 8GB, weil man einfach 2GB Module nimmt, im Gegensatz zu Nvidia, die bei GDDR6X wohl wirklich von 10 Modulen auf 20 Module gehen müssen, da die 2GB chips noch nicht verfügbar sind.

320 Bit Si wäre ja auch eine Möglichkeit gewesen - dann eben mit 10 oder 20MB.
Bin jedenfalls gespannt welche Lösung es am Ende geworden ist und was sie leistet.
 
Hollomen schrieb:
320 Bit Si wäre ja auch eine Möglichkeit gewesen - dann eben mit 10 oder 20MB.
Man hat wohl 256bit mit Cache gegen 384bit getestet und sei zu dem Ergebnis gekommen, dass ersteres besser ist.

Zudem sind 10 und 20 blöde Staffelungen, 10 sind manchmal zu wenig, 20 fast immer zu viel. Da sind 16GB schon deutlich besser.
 
  • Gefällt mir
Reaktionen: Baal Netbeck, Vitec, Hollomen und eine weitere Person
-Ps-Y-cO- schrieb:
AMDs Größtes problem war immer das "Liefern"
Da Nvidia nun auch nicht liefern kann ..

Um mit NV mitzuhalten müßte z.Bsp. Proshop ca. 300 Stck. RX6700XT+RX6800XL bekommen um mit dem heutigen Status der 3070 mitzuhalten. Das sind momentan alles Vgl. von quasi NIX.
btw.
Würde man das auf den Marktanteil von 80:20 umrechnen, bräuchte AMD sogar nur 75 Stck. bereitstellen.
Da sehe ich wenig Probleme.
Interessant wird evtl. ne doch frühe Auslieferung ab 5.11. sollte der Prozess tatsächlich so gut laufen, das man große Stückzahlen rausbekommt. (Ref. + Sapphire; Stand andere AIB´s weiß man net)

bzgl. der Leaks
Man sollte typical Gameclock und Boostclock net verwechseln.(Boostclock ist ca. 100..150MHz höher)
Die Refs sollen weniger Gameclock haben als die Customs.(liegt vermutlich am PL)
Speku: Nur ne "Nitro" würde wohl 2,4 Boost haben.(und sicher nur halten bei PL+XX%)

Was die XTX angeht weiss eigentlich Keiner konkrete Zahlen zum Boost oder Bauart.(CU`s+Takt+h2o o.ä)
 
Zuletzt bearbeitet:
GerryB schrieb:
Ansonsten ist hier ein AMD-Thread und nicht ein DLSS 2.0-special für Noobs, die eh nie Rot kaufen würden.
Und eine halbwegs brauchbare Alternative zu DLSS gehört zu den wichtigen Faktoren, die die neue AMD Karte bieten sollte.
 
  • Gefällt mir
Reaktionen: Baal Netbeck, Vitec, .Sentinel. und eine weitere Person
summa summarum kann man zu den comments sagen:
erde.jpg


Einfach entspannt abwarten bis der 28.10 kommt. Anschließend, danach die nächsten Tage die Tests genießen etc. ;)
 
  • Gefällt mir
Reaktionen: CloudConnected, Sly123, Unnu und 3 andere
DocWindows schrieb:
Informationen oder unbelegte Spekulationen?

Das sind Informationen und keine unbelegten Spekulationen.

DocWindows schrieb:
Ich bin immer noch vollkommen integer und poste auch weiterhin "Informationen" aus "Quellen".
Frage doch mal Igor oder andere Leute die Informationen leaken. Die Informationen werden so abgeändert, dass ein Zurückverfolgen unmöglich oder stark erschwert wird. Aber wem sage ich das schon.
 
  • Gefällt mir
Reaktionen: Rockstar85, dr. lele und Otsy
Ach mist.
Ich war schon schwer enttäuscht als nVidia die 3080 Hart an der Kotzgrenze betrieben hat.
Wenn nun die Karte mit 2.4Ghz Läuft wird wohl mit dem besten Luftkühler kaum 2.5ghz drin liegen... mit WaKü wohl knappe 2.5-2.6Ghz. Wo bleibt denn da der OC Spielraum?
Ist echt schade wie in den letzten 5 Jahren mit den ganzen "Dynamischen Takt" und "Boost" funktionen die Hardware von Haus aus optimalst betrieben wird. Verdirbt einem den ganzen OC Spass :(


Selber schrieb:
300W leise weg zu kühlen mit ner WaKü ist schon nicht einfach, geschweige denn 320W. Finde 250W schon um einiges verträglicher.
Hä ?
1603139281211.png

Hier mal meine Vega64 bei +50% PowerLimit. Wird sagenhafte 62°C Heiss und hat 37°C WasserTemperatur.
Die 60W des 3900X werden übrigens auch im WaKü Kreislauf mitgekühlt.
Wenn du da nur ein 360er Radi hast bist du selber schuld ^^ Hier ist halt ein 1080er verbaut mit 4x 180er 700rpm Lüfter.
P.S Game ist übrigens No Mans Sky in 5120x1440 Pixel.


Phobsen schrieb:
Dann muss man allerdings auch auf eine bessere Implementation im OBS hoffen, die war bisher alles andere als rühmlich.
Ich bin leider (zum Glück?) Kein Streamer. Daher erklär mir doch mal, wieso genau braucht man jetzt genau den OBS ?
Hat doch AMD Schon alles direkt im Treiber drin.
1603139592627.png



patrickschur schrieb:
Ich arbeite aber als Software Entwickler und bin vor ungefähr zwei Monaten dazu übergegangen Leaks auf Twitter zu posten.
Wie jetzt? Als Leaker auf Twitter verdient man genug um einen Job als Vollzeit Entwickler zu ersetzen? Oder hab ich das gerade falsch verstanden?



Krautmaster schrieb:
Hat AMD zwischenzeitlich einen Auto Treiber Updater oder sowas? Bei Nvidia lass ich seit Jahren den Treiber Auto Updaten.
Wozu braucht man sowas?
Windows 10 installiert und updated doch automatisch die Grafiktreiber. Nur halt Nackte GPU Treiber ohne das Options menu.
Aber ansonsten meinst du wohl den Teil vom Menu.
1603139772824.png






P.S Ich hab alle 28 Seiten Kommentare durchgelesen... krieg ich nen Keks bevor die mich in die Klapse einliefern?
 
  • Gefällt mir
Reaktionen: Kodak, Rockstar85, Baal Netbeck und 11 andere
Haldi schrieb:
Ach mist.
Ich war schon schwer enttäuscht als nVidia die 3080 Hart an der Kotzgrenze betrieben hat.
Wenn nun die Karte mit 2.4Ghz Läuft wird wohl mit dem besten Luftkühler kaum 2.5ghz drin liegen... mit WaKü wohl knappe 2.5-2.6Ghz. Wo bleibt denn da der OC Spielraum?
Ist echt schade wie in den letzten 5 Jahren mit den ganzen "Dynamischen Takt" und "Boost" funktionen die Hardware von Haus aus optimalst betrieben wird. Verdirbt einem den ganzen OC Spass :(

Ich stimme dir zwar irgendwo zu, aber rein prinzipiell ist das ja schon ein ziemliches Luxusproblem :D
Für den Großteil der Kundschaft dürfte dieser Trend zu begrüßen sein, man muss einfach nicht mehr Hand anlegen. Das sind nämlich dann auch Leute, die einen Core 2 Duo oder Core ix-2xxx @ stock betrieben hätten. Die reinste Verschwendung, wenn man bedenkt, dass etwa ein Core 2 Duo E6600 schon mal 50% OC-Potenzial haben konnte, 33% sogar relativ easy und mit vielen Samples.

Insofern ... das eigene Hobby mag an Relevanz verlieren, aber aktuell kann man den Optimierungsdrang ja noch ganz gut ins Hauptspeicher-Optimieren investieren :)
 
  • Gefällt mir
Reaktionen: Unnu und Haldi
Dass sich jetzt alle so an DLSS aufhängen, welches in einer einstelligen Anzahl Games
meist schlecht implementiert ist?
Und was sowieso verschwinden wird, da proprietär, spätestens wenn
MS seine Variante in DX implementiert.-> WAYNE?
 
  • Gefällt mir
Reaktionen: daknoll, Unnu und Novasun
Haldi schrieb:
Wie jetzt? Als Leaker auf Twitter verdient man genug um einen Job als Vollzeit Entwickler zu ersetzen? Oder hab ich das gerade falsch verstanden?

Habe ich mich so unglücklich ausgedrückt? :D Ich meinte damit, dass ich als Software Entwickler arbeite und privat (vor ungefähr zwei Monaten) angefangen habe auf Twitter zu posten. Das wäre schön, wenn man damit Geld verdienen könnte. Vielleicht sollte ich mal bei Igor anfragen? Aber Spaß beiseite. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strubbel99, ChrisM, Otsy und 3 andere
KlaraElfer schrieb:
Die BQ ist ja sogar höher als nativ, sollteste doch vielleicht mal selbst testen als im Trump Stil Unsinn aus Unwissenheit verbreiten.


ich bin grafiker... sie ist nich thöher sondern sieht zum kotzen aus.
 
  • Gefällt mir
Reaktionen: Kodak, daknoll, Otsy und eine weitere Person
Es ist egal, wenn die AMD 6900XT(X) 10 bis 20 FPS weniger hat im Test gegenüber der 3080. Sofern ihre Frametimes besser sind auf Grund des Speichers (flüssiger), dann wird sie gekauft.
Dann ist mir der Refresh der 3080 egal. Wird eh zu teuer.
Frametimes, nicht FPS.....das ist das Wichtige!
 
  • Gefällt mir
Reaktionen: Drakrochma
foo_1337 schrieb:
Ich würde es eher so bezeichnen: "DLSS nutzt Machine Learning um ein Bild nahezu verlustfrei hochzuskalieren bzw. oftmals werden sogar...
Du bewertest und zeigst den technischen Weg auf. Genau darum ging es mir aber gar nicht.

Und nicht (nur) ich Vergleiche das. Auch diverse Techseiten vergleichen das. Es sind zwei technisch unterschiedliche Lösungen um an sich das gleiche Ergebnis zu liefern. Mehr Performance bei höherer Auflösung. Das nach schärfen wird ja nur gemacht weil reines Upscaling verwaschene Bilder ergibt.. Auch was NV an Aufwand betreibt bezüglich Bewegung (ich meine die analysieren 3 Frames in Summe um die Bewegungsvektoren zu generieren) betreibt, betreiben die nur um dort Bildfehler die durch das reine Hochskalieren entstehen auszumerzen...
Ob das Ergebnis besser ist - kann ich nicht beurteilen.
NV hat aber mit 2.0 einen wichtigen und richtigen Schritt in die richtige Richtung gemacht. Und ja sie treiben mehr Aufwand - leider hinter verschlossener Tür.
Ich bin gespannt was AMD bringt denn die Konsolen sollen ja auch 4k können - das können sie meiner Meinung nach nur mit einer Upscaling Technik.. Die reine Rohleistung sollte wohl kaum reichen - wobei für 30 Frames mit eingefügten Zwischenframes evtl...

Äh die 2,4 GHz Gametakt soll die 2t größte Navi sein und bezieht sich auf ein Custom Modell...

https://www.pcgameshardware.de/AMD-...Big-Navi-21-XT-mit-2400-MHz-Geruecht-1360173/
Ergänzung ()

Vindoriel schrieb:
Fahren ein Lada Niva, ein Hummer H3, ein Porsche Cayenne und eine G-Klasse in einen Wald. Wer kommt am "anderen Ende" wieder raus? Der Niva.
Hier bei uns in der Gegend gibt es nur ein echtes Auto für den Wald. Der Suzuki Jimmy... Egal ob Förster oder Jagdaufseher hier fahren gefühlt alle nen Jimmy (den alten noch)...
Gerade bei Matsch scheint der Kleine ganz stark zu sein...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337 und Unnu
Zurück
Oben