News AMD Radeon RX 7900 XTX & 7900 XT: RDNA-3-Grafikkarten sollen Anfang Dezember erscheinen

Laphonso schrieb:
DLSS 3 Frame Generation hatte ich nicht auf dem Radar (hatte niemand).
Stand jetzt ist das ja auch eher... Bescheiden.
 
  • Gefällt mir
Reaktionen: Hembi, Don Sanchez, Blumentopf1989 und eine weitere Person
Ragnarök88 schrieb:
So eine Aussage im Nvidia Thread und sie würde nicht mal 2 Likes bekommen.
Vollkommener Blödsinn, im nvidia thread haben sehr viele gesagt dass sie sie sofort kaufen, auch ohne die benches, da gab es fleißig likes... Dein gebashe garniert mit massig fake news ist nur noch anstrengend
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer, Hurricane.de, eXe777 und 3 andere
Bin auch richtig gespannt auf die Karten und den Preis. Mal schauen wie die Karten vermarktet werden. Ich meine man hat eine 4080 16GB und eine 4090 24GB gerade bei Nvidia als Gegner. Ob man da mit aller Macht einfach sagen will, "wir haben die schnellste Gamer-Karte" oder doch lieber auf die Effizienz abzielt.

4090 - 100% Leistung bei 450 Watt
7900XT - 90% Leistung bei 300 Watt und deutlich günstiger im Preis + würde die 4080 überflüssig machen

Das wäre vom Marketing eigentlich viel sinnvoller als sich wieder um die Leistungskrone zu streiten.
 
.Sentinel. schrieb:
Das Preis-/Leistungsverhältnis liegt immer im Auge des Betrachters.
Subjektiv, objektiv perf/Watt und das ist ja zur genüge bekannt.
 
Gerithos schrieb:
Stand jetzt ist das ja auch eher... Bescheiden.
Aus meiner Erfahrung bisher kann ich sagen, bei langsamen Spielen wie Plaguetale oder Flugsimulator ist das absolut super und da sehe ich auch den Anwendungsbereich. Für schnelle Spiele wie CoD, BF, Doom ist das hingegen nichts.
Der Tenor ist ja auch: Je höher die Basis-fps sind, desto besser arbeitet auch DLSS3.
 
th3o schrieb:
Aus meiner Erfahrung bisher kann ich sagen, bei langsamen Spielen wie Plaguetale oder Flugsimulator ist das absolut super und da sehe ich auch den Anwendungsbereich.
Bei requiem beschweren sich schon einige über den inputlag und ich erkenne auch keinen Mehrwert, in einem langsamen Spiel noch mehr fps zu haben, das Bild ist ohnehin ruhig und die fake Bilder haben halt ihre Schwächen. Ich finde dlss ist eine spannende Technik, aber dlss 3 überzeugt mich absolut nicht. Sehen aber auch die Tests zurzeit ähnlich, vielleicht reift es noch nach, aber Interpolation gefällt mir am TV schon nicht so sehr
 
  • Gefällt mir
Reaktionen: Hembi und simosh
DrPinguin schrieb:
250€ geben mittlerweile die wenigsten für eine GPU aus, und eine 980TI sollte nun langsam wirklich mal ersetzt werden
Du bist in deiner persönlichen Echokammer gefangen...

Die Karten mit einer UVP bis 250 Euro haben bei Steam einen Marktanteil von mehr als 60 Prozent

Die xx80 und xx90 Karten der letzten drei Generationen kommen zusammen auf einen niedrigen einstelligen Marktanteil.
 
  • Gefällt mir
Reaktionen: Hurricane.de, simosh, Nicop und eine weitere Person
Also alles was ich bisher an DLSS3 lesen konnte deutet doch eindeutig darauf, dass das nur "Fake-Frames" sind - am Inputlag ändert sich nicht. Ganz böse ausgedrückt werden doch nur die FPS-Zahlen gepusht, der "Spieleindruck" bzgl smoothness bleibt gleich gut / schlecht...
 
  • Gefällt mir
Reaktionen: simosh, ShiftyBro und ArrakisSand
Wenn AMD hier von Haus aus tatsächlich (deutlich) effizienter zu Werk geht als Nvidia, bin ich auf jeden Fall schon mal positiv gestimmt!
Mehr als 2x 8 Pin sollte es bei keiner Karte geben und ist absolut unnötig wie diverse Tests belegen.

Der Donnerstag ist fett markiert im Kalender 😁
 
  • Gefällt mir
Reaktionen: Hurricane.de und karl_laschnikow
Wie gut (oder evtl. schlecht/problematisch) laufen die AMD-Karten mit Star Citizen? Hört man da was Negatives?
 
DenMCX schrieb:
Also alles was ich bisher an DLSS3 lesen konnte deutet doch eindeutig darauf, dass das nur "Fake-Frames" sind - am Inputlag ändert sich nicht. Ganz böse ausgedrückt werden doch nur die FPS-Zahlen gepusht, der "Spieleindruck" bzgl smoothness bleibt gleich gut / schlecht...
Naja "nur" ist auch etwas untertrieben.
Es sind keine "Fake fps". Wenn du mit DLSS3 120fps hast statt ohne 70, dann sind das wirkliche 50 Bilder pro Sekunde mehr die du auf dem Bildschirm siehst. Das ist nicht nur eine andere Zahl.
Wenn du durch die Spielwelt läufst zieht die Spielwelt wirklich mit 120fps an dir vorbei, nicht mit 70.
Was sich wie 70fps anfühlt ist die Reaktionszeit des Schussbefehls zb beim Mausklick. Aber wie sehr das einen subjektiv stört oder überhaupt auffällt, das muss jeder selbst schauen.
Ergänzung ()

Gerithos schrieb:
Bei requiem beschweren sich schon einige über den inputlag und ich erkenne auch keinen Mehrwert, in einem langsamen Spiel noch mehr fps zu haben
Ich schon. Für mich macht es einen massiven Unterschied ob ich etwas mit 30fps oder 60fps spiele. Das temporale Detail, auch wenn die Bewegung langsam ist, ist dennoch eine qualitative Verbesserung für mein Auge jedenfalls.
Was ich berichte ist aus meiner Erfahrung direkt mit der Karte im PC, für andere kann ich nicht sprechen.
 
  • Gefällt mir
Reaktionen: RogueSix
@th3o Aber ist das am Ende nicht die Quintessenz des besseren Spielgefühls? Reaktionszeit? Und es geht mir hier nicht um die explizite Reaktionszeit bei einem Shooter. Ist doch die gleiche Diskussion mit AVG-fps und dem 0,1% Perzentil. Ich persönlich achte bei Benchmarks fast nur noch auf das Perzentil, da ich mir denke "was bringen mir Angaben der AVG-fps, in denen Ausreißer nach oben miteingeflossen sind, wenn das grundlegende Spielergebnisse viel unrunder ist, als durch die hohen FPS-Angaben suggeriert?"
 
  • Gefällt mir
Reaktionen: simosh
Wenn die Spielwelt um mich herum sich in 120fps bewegt aber die Inputbefehle von 70fps sind würd ich trotzdem die 120fps nehmen weil der Input von 70fps für mich immernoch gut genug ist.
Anders würde es aussehen wenn wir 90fps haben aber 30fps was den Input angeht.

Deswegen: Das muss jeder für sich individuell herausfinden. Ich kann halt nur für mich sprechen und wie sich bisher für mich die Spiele die ich damit getestet habe angefühlt haben.
Das wird Leute unterschiedlich stören weil jeder eine andere Toleranzgrenze hat. Wenn man e-Sportler ist dann ist man in der Lage ein paar Millisekunden zu 'fühlen'. Wenn man der gechillte Couchzocker ist dann wird einem das nicht auffallen dass der Controllerbefehl (übrigens wurde auch in den Tests gesagt dass das beim Controller-Gamen viel viel weniger auffällt als mit Maus und Tastatur) 0.02 Sekunden langsamer war.

Bei manchen Beiträgen habe ich das Gefühl die Leute denken dass ihre Eingabe sich um eine halbe Sekunde oder so verzögert. Eine Millisekunde sind 0.001 Sekunden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: p4z1f1st
Taxxor schrieb:
Manche denken RDNA3 müsste enorm effizienter sein als Ada, wenn sie mit 375W gegen 450W antreten wollen.
Die 4090 erreicht aber bereits nahezu ihre volle Perfomance mit 350W, es wäre also kein wirklicher Nachteil, wenn die TBP der 7900XTX bei 375W limitiert.
Vielleicht skaliert AMD auch noch mit über 400 Watt.Muss man alles sehen. AMD hat einen nicht unerheblichen Fertigungsnachteil und das Chiplet Design ist der erste! Versuch.
Und so wie die Leistung von Vorserienmodellen im Labor abschneidet, hat AMD insgesamt einige Nachteile, die sie mit Radeon Boost 2.0 nicht ausgleichen können.

-Schlechtere Effizienz des Topmodells in Raster wie RayTracing workloads
-Frametime Probleme durch den unstetigen Verwaltungsaufwand
-Schlechte Skalierung der Shader
-Treiberschwierigkeiten, Auslastungsprobleme und nur 17400 Punkte im Timespy
 
DenMCX schrieb:
@th3o Aber ist das am Ende nicht die Quintessenz des besseren Spielgefühls? Reaktionszeit? Und es geht mir hier nicht um die explizite Reaktionszeit bei einem Shooter. Ist doch die gleiche Diskussion mit AVG-fps und dem 0,1% Perzentil. Ich persönlich achte bei Benchmarks fast nur noch auf das Perzentil, da ich mir denke "was bringen mir Angaben der AVG-fps, in denen Ausreißer nach oben miteingeflossen sind, wenn das grundlegende Spielergebnisse viel unrunder ist, als durch die hohen FPS-Angaben suggeriert?"

Bin auch sehr skeptisch bei DLSS3. Das ist ein Feature für ein paar Singleplayergames. Der Inputlag bleibt ja auch nicht gleich, sondern verschlechtert sich. Das ganze wird nur dank Reflex wieder auf den normalen Inputlag gebracht, ohne Reflex, ohne DLSS3. Heißt mit Reflex und ohne DLSS3 hat man einen deutlich niedrigeren Inputlag. Das ist geschicktes Marketing, aber trotzdem für viele Spiele Mist.

Ist ja auch kein Wunder bei der Funktionsweise. Es wird ein Bild 1 + 2 berechnet. Bild 1 wird an den Monitor gesendet. Bild 2 wird zurückgehalten, dann wird aus Bild 1 + 2 ein Zwischenbild 1,5 berechnet. Dieses Bild wird als nächstes angezeigt und dann wird erst Bild 2 angezeigt, was eben zurückgehalten wurde. Hätte man Bild 2 direkt ausgesendet, wäre der Inputlag eben um ein Frame geringer.
 
  • Gefällt mir
Reaktionen: N0Thing, eXe777, ArrakisSand und eine weitere Person
Das Referenzdesign hat nur 2x8 Pin Stromversorgung, gut und schlecht zugleich. So kann sie gar nicht so viel Strom ziehen, andererseits lässt es vermuten, dass die Karte nicht an die 4090 herankommt, oder man überrascht alle wie sparsam man ist.
 
Ragnarök88 schrieb:
AMD hat einen nicht unerheblichen Fertigungsnachteil und das Chiplet Design ist der erste! Versuch.
Was für einen Fertigungsnachteil?

Beide nutzen einen speziell auf den Hersteller angepassten N5 Prozess, nur dass er bei Nvidia auch gleich andes benannt wurde(4N = "For Nvidia", Achtung, 4N ist nicht N4)
 
  • Gefällt mir
Reaktionen: ThePlayer, RogueSix, ETI1120 und 3 andere
Zurück
Oben