News Radeon RX 7900 XTX: Erste Benchmarks sind mit Vorsicht zu genießen

Ist das Sarkasmus oder ist dieser Kommentar von 2018 als mit DLSS 1 ca 7 Spiele supportet worden sind?
Komm Mal vorbei auf'n Bier und wir machen bei meinem Set Up blind test einmal aufm 4K Screen und dann aufm 4K Beamer, würde mich interessieren ob du da den Unterschied erkennen kannst ohne einzelne frames mit der Lupe zu analysieren (=
Zwischen DLSS quality oder nativ mit FPS Lock.

Edit: Zitat wollte iwie nicht..
 
Zuletzt bearbeitet:
PHuV schrieb:
Da spricht ein Blinder von Farben. Schon mal Cyberpunk 2077 gespielt?
Reden wir von dem Spiel wo sich alles Spiegelt, mal toll, mal bescheiden, aber der Charakter selbst nicht ? Für was brauche ich dann "realistische Spiegelungen" ?
Cyberpunk ist aber auch hier eher die Ausnahme und in meinen Augen ein Pilotprojekt von Nvidia. Das Spiel könnte selbst ohne Raytracing sehr gut aussehen, hier werden die Effekt ohne RT wohl einfach mit Absicht schlechter dargestellt.

Ansonsten muss ich sagen, zumindest aus meiner Perspektive, nutze ich kein RT in Spielen, bis auf Cyberpunk. Liegt vielleicht daran das in meiner Bibliothek bisher nur Cyberpunk und F1 2021 bzw F1 2022 RT unterstützen (Bei F1 ist das totaler Krebs, genauso wie DLSS). OK, Metro Exodus war auch noch dabei, aber es hat mich so wenig begeistert und soviel Leistung gezogen, das es mir nicht wert war.

Ich habe nichts gegen RT, wenn es gut eingesetzt wird und nicht unnötig viel Leistung frisst, dann aktiviere ich es gerne. Offensichtlich kümmert man sich aber mehr um Effekte, anstelle einfach eine gutes Game mit guter Grafik zu erstellen. Könnte auch der Grund sein weshalb ich kaum Spiele mit RT in meiner Bibliothek habe :)
 
  • Gefällt mir
Reaktionen: daknoll, Rockstar85, jo0 und 2 andere
Zuletzt bearbeitet von einem Moderator:
PHuV schrieb:
Da spricht ein Blinder von Farben. Schon mal Cyberpunk 2077 gespielt?
Ergänzung ()


Cyberpunk 2077? Alle schon die Reflexionen und die Schattenberechnung sind gravierende deutlich sichtbare Unterschiede
Cyberpunk sieht aber auch einfach generell bescheiden aus ohne RT, deshalb wollte ich es auch mit der 6800XT nicht weiter spielen. Es ist aber nicht so dass RT generell so einen riesigen Unterschied ausmacht.

Man merkt hier einfach nur dass CDPR Raytracing pushen wollten/sollten.
Ähnliches bei Control, wo ohne RT selbst simple Screen-Space-Reflexionen fehlen, die es in anderen Games ohne RT aber gibt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schkai
duskstalker schrieb:
amd verschenkt nichts. wenn die karten im vergleich zu nvidia "günstig" erscheinen, hat das wahrscheinlich damit zu tun, dass die karten im vergleich einfach nicht mehr wert sind.
So ist es. Die Werte werden schon stimmen. Man wird irgendwo in Raster bei einer 4080 rauskommen, RT dann deutlich drunter.
 
  • Gefällt mir
Reaktionen: ThirdLife
C4rp3di3m schrieb:
Diese Techniken wie FSR oder DLSS sind einfach nur Blödsinn den keiner Braucht.
Das ist eine sehr einseitige und schlichte Betrachtungsweise, die viele mit Dir so nicht teilen werden. Ich finde DLSS, seitdem ich es praktisch verwende, prima.
 
  • Gefällt mir
Reaktionen: ThirdLife, MrHeisenberg und BlaaaBliiiBluuu
Taurus104 schrieb:
Ziemlich weit hergeholte Vermutung.
Was meinst du denn was passiert, wenn AMD ein Feature mit der Qualität von DLSS bringt, welches dann nur auf RDNA GPUs läuft und damit vielleicht 1-2% aller potenziellen Kunden eines Entwicklers abdeckt, wie enthusiastisch werden sie sein, das einzubauen im Vergleich zu DLSS, wo alleine die DLSS kompatiblen GPUs innerhalb der Top 50 der Steam Survey schon ~33% des gesamten Marktes bzw ~42% dieser Top 50 abdecken?

Natürlich macht man in dem Fall, wenn man möchte, dass sein Feature genutzt wird, es dann lieber so, dass es auf nahezu allen Karten läuft.
Und deshalb versuchen sie auch FSR 3 auf anderen Karten außer RDNA3 lauffähig zu machen, nicht weil sie so überzeugt davon sind, dass alle was davon haben sollten, sondern weil es schlicht kaum jemand implementieren wird, wenn es nur auf RDNA3 läuft.
Ergänzung ()

C4rp3di3m schrieb:
Für mich wurde dass nur eingeführt, um den Leuten tolle Benchmarkbalken presentieren zu können, die Bildqualität wird damit aber nicht besser.
Wenn die Bildqualität für den Nutzer gefühlt gleich bleibt bzw im worst case minimal schlechter wird, aber 50% mehr FPS bringt, reicht das doch, warum sollte sie das Bild gleichzeitig auch noch besser machen müssen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg und ThirdLife
Taxxor schrieb:
Was meinst du denn was passiert, wenn AMD ein Feature mit der Qualität von DLSS bringt, welches dann nur auf RDNA GPUs läuft und damit vielleicht 1-2% aller potenziellen Kunden eines Entwicklers abdeckt, wie enthusiastisch werden sie sein, das einzubauen im Vergleich zu DLSS, welches alle RTX 2000, 3000 und 4000er Karten nutzen können und wo in der Top 20 der Steam Survey alleine schon 8 kompatible Karten enthalten sind, die zusammen 23% abdecken?

Natürlich macht man in dem Fall, wenn man möchte, dass sein Feature genutzt wird, es dann lieber so, dass es auf nahezu allen Karten läuft.
Und deshalb versuchen sie auch FSR 3 auf anderen Karten außer RDNA3 lauffähig zu machen, nicht weil sie so überzeugt davon sind, dass alle was davon haben sollten, sondern weil es schlicht kaum jemand implementieren wird, wenn es nur auf RDNA3 läuft.
Ergänzung ()


Wenn die Bildqualität für den Nutzer gefühlt gleich bleibt bzw im worst case minimal schlechter wird, aber 50% mehr FPS bringt, reicht das doch, warum sollte sie das Bild gleichzeitig auch noch besser machen müssen?
Dem Punkt 2 stimme ich zu,
Punkt 1 übersiehst du da Mal die Konsolen, die alle auf AMD Hardware basieren, man hat ja gesehen was aus gsync geworden ist, 99% der TVs und Screens sind nun bei freesync oder adaptive sync gelandet. Solange AMD den Konsolenmarkt kontrolliert kommt man um AMD Features nicht rum - diese sind bisher nur nicht proprietär, da ist der Unterschied.
 
  • Gefällt mir
Reaktionen: Icke-ffm und m.obermueller
Taxxor schrieb:
wenn AMD ein Feature mit der Qualität von DLSS bringt, welches dann nur auf RDNA GPUs läuft und damit vielleicht 1-2% aller potenziellen Kunden eines Entwicklers abdeckt
nachdem in Konsolen AMD GPU's verbaut sind, wären das bei weitem mehr als 1-2% potenzielle Kunden.

Eher ist es so das DLSS für 1-2% der Kunden ist und trotzdem machen es die Entwickler, spricht für DLSS, da es anscheinend ein gut zu integrierendes Feature ist.
 
  • Gefällt mir
Reaktionen: Rockstar85
n0ti schrieb:
Ja klar, aber entweder bin ich zu alt oder hab die falschen Spiele gespielt :) ich hab da nicht den großen Unterschied gesehen 😏, dlss hingegen finde ich echt gut, hat ne gute Schärfe das vermisse ich bei FSR noch.
Du bist wie ich wohl zu Alt.. Wir machen halte gute Spiele am Gameplay aus, nicht an der Grafik..
Wobei ich sagen muss, ein Remake von Freelancer mit RT Light wäre sicher lecker

Ich hab wie gesagt in RDR2 DLSS einmal angemacht und direkt danach wieder aus... Geht garnet.
 
  • Gefällt mir
Reaktionen: m.obermueller
ich hab das bisher nur bei cod an, damit ich durchweg die 144 halten kann, sonst nutze ich immer nativ, nun soll meine 3080ti weg und eine 7900xtx kommen. Bin gespannt

aber Freelancer Remake wäre der Hammer
 
  • Gefällt mir
Reaktionen: Rockstar85
Ragnarök88 schrieb:
So ist es. Die Werte werden schon stimmen. Man wird irgendwo in Raster bei einer 4080 rauskommen, RT dann deutlich drunter.
Klar.. bei 61Tflops kommt man unter Nvidia raus, die quasi seit RNDA ineffizienter sind..
Sorry, aber das kann sich doch keiner Ernsthaft wünschen?!
Vor allem würde es sämtliche Technischen Daten von AMD durchwürfeln. AMD bepreist die RT Schwäche ein, mehr nicht.. Ach ja und den Chiplet Vorteil.

Und komisch, dass alle AIB große fette teure GPOU raushauen.. Vermutlich glauben die ebenso wenig an AMDs Leistungen und bauen Toxic, Vapor-X und Taichi nur aus Spaß an der Freude..
 
Ich hoffe das die amd 7900xtx 20% vor der 4080 im Raster ist :) sonst kann ich gleich die 4080 bestellen :-)
 
RogueSix schrieb:
Kann aber denke ich auch dahingestellt bleiben. Sie sind auf jeden Fall am Rumkrepeln auf niedrigem Niveau am oder nahe des Allzeittiefs :D .

Und Fakt ist, dass eigentlich das Gegenteil dessen passiert ist, was sich wohl viele hier im Forum erwünscht haben.

Die relativ niedrigen Preise der RX 6000er im Vergleich zu den RTX 3000ern -und erst recht zu den RTX 4000ern- haben keineswegs dazu geführt, dass AMD mehr absetzen konnte, sondern es ist durchaus überraschend im Gegenteil sogar so, dass AMD mächtig hat Federn lassen müssen, während nVidia deutlich hinzugewinnen konnten.
was viele aber vergessen ist das der DIY Markanteil verschwindend gering ist. AMD hat hier wie sicherlich nun auch im OEM Markt den Angrif auf NVIDIA begonnen, jetzt wo die Kapazitäten in 7/6nm wohl frei werden kann AMD auch OEM Stückzahlen verkaufen. und wird die verloren schnell wieder aufholen. bin ich mir ziemlich sicher. wenn AMD billiger sowie Marketingtechnisch bessere Ware liefern kann kaufen die OEMs das auch. sofern sie sicher sind das sie die auch geliefert bekommen wenn gewünscht.
Die sind halt nur Träge und sitzen noch auf viel Lagerbestand. Denke mal ab Q3/23 wird sich das wieder eingependelt haben.
 
C4rp3di3m schrieb:
Diese Techniken wie FSR oder DLSS sind einfach nur Blödsinn den keiner Braucht.
Du hast offenbar keine Ahnung, wovon du redest.
FSR und DLSS sind eben nicht nur Upscaler. Da passiert ne menge mehr im Hintergrund.
 
Rockstar85 schrieb:
Klar.. bei 61Tflops kommt man unter Nvidia raus, die quasi seit RNDA ineffizienter sind..
RDNA3 ist ja nun auch deutlich ineffizienter was FPS/TFLOP angeht, sie machen es Nvidia also nach und sind insgesamt auch ineffizienter als Ada.
Die XTX hat 61TFLOPs und damit ~2,6x so viel wie die 6950XT, ist aber nur ~1,55x so schnell.

Wenn wir mit 6950XT + ~55% rechnen, würde man 15% über der 4080 rauskommen, gegenüber welcher man aber 26% mehr TFLOPs hat(61,4 vs. 48,7).
 
  • Gefällt mir
Reaktionen: ThirdLife und Ragnarök88
PHuV schrieb:
Hast Du es mal selbst live gespielt und erlebt? Aus meiner Sicht ist das ein deutlich steigerndes Erlebnis mit RT.
Deine Meinung, mir ist die Mehrleistung auch lieber.
Und ich habe beides Probiert.
 
Taxxor schrieb:
RDNA3 ist ja nun auch deutlich ineffizienter was FPS/TFLOP angeht, sie machen es Nvidia also nach.
Die XTX hat 61TFLOPs und damit ~2,7x so viel wie die 6900XT, ist aber nur ~65% schneller
Also entweder hast du schon Werte, oder aber du spekulierst ins Blaue..
Ich bin doch erstaunt, dass du auch ermahntest nicht alle Benches ernst zu nehmen und nun isses alles Valide?
Der Geekbench, wo die GPU am Ende nicht mal ne RDNA2 kassierte, ist dann sicher auch Echt, oder?
Sorry aber es is nichts neues, dass man nicht 100% mehr Leistung, bei 100% mehr Shadern bekommt, weil hier der Infinity Cache massiv ein Wörtchen mitzureden hat.. Ebenso wissen wir nicht, ob die CUs nicht doch langsam in die Richtung wie bei Ampere gehen, da ja die ganze Einheit auch breiter wurde.


So sehr ich mag, wie Neutral du schreibst, derzeit hab ich das Gefühl, ich rede mit einem NV Mitarbeiter.. Es Sein denn, du kennst die endgültige Leistung, dann solltest du aber ggf einfach bissl weniger darüber schreiben
 
  • Gefällt mir
Reaktionen: daknoll
Icke-ffm schrieb:
AMD hat hier wie sicherlich nun auch im OEM Markt den Angrif auf NVIDIA begonnen, jetzt wo die Kapazitäten in 7/6nm wohl frei werden kann AMD auch OEM Stückzahlen verkaufen.

amd greift nirgends an. ab 2019 hätte man mit rdna1 nvidia richtig feuer geben können - hat man nicht gemacht. da wurde der preis von navi10 so dermaßen hoch angesetzt, dass man nach der nvidia präsi erst einmal den preis reduzieren musste - der bekannte "jebaited" schachzug. bitte nicht die noch teurere "anniversary edition" vergessen. eine rx580 in 7nm mit 40 statt 36 CU für 500€ statt 230€.

das selbe spiel mit zen3 - amd hatte hier einen absoluten trumpf in der hand. zen2 hat intel schon ganz gut marktanteile gekostet, aber anstatt sich hier mal ein gutes market- und mindsharepolster aufzubauen hat man den 160€ teuren R5 3600 mit einem 330€ teuren R5 5600X beerbt und das so 2 jahre lang belassen. marktanteile sind weggebrochen - alderlake hat sich verkauft wie warme semmeln - zen3 war so daneben, dass intel im nachhinein den preis von alderlake ERHÖHT hat. das hab ich bis jetzt auch noch nie gesehen.

amd musste mit zen3 die preise in den keller crashen, damit das zeug noch wegkommt, und jetzt kostet ein R5 5600 139€. man hätte die ganze zeit 160-170€ für den R5 5600 haben können, wollte man aber nicht - jetzt halt so.

threadripper. das ist ein einzeiler.

mit RDNA2 hat man sich direkt mal bei nvidia bedankt und die karten in einem linearen preis/leistungschema in das grüne preisgefüge reingeschoben - "arbeit abgeschlossen".

joa - und der blick in die zukunft? am5 floppt wegen den total überdrehten preisen - nach nurmehr 2 monaten muss amd schon die preise aggressiv nach unten korrigieren und es ist trotzdem blei in den regalen.

RDNA3? wird natürlich der totale oberhammer. amd greift jetzt richtig an. das menschliche gehirn kann kaum begreifen, wie kompetitiv amd jetzt an den markt geht. nvidia + alte generation +10% bessere preis leistung: "arbeit abgeschlossen".

das was amd hier treibt lässt es mir kalt den rücken herunterlaufen.
 
  • Gefällt mir
Reaktionen: ThirdLife
Rockstar85 schrieb:
Es Sein denn, du kennst die endgültige Leistung, dann solltest du aber ggf einfach bissl weniger darüber schreiben
Du schreibst doch selbst die ganze zeit Von 50-60% ggü der 6950XT(was ~65% ggü der 6900XT wären), also erwartest du doch auch nichts anderes.
Und damit ist man halt ~15% über der 4080
 
Zuletzt bearbeitet:
Zurück
Oben