News Radeon RX 7900 XTX: Erste Benchmarks sind mit Vorsicht zu genießen

Gaspedal schrieb:
Oder CPU nach Mhz. Damals Intel 486 DX 33-70 MHz für ca. 400-1000DM, heute wären wir bei über 50.000 LOL und das ohne Inflationsananssung. Mein Amiga 500 Speichererweiterung von 512kb hat damals schon 180DM gekostet. Das wären heute umgerechnet auf GB mehrere tausend Euros demnach.
Ja aber das wird hier immer von vielen hergenommen um die steigenden Preise zu rechtfertigen. Die offensichtlich nicht dem Prozess sondern nur der Gier geschuldet sind.
Mein Lieblingsbeispiel sind Handyflaggschiffe. Seit ca. 2014/2015 haben sich die Preise bei diesen fast verdreifacht. Dabei sehe ich seit 3-4 Jahren eine Stagnation bei der Technik. Noch eine Kamera etwas mehr Takt und etwas mehr Speicher. Was neues wie von Single- zu Multicore oder von einer Kamera zu 2 oder 3 Fehlanzeige.
Na klar kann man jetzt argumentieren das der Prozess um die GPUs zu belichten immer aufwendiger und teurer wird. Aber das war es vorher auch.
Ergänzung ()

ThirdLife schrieb:
Ich weiss nicht was du meinst. So muss man das ja schlicht rechnen wenn man Inflation kalkulieren will. Gerade das verdeutlich ja wieviel mehr oder weniger du heute fürs Geld kriegst.
Schau dir mal Kommentar Nr. 138 an. Das meine Ich. Sorry ich meine 139 von @Gaspedal
 
LamaMitHut schrieb:
Weil?

Ca. 1250 Euro für das Topmodel ist fair, warum sollten die ihre Hardware verschenken?

Gibt inzwischen genug Auswahl für unter 500 Euro, nur sollte man da nicht 4k + Raytracing erwarten.
4k und RT erwarte ich auch bei den neuen AMD Karten nicht. Deshalb denke ich auch das die nicht über 1100 Euro landen sollten. Ich würde AMD durchaus kaufen dieses Mal aber der Preis muss aggressiv sein wenn ich auf die Nvidia Features verzichten soll.
 
  • Gefällt mir
Reaktionen: ThirdLife
Kaliauer schrieb:
999 USD sind 950 EUR (Stand jetzt) - mit 19 % USt sind das dann 1130 EUR. ich bin gespannt, was AMD aufrufen wird, mein tipp sind ~1100 EUR für die XTX. Sind bei mir gerundet ca. 300 EUR. Wenn der abstand kleiner wird, wird die 4080 auch wieder ein bisschen interessanter.
Ob AMD dir den Kurs günstig weitergibt wissen wir noch nicht. Besser wärs. Du hast allerdings nicht von knapp 300 und gerundet gesprochen sondern von "mindestens 300". ☝️:D

Kaliauer schrieb:
DLSS 3.0 ist nur in Verbindung mit Raytracing notwendig, wenn man das nicht nutzen möchte, brauch man es nicht. Man wird sehen, was hier AMD nachliefert. Wenn jemand meint, er braucht das, muss er es auch bezahlen.
Naja, brauchen in Form von FPS nicht, aber es ist energiesparend und effizient. Wenn ich ein Game nur in 60fps rechnen muss und da 120 rauskommen muss ich es nicht nativ in 120fps rechnen. Hier sind doch sonst immer alle so auf Effizienz versessen, da passt das doch gut rein.

Kaliauer schrieb:
CUDA: kenn mich damit nicht aus, aber da wird NVIDIA vermutlich eh die Nase vorne haben? Also wenn man das braucht, ist es eh ein Nobrainer? Ich bezweifle allerdings, dass das ein Kaufgrund für einen grossteil der Käufer ist (Spekulation :) ). Ebenso Streaming.
CUDA ist einfach nur eine API mit der man viele Tools beschleunigen kann bei bestimmten Berechnungen. Egal ob Video-Bearbeitung, Rendering, ML/DL, Matlab, Photoshop, CFD Simulationen, CAD usw.

Ich durchaus ein Mehrwert. Sicher nicht für den 16-jährigen Fortnite Gamer der einfach nur daddeln will. Der braucht aber auch weder 24 GB VRAM noch eine 7900/4080. :D

Kaliauer schrieb:
Dem gegenüerb stehen aber auch die 24 GB bei der XTX vs 16 GB bei der 4080. Wer weis, wann die zum Flaschenhals werden? So wie bei der 3080 10gb es heute ist? Ich will eine Grafikkarte für 1400 EUR länger als zwei Jahre vernünftig nutzen können.
VRAM war doch so gut wie nie Flaschenhals. Die Radeon VII hatte schon 16GB vom affig schnellen HBM Memory. Ist die gut gealtert ? Wieviele moderne Titel kann die denn heute noch akzeptabel mit allen Details darstellen ?

Chips und Architekturen altern weit schneller als das VRAM - das ist meist auch an die aktuelle Konsolengen gebunden ausser für einzelne Titel. Ich denke 16GB sind bei weitem genug, ich würde so lange es keine neuen Konsolen gibt auch 12GB noch für mehr als genug erachten zumal ja hier immer wieder darauf hingewiesen wird dass die meisten Leute noch in 1080p/1440p zocken. >12GB VRAM wird erst ab 4K und RT interessant.

Aber ja, es ist ein nettes Gimmick. Gerade bei den aber doch stark powerlimitierten AMD Karten wäre mir weniger Memory lieber als mehr. Das frisst nämlich ins Powerlimit der GPU mit rein.

Benji18 schrieb:
Das gilt es abzuwarten, wie gesagt das die Umsetzung nicht optimal war sieht man ja, die Frage ist konnte man hier was verbessern od. hat man den Ansatz komplett umgeworfen.

Zu zeigen das die 4090 alles aktuell plettet ist halt sinnlos wenn wir die Antwort von AMD mit RDNA 3 noch nicht kennen, es wäre spannend ob AMD was ordentliches dagegen halten kann od. ob das eher so Zen+ wird und wir erst mit RDNA 4 etwas wie Zen 2 erleben werden.
Ich denke am Plättungs-Szenario der 4090 ändert sich nix. Zumindest deuten alle bisherigen Folien von AMD darauf hin dass man auf die 4080 abzielt. Wär allerdings ein riesen Gag wenn man sagt "ätsch, wir sind schneller als eure 4090" und das für 1199€. 😂

Bezweifel ich aber.

Gaspedal schrieb:
Oder CPU nach Mhz. Damals Intel 486 DX 33-70 MHz für ca. 400-1000DM, heute wären wir bei über 50.000 LOL und das ohne Inflationsananssung. Mein Amiga 500 Speichererweiterung von 512kb (somit 1MB insgesamt) hat damals schon 180DM gekostet. Das wären heute umgerechnet auf GB mehrere hunderttausend Euros demnach.
Daher, wenn einer schreibt, dass der RTX 4090 aufgrund doppelte Leistung auch doppelt so viel Wert ist, hat die Welt und Fortschritt nicht verstanden.
Ich habe mich aber nicht auf Preis pro Mhz bezogen mit der Inflationsrechnung sondern auf das jeweilige x80er Modell damals vs. heute. Das war der Start der Debatte und darauf bin ich eingegangen. Ich habe nirgends Mhz in Relation zum Preis gesetzt.
 
ben12345 schrieb:
4k und RT erwarte ich auch bei den neuen AMD Karten nicht. Deshalb denke ich auch das die nicht über 1100 Euro landen sollten. Ich würde AMD durchaus kaufen dieses Mal aber der Preis muss aggressiv sein wenn ich auf die Nvidia Features verzichten soll.
Ist klar... Natürlich kann man mit den Karten von AMD jetzt schon gut in 4k zocken, ich weiß echt nicht was das unreflektierte getrolle soll.

¯⁠\⁠⁠(⁠ツ⁠)⁠⁠/⁠¯
 
  • Gefällt mir
Reaktionen: schkai
ThirdLife schrieb:
12GB VRAM wird erst ab 4K und RT interessant.
Wofür kauf ich denn ne 4080? Die 16 GB reichen heute aus, ja. Aber in zwei Jahren? Wie schauts denn heute mit der 3080 Ti mit 12 GB aus - die läuft auch schon bei einigen Games in den RAM-Falschenhals.

Die Frage die ich mir heute stelle ist ganz einfach Kauf ich heute eine "günstigere" Karte und in zwei Jahren eine neue "günstige" oder kauf ich mir jetzt ne teure - die muss dann aber 4 Jahre halten. Und da mach ich bei 16 GB eben ein Fragezeichen dran.

ThirdLife schrieb:
Du hast allerdings nicht von knapp 300 und gerundet gesprochen sondern von "mindestens 300". ☝️:D
Was interressiert mich mein dummes geschwätz von vor 5 Minuten? :p:D Warten wir ab, was AMD aufruft (und was lieferbar ist). Davon hängt ab, welche Karte interessanter ist.

ThirdLife schrieb:
Sicher nicht für den 16-jährigen Fortnite Gamer der einfach nur daddeln will. Der braucht aber auch weder 24 GB VRAM noch eine 7900/4080. :D
Wenn du kein professioneller User bist, dann "brauchst" du auch keine Grafikkarte in der Leistungsklasse für Videobearbeitung & Co. Man kann es sich gönnen, definitiv, aber brauchen tut man es nicht.
 
  • Gefällt mir
Reaktionen: Icke-ffm und ThirdLife
4k mit rt soll gut laufen mit AMD? Das wär mir jetzt aber wirklich neu. Es wird in nahezu jedem Spiel das RT kann darauf hingewiesen das man es mit einer AMD karte ausmachen soll oder andere Details runter regeln muss für gute FPS.. Die Frage ist natürlich wie viel FPS man für erträglich hält, da mögen die Meinungen auseinander gehen. Die RX 7000der müssen hier noch zeigen das sich RT jetzt auch auf 4k max einschalten lässt, ich bezweifle es aber stark.
 
Aber labern nur über RT, bin ich froh das mir das noch überhaupt nicht interessiert 🤔, ich hab da liebe das mehr an Leistung….
 
  • Gefällt mir
Reaktionen: Icke-ffm, daknoll, schkai und 2 andere
ThirdLife schrieb:

Ich definiere das daran, dass es nVidia, das ist der Hersteller, damals so propagiert hat und auch deswegen die Karte nicht der GTX Familie zugerechnet hat. Die Karte sollte abseits davon im Semi-Pro Bereich platziert werden. So hieß es damals. Wenn Du andere Infos hast; z.B. dass nVidia das nicht so gemeint hat, weil die Treiber andere waren, dann weißt Du mehr als das nVidia Marketing von damals.

Du unterschlägst völlig den technischen Fortschritt in der Fertigung. Nach Deiner Rechnung geht der zu 100 % in die Tasche der Hersteller. Wenn das so wäre, müsste eine Alufelge mit Reifen heute mehrere 10.000 € kosten, weil man noch immer die Arbeitszeit und den Wareneinsatz von Zeiten nimmt, als ein Kutschrad per Hand gefertigt wurde, die Inflation und aktuellen Löhne draufschlägt, aber die Weiterentwicklung in der Fertigung unterlässt. Was Du machst, ist einfach nicht richtig. Die nächste GPU müsste dann 1000 € mehr kosten.
Die Wafer haben zu Zeiten der 1080 sicherlich nicht weniger gekostet. Es waren ja 16nm Chips, bei denen viel weniger Chips aus einem Wafer kommen.
Aber selbst wenn wir all das außen vor lassen, kommen wir trotzdem nicht auf die Preise, die es heute gibt.
Ich habe gerade auch gesehen, dass ja, 2017 die 1080ti gelounched wurde für 699 $?
Wie geht das? Stärkere Karte, keine Veränderungen bei Dollar und €, MWST gleich, gleiche Technologie, gleiche Wafergröße und das neue Flagschiff kostet trotz Inflation einfach genau so viel wie das ältere Flaggschiff? Wie ging das damals nur?
 
Zuletzt bearbeitet von einem Moderator:
n0ti schrieb:
Aber labern nur über RT, bin ich froh das mir das noch überhaupt nicht interessiert 🤔, ich hab da liebe das mehr an Leistung….
Hast Du es mal selbst live gespielt und erlebt? Aus meiner Sicht ist das ein deutlich steigerndes Erlebnis mit RT.
 
PHuV schrieb:
Nope, ich kauf einfach das, was gut ist und lieferbar. Marke und Name sind mir vollkommen egal, die Leistung muß stimmen. Und wenn ich es mir nicht leisten kann oder will, verzichte ich einfach.
Sorry, aber WENN dem so wäre, hättest du nicht 2000€ für eine GPU hingelegt ohne auf kkonkurrierende Produkte zu warten. Das hat nichts mit Rationalität zutun, wenn von einem Produkt nur ein Produkt in Frage kommt.
Auch dieses öffentliche Profilieren mit einem Halo geht vielen auf den Sack.

Keiner ist dir böse, wenn du außer NV nichts kaufst, aber dann sei bitte so ehrlich zu dir und kommuniziere das so. Und das gilt für viele hier!
Ich kaufe auch nur Suzuki und Kawasaki und stehe dazu.
 
  • Gefällt mir
Reaktionen: Accutrauma
PHuV schrieb:
Hast Du es mal selbst live gespielt und erlebt? Aus meiner Sicht ist das ein deutlich steigerndes Erlebnis mit RT.
Ja klar, aber entweder bin ich zu alt oder hab die falschen Spiele gespielt :) ich hab da nicht den großen Unterschied gesehen 😏, dlss hingegen finde ich echt gut, hat ne gute Schärfe das vermisse ich bei FSR noch.
 
  • Gefällt mir
Reaktionen: Snoop7676 und Gaspedal
ThirdLife schrieb:
VRAM war doch so gut wie nie Flaschenhals. Die Radeon VII hatte schon 16GB vom affig schnellen HBM Memory. Ist die gut gealtert ? Wieviele moderne Titel kann die denn heute noch akzeptabel mit allen Details darstellen ?

Chips und Architekturen altern weit schneller als das VRAM - das ist meist auch an die aktuelle Konsolengen gebunden ausser für einzelne Titel. Ich denke 16GB sind bei weitem genug, ich würde so lange es keine neuen Konsolen gibt auch 12GB noch für mehr als genug erachten zumal ja hier immer wieder darauf hingewiesen wird dass die meisten Leute noch in 1080p/1440p zocken. >12GB VRAM wird erst ab 4K und RT interessant.
Der infinity cache von AMD ist aber u.a. dafür den kleineren BUS zu kompensieren, die 390 z.B. hatten noch eine 512bit Anbindung. Die Radeon 7 ist auch heute keine schlechte Karte.

Also bei 1440p war mein GDDR schon immer mit (RTX 2060-12GB bis letzte Woche) 11GB+ belegt. Der Treiber und die Engines lagern dort auch viel ein z.B. bei openworld Titeln. Du merkst sehr wohl einen Unterschied, auch ohne RT gedöns. Alles unter 192bit ist Ramsch.

Ich finde es extrem Schade das HBM zur Zeit nur im Profibereich angeboten wird, in dem Fall wäre etwas höhere Preise auch eher gerechtfertigt, wenn jetzt wieder wer kommt das wäre so Teuer, nonsens, die Preise der Radeon 7 z.B. lagen bei 700€. AMD verschenkt auch nichts, von daher wären 1000€ Karten immer noch extrem gewinnbringend, wenn sie wieder HBM hätten, egal ob NV oder AMD.

Schaut man sich die Aktienkurse der beiden Firmen an weißt Du wo dein Geld hingeht. Das ist alles einfach Abzocke der Kunden, Fakt.

mfg
 
  • Gefällt mir
Reaktionen: Accutrauma und m.obermueller
PHuV schrieb:
Nope, ich kauf einfach das, was gut ist und lieferbar. Marke und Name sind mir vollkommen egal, die Leistung muß stimmen. Und wenn ich es mir nicht leisten kann oder will, verzichte ich einfach.
So denke ich tatsächlich auch. ABER das ist in der PC Hardware Bubble leider sehr selten geworden und das trotz der Weltsituaton, was schon verwunderlich ist.
 
  • Gefällt mir
Reaktionen: PHuV
Bin echt ein wenig happy, dass ich so langsam meinen Spielebacklog abarbeiten kann und somit meine 1060 noch mehr als ausreichend ist. Die Spiele sind meist 3 Jahre oder älter alt. Wenn denn in ein paar Jahren cyberpunk dran ist, ist dann erst eine neue GPU fällig.
 
  • Gefällt mir
Reaktionen: FGA
PHuV schrieb:
Hast Du es mal selbst live gespielt und erlebt? Aus meiner Sicht ist das ein deutlich steigerndes Erlebnis mit RT.
Fuer ein grafisch gut gestaltetes Spiel brauch man kein RT. RT ist ausserdem sau teuer.
 
  • Gefällt mir
Reaktionen: Illithide, schkai, FGA und eine weitere Person
n0ti schrieb:
Ja klar, aber entweder bin ich zu alt oder hab die falschen Spiele gespielt :) ich hab da nicht den großen Unterschied gesehen 😏, dlss hingegen finde ich echt gut, hat ne gute Schärfe das vermisse ich bei FSR noch.
Kann Dir voll und ganz voll zustimmen. Ich sehe da auch kaum Unterschiede. Es ist mMn auch nicht besser, sondern minimal anders. Dafür dass es 40% mehr Leistung für 5% Änderung kostet, ist es mir nicht Wert. Ich habe da lieber mehr Überschuss für Frames ohne Framedrops. DLSS finde auch gut, funktioniert super.
 
  • Gefällt mir
Reaktionen: Snoop7676, n0ti und schkai
n0ti schrieb:
Ja klar, aber entweder bin ich zu alt oder hab die falschen Spiele gespielt :) ich hab da nicht den großen Unterschied gesehen 😏, dlss hingegen finde ich echt gut, hat ne gute Schärfe das vermisse ich bei FSR noch.
Meinst den NV Cheat den Dunst, leichten Nebel im Spiel verschwinden zu lassen.
 
ThirdLife schrieb:
Hmm, also die Werte sind merkwürdig, wenn ich meine leicht OCed 4090 Geekbenche komme ich auf 285k+ Punkte im Vulkan Bench. Das wären 60% mehr Leistung als die 7900XTX. Sollte das auf Games übertragbar sein wärs enttäuschend wenig und die Karte in Relation zur Leistung weit teurer als eine 4090.
Wie steht denn eine 4080 dann im Vergleich zur 4090 im Vulkan geekbench?
Habe nicht so genau alles auf dem Schirm Grad, aber wenn die 7900 xtx 15% vor der 4080 liegt und die 4090 60% über der 7900 xtx, erkennt man ja alleine dadurch dass es sich nicht auf die in-game Leistung übertragen lässt. 4090 liegt ca 34% vor der 4080 in 4K FPS, wie sieht's denn im Vulkan Bench aus?
Müssten ja dann weit über 70% sein, wenn ich das auf die schnelle richtig im Kopf hatte.
Dass die 7900 xtx P/L auf FPS bezogen Rasterleistung schlechter ist als ne 4090 ist wirklich unmöglich, dafür müsste die 7900 xtx in roh-performance FPS schlechter als ne 6900 XT werden, damit das vom P/L aufgehen könnte..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
Accutrauma schrieb:
Fuer ein grafisch gut gestaltetes Spiel brauch man kein RT.
Da spricht ein Blinder von Farben. Schon mal Cyberpunk 2077 gespielt?
Accutrauma schrieb:
RT ist ausserdem sau teuer.
Das ist eine andere Geschichte. Trotzdem sieht RT in Farben, Schatten, Licht und Spiegelungen deutlich besser aus als die ganzen geschummelten Effekte.
Ergänzung ()

n0ti schrieb:
Ja klar, aber entweder bin ich zu alt oder hab die falschen Spiele gespielt :) ich hab da nicht den großen Unterschied gesehen 😏
Cyberpunk 2077? Alle schon die Reflexionen und die Schattenberechnung sind gravierende deutlich sichtbare Unterschiede.

Vielleicht liegts auch an mir, aber ich finde seit den ersten gescheiten grafischen Spielen die Schatten- und Lichtbildung schon immer zum 🤢.
 
  • Gefällt mir
Reaktionen: Ragnarök88 und ThirdLife
Upscale kann ich nichts abgewinnen, gar nichts. Am Ende ist die Physik im ganzen Universum gleich, man kann nichts mehr an Dietails erschaffen was nicht da ist. Skaliere mal ein VHS Video auf 4K hoch, dass ist Augenkrebs pur.

Diese Techniken wie FSR oder DLSS sind einfach nur Blödsinn den keiner Braucht.
Wenn deine Grafikkarte nicht genug Performence für deine gewünsachte Auflösung hat, dann kaufe dir eine bessere oder Lebe damit.

Für mich wurde dass nur eingeführt, um den Leuten tolle Benchmarkbalken presentieren zu können, die Bildqualität wird damit aber nicht besser.

mfg

Upscale ist toll ... NEE
lol.2png.png
 
  • Gefällt mir
Reaktionen: Snoop7676, Icke-ffm und FGA
Zurück
Oben