News Fortschritte bei Raytracing und AI: AMD bestätigt Radeon RX 8000 für Anfang 2025

Nuklon schrieb:
Nur Mittelklasse, nur Fokus auf KI und Raytracing? Wer soll da die Zielgruppe sein?
Alle Leute die ne Grafikkarte brauchen und nicht nur in einem Nerdforum unterwegs sind vielleicht???
 
  • Gefällt mir
Reaktionen: cbmik, Edelgamer, WommU und 2 andere
Vitche schrieb:
25-30 Prozent, wie von ihm beschrieen, sind es in der Tat nicht. Aber je nach Spiel und Grafikkarte fällt auch uns beim Testen immer wieder auf, das Nvidia-GPUs insbesondere bei knappen VRAM besser damit umgehen können. Da treten dann bei 12 GB Probleme vielleicht noch nicht auf, die bei einer Radeon mit 12 GB schon auftreten. Den Schritt zu 16 GB macht das aber auf keinen Fall wett. Vielleicht reden wir hier von 10 Prozent, wenn überhaupt.
Genau so kommen Gerüchte in die Welt. Gefühlte Wahrheiten.
 
  • Gefällt mir
Reaktionen: eXe777, Mcr-King und Ja_Ge
Selbst wenn amd ne 5090 für 100€ anbieten würde, würde es nicht großartig was an der Marktrelevanz ändern, für die meisten gibts nur das grüne, alles andere ist für die dreck, oft genug selbst mit erlebt, die finden immer eine ausrede das eigene Produkt in den Himmel zu loben.
Man hat es doch bei RDNA2 und Ampere gesehen, da hiess es immer nur RT hier und DLSS da, das die Ampere Karten eine total miese effizienz hatten, war da schei..egal. Und nun heisst es zb. bei RDNA3 "man haben die ne kack Effizienz"
Der großteil der grafikkartenkäufer hat so hart es einfach klingt ne grüne Brille auf.
 
  • Gefällt mir
Reaktionen: Flunkiii, Casillas, eXe777 und 2 andere
Nuklon schrieb:
Nur Mittelklasse, nur Fokus auf KI und Raytracing? Wer soll da die Zielgruppe sein?
Nicht vergessen, das ist next Gen, da sollte 4080 like Performance gehobene Mittelklasse sein und 4070 und 4070ti like Performance en rest der Mittelklasse abdecken.

Sprich wir sind dann eigentlich spätestens seit der 4070 super da, wo man auch in der Mittelklasse auch wirklich viel mit der RT Performance anfangen kann, imho natürlich.

Ist doch super das AMD jetzt dann auch die RT Performance liefern will, wo sie in der Mittelklasse nicht nur fürs Marketing wichtig wird.
 
Nein, was du sagst kann schon stimmen, den direkten Vergleich zwischen den Herstellern habe ich selbst leider nicht. Es wäre aber interessant warum das so ist. Und seit wann.
 
Phobsen schrieb:
Diese Infos hast du dir hier aus dem Thread gezogen, von Menschen die mehr Ahnung haben :daumen:
Gut das du weißt wie viel Ahnung ich von etwas habe.
Phobsen schrieb:
Ist ein "Okay,ich habe mich geirrt" wirklich so eine unüberwindliche Hürde ?
Nein ist es nicht. Ich weiß nun gerade wirklich nicht was an meiner Aussage AMD Karten belegen prinzipiell mehr Speicher falsch war.
Phobsen schrieb:
Was die VRAM Belegung angeht, nur weil 13GB belegt sind,heißt das nicht dass das Spiel diese auch dringend benötigt.
Phobsen schrieb:
Ist ein "Okay,ich habe mich geirrt" wirklich so eine unüberwindliche Hürde ?

Es tut mir leid, dass ich mich aufgrund meiner Intelligenz, nicht besser Ausdrücken kann.
Ich hätte mich auch kurz fassen können in dem ich gesagt hätte.

Die Vorgehensweise von NV, im Punkt VRAM Management, gefällt mir besser, da ich keine lust auf Ruckler habe und matschige Texturen im WorstCase Szenario beim Volllaufen des VRAM bevorzuge, da ein häufiges Unterbrechen der Frames wie bei AMD, bei mir zu Kopfschmerzen und Übelkeit führt (Motion Sickness). Ich spiele mit hohen Details in 4k mit nur 12GB VRAM und hatte bisher bei AAA Spielen keine Framedrops. Ich bin mir sicher dass dies mit einer AMD Karte im WorstCase anders wäre.
 
NJay schrieb:
Ich würde gerne nächstes Jahr meinen PC upgraden, aber aktuell lohnt es sich nicht von einer 6900XT, wenn ich nicht zu NVIDIA wechseln will... Sieht nicht so aus, als würde sich das nächstes Jahr ändern...
Du hast doch ein Top System warum willst du so schnell schon aufrüsten wenn ich fragen darf. 5900 und ne 6900xt schaffen doch locker jedes Spiel und produktion sollte auch gut sein.
Ich würd noch ein Jährchen länger warten.
 
  • Gefällt mir
Reaktionen: Flunkiii
@Vitche

In Star Wars Outlaws wurde darauf hingewiesen, jedoch die Karten nicht entsprechend gleicher Darstellung im Menü eingestellt.

Wenn die Sichtweite sehr hoch bei einer zB. 4070/12 nur hoch einer 7800XT/16 entspricht. Sollte es doch auch so getestet werden.

Bei FSR/DLSS wird auf etwaige Nachteile von FSR doch auch ausreichend hingewiesen.

@Hatsune_Miku

Ich wollte eine 6800XT kaufen, nur waren die Scalper Preise jenseits von gut und Böse.
Erst als die RTX4000er Serie von NV schon breit verfügbar war, gingen die Preise für RDNA2 runter.
Der Abverkauf hat sich auch sehr ungünstig mehrere Monat in den RDNA3 Release mit rein gezogen.

AMD kann den Schuldigen hierfür im Spiegel finden.
 
daknoll schrieb:
Es wäre aber interessant warum das so ist. Und seit wann.
Im Detail kann ich es dir jetzt aus dem Stegreif nicht sagen, aber Nvidias Treiber haben da einerseits wohl eine bessere Speicherverwaltung, bieten eine effizientere Komprimierung und kommen im Limit besser zurecht bzw. können fehlenden VRAM besser kaschieren als Adrenaline. Und das ist auch quasi "schon immer" so, will heißen auf jeden Fall seit Maxwell/Pascal. Aber erneut: Das ist halt ne Dreingabe beim Kauf einer GeForce. Wenn ich eine 4070 gegen eine 7700 XT stelle haben die auf dem Papier beide 12 GB, die GeForce dann aber de facto vielleicht 12,5 oder sogar 13 je nach Spiel, so hanebüchen sich das auch anhört. Mit der 7800 XT hab ich aber trotzdem viel mehr Luft.
 
Ayo34 schrieb:
Abgesehen davon kann (für mich) eine Einsteigerkarte keine 300€+ kosten.

Ja, schön. Die Realität sieht aber halt anders aus. Mittelklasse kostet bei nVidia mittlerweile ja auch 500-900€.

4060 und 7600 sind nun mal Einstiegsklasse. Darunter gibt es (derzeit) keine aktuellen Karten, also bestenfalls Last Gen Ultra-Low-Budget Karten wie die 3050 oder 6600.

Ayo34 schrieb:
Egal ob man ChatGPT fragt

Bei allem Respekt, aber das ist keine vailde Quelle. Auch CB spricht bei der 4060 von einer Einsteigerkarte.

Ayo34 schrieb:
was bringt mir 50% mehr Raytracing Leistung, wenn die GPU gerade mal so die Spiele mit der Rasterleistung schafft?

Habe ich doch ausgeführt. Raytracing wird mehr zum Mainstream Feature, also wird auch die Leistung im Mainstream benötigt. Davon völlig unabhängig hängt AMD halt hier hinterher, also hat man hier ja auch die meiste Arbeit vor sich, um zu nVidia aufzuschließen.

Ayo34 schrieb:
Schreibst du ja auch selbst, bei der 4060 macht Raytracing häufig keinen Sinn, also warum dann da Ressourcen verschwenden

Die 8800er Karten werden aber halt Mittelklasse, keine Einsteigerklasse. Und die Arbeit, um bei Raytracing aufzuholen, muss ja trotzdem gemacht werden. Ist ja nicht so, dass man das nur für bestimmte Preisklassen an- und abschaltet in der Chip Architektur...
 
  • Gefällt mir
Reaktionen: cbmik
Nuklon schrieb:
Nur Mittelklasse, nur Fokus auf KI und Raytracing? Wer soll da die Zielgruppe sein?
Das ist wirklich einer der absurdesten Kommentare des Tages. Die ganze Zeit wird darüber gesprochen, dass die Mittelklasse nicht bedient werde und dass dies ein riesiges Problem sei und dass Radeons bei starker RT-Nutzung zu deutlich einbrechen würden. Und was passiert, wenn sich um genau das gekümmert wird? Die Zielgruppe wird abgesprochen.

Was hingegen tatsächlich ein Problem ist: AMD ist zu spät. Etwa ein halbes Jahr. Sie müssen mal wieder vor Nvidia launchen und das ausnutzen, um Marktanteile zurückzugewinnen. Wenn sie gegen Karten auf GB205-Basis im Markt stehen, die dann schon GDDR7 nutzen werden, hat es Navi 48 schwer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Clonedrone, Apocalypse, Wintermute und 3 andere
Casillas schrieb:
Oh Mann. Wie kann man nur so eingebildet sein und denken, dass man weiß was „die Meisten“ denken. Bist du Politiker?
Du hast natürlich die Antworten, warum AMD trotz guter P/L bei Raster einfach weiterhin die Marktanteile verliert und warum v.a. marketingtechnisch Nvidia so viel besser da steht.
 
CDLABSRadonP... schrieb:
Was hingegen tatsächlich ein Problem ist: AMD ist zu spät. Etwa ein halbes Jahr. Sie müssen mal wieder vor Nvidia launchen und das ausnutzen, um Marktanteile zurückzugewinnen.

Da nVidia typischerweise erst die dicken Schiffe launcht, ist hier noch nichts zu spät. nVidia will im Mainstream auch erst die 4000er los werden, bis da Karten der xx60 (Ti) Klasse kommen, wirds noch ne ganze weile dauern.
 
  • Gefällt mir
Reaktionen: Ja_Ge
Tharan schrieb:
Du hast natürlich die Antworten, warum AMD trotz guter P/L bei Raster einfach weiterhin die Marktanteile verliert und warum v.a. marketingtechnisch Nvidia so viel besser da steht.
Kannst du die Behauptung dazu von Casillas eimal verlinken? Ich finde die nicht.
 
Casillas schrieb:
Wie kann man nur so eingebildet sein und denken, dass man weiß was „die Meisten“ denken.

Er hat doch Recht mit seiner Ausführung? AMD Grafikkarten haben ungerechtfertigter Weise einen schlechten Ruf, den sie auch nicht loswerden.

Hatsune_Miku schrieb:
Selbst wenn amd ne 5090 für 100€ anbieten würde, würde es nicht großartig was an der Marktrelevanz ändern

Japp, diese Einschätzung teile ich auch. Das letzte mal, als ich das geschrieben habe, wurde ich hier klein gemacht. :D

Vitche schrieb:
Nvidias Treiber haben da einerseits wohl eine bessere Speicherverwaltung, bieten eine effizientere Komprimierung und kommen im Limit besser zurecht bzw. können fehlenden VRAM besser kaschieren als Adrenaline.

Wobei ich die ersteren beiden nicht nachvollziehen kann. Dafür gibt es aus meiner Sicht einfach keine triftige Begründung. Speicher sollte ja wenn möglich immer maximal genutzt werden. Daraus ein ineffizienteres Speicher-Management abzuleiten halte ich für falsch.

Letzter Punkt erscheint mir dagegen durchaus plausibel, das scheinen ja dann auch die Benchmarks zu bestätigen. Das wäre etwas, woran AMD noch arbeiten könnte.

Aber wie Du schon sagst, wäre es einfach sinnvoller, wenn beide Hersteller deutlich großzügiger bei der Speicher-Ausstattung wären...

CDLABSRadonP... schrieb:
AMD ist zu spät. Etwa ein halbes Jahr. Sie müssen mal wieder vor Nvidia launchen und das ausnutzen

Nun, noch ist ja nicht mal gesichert, dass nVidia überhaupt zur CES etwas vorstellen wird, geschweige denn zeitnah veröffentlichen...
 
  • Gefällt mir
Reaktionen: cbmik
ben12345 schrieb:
Du hast doch ein Top System warum willst du so schnell schon aufrüsten wenn ich fragen darf. 5900 und ne 6900xt schaffen doch locker jedes Spiel und produktion sollte auch gut sein.
Schaffen ja, aber ich habe eine. 4K 120Hz Monitor. Und das ist schwer zu befeuern. Cyberpunk 2077 läuft z.B. mit FSR solide auf 90FPS, könnte aber deutlich besser aussehen.

Mir reicht die Leistung aktuell auch noch aus, aber mehr wäre durchaus drin.
 
  • Gefällt mir
Reaktionen: Child
Vitche schrieb:
Im Detail kann ich es dir jetzt aus dem Stegreif nicht sagen, aber Nvidias Treiber haben da einerseits wohl eine bessere Speicherverwaltung, bieten eine effizientere Komprimierung und kommen im Limit besser zurecht bzw. können fehlenden VRAM besser kaschieren als Adrenaline. Und das ist auch quasi "schon immer" so, will heißen auf jeden Fall seit Maxwell/Pascal. Aber erneut: Das ist halt ne Dreingabe beim Kauf einer GeForce. Wenn ich eine 4070 gegen eine 7700 XT stelle haben die auf dem Papier beide 12 GB, die GeForce dann aber de facto vielleicht 12,5 oder sogar 13 je nach Spiel, so hanebüchen sich das auch anhört. Mit der 7800 XT hab ich aber trotzdem viel mehr Luft.
Danke mal für deine Ausführungen.
Wie kann man das eigentlich objektiv messen und gibts da Tests dazu?
Ich meine 12GB sind 12GB, es kann also eigentlich nur um höhere Texturkomprimierung und/oder weniger Overhead dabei gehen. Was du dabei mit "fehlenden VRAM kaschieren" meinst ist mir nicht klar.
 
Wenn der VRAM überläuft, weil er schlicht und ergreifend nicht ausreicht, sind die Auswirkungen auf die Bildqualität und / oder die Leistung (je nach Spiel, GPU und Treiber) bei Nvidia oft weniger gravierend. Schön ist's dann aber bei allen Herstellern nicht mehr.
 
Zurück
Oben