Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsFortschritte bei Raytracing und AI: AMD bestätigt Radeon RX 8000 für Anfang 2025
25-30 Prozent, wie von ihm beschrieen, sind es in der Tat nicht. Aber je nach Spiel und Grafikkarte fällt auch uns beim Testen immer wieder auf, das Nvidia-GPUs insbesondere bei knappen VRAM besser damit umgehen können. Da treten dann bei 12 GB Probleme vielleicht noch nicht auf, die bei einer Radeon mit 12 GB schon auftreten. Den Schritt zu 16 GB macht das aber auf keinen Fall wett. Vielleicht reden wir hier von 10 Prozent, wenn überhaupt.
Selbst wenn amd ne 5090 für 100€ anbieten würde, würde es nicht großartig was an der Marktrelevanz ändern, für die meisten gibts nur das grüne, alles andere ist für die dreck, oft genug selbst mit erlebt, die finden immer eine ausrede das eigene Produkt in den Himmel zu loben.
Man hat es doch bei RDNA2 und Ampere gesehen, da hiess es immer nur RT hier und DLSS da, das die Ampere Karten eine total miese effizienz hatten, war da schei..egal. Und nun heisst es zb. bei RDNA3 "man haben die ne kack Effizienz"
Der großteil der grafikkartenkäufer hat so hart es einfach klingt ne grüne Brille auf.
Nicht vergessen, das ist next Gen, da sollte 4080 like Performance gehobene Mittelklasse sein und 4070 und 4070ti like Performance en rest der Mittelklasse abdecken.
Sprich wir sind dann eigentlich spätestens seit der 4070 super da, wo man auch in der Mittelklasse auch wirklich viel mit der RT Performance anfangen kann, imho natürlich.
Ist doch super das AMD jetzt dann auch die RT Performance liefern will, wo sie in der Mittelklasse nicht nur fürs Marketing wichtig wird.
Nein, was du sagst kann schon stimmen, den direkten Vergleich zwischen den Herstellern habe ich selbst leider nicht. Es wäre aber interessant warum das so ist. Und seit wann.
Es tut mir leid, dass ich mich aufgrund meiner Intelligenz, nicht besser Ausdrücken kann.
Ich hätte mich auch kurz fassen können in dem ich gesagt hätte.
Die Vorgehensweise von NV, im Punkt VRAM Management, gefällt mir besser, da ich keine lust auf Ruckler habe und matschige Texturen im WorstCase Szenario beim Volllaufen des VRAM bevorzuge, da ein häufiges Unterbrechen der Frames wie bei AMD, bei mir zu Kopfschmerzen und Übelkeit führt (Motion Sickness). Ich spiele mit hohen Details in 4k mit nur 12GB VRAM und hatte bisher bei AAA Spielen keine Framedrops. Ich bin mir sicher dass dies mit einer AMD Karte im WorstCase anders wäre.
Ich würde gerne nächstes Jahr meinen PC upgraden, aber aktuell lohnt es sich nicht von einer 6900XT, wenn ich nicht zu NVIDIA wechseln will... Sieht nicht so aus, als würde sich das nächstes Jahr ändern...
Du hast doch ein Top System warum willst du so schnell schon aufrüsten wenn ich fragen darf. 5900 und ne 6900xt schaffen doch locker jedes Spiel und produktion sollte auch gut sein.
Ich würd noch ein Jährchen länger warten.
Ich wollte eine 6800XT kaufen, nur waren die Scalper Preise jenseits von gut und Böse.
Erst als die RTX4000er Serie von NV schon breit verfügbar war, gingen die Preise für RDNA2 runter.
Der Abverkauf hat sich auch sehr ungünstig mehrere Monat in den RDNA3 Release mit rein gezogen.
AMD kann den Schuldigen hierfür im Spiegel finden.
Im Detail kann ich es dir jetzt aus dem Stegreif nicht sagen, aber Nvidias Treiber haben da einerseits wohl eine bessere Speicherverwaltung, bieten eine effizientere Komprimierung und kommen im Limit besser zurecht bzw. können fehlenden VRAM besser kaschieren als Adrenaline. Und das ist auch quasi "schon immer" so, will heißen auf jeden Fall seit Maxwell/Pascal. Aber erneut: Das ist halt ne Dreingabe beim Kauf einer GeForce. Wenn ich eine 4070 gegen eine 7700 XT stelle haben die auf dem Papier beide 12 GB, die GeForce dann aber de facto vielleicht 12,5 oder sogar 13 je nach Spiel, so hanebüchen sich das auch anhört. Mit der 7800 XT hab ich aber trotzdem viel mehr Luft.
Ja, schön. Die Realität sieht aber halt anders aus. Mittelklasse kostet bei nVidia mittlerweile ja auch 500-900€.
4060 und 7600 sind nun mal Einstiegsklasse. Darunter gibt es (derzeit) keine aktuellen Karten, also bestenfalls Last Gen Ultra-Low-Budget Karten wie die 3050 oder 6600.
Habe ich doch ausgeführt. Raytracing wird mehr zum Mainstream Feature, also wird auch die Leistung im Mainstream benötigt. Davon völlig unabhängig hängt AMD halt hier hinterher, also hat man hier ja auch die meiste Arbeit vor sich, um zu nVidia aufzuschließen.
Ayo34 schrieb:
Schreibst du ja auch selbst, bei der 4060 macht Raytracing häufig keinen Sinn, also warum dann da Ressourcen verschwenden
Die 8800er Karten werden aber halt Mittelklasse, keine Einsteigerklasse. Und die Arbeit, um bei Raytracing aufzuholen, muss ja trotzdem gemacht werden. Ist ja nicht so, dass man das nur für bestimmte Preisklassen an- und abschaltet in der Chip Architektur...
Das ist wirklich einer der absurdesten Kommentare des Tages. Die ganze Zeit wird darüber gesprochen, dass die Mittelklasse nicht bedient werde und dass dies ein riesiges Problem sei und dass Radeons bei starker RT-Nutzung zu deutlich einbrechen würden. Und was passiert, wenn sich um genau das gekümmert wird? Die Zielgruppe wird abgesprochen.
Was hingegen tatsächlich ein Problem ist: AMD ist zu spät. Etwa ein halbes Jahr. Sie müssen mal wieder vor Nvidia launchen und das ausnutzen, um Marktanteile zurückzugewinnen. Wenn sie gegen Karten auf GB205-Basis im Markt stehen, die dann schon GDDR7 nutzen werden, hat es Navi 48 schwer.
Du hast natürlich die Antworten, warum AMD trotz guter P/L bei Raster einfach weiterhin die Marktanteile verliert und warum v.a. marketingtechnisch Nvidia so viel besser da steht.