Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRDNA-4-Grafikkarten: PowerColor bringt Radeon RX 8000 in neuer Reaper Series
Viele davon werden aber genau diese 5090 durch die 4090 mit rund der Hälfte des 5090 Preises bereits finanziert haben.
Die kastrierte 5080 wird die 4090 Preise bei 1200-1400 Euro aufwärts (je nach Modell, meine 4090 Strix ist bereits für 1500 Euro reserviert bzw. schon verkauft ) gelocked haben auf ebay und Kleinanzeigen.
24 GB VRAM sind für die 5080 eine Hürde, an der letztere scheitern wird.
Die 5090 Strix kostet mich dann 2500 Euro - 1500 Euro = 1000 Euro.
Und 32 GB VRAM und die mit Abstand schnellste GPU (Ich rechne mit über 40%-45% avg fps Zuwachs gegenüber der 4090), die Indy dann wirklich mit 4K Pathtracing und DLSS Richtung 90 fps schiebt und im High End pcgaming 2025 und 2026 weiterhin alle Regler auf Ultramax garantiert für netto 1000 Euro ?
Aber gerne doch.
Wie Du sagst, andere Hobbys sind wesentlich teurer, es ist nicht mal knapp. Je nach persönlicher Situation.
Davon abgesehen wünsche ich mir, dass AMD beim Raytracing ebenfalls zulegt!
@Laphonso Mag für dich alles OK sein, wenn die Kohle da ist, solltest aber auch bedenken, dass nicht jeder die fette Kohle nach Hause schleppt und jedes Jahr 1000,-€ + in den Gaming PC stecken kann oder will.
Was das Raytraing Thema angeht, würde ich für meine Teil sagen, dass AMD damals teilweise schon recht hatten, als sie zu Anfang des RT (Nvidia 2000er und 3000er Serie) sagte, dass es jetzt noch keine Priorität hat, denn das RT der Spiele in dieser Zeit war wirklich zum allergrößten Teil Gimmicky.
AMD hat es dennoch leicht verpennt und hätte in der 7000er Reihe im RT aufschließen sollen, denn dort war auch für viele Gamer das Thema langsam relevanter.
Ich bin gespannt auf die 8800XT und auch was Intel mit der B770 bringt, denn die B580 ist wirklich nen guter Wurf geworden.
Würde ich nur machen, wenn ich für 2/3 des Preises der 5090 für die 4090 bekomme.
zB 1600€ für die 4090 und 1800-2000€ für die 5090.
Wäre sogar bereit die 4090 im Januar oder jetzt zu verkaufen und bis zum Sommer ohne GPU zu warten. Im Sommer sollte eine 5090 dann auch für 1700-1900€ zu haben sein.
@Laphonso Mag für dich alles OK sein, wenn die Kohle da ist, solltest aber auch bedenken, dass nicht jeder die fette Kohle nach Hause schleppt und jedes Jahr 1000,-€ + in den Gaming PC stecken kann oder will.
Ich spreche auch über die 90er GPU Klasse als top end Tier. Das ist doch a priori für eine ganz spezielle Klientel.
Niemand braucht eine 4090 oder 5090 für PC Gaming. Zum Glück.
Für den "Mainstream" kann AMD nun jetzt vielleicht mal endlich das 250-500 Euro GPU Segment bedienen, um Marktanteile zurückzuerobern. RDNA 4 hat durchaus Chancen, und das High End auszulassen für eine Generation kann ja schlau sein, wenn sie sich bei dem großen Rest endlich mal besser positionen und das Feld nicht wieder den 3060er/4060er/5060er und 3070er/4070er/5070er überlassen.
RDNA 4 hat durchaus Chancen, und das High End auszulassen für eine Generation kann ja schlau sein, wenn sie sich bei dem großen Rest endlich mal besser positionen und das Feld nicht wieder den 3060er/4060er/5060er und 3070er/4070er/5070er überlassen.
Du hast da leider eine Sache aus dem Blick verloren: egal mit was AMD jetzt kommt, Nvidia wird aufgrund der größeren R&D Abteilung und den höheren Ressourcen immer einen Zacken drauflegen um besser zu sein. Das haben sie mit den Super Karten der 4000er Generation so gemacht und das werden sie weiter so machen. Oder meinst du, AMD lässt diese Lücken freiwillig offen?
Haha^^ Nein, will ich ja nicht. Ich gebe nur zur Bedenken, was man von AMD´s IPC Sprüngen diskutiert hat.
Irgendwann waren es glaube ich gut 20% in den Spekulationen, dann gab AMD 16% an und letztendlich waren es etwa 10%, sofern man Spiele mitzählt.
Wenn ich jetzt rein nach den Spezifikationen gehe, dann hat RDNA 4 ~ 6% mehr Cores als die 7800XT.
Geht man dann von den Taktraten Richtung 3Ghz, bzw. nehmen wir 3GHz an, ist das ausgehend von 2400Mhz was die 7800XT so im Schnitt packt eine Steigerung von 25%.
Rechnen wir noch 5% IPC Steigerung mit drauf, stehen wir am Ende bei ~36% theoretischer Mehrleistung.
Schaut man in den aktuellen Parcour ist die 7900XT 34% in UHD+FSR vor der 7800XT.
Da Takt Cores und IPC sicherlich nicht 1:1 durchschlagen, landet man wohl bei irgendwo um 30%.
Bzw. ob es überhaupt mehr IPC gibt, halte ich für fraglich.
Man bewegt sich also irgendwo zischen 25 und 35% was die Möglichkeiten betrifft und ich halte bei einer sehr hohen density und der kleinen Chipgröße etwas zwischen 25 und 30% für am wahrscheinlichsten.
Wenn man nun ein Schelm wäre könnte man sagen, die Karte ist eher eine 8700XT, als denn eine 8800XT, schließlich stagnieren im Endeffekt die Rechenwerke. Genau das gleiche sieht man bei Nvidias 5080/5070Ti und 5070, auch eine Stagnation, während es bei der 5090 wieder ordentlich voran geht.
Irgendwann lässt Nvidia die untere Mittelklasse gegen AMDs Topmodell antreten wenn das so weiter geht.
DevPandi schrieb:
Damit die 8800 XT annähernd an die RTX 4080 Super kommt, muss bei RDNA 4 verdammt vieles richtig laufen und selbst dann ist das mit einem verdammt großen Aber verbunden.
Aus meiner Sicht, kann man sich dieses 8800XT annähernd auf RTX 4080 Super Niveau halt komplett klemmen.
Laut aktuellem Test müsste man da 60% zulegen. Woher soll das denn kommen?
DevPandi schrieb:
Egal wie man das hier an der Stelle dreht und wendet, die aktuell realistischerne Ziele sind 7900 XT bei Rasterizer und 4070 Ti (mit viel Mühe vielleicht sogar 4070 Ti Super) bei RT.
"Realistisch" wäre man eher unterhalb der 7900XT und mit RT etwa auf 7900XTX Niveau.
Man hat ja auch noch ein TDP Limit zu bewältigen. Und ob man den kleinen Chip auf 3Ghz presst halte ich auch für sehr fraglich.
Ergänzung ()
Serandi schrieb:
RT/PT ist reiner Schwachsinn und benötigt immer noch viel zu viel Aufwand, selbst für eine 4090!
Wenn man nicht wüsste, dass du das nicht ernst meinst, dann würde ich fragen ob ich mir den Spruch in die Signatur packen kann. 😄
Serandi schrieb:
Das sage ich als 4090 Nutzer und möchte evtl bald wieder zurück zu AMD und wenn's nach mir ginge, würde ich AMDs GPUs komplett ohne die Fähigkeit RT/PT darzustellen entwickeln. 😃🙌🏻
wir hatten 2007/2008 GeForce Grafikkarten die da hießen: GeForce 8800GT / / 8800GTS / 8600GT / 8600GTS / 8800GTX / 8800 Ultra...
frag mich, warum sich nVidia und AMD/ATi ständig bei den Bezeichnungen abwechseln müssen.
Das tun sie hier ja wirklich, sie klinken sich aus dem High-End, und das macht Sinn, solange sie nicht wieder einen "6900XT Moment" wie Ende 2020 haben und wirklich soweit auf Augenhöhe waren mit der 3080 und 3090 (minus Raytracing).
Wenn sie gute Allrounleistungen zu einem guten Preis anbieten und wirklcih im 60er und 70er Segment wildern, sehe ich für RDNA4 Potenzial. Zur PS6 erhoffe ich mir dann ein RDNA5 Fundament, das auch "oben" im Spektrum wieder angreift.
Ergänzung ()
Serandi schrieb:
@Quidproquo77
Ich meine es ja sogar ernst✅ kannst du gerne in die Signatur packen😆🙌🏻
Das Ding ist, dass die devs durch Raytracing weniger Arbeit haben. Arbeit macht das olle pre baked GI, Shadow und Reflection Zeug der Engines, die in Manufaktur hier viel designen müssen.
Indiana Jones zeigt wo die Reise hingeht. Raster ist am Ende, das Delegieren der gesamten Prozesse auf die GPU qua Engine ist das, was sich durchsetzen wird. Weil es billiger ist an Ressourcen und Geldinvestment.
Well, they are a flat non-transparent texture. However roughly within them we place a separate camera. Said camera is sitting at a completely different angle and essentially generates a new image. Then we take said image and set it as a texture inside your mirror.
Annoying but feasible. So how would we do an endless number of reflections (like two mirrors next to each other?). Well, uh, you can't. Or rather - you do it by hand by essentially copy pasting your image through code.
Our current hardware is still few generations behind from true real time raytracing. So instead we have to be very, very strategic and rely on hybrid rendering pipelines where raytracing is inserted at specific places rather than just throwing previous system to trash and using it for everything.
To give you a sense of scale - RWBY team has a nice little render farm of 40 high-end GPUs. It also takes around 30-40 minutes per frame to render. This is kiiiinda unacceptable for video games for now.
So probably most demanding use case in video games for now is global illumination. Aka knowing how much light should be in a given scene. This is really hard to do properly, especially with dynamic light sources. Hence why a lot of games suddenly turn super dark when you enter caves rather than do it smoothly as you descend. Global illumination is essentially shooting rays from the camera and seeing where they land (after generally reflecting few times). So you get up to date and easily accessible information. Catch is that we have to be strategic and have a limited number of said rays at the moment. But once these limitations are gone - goodbye baked lights.
There are other effects possible too - reflections/refractions are one. Realistic shadows are another. We can "fake" something that looks half decent with enough work but it takes a lot of difficulty.
Grafikdevs haben längst beschrieben, dass Dein Szenario nicht der Realität entspricht, Serandi.
Raytracing als Technik ist nicht das Problem. Das Problem sind die zu schwachen GPUs, aber mit Nvidia kommen wir in die 4te RT Generation. Der Prozess läuft längst.
Ich zitiere Junying Wang aus 2019:
Since rasterization is extremely fast, so it has been a good option for video game graphics for a long time. However, as current technology begins to bump against its limits like color limitation, more advanced techniques should be taken into consideration. So here comes one break through of the next rendering level: the ray tracing technique. Ray tracing looks far more realistic than rasterization.
Rasterization ist technologisch am Ende und limitiert, wenn es darum geht realistisch zu wirken.
Siehe UE5, das Kompromomissfeuerwerk durch Lumen und Nanite zeigt, dass die Reise nur noch Richtung Raytracing und Pathtracing geht im AAA gfx design und Gaming.
Auf reddit wird darüber diskutiert, ob die kommende 8800 XT nicht doch nur 7900 GRE Niveau erreichen wird, was man bei der Anzahl der Stream Prozessoren auch eigentlich nur erwarten kann. Denn die 7900 GRE hat davon 5120, die 8800 XT dagegen nur 4096, bei der 7800 XT sind es 3840. Geht man weiterhin davon aus, dass hauptsächlich nur die Ray Tracing Leistung gestiegen ist, und weniger die Raster-Leistung, liegt man auf jeden Fall mit dem Vergleich zur 7900 GRE richtiger als wenn man die neue Karte mit der 7900 XT vergleicht - die hat nämlich 5376, selbst bei verbesserter Architektur wird es nicht zum Wunder kommen.
Hab auch schon vor Monaten das Gerücht gelesen/gehört (und hier schon paar mal geschrieben), dass die Leistung einer 8800XT zwischen 7900GRE und 7900XT (in RR) liegen soll und mit RT zwischen einer 4070 Super und 4070Ti (non Super).
Und jetzt erst neulich kam jenes auf mit "bis zu 4080 Niveau" in RR und RT ?!?
Da ist die Enttäuschung / das Entsetzen ja schon vorprogrammiert ...
Nach oben hin stimme ich dir zu. Aber solche Refreshs wie die Super Karten von Nvidia in der mittleren Riege hat es in den vergangenen Jahren von AMD nicht gegeben, und die habe ich gemeint. Ich zweifle auch dran, dass die sowas bringen.
AMD fehlt die Nvidia Penetranz des Refresh-Melkens ;-) Die schlachten diese Marktdominanz natürlich komplett aus.
Daher glaube ich persönlich, dass AMD am meisten wildern kann im "midrange" Markt, auch wenn der Begriff dehnbar ist.
Da suchen Leute keine 4K Raytracing GPU, sondern full hd und 1440p Gaming mit 60 fps bis 120 fps und High Settings im klassischen Raster Segment auch bei neuen AAA Games und schalten gerne FSR Boost hinzu, wenn man das für , sagen wir mal.... 250 bis 400 Euro, je nach VRAM und Performance in den Modellen, bekommt.
Die Aussage unterstütze ich einfach mal so.
RT/PT können ein Spiel hübscher machen, falls vernünftig implementiert, aber was bringt mir das, wenn Gameplay und/oder Story komplett langweilig sind?
Ist eher zu vergleichen mit den Streuseln auf dem Eis, die würde auch niemand separat essen, werten aber das Dessert auf.
Du weißt aber schon, dass dies eine Milchmädchenrechnung ist ?!?
Wenn z.B. für Deine 4090 2000 € bezahlt hast und 2500 € für die 5090, hast 4500 € (!) ausgegeben !
Minus die 1500 € für den Verkauf der 4090 sind dann insgesamt 3000 € (im Schnitt 1500 € pro Karte).
Zu dem Preis gab es die 4090 schon mal neu käuflich zu erwerben.
Aber ja, man kann sich alles schön rechnen ...
Ergänzung ()
coxon schrieb:
Nach oben hin stimme ich dir zu. Aber solche Refreshs wie die Super Karten von Nvidia in der mittleren Riege hat es in den vergangenen Jahren von AMD nicht gegeben, und die habe ich gemeint. Ich zweifle auch dran, dass die sowas bringen.
Das Ding ist, dass die devs durch Raytracing weniger Arbeit haben. Arbeit macht das olle pre baked GI, Shadow und Reflection Zeug der Engines, die in Manufaktur hier viel designen müssen.
Aktuell noch irrelevant, da für die Konsolen entwickelt wird, welche für die nahe Zukunft nicht zu Full RT in der Lage sein werden.
Dementsprechend kann und wird immer noch beides entwickelt.
... full hd und 1440p Gaming mit 60 fps bis 120 fps und High Settings ... wenn man das für, sagen wir mal.... 250 bis 400 Euro, je nach VRAM und Performance in den Modellen, bekommt.
Momentan kann man das für 500 Schleifen haben. Weniger wäre wünschenswert, aber etwas unrealistisch. Zumal WQHD auch gut Leistung braucht wenn mans schick haben möchte.
Dafuq. Glatt vergessen. War aber nur die 6000er Gen. Bei den 5000er auch. Aber das war noch ne andere Zeitrechnung. ^^
Die GRE Karte ist kein Refresh, sondern Resteverwertung der XT Dies, zumindest wenn es um die 7900GRE geht. Gab es noch andere GRE Modelle? Ich kann mich nicht erinnern.
@SweetOhm
Kein Wunder, dass mir das nicht in Erinnerung blieb, so uninteressant wie die Karte ist.
@Laphonso
Wenn man das so sieht, hab ich direkt zum Release der 7800XT auch "nur" 490€ bezahlt weil ich meine 5700 noch für nen Hunni los geworden bin. Win.
War mir schon klar, dass genau diese Argumentation kommt. Bleibt aber trotzdem eine Milchmädchenrechnung, da ja irgendwann mal in dieser Kette am Anfang eine Vollinvestition getätigt hast !
Als Vergleich (ja, ein jeder hinkt) : wenn ich behaupten würde "meine" 4090 war nicht teuer, weil ich von Oma 1000 € dazu bekommen habe ...
Mein Spezi hat auch immer gesagt, dass er sich das neue Motorrad selber gekauft hat.
Was auch stimmte. Aber jedem verschwiegen, dass es von dem Geld vom Verkauf des "alten" Motorrades war,
jenes er zu seinem 21. Geburtstag von seinen Eltern geschenkt bekommen hat.