Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD

Laphonso schrieb:
Komm mein lieber, Dein brutal OC 2080TI braucht eine Nachfolgerin. Na? Naaaaa? :D
Du kennst mich einfach zu gut ;) Das ist tatsächlich der Hauptgrund, warum ich aktuell am überlegen bin :D
Würde gerne auch mal wieder an einer AMD basteln.
 
  • Gefällt mir
Reaktionen: Laphonso
Ich denke und nehme an das AMD bewusst die Preise aufruft und nicht mehr. 1000 $ ist halt eine Magische Grenze da viele Nutzer nicht bereit sind mehr zu bezahlen. Über 90 % kaufen eh Einstieg bis Mittelklasse bei PC Hardware. Geld( Umsatz) kommt durch die Masse rein und nicht durch wenig Leuchttürme. Geld ist bei den Käufern nicht unendlich da und soll noch bezahlbar bleiben. Das Nivida alles nimmt von den Enthusiasten ist nichts neues und das wird immer so bleiben.
 
Ragnarök88 schrieb:
Und wieso genau enttäuscht Ada Lovelace auf der Hardwareseite während RDNA3 überzeugt? Gibt es dafür irgendwelche plausiblen Begründungen?
Bevor ich auf deine Frage eingehe, markiere ich noch mal die entscheidenden Punkte und dass es nur um meine Meinung geht:
DevPandi schrieb:
Ich für mich kann nur sagen: Ada ist eine tolle Karte, die mich "technisch" auf Hardwareseite enttäuscht hat, gleichzeitig aber auf Softwareseite mit DLSS 3 - auch wenn ich kein Fan davon bin - überrascht hat.
Ada ist weitgehend ein verbessertes Ampere-Design. Bisher hat NVIDIA in jeder Generation deutlich mehr umgebaut, als mit Ada. Ada kann man - provokant - als Ampere 2.0 bezeichnen, sowie man damals Pascal als Maxwell 3.0 bezeichnen konnte, weil der Grundaufbau gleich geblieben ist.

Was sich bei Ada zu Ampere geändert hat, ist der RT-Kern sowie der Tensor-Kern, primär also Evolution und das war zu erwarten. Ada hat aber immer noch die Probleme, die bereits Ampere hatte: NVIDIA kann die SM nicht wirklich effektiv auslasten und es bleibt sehr viel Potenzial/Rechenleistung auf der Straße liegen. Ich habe gehofft, dass NVIDIA bei Ada die Auslastung besser in den Griff bekommt.

Die interessante Änderung an Ada an den SM ist Shader Execution Reordering (SER), das manche als große Innovation ansehen, mancher Experte setzt es sogar mit Out-Of-Order bei den CPUs gleich. Was aber an der Stelle nicht so stimmt - man sollte vielleicht das Whitepaper zu SER durchlesen. Das heißt, die interessantes Änderung, die manche Experten der Hardware zu schreiben, ist eher eine Änderung auf Software-Seite. Natürlich muss der Scheduler damit auch umgehen können, aber es ist nicht so, als dass hier die Hardware nun die Shader selbstständig umsortieren kann, was ja Out-Of-Order eigentlich bedeutet! (An der Stelle mal kurz noch erwähnt: Hier merkt man, dass manche Experten zwar wirklich gut sich mit Hardware oder besser Elektronik auskennen und verdammt gute Tests machen, dass es aber auf Informatikebene dann doch fehlt und daher man SER mit OoO gleich setzt.)

Deswegen auch: Auf der technischen Hardwareseite ist für mich Ada enttäuschend, es ist ein verbessertes Ampere-Design, mit der nächsten Generation an RT-Kernen und der nächsten Generation an Tensore-Kernen, aber das war bekannt.

Auf Software-Seite wiederum finde ich NVIDIA dieses mal sehr spannend - hier enttäuscht mich wiederum AMD: DLSS3 ist eine Überraschung und Frame-Generation ist softwaretechnisch absolut interessant. Ich sehe zwar DLSS 3 kritisch, weil es Bilder "erfindet" und man damit mehr Frames vorgaukelt, als am Ende wirklich gerendert werden, was sich auch, gerade in MP-Spielen negativ auf die Latenz auswirken kann. Und ebenso finde ich SER interessant, weil hier den Entwicklern noch mehr Kontrolle geben wird und Entwickler auch ihre Aufgaben - ganz im Sinne von Asynchrione-Shader - auch Aufgaben bündeln können um die Rechenleistung effektiver zu nutzen!

AMD ist auf der Hardware-Seite interessanter. Die Vec32 werden Dual-Issue fähig, was meint AMD damit? Wie erreicht AMD das, was passiert da? Hier wird man auf das Whitepaper warten müssen. AMD bringt nun auch Tensorekerne/Matrix-Kerne, was sind die imstande zu leisten? Bei NVIDIA weiß ich das - ja es ist eine neue Gen, aber im groben ist es bekannt. Dann kommt dazu, dass AMD das SI ausgelagert hat mit dem Cache, auch hier ist es interessant, was da genau passiert ist. Ich kann es also kaum erwarten das Whitepaper zu lesen um zu wissen, was da auf Hardware ebene kommt.

AMD enttäuscht mich dieses Mal aber auf Software-Ebene, sie kündigen ein DLSS 3 Konkurrenten an und das war es. NVIDIA hat hier mit SER auf Software-Ebene viel mehr angekündigt und DLSS 3 war zuerst da.

AMD hat die interessantere Hardware, weil entweder das erste bei bei AMD in der Hardware, oder die Lösung interessiert. Dafür hat AMD auf Softwareseite enttäuscht. NVIDIA hat lässt mich auf Hardwareseite kalt, dafür finde ich die Software spannender.
 
  • Gefällt mir
Reaktionen: .Sentinel. und pipip
DevPandi schrieb:
Ach, die 3090 ist im Mittel 30 - 40 % vor einer 6900 XT und einer 6950 XT? Hier der Stein des Anstoßes:
Ja gemittelt. Mit RT und Raster im aktuellsten CB Vergleich. Ich trenne das nicht voneinander.

https://www.computerbase.de/2022-10...view-test/2/#abschnitt_benchmarks_in_ultra_hd

Okay es sind 29% , mit dem neuen Treiber wohl ~ 33% in dem Vergleich, der auf der 3090 Ti 4% gebracht hat.
Aber dennoch ist es auf jeden Fall realistischer das als Einschätzung zur Leistungsfähigkeit anzugeben als immer zu sagen ohne RT. RT ist längst ein Standardfeature was es zu Turing und Ampere noch nicht war, weil die Softwarebasis fehlte.

Mit RT sind es in dem Parcours dann 50%.
Mit neuem Treiber mehr.
Also deine 20 bis 30% genau die Hälfte dessen. Bei PCGH sind es sogar 60%.

Es ist auch völlig irrelevant ob man nun die Werte etwas zugunsten AMD oder Nvidia verdreht. Einen völlig neutralen Vergleich wird man nie bieten können.

Rein prinzipiell kann man aber sagen, dass weder RDNA 2 noch RDNA3 an die Leistung von Ampere bzw. Ada Lovelace herankommen, es sei denn man schlägt sich auf eine Seite und versucht einen Hersteller durch Weglassen in ein besseres Licht zu rücken.

Das ist aber spätestens jetzt vorbei.
Die reine Rasterleistung wird im High End Bereich keine Rolle mehr spielen.
Selbst Mobile Chips bekommen RT fähige Hardware.
 
Wichtig ist doch, welchen Abstand in Euro die nächstschwächeren RDNA3 haben, also dann im dreistelligen Bereich und welche Leistung sie in den unteren Auflösungen erzielen.
 
  • Gefällt mir
Reaktionen: Volvo480
ALDeeN1982 schrieb:
Hat RT?

Ok. Na müssen wir präziser kommunizieren. Aber gibt auch kaum Singleplayer Spiele wo ich das jetzt unbedingt haben will. 2077 und Metro längst durch... Mal schauen ob irgendwann mal was kommt was wirklich geil ist.

Mfg
 
DevPandi schrieb:
Jetzt sind die 65 % zugeben, eher die obere Grenze, nur legt RDNA auch nicht von 5120 auf 12888 Shader zu, sondern nur auf 6144.
Weil man eben vor Launch keine harten Daten hat, außer wenige Leute die in dem Bereich arbeiten und sich dann entsprechend über diese Einschätzungen lustig machen. *Wink

Es ist doch nun seit den VLIW - Shadern bekannt, dass die theoretische Rechenleistung wenig über die tatsächliche aussagt und dass die 60 bis 70% welche eine 4090, die kein Full Chip ist, auf die 3090 Ti drauflegt n Haufen Holz ist. Da muss man ja kein Hellseher sein um zu verstehen, dass AMD das nicht einfach überflügeln kann.

Selbst die 40 % die AMD auf die 6950x in der Konsequenz drauflegt, sind eine solide Generation, wenn man sich an Vega zurückerinnert.

DevPandi schrieb:
Ich gehe an das Thema RDNA 3 seit den ersten Gerüchten sehr differenziert heran.
Ich lese mir doch nicht alle Beiträge durch, wo du evtl etwas anderes gesagt hast. Ich beziehe mich konkret auf die Minimum 65% Aussage.
 
Ragnarök88 schrieb:
Selbst Mobile Chips bekommen RT fähige Hardware.
Da bekommst du dann nur rudimentäres Raytracing in Ultralow. Selbst die "Nextgen" Konsolen bei denen mit Raytracing geworben wurde liefern nur ein trauriges Bild ab, sieht man beim Vergleich der Reflektionen von zB. Spider-Man auf PS5 und PC.

https://preview.redd.it/29nsybmwmjh...bp&s=da1ca52ab98ef3f6302c046de7ab4e25e62f1d89

Interessanterweise verliert AMD mit seiner 6800XT die ca. gleich schnell wie eine 3080 ist nur 15% Performance gegen Nvidia in Spider-Man bei 4K Auflösung lt. CB. Ist allerdings auch heftig darauf optimiert, in der PS5 steckt schließlich AMD Hardware und das RT von Spider-Man ist nicht so hardware-intensiv wie bei CP2077.
 
  • Gefällt mir
Reaktionen: Ragnarök88
Ich hoffe dass die neuen Karten die Preise der 4090 drücken, dann gönn ich mir auch eine. 😆🤦‍♂️
 
Laphonso schrieb:
Hardware Raytracing auf Konsumer/Gaming GPUs ist der Türöffner für bessere und realistische Grafik und kann nicht durch Software ersetzt werden.
Das sieht jetzt in Minecrraft um ehrlich zu sein anders aus, die Software Shader sehen zumindest für mich realistischer aus (und hardware hungriger) als die RTX Minecraft Version die hoffentlich mehr auf RT Cores setzt.

Ich finde auch an sich hier die Unterscheidung von Software und Hardware Raytracing nicht zielführend.
Auch Software Raytracing läuft auf Compute Hardware, die Frage ist hier einfach nur wie gut, wie schnell und welche Raytracing Verfahren alle tatsächlich auf welche Hardware besonders schnell laufen.
'
Zumindest meinen Verständnis nach ist Nvidias stärke bei der Hardware ohnehin das AI-Denoising, das eben erst real-time Raytracing auf so schwacher Hardware möglich macht, weil aus relativ wenig strahlen das Bild dann sehr gut rekonstruiert werden kann. Anyway, falls jemand da mal ein tollen Artikel dazu hat was die RT und Tensor Cores so alles dieser Tage machen, würde ich mich gerne schlauer machen. Die RT Cores tragen ja sicher auch etwas bei, sonst wäre ja nicht soviel vom Chip nur das.

Ragnarök88 schrieb:
Dann bin ich gespannt wie du zukünftige Spiele mit dieser Karte dann zocken willst, wenn RT Vorraussetzung ist, dass das Spiel überhaupt funktioniert bzw. elementare Bestandteile davon abdeckt.

AMD sieht ihre Karten nur als Konkurrenz zur RTX 4080...

Wenn das passiert, das eine 4090 reicht, aber eine 7900xtx nicht genug RT Leistung mehr hat, dann freu ich mich wahrscheinlich tierisch darüber das die 7900xtx 10 Jahre durchgehalten hat ohne abzurauchen und frag meine Tochter ob ich das eine Spiel auf ihrer 9800xt spielen kann ;-)
Die 4090 ist viel zu teuer als das irgendwer ein Spiel für genau diese Karte und nur diese Karte machen würde und gleiches gilt auch für die 4080. Und die 79000xtx ist viel zu billig als das in der übernächsten Konsolen Generation noch relevant wäre was man für sie ausgegeben hat und ob noch Spiele gut auf ihr laufen oder nicht.
Davon ab würde ich den Tag an dem ein Spiel komplett ohne Rastergrafik raus kommt aber durchaus feiern, besonders weil es wahrscheinlich ein Indie Titel sein wird. Aktuell gibt es iirc nur Quake II und Minecraft als mit einem kompletten path tracing Renderpfad, oder? Beides Games die nicht nur selbst auf der 6000er Serie laufen, sondern auch noch Rastergrafik Alternativen haben. Mal ganz davon ab, das beide Titel uralt sind. ;-)
Ergänzung ()

DevPandi schrieb:
Welches Spiel setzt denn aktuell RT wirklich voraus - mal Metro: Exodus in der erweiterten Fassung weggelassen? Quake 2 RT, wenn man Quake 2 spielen will, geht aber auch die alte Fassung, auch wenn sie beschissen aussieht.
Nix gegen RTX Quake, da sieht man so richtig was Raytracing selbst als minimalistischer Grafik machen kann, aber so schlecht sieht Quake 2 XP jetzt auch nicht aus. :D

RTX off
Gerade bei den Outdoor Szenen sieht man wie leicht man mit Raytracing die Bildqualität verbessern kann, aber imho sieht Quake 2 dank Mods auch heute noch ganz funktional aus, selbst ohne Raytracing. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Illithide
Was mir bei der
th3o schrieb:
Ich sitze ca 2m von meinem 55" LG OLED entfernt und 4k ist knackscharf und das wäre es auch in 65" was ich schon riesig finde als Einrichtungsgegenstand. Wenn ich mir jetzt vorstelle dass ich einen 70+" TV holen würde nur damit 8k Sinn ergibt
Ich sehe das ähnlich, hab nen 28" 4K Monitor bei einem Meter Abstand, das ist praktisch identisch zu 55" bei zwei Meter. Näher will man in beiden Fällen wahrscheinlich auch nicht rangehen, weil man sonst nicht mehr das ganze Bild im Blick hat. Ich denke 4K ist ein guter Sweet Spot für ein Display, das möglichst das Blickfeld füllen soll (aber nicht größer ist als das Blickfeld).
Umgekehrt heißt das ja auch, dass man bei dem noch größeren Display auch eher noch mehr Abstand haben will, sodass 4K auch da wieder reicht
 
Apocalypse schrieb:
[...] falls jemand da mal ein tollen Artikel dazu hat was die RT und Tensor Cores so alles dieser Tage machen, würde ich mich gerne schlauer machen. Die RT Cores tragen ja sicher auch etwas bei, sonst wäre ja nicht soviel vom Chip nur das.
[...]
Ich fand damals das Whitepaper zur Nvidia Turing-Architektur sehr interessant. Darin werden u.a. die Grundfunktionen von Tensor- und Raytracing-Cores gut beschrieben.
 
  • Gefällt mir
Reaktionen: Apocalypse
  • Gefällt mir
Reaktionen: derbe und msv
Ragnarök88 schrieb:
Rein prinzipiell kann man aber sagen, dass weder RDNA 2 noch RDNA3 an die Leistung von Ampere bzw. Ada Lovelace herankommen, ...
Du wirfst mir ein zu positives Bild für AMD vor, ich kann dir an der Stelle aber auch erneut ein zu negatives Bild für RDNA3 vorwerfen und zu AMD.

Ja, du hast recht, je nach Webseite ist RDNA teilweise bis zu 50 - 60 % im Parkour hinter Ampere, was RT angeht, aber betrachten wir doch mal die Spiele und das Erscheinungsdatum:

SpielDatumVorsprung RTX 3090 zu 6900 XTRDNA2 auf dem MarktEntwicklungspartner für RT/PC-Version
Cyberpunkt 2077Dezember 202070 %1 MonatNVIDIA
DeathloopSeptember 202140 %10 MonateNVIDIA
Doom EternalJuli 202160 %7 MonateNVIDIA
Daying Light 2Februar 202244 %1 Jahr, 2 MonateNVIDIA
F1 22Juni 202250 %1 Jahr, 5 MonateNVIDIA
Far Cry 6Oktober 20213 %9 MonateAMD
Ghostwire TokyoMärz 202230 %1 Jahr, 4 MonateNVIDIA
Guardians of GalaxyOktober 202180 %10 MonateNVIDIA
Metro Exodus (RT-Auflage)Mai 2130 %6 Monate-
Metro Exodus (Alt)201922 %-NVIDIA
Saints RowAugust 202225 %1 Jahr, 9 Monate-
Spider-Man RemasterdAugust 202218 %1 Jahr, 9 monate-
Metro-Exodus habe ich jetzt mal mit aufgenommen, weil es für mich an der Stelle wichtig ist. Es ist richtig, dass AMD bei RT eine Schwäche hat, die sollte man auch nicht unterschlagen, aber sieht man sich die Spiele bei Computerbase und ebenso bei PCGH und Co an und betrachtet die Entwicklungspartner der Spiele, dann sollte dir etwas auffallen: Für die RT-Implementierung in den meisten Spielen zeigte sich bisher NVIDIA verantwortlich, das ist auch nicht verwunderlich, hat doch NVIDIA seit 2018 entsprechende RT-Hardware auf dem Markt, während AMD erst Ende 2020 nach gezogen ist.
Es zeigt sich aber gerade bei "neueren" Spielen - gerade die Spiele seit 2022 - dass sich der Abstand zwischen 6900 XT und 3090 in RT durchaus reduziert, während gerade Spiele, die 2019, 2020 und auch teilweise noch 21 klar den NVIDIA-Karten besser liegt.

Ordnen wir die Spiele nun mal nach 2020/2021 und 2022 verschiebt sich das Bild etwas:
JahreVorsprung gemittelt
2019/2020/202146,5 %
202233,4 %
Wenn wir weitere Spiele betrachten, z.B, Resident Evil, dann liegt hier die 6900 XT ca. 20 % zur 3090 zurück. Ich will hier also jetzt nicht die Abstände beschönigen, diese Abstände sind vorhanden, man sollte nur beachten, dass sowohl NVIDIA als auch AMD mitunter unterschiedliche Implementationen bei RT verfolgen und NVIDIA ca. 3 Jahre Vorsprung hat und NVIDIA gerade auch 2018, 2019 und 2020 wesentlich mehr Ressourcen zur Verfügung hatte und Spieleentwickler deutlich besser unterstützt hat.

Es ist bei DXR also sehr stark davon abhängig, ob die Entwickler auch von AMD unterstützt wurden und wann die jeweilige DXR-Implementation in den Spielen stattgefunden hat.

Wenn man wirklich differenziert an diese Thematik herangeht, dann ist der Vorsprung von NVIDIA bei RT auf jeden Fall vorhanden, den kann man nicht Weg diskutieren, es ist aber eben auch nicht die Vollkatastrophe, die du hier versuchst darzustellen.

Hier werft immer allen, die gegen euch "argumentieren", dass sie entweder NVIDIA-Hater sind oder Pro-AMD und nur ihr ja mit "realistischem" Blick an die Sachen herangeht, dabei erwarte ich gerade von Leuten, die sich für kritisch und sachlich halten, dass sie eben wirklich differenziert an ein Thema herangehen und dann sich in der Argumentation auch mal mehr Mühe machen, als nur ein paar Mittelwerte von ein zwei Seiten zu betrachten und ins Feld zu führen, sondern wirklich sich kritisch mit dem Thema befassen, und dazu gehört es eben auch, dass man mal nicht nur ein Mittelwert nimmt oder die absolut negativen und positiven Beispiele, sondern diese Werte auch mal aufbricht.

Lies dir mal deine eigenen Beiträge durch und reflektiere mal darüber, wie du hier argumentierst, wie du hier mich angegriffen hast. Reflektiere mal darüber, wie viel Mühe du dir für deine Argumentation wirklich gibst, wie bereit du auch bist, wirklich differenziert an ein Thema heranzugehen. Und reflektiere mal darüber nach, wie einseitig und negativ du dich jedes Mal gegenüber AMD äußerst. Könnte es nicht vielleicht auch sein, dass du so negativ gegenüber AMD eingstellt bist, dass jede andere Meinung, die nur ein My von deiner abweicht, bereits Pro-AMD ist?

Ich bin nicht perfekt und natürlich habe ich auch mal falsche Zahlen oder liege mit einer Einschätzung nicht richtig - was ich hier in dem Fall auch nicht tat. Aber ich kann dazu stehen und ich kann meine Fehler dann auch zugeben, das habe ich hier und im anderen Thema auch bereits gemacht. Ich habe in dem Fall den Gerüchten und den Informationen der Leaker geglaubt und als Ausgangsbasis genommen und diese mit dem Wissen über RDNA und RDNA 2 verbunden. Die Gerüchte waren alle falsch und natürlich sind damit auch meine Einschätzungen falsch gewesen.

Lese ich mir deine Beiträge zu AMD-Themen durch, suchst du immer - vielleicht liege ich da auch falsch gerade, ich bin aber echt angefressen gerade und vielleicht verwechsele ich dich daher auch - das negative bei AMD und suchst immer irgendwelche Beispiele heraus, damit du ja nicht zugeben musst, dass du dich geirrt hast. Du bist so ein ganz klassisches Beispiel für Schwarz-Weiß, Freund-Feind, ohne dass du an die Themen mal differenziert herangehst oder auch mal andere Sichtweisen mal in deine Meinungsfindung mit einbeziehst.
Ergänzung ()

Apocalypse schrieb:
Nix gegen RTX Quake, da sieht man so richtig was Raytracing selbst als minimalistischer Grafik machen kann, aber so schlecht sieht Quake 2 XP jetzt auch nicht aus. :D
Absolut nicht, ich liebe Quake 2 RTX und danke, dass du noch Quake 2 XP erwähnst, denn das ist gerade echt der entscheidende Punkt:

Sieht man sich den Quellcode von Quake 2 RTX an, dann sieht man, mit wie wenig Aufwand und gleichzeitig auch wie wenig Komplexität hier ein PathTracer Quake 2 von den Effekten in das Jahr 2021/2022 katapultiert.

Nimmt man dann den Quellcode von Quake 2 XP an und vergleich den, sieht man erst, wie viel Aufwand da betrieben werden muss und mit welcher Komplexität die Engine und die ganzen Shader annehmen und auf welche Hilfsmittel - Shadowmaps, Lightmaps - dafür benötigt werden müssen und am Ende fehlt Quake 2 XP während des Spieles dann zu großen Teilen die Dynamik der Effekte und der Echtzeitbeleuchtung und Echtzeitschatten, die in Quake 2 RTX berechnet werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut, Icke-ffm, av4l und 9 andere
DevPandi schrieb:
Sieht man sich den Quellcode von Quake 2 RTX an, dann sieht man, mit wie wenig Aufwand und gleichzeitig auch wie wenig Komplexität hier ein PathTracer Quake 2 von den Effekten in das Jahr 2021/2022 katapultiert.
Absolute, deswegen sehe ich gerade für Indies raytracing path tracing als große Chance tolle Grafik mit wenig Aufwand liefern zu können.
Aber natürlich muss dafür auch ausreichend RT Leistung im Massenmarkt ankommen. Die ganzen, wirklich aufwendigen Hybrid Raster und Raytracing Games hingegen … naja. Nix gegen Cyberpunk, aber es ist halt kompliziert, teuer und irrsinnig aufwendig das richtig, performant hinzubekommen.

Ich freu mich auf jeden Fall auf den Tag an dem Rastergrafik zum Exoten wird und Path Tracing die neue Norm.
 
Taxxor schrieb:
Ich greife das Bild noch mal auf:

Im CB RT Rating liegt die 4090 bei 259% einer 6950XT, im folgenden Test in 1440p sind es aber bereits nur noch 208% einer 6950XT(die 3090Ti kommt gar nur noch auf 138%, es ist also kein CPU Limit schuld).

Nehmen wir die oben im Bild zusehenden +63% für 4K+FSR Performance und die +83% für 4K Nativ, können wir für 4K+ FSR Quality(~1440p) mit ~70% rechnen.

170/208=0,82, d.h. wenn man entweder in 1440p spielt oder eben in 4K mindestens die erste Stufe von DLSS/FSR nutzt, wäre die 7900XTX auch im CB RT Benchmark nur ~20% langsamer bzw. die 4090 20-25% schneller
 
Zuletzt bearbeitet:
Eidgenosse schrieb:
Das Scalper Argument macht doch nur Sinn, wenn nicht genügend verfügbar sind. Zurzeit ist das noch völlig offen.
Bei dem Minerwahnsinn haben soviel Reibach gemacht, dass die jetzt alle reicher sind als Gott. Und es werden immer mehr von denen. :D
 
.Sentinel. schrieb:
Ja-Aber die von Dir genannte Software geht ja komplett an der Zielgruppe der High- Ende Grafikkarten vorbei.
Tetris hat auch einen spitzen Gameplayloop.
Kannst heutzutage auf jedem Toaster spielen.
was ist die zielgruppe der highend harware, zocken?
 
RogueSix schrieb:
@ThreepQuest64

Günstigere Modelle gibt es doch. Die heißen aber noch RX 6xxx und RTX 3xxx. Unabhängig von AMD oder nVidia werden diese Serien weiter existieren bis die Berge an Überbeständen abgebaut sind. Nur die Boardpartner und nVidia wissen, wie lange das dauern wird.
Zumindest bei nVidia wohl sehr lange, da auf der Folie zum Launch der RTX 4090/4080 ausdrücklich die RTX 3080/3070/3060 unterhalb des RTX 4000er "Premiumsegments" aufgeführt waren, d.h. man geht offenbar von einer längerfristigen Koexistenz aus.

Ergo: Wer es billig(er) will, muss/soll RX 6000er bzw. RTX 3000er kaufen.
Neeein. Man möchte die Highend Karten für nen Appel und Ei haben. Obwohl es mehr als genug gute Angebote für die 3000er Serie und vor allem die 6800/6900XT gibt. Aber man will eben das Beste so günstig wie möglich. Geiz ist geil. Ich habe für meine Strix 2500 Euro bezahlt. Das habt ihr gefälligst zu zahlen wenn ihr die wollt. Ich muss für mein Geld auch arbeiten.
 
Zurück
Oben