News Radeon RX 7900 XTX: Erste Benchmarks sind mit Vorsicht zu genießen

Nein. Schlichtweg falsch.
AMD wurden die Produkte aus der Hand gerissen. Durch die ausgebuchten Kapazitäten bei TSMC konnte man auch nicht mehr produzieren. Darum wurden Prduktionsprioritäten festgelegt. Server und Mobile first. Consumer Computing danach und Graphics als Letztes. Es wurden schlichtweg weniger RDNA2 produziert. Den sinkenden Marktanteil hat man in Kauf genommen, wenn man in "wichtigeren" Segmenten dafür zugelegt hat.
https://www.hardwaretimes.com/amd-c...-processors-desktop-skus-to-get-the-backseat/

PS die Verpflichtungen mit den Konsolen waren natürlich Priorität 1. Da wurde auch mehr bestellt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm, Rockstar85, Illithide und 2 andere
LamaMitHut schrieb:
Weil?

Ca. 1250 Euro für das Topmodel ist fair, warum sollten die ihre Hardware verschenken?

Gibt inzwischen genug Auswahl für unter 500 Euro, nur sollte man da nicht 4k + Raytracing erwarten.

4k ist heute schlicht Stand der Technik. Es gibt praktisch keine Markenfernseher mehr mit einer geringeren Auflösung.
Also warum sollte ich mich auf dem PC noch mit weniger zufrieden geben?

Meine aktuelle Grafikkarte ist von 2015. Nach Moores Law sollten heutige Grafikkarten für das gleiche Geld eigentlich problemlos 4k mit akzeptablem Bildraten schaffen. Stattdessen verlangen sowohl Nvidia als auch AMD "Lack gesoffen"-Aufschläge dafür.

Klar, sie machen es, weil sie es können. Ich finde es trotzdem nicht ok...
 
  • Gefällt mir
Reaktionen: Benji18 und ThePlayer
ThePlayer schrieb:
Da finde ich das Diagramm was @Onkel Föhn in WQHD gewählt hat viel sinniger da rund 40% der User hier diese Auflösung nutzen. Selbst in 1080p sind das hier 20% Nutzer.
Die Auflösung hat da weniger mit dem RT-Ranking zu tun...einzig und allein die Auswahl der Spiele sind da ausschlaggebend.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Bulletchief schrieb:
Definiere lange...
Für ne Titan X hat man 2016 schon 1299€ bezahlt.

Allein mit der Inflation wären das heute schon über 1500.
Wenn wir dann noch nen wesentlich schwächeren Euro, zwei jahre Corona, Ressourcenknappheit, nen Handelskrieg und nen echten Krieg in die Rechnung mit rein rechnen, dann sind 1859 für ne 4090 FE eigentlich gar nicht so weit weg... und das immerhin 8 Jahre später... 🤷‍♂️

Du lässt jetzt völlig außen vor, dass die Titan X keine Consumer GPU war und das Flaggschiff die 1080 für 790€ war.

Und selbst wenn man die 1080 vs 4080 nimmt, liegen da 700€ dazwischen, fast 100%

Und da kannst du Inflation reinrechnen wie du willst. Es gab in der Zeit auch einen Fertigungsvorteil, der die Inflation wieder einkassiert.

Und Dollar / € ist auch nicht so wild. Did Lieferketten etc. münden doch in der Inflation. Du Berücksichtigst sie also doppelt.

Und vor 16 Jahren, also 10 Jahre vor der 1080 hat das Topmodell 8800GTX 580€, also 200€ weniger gekostet, sprich ca 35% in 10 Jahren, 3,5 % pro Jahr. Dann wären wir jetzt bei ca 950€

Der Rest ist purer Marktmissbrauch
 
  • Gefällt mir
Reaktionen: pinacolada, Icke-ffm, Inelouki und 2 andere
MrHeisenberg schrieb:
Es ist eben nicht nur ein Spiel: Quake, MineCraft, Portal RTX, CyberPunk 2077, Control, Guardians of the Galaxy.
Jedesmal, wenn ein Spiel viele RT Effekte mit hohem Ray count nutzt, kackt AMD ab.
Das ist in Spielen wie CoD und Far Cry aber nicht der Fall, deshalb fällt AMD dort nicht zurück. Nun zu behaupten, dass die RT Performance ja gar nicht so schlecht sei, weil RDNA2 die schwache RT Leistung mit seiner starken Rasterleistung in solchen Titeln kompensieren kann, ist einfach falsch.
Wieso Rasterleistung die das Auffängt??? Sein Diagramm zeigt doch den Mittelwert bei RT Spielen in 1440p.
Und da ist die 3080 in Schlagweite. Du pickst dir einen Titel raus Control auch noch in 4K der selbst auf den Nvidia Karten wenige FPS liefert. Dann kommt noch dazu das einige Spiele auf RDNA2 mehr FPS liefern könnten aber das nicht tun da aus welchen Gründen auch immer für AMD nur schlecht oder garnicht optimiert wird. Oder die verwendete Engine schon immer besser mit Nvidia performt. Gibt es auch umgekehrt. Und das ist schlecht für alle.
Ich finde viel sollten an den FPS Wahn mal etwa Pragmatischer ran gehen. Ich sich fragen brauche ich überhaupt das letzte FPS oder reicht mir 90FPS statt 99 oder 60 statt 72? Ich spiele gerade Spider-Man Remasterd mit meiner 6800xt auf UWQHD mit RT. Und habe das Framelimit auf 60FPS gekappt. Mit FSR2 habe ich immer die 60FPS das Spiel läuft flüssig. Und die GPU ist zwischen 50-60% Ausgelastet. Jetzt Frage ich mich brauche ich mehr FPS oder eine schnellere Karte???
Klar hinkt AMD in RT hinterher aber es ist ja nicht unspielbar.
Und vielleicht sollte man mit Blick auf den Konkurrenzkampf bei den CPUs zwischen AMD und INTEL, auch mal überlegen ob es nicht als Nvidia User sinnvoll wäre wenn Nvidia einen ebenbürtigen Konkurrenten bekommt.
Und man sich nicht ständig einen über AMD ablacht aber gerne bei seite schiebt das man dafür von Nvidia schön gemolken wird.
 
  • Gefällt mir
Reaktionen: Illithide
C4rp3di3m schrieb:
Seit wann hat Ryzen 7XXX ein Quadchannel DDR?! Irgendwie Fakig...
Weil ein DDR5 Riegel den Bus auf 2x32bit aufteilt.
So kommst du mit 2 Modulen auf 4x32bit.
 
  • Gefällt mir
Reaktionen: ThirdLife
Wenn NVIDIA Preissenkungen an der 4080 vornimmt dann glaube ich auch nicht dass AMD da irgendeine (oder wenn dann nur kleine) Rolle spielt, sondern die 4080 hätte sich auch ohne die 7900er AMD Karten schlecht verkauft. Dann hätten Leute entweder nichts gekauft oder eben andere Karten.
Nur weil es keine direkte Alternative gibt heißt es nicht dass man den hohen Preis zahlt, vor allem nicht für ein Produkt aus diesem Bereich.
 
tstorm schrieb:
Oh das ist schon wieder veraltet, die neusten Gerüchte vom Nikolaus besagen jetzt, dass durch ein Christwunder bei der Produktion etwa 200% Mehrleistung zur 4090 zu erwarten sind und die Karten an Weihnachten verschenkt werden sollen an User, die einen Kamin besitzen.
Auch schon veraltet! Mittlerweile sind wir bei 300% gegenüber 4090!!!
 
  • Gefällt mir
Reaktionen: tstorm
rumpeLson schrieb:
Ist die Gen der jeweiligen Raytracing Implementierung nicht total nichtssagend? Beide konkurrieren im hier und jetzt. Ist ja auch nicht so, dass ein neuer Autohersteller ein neues Fahrzeug auf den Markt bringt, das als erste Iteration dann mit Autos aus dem letzten Jahrhundert verglichen werden muss. Aktuelle Modelle konkurrieren unabhängig von der Iteration.
doch ist es durchaus, Gen 1 RT war auch bei Nvidia nicht umbeding berauschend. Das RT Gen 2 deutlich besser abschneidet ist da auch schön zu sehen wennst die Turing vs Ampere vergleichst. Hier vergleichst aber Gen 3 RT mit den initialen RT was eher witzlos ist.

Ein treffender vergleich kann gezogen werden wenn die RDNA 3 released ist, denn dann sieht man um welchen Grad sich die RT Performance verbessert hat und ob die Lösung von AMD wirklich brauchbar ist od. ob der weg mit dezidierten Cores wie es Nvidia realisiert hat besser ist.

--> Aus meiner Sicht macht es halt wenig Sinn zu sagen die RTX 4090 hat um 200% mehr RT Performance als die RX6950XT --> das ist halt ne alte HW Gen. Den vergleich kann man wie von @Taxxor korrekt angemerkt erst ziehen wenn die neue Gen von AMD im Test ist.
 
CrustiCroc schrieb:
Laut DEINEN Berichten ! Und einer ominösen Seite mit dem Namen "Appuals".
Okay....
Ergänzung ()
Die berufen sich auch auf andere Quellen wie es CB auch tut.... ;) Also NICHT meine Berichte.
 
MrHeisenberg schrieb:
Es ist eben nicht nur ein Spiel: Quake, MineCraft, Portal RTX, CyberPunk 2077, Control, Guardians of the Galaxy.
Jedesmal, wenn ein Spiel viele RT Effekte mit hohem Ray count nutzt, kackt AMD ab.

Die Aussage ist korrekt. Die Frage, die man aber immer auch dazu stellen muss: ist denn das schnellere Raytracing (Im Falle der 4080 vs. 7900 XTX) denn (vorraussichtlichen) Aufpreis von mindestens 300 EUR wert? Ist ja nicht so, dass man es geschenkt bekommt.

Die kann nur jeder für sich beantworten, aber ich vermute mal, bei den meisten lautet diese Antwort "Nein".

Klar fänd ich ne 4090 im PC geil, aber 2k für ne Grafikkarte? Ne danke (und das liegt nicht daran, dass ich es mir nicht leisten könnte)!

Mr. Robot schrieb:
4k ist heute schlicht Stand der Technik. Es gibt praktisch keine Markenfernseher mehr mit einer geringeren Auflösung.
Also warum sollte ich mich auf dem PC noch mit weniger zufrieden geben?

Weil ein guter 4k Monitor mit 144 Hz und HDR600+ >600 EUR kostet - die dazu passende Grafikkarte (>=6800 XT) nochmal mindestens 750 EUR. Dann fehlt aber noch der Rest vom PC.

4k ist bei Gaming "High End" nicht "Stand der Technik".
 
  • Gefällt mir
Reaktionen: Capet, Inelouki, ThePlayer und eine weitere Person

RogueSix schrieb:
während nVidia deutlich hinzugewinnen konnten.
Was den selben Hintergrund hat wie bei Apple, Herstellerverliebte und Personen die fürs Marketing empfänglich sind kaufen alle und immer und zu jedem Preis.
Ergänzung ()

Taxxor schrieb:
Egal wie sie es vermarkten, der Hauptgrund dafür ist, dass kaum ein Entwickler FSR einbauen würde, wenn es nur mit AMD Karten bzw. sogar nur mit neueren AMD Karten laufen würde.
Ziemlich weit hergeholte Vermutung.
 
  • Gefällt mir
Reaktionen: Rockstar85, Illithide, Gaspedal und eine weitere Person
anthony274 schrieb:
Du lässt jetzt völlig außen vor, dass die Titan X keine Consumer GPU war und das Flaggschiff die 1080 für 790€ war.
Woran definierst du Consumer-Karte ? Ich an den Treibern. Und die Karte lief mit den Game-Ready-Treibern und nicht mit den zertifizierten Quadro Treibern. Ergo -> nix Profi-Karte.

anthony274 schrieb:
Und selbst wenn man die 1080 vs 4080 nimmt, liegen da 700€ dazwischen, fast 100%

Und da kannst du Inflation reinrechnen wie du willst. Es gab in der Zeit auch einen Fertigungsvorteil, der die Inflation wieder einkassiert.

Und Dollar / € ist auch nicht so wild. Did Lieferketten etc. münden doch in der Inflation. Du Berücksichtigst sie also doppelt.
700€ im Jahre des Herrn 2016 sind halt nicht dasselbe wert wie heute. Die 1080 kam 2016 raus für 699 $ Launchpreis. Laut Inflationsrechner sind das dann heute 868 $, dazu der Währungskurs zum Launch der 4080 von 1:1, darauf schlagen wir noch 19% MwSt = 1.033 €. Das berücksichtigt aber nicht die extrem teuren 4N Wafer von TSMC deren Kosten ggü. Samsung 8nm schon mehr als doppelt so hoch sind und die kürzlich nochmal angezogen haben und auch schon ankündigen noch höher zu gehen. Darauf kommt dann evtl. noch eine höhere Marge und auch höhere R&D Ausgaben für neue Technologien wie RT/DLSS und Co., und schon haben wir Preise wie jetzt.

Von 100% Aufschlag sind wir hier aber weit entfernt.

anthony274 schrieb:
Und vor 16 Jahren, also 10 Jahre vor der 1080 hat das Topmodell 8800GTX 580€, also 200€ weniger gekostet, sprich ca 35% in 10 Jahren, 3,5 % pro Jahr. Dann wären wir jetzt bei ca 950€

Der Rest ist purer Marktmissbrauch
Die Karte ist für 599 USD gelauncht, das sind 885 USD heute + 19% Märchensteuer = 1.053 €.

ThePlayer schrieb:
Wenn ich ein 4K120 Panel habe dann würde ich das schon auch gern nutzen können. Klar ich kann auch wieder auf FHD an einen mickrigen 24"er zurück, warum nicht gleich Röhre und 800x600 ? Du kannst statt Urlaub auf den Kanaren auch auf den Balkon liegen. Sonne hats da auch oder nicht ? Warum lecker essen gehen wenn man sich auch Astronauten-Nahrung aus der Tube drücken kann ?

Brauchen ist in einer Gesellschaft die letztlich vom Konsum lebt kein gutes Argument. Bei CP2077 gab es selbst mit meiner echt gut laufenden 3080 Ti und Kühlung des Todes immer wieder Framedrops unter die 60 und das mit DLSS Performance. Also 1080p Upscale. Find ich jetzt nicht so prickelnd. Wenn ich nun eine Karte kriege die mir 90 avg hinballert und das mit DLSS Quality und evtl. mit FG auch 60fps x2 skaliert, bin ich super happy.

Ich stell meine Karte bei jedem Spiel nur auf das ein was ich brauch, gleich wie du. Nur dass ich mit einer 4090 und deren Möglichkeiten natürlich versuche die 120Hz zu kriegen und nicht wie vorher auf 4K60 vSync zu verharren.

Kaliauer schrieb:
Die Aussage ist korrekt. Die Frage, die man aber immer auch dazu stellen muss: ist denn das schnellere Raytracing (Im Falle der 4080 vs. 7900 XTX) denn (vorraussichtlichen) Aufpreis von mindestens 300 EUR wert? Ist ja nicht so, dass man es geschenkt bekommt.
Mindestens 300€ Aufpreis ? Ne 4080 kriegst du derzeit ab 1400€, eine 7900XTX wird bei 999 USD starten + 19% = 1189€ in meinen Büchern. Es endet dann ja auch nicht beim (vermutlich) schnelleren RT sondern bringt ja auch noch das (in meinen Augen) bessere DLSS + FG mit sich und CUDA für alle die gern auch mal ein paar professionellere Zwecke einsetzen möchten (ich zB im Bereich ML/DL viel).

Und das sind jetzt nur die Dinge die mich interessieren. Dazu kommt noch Broadcast oder andere sonstige Dinge mit denen ich bisher nix am Hut hatte. Es gibt schon mehr als "nur" reines Rastergaming was über einen Kauf heutzutage entscheidet.

Taurus104 schrieb:
Was den selben Hintergrund hat wie bei Apple, Herstellerverliebte und Personen die fürs Marketing empfänglich sind kaufen alle und immer und zu jedem Preis.
Warum muss man automatisch gleich in irgendeine Fanboy-Schublade gedroppt werden sobald man irgendein Produkt von Apple, nVidia, Intel oder AMD kauft ?

Viel diverser als bei mir gehts ja kaum noch, Ryzen System mit NV GPU, Intel Homebrew NAS, MacBook + iPhone/iPad, dazu noch ein Asus Zenbook (ebenfalls Intel), Reservehandy nach wie vor mein altes Huawei P30 Pro.

Da lass ich mir ungern unterstellen dass ich Herstellerverliebt bin. Ich such einfach das was mir persönlich am meisten zu bringen scheint für den jeweiligen Nutzen den ich habe und bin preislich einfach etwas flexibler zu meinem Glück. So einfach kanns sein - ganz ohne ein harter Fanboii zu sein.

Taurus104 schrieb:
Ziemlich weit hergeholte Vermutung.
Stimmt, AMD ist ja kein gewinnorientierter Konzern, die würden ja alles verschenken am liebsten. :daumen:
Jede AG wird versuchen eine "competitive advantage" maximal auszuloten, insbesondere wenn viel eigene IP dahinter steckt und jahrelange Forschung für Milliardengelder.

Da gehst du nicht einfach hin und sagst: tadaaa wir veröffentlichen das jetzt gratis. Was dann passiert kannst sehen am Fake-Tweet über Gratis Insulin von Eli Lilly.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: DDM_Reaper20 und PHuV
ThirdLife schrieb:
Warum muss man automatisch gleich in irgendeine Fanboy-Schublade gedroppt werden sobald man irgendein Produkt von Apple, nVidia, Intel oder AMD kauft ?
Weil es schlichtweg so ist. Thema erledigt.
Und zum Rest dieses Ergusses sage ich nichts weiter, ich möchte sowas mit einer Antwort, nicht auch noch würdigen. Weiterhin diskutiere ich nicht weiter mit Personen wie Ihnen. Es ist ja einiges aus Ihren Kommentaren erkennbar.
 
  • Gefällt mir
Reaktionen: ThirdLife
Taurus104 schrieb:
Was den selben Hintergrund hat wie bei Apple, Herstellerverliebte und Personen die fürs Marketing empfänglich sind kaufen alle und immer und zu jedem Preis.
Nope, ich kauf einfach das, was gut ist und lieferbar. Marke und Name sind mir vollkommen egal, die Leistung muß stimmen. Und wenn ich es mir nicht leisten kann oder will, verzichte ich einfach.
 
  • Gefällt mir
Reaktionen: DDM_Reaper20, Ragnarök88 und ThirdLife
ThirdLife schrieb:
700€ im Jahre des Herrn 2016 sind halt nicht dasselbe wert wie heute. Die 1080 kam 2016 raus für 699 $ Launchpreis. Laut Inflationsrechner sind das dann heute 868 $, dazu der Währungskurs zum Launch der 4080 von 1:1, darauf schlagen wir noch 19% MwSt = 1.033 €.
So kannst Du aber auch nicht rechnen sonst wäre Hardware heute unbezahlbar. Ich musste Anfang der 2000er gut 100 Euro für 1GB Ram ausgeben. Wenn wir das jetzt hoch rechnen würdest du für 16GB mehrere Tausend Euro bezahlen müssen!

Ja ich habe auch einen 144hz Monitor und merke jedes kleinste Ruckeln. Aber ab 90 FPS sehe ich kaum noch unterschied zu 120 oder 144hz. Und Kompetitiv Zocke ich auch schon lange nicht mehr. Dewegen sehe ich auch für mich keinen Sinn darin mehr als 90 FPS zu nutzen. Bei vielen Spielen reichen mir sogar die 60FPS vollkommen aus.
Ergänzung ()

Benji18 schrieb:
Ein treffender vergleich kann gezogen werden wenn die RDNA 3 released ist, denn dann sieht man um welchen Grad sich die RT Performance verbessert hat und ob die Lösung von AMD wirklich brauchbar ist od. ob der weg mit dezidierten Cores wie es Nvidia realisiert hat besser ist.

--> Aus meiner Sicht macht es halt wenig Sinn zu sagen die RTX 4090 hat um 200% mehr RT Performance als die RX6950XT --> das ist halt ne alte HW Gen. Den vergleich kann man wie von @Taxxor korrekt angemerkt erst ziehen wenn die neue Gen von AMD im Test ist.
Ja das macht auch Sinn. Frage ist nur ob AMD RT technisch jetzt anders umsetzt oder immer noch den gleichen Ansatz verfolgt. Und man den Rückstand auf Nvidia nur mit mehr Transistoren kompensiert. Ich würde es sehr begrüßen wenn man mit der XTX deutlich vor der 3090ti in RT liegt und die XT die 3090ti knapp schlägt oder gleich auf ist. Mehr wäre natürlich besser.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benji18 und Gaspedal
ThirdLife schrieb:
Mindestens 300€ Aufpreis ? Ne 4080 kriegst du derzeit ab 1400€, eine 7900XTX wird bei 999 USD starten + 19% = 1189€ in meinen Büchern. Es endet dann ja auch nicht beim (vermutlich) schnelleren RT sondern bringt ja auch noch das (in meinen Augen) bessere DLSS + FG mit sich und CUDA für alle die gern auch mal ein paar professionellere Zwecke einsetzen möchten (ich zB im Bereich ML/DL viel).

Und das sind jetzt nur die Dinge die mich interessieren. Dazu kommt noch Broadcast oder andere sonstige Dinge mit denen ich bisher nix am Hut hatte. Es gibt schon mehr als "nur" reines Rastergaming was über einen Kauf heutzutage entscheidet.

999 USD sind 950 EUR (Stand jetzt) - mit 19 % USt sind das dann 1130 EUR. ich bin gespannt, was AMD aufrufen wird, mein tipp sind ~1100 EUR für die XTX. Sind bei mir gerundet ca. 300 EUR. Wenn der abstand kleiner wird, wird die 4080 auch wieder ein bisschen interessanter.

DLSS 3.0 ist nur in Verbindung mit Raytracing notwendig, wenn man das nicht nutzen möchte, brauch man es nicht. Man wird sehen, was hier AMD nachliefert. Wenn jemand meint, er braucht das, muss er es auch bezahlen.

CUDA: kenn mich damit nicht aus, aber da wird NVIDIA vermutlich eh die Nase vorne haben? Also wenn man das braucht, ist es eh ein Nobrainer? Ich bezweifle allerdings, dass das ein Kaufgrund für einen grossteil der Käufer ist (Spekulation :) ). Ebenso Streaming.

Dem gegenüerb stehen aber auch die 24 GB bei der XTX vs 16 GB bei der 4080. Wer weis, wann die zum Flaschenhals werden? So wie bei der 3080 10gb es heute ist? Ich will eine Grafikkarte für 1400 EUR länger als zwei Jahre vernünftig nutzen können.
 
  • Gefällt mir
Reaktionen: Illithide, C4rp3di3m und ThePlayer
ThePlayer schrieb:
Ja das macht auch Sinn. Frage ist nur ob AMD RT technisch jetzt anders umsetzt oder immer noch den gleichen Ansatz verfolgt. Und man den Rückstand auf Nvidia nur mit mehr Transistoren kompensiert. Ich würde es sehr begrüßen wenn man mit der XTX deutlich vor der 3090ti in RT liegt und die XT die 3090ti knapp schlägt oder gleich auf ist. Mehr wäre natürlich besser.
Das gilt es abzuwarten, wie gesagt das die Umsetzung nicht optimal war sieht man ja, die Frage ist konnte man hier was verbessern od. hat man den Ansatz komplett umgeworfen.

Zu zeigen das die 4090 alles aktuell plettet ist halt sinnlos wenn wir die Antwort von AMD mit RDNA 3 noch nicht kennen, es wäre spannend ob AMD was ordentliches dagegen halten kann od. ob das eher so Zen+ wird und wir erst mit RDNA 4 etwas wie Zen 2 erleben werden.
 
ThePlayer schrieb:
So kannst Du aber auch nicht rechnen sonst wäre Hardware heute unbezahlbar. Ich musste Anfang der 2000er gut 100 Euro für 1GB Ram ausgeben. Wenn wir das jetzt hoch rechnen würdest du für 16GB mehrere Tausend Euro bezahlen müssen!
Oder CPU nach Mhz. Damals Intel 486 DX 33-70 MHz für ca. 400-1000DM, heute wären wir bei über 50.000 LOL und das ohne Inflationsananssung. Mein Amiga 500 Speichererweiterung von 512kb (somit 1MB insgesamt) hat damals schon 180DM gekostet. Das wären heute umgerechnet auf GB mehrere hunderttausend Euros demnach.
Daher, wenn einer schreibt, dass der RTX 4090 aufgrund doppelte Leistung auch doppelt so viel Wert ist, hat die Welt und Fortschritt nicht verstanden.
 
  • Gefällt mir
Reaktionen: Inelouki, jo0, m.obermueller und 2 andere
ThePlayer schrieb:
So kannst Du aber auch nicht rechnen sonst wäre Hardware heute unbezahlbar. Ich musste Anfang der 2000er gut 100 Euro für 1GB Ram ausgeben. Wenn wir das jetzt hoch rechnen würdest du für 16GB mehrere Tausend Euro bezahlen müssen!
Ich weiss nicht was du meinst. So muss man das ja schlicht rechnen wenn man Inflation kalkulieren will. Gerade das verdeutlich ja wieviel mehr oder weniger du heute fürs Geld kriegst.

Du kriegst heute ja in einer 4080 auch 4864/9728 Shader statt deren noch 2560 im Jahre 2016. Anfang der 2000er in einer GeForce 4 4800 - dem Topmodell - waren das vier Pixelshader und 2 Vertexshader noch 🤣

Da sind die damaligen Preise richtig frech gegenüber dem was du heute an Performance kriegst.😂

ThePlayer schrieb:
Ja ich habe auch einen 144hz Monitor und merke jedes kleinste Ruckeln. Aber ab 90 FPS sehe ich kaum noch unterschied zu 120 oder 144hz. Und Kompetitiv Zocke ich auch schon lange nicht mehr. Dewegen sehe ich auch für mich keinen Sinn darin mehr als 90 FPS zu nutzen. Bei vielen Spielen reichen mir sogar die 60FPS vollkommen aus.
Ich hab noch meinen 1440p Desktop Monitor, aber dessen 165Hz Differenz zu 120 am TV seh ich auch nicht mehr wirklich. Die Differenz zwischen 60 und 120 sind aber schon sehr deutlich. 90 sind ein guter Sweetspot.
 
Zurück
Oben