News Nvidia GeForce „Blackwell“: 575 Watt für RTX 5090 und 360 Watt für RTX 5080 im Gespräch

Auf dem Karton meiner 4090 steht unter "Features" auch nur "NVIDIA DLSS", ohne Versionsnummer; das hat erst mal nichts zu bedeuten.

Sollten die bislang gerüchteweise verbreiteten technischen Daten sich bewahrheiten, wären die ja auch erst mal nicht soo wahnsinnig beeindruckend. Von daher können diese Karten jede Unterstützung durch DLSS 4 und Co., die sie bekommen können, auch verdammt gut gebrauchen.
 
Gothic47 schrieb:
Diese grünen sind nur was für FPS Fetischisten die alle behaupten man könnte mehr als 120 FPS sehen...

Vermutlich. Ich hatte weiter vorne schon die Sinnhaftigkeit der kommenden Nvidia-Modelle in Frage gestellt und dazu im Vergleich auf AMD's Verzicht erhöhter Leistung und deren Priorität auf Effizienzsteigerung verwiesen, was komischerweise von einigen Usern mißverstanden wurde, warum auch immer. Denn genau das ist es ja, was AMD i.M. realisiert. Nämlich ihre aktuellen Grafikkarten auf Effizienz trimmen(mehr Leistung + akzeptables Raytracing bei identischem Stromverbrauch, also das Gegenteil von Nvidia). Oder ich interpretiere den Begriff "Effizienz" vollkommen falsch. Stattdessen konfrontiert man mich mit einem Game als Beispiel, was sehr CPU-lastig ist und ein entsprechender Vergleich zur Effizienz-Steigerung einer Grafikkarte folglich unsinnig erscheint. Ansich ok. Aber wäre schön, wenn derjenige dann auch Zugeständnisse macht und jene Deppen, die ursprünglich meinten, mir da schon zwanghaft widersprechen zu müssen und ihm zustimmen, das genauso raffen.

Outward ist ein Kuriosum beim Energieverbrauch. Denn deren Grafikengine scheint ein wenig fehlerhaft zu sein. Wenn man da nicht manuell die Bildwiederholrate auf z.B. 60 fps begrenzt, beansprucht es die maximale Leistungsfähigkeit der Grafikkarte bis auf OC-Niveau und unabhängig vom Grafikkarten-Modell. Dieses Spiel zeigt wunderbar den Stromverbrauch in Abhängigkeit der FPS-Rate und Qualitätseinstellungen(für den Fall, daß es jemanden interessiert und zum testen reizt). Ich habe es auf 1200 Mhz Taktung begrenzt mit einem Stromverbrauch von ca. 120W(für ein derart altes Game schon fragwürdig). Ohne diese manuelle Begrenzung waren es vorher weit über 300W bei nur 1900Mhz, bis ich es wahrnahm. Es überreizte nämlich sogar die von mir voreingestellte Lüfterkurve.

Sollte sich jedoch die 5090'er als Effizienzwunder mausern, wie wohl schon bei der 4090'er von einigen Usern bestätigt, werde ich die vielleicht mal antesten. Auch interessiert mich das neue DLSS4 zum Vergleich.

AMD scheint dagegen noch ein Problem mit DirectX12 Games zu haben, was z.B. bei der 6950'er regelmäßige Freezes provoziert. Dank neuem Netzteil AX1600i kann ich es nun gut kompensieren, was aber letztendlich keine Lösung ist(Spannungsspitzen als Ursache?). Mein Verdacht ist nun, daß wohl deren Adrenalin-Software das Problem zu sein scheint? Aber Nvidia ist da wohl auch nicht so der Hit?

Am Ende wird man trotzdem gezwungen sein, die Grafikkarte zurück zu senden, weil die Chip-Hersteller solche Probleme ignorieren, obwohl die Grafikkarte selber keinen Defekt hat(zu diesem Thema existieren viele Threads, auch hier bei CB).

Und die Game-Entwickler sind auch nicht besser. Wegen deren Bequemlichkeit(oder besser gesagt Faulheit) mutieren ihre Spiele zu regelrechten Performance-Fressern, weil unoptimierter Code oder gar schlampig programmiert. Auf der anderen Seite sind sie wohl die eigentliche Ursache für eine fortschreitende Grafikarten-Entwicklung, selbst wenn Hersteller auf entsprechende Einnahmen gar nicht mehr angewiesen wären und nur aus reiner Gefälligkeit und Gewohnheit für die Gamer brav mit entwickeln(stattdessen Favorisierung von Konsolen). Trotzdem stünde noch immer die Frage im Raum: Wer braucht denn dieses Mehr an Geschwindigkeitszuwachs? Und vielleicht ist das auch der Grund, warum AMD sich i.M. nicht auf ein Performance-Duell mit Nvidia einläßt und stattdessen ein effizienteres Design entwickeln, bis es vielleicht in einigen Jahren Früchte trägt und dann sowieso die Performance zunehmend an Bedeutung verliert? Denn eine virtuelle Realität à la META ist noch in weiter Ferne gerückt und dürfte dann wohl eher CPU-lastig sein.
 
Zuletzt bearbeitet:
p.b.s. schrieb:
Vermutlich. Ich hatte weiter vorne schon die Sinnhaftigkeit der kommenden Nvidia-Modelle in Frage gestellt und dazu im Vergleich auf AMD's Verzicht erhöhter Leistung und deren Priorität auf Effizienzsteigerung verwiesen, was komischerweise von einigen Usern mißverstanden wurde, warum auch immer.
Weil's polemischer Popanz ist. Wer auch in den kommenden zwei Jahren alle Regler - inklusive RT/PT - bedenkenlos nach rechts schieben können und dabei trotzdem konstant seine 60+ oder 100+ FPS in UHD haben möchte, der wird natürlich von der zusätzlichen Power einer 5070Ti, 5080 oder 5090 profitieren; darüber müssen wir ja wohl kaum ernsthaft diskutieren. Da wird man halt mit einer 9070XT nicht glücklich werden. Das alles als überflüssig abzutun, nur weil die eigenen Ansprüche niedriger liegen, ist doch Kindergarten pur.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Einfach mal gucken... wenn das PLV der 5090 hunreichend ansprechend ist, darf sie die 4090 in meiner WS beerben und dort ihre Rechenwerke schwitzen lassen.
Die 4090 ginge dann in meinen Universal-PC; ich unterstelle mal, mit einem 9950X3D an ihrer Seite sollte sie für 2560er-Auflösung noch ein paar Jahre lang auch für Spiele genug Leistung haben...
Wenn sie 5090 zu teuer / zu wenig schneller / zu scalper ist, bleibt die 4090 in meiner WS und der (noch 7950X3D, bald 9950X3D) muß eben mit meiner alten RX7900XTX vorlieb nehmen; hat mir bislang auch zum Spielen gereicht.
 
shaboo schrieb:
der wird natürlich von der zusätzlichen Power einer 5070Ti, 5080 oder 5090 profitieren; darüber müssen wir ja wohl kaum ernsthaft diskutieren.

Nur mit dem Unterschied, daß bei Nvidia im Vergleich zu AMD der Basis-Stromverbrauch weitaus höher liegt. Wie ich schon weiter vorne als Beispiel anführte, verbraucht meine 6950'er bei max Qualität und zugeschaltetem SSAAx8 in 4k um durchschnittliche 200W. Bei max Taktung komme ich auf über 350W. Ich bezweifele, daß eine Nvidia-Karte auf diesem Niveau gleichziehen kann. Und wenn AMD jetzt noch das Raytracing wie schon bei Nvidia vorhanden genauso optimiert, also auf das Niveau von aktuellen Nvidia-Grafikkarten bringt, und das bei identischem Stromverbrauch mit geringem Zuwachs an Performance, ist das in meinen Augen ein Gewinn an Effizienz. Oder als was sonst würdest Du es werten?
 
p.b.s. schrieb:
Nur mit dem Unterschied, daß bei Nvidia im Vergleich zu AMD der Basis-Stromverbrauch weitaus höher liegt. Wie ich schon weiter vorne als Beispiel anführte, verbraucht meine 6950'er bei max Qualität und zugeschaltetem SSAAx8 in 4k um durchschnittliche 200W. Bei max Taktung komme ich auf über 350W. Ich bezweifele, daß eine Nvidia-Karte auf diesem Niveau gleichziehen kann. Und wenn AMD jetzt noch das Raytracing wie schon bei Nvidia vorhanden genauso optimiert, also auf das Niveau von aktuellen Nvidia-Grafikkarten bringt, und das bei identischem Stromverbrauch mit geringem Zuwachs an Performance, ist das in meinen Augen ein Gewinn an Effizienz. Oder als was sonst würdest Du es werten?
Aus den Testberichten, die ich in den letzten zwei Jahren gelesen habe, ging eigentlich immer ziemlich einheitlich hervor, dass - nachdem AMDs 6000er effizienter als Nvidias 3000er gewesen waren - die Nvidia-4000er nunmehr wieder die effizienteren sind, und die Gerüchte von AMDs 9000er-Karten klingen mir auch nicht gerade nach Effizienzwundern.

Das ist aber auch gar nicht der Punkt. Der Punkt ist, dass es nun mal genügend Leute gibt, denen Effizienz egal ist und denen es nur um Leistung geht, und sie sind nun mal ab einem bestimmten Punkt, wie du mit deinem "mit geringerem Zuwachs an Performance" ja selber schreibst, bei AMD an der falschen Adresse. Es mag ja durchaus sein, dass AMD am Ende Erfolg damit hat, diese Zielgruppe einfach gar nicht mehr zu bedienen, zumindest würde ich ihnen das wünschen. Trotzdem heißt das ja nicht, dass nicht eine andere Firma sich um diese Zielgruppe kümmern und mit ihr Geld verdienen kann. Das gilt umso mehr dann, wenn in Zukunft die Zahl der Spiele wie Indy, die RT zwingend voraussetzen, weiter steigt.
 
@p.b.s.

Ganz kann ich Dir nicht folgen? Aussagen zu irgenwelchen Effizienzen der neuen Generation kann man noch gar nicht treffen. Es gibt dazu weder Leaks noch belastbare Benchmarks.
Was es halt gibt sind Analysen der bestehenden Produktplattformen. Diese Tests attestieren der NVIDIA 4000er Reihe überragend bessere Effizienz (also FPS pro Watt) in allen Szenarien.

Z. .B. bei Igorslab:

Mittlere Leistungsaufnahme in Igors Testparcour:

1736105807635.webp


Mittlere "Effizienz" (also FPS pro Watt) in Igors Testparcour:

1736105841148.webp


Beispiel ohne RT / ohne Upscaling:

1736104622520.png


Beispiel mit Upscaling:

1736105514786.png


Beispiel mit RT:

1736105061669.png


https://www.igorslab.de/amd-radeon-...chritt-nach-vorn-und-ein-kleiner-zur-seite/8/
--> noch viel mehr Beispiele in mehreren Auflösungen.


oder bei Tomshardware:

1736104333573.png


https://www.tomshardware.com/pc-components/gpus/rtx-4080-super-vs-rx-7900-xtx-gpu-faceoff


D.h., ja es ist grundsätzlich dringend nötig das AMD an "Effizienz" arbeitet, weil sie dahingehend dramatisch im Hintertreffen sind. Im Raster wäre seitens AMD eine Steigerung ~ 30% - 50% sehr wünschenswert, bei Raytracing brauchen sie eher ~70% - 100%.
Und dann NVIDIA zu unterstellen das die neuen Generationen nicht auch ein bisschen an Effizienz gewinnen ist eher auch auf der naiven Seite. Die werden, auch wenn die Leistungsaufnahme erhöht wird, die Watt vermutlich auch wieder ein bisschen besser in FPS umsetzen als bei der 4000er Serie. Würde mich jetzt nicht wundern wenn z.B. bei der 5080 5% - 10% durch bessere Architektur kommt und vielleicht 20% über die extra elektrische Leistung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und shaboo
Was ich bei Notebookcheck an Leaks zur mobile 5000 gehört habe 😱

Ne 5070m nur 8 GB VRam
Die 5070 ti dann 12
Die 5080 dann 16 und
Die 5090 24

Ich hatte ernsthaft geglaubt das die 5060m wenigstens 12 hat😂
 
Nolag schrieb:
Dazu hätte ich gerne eine Quelle. Im PCGH Test liegt sogar eine 4090 bei Teillast in 1080p 60fps auf dem Niveau einer 6800XT. Eine 4080 oder 4080 Super verbraucht deutlich weniger: PCGH: Geforce RTX 4080 Super Test

Für den Vergleich fehlen die Werte zum Benchmark. Oder ich übersehe die da? Ist jedoch allgemein sowieso schwierig, wenn z.B. Anno 1800 höhere IPC-Werte einer CPU beansprucht und erst dann besser performant. Cyberpunk schon eher. Sollte ich mir mal endlich zulegen. Ansonsten identische Grafikkarten, z.B. eine 4080'er Super mit einer 7800'er XTX bei selben begrenzten FPS-Werten und Qualitäts-Einstellungen+FSR/DLSS, wo dann nur der Stromverbrauch dokumentiert wird. Ich könnte selber nur entsprechende Ergebnisse einer 6950'er liefern, die ich schon als Beispiel andeutete.

shaboo schrieb:
Es mag ja durchaus sein, dass AMD am Ende Erfolg damit hat, diese Zielgruppe einfach gar nicht mehr zu bedienen

Ich habe i.M. nur die Erkenntnis, daß mehr Performance, wie z.B. mit einer 4090'er von Nvidia, gar nicht nötig ist. Ich selber habe eine 6950'er von AMD und brauche noch immer keine höherwertige Grafikkarte, weil ich alles noch immer bei max Qualität flüssig spielen kann, und auch dann, wenn ich diese Karte um bis zu ein Drittel heruntertakte(zum Teil sind es 40% bei ansonsten max 2700Mhz, was ich noch nie beanspruchte). Und das bei 4k. Einzige Ausnahme Raytracing, was wohl AMD nun mit der neuen Grafikkarten-Generation gelöst bekäme? Deswegen vermute ich, daß AMD mit ihrer Zurückhaltung hinsichtlich der Performance-Krone gar nicht so Unrecht hat(wg. Mobile-GPU)?

DeadMan666 schrieb:
Diese Tests attestieren der NVIDIA 4000er Reihe überragend bessere Effizienz (also FPS pro Watt) in allen Szenarien.

Die Werte widerspiegeln den Verbrauch bei max. möglichen FPS-Werten. Das ist nachvollziehbar und dem widerspreche ich nicht. Für mich interessant wäre zum Vergleich ein fester FPS-Wert und entsprechender Stromverbrauch. Du kannst z.B. InGame die FPS auf 60 begrenzen, und trotzdem wird die Karte zu 100% ausgelastet(siehe auch obiges extremes Beispiel Outward). Erst wenn du manuell die Grafikkarte runtertaktest, ohne dabei die 60 FPS zu unterschreiten, könnte das vielleicht als Vergleich für beide Hersteller genutzt werden. Oder ich mißverstehe die gemessenen Werte von "igorslab", bzw. ziehe daraus die falschen Schlüsse?

DeadMan666 schrieb:
Und dann NVIDIA zu unterstellen das die neuen Generationen nicht auch ein bisschen an Effizienz gewinnen ist eher auch auf der naiven Seite.

Wie gesagt, entsprechen die da gemessenen Werte bei max. möglicher FPS. Und das verfälscht dann nach hinten die Ergebnisse für AMD, da sie von der Performance nicht ganz an Nvidia heranreichen. Entsprechend ist deren Verbrauch dann auch höher. Bei Tomshardware verhält es sich genauso. Aber das ist nicht meine Herangehensweise. Denn ich setze ganz bewußt die FPS über die Taktung der Grafikkarte auf ein für mich akzeptables Niveau von z.B. 90 FPS und reduziere dadurch auch den Stromverbrauch um bis zu 50% und mehr. Dazu fehlt mir leider ein Vergleich mit Nvidia.

Wenn nun Nvidia den Stromverbrauch ihrer neuen Grafikkarten so hoch ansetzt, um eine identische Leistungssteigerung zu realisieren, dann wäre das für mich eben nicht effizient. Dagegen AMD bei Verzicht auf eine schnellere Grafikkartengeneration das Raytracing spürbar verbessert und dabei trotzdem den Stromverbrauch noch konstant hält, wäre für mich effizient. Aber wenn du schreibst, daß AMD dem nicht entsprechen wird und das auch so zutreffen würde, wäre es dann natürlich nicht. Nur so hatte ich es nicht verstanden.
 
p.b.s. schrieb:
Ich habe i.M. nur die Erkenntnis, daß mehr Performance, wie z.B. mit einer 4090'er von Nvidia, gar nicht nötig ist.
Für DICH nicht nötig! Das ist was Anderes als generell nicht nötig.
p.b.s. schrieb:
Einzige Ausnahme Raytracing
Dafür ist es aber nun mal nötig, und das wird in Zukunft sogar noch zunehmend wichtiger werden.

Ich brauche die Leistung einer 4090 auch nicht permanent. Bei mir wird die Minimum sechs bis acht Jahre in Gebrauch sein, und während dieser Zeit werden ich halt die Regler immer ein Stück weiter nach links schieben. Ich habe damit keine Probleme, aber andere wollen diese Kompromisse halt nicht eingehen.
 
  • Gefällt mir
Reaktionen: Laphonso
p.b.s. schrieb:
Die Werte widerspiegeln den Verbrauch bei max. möglichen FPS-Werten. Das ist nachvollziehbar und dem widerspreche ich nicht. Für mich interessant wäre zum Vergleich ein fester FPS-Wert und entsprechender Stromverbrauch

Dazu findet man nicht so viel, aber CB hat mal einen Test gemacht im 144 FPS Limit: Auch da setzen sich die NVIDIA 4000er recht deutlich ab. In WQHD spürbar besser als in 4K. Die AMD 7000er Kämpfen sogar mit den AMD 6000er, bei WQHD sind die AMD 6000er spürbar den 7000ern.

https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/5/

1736110395957.png


1736110425302.png



Hier im Reddit hat jemand auch mal was gemacht auf Time Spy Basis und Power Limits (Achtun: Power Limits, nicht der reale Verbrauch):

https://www.reddit.com/r/Amd/comments/13ljfd7/rtx_4090_vs_rx_7900_xtx_power_scaling_from_275w/

1736110470953.png


Ganz interessant eigentlich, die AMD GPU würde bei hoheren Power Limits besser skalieren und die Lücke zur 4090 bisschen schließen. Zu kleineren Leistungen macht die RTX 4090 eine bessere Figur und setzt sich bisschen mehr ab (passt praktisch zum Computerbase Ergebnis das die NVIDIAs in WQHD sich stärker absetzen). Aber diese Grafik hier zeigt ein recht schön Bild wie komplex die GPUs zu bewerten sind. Wenn man es hart sich gibt es eigentlich für jede Watt-Leistung eine eigene Effizienz, die Skalierung der jeweiligen GPU ist eigentlich kaum vorherzusagen und muss für jede GPU raus gemessen werden.

Von daher, für so komplexe Themen wie eine "Effizienzaussage" braucht es wirklich GPUs in ordentlichen Testlaboren und saubere Tests.
Was in Summe aber schon recht klar ist, AMD geht mit einem recht großen "Effizienz"-Rückstand aus der 7000er Generation ins Rennen und müssen einige Verbesserungen liefern. Unmöglich sind Verbesserungen nicht, sie gehen ja von Multi-Chip zurück auf Monolithische Chips, Architektur wird überarbeitet, usw.

Und wenn ich die Grafiken so sehe und die NVIDIA Ankündungen das sie die Leistungen erhöhen... Hmn vielleicht hat NVIDIA Optimierungen in der 5000er Serie um die schlechte Skalierung bei hohen Watt-Leistungen zu verbessern???
 
  • Gefällt mir
Reaktionen: Quidproquo77, p.b.s. und shaboo
Schafmuhkuh schrieb:
Prinzipiell ist mir der Stromverbrauch wurscht wenn die Effizienz stimmt. Seit der 3080 aber stoß ich mich langsam an der Abwärme.

In meinen zwei aktuellen Systemen werkelt jeweils nen 7950x3d und ne 4080/4090, und das recht effizient und kühl mit ner 420er Wakü . Aber das Büro wärmt sich brutal auf beim zocken so dass ich im Winter die beiden Räume Büro und Zockerzimmer 3°C runter regel. Ansonsten wird es eine Saune. Im Sommer machts ab und zu nicht mal Spaß länger als ne Stunde zu spielen.
Da hilft nur noch eine Klimaanlage, im Sommer Kühlen und im Winter entfeuten :)
 
p.b.s. schrieb:
Und die Game-Entwickler sind auch nicht besser. Wegen deren Bequemlichkeit(oder besser gesagt Faulheit) mutieren ihre Spiele zu regelrechten Performance-Fressern,

Als wüssten heutige 100fps-Minimum-Verwahrloste noch, was Performance-Fresser sind. :D

 
  • Gefällt mir
Reaktionen: Laphonso und p.b.s.
shaboo schrieb:
Dafür ist es aber nun mal nötig, und das wird in Zukunft sogar noch zunehmend wichtiger werden.

Wird wohl trotzdem nicht das Niveau eines Light-Mod von z.B. Lux oder RLO in Skyrim erreichen. Ist auch eines meiner Kritikpunkte. Weil da könnte man atmosphärisch sehr viel verbessern. Im Moment ist mir das deswegen noch zu wenig.

@Nolag , danke. Da hatte ich wohl Tomaten auf den Augen. Wenn es sich hierbei um eine native Auflösung handelt, müßte ich nur noch wissen, ob die Werte auch bei FSR/DLSS identisch wären.

@DeadMan666 , danke für den Link zu reddit. Ich werde versuchen, diesen Test nach zu machen und dann ohne Wattbegrenzer mit jedoch begrenzter Taktung zum Vergleich. Ich wäre nicht überrascht, wenn die Werte dann abweichen(unabhängig von Nvidia als Vergleich). Vielleicht mache ich dann auch einen Test ohne dabei die AMD-Adrenalin-Software installiert zu haben, falls es möglich ist(ich habe da einen Verdacht)? Auf jeden Fall eine gute Idee.

Svennc schrieb:
Als wüssten heutige 100fps-Minimum-Verwahrloste noch, was Performance-Fresser sind. :D

Gothic lief bei mir flüssig auf einem Athlon 800 und mit einer Vodoo3(soweit ich mich erinnere). Die Intro-Videosequenz von Wing Commander III ... Bekannter noch sauteuren RAM nachgekauft, in der Hoffnung, daß es schneller lädt und flüssiger abgespielt wird. Und dann der große Moment und die Erkenntnis, daß sein Superrechner dafür noch immer zu schwach auf der Brust ist.
 
  • Gefällt mir
Reaktionen: Laphonso
Svennc schrieb:
Als wüssten heutige 100fps-Minimum-Verwahrloste noch, was Performance-Fresser sind. :D

Der Links Pro Test Anfang 1993 sagt alles

https://www.kultboy.com/index.php?site=t&id=16565&s=4

Einige derer, dier hier laufend rumweinen, hätten vor 32 Jahren Nervenzusammenbrüche bekommen lol

Die 286er haben das Spiel nicht mal gestartet 😂
Das wäre heute als würden RDNA2 und Ampere RTX 3000 GPUs das SPiel verweigern, nur zur Info.

https://www.kultboy.com/index.php?site=t&id=5581&s=2
Der Powerplay Kommentar von martin Gaksch dazu:

1736120030027.png


https://www.dosdays.co.uk/topics/1992.php




1736120395902.jpeg

1736120466698.jpeg

DAS waren quasi der 9800x3D und 4080 und 4090 PC im jahre 1992

30 fps Gaming 1992 und 1993 für 7000 bis 8000 Euro ftw
Selbst individuell abgespeckt war 30 fps High End unter 5K bis 6K in Euronen heute nicht machbar

https://www.finanzen-rechner.net/inflationsrechner.php

Der Vater meines Kumpels, hat zwischen 1989 und 1997 für High End Gaming PCs inflationsbereinig fürs PC GAMING rund 15.000 Euro ausgegeben um das zu bekommen, was die 4090 und 5090 "repräsentieren", damals ultramaxed SVGA Gaming mit ordentlicher HD und Eizo Monitor.

Noch Fragen?

PC Gaming für Casuals per se war niemals günstiger und zugänglicher als heute, vor allem dank Nvidia und DLSS. Und AMDS x3D CPUs.
Und für den Einstieg langt sogar die PlayStation 👍


Aber ja, lasst uns über Nischen wie 5080 und 5090 GPUs jammern :D

Die Jugend von heute hat gar keinen Plan wie gut PC Gaming heute dasteht.
Man konnte damals nicht mal 1028x768 mit 30 fps unter 5000+ Euro zocken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RedDragon83, Quidproquo77, ThirdLife und 2 andere
Laphonso schrieb:
Die Jugend von heute hat gar keinen Plan wie gut PC Gaming heute dasteht.
Man konnte damals nicht mal 1028x768 mit 30 fps unter 5000+ Euro zocken.

Fairerweise nahm damals auch niemand Rücksicht. Insbesondere nicht Menschen, die John Carmack, Richard Garriott oder Chris Roberts hießen. Man könnte auch heute problemlos die dicksten PCs bis über die Grenze der Schmerzgrenze belasten -- NEXT GEN eben. Aber da wäre was los... und im Zeitalter der modernen Entwicklung wärs gleich doppelt unklug, wegen Konsolen + Entwicklungskosten. All das hat die Entwicklung schon von selbst verlangsamt. Ditto die ewig langen Entwicklungszyklen: Zwischen Wolfenstein (286er-PC, 1992) und Quake 3 (Pentium III, 1999) lag damals ein gutes halbes Jahrzehnt. Und Jahre, die jeweils mehrere PC-Gens obsolet machten. Heute wissen nur noch Elder-Scrolls-Fans, wann der letzte Serienteil ursprünglich erschien. :D

Die 1990er waren insbesondere in der ersten Hälfte ja eh so die Übergangszeit. Einigermaßen in Richtung Masse gings erst etwa ab Windows 95. Ansonsten waren gerade in Europa noch recht lange die preisgünstigen Commodore-Heimcomputer als Spielegerät verbreitet (Amiga, C64). Bei mir fand der Wechsel auch erst um den Jahreswechsel 1995 statt. Trotzdem sind zumindest die Kaufpreise gerade von Grafikkarten in den letzten fünfzehn Jahren explodiert. Und das nicht nur im High End. Das gabs noch nie in der Geschichte des PCs. Aufgefangen wirds wieder dadurch ein bisschen, dass sie langsamer an Wert verlieren und wiederverkauft werden können. Jedenfalls meistens. Siehe die RX 6750XT, die Mitte 2022 noch (Neupreis) eine ~650-Euro-Karte war. Und zwei Jahre später (Neupreis) für die Hälfte verkauft wurde...
 
  • Gefällt mir
Reaktionen: Vigilant und Laphonso
@Laphonso
Wow, danke für den Trip back in old times. War damals in der Tat schmerzhaft für das Azubi-Budget und nur mit längerer Ansparphase und/oder Sponsoring by Family möglich.

Und man erinnere sich noch an das Gefrickel mit der MS-Dos-Startkonfiguration, um ja ausreichend Arbeitsspeicher zuzuweisen.

Erinnere mich auch noch gut an die Anschaffung einer Matrox Millenium, bevor dann Elsa endlich mit ihren GPUs um die Ecke kam.

Aber, wie bei allen Rückschauen, wichtig ist, was heute ist. Und tiefe Eingriffe in das persönliche Budget sind heute genauso schmerzhaft wie damals.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Laphonso und ThirdLife
p.b.s. schrieb:
AMD's Verzicht erhöhter Leistung und deren Priorität auf Effizienzsteigerung verwiesen, was komischerweise von einigen Usern mißverstanden wurde, warum auch immer. Denn genau das ist es ja, was AMD i.M. realisiert. Nämlich ihre aktuellen Grafikkarten auf Effizienz trimmen(mehr Leistung + akzeptables Raytracing bei identischem Stromverbrauch, also das Gegenteil von Nvidia). Oder ich interpretiere den Begriff "Effizienz" vollkommen falsch.
Effizienz ist immer nur das Verhältnis von dem was man vorne reinsteckt, zudem was man hinten dafür bekommt.
Das sagt rein gar nichts darüber aus, wieviel das in absoluten Zahlen ist.
Eine 575W TGP Grafikkarte kann effizienter sein als eine 120W Grafikkarte, wenn sie entsprechend mehr FPS pro Watt Leistung liefert.
Ob die 5000er Karten effizient sind weiß man nach den Tests und die jetzt genannte TDP sagt darüber rein gar nichts aus.
Bis dato war eigentlich jede neuere Karte effizienter als ihr Vorgänger.

Siehe mal den Test bei Release der 3080:
Die GeForce RTX 3080 auf Basis von Ampere ist – gemessen in FPS pro Watt – die effizienteste Grafikkarte auf dem Markt
https://www.computerbase.de/2020-09...nitt_leistungsaufnahme_desktop_youtube_spiele

Und was du bei AMD als akzeptable Raytracingleistung bezeichnest, würde ich gerne mal wissen, wenn meine 4090 bei Pathtracing in Cyberpunk im Worst Case unter 60FPS fällt.
Raytracing Leistung fehlt es überall noch massiv, aber bei AMD ist man nochmals deutlich hinterher.
 
Zuletzt bearbeitet:
Zurück
Oben