News Offizielle Benchmarks: Der Abstand zwischen RTX 4080 und RTX 4090 ist riesig

Nefcairon schrieb:
was spielt ihr damit für Spiele?
Ark, Tiny Tinas Wonderland, Metro. Alles @3440x1440 und 100Hz/FPS mit so hohen Details wie möglich. Dafür war die 3080 zu schwach außer ich habe die Details dann (für mich) zu weit runtergedreht.
 
  • Gefällt mir
Reaktionen: iron_monkey
Vielleicht wird es wirklich Zeit für die Spiele-Pensionierung.
Nächstes Jahr erwarte ich ein Kind, dann ist sowieso mal vorbei bis auf weiteres, so glaube ich.

Solche Marktspielchen vereinfach mir die Entscheidung ungemein. Habe die 20x0, 30x0 und jetzt, am einfachste die 4000er Serie erfolgreich ausgelassen.

Der Rest des Systems hat schon ca. 8 Jahre auf dem Buckel. Wer hätte gedacht, dass das möglich ist?
Das Gefühl etwas aufrüsten zu müssen stellt sich einfach nicht ein. 6Kerner und 24GB RAM, mit HDD und SSD ausgerüstet reicht für alles.

Tut mir leid für die die das Hobby weiterführen wollen. :pcangry:
 
silentdragon95 schrieb:
Das zeigt zwei Sachen. Einerseits ist die "4080 12GB" definitiv eine Beleidigung der Kunden. Andererseits sind die Preise für das Gebotene unterhalb der 4090 viel zu hoch. Da dürfte man in jedem Fall besser beraten sein, eine RTX 3080 oder eine 6900XT (wenn man kein Raytracing braucht) zu kaufen, gerade letztere ist aktuell vergleichsweise sehr günstig zu bekommen.
Die kann rt.
 
1. UVP. Mal schauen, wie das auf dem Markt aussieht.
2. Setze ich als Arbeitsmittel von der Steuer ab. Hallo neuer NVENC.
3. Gaming ist kein Recht, sondern Privileg. Wer keine Lust auf Solidarität hat, sich auf der Arbeit nicht organisieren mag, schraubt die Grafikeinstellungen runter und es geht weiter.
 
AnkH schrieb:
Die Preise sind auch für die 4090 viel zu hoch...

Kleine Geschichte dazu: iwann hat ein sehr intelligenter Mensch bei nVIDIA gedacht: "schauen wir mal, wie weit wir gehen können" und nVIDIA verkaufte uns mit der GTX 680 einfach mal ein eigentliches X70er Modell als X80 und natürlich zu X80 Preis. Wurde gefeiert und nVIDIA lachte sich ins Fäustchen. Das Spiel wurde dann regelmässig etwas ausgebaut, iwann verlangten sie dann einfach für das neue X80er Modell in etwa soviel Aufpreis, wie sie Mehrleistung gegenüber der alten Generation brachte und dachten sich wohl, das wird jetzt den Bogen überspannen. Dann kamen die heutigen Nichts-Versteher, welche zu GTX 680 Zeiten noch in die Windel gekackt haben und ihr Geld primär von Pappi kriegen und erfanden das Argument der Dämlichkeit: "die Karte darf gut 20% mehr kosten, sie leistet ja auch mind. 20% mehr" und die bei nVIDIA kriegten einen Lachanfall ab der Dummheit der Kunden. Ein paar Jahre später stehen wir nun da, zahlen für ein Topmodell 2000 (ZWEITAUSEND!!!) Euros und mehr und finden immer noch, für die Leistung sei das eigentlich ganz in Ordnung.

Ich erinnere mich gerne an den Post vor ein paar Jahren (noch weit vor der COVID Pandemie), wo ich behauptete, wenn man diese Idiotenargumentation weiterzieht, werde uns nVIDIA iwann 1000€ für eine X60er abknöpfen. Damals wurde ich von diesen Nichts-Versteher belächelt oder gar beschimpft, ich hätte ja von Marktwirtschaft null Ahnung, das würde der Markt regulieren und nie zulassen und all das Gesülze. Und ws haben wir jetzt? Eine RTX 4080 12GB, die eigentlich eine RTX 4070 ist, mit über 1000€ UVP. Eine 4060 Karte für 1000€ ist also gerade mal noch ein paar Monate entfernt...

Aber klar, der Markt wird es regeln facepalm. Der Markt regelt nichts, solange Vollhonks solche Preise zahlen, die Karten abfeiern und mit Lowbob-Argumente wie oben um sich werfen.

Danke dafür, dass ihr mein Hobby zerstört habt. Und danke an HW Magazine wie CB und Co., welche unter Null journalistische Verantwortung wahrgenommen haben über all die Jahre. Könnte echt Kotzen. /rant over

Danke für deinen Beitrag. Du sprichst mir aus der Seele.
 
  • Gefällt mir
Reaktionen: CMDCake, danyundsahne und Mimir
Nixdorf schrieb:
Korrektur:

Prozentangaben sind fies... wenn man "schneller" schreibt, sind es 11%, 22% und 25%.

khgffs schrieb:
bitte beim beschreiben von relativer performance den bezugspunkt beachten.
das diagramm ist normiert auf die "4080" 12gb.

wenn eine 3080 20% langsamer ist, ist diese 4070 nicht 20% schneller sondern 25%.
Danke euch beiden! Ihr habt natürlich Recht, da habe ich das Pferd falsch herum aufgezäumt. ^^ Ist korrigiert.
Thaxll'ssillyia schrieb:
@MichaG: in der Tabelle ist die FP16 und 32 Rechenleistung jeweils gleich, ich denke das ist wohl ein Fehler
Das ist kein Fehler, das ist bei der Architektur wirklich so. Double-Checked.
 
  • Gefällt mir
Reaktionen: Thaxll'ssillyia und Nixdorf
xmimox schrieb:
Irgendwie haben hier Leute verschobene Preisverhältnisse aus der Vergangenheit im Kopf. Also ich hab 1998 für meine 400Mhz, 512MB RAM.. inkl. Monitor ca. 3800DM gezahlt. Man konnte für top Teile damals auch schon eine Niere verkaufen.
Hier sprichst du aber von einem ganzen Computer inklusive Monitor und nicht nur von einer einzelnen Komponente.
 
da!mon schrieb:
Gerade bei Overwatch 2 oder anderen PvP Spielen wird das vermutlich ne menge Inputlag geben.

Overwatch 2 erreicht auf jeder Kartoffel 144 fps, dafür braucht man kein DLSS.

da!mon schrieb:
Ich kann mich allerdings nicht an einen Leistungssprung in diesem Ausmaß erinnern, selbst die ur-GeForce 256 konnte sich nicht so dermaßen von der TNT 2 Ultra absetzen.

6800GT, 7800GT und 8800GT waren ähnlich schnell veraltet, bzw. hatten längst nicht so große Reserven, wie die heutigen Mittelklassekarten. Erstere war schon bei der HDR-Beleuchtung von Half-Life Lost Coast am Ende, Gothic 3 auf der 7800GT war eine Diashow, und bei Crysis auf der 8800 GT musste man schon deutlich Details wegschalten, um überhaupt auf halbwegs brauchbare 50 fps zu kommen.

RogueSix schrieb:
hier ist mal eine Liste mit DLSS/FSR/XeSS Games.

Wobei mich ärgert, dass NV bei der Schnittstelle nicht weitsichtiger war, so dass sie von Anfang an alle Informationen an den Treiber liefert, um nachträglich höhere DLSS-Versionen per Treiber zu erzwingen, die im Spiel noch nicht vorgesehen waren.
 
  • Gefällt mir
Reaktionen: CMDCake
Nefcairon schrieb:
Ich frag mich seit längerem, wo die Titel sind, die die Performance brauchen.
Es gibt sie nicht und dennoch hauen die Leute 2000€ auf den Kopf um eine 4090 in ihrer Forensignatur darstellen zu können.
 
silentdragon95 schrieb:
wenn man kein Raytracing braucht
Die kann ja RT, zwar "nur" auf 3070 Level, aber das ist durchaus brauchbar.
 
leonM schrieb:
Ich muss sagen, was mich bei diesem Artikel stört, dass hier nicht klar DLSS definiert bzw. betitelt wird. Welches DLSS kommt den hier zum Einsatz? Ich gehe davon aus, dass es DLSS3(4080@12) vs. DLSS2(308/90) ist aber ganz klar wird es aus dem Artikel nicht ersichtlich. Seitdem wir mittlerweile DLSS3 hinzubekommen haben, muss man das auch so klar benennen, damit man die Unterscheidung bzw. keine Unterscheidung sehen kann.
Du hast dir aber schon die von nVidia offiziell erstellten Diagramme angeschaut, oder? Wie deutlich sollen DLSS 2.x und 3.x denn noch gekennzeichnet werden?

Wenn man sich die Werte so anschaut, dann scheint es ganz, als ob nVidia die neuen Kartrn über das DLSS 3-Feature pushen/verkaufen möchte.

Wenn am Ende herauskommt, dass die Funktion wieder nur künstlich eingebremst ist (so wie DLSS 1 und 2 bei der GTX10x0-Serie), dann gehört das nVidia mal ganz gewaltig um die Ohren gehauen. Damals schon hieß es, dass DLSS nur mit den ach so besonderen Tensor-Cores der 20x0er bzw. der 30x0er Serie laufen würde, was nachweislich nicht stimmt, offiziell aber dennoch nicht unterstützt wird.
 
Piak schrieb:
Wo quasi 2 Versionen 4080TI reinpassen

Wieso nur zwei?
4080 Super
4080 Ti
4080 Super 12GB
4080 Ti 12GB

:D
 
NVidia-Bezeichnungso müsste sie heißenWunschpreisBemerkung
RTX 4090RTX 40901500teuer, aber unglaublich schnell
-RTX 4080 Ti1100gibt es (noch) nicht
RTX 4080 16GBRTX 4080900
RTX 4080 12GBRTX 4070700wurde gestrichen
RTX 4060500noch nicht vorgestellt
RTX 4050300noch nicht vorgestellt

Ich befürchte, dass NVidia diese Schweinerei wie RTX 4080 12GB ebenso mit kleineren Karten macht, d. h. vielleicht kommt dann eine RTX 4060 12GB und RTX 4060 8GB raus. Bisher gab es zumindest ein "Ti" bei der besseren Variante.

Die Preise hätten durchaus sehr viel humaner ausfallen dürfen. Der Marktpreis wäre dann auf jeden Fall deutlich höher gewesen. Aber vielleicht hätten sie dann die alten Karten noch viel schlechter als ohnehin verkaufen können. Von daher und ohne Konkurrenz können sie verlangen, was sie wollen.
Bleibt nur zu hoffen, dass AMD möglichst schnell und möglichst gute Karten raus bringt. Ich befürchte, dass AMD bei den Preisen ebenfalls ziemlich zulegen wird. Wenn die schnellste AMD Karte die Performance einer 4080 16GB erreicht und dann 24GB VRAM hat, dann kostet die bestimmt das gleiche wie die NVidia-Karte.

Edit: NVidia nimmt die RTX 4080 12GB tatsächlich raus --> klick. Mal schauen, ob sie dann als 4070 Ti oder 4070 erscheinen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gaspedal
Zwei so unterschiedliche Grafikkarten im Prinzip gleich zu nenennen ist schlicht ne Frechheit.
 
  • Gefällt mir
Reaktionen: CMDCake und Gaspedal
DJMadMax schrieb:
Du hast dir aber schon die von nVidia offiziell erstellten Diagramme angeschaut, oder? Wie deutlich sollen DLSS 2.x und 3.x denn noch gekennzeichnet werden?

Wie ich im späteren Post geschrieben habe, hab ich nur die groß eingebetteten Bilder(https://pics.computerbase.de/1/0/5/3/1/4-fbfc377a0cafca49/article-1280x720.a2cb4dd1.jpg) betrachtet zzgl. dem gesamten Inhalt des Artikel, das Erste-Bild ist eigentlich die durchschnittliche DLSS-Performance zwischen den GPU's aber eben ohne die Info welche Art DLSS dort verwendet wurde im Vergleich zu den von dir besagten kleinen eingebetteten Nvidia-Bildern, die ich übersehen habe. Daher war mir nicht klar, was für DLSS jetzt vergleichen wurde.(da im Artikel auch nur von DLSS gesprochen wurde)
 
  • Gefällt mir
Reaktionen: DJMadMax
ach komm. jeder weiß, dass die 4080 maximal eine 4070 sein sollte, aber wegen der vollen 3000er lager trickst nvidia rum

respekt vor der leistung der 4090, aber die nebengeräusche machen nvidia sehr unattraktiv. angefangen bei dem oben beschriebenen, über evga bis zu den viel zu hohen preisen (auch wegen der vollen 3000er lager)

ich hoffe so sehr, dass AMD ihnen so richtig P/L und FPS/WATT in die parade fährt
 
Die enttaeuschende Leistung der 4080 deutet fuer mich darauf hin, dass Nvidia fuer diese Generation keine starke Konkurrenz von AMD erwartet.

Ich hoffe dass ich damit falsch liege, da starke Konkurrenz natuerlich gut fuer den GPU Markt ist.
 
zivilist schrieb:
Nö nicht alle: ich hatte damals zur GTX 960 gegriffen da die GTX 980 mir zu teuer war.
Ich hatte damals die GTX980.. schon bevor das mit den 3,5 GB der 970 bekannt wurde. War damals die schnellste Karte, die man für Geld kaufen konnte (520€ direkt nach Release).

7,5 Jahre später bekommt man für die dreifache Kohle die 4080 16GB und für die vierfache Menge dann erst das Flaggschiff…einfach irre
 
  • Gefällt mir
Reaktionen: zivilist, Keloth und TieTie
Zurück
Oben