News Offizielle Benchmarks: Der Abstand zwischen RTX 4080 und RTX 4090 ist riesig

SFFox schrieb:
Ich glaube da bin ich auch drüber gestolpert. Bei Nvidias Showcase ist es noch krasser in dem Spiel "Justice", das noch nicht released ist, dem der8auer aber zur Verfügung gestellt wurde:
Da schneidet DLSS 3.0 im Performance Mode mit 80fps statt 18fps ab.
Wie @Suspektan aber indirekt richtig angemerkt hat muss man FG natürlich nur als Teil von DLSS 3.0 sehen. Ich nehme mal an das Upscaling bringt das Spiel dann von 18fps und 40fps und dann kommt erst die FG (Frame Generierung) zum Tragen und kann dies dann verdoppeln.

Es kommt wieder auf das Spiel und dein Wunsch zur Bildqualität an.
mich würde das Flackern stören, in Shootern und dynamischen Szenen wird das sicher nur Teilweise merkbar sein, aber in Simulationen könnte DLSS3 richtig was her machen. Allerdings empfinde ich DLSS2 und FSR in der BQ einfach besser und damit isses für mich einfach. Du kannst halt auch nicht dank DLSS aus einer 1050 eine 3080 machen ;)
Ich muss aber anderen hier zustimmen: Nvidia hätte FG auf der 3000er Serie freigeben können, denn man sieht ja anhand der Tests ganz gut, wo DLSS3 seine Grenzen hat. Das erinnert mich frappierend an die Überverwendung von Tesselation Power um AMD schlecht dastehen zu lassen. Zweifelsfrei ist DLSS3 gut, aber auch nur so gut wie das benutzte Spiel. Und eher schalte ich es bei FS2020, ETS2, oder einem LS22 an als bei einem BF oder eben CoD.. Auch wenn ich damit leben müsste, dass UI Fehler dann um so deutlicher sind. Da finde ich dann FSR/DLSS2 wieder Charmanter und investiere dann lieber in gute Spiele und gute GPU. Und Nvidia sucht mit ABSICHT solche Szenen aus, weil da DLSS + FG Vorteile bietet. Sobald die Bilder dynamischer werden, wirds spannend.


Mein GPU Limit liegt bei 1000€ (Lag es schon seit der Pascal).. Also schauen wir mal, ob die 4080/16G wirklich für 1200€ kommen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tmfo
Laphonso schrieb:
Intel beweist gerade, dass man für 300 Euro nur durchwachsene last Gen midrange Performance kaufen kann.
Da kommt niemand zur Rettung.
Da hast du leider recht, aber was bleibt einem anderes übrig als zu beten. So langsam verliere ich die Hoffnung, wenn ich hier sehe, wie sich die Leute für eine 4090 melken lassen als gebe es kein morgen.

Nvidia alleine kann man eigentlich keinen Vorwurf machen, schuld sind ebenso die Kunden. Ohne diese Nachfrage könnten sich die Preise nicht etablieren. Schade ist nur, dass nun alle die Konsequenzen tragen müssen.

Ich habe leider auch meinen Teil dazu beitragen durch den Kauf der 3060 Ti. War zwar eine andere Situation, weil ich die alte RX 5700 für mehr Geld verkaufen konnte, aber dennoch.

Nunja, die „Strafe“ folgt auf den Fuß.

Sry für die Melodramatik.
 
  • Gefällt mir
Reaktionen: Pjack, Rockstar85 und Beatmaster A.C.
Ragnarök88 schrieb:
Wenn die Karte jedoch mit Frame Generation 50% schneller als eine 3080 mit DLSS 2 ist, kann Nvidias Entscheidung auch goldrichtig sein, wir werden sehen.
Es ist aber schon stark spielabhängig, ob nun fg unterstützt wird, die Verbreitung wird seine Zeit brauchen.
Für die Mittelklasse begrüße ich solche Techniken zwar, andererseits möchte ich mixh ungern in solche Abhängigkeiten begeben.
 
schnufflon84 schrieb:
Mindfactory hat wieder 4090er Karten
Mindfactory ist schon wieder fleißig dabei, mehr Geld als die UVP zu verlangen.
Die Gigabyte, die gerade noch gelistet ist, gab es gestern für 220 EUR weniger bei NBB
 
bigfudge13 schrieb:
Aber der DAU sieht nur den Namen der Karte und wird damit in die Irre geführt. Kundentäuschung at it’s best.
Der uninformierte Kunde hat in der Regel überhaupt keine Ahnung, weil das Namensschema von Grafikkarten sich alle paar Jahre ändert und es meist nur innerhalb einer Generation vergleichbar ist.

Solange die 4080 12 GB die 3080 10/12 GB deutlich schlägt, sehe ich keine Kundentäuschung. Und das scheint ja spätestens durch DLSS3 auf alle Fälle gewährleistet zu sein.
 
Ragnarök88 schrieb:
Solange die 4080 12 GB die 3080 10/12 GB deutlich schlägt, sehe ich keine Kundentäuschung. Und das scheint ja spätestens durch DLSS3 auf alle Fälle gewährleistet zu sein
Dlss 3 unterstützt aber bei Weitem nicht jedes Spiel, daher würde ich das nicht als fairen Vergleich ansehen.
"Alle Fälle" werden besser durch die wahren fps wiedergegeben
 
  • Gefällt mir
Reaktionen: tmfo und Pjack
Hutzeliger schrieb:
Vermutung aufgrund der Fertigung und AMD‘s aktueller CPU/Chipsatz Politik.
Nichts spricht dafür das AMD mal ordentlich vorbei zieht. + aktueller NVIDIA Treiber 522.25 , siehe unten.

Ausführlich:

AMD kam letzte Gen nicht an NVIDIA vorbei,
ihr Fertigungsvorteil jetzt ist wesentlich geringer als der von NVIDIA (Samsung-> TSMC).

Wo soll es denn herkommen? Auf einmal zaubern?
Werden der Zweite bleiben und hinterher glotzen, auch bei der Effizienz.
Damit ändert sich nichts.

Die 4090 ist ja nicht mal der Vollausbau, sondern nur 10/12.
Da wird noch was richtig fettes kommen nach dem 4090 Hammer.

Ihre Preispolitik etc. ist auch nicht mehr so attraktiv.
Wenn sie Geld verdienen können verhalten sie sich genau wie alle anderen.
Siehe aktuelle CPU‘s und Chipsätze.

Nur Fanboys fantasieren wieder was großes, wohltätiges. Wie immer.

Theoretisch könnten Sie die Lücke zwischen den dämlichen 4080ern und der 4090 klug ausnutzen,
aber da wird wohl ihr stärkster Chip liegen und den werden sie auch nicht verschenken.

AMD ist nicht der Retter, war es nie wird es wohl auch nicht werden.

Zusätzlich für mich ein wichtiger Punkt:

NVIDIA hat mit dem aktuellen Treiber 522.25 auch einfach mal die DX 12 Leistung um 10-20 Prozent für Ampere angehoben. Aus dem nichts.
Das auch messbar, und nachweislich.
AMD ist seit gestern noch deutlich mehr hinterher.

Darfst gerne auf alle vorhandenen DX12 Tests, Benchmarks etc. nochmal 10-20% bei Ampere draufhauen.
Dann biste aktuell.
Da muss AMD erstmal vorbei, und dann wartet Ada Lovelace.

AC:V bei mir 20% +
CP:77 sind es knapp über 10% +

Anhang anzeigen 1269843
da ist shcon sehr viel unsinn dabei
du beziehst dich nur auf die top modelle, die sich niemand leisten kann
vielleicht mal ein blick auf steam werfen. die beliebteste karte dort ist noch immer die 1060!

so eine 4090 macht nv nur für prestige!! sah man doch beim bauer. nv pumpt über 100watt mehr rein, nur dass ein paar FPS mehr rauskommen.
verschwendung pur auch beim kühler. eigentlich ekelhaft von nv in der aktuellen zeit von so mit ressourcen umzugehen. ich hoffe sehr, dass AMD da nicht mitmacht

wo hast du den unsinn mit der effizienz her? also soweit ich weiß ist AMD eigentlich ganz vorne dabei wenns um FPS/WATT geht (ohne RT), aber auch bei FPS/€
das sind dann natürlich nicht die top modell, weil sie da eben wie nv strom ohne ende reinpumpen für ein paar FPS, aber wie gesagt kaufen diese high end dinger sowieso nur die wenigsten und bringen nicht das große geld

der punkt mit den fanboys ist auch kompletter unsinn. vielleicht siehst du dir mal an was AMD für die open source gemeinschaft getan hat. open source kennt man bei nv nicht und darum sind sie auch bei linux nutzern so verhasst
VULKAN zB entsand aus MANTLE. AMD hat damals erkannt, dass closed source mist ist und MANTLE os gemacht. VULKAN hast du heute auf fast jedem gerät
 
  • Gefällt mir
Reaktionen: Rockstar85
Ragnarök88 schrieb:
Solange die 4080 12 GB die 3080 10/12 GB deutlich schlägt, sehe ich keine Kundentäuschung.

Geht ja nicht nur um die Unterschiede zu vorherigen Generationen sondern vor allem um 4080 12 GB vs 16 GB. Auf den ersten Blick kein großer Unterschied vorhanden außer beim Speicher.

Mehr darf auf den Verpackungen und Bezeichnungen auch nicht stehen, sonst würde man ja gleich erfahren, das die billigere Karte um einiges langsamer ist.

Das ist nunmal Kundentäuschung. Wenn du das nicht siehst, hast du wirklich eine krasse Fanboybrille auf.
 
  • Gefällt mir
Reaktionen: Pjack, NichtExpert und Gortha
rocka81 schrieb:
Wo soll sich denn hier eine 4070 einordnen? Leistung muss ja unterhalb einer 4080 12GB sein. Dann ist man aber ja schon direkt auf 3080 Niveau. Für 3070 Besitzer würde eine Upgrade auf eine 4070 somit kaum Sinn ergeben,da man dann gleich ne 3080(ti) kaufen kann.
Unterhalb der 4090 ergibt das alles generell keinen Sinn. Fängt mit den beiden 4080ern an und zieht sich natürlich nach unten durch. Aus all dem könnte nur dann noch ein Schuh werden, wenn Nvidia nach einem potentiellen Komplettabverkauf von Ampere (so dieser überhaupt beabsichtigt ist und man nicht vor hat, Ampere noch länger im Programm zu halten) die Preise aller Karten unterhalb der 4090 deutlich senkt, aber das kann ich mir eigentlich nicht vorstellen.

Sollten sich die 1100 Euro der 12-GB-4080 tatsächlich stabil als Ladenpreis etablieren, wird eine 4070 unmöglich unter 700 Euro landen. Sollte sie nicht mehr als 10 GB VRAM haben, erhielte man also identische Leistung und identischen VRAM zum identischen Preis einer 3080. Blieben als einzige Vorteile der neuen Generation der potentiell geringere Stromverbrauch, bessere RT-Leistung und DLSS 3.0. Wobei man das mit dem Stromverbrauch auch erst noch wird abwarten müssen, denn je nach Speicherinterface (und das waren ja schon bei der kleinen 4080 nur 192 Bit) wird das Ding ganz schön hoch takten müssen, um auf 3080-Leistung zu kommen. Insgesamt verdammt dürftig.

Man kann nur hoffen, dass da AMD noch für den einen oder anderen Impuls wird sorgen können ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pjack
Tja, so wie es aussieht war meine Entscheidung für die RX6750XT die absolut Richtige!
Bis nVidia eventuell wieder in Frage kommt wird wohl noch einige Zeit ins Land ziehen.
 
DaCrazyP schrieb:
Ich bin auf jeden Fall gespannt, wie die Lücke zwischen 4080 16GB und 4090 geschlossen werden soll
Da ist genug Platz für RTX 4081-4089
 
Enyo79 schrieb:
Nein bist sicher nicht der Einzige aber leider sind es insgesamt zu wenig.
Die meisten wissen doch gar nicht was nativ überhaupt bedeutet. Bei den ganzen Verfahren die heute für die Grafikberechnung verwendet werden, ( zum Beispiel TAA zur Glättung), spielt niemand mehr in Nativ.

Es wäre törricht in nativ zu spielen und sämtliche Verfahren abzuschalten, geschweige denn solche veralteten Sichtweisen in der Welt der Spieleprogrammierung noch zuzulassen.
 
Pfff vor ein paar Tagen hatte ich mir eine der beiden 4080 varianten noch als nächste Karte gewünscht.
Jetzt ist mir eher klar: 3090ti oder 4090, alles andere ist beschiss vom P/L (nicht das die beiden Karten in irgendeiner Weise ein gutes PL haben xD).

Letztendlich bin ich aber nicht bereit, eine GPU für deutlich über 1000€ zu kaufen.
Dachte die knapp 700€ für meine 1080 wären schon ein hartes Stück aber das sie nun so lange halten muss, ohman
 
  • Gefällt mir
Reaktionen: Relict und Wintermute
Die schnelle Abnahme der Leistung, lässt mich in Bezug auf die 4070/4060 wenig gutes hoffen, Wird in Games vermutlich 10-20% Mehrleistung in vielen Spielen rauslaufen (abgesehen von ein paar Vorzeigetiteln) das macht die 3060Ti schon fast wieder attraktiv naja meine Glaskugel ist noch zu undeutlich um echte EInsichten zu gewähren, aber ich hatte mir leider mehr erhofft als eine Leuchtturmkarte und dann lange nichts und ne große Kluft.
 
Das ist einfach nur eine Mogelpackung, die DLSS3 für den Preis instrumentalisiert.
Die fps bzw. performance / € sind ja schon bei der 4090 trotz der enormen Leistung ziemlich unterirdisch (was ja üblich bei highest end Produkten ist), doch bei den 4080ern a.k.a overpriced 4070 (Ti) dürfte das Verhältnis nochmals schlechter sein.

Ist natürlich jedem selbst überlassen, was man mit dem Geld anstellt, aber das hier ist pure Abzocke.
 
  • Gefällt mir
Reaktionen: Pjack, Grantelb4rt und Rockstar85
Ragnarök88 schrieb:
Die meisten wissen doch gar nicht was nativ überhaupt bedeutet. Bei den ganzen Verfahren die heute für die Grafikberechnung verwendet werden, ( zum Beispiel TAA zur Glättung), spielt niemand mehr in Nativ.

Es wäre törricht in nativ zu spielen und sämtliche Verfahren abzuschalten, geschweige denn solche veralteten Sichtweisen in der Welt der Spieleprogrammierung noch zuzulassen.
Am Ende ist es nicht wichtig, wie das Kind heißt, ob "nativ" oder irgendwie anders. Auf jeden Fall will man im Idealfall unabhängig von jeder Technologie sein, die nur von bestimmten Titeln unterstützt wird oder die - und sei es auch nur in bestimmten Situationen - störende Artefakte produzieren kann, d.h. man will genug Power haben, um so was jederzeit abschalten zu können.
 
  • Gefällt mir
Reaktionen: Pjack und Wintermute
puh. Ich glaube, NV hat es jetzt umgedreht. Bei der 30xx war die 3080 attraktiv. Die 3090 war eher uninteressant, weil der Preisaufschlag von 3080 zu 3090 zu hoch war für das eher übersichtliche Leistungsplus. Die 3090 war eigentlich nur für die interessant, die den VRAM brauchten. Wahrscheinlich hat sich auch nur deshalb verkauft, weil die Frage der Verfügbarkeit eine wichtige Rolle spielt.
Bei der neuen Generation wollte man die 4080 offensichtlich nicht so dicht an die 4090 lassen. Im Ergebnis wird dadurch alles noch teurer und vermutlich hoffen die Hersteller, solche Preise mit Blick auf die Vergangenheit (Stichwort: Mondpreise) wieder generieren zu können. Ist schon ganz schön absurd, was da passiert.
Zumal AMD sich bestimmt wieder an NV orientieren wird und damit auch da die Preise ordentlich klettern (alles andere würde mich wundern).
Wir haben also eine Wiederholung der Situation wie seinerzeit bei Turing, wo die Pascal10xx einfach im Highend durch die Turing 2xxx ergänzt wurden. Der Kunde ist gerade wieder mal der ge...
Ich bin ehrlich gesagt froh, dass ich für mich für die nächsten 3 Jahre Minimum eine Entscheidung getroffen habe.
 
  • Gefällt mir
Reaktionen: Pjack und shaboo
Suspektan schrieb:
Dlss 3 unterstützt aber bei Weitem nicht jedes Spiel, daher würde ich das nicht als fairen Vergleich ansehen.
"Alle Fälle" werden besser durch die wahren fps wiedergegeben
Für manche Leute sind halt auch Cherrypicked Vergleiche "Fair"
Ich sag da zu nur: Don't feed the Troll
 
Die 4080 mit 12GB ergibt irgendwie keinen Sinn. Selbst wenn der Preis real bei 300€ unter der 3090 bleibt, verzichtet man auf die Hälfte an VRAM und einige Prozent Leistung.
 
Zurück
Oben