Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

Rockstar85 schrieb:
Sind wir mal Realistisch:
Nvidia hätte die jetzige GPU mit 450 W als Founders Extreme verkauft..

Dann wäre die 10% @ 300W Version eher im Preisbereich einer 3080Ti, und das Problem wäre hier, dass so ein Impact nicht so lautes Mediales Beben erzeugen würde, wie das Fast 80 TFlops Powerhouse
aber diese Grafik
von 8auer beweist es doch.
die Graka läuft aktuell ineffizient. es wäre soviel möglich gewesen und der balken wäre immer noch der längste. das jetzt auf das medien-echo zu schieben ist traurig.

ergänzung: und bei 19:38 spricht Roman genau das an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sammy2k8 und leonM
Hauwexis schrieb:
Habe für eine 980Ti damals Neu 359€ bezahlt.Das war ein fürs Flaggschiff angemessener Preis. Kurz vor dem Release der 1000er Karten. Zum Release auch gerne 400€ aber nicht mehr.
Die Argumentation kannst ja mal so bei deinem Grafikkartenhändler vortragen:D
 
  • Gefällt mir
Reaktionen: Sly123 und TeKILLA1983
Man kommt sich ja fast schäbig vor mit seiner Hardware :D:D:D
 
  • Gefällt mir
Reaktionen: EyBananaJoe, MrChlorophil, Coenzym und 3 andere
Rockstar85 schrieb:
Ich sag dir klar, dass die Preise der 4080/16 und der 4080/12 Platzhalterpreise sind. Nvidia wird diese Senken, wenn AMD die Karten bringt.
Hmm, meine Wahrnehmung war, dass das schon bei der aktuellen Gen gemunkelt wurde, aber nie eingetreten ist. Warum auch? Nvidia ist da wie Apple oder Lego, die können auf die Kartons schreiben, was sie möchten, gekauft wird es trotzdem. Ein eingefleischter Nvidia-Fan wird sich auch von Kampfpreisen seitens AMD nicht rüberziehen lassen. Quelle: Dieses Forum.

Ist ja auch egal. AMD wird sich einpreisen und sie werden wissen, warum. Wir können das ja bereden, wenn die ATi AMD-Karten raus sind.
 
  • Gefällt mir
Reaktionen: MrChlorophil, Illithide, canada und 2 andere
KingZero schrieb:
Die beiden 4080er sind reine Kundenverarsche seitens NVIDIA. Das sind einfach nur umgelabelte 4060ti und 4070.
Aha warum willst du dazu dann Testberichte lesen, deine Meinung hast du dir doch augenscheinlich schon gebildet…
 
RogueSix schrieb:
Ich habe mich vor einiger Zeit mal ausführlicher damit beschäftigt und ich gebe nichts auf inoffizielle Quellen wie die PCGH
Was behauptet denn die PCGH, dass im Widerspruch stünde?

RogueSix schrieb:
Gemäß meiner damaligen Lektüre ist das redundant, was nVidia da in meinem oben zitierten Ausschnitt empfiehlt mit FPS Limiter und V-Sync on.
Laut anderer Artikel, die ich damals gelesen habe, macht der Treiber das mit dem Limit alles vollautomatisch, wenn G-Sync und V-Sync aktiviert sind.

FPS-Limiter & V-Sync ist nicht redundant. Beides erfüllt einen anderen Zweck innerhalb der variablen Refreshrate.

Der FPS-Limiter dient dazu, die fps innerhalb der VRR (GSync/FreeSync)-Range zu halten. Trotzdem kann hierbei weiterhin Tearing entstehen, weil fps nicht ausschlaggebend dafür ist, sondern die Frametime. Diese kann eben auch innerhalb der VRR-Range varrieren = Frametimevarianz.

Genau aus diesem Grunde wird zusätzlich zum fps-cap und GSync/FreeSync noch das klassische VSync aktiviert. Dies greift somit nur dann, wenn innerhalb der VRR-Range Frametimevarianzen entstehen. VSync schiebt das Bild dann in das richtige Zeitraster ein und verursacht hierbei auch kein zusätzliches Inputlag.

Dabei gelten in allen Fällen folgende Dinge:
  • Ingame fps-limiter sind den Treiberlimitern immer vorzuziehen, weil letztere mehr Inputlatenz generieren
  • eine Reduzierung des GPU-Limits durch einen fps cap reduziert die Inputlatenz wesentlich mehr als Anti-Lag (AMD) oder Low Latency Mode (Nvidia)
  • ingame v-sync on ist dem treiberseitigen v-sync on i.d.R. vorzuziehen, da enginenäher (wie beim fps-cap)
 
  • Gefällt mir
Reaktionen: RogueSix
Hauwexis schrieb:
Wenn ich jetzt, nur ein paar Jahre später plötzlich für ein Flaggschiff mehr als das 5,5 fache bezahlen soll ist das für mich reine Abzocke
Ein paar Jahre? Die 980 TI war 2015 das Flagschiff. Das ist 7 Jahre her, ne verdammt lange Zeit bei GPUs. Die meisten Dinge kosten heute nicht mehr genau so viel wie 2015. Dass man also ein Flagschiff 2022 für den gleichen Preis erwartet ist ziemlich naiv. Dennoch ist es natürlich legitim zu sagen der Preis wäre zu hoch. Aber 400€ sind halt absurd, nur in die andere Richtung und das hat nichts mit verscheissern lassen zu tun.
 
  • Gefällt mir
Reaktionen: CiX
RogueSix schrieb:
Und deswegen folge ich seit Jahren der offiziellen Empfehlung: 1) V-Sync global on (im Treiber ist das wohl so programmiert, dass das bei gleichzeitig aktiviertem G-Sync dann optimal abgestimmt ist)
Aber V-Sync on mit Frame Limit knapp unterhalb der maximalen Aktualisierungsrate (Hz) des Monitors
bedeutet doch, dass V-Sync nie greift bzw. dann nur unterhalb der G-Sync Range (gibt ja z.B. 40-144Hz)
also wäre V-Sync on ohne Frame Limit komplett falsch und bedeutet man zockt mit V-Sync statt G-Sync.

Klar ist V-Sync ab 120Hz auch relativ smooth und der Input Lag kaum fühlbar aber es würde mich stören.
 
Holy Jesus, die Wattlimitierung bei 300 Watt und dann trotzdem die 3090 Ti zerstört. WOW.
 
  • Gefällt mir
Reaktionen: leonM
Marcel55 schrieb:
Die Leistungsfähigkeit ist krass.
Ich habe gerade für 700€ eine High-End-Karte erworben und muss jetzt hier im Test, dass diese neue Karte 50-150% schneller ist :freak:

Aber 1950€ sind ne stolze Summe, die möchte ich aktuell nicht aufbringen.

Ich denke ich habe trotzdem nichts falsch gemacht. In 2-3 Jahren gibt es dann eine Karte die so schnell wie die 4090 ist für 700€ oder so. Dann kann ich immer noch aufrüsten. Brauche ich diese Leistung derzeit überhaupt?

Naja, eigentlich schon, sind doch 4K120 mein Ziel...hm...
Welche Karte hast du dir gegönnt?
 
"Die Preise steigen mit der neuen Generation gegenüber dem jeweiligen Vorgänger damit abermals an. Doch die Mehrleistung rechtfertige das, argumentiert Nvidia – und lässt zugleich genug Spielraum für den Abverkauf der letzten Generation."

Das sagt doch alles.
Preise so anziehen, damit als erstes die alten Karten gekauft werden.
Die unbelehrbaren Zahlen schön Lammfromm.
Zerstören damit leider jede zukünftige "Normale" Preisgestaltung.
NV wird sich immer mehr bestätigt fühlen.
 
  • Gefällt mir
Reaktionen: leonM, polyphase, Illithide und 3 andere
0ssi schrieb:
Aber V-Sync on mit Frame Limit knapp unterhalb der maximalen Aktualisierungsrate (Hz) des Monitors
bedeutet doch, dass V-Sync nie greift

Nein. V-Sync greift auch innerhalb der G-Sync range, weil G-Sync in der Realität (wie FreeSync) Tearing nicht vollständig eliminiert. V-Sync greift dann genau und auch nur in diesem Moment ein.
 
  • Gefällt mir
Reaktionen: Celinna
Ziemlich lahm, eine neue Generation die einfach nur das Portfolio nach oben ergänzt anstatt wirklich was zu bieten. Bei dem Preissprung wird NVidia ganz sicher ihre Resterampe los.
 
  • Gefällt mir
Reaktionen: Illithide
Hmmm, besser als ich gedacht hatte.
ABER ich sehe da auch deutliche Kritikpunkte.

Vor allem in der Effizienz. 300 W und trotzdem +60% gegenüber 3090 Ti.

Warum bringt man dann die Karte überhaupt mit 450 W Power Target...mir scheint nVidia ahnt bereits, dass die 300 W nicht lange reichen werden.

Und dann der Preisanstieg. 1:1 Performancegewinn in € umgemünzt...sonst gab es eigentlich immer ~+50% fürs "gleiche Geld" bei Generationswechseln.

Vermutlich sind die Ampere Lager einfach noch zu voll und man muss den Abverkauf der eh schon überteuerten Amperes noch stärker befördern.

RDNA3 erscheint in dem Kontext nun erst richtig interessant. Wenn die Gerüchteküche genauso stimmt wie es bei Ada im Grunde genommen war (bezogen auf Performance-Level), dann liegt RDNA 3 +- auf Augenhöhe. Vermutlich sogar mit echten 300W (gegenüber 450W)
 
  • Gefällt mir
Reaktionen: Illithide
"Der folgende Teaser liefert allerdings direkt zum Einstieg einen Eindruck davon, was Nvidia Ada Lovelace in Form des AD102 auf der GeForce RTX 4090 zu leisten im Stande ist."

na da bin ich ja schon mal gespannt auf das Fazit.
Da muss ja mindestens kommen EffizenzBOMBE! 300W hätte der Standard sein sollen!
Weil die 10% sind zur Leistungsaufnahme erbärmlich!
 
Piak schrieb:
Nö.
Überschrift von Wolfgang:

"Die Rohleistung kommt in Spielen oft nicht an"​

Genau dass ist dass was ich kritisiere. An der Architektur hätte man mehr arbeiten können und sollen.
Liegt einfach daran, das die Karte selbst in 4K ins CPU Limit läuft bei den meisten games wenn man kein RT an schmeißt, wie Digital Foundry zeigt. CPUs sind einfach zu langsam für die Karte :D

Oder hier

https://twitter.com/SkyJuice60/status/1579825383842537473?t=IZGSSpkMFRczbHEF82Dn6Q&s=19
 
  • Gefällt mir
Reaktionen: Zockmock und Celinna
habla2k schrieb:
Ein paar Jahre? Die 980 TI war 2015 das Flagschiff. Das ist 7 Jahre her, ne verdammt lange Zeit bei GPUs. Die meisten Dinge kosten heute nicht mehr genau so viel wie 2015. Dass man also ein Flagschiff 2022 für den gleichen Preis erwartet ist ziemlich naiv. Dennoch ist es natürlich legitim zu sagen der Preis wäre zu hoch. Aber 400€ sind halt absurd, nur in die andere Richtung und das hat nichts mit verscheissern lassen zu tun.
Schon die 400 € sind absolut falsch dargestellt. Seit ich denken kann, habe ich bei jedem Grafikkartenrelease seit der 7800 GTX immer so 600-700 € pro Karte gelassen. Es hab nirgends das Spitzenmodell am Releasetag für 400 €, das ist schlichtweg gelogen! Zwischendrin hatte ich dann mal die GTX 580er für günstige 550-600 €. Alles andere danach war immer teuer, besonders die TI-Spitzenmodelle. Eine 980 TI hat er niemals zum Release für 400 € gekauft, eher als Restposten irgendwann mal 2-3 Jahre danach.

Topic: Igor hat auch schon gute Anwendungstests veröffentlicht:
https://www.igorslab.de/nvidia-gefo...strotzende-monolith-der-aus-der-kaelte-kam/9/
 
Balikon schrieb:
Für die meisten Spiele des Testparkours kann man die Karte entspannt auf 300 - 350 Watt laufen lassen, und ist so mit erheblich weniger Strom erheblich schneller unterwegs als die 3090 Ti mit 450 Watt.
Auch eine 3090 Ti kann man untervolten, blendest du das gekonnt aus? Die 3090 Ti FE taktet mit durchschnittlich 1950 MHz und braucht dafür 450 W oder sogar leicht mehr. Meine 3090 Ti Suprim X ist mit 0,9v bei 1965-1980 MHz und braucht dabei 330-350 Watt unter Volllast :rolleyes:
 
  • Gefällt mir
Reaktionen: MrChlorophil, shaboo, TouchGameplay und 2 andere
Balikon schrieb:
Ist ja auch egal. AMD wird sich einpreisen und sie werden wissen, warum. Wir können das ja bereden, wenn die ATi AMD-Karten raus sind.
Ich freu mich :) Ich hoffe in 2-3 Wochen wissen wir mehr.
Auch bin ich sehr gespannt, ob RDNA Av1 haben wird.

Aber ich bin auch gespannt, ob in Zukunft diese Preisregionen bleiben werden. So ganz bin ich da ebenso wenig von Überzeugt.
 
Zurück
Oben