Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

Tut sie, nennt sich aber 4080 (12GB).
 
  • Gefällt mir
Reaktionen: Gaspedal, Captain Mumpitz und Ayo34
Melu76 schrieb:
ich kenne jemanden der wirklich bissel kohle zuviel hat, und der eiert mit nem ollen aegis rum, da ist noch ne 1070 drin. da könnte ich eher den kopf schütteln. das ist ineffizient.

Was ist daran ineffizient, wenn man eine Grafikkarte lange verwendet und Rohstoffe nicht verschwendet? Gleichzeitig braucht die 1070 keine 150 Watt. Aber klar, 4k spielen mit 3090ti ist deutlich effizienter als mit der 1070 FullHD zu spielen. Mag sogar so sein, aber unter dem Strich verbraucht die 1070 trotzdem nur 1/3.
Ergänzung ()

kicos018 schrieb:
Tut sie, nennt sich aber 4080 (12GB).

Und genau deswegen wird die 4070 (4060) dann auch wieder mit 8GB oder max. 10GB kommen...
 
  • Gefällt mir
Reaktionen: msv, Captain Mumpitz und habla2k
Die Kommentare sind im PKW-Forum vergleichbar mit ....shit der neue M3 kostet 120k volle Hütte und der 340 mit den tatsächlich benötigten Extras für die Hälfte taugt nun jetzt höchstens als Gehhilfe. 🤣 (während die Masse mit einem gut ausgestattem 316 überglücklich wäre und in der Realität eher mit Polo und Golf TDI unterwegs ist) Muss man net verstehen.
 
  • Gefällt mir
Reaktionen: msv, Markenprodukt, [SM]Valen und 4 andere
Melu76 schrieb:
wenn es wenigstens Klugscheissereien wären.
aber die meisten tragen doch nur ihre ahnungslosigkeit zur schau
[...]
wenn ich meine KLEINE 3080 mit 2 Anschlüssen nicht undervolte zieht die bis 370w.
Das ist SEIT JAHREN ganz normal.
[...]
450w für das high end modell ist stagnierender verbrauch und damit mehr als im Trend
Endlich wieder ein Beweis für die These, dass man im Internet nur fett schreiben muss um Recht zu haben. :p
 
  • Gefällt mir
Reaktionen: Melu76
Straputsky schrieb:
Daher bei allem Enthusiasmus: Etwas mehr nüchterne Distanz würde ich mir schon wünschen. Der Ada ist auch so schon beeindruckend genug. Aber mehr Ausführungseinheiten, mehr Takt und fortschrittlicher Node ist keine wirkliche Meisterleistung von nVidia, sondern von TSMC, die einen solchen Chip produzieren können. Aber wo stünde eine 4090 gegenüber einer fiktiven 3090 4nm (TSMC)? DAS wäre der Fortschritt von nVidia.
Da gehört schon noch ein wenig mehr dazu, als nur die Ausführungseinheiten zu erhöhen, aber ich gebe Dir im Grunde genommen Recht.
Man hat eine detailverbesserten Ampere- Basis entwickelt und einfach den Fertigungsnachteil, den man durch den Samsung- Node hatte für Leistungssteigerungen aufgezehrt.
Was bei mir wiederum die Frage aufwirft, wie stark Ampere eigentlich hätte sein können, wenn man auf einen damalig aktuellen TSM- Prozess gesetzt hätte.
Aber wie heisst es so schön- Das Pferd springt immer nur so hoch, wie es muss.

Ich denke, dass das auch bei Ada so sein wird, dass sie das Produkt so platzieren, dass es sich (wenn überhaupt) minimal von AMDs kommender Konkurrenz absetzen können wird (was rastern anbelangt).
Bezüglich der Features, gerade auch in Sachen Raytracing hat man noch einmal ein Pfund draufgelegt, wobei da immer die Frage ist ob und wann die Entwickler entsprechende Möglichkeiten ausschöpfen.
Zumindest geht NVIDIA nachwievor all in, was Raytracing anbelangt.
Wenn man sich pathtraced- Spiele wir Minecraft und Quake 2 ansieht, reicht die Leistung für 4K 60FPS inzwischen aus. Somit ging die Entwicklung für eine Praxistauglichkeit auch im High- End Bereich dann doch erheblich schneller, als ursprünglich von vielen gedacht.
Somit könnten sich in Kürze die ersten AAA Spiele an einen Path- Tracing Modus heranwagen. Und spätestens ab dann sind wir im Kippeln von einer Technologie (Rastern) zur anderen (Raytracing). Zumal Zweitere in Zukunft weiter deutliche Leistungssteigerungen und Qualitätsverbesserungen verspricht.
 
Zuletzt bearbeitet:
joel schrieb:
Ich hoffe das die 4070 dann endlich mit mehr VRAM erscheint.
Das war nVidias größter Fehler.....
Wird sie haben!

Beim 128bit SI (mehr ist bei Sub 1000€ nicht drinn) können 16gb drauf!
Wobei auch 96bit/12gb für die zweite 4070 möglich sind.
 
65% schneller als der Vorgänger sind gute Werte und nichts was im Bereich Chipfertigung außergewöhnlich ist. Sozusagen Standard. Der Energiebedarf ist das nicht und der Preis ist schon dreimal nicht.

Das ist ein gutes Produkt zu einem absurden Preis, eigentlich dasselbe wie seit der 1000er Serie. Der Preis wird nicht weniger. Nur davon lassen sich mittlerweile viele andere schöne Dinge kaufen. Viele neue Spiele die die Leistung auch abrufen können haben einen eingebauten Münzschlitz.

Es ist vollkommen ok sich das Ding zu kaufen wenn man es bar bezahlen kann ... Nur ob es Sinn macht muss jeder für sich wissen. Mich persönlich kotzt die Vermarktungsplattform Computerspiele mittlerweile fast nur noch an. Einige Spiele werde ich gerne mitnehmen, mit einem 1500€ Budgetbuild die letzjährigen Toptitel zocken, lol.
 
  • Gefällt mir
Reaktionen: Cempeg
Ach schade und ich dachte die UVP knackt die 2000 EUR noch. :D
Ich hätte NVIDIA ja nun ernsthaft gratuliert, zu einer famosen Darstellung einer neuen Grafikgeneration, PowerTarget 350W als Standard annehmen, den Partner-OC-Karten die Freiheit für 450W lassen.

Dann hätte der Kunde effizient 99% der Leistung gehabt und wir wären alle mit dem Standard rundum zufrieden.
Wer dann dem deutschen Stromnetz das letzte Fünkchen Hoffnung rauben will, kauft eine überzüchtete Grafikkarte mit 450W bis 600W PowerTarget. :mussweg:

Ich hoffe AMD bringt was mit vernünftigem P/L-Verhältnis, meine RX5700XT könnte langsam noch mal ersetzt werden, die hat vor 2 Jahren allerdings 430 EUR gekostet, da bekommt man heute nix mehr für.
 
  • Gefällt mir
Reaktionen: beercarrier
Grundgütiger schrieb:
Wird sie haben!

Beim 128bit SI (mehr ist bei Sub 1000€ nicht drinn) können 16gb drauf!
Wobei auch 96bit/12gb für die zweite 4070 möglich sind.

16GB? oder doch einfach 8GB?
 
  • Gefällt mir
Reaktionen: Cempeg
Grundgütiger schrieb:
Wird sie haben!

Beim 128bit SI (mehr ist bei Sub 1000€ nicht drinn) können 16gb drauf!
Wobei auch 96bit/12gb für die zweite 4070 möglich sind.
Genau mein Humor! :)

96bit - 6 GB reicht doch auch vollkommen. Dann könnte man die Karte für ca. 799€ anbieten.
 
  • Gefällt mir
Reaktionen: Cempeg
updater14 schrieb:
Ich hoffe AMD bringt was mit vernünftigem P/L-Verhältnis, meine RX5700XT könnte langsam noch mal ersetzt werden, die hat vor 2 Jahren allerdings 430 EUR gekostet, da bekommt man heute nix mehr für.
Hey ist doch nicht so das Nvidia für dich nicht noch was in der Preiskategorie bringen wird. Bin mir sicher um den Kurs herum wirst eine ultraeffiziente 4040Ti 6GB erwerben können. Zwar nicht wirklich schneller aber mit Raytracing (und 20 fps). Tja Geringverdiener mit ihren 430€ GPU´s.
 
Kommando schrieb:
Genau mein Humor! :)

96bit - 6 GB reicht doch auch vollkommen. Dann könnte man die Karte für ca. 799€ anbieten.

Sind wir doch mal ehrlich. Bei 1280 x 720 Auflösung braucht es auch keine 8GB!
 
  • Gefällt mir
Reaktionen: Cempeg, Kommando und Pisaro
Ich lese immer wieder Kommentare die sagen das der Preis der 4080/90 gerechtfertigt ist weil sich ja auch die Leistung erhöht hat.
Hat man dieses Argument auch mal zu Ende gedacht? Also wenn eine Verdoppelung der Leistung auch immer eine Verdoppelung des Preises rechtfertigt?

Ich nehme mal jetzt als Beispiel nur jede 2 Graka-Generation:

2080 = 700€
4080 = 1.400€
6080 = 2.800€
8080 = 5.600€
. = 11.200€
. = 22.400€
. = 44.800€
usw usf

Sorry , aber so funktioniert technischer Fortchritt nicht. Mit diesem Argument müsste heute ein 55" 4k TV viermal teurer sein als ein 55" FHD-TV und ein 55" 8k TV viermal teurer als ein 55"4k TV da ja jeder technologische Fortschritt 4 mal mehr Pixel bringt.

Oder eine 1 GB NVMe SSD die gegenüber einer SATA-SSD die 8 bis 16 fach schneller ist ( SATA III SSD nach Overhead = max. 550 Mb/s vs NVMe = 4 bis zu 8 Gb/s) müßte demnach auch 8-16 mal teurer sein als die SATA-SSD.

Technischer Fortschritt bedeutet, das neue Technologie für alle bezahlbar wird durch Massenproduktion.
Das neueste Erfindungen erstmal sehr Teuer sind ist ja normal. Beispiel OLED-TV, da hat der aller erste 55" von Samsung gut 6.000€ gekostet, heute bekommt man 55" OLED TVs für unter 1.000€.

Eine Graka ist aber keine neue Erfindung sondern Massenware (Massenproduktion)!

Und eine Graka ist auch kein Luxusartikel wie z.b. Goldschmuck. Dieser 2.000€ RTX 4090 "Luxusartikel" ist in 20 Jahren keine 100€ mehr wert! Im gegensatz zu wirklichen Luxusartikeln wie z.b. Goldschmuck die im Wert nichts bis wenig verlieren oder sogar im Wert steigen können.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Cempeg, Gene Jackman, thom_cat und 9 andere
überall liest man: 'zu teuer', m.M. nach Blödsinn. Die Karte ist das Flagschiff und bringt gegenüber der Vorgänger-Generation einen (fast) einmaligen Leistungssprung. Diese Karte ist das absolute Non-Plus-Ultra. Für einen neuen Bentley muss ich auch 300'000.- € bezahlen. Wer sich das nicht leisten kann, der soll sich einen Audi oder eben einen Renault kaufen. Ich hoffe, dass dieses ewige, unpassende, Gemotze und Gejammer über die 'so hohen Preise' für PC-Highend irgendeinmal aufhört.
 
  • Gefällt mir
Reaktionen: Ragnarök88, Öcher Tivoli und HyperSnap
Naja, bisschen Vorsicht ist hier schon auch geboten. Auch wenn ich ein 4090 Käufer bin, aber mega weit hergeholt ist das Gemotze halt nicht weil die Preisanstiege sich ja bis nach ganz unten durchziehen.
Ist ja nicht so dass nur Highend steigt, low end passt sich auch nach oben an.
 
  • Gefällt mir
Reaktionen: Veitograf und beercarrier
@schneller!

Also wird ein Bentley auch so schnell wertlos? Schlechter Vergleich und soll jetzt jede neue gen 500-1000 Euro Aufschlag verlangen?

Wer hier sowas mit einen Status Symbol vergleicht, der versteht keine Hardware oder Technik. Damit arbeitet man und fährt nicht um dem Block
 
MeisterOek schrieb:
Interessanterweise hat Igor in seinem Video das Gegenteil gesagt oder war es der 8auer? Jedenfalls haben die es anhand der Bilder analysiert und meinten es würde mit DLSS(3) schärfer aussehen und wäre nativ weicher.

Das Problem ist doch das die meisten Spiele viele Nachbearbeitungseffekte verwenden, welche das Bild deutlich weicher und verschwommener machen. Natürlich hat man dann mit dem DLSS schärfen das "schärfere" Bild. Sobald man aber diese "Weichzeichner" deaktiviert, sieht das komplett anders aus.
 
Zurück
Oben