Test Nvidia GeForce RTX 4070 Super im Test: Mehr Leistung für die 12-GB-Grafikkarte

GT200b schrieb:
Trotzdem viel zu teuer, ich korrigiere:

GeForce RTX 4000 SuperUVP NvidiaUVP wie sie
sein sollte:
RTX 4070 Super 12 GB659 Euro🤢429 Euro17. Januar 2024
RTX 4070 Ti Super 16 GB889 Euro🤮569 Euro24. Januar 2024
RTX 4080 Super 16 GB1.109 Euro🤧729 Euro31. Januar 2024
Sehe ich auch so....selbst Inflationsbereinigt dürfte NV niemals so viel verlangen, da wären wir vielleicht bei 50€ Aufpreis, aber keine 2, 3, oder 400€.
Das gilt aber auch für AMD, nur nicht in so einem Ausmaße. Hier gehts ja "nur" bis ca. 950-1150€.

Nur hat NV noch eine Karte drüber, die gegen 2000€ geht. Abartig.
 
  • Gefällt mir
Reaktionen: JarlBallin
SonyFriend schrieb:
Nach meiner Einschätzung wird eine 4070S ca. 100€ teurer sein im Vergleich zur 7800XT, aber das gilt es eben zu beobachten.
Ich würde mit mehr rechnen dann gibt es auch keine langen Gesichter. Lieber etwas warten bis der erste Hype vorbei ist egal welche Karte man kaufen möchte. Gegen Ostern könnte deine Einschätzung auf breiterer Front eintreten m.E. abseits der 2 Propellerlösungen und der FE. Hängt von der Verfügbarkeit ab.
 
BOBderBAGGER schrieb:
Weiter vorne schon angeführt. Diablo 4. solche Probleme werden hier im Benchmark nicht auffallen und lassen sich nicht mit einem Balken darstellen.
Diablo VI füllt nur den Speicher, soviel ich weiß auf jeder Karte, egal wie viel Speicher sie hat.
GT200b schrieb:
GeForce RTX 4000 SuperUVP NvidiaUVP wie sie
sein sollte:
RTX 4070 Super 12 GB659 Euro🤢429 Euro17. Januar 2024
RTX 4070 Ti Super 16 GB889 Euro🤮569 Euro24. Januar 2024
RTX 4080 Super 16 GB1.109 Euro🤧729 Euro31. Januar 2024
Der Vollständigkeit halber dann auch die AMD und Intel Preise in der Konstellation.
Radeon RX 7000 & ARCUVP AMDUVP wie sie sein sollte:
RX 7700XT449 Dollar249 Euro
RX 7800XT499 Dollar339 Euro
RX 7900XT899 Dollar489 Euro
RX 7900XTX999 Dollar629 Euro
Intel ARC A770 16GB349 Dollar149 Euro
Intel ARC A750 8GB249 Dollar99 Euro
Finanziell ist das für AMD und Intel nicht zu stemmen. Nvidia könnte es tun, versaut sich aber dann die Margen und hintergeht die Anleger. Sinn?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tornavida
Bei "12GB" aufgehört zu lesen....
 
  • Gefällt mir
Reaktionen: JarlBallin
cypeak schrieb:
wie gesagt, ich sehe das etwas differenzierter. man kann ein speicherinterface nicht beliebig verbreitern - und das portfolio ist so strukturiert wies nunmal ist.
Das Portfolio ist nicht in Steintafeln vom Himmel gefallen.
Das hat schon NVidia genau so konstruiert dass der Kunde immer der Depp ist.

cypeak schrieb:
nvidia macht durchaus klare ansagen für welche zielauflösungen die karten gedacht sind; der test zeigt es doch: für wqhd/fhd sind die 12gb vram bei dieser karte absolut ok.
Nein beim Preis dieser Karte sind 12GB VRAM nicht ok.

Man hätte sich das das ganze blödsinnige Modell sparen können und endlich mal etwas mehr Leistung fürs Geld und zeitgemäße Speicherausstattung bringen können.

4070 Ti Super zu diesem Preis und sie einfach 4070 Ti nennen.
 
  • Gefällt mir
Reaktionen: Skynet1982 und JarlBallin
Lan_Party94 schrieb:
Und genau das ist sehr traurig.
Meine GTX1070 hatte ich 6 Jahre in Gebrauch!
6 Jahre aktuelle Spiele auf hoch in FHD.

Ich nutze nun eine 7900XTX auf einem WQHD Bildschirm und die Karte sollte hoffentlich 10 Jahre für ~100 FPS sorgen.

Leider müssen nun die GPU schlecht optimierte Spiele ausbügeln... Und das zu einem verdammt teuren Preis.

Ich nutze Hardware fast immer weiter. Wenn sie bei mir aus dem Rechner wandert dann sind entweder meine Frau oder die Kinder dran.

Ansonsten wird weiter verkauft und nur beim defekt entsorgt.

Die Kinder nutzen einen i5-6500 und einen Xeon E3-1231v3. Mit einer GTX 1050Ti und einer GTX970.

Sie spielen Fortnite, Genshin Impact und Die Sims4. Und sind Happy. Da murrt keiner. Haben alle 60fps.

Ich hab letztes und dieses Jahr aufgerüstet. Hatte bis Ende 21 noch meinen Xeon 2687W v2 auf X79. Hab auch nur für SC aufgerüstet. Alles andere lief zufriedenstellend.

Ist halt Hobby 🤗

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: TheHille
Warum fehlt im Performance Rating 4K die RTX 3080? Das sind alles so Nachlässigkeiten, die ungewohnt sind auf Computerbase und auf einen Motivations- bzw. Qualitätsverfall schließen lassen.
 
Wie hier alle den 12 gb vram bemängeln ist schon amüsant. Ihr tut ja so als wären 12 gb vram zu wenig. :baby_alt: es gibt nur 1 spiel wo 12 gb nicht reichen und das ist ratchet and Clank. Das ist das einzigste spiel was flüssig spielbar wäre wenn meine 4070 ti mehr vram hätte. Bei den Handvoll aufgezählten anderen spielen ist die Leistung eh zu schwach unabhängig davon ob mehr Speicher da wäre oder nicht. :heul:

Vielleicht solltet ihr erstmal ne 12 gb vram Karte selber besitzen bevor ihr hier Märchen erzählt und die Leute abschreckt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Holzinternet
Quidproquo77 schrieb:
Diablo VI füllt nur den Speicher, soviel ich weiß auf jeder Karte, egal wie viel Speicher sie hat.
Es stottert aber nicht auf jeder. Das Problem der 12gb Karten kannst du auch mit reduzierten Texturen lösen.
 
  • Gefällt mir
Reaktionen: TheHille und JarlBallin
cypeak schrieb:
ja, und das bei design irgendwo am anfang des prozesses, lange vor einem tape-out oder ersten geversuchen mit neuen chips im labor.
Na und? Weil die kritisierte Entscheidung am Anfang getroffen wurde ist die Kritik doch nicht wiederlegt.
Außerdem höre ich das Argument schon seit mehreren Gens. Also hätten die Hersteller natürlich anders planen können.
Das gilt natürlich genauso für AMD und ihre 6500/6400er Krüppel.
cypeak schrieb:
und nun? jetzt hat der ad104 nunmal 192bit - was ist den die erwartungshaltung? dass nvidia in ihrer herzensgüte für gamer den ad104 nicht verwendet? dass man da 24gb draufpackt und die karte für 450€ verkauft? dass man den ad103 für den preis des ad104 verkauft?
Dass man eine Architektur entwickelt, bei der Speicherausbau, Interface und Rohrleistung zueinander passend bestückt werden (können). Nicht mehr und nicht weniger.
cypeak schrieb:
nichts für ungut, aber wenn man sich über nvidias designentscheidungen und preispolitik echauffieren will, dann darf man nicht vergessen das wir als kunden diese preispolitik willig mitgemacht haben, uns die effiziennz vermeint das wichtigste war und wir bei dlss shut-up-and-take-my-money gerufen haben.
Ich echauffiere mich gar nicht, mein Thema waren keine Preise sondern schlicht, dass die Speicheranbindung nicht vom Himmel gefallen ist sondern ebenso vom Hersteller festgelegt wird wie alle anderen Daten.
cypeak schrieb:
man muss es sich eingestehen: die karten taugen für wqhd und werden wahrscheinlich noch eine ganze weile fhd stemmen können - genau wie es bei der 3070 oder der 2060s war...
Weshalb auch das hier nichts mit meiner Aussage zu tun hat.
 
  • Gefällt mir
Reaktionen: M11E
Experte18 schrieb:
Wie hier alle den 12 gb vram bemängeln ist schon amüsant. Ihr tut ja so als wären 12 gb vram zu wenig. :baby_alt: es gibt nur 1 spiel wo 12 gb nicht reichen und das ist ratchet and Clank. Das ist das einzigste spiel was flüssig apielbar wäre wenn meine 4070 ti mehr vram hätte.
Eine GTX 1080ti feiert in Kürze ihren siebenjährigen Geburtstag und hatte 11 GB vRAM.
 
  • Gefällt mir
Reaktionen: JarlBallin
Und weil es schon 11 gb vram vor 7 Jahren gab sollte es deiner Meinung heute schon 128 gb vram geben? Da kann man doch eher sehen das sich der vram Verbrauch bei spielen über die Jahre nicht viel verändert hat.
 
  • Gefällt mir
Reaktionen: Holzinternet und xexex
ThirdLife schrieb:
Und jetzt Achtung: andere Hobbies kosten Welten mehr,
Auf den Standardspruch habe ich nur gewartet. Etliche Hobbys kosten auch deutlich weniger, weil das Equipment nur ein einziges mal angeschafft werden muss und die "Erhaltungskosten" gering sind.
ThirdLife schrieb:
Auch ist nicht klar, warum die wie von anderen bereits erwähnt deine Hardware immer wegwerfen musst statt sie zu verkaufen ? Ah stimmt - weil die Rechnung dann auf einmal nicht mehr ins Narrativ passt.
Je teurer die Hardware, desto höher der Wertverlust über die Jahre. Das gleiche hat man bei Autos. Verstehst du es jetzt?
ThirdLife schrieb:
Dann scheinen 80% sich wohl ein anderes Hobby suchen zu müssen oder auf eine Konsole umsteigen
Wie man an den Zahlen sieht, sind wohl schon viele auf eine Konsole umgestiegen. Eine gewisse Arroganz lese ich da auch heraus.
Taxxor schrieb:
Und selbst 100€ im Monat fürs Hobby, wie wenig muss man verdienen um die nicht zu haben?
Das Medianeinkommen (wo 50% mehr und 50% weniger verdienen) liegt in Ostdeutschland bei 1618€ und in Westdeutschland bei 1943€. Beantwortet das deine Frage in Hinsicht auf stark gestiegene Mieten und Lebenshaltungskosten? In der realen Welt hat nicht jeder Informatik studiert und bringt 4000 Netto nach Hause.

Ich sehe die Entwicklung der Preise bei GPUs als Kernstück kritisch. Sie sind deutlich teurer als sie sein dürften, weil wir fast ein Monopol haben - mit guten Willen ein Oligopol.
 
  • Gefällt mir
Reaktionen: drSeehas, M11E, Holzinternet und 3 andere
Weyoun schrieb:
Das sehe ich genauso. Mehr als eine aktuelle Spielekonsole (XBox X bzw. PS5) sollte eine Mittelklasse-GraKa nicht kosten.
Musste halt AMD nehmen.

Die 7700/7800XT sollen gut für diesen Zweck geeignet sein...
 
marakuhja schrieb:
Je teurer die Hardware, desto höher der Wertverlust über die Jahre. Das gleiche hat man bei Autos. Verstehst du es jetzt?
Also wenn ich jetzt meine 4090 verkaufe bekomme ich fast das gleiche was ich beim Kauf bezahlt habe
Ergänzung ()

marakuhja schrieb:
In der realen Welt hat nicht jeder Informatik studiert und bringt 4000 Netto nach Hause.
Ich hab gar nicht studiert und bin stinknormaler Elektroniker, trotzdem könnte ich ohne Probleme jedes Jahr 2000€ in den PC buttern wenn es sein müsste. Dafür hab ich halt sonst keine Geld fressenden Hobbies.

Der Median für ganz Deutschland liegt bei 3654 brutto, da bin ich aktuell gerade mal 70€ drüber, hab aber auch meine 6800XT damals im Mining Boom für überteuerte 1200€ gekauft, als mein Brutto noch bei ca 3300 lag
 
  • Gefällt mir
Reaktionen: ThirdLife und pacifico
Gefühlt bemängeln hier 90% AMD User mit 16 gb vram den 12 gb vram der Super. Die wollen wohl von ihren Raytracing Krüppel Karten ablenken.:smokin:
 
  • Gefällt mir
Reaktionen: _b1nd
marakuhja schrieb:
Ich sehe die Entwicklung der Preise bei GPUs als Kernstück kritisch. Sie sind deutlich teurer als sie sein dürften, weil wir fast ein Monopol haben - mit guten Willen ein Oligopol.

Ihr ignoriert mittlerweile seit einigen Jahren das Wafer in 7/5/3nm kack teuer sind und jede Generation 50 Prozent höhere Fertigungskosten mit sich bringt.

Diese Entwicklung wurde bereits mitte der 2010er prognostiziert.

Konsolen sind auch mal locker 20, Prozent teurer geworden. ...
 
  • Gefällt mir
Reaktionen: WhiteRabbit123
Zurück
Oben