Test Nvidia GeForce RTX 4070 Super im Test: Mehr Leistung für die 12-GB-Grafikkarte

ThirdLife schrieb:
RDNA3 verkauft sich anscheinend eher schlecht wenn man die Steam Survey in Betracht zieht. Allein die 4070 hat sich besser verkauft als das gesamte RDNA3 Lineup bisher.
Das geht doch schon aus den Marktanteilen hervor.
Nvidia ~85%, AMD 12%
 
A.Xander schrieb:
wie können dann 50% mehr Speicher auch schon tot sein!
Tot nicht ABER...auch wenn es schon mal gepostet wurde. Es stammt von der selben Redaktion und zeigt eben auch problematische Fälle mit 12GB gerade zu Release neuer Games.
Ergänzung ()

Tr8or schrieb:
Das geht doch schon aus den Marktanteilen hervor.
Nvidia ~85%, AMD 12%
Man kann aber Marktanteile nicht 1 zu 1 mit Verkaufszahlen gleichsetzen. Eine 7800XT oder 7900XTX können sich für AMD trotzdem gut verkaufen auch wenn sie nur 12% Marktanteil haben. Was ja auch bisherige Leaks sagen. (was immer man von Leaks allgemein halten möchte)
Die 4000 Super Modelle gibt es auch nicht Grundlos sondern Sie sind eine Reaktion des Herstellers.
 

Anhänge

  • Screenshot_2024-01-17-01-06-09-872_com.google.android.youtube.jpg
    Screenshot_2024-01-17-01-06-09-872_com.google.android.youtube.jpg
    974,6 KB · Aufrufe: 97
Zuletzt bearbeitet von einem Moderator:
ayngush schrieb:
Erzähle mir mal: Was für eine Grafikkarte hast du denn und wie spielst du denn denn und wie läuft es so?
Das System aus meiner Signatur ist soweit aktuell.
Also RTX4080 16GB von Zotac wegen der 5 Jahre Service(bietet nämlich sonst keiner weiter).
Vgl. hatte ich davor sehr lange eine 2080 8GB und da war natürlich vram permanent überlaufen.
Bei der 4080 denke ich nicht nach, es wird einfach 4k max eingestellt. Sollte das nicht passen würde ich schauen woran es liegt (man kann rein von Performance jede Karte überlasten, inklusive einer 4090, wenn man weiß wie).
Irgendwelche Stottere,r Microstuttering, Ruckler habe ich mit der Karte noch nicht gesehen.
Bsp. Diablo 4 kann ich mich rumteleportieren soft ich mag da hängt es nie. Das ging in Diablo 4 nicht mal in FHD mit meiner alten 8GB Karte. Aber das könnte an den Optimiereungen Blizzards liegen.

ayngush schrieb:
Du hast es nicht verstanden: Ich muss dir nichts beweisen.
Da gehe ich mit.

ayngush schrieb:
Ich berichte von meinen Erfahrungen und wenn die zu deinen Informationen abweichend sind hast du zwei Möglichkeiten: Entweder du sammelst eigene Erfahrungen um meine Aussagen nachzuvollziehen oder du lässt es halt. Ich bin kein Testmagazin.
Sie sind halt zu der fachlichen und objektiv getesteten Masse nicht kompatibel.
Das heißt du kannst diese nicht auf andere projizieren.
Also deine Erfahrung das 12GB in 4K ausreichen als generelle Empfehlung ist eben nicht mehrheitsfähig.
Und da meine ich jetzt nur Magazine tests etc. nicht irgendwelche Leute die 24Gb für alle propagieren.

ayngush schrieb:
u deinen Ausführungen: 12GB VRAM reichen für 4K. Man kann damit aktuell alles spielen, manchmal muss man mit den Grafikeinstellungen halt ein wenig runter
Un schon sind wir auf einer Linie.
Sobald man Texturen eine Stufe runterregelt passt es natürlich. Leider sind diese, neben der Beleuchtung und Art-Stil, maßgeblich für die Grafik verantwortlich.
Eine 4070 Super 12GB kann halt auch nicht den Anspruch haben 4k Max flüssig darzustellen. Allerdings... Wäre NVIDIA nicht so vermessen mit dem Speicherinterface würde die Karte mit 16GB trotz des Preises zur Volkskarte werden. Den ohne bsp. RT wäre die Rohleistung in 4k gerade durch DLSS3 so enorm hoch das man es immer flüssig schaffen würde. Aber man wird dann eben am vram gebremst werden.

ayngush schrieb:
Und ob der Himmel für alle blau ist... kannst du ja gerne mal mit Menschen mit Farbwahrnehmungsstörung ausdiskutieren, tut hier übrigens auch nichts zur Sache, wie du den Himmel wahrnimmst. Blau ist er technisch betrachtet jedoch erst als Wahrnehmung im Auge des Betrachters.
Ein Mensch mit Farbstörung nimmt den Himmel anders war, korrekt.
Dennoch ist es Fakt das der Himmel auf der Erde vereinfacht gesagt blau ist (Wellenlängen des Lichts und Brechung an Atmosphäre). Der "Fehler" liegt dann in der Wahrnehmungsstörung der einzelnen Person.

Soll ich erst ein politisches Beispiel bringen wie sehr eine Wahrnehmungsstörung/"Erfahrung" einer faktenbasierenden Diskussion im Weg steht?
Soll ich der Wahrnehmungsgestörten Person glauben das der Himmel grün ist? Wenn er sagen würde: "Ich nehme den Himmel grün wahr", dann wird ein Schuh draus. Nur das schreibt keiner mehr heutzutage. Es wird geschrieben: Der Himmel sit grün.

ayngush schrieb:
Aber die Aussage, dass man mit einer 4070 mit 12 GB VRAM nicht in 4k Auflösung spielen kann ist halt einfach Blödsinn.
das habe ich aber nicht geschrieben.
Ich schrieb:
"Ich (und viele andere) haben belegt das 12GB in 4k nicht gut geht."
Das wurde mit Fallbeispielen von Magazinen und Webseiten untermauert.

Eine so absolute Aussage wie du denkst das ich Sie schrieb, traf ich eben nicht.
Habe immer versucht sehr genau zu formulieren was mich stört.
Weil ja, man kann damit spielen, gehe ich völlig mit.
Aber man kann nicht sagen das man damit reibungslos 4k kann.
Und zwar Heute Anfang 2024 zum frischen Release der 4070 Super welche für Jahre in Betrieb sein wird und direkt ca 650-700€ kostet. Bedenke, viele überspringen mind. 1 Gen bevor Sie aufrüsten.

Wer also 4k nutzen will sollte also direkt damit leben Einstellungen (Texturen!) bei der 4070 herunterzudrehen oder kauft eine 16GB AMD, welche in Summe Rasterleistung + 16GB das eben besser kann.

Die 7800XT gibt es für 100€ weniger und ist etwas langsamer aber hat 16GB.
Für 100€ mehr die 7900 XT die deutlich schneller (mindestens in Raster) als eine 4070 ist und 20GB hat.
Klar das NVIDIA da sich in Zugzwang sieht.

Und diese Ansicht teilt der Markt, sonst würde AMD keine Karten los werden und NVIDIA keine 4070 TI Super bringen, wohlgemerkt zur selben UVP wie die non-super.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin und Hardwarious
@Mr. Vega
Hast du den Link zur Quelle?
Möchte dies mal im Zusammenhang lesen.
 
Ganz Interessant. Die Day 1 Verkaufszahlen sollen lt Leaks nicht gut sein, in den USA. Kann man jetzt glauben oder nicht wegen "Leaks" usw. Die Verkaufszahlen von MF sehen auch nicht besonders hoch aus, vorallem bei den Nicht-UVP Modellen. Es gibt wohl keinen richtigen Hype oder Run auf die 4070 Super bzw. hat scheinbar Niemand direkt auf die Karte gewartet. Mal sehen wie sich das über Zeit entwickelt.
 

Anhänge

  • Screenshot_2024-01-18-22-21-12-538_com.google.android.youtube.jpg
    Screenshot_2024-01-18-22-21-12-538_com.google.android.youtube.jpg
    1 MB · Aufrufe: 103
Draco Nobilis schrieb:
Wer also 4k nutzen will sollte also direkt damit leben Einstellungen (Texturen!) bei der 4070 herunterzudrehen oder kauft eine 16GB AMD, welche in Summe Rasterleistung + 16GB das eben besser kann.

Ich sehe hier bei der Speichernutzung zwischen 4080 und 4070S keinen Unterschiede in QHD.
1705660047471.png
 
  • Gefällt mir
Reaktionen: Tr8or und Vigilant
Mr. Vega schrieb:
Es gibt wohl keinen richtigen Hype oder Run auf die 4070 Super bzw. hat scheinbar Niemand direkt auf die Karte gewartet. Mal sehen wie sich das über Zeit entwickelt.
Ada ist jetzt auch schon (80/90) seit Herbst 22 raus. Wer unbedingt eine Karte wollte hat vermutlich schon 2023 zugeschlagen und nicht noch ein Jahr gewartet extra auf ein "S" Modell von dem ja auch lange nicht klar war ob es überhaupt kommen wird (kam ja bei Ampere nicht).

Ich denke der Markt ist größtenteils trocken aktuell.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: VolcanoX und Mr. Vega
Ist es denn verwunderlich, dass niemand auf die Karten gewartet hat? Sie sind ja keine Offenbarung und wurden vorab auch nicht so wahrgenommen. Zumindest von mir nicht. Die reihen sich halt in die 40xx Serie mit ein.

Ich wollte Ende des Jahres 2023/Anfang 2024 endlich mal meine 1070ti 👴 ersetzen. Durch die Ankündigung der Super Karten habe ich das noch abgewartet. In der milden Hoffnung, preislich bewegt sich vielleicht etwas. Ich hatte es nicht erwartet, aber es hat sich ja tatsächlich minimal etwas bewegt (4070 super "günstiger", 7900XT reduziert, 7900GRE evt. für Endkunden verfügbar). Ich warte jetzt noch die 4070ti super ab, die mir aber vermutlich zu teuer sein wird. Erste Preisanzeichen gibt es ja schon. Und dann kaufe ich mir halt eine passende Karte von AMD oder Nvidia.

Ich gurke nur deswegen noch mit der 1070ti rum, weil mir eigentlich die GPU Preise nach wie vor zu hoch sind. Aber nach einigen Jahren warten, muss selbst der größte Sturkopf wie ich einsehen, dass früher™ halt doch vorbei ist und man in der Gegenwart entweder verzichtet oder die Preise zähneknirschend akzeptiert.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz, Hardwarious und Mr. Vega
Draco Nobilis schrieb:
Draco Nobilis schrieb:
Eine 4070 Super 12GB kann halt auch nicht den Anspruch haben 4k Max flüssig darzustellen.

ayngush schrieb:
Aber die Aussage, dass man mit einer 4070 mit 12 GB VRAM nicht in 4k Auflösung spielen kann ist halt einfach Blödsinn.
Draco Nobilis schrieb:
das habe ich aber nicht geschrieben.

Doch, du hast es ein paar Sätze weiter oben in deinem Text sogar schon wieder falsch hingeschrieben.

Ich habe, um bei D4 zu bleiben, gestern Abend extra nochmal das Spiel aktualisiert und via RivaTuner Statistics blablubb nachgeschaut: Grafiksettings von Diablo 4 auf Ultra, Ausgabe-Auflösung 4K, DLSS auf Quality, 59FPS Ingame-Cap - läuft auch im Kampf und beim wilden hin und her hüpfen absolut flüssig ohne bei den Frametimes Spikes auszulösen oder einzubrechen, die bleiben stabil bei 16.irgendwas Millisekunden im Verlauf. Einzig, wenn ich ein Screenshot anfertige spiked es kurz.

Auf meinem System mit meiner MSI Gaming X Trio 4070 mit 12GB VRAM und 7800X3d CPU, 32 Gig Ram usw. Quelle: Ich. Darfst mich zitieren.

Und natürlich hat die 4070 nicht die Reserven und Leistung einer 4080 oder 4090 aber es reicht um aktuelle Spiele in 4K flüssig darzustellen. Nicht immer mit Max-Settings, Diablo 4 jedoch in Ultra, mehr geht da nicht, höchstens mehr FPS, falls man einen schnelleren Montior hat, aber wie du richtigerweise erwähnst, kann man in einigen Spielen mit den maximalen Details und durch das Abschalten von DLSS und anderen Optimierungen selbst die aktuell schnellste Karte so weit einbremsen, dass man damit nicht mehr spielen kann. Das heißt im Umkehrschluss jedoch nicht, dass man mit einer 4070 nicht trotzdem mit einen 4K Monitor in 4K Zielauflösung spielen kann... Das geht nämlich wunderbar. Auch mit und trotz 12Gb VRAM.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: drSeehas
Ayo34 schrieb:
Bei Ryzen hat es aber nicht Jahre gedauert und dann hat auf einmal jeder Ryzen gekauft. Ryzen ist seit der 3000er Generation auf Intel Niveau und ab der 5000er Generation in einigen Bereichen vor den Intel Prozessoren.
AMD war sogar vor nvidia bei den GPUs in der Vergangenheit und trotzdem hats keiner gekauft.
Und bis zur 3000 Generation hats auch gebraucht, waren ja auch zwei Jahre, aber selbst 1000 und 2000 war ok wenn man nur multicore betrachtet. Und 5000er gab's dann eine lange Zeit nicht zu kaufen.
 
@Mr. Vega
Nein, ich meinte einen Link zu dem Bild aus dem Beitrag.
Dein Beitrag wurde später zusammengefügt, so ist meine Frage dann auch unpräzise geworden.
 
  • Gefällt mir
Reaktionen: Mr. Vega
@Tr8or Entschuldige bitte, Missverständnis dann.


Hier das entsprechende Video von MILD.
 
  • Gefällt mir
Reaktionen: Tr8or
Eli0t schrieb:
AMD war sogar vor nvidia bei den GPUs in der Vergangenheit und trotzdem hats keiner gekauft.

Stimmt so einfach nicht. 2010 hatte AMD z.B. einen Marktanteil von 41% bei GPUs und Nvidia von knapp 59%. 0,4% Andere. Heute hat Nvidia einen Marktanteil von 85%, AMD von 9% und Intel von 6%. Wenn man sich die Entwicklung anschaut, dann kann man nicht sagen, dass das Problem die Kundschaft ist (Ende 22).

Nvidia scheint einfach viele Argumente gefunden zu haben um die Kundschaft zu überzeugen und das ist im Jahr 2024 eben nicht mehr die Rasterleistung. Das ist Effizienz, KI ,Features, also das Komplettpaket und da ist AMD deutlich zurück.

Und natürlich wäre ein 40%/35%/25% Marktanteil für den Endkunden bessern. Trotzdem würde ich aktuell den meisten nicht zu einer AMD oder Intel Grafikkarte raten.

edit: Jahr 2000 News von CB -> Nvidia 20% Marktanteil... ATI deutlich vorne, ähnlich wie es jetzt Nvidia ist.
https://www.computerbase.de/news/grafikkarten/nvidia-hat-20-prozent-marktanteil.2847/
 
  • Gefällt mir
Reaktionen: ThirdLife
ayngush schrieb:
Zu deinen Ausführungen: 12GB VRAM reichen für 4K. Man kann damit aktuell alles spielen
Können kann man alles.
Theoretisch kannst Du auch auf einer 4gb GTX 1650 noch Cyberpunk 2077 in 4K spielen.

Fragt sich nur, wie sinnvoll das ist; und das wiederum hängt ausschließlich von einem selbst ab. Jeder hat seine eigenen Vorlieben, und seine persönliche Schmerzgrenze.

Aber für jemanden, der zb CP2077 in 4K mit RT, HD texturen, FG und möglichst mit weit mehr als 60 fps zocken will, reichen 12 GB nicht mehr unbedingt.
Da wird es selbst für WQHD sogar schon eng.

Aber Speicher allein sagt auch nicht viel aus. Entscheidend ist das Spiel, und wieviele Daten zwischen GPU und dem Rest des Systems hin und hergeschoben werden müssen.
Je schneller das funktioniert, um so besser kommt man auch mit wenig vram klar.
 
Ayo34 schrieb:
Wenn man sich die Entwicklung anschaut, dann kann man nicht sagen, dass das Problem die Kundschaft ist (Ende 22).
doch, weil das Markteingblahblah von nvidia einfach gezogen hat... auch wenns anfangs vollkommen sinnfrei war (DLSS 1.0 und RT 1st gen z.B.)
Ayo34 schrieb:
Nvidia scheint einfach viele Argumente gefunden zu haben um die Kundschaft zu überzeugen und das ist im Jahr 2024 eben nicht mehr die Rasterleistung. Das ist Effizienz, KI ,Features, also das Komplettpaket und da ist AMD deutlich zurück.
KI Features sind für otto-normal-gamer vollkommen sinnfrei, wenn es dazu keine Spiele gibt, die das überhaupt nutzten. Ergo ein Scheinargument. Effizienz gebe ich Dir. Features ist je nach dem der eine oder der andere voran und das Komplettpaket ist in meinen Augen nicht deutlich zurück. Eine freie FSR Implementierung ist einer proprietären auch immer vorzuziehen. Siehe G-Sync vs Freesync. Ersteres ist heutzutage vollkommen überflüssig. Nochdazu kommen von AMD auch viele Invovationen, z.B. Displayport geht auf AMD zurück.
Ayo34 schrieb:
Und natürlich wäre ein 40%/35%/25% Marktanteil für den Endkunden bessern. Trotzdem würde ich aktuell den meisten nicht zu einer AMD oder Intel Grafikkarte raten.
Depends. P/L würde ich zu AMD raten, wenn es Mittelklasse ist, nur wenn man das beste vom Besten will ist eine 4090 zu empfehlen. Wenn man erste Schritte in 4K machen will, ist eine 7900XT um 749,- ein gutes Angebot im Vergleich zu nvidia, ob hier der Aufpreis von zumindest 150€ für ein besseres RT es wert sind, muß jeder für sich entscheiden. Alle die Linux verwenden sollte sowieso nur AMD nehmen, da hier die Treiber bei weitem überlegen sind und natürlich Open Source.
 
Ayo34 schrieb:
Andere. Heute hat Nvidia einen Marktanteil von 85%, AMD von 9% und Intel von 6%.
Ist nicht ganz aktuell. Lt JPR Analyse auf den Q3 Zahlen sieht das Ganze aktuell so aus.
 

Anhänge

  • NVIDIA-Intel-AMD-Jon-Peddie-Research-Q3-2023-Market-Share-Report-_2 (1).png
    NVIDIA-Intel-AMD-Jon-Peddie-Research-Q3-2023-Market-Share-Report-_2 (1).png
    40,2 KB · Aufrufe: 107
Maviba schrieb:
Aber für jemanden, der zb CP2077 in 4K mit RT, HD texturen, FG und möglichst mit weit mehr als 60 fps zocken will, reichen 12 GB nicht mehr unbedingt.
Dass das nicht reicht, hat nichts mit dem VRAM zu tun, sondern mit der Leistung der GPU.
Dieses Szenario kann man maximal mit einer 4090 abdecken - und die hat dann auch automatisch mehr VRAM an Board. Eine 4070 mit 24 GB VRAM würde das von der Rechenleistung der GPU her halt auch nicht schaffen.

Kausalität <> Korrelation
 
  • Gefällt mir
Reaktionen: drSeehas, ThirdLife, Vigilant und eine weitere Person
Knecht_Ruprecht schrieb:
Ist es denn verwunderlich, dass niemand auf die Karten gewartet hat? Sie sind ja keine Offenbarung und wurden vorab auch nicht so wahrgenommen. Zumindest von mir nicht. Die reihen sich halt in die 40xx Serie mit ein.
Die 4070 hat sich ja ganz ordentlich verkauft und das Hauptproblem (die 12 GB VRAM) wurden ja gar nicht mit der Super angegangen. Da wundert es mich eigentlich nicht. Für die meisten dürfte halt die 4070ti Super noch am interessantesten sein. Denn da wird genau dieses Problem angepackt. Alles andere (Leistung, Effizienz usw.) haben ja gepasst.
 
  • Gefällt mir
Reaktionen: Knecht_Ruprecht
ayngush schrieb:
Dass das nicht reicht, hat nichts mit dem VRAM zu tun, sondern mit der Leistung der GPU.
Ich hatte mich bei dieser Antwort jetzt nur auf den reinen VRAM Verbrauch bezogen; unabhängig davon, das sich dadurch natürlich auch der zu rendernde Bildausschnitt ebenfalls vervierfacht.

Mir ging es in erster Linie um den kausale Zusammenhang zwischen zu wenig Grafikspeicher und darüber hinaus schlechter Speicheranbindung, (zb durch einen kleinen Cache und/oder nur 128bit)

Dann, kann auch eine schnelle gpu Probleme bekommen. Das Bild flüssig zu berechnen, ohne das Texturen verwaschen oder erst gar nicht geladen werden.
Das wäre in etwa so, als würdest Du versuchen, auf einem high-end Rechner ein 4k Video über eine 6Megabit Leitung zu streamen oder schauen
 
Zuletzt bearbeitet:
Zurück
Oben