Test Nvidia GeForce RTX 4070 Super im Test: Mehr Leistung für die 12-GB-Grafikkarte

Mit Start der Super-Modelle laufen GeForce RTX 4070 Ti und GeForce RTX 4080 aus. Die GeForce RTX 4070 bleibt im Portfolio und fällt von 599 auf 549 US-Dollar UVP.
Nein, die 4070 bleibt uns mit einer UVP von 549 Dollar erhalten.
@Tendercat @ghecko
 
  • Gefällt mir
Reaktionen: drSeehas, Quidproquo77, Innocience und 4 andere
Was diese VRAM gemockere angeht: Hardwaredealz hat bei rund 21 Min im Video unten die VRAM Belegung in einigen Spielen gezeigt. Ich fand das interessant. Habt ihr sowas nicht gemessen? Wäre vielleicht noch eine super Ergänzung nicht nur für Super-karten :D Auf den ersten Blick liest sich der Test super, also danke dafür.

 
  • Gefällt mir
Reaktionen: Pinguin1 und Quidproquo77
naja, günstigste 4070 bei gz 549. war noch vor nicht all zu lange zeit 599. Vielleicht sinkt jz amd noch die preiße und dann nvidia auch:rolleyes::freak:
 
wer noch Denkt die 4070ti super ist eine 70 der hat die Daten nicht gesehen, es ist viel mehr eine 4080 Light. Wenn schon hätten die der richtigen 4070 super die 16gb spendieren können.
 
ayngush schrieb:
Ich zock das aber mit max Settings im 60FPS Cap mit 4K Native Auflösung?! Schon 400 Stunden lang...
Nur halt kein Diablo 4
oder Hogwarts
oder man ignoriert die 1% Percentile
oder man nimmt nicht wahr das das Streaming schummelt wie bei bsp. Control oder Forspoken.
Einige Spiele sagen einfach "nOpe" und schalten die Einstellungen dazu bei Texturdetails ab, wie eben COH3.

Einfach mal der Warheit ins Gesicht sehen, 12GB sind nicht mal heute ausreichend, wenn man wie du von 4K redet, selbst bei Upscaling. Und zwar bevor der Karte die Puste ausgeht. Was mit DLSS3 noch viel krasser wird (Zwischenbildberechnung), weil dies die FPS extrem erhöht und zugleich Speicher kostet.

Warum muss man psychologisch am Ende irgendwas schönreden.
12GB sind FHD Niveau.
Texturen sind inzwischen nicht mehr so sehr von Bildschirmauflösung abhängig wie früher.
Materialeigenschaften wiegen inzwischen viel schwerer mit all ihren Layern.
Siehe als Beispiel Ratchet & Clank.

Wie funny wird das erst, wenn sich Forenmitgliedern mit prozedual per AI zur Laufzeit erschaffener Texturen von Materialien beschäftigen? Die Paper dafür sind Wahnsinn. Demos auf Youtube zeigen was in wenigen Jahren in den großen Engines stecken wird.
 
  • Gefällt mir
Reaktionen: JarlBallin und TouchGameplay
DJMadMax schrieb:
Wo finde ich zum Alan Wake II-Test die Leistungsunterschiede in den verschiedenen Grafikpresets?
Gerade bei Alan Wake II gibt es mehrere Benchmarks mit verschiedenen Settings, alle kannst du nun mal nicht durchtesten.

Raytracing in Alan Wake 2 – 2.560 × 1.440 + Upsampling Quality
Nvidia DLSS Ray Reconstruction – 2.560 × 1.440, DLSS SR Quality
Alan Wake 2 + Upsampling Quality
Alan Wake 2 mit RT Niedrig
Alan Wake 2 mit RT Hoch

Wie viele Kombinationen willst du denn haben und was sollen die irgendwie aussagen können? Einfach nur mal nachdenken was wirkliche Leistungsfaktoren heutzutage sind...

1 Auflösung - 1080p, 1440p, 2160p
2. Grafikpresets - Niedrig, Mittel, Hoch, Ultra
3. Raytracing - Aus, Niedrig, Hoch
4. Upscaling - DLSS, FSR, XeSS - mit jeweils drei Stufen.
5. Frame Generation

Jetzt willst du auch bestimmt noch mindestens 10 verschiedene Karten in dem Test haben oder? Nein! Lieber gleich 20! Wie unrealistisch ein solcher Test ist mit allen Kombinationen ist, kannst du dir denke ich selbst ausrechnen und am Ende wärst du wieder am Anfang, weil dann noch Leute mit "seltsamen" Auflösungen kommen oder verlangt wird zusätzlich mit verschiedenen CPUs zu testen.

DJMadMax schrieb:
Wenn sie dann hier einen Benchmark sehen, in dem das Spiel selbst in 1920x1080 auf einer RTX 4060 Ti und trotz DLSS nicht einmal die 60 FPS schafft, dann ist diese Grafikkarte doch direkt wieder raus - und das, obwohl sie problemlos dazu in der Lage wäre, das Spiel mit deutlich über 60 FPS und dennoch einem optisch wunderschönen Eindruck darzustellen.
Wer bei einem Leistungstest nicht schafft zwischen dem Benchmark mit maximalen Settings und für ihn ausrechender Grafikqualität zu unterscheiden, sollte einfach eine Karte nach seinem Budget kaufen, solche Benchmarks gar nicht erst lesen und das Spiel automatisch die richtigen Setting wählen lassen. Alternativ gibt es für jedes Spiel auch die Systemanforderungen zum nachlesen.

Schon an dem Punkt "dennoch einem optisch wunderschönen Eindruck" wirst du keine zwei gleichen Meinungen finden.
1705541912859.png


Dein "Wunsch" wäre vielleicht vor der RT, DLSS, FG Ära noch irgendwie halbwegs umsetzbar gewesen. Heute läuft das gleiche Spiel, für den einen auf einem Steam Deck "wunderschön" und der andere ist erst mit 4K@120Hz+HDR+RT zufrieden, dazwischen liegen schlichtweg Leistungsgalaxien. So ein "Test" wäre rausgeworfene Zeit und das Ergebnis auf ein anderes Spiel nicht einmal übertragbar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable, Cohen und Fallout667
@qu1gon

"Du hast glaub nicht ganz verstanden"

- Und du interpretierst mehr hinein als ich tatsächlich geschrieben habe oder dichtest was dazu und umschreibst viele sehr überspitzt.

"dann ist der höhere Preis auch gerechtfertigt"

- Für DICH gerechtfertigt!

"Effizienz kommt AMD nunmal nicht heran"

- Habe ich auch nicht behauptet. Sondern allein deine Aussage widerlegen wollen mit hohen Temperaturen und damit lauter Kühlung.

"wenn man dann noch ne Custom Karte mit drei Lüftern nimmt,
kommt die ohne Undervolting also Out of the Box schon auf eine 20 Grad (o. noch weniger) kühlere HOTSpot Temperatur."

- Vermutung deinerseits erstmal und die ersten Custommodelle im Test sagen was anderes.
"Custommodell mit 3x Lüfter" sagt halt nichts über die Kühlleistung des Kühlers erstmal aus.
Zudem bekommt man (nach einem Blick in die Shops) eine 3x Lüfter Karte nicht unter 700 Euro.

"aber 57 Grad und 70 Grad Hotspot undervoltet erscheint mir jetzt nicht der Burner."

- Sind aber bezogen auf die 7800XT nicht so hoch und damit laut wie du es dargestellt hast.

"Du kannst dir Geld sparen weil du gewisse Features nicht brauchst oder keinen Wert drauf legst - kannst du machen aber es ist falsch DESWEGEN zu sagen, das ist die bessere Karte."

- Habe ich nicht gemacht/behauptet. Zudem.
Es gibt nicht DIE EINE bessere oder schlechtere Karte für jeden Kunden, sondern die Karte welche Anspruch/Anforderung XY genügt ist die für den jeweiligen Kunden beste Karte. Desweiteren ist die 4070 Super nicht die Konkurrenz zur 7800XT sondern die 4070 non Super.

"durch das bessere VRAM-Management auch 12GB bei NVIDIA halt ausreichen."

- Stimmt aber Nicht grundsätzlich für/bei Jedem Game. Siehe PCGH Test der 4070S.

"muss man das anerkennen, die Leistung ist da"

- Ich erkenne an das die RT Leistung von Nvidia besser ist und auch deutlich. Muss es aber eben nicht beabsichtigt überzogen ausdrücken mit "Boden aufwischen".

"Mann mus aber ehrlich sein und differenziert herangehen.
Du kannst dir Geld sparen weil du gewisse Features nicht brauchst oder keinen Wert drauf legst"

- Genauso ist es.

"Und ich zahle, lieber noch nen Hunni oder so drauf."

- Es ist mehr als nur ein Hunderter. 120-150 Euro.

"Noch was, ich bin kein FanBoy eines Lagers"

- Lasse ich ich mal stehen und dahin gestellt.

"You get what you pay for"

- DEINE Persönliche Meinung das die höheren Preise für das Gebotene gerechtfertigt sind.
Genauso ist es meine Meinung das sie es nicht sind, vorallem wenn man diese Features nicht braucht und dadurch Geld sparen kann.

"dann spare ich eine monat länger und lege 100 € drauf"

- Wozu wenn ich das Featureset nicht benötige.
Nicht jeder kann zudem 100 Euro im Monat weglegen. Aber das ist noch mal ein anderes Thema.

"was ist mit Leistungsverslust"

- 234W mit meinen UV Einstellungen bei gleicher Leistung im Gaming.
Kann man natürlich vergleichen, muss man aber nicht. Was interessiert mich persönlich der Verbrauch der 4070/S wenn ich eine 7800XT nutze.


Danke aber für den Diskurs. Ich denke die verschieden Meinungen sind damit ausdiskutiert zwischen uns.
Sorry die Zitieren Funktion war Mobil irgendwie verbuggt.
 

Anhänge

  • Screenshot_2024-01-17-01-06-09-872_com.google.android.youtube.jpg
    Screenshot_2024-01-17-01-06-09-872_com.google.android.youtube.jpg
    974,6 KB · Aufrufe: 80
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: JarlBallin, thornhill und Schmickey
Quidproquo77 schrieb:
Es bringt nur nichts, wenn die offene Software nicht gut ist und die Community und die Gremien bei Vulkan kaum Support bzw. schnelle Weiterentwicklungen bieten. Vulkan ist schon wieder am Sterben was die Verbreitung der Schnittstelle angeht. OpenGL fristete ein ähnliches Dasein.
hahahahahaa dein ernst? du weißt schon, dass steamOS linux ist? und dass man dafür zwingend VULKAN benötigt? und das valve auch in die weiterentwicklung viel geld steckt?
anscheinend nicht! jedes windows spiel, das du auf dem steam deck spielst nutzt VULKAN!
jetzt kommt mit aya auch ein neuer spieler aufs feld mit steamOS! wenn das funktioniert, dann kann ich mir gut vorstellen, dass andere hersteller auch keine lust mehr auf windowslizenzen haben und handhelds mit linux verkaufen. der handheld markt boomt ja gerade. da wollen irgendwie alle drauf. tja und genauso wie MS die handy OS verschlafen hat, verschlafen sie gerade auch den handheld markt (was ich sehr gut finde)
https://www.computerbase.de/news/ga...dheld-mit-ryzen-4000u-und-steamos-fork.86691/

also dass vulkan im sterben liegt und ein dasein wie openGL (was ja ursprünglich nicht mal für spiele entwickelt wurde, sondern für 3D programme) fristet ist quatsch!

so ein bisschen zum einlesen
https://www.phoronix.com/news/Open-Source-News-2023
https://www.phoronix.com/news/Vulkan-1.3.274-Released
und kannst ja selber weitere nachrichten darüber suchen. vulkan ist sehr lebendig, nur leider nicht bei spieleentwicklern

Toprallog schrieb:
Raytracing kommt immer mehr und in 10 Jahren wird es kaum ein Spiel ohne geben. Da besteht ja kein Zweifel.
Dennoch ist eine 4070 Super für Path Tracing einfach zu langsam. Und wir sprechen von einer UVP von 660 Euro.
natürlich wird es mehr. weniger kann es ja nicht werden und stagnieren wird es auch nicht. das ist eine nullaussage
in 10 jahren nutzt aber auch niemand hier die GPU, die er heute verbaut hat, also was soll das für ein argument sein? außerdem wäre ich mir das nicht so sicher. die letzten 5 jahr laufen schleppend und der GPU markt bringt von generation zu generation auch nich tmehr die leistungssprünge wie vor 10 jahren. es hat schon einen grund warum jetzt alle auf mehr FPS durch KI gehen. weil die sprünge ohne einfach nicht mehr so groß sind. naja. keiner von uns kann in die zukunft schauen.

wenn du mehr geld für ein paar FPS mehr ausgeben willst. mach es. ist dein geld. im moment sehe ich da keinen großen mehrwert. die spiele, die ich am meisten spiee sind sowieso online spiele und da wird man wohl so schnell kein RT einbauen, weil es in shootern vlt vorteile bringt mit reflektionen und schatten.
Cohen schrieb:
... und anscheinend auch Fan von Restriktionen und Verboten.

"so zeug wie DLSS sollte man mMn auch nicht unterstützen"
"mehr Spiele sollen nicht mehr das geschlossene DirectX nutzen"
wo siehst du hier ein verbot?
sollen != dürfen
Cohen schrieb:
Ich bin für die Unterstützung von FSR und DLSS und XESS in Spielen und man sollte den Spielern die Auswahlmöglichkeit geben.
Ich bin für die Unterstützung von Frame Generation und Fluid Motion Frames und ExtraSS in Spielen und man sollte den Spielern die Auswahlmöglichkeit geben.
Ich bin für die Unterstützung von Vulkan und DirectX in Spielen und man sollte den Spielern die Auswahlmöglichkeit geben.

Dann hat man oft auch verschiedene Lösungsansätze, die dazu dienen können, die eigene Software noch weiter zu verbessern.
also hier schießt du dir ein eigentor. wie sollen AMD, oder INTEL nutzer entscheiden, ob sie DLSS nutzen? hier stellt sich NV doch von alleine ins abseits
also wenn ich entwickler wäre, dann würde ich mich eher auf eine funktion fokusieren, die auf allen plattformen funktioniert, dann habe ich auch weniger support zu leisten.
das neue nv zeug funktioniert nur auf neuen nv karten und auch nur auf windows. also nv macht einen großen haufen auf alle handheld nutzer, obwohl diese technologien gerade dort am meisten bringen würden.

ich bin kein programmierer, aber ich kann mir nicht vorstellen, dass entwickler von geschlossener software irgendwas lernen und sich dadurch verbessern. DLSS und XESS sind soweit ich weiß noch geschlossen. xess funktioniert zumindest auf allen CHIPs

aber das ist auch meine persönliche einstellung. wäre ich spieleentwickler, dann würde ich nicht 3 verschiedene dinge einbauen, sondern eines und das dafür anständig und natürlich würde ich dann das wählen, das die meisten spieler verwenden können.
ich verbiete aber auch niemanden, wenn er alle 3 einbaut. zeit ist geld, wenns denen spaß macht.
 
Klärt mich bitte kurz mal auf: Warum ist der Run auf die FE´s immer so hoch? Ich finde die Karten ehrlich gesagt hässlich (ok, das ist Ansichtssache und für viele sicherlich nicht wichtig) aber die sehen auch irgendwie nicht aus als wären es die leisesten Karten. Es gibt doch auch einige gute Custom Designs zum selben Preis!?

Was ist an der FE so gut, dass die ständig schnell vergriffen ist? Ist eine ernst gemeinste Frage, da ich beabsichtige mir die 4070Ti Super nächste Woche zu kaufen - priorisiere aber ein Custom Modell.
 
DevPandi schrieb:
Ich möchte an dieser Stelle weder das RAM-Management von Nvidia noch AMD wirklich bewerten. Sehe ich mir die Tests an, die explizit sich das Thema VRAM bei Nvidia und AMD angesehen haben, dann agieren beide hier auch unterschiedlich.
In Bezugnahme auf welche Tests? Die kommen doch alle zu einer recht eindeutigen Sachlage.
Aus meinen letzten Tests kann ich ungefähr herleiten, dass sich 10 "Geforce-GiByte" in etwa so verhalten wie 12 "Radeon-GiByte"
Man weiß nicht genau, wie Nvidia das macht, aber da kommt bei gleicher Kapazität einfach mehr rum, die Mangelsymptome treten später ein. Vermutlich wegen einer zackigeren Eviction Policy und so. 16 GiByte sind aber zweifellos besser als 12 GiByte, so viel kann Nvidia nicht herausholen.
My recent benchmarking shows AMD GPUs allocating more VRAM when available, and now I am seeing the 8GB 7600 underperforming vs the 8GB 4060 in games that seem to go beyond the 8GB allocation on AMD hardware but not Nvidia hardware.
Die AMD allokieren mehr V-ram und brauchen auch deutlich mehr damit es rund läuft.
Das kann jeder selbst messen, wenn er die entsprechenden Karten zur Verfügung hat.
Computerbase sieht das auch so.
Das ist primär ein Problem Nvidias, zugleich hat AMD aber das Problem, dass Nvidia das bessere Speichermanagement hat. Das hat zur Folge, dass zum Beispiel Nvidias 8 GB „mehr wert sind“ als AMDs 8 GB. Das ist etwas, das mit der nächsten GPU-Generation hoffentlich angegangen wird.
DevPandi schrieb:
Bei Nvidia wird im Zweifel "Details" verworfen, damit der Frame rechtzeitig genug auf das Display kommt, bei AMD wird gnadenlos gewartet.
Nein, die Qualität der Texturen ist laut PCGH_Raff nie unterschiedlich und deine Ausrede müsstest du erst einmal belegen.
DevPandi schrieb:
Nvidia "schummelt" hier dann, um die FPS hochzuhalten AMD wartet gnadenlos und liefert das "richtige" Bild, dafür stottert es.
Nein, Nvidia schummelt nicht, sie haben einfach das bessere V-ram Management. Würden sie schummeln wäre das längst aufgefallen, spannend wie du dir auch bei dieser Thematik wie schon bei FSR vs. DLSS irgendetwas aus der Nase ziehst, denn den Beleg wirst du schuldig bleiben.
Schade sowas.

DevPandi schrieb:
Ach, klare Fakten? Welche klaren Fakten hast du denn an dieser Stelle bisher geliefert? Du hast eine Grafik hier gepostet, die die VRAM-Belegung zwischen einer 12 GB und 16 GB-Karte von Nvidia mit der einer 16 GB-Grafikkarte von AMD zeigt und hast darauf aufbauend hier eine Aussage getroffen, die man anhand nur dieser Daten nicht zuverlässig treffen kann.
Reite dich bitte nicht noch mehr hinein. Die V-ram Belegung korreliert eindeutig mit dem V-ram Verbrauch und ist der primäre Grund für AMD´s Problemchen.
Das kann man selbst messen. Aber du weißt es leider natürlich besser als Leute die das 24/7 machen.
An der Stelle bin ich wie schon bei der FSR vs DLSS Diskussion raus.
Es hat keinen Sinn mit jemanden zu diskutieren der eine Markendiskussion daraus produziert und unbelegte Verschwörungstheorien wie Schummelei kolportiert. Das sind harte Anschuldigungen und das hat mit Fakten gar nichts zu tun, liebe(r) Pandi.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: patze812, Fallout667, ThirdLife und 3 andere
die tägliche Vram Diskussion - so sicher wie das Amen in der Kirche :>
 
  • Gefällt mir
Reaktionen: schlangski, Apocalypse, ThirdLife und 5 andere
savo84 schrieb:
Klärt mich bitte kurz mal auf: Warum ist der Run auf die FE´s immer so hoch? Ich finde die Karten ehrlich gesagt hässlich (ok, das ist Ansichtssache und für viele sicherlich nicht wichtig) aber die sehen auch irgendwie nicht aus als wären es die leisesten Karten. Es gibt doch auch einige gute Custom Designs zum selben Preis!?

Was ist an der FE so gut, dass die ständig schnell vergriffen ist? Ist eine ernst gemeinste Frage, da ich beabsichtige mir die 4070Ti Super nächste Woche zu kaufen - priorisiere aber ein Custom Modell.
Sammlerwert aber in erster Linie wirds wohl das kein bling bling RGB mein Zimmer erstrahlt in 1000 Farben feature sein. Hätte auch gerne eine 4090 FE damals gehabt aber zum Glück war ich immer zu langsam :D
 
Taxxor schrieb:
Es werden ja haarklein verschiedenste Bereiche überprüft und bewertet, von der generierten Performance über Dinge wie Ghosting, Flimmern, sonstige Artefakte, Bildschärfe, alles verglichen mit der nativen Darstellung.
Und da liegt DLSS halt in 9 von 10 Fällen teils gering und teils klar vor FSR.
Diese Argumentation führt Pandi auch bei der V-ram Geschichte. Ein ellenlanger Beitrag um im Endeffekt zu sagen, dass bei AMD technisch alles fein ist und die Tester mit ihren Messungen und Beobachtungen falsch liegen.
DevPandi schrieb:
Nehmen wir mal die Bildschärfe als Beispiel:
Warum nimmst du nicht Bildruhe, Artefakte einer niedrigeren Auflösung wie Flimmern oder Banding, Detailreichtum und korrekt bestimmte Pixelfarbwerte als Beispiel?
Die Bildschärfe lässt sich konfigurieren, auch Blur in Bewegung und Co. abschalten oder zuschalten,das ist reine Geschmacksfrage, im Gegenzug dessen lassen sich die anderen Punkte ganz klar quantifizieren, also wissenschaftlich in messbare Größen umwandeln und damit eine qualitative Aussage treffen und genau das tun auch die Reviewer im Bezug auf DLSS/FSR.
DevPandi schrieb:
Natürlich kann ich feststellen, ob ein Bild "schärfer" oder "unschärfer" ist. Was ist jetzt aber besser? Du würdest jetzt sagen, dass schärfer besser ist, aber ist das wirklich so?
Schärfe ist nun wirklich kein geeignetes Beispiel.
DevPandi schrieb:
Ähnliches gilt fürs Kantenflimmern, Ghosting und Co.
Nein, das gilt einfach nicht. Die Schärfe eines Bildes hat damit nichts zu tun.
DLSS und FSR lassen sich nach Belieben nachschärfen und flimmernde Kanten sind ganz sicher keine Geschmacksfrage.
DevPandi schrieb:
Es gibt nicht umsonst die Felder der Psycho-Akustik und ebenso auch der Psycho-Optik
:confused_alt::confused_alt: Ich sehe schon, das wird nix.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667 und MrHeisenberg
IBISXI schrieb:
Wenn ich ein Produkt habe in dem 10% Eier sind und Eier um 50% teurer werden, muss dann das Produkt auch 50% teurer werden?

Naja Die GPU entspricht wohl eher 70 Prozent der Eier in dem Rezept,....

Da werden die Produkte ein kleines bißchen teurer und schon kippt die Stimmung...

LOL
 
Chismon schrieb:
Nette Milchmädchenrechnung, insbesondere, mit dem oben zitierten Sonder-Effekt des Kryptominingbooms, der so nicht wiederkehren wird, aber als normal in Deiner Rechnung durchgehen soll.
Hier hast du leider vollkommen ins Leere gegriffen. Was du übersiehst ist dass ich ja eine NOCH teurere Karte WÄHREND des Mining Booms gekauft habe. Wenn ich beide Karten weglasse bleibt die Rechnung gleich, ich hab einfach insgesamt nochmal 150 Steine gespart. ;)

Chismon schrieb:
Du kannst Dir das gerne schön rechnen, aber Fakt ist, dass Du mit Sicherheit nicht als nVidia-only Käufer, der ab GTX 1080Ti nur noch High-End Karten gekauft hat für die große Mehrheit von Grafikkartenbesitzern oder Gamern auch nur annähernd repräsentativ ist, sondern Du gehörst zur erwähnten Elfenbeinturmnische, egal wie Du Dir und anderen das hier schön rechnen möchtest.
Ja und auch hier unterstreichst du nur was ich sagen will: wenn ich schon immer Highend kaufe und auf 16,50€ im Monat komme, dann wird der normale User, dem eine 70-Class Karte langt mit der Hälfte wegkommen. Und du willst ehrlich behaupten 8-10€ im Monat habe keiner übrig ?

Chismon schrieb:
Deine Anschaffungen seien Dir natürlich gegönnt, aber bitte gib' nicht vor irgendwie Normalität/Durchschnitt in dem Bereich auch nur ansatzweise wieder zu spiegeln, denn das tust Du mit Deinem Kaufverhalten (und Verkauf alter Karten, denn sehr viele nutzen die Karten bis diese den Geist aufgeben, als mögliches Backup ausgelagert im Zweitrechner oder bis nichts mehr damit anständig läuft und dann ist nichts mehr großartigen Verkaufserlösen, aber es ist ein bedeutend nachhaltigeres Kaufverhalten
Nachhaltiger ? Meine Karten werfe ich ja nicht weg, die haben meistens Studenten gekauft (nur einmal ein Miner). Ist doch genauso nachhaltig damit. Und wer die Karten halt behält bis sie ein Totalverlust sind kann mir ja nix vorwerfen nur weil ich das nicht tue und meine finanziellen Verluste so in Grenzen halte und dabei technisch immer Up2Date bin.

Chismon schrieb:
und treibt die Preise neu produzierter dGPUs nicht weiter in schwindelerregende, auch im Vergleich zu anderer Hardware und vordergründig meist nur mit dem Zweck des daddelns von Computerspielen, Höhen) mit Sicherheit nicht ;).
Aaah, des Pudels Kern. Ich soll also auf mein Gaming Erlebnis verzichten, damit andere potentiell weniger für eine Karte zahlen müssen. Was so leider nie aufgeht (siehe AI Hype aktuell - kauf ich sie nicht kauft sie der Chinese) und von dir eine ziemlich hohe Erwartungshaltung an eine fremde Person ist. Es ist ja nicht in meiner Verantwortung anderen ihr Hobby zu ermöglichen sondern deren Verantwortung selbst so gut wie möglich weg zu kommen.

Chismon schrieb:
Was ich erwartet hätte, um eine RTX 4070 "Super" trotz der mittlerweile knappen 12 GB Speicher empfehlen zu können ist eine überfällige Preissenkung auf 499 Euro durch nVidia, da dieses Produkt (ebenso wie die RTX 3070 mit 8GB damals) mit zu wenig Speicher für den Preis zum Marktstart kommt
Dann ist deine Erwartungshaltung das Problem. Ich erwarte gar nix mehr und schaue einfach was der Markt hergibt, was ich brauche und was meine finanzielle Lage zulässt. Mit 12GB kann man bestimmt noch eine ganze Weile daddeln. Wäre mehr besser ? Fast immer, ja, aber hey es gibt ja Alternativen.

Chismon schrieb:
(für den angepeilten Preis nicht passt und nicht mehr zeitgemäss ist, denn der Nachfolger in kolportiert einem Jahr wird voraussichtlich mit 16 GB kommen),
Ein Nachfolgeprodukt wird besser als sein Vorgänger und bietet einen Anreiz zum kaufen. Wer hätte DAS nur gedacht. Da fühl ich mich mit meiner 970er GTX damals richtig abgezockt, schliesslich hat eine 4070 heute dreimal so viel VRAM !

Chismon schrieb:
so einfach ist das und weil das nicht der Fall ist, sehe ich immer noch eine RX 7800XT als die bessere, ganze 160 Euro günstigere und langlebigere Wahl an für die große Mehrheit.
Dann schauen wir doch ob die Mehrheit sich auch von Team Green so abgezogen fühlt und die rote Karte kauft oder doch lieber das ausgereiftere Featureset bevorzugt.

Chismon schrieb:
Im Gegensatz zu Dir und anderen hier fresse ich nicht jeden ausgewürfelten Preis, den nVidia mir glaubt vorsetzen zu können für deren Produkt, denn zum Glück gibt es im Grafikkartenbereich noch kein Monopol
Im Gegensatz zu anderen verdiene ich vielleicht auch kein ausgewürfeltes Gehalt und kann es mir daher erlauben. Seh das Problem nicht. Fressen andere jetzt auch ausgewürfelte Preise wenn sie einen Porsche holen ? Darf man das heute noch ? Bin ich jetzt für anderer Leute Karriere und Gehalt verantwortlich ? Oder darf ich mir einfach auch mal zu Weihnachten was gönnen was mich happy macht ?

Chismon schrieb:
(aber daran trägst Du mit Deinen nVidia-only Kartenkäufen sicherlich auch keinen Verdienst).
Daran trägt vor allem AMD mit ihren für mich nutzlosen Karten vor allem kein Verdienst. Nenn mir doch eine schnellere Karte von Team Red die sowohl CUDA (oder ROCm) ausgereift unterstützt ohne Gebastel, in ML/DL schneller als Grün ist, RTX besser und Raster besser kann und dabei möglichst weniger Saft zieht. Besserer Encoder wäre auch gut, das nutz ich nämlich öfters und ich mag nVidias Broadcast Suite und Reflex ist sicher auch nice to have (Antilag kann ja mal garnix).
 
  • Gefällt mir
Reaktionen: Fallout667
DevPandi schrieb:
Und damit direkt das nächste: Nein, auch mit der von dir gezeigten Option des MSI Afterburner kann man nicht den tatsächlichen VRAM-Verbrauch messen, sondern misst nur den Verbrauch, den eine Thread/Programm anmeldet.
Heißt unterm Strich man kann aus deiner recht komischen Sicht überhaupt nichts messen, soll sich aber dann auf deine Aussage verlassen, dass AMD das Bild "richtig" berechnet und Nvidia "schummelt". Liege ich da richtig? ;) AMD hat also nur aus Spaß an der Freude einen höheren V-ram Bedarf der gar nicht mit dem eigentlichen Problem zusammenhängen soll. Sure Sherlock.
DevPandi schrieb:
Das kann viele Gründe haben. Wie bereits erwähnt, kann es auch sein, dass AMD den VRAM weniger aggressiv aufräumt, wenn genug VRAM da ist, weil Daten ggf. noch mal gebraucht werden.
Oder es ist einfach der Fakt, dass AMD ein schlechteres Management hat, der sich deutlich in den Messungen zeigt...
DevPandi schrieb:
Jede Person mit rudimentären Entwicklungsfähigkeiten und der Fähigkeit eine Dokumentation zu lesen, kann dir in DirectX 12 und Vulkan ein Programm programmieren, mit dem man den gesamten VRAM und System-RAM belegen kann und anschließend lange Zeit nur mit wenigen MB rechnet, der VRAM aber weiterhin voll belegt bleibt.
Nur macht das halt niemand. Aber ja, in diesem Szenario wäre Nvidia vermutlich dann nicht mehr besser dran als AMD, nur ist das überhaupt nicht Bestandteil der Diskussion.
DevPandi schrieb:
Du hast schlecht argumentiert!
Deine Argumentation klare technische Zusammenhänge auf Geschmacksfragen zu reduzieren, nach dem Motto, hey das AMD Bild ruckelt zwar, aber es ist laut deiner Meinung ja "richtig" dargestellt und technisch okay, ist schlecht argumentiert, sehr schlecht sogar.

Aus Spielerinnensicht ist Nvidias Weg besser, gehe ich aus technischer Sicht dran, dann versagen beide bei einem VRAM-Mangel gnadenlos.
Nein, aus technischer Sicht ists das eben nicht gleichwertig. Und nein, beide versagen bei einem V-ram Mangel eben nicht gnadenlos, sondern Nvidia kommt damit wesentlich besser zurecht.

DevPandi schrieb:
Ich habe nicht deine Aussage angegriffen, sondern explizit genau zu diesem Zeitpunkt dein EINZIGES Argument.
Ich habe schon verstanden wie du argumentierst und weshalb, es bleibt dir ja auch nichts anderes übrig, wenn du die unterlegene Technik verteidigen möchtest. AMD muss einfach in dem Zusammenhang nachbessern, wie schon bei FSR. Das ist ja auch kein Beinbruch. Sie verbauen genügend V-ram, damit das bei 12 vs 16GB keine Rolle spielt.
DevPandi schrieb:
Du hast hier eine Wirkung versucht als Argument anzubringen, ohne zu verstehen, dass die Wirkung viele Ursachen haben kann.
Klar, viele Ursachen. Nur nicht die Ursache die auf der Hand liegt.
Mir ist es klar, dass man den V-ram Verbrauch nicht genau wissenschaftlich "messen" kann, weil man dazu Einblick in AMD´s und Nvidias Treiber braucht. Wir können nur Percentile, Frametimes, Belegung und das messen was das Programm/Thread anfordert und hält. Aber das reicht völlig aus um eine Aussage zu treffen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: drSeehas, Cohen, Fallout667 und 3 andere
Quidproquo77 schrieb:
Aber das reicht völlig aus um eine Aussage zu treffen.
Nicht wirklich denn sehr viele Probleme die wir das letzte Jahr gesehen haben lassen sich mit einem Balken oft einfach nicht darstellen. Insbesondere weil Benchmark runs vergleichsweise kurz sind und oft nicht das abbilden was im Spiel tatsächlich passiert.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz und DevPandi
longusnickus schrieb:
also dass vulkan im sterben liegt und ein dasein wie openGL (was ja ursprünglich nicht mal für spiele entwickelt wurde, sondern für 3D programme) fristet ist quatsch!
An die Thematik muss man differenzierter herangehen:

OpenGL war Anfang und Mitte der 90er ein Sammelbecken für 3D-Anwendungen und wurde Anfangs auch für Spiele genutzt. Es hat sich aber bereits damals gezeigt, dass OpenGL durch die Fülle an Funktionen, Herstellererweiterungen und Co alles andere als entwicklerfreundlich ist. 3dfx hat die Probleme von OpenGL erkannt und eine schnelle und schlanke API entwickelt, die für Spiele gedacht war. Microsoft war sich dieser Tatsache auch bewusst und ist mit DirectX auch in diese Richtung gegangen.

Windows hat sich damals gegen quasi alle Betriebssysteme durchgesetzt und Microsoft hat sich auch an die Spieleentwickler gehalten und irgendwann konnte DirectX auch Glide überholen. OpenGL hatte damals dann abseits des professionellen Marktes keine Bedeutung mehr. Das hat sich mit den aufkommenden SmartPhones aber auch den Bemühungen von Apple in den späten 00er-Jahren aber wieder geändert und ebenso dem Erfolg von Android.

Es gab immer einige Spielestudios - iD - die OpenGL und später auch Vulkan die treue gehalten haben und halten, gleichzeitig spielt Vulkan "auf dem PC" auch heute keine Rolle und steht bei den Entwicklern von Spielen etwas im Abseits. Gleichzeitig erfreut sich aber Vulkan in anderen Bereichen durchaus einer immer stärker werdenden Beliebtheit, besonders wenn es um Cross-Plattformentwicklungen geht und damit wieder im professionellen Bereich. Gleichzeitig ist Code zwischen Vulkan und DirectX 12 in weiten Teilen fast 1:1 zu übersetzen, was auch dazu beigetragen hat, dass Wine und darauf aufbauend Proton und Co heute eine deutlich höhere Qualität haben, als noch vor 10 Jahren.

Steams Bemühungen Linux als Spiele-OS zu etablieren, wären ohne Vulkan und ebenso ohne DirectX 12 deutlich schwerer.

Dazu kommt, dass mit Android im Smartphone-Bereich Vulkan für die Engine-Entwickler auch eine gewisse Wichtigkeit hat, ebenso wie Metal durch die Verbreitung von iOS.
longusnickus schrieb:
ich bin kein programmierer, aber ich kann mir nicht vorstellen, dass entwickler von geschlossener software irgendwas lernen und sich dadurch verbessern.

Die meisten Entwickler werden auch aus FSR und obwohl es OpenSource ist, nicht sehr viel lernen, weil wir hier von teilweise hochkomplexen Problemen schreiben, an denen bei Nvidia, AMD und Intel ganze Teams teilweise mehre Monate bis Jahre arbeiten und die Basis teilweise dazu noch Bachelor-, Master- und Doktorarbeiten sind, die sich mit diesen Technologien beschäftigen.

Bei vielen Spielenfirmen sind - und das meine ich im weiten nicht so negativ, wie es nun rüber kommt - ehr die schlechteren Entwickler angestellt, denn, die guten Entwickler in diesem Bereich schnappen sich Nvidia, AMD, Intel und Co teilweise bereits mit Werkstudentenverträge und Sponsoring der Abschlussarbeiten direkt an den Universitäten. Danach kommen in der Regel die großen Publisher wie EA, Microsoft aber auch Epic, Unity, die auch noch mal ganz andere Gehälter zahlen können, als die meisten kleineren Publisher und Spielestudios und diese Entwickler arbeiten dann wirklich quasi nur an den Engines und nicht wirklich in der Spieleentwicklung.

Was dann bei den landet ist oft eher Mittelmaß. Das bedeutet nicht, dass diese Personen nichts drauf haben, das können sogar richtig gute Programmierer sein, aber nicht unbedingt die Ingenieure die neue Techniken ersinnen und auch prägend voran bringen, dass geht dann oft nicht mal mehr aus Zeit gründen, weil die normale Arbeit einen auslastet.

longusnickus schrieb:
sondern eines und das dafür anständig und natürlich würde ich dann das wählen, das die meisten spieler verwenden können.
Das sehen die meisten Entwickler an dieser Stelle anders: Da wird das eingebaut, was am wenigsten Arbeit macht.

Und da hat DLSS einen gewaltigen Vorteil gegenüber FSR und diesen Vorteil bekommen wir immer wieder zu spüren - @Quidproquo77 jetzt bloß nicht aus allen Wolken fallen, dass ich nun DLSS als FSR überlegen hinstelle, es hat schon einen Grund, warum ich schrieb, dass ich gerne ein Advocatus Diaboli bin!

DLSS lässt sich in der Regel mit weniger Aufwand in die Spiele implementieren und bietet damit von Beginn an ein relativ gutes Upscaleing, dass mit wenigen Problemen zu kämpfen hat. DLSS ist für Entwickler unproblematischer und kann selbst bei einer eher minimalistischen Integration bereits sehr gute Erlebnisse bieten.

Das sieht bei FSR anders aus, damit FSR "vergleichbare" Ergebnisse liefert, muss ein Entwickler wesentlich mehr Aufwand betreiben. Wird FSR mit minimalem Aufwand eingebaut, dann ist FSR DLSS deutlich unterlegen und genau dass ist es auch, was immer wieder zu sehen: Sobald Nvidia und/oder AMD als Partner nicht vorhanden sind und DLSS und FSR implementiert wurden, dann sind es in der Regel einfach nur Haken am Lastenheft und FSR kämpft plötzlich mit Problemen, die es in "guten" Implementationen nicht gibt.

Eine mittelmäßige bis schlechte DLSS-Umsetzung ist in vielen Spielen einer schlechten FSR-Umsetzung weit überlegen.

Und der entscheidende Punkt zur Umsetzung: Wenn man sich für FSR die Arbeit macht, dann kann man DLSS relativ einfach mitnehmen, in dem man entweder einen Wraper schreibt, der die Aufrufe entgegen nimmt oder einfach ein switch oder if-else einbaut und das quasi etwas mehr Tipparbeit.

Die Unterschiede einer guten FSR und DLSS-Implementation sind subtil und sollte man auf bestimmte Artefakte bei dem einen Upscaler negativ reagieren, kann man den anderen testen und entsprechend entscheiden, was einen dann weniger stört.

Bei "mittelmäßig" implementierten FSR und DLSS ist DLSS klar überlegen und vorzuziehen.

savo84 schrieb:
aber die sehen auch irgendwie nicht aus als wären es die leisesten Karten.
Die meisten FE-Designs sind relativ leise, wenn man sich die Tests ansieht. Natürlich sind hier auch keine Wunder zu erwarten. Das FE-Design ist auf bestimmte TDP-Klassen ausgelegt. Geht man darüber, wird es lauter.

Die guten Custom-Designs haben hier mehr Reserve.
ShowOff schrieb:
die tägliche Vram Diskussion - so sicher wie das Amen in der Kirche :>
Für die meisten Menschen hat diese Diskussion keine Relevanz, weil hier einfach dann Details und Co runter geschraubt werden.

Es ist ein valider Kritikpunkt an der Karte und wer die 12 GB für eine heutige Karte zu wenig findet, der hat genau so recht, wie jemand, der dagegen hält.
 
  • Gefällt mir
Reaktionen: Mr. Vega, JarlBallin, Lacki1982 und 6 andere
Zurück
Oben