Test Nvidia GeForce RTX 4070 Super im Test: Mehr Leistung für die 12-GB-Grafikkarte

Hab gerade bei Mindfactory die 7900 GRE entdeckt AMD will,s glaub Wissen :cool_alt:
 

Anhänge

  • Zwischenablage01.jpg
    Zwischenablage01.jpg
    76,4 KB · Aufrufe: 204
  • Gefällt mir
Reaktionen: Hardwarious, Quidproquo77, SweetOhm und eine weitere Person
blackiwid schrieb:
Ja dann sagt das alles über Steam Survey aus das man wissen muss.
Ne, das sagt einfach nur, daß sie noch unter "ferner liefen" geführt ist. Weil sie -gemessen an den anderen GPU- schlichtweg nicht so verbreitet und somit für die Statistik noch bedeutungslos ist.
Das ist völlig normal, und hat mit "buggy" mal rein gar nix zu tun.

https://store.steampowered.com/hwsurvey/videocard/?sort=pct

Die findest dann unter "andere".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex, MrHeisenberg, Quidproquo77 und eine weitere Person
Eli0t schrieb:
Es ist ein beschnitter 4080 Chip während die Ti einen 4070 Chip hat.
Das ist noch kein 4080 Die (AD103), den wird die 4070 Ti Super bekommen. Die 4070S sind quasi wirklich Restechips von der 4070 Ti.
Ergänzung ()

Taxxor schrieb:
249€ in der Tabelle als Wunsch UVP für eine 7700XT wären nach aktuellem Kurs ja gerade mal $227, das sind noch $50 weniger als die UVP einer 5600XT damals und die war 100mm² kleiner in einem günstigeren Prozess.

Alleine der 200mm² Chip sowie die 5 MCDs dürften in Summe locker $150 kosten und dann hat man noch kein PCB und keinen Kühler
Wenn ich solche Wunschvorstellungen höre frag ich mich echt immer wie weit manche Leute noch am Leben vorbeilaufen können. 😵‍💫
Ergänzung ()

Plonktroll schrieb:
Hab gerade bei Mindfactory die 7900 GRE entdeckt AMD will,s glaub Wissen :cool_alt:
RDNA3 verkauft sich anscheinend eher schlecht wenn man die Steam Survey in Betracht zieht. Allein die 4070 hat sich besser verkauft als das gesamte RDNA3 Lineup bisher.

Besser wirds wohl erst sobald die APUs ins Rennen kommen, da dürfte AMD im Laptop-Markt richtig fett wildern gehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, drSeehas, MrHeisenberg und eine weitere Person
BOBderBAGGER schrieb:
Vram Mangel kann sich auch anders als min FPS zeigen. z.B Texturen die nicht richtig oder dauernd neu geladen werden. Irgendwelche seltsamen abstürze oder Standbilder die du in den üblichen Benchmark runs nie erleben wirst.
Sehr gut sieht man das Phänomen in einem Video von Hardware Unboxed, wo sie mal gezielt 8 GB mit 16 GB verglichen hatten anhand der etwa gleichschnellen RTX 3070 und RX 6800.

Ab etwa 9:30 sieht man das sehr gut, wie mit der RTX 3070 permanent die Texturen, selbst bei Stillstand, hin und her gestauscht werden, weil nicht alle gleichzeitig in den VRAM passen.
 
  • Gefällt mir
Reaktionen: JarlBallin
Draco Nobilis schrieb:
Das Problem, Computerbase hat faktenbasierende Benchmarks mit 1% min FPS/Percentil und ist renomiert und macht seit Jahren Tests. Ebenso haben andere Seiten das selbe festgestellt. Da man sich ja nicht nur auf eine Quelle verlassen sollte.
Die Spiele werden regelmäßig gepatcht.
Zu Release litt Diablo 4 unter Vram Überlauf, das ist jetzt nicht mehr der Fall. Genauso im übrigen Hogwarts Legacy oder The Last of US.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg
Cohen schrieb:
Und wenn du einen PC hast mit ner 7900 XT(X) drin und sagen wir 3 Familienmitgliedern, passiert das nicht?
Doch aber China Leute sind verrückt auf Nvidia offenbar haben die nen Fetisch immer nur Marktführer zu kaufen, und ja wenn dort eben ein paar solcher Coffeeshops wo Leute dort eben viel spielen dann kann es schon sein das Nvidia davon mehr profitiert.
 
BOBderBAGGER schrieb:
Irgendwelche seltsamen abstürze oder Standbilder die du in den üblichen Benchmark runs nie erleben wirst.
Wer sprach denn nur von einem Benchmarkrun? Das hast doch ausschließlich du gesagt.
Plonktroll schrieb:
Hab gerade bei Mindfactory die 7900 GRE entdeckt AMD will,s glaub Wissen :cool_alt:
Ist auch wieder dasselbe zur 4070 Super.


Vorteile Radeon
Vram
25 Euro günstiger

Vorteile GeForce
Leistungsaufnahme
RT Leistung
DLSS Qualität
Ergänzung ()

blackiwid schrieb:
und ja wenn dort eben ein paar solcher Coffeeshops wo Leute dort eben viel spielen dann kann es schon sein das Nvidia davon mehr profitiert.
Dieses Erfassungsproblem wurde vor 7! Jahren behoben. Das würde dir auch schon mehrfach gesagt und verlinkt, aber du verbreitet weiter diesen Unsinn.

https://steamcommunity.com/discussions/forum/0/1696046342855998716/
 
  • Gefällt mir
Reaktionen: drSeehas und MrHeisenberg
Cohen schrieb:
Du weisst aber schon, dass es mittlerweile Adaptiv-Sync-Displays gibt? Oder 120-hz-Displays, bei denen 40 oder 120 fps interessant sein können, 144 Hz-Displays, bei denen 48, 72 fps und 144 fps interessant sein können, usw.
Ja weiß ich, aber zum einen sind die Minimum Werte für Adaptive Sync so quer verteilt, das es dann halt wirklich zuviel wird, zum anderen ... wird schon mit den Minimums (hoffentlich) passen wenn man 60 schafft. Ich hab jetzt gar nicht im viel ausführlichen CB Techniktest geschaut.
Und umgekehrt wenn 30 das Ziel ist, was für Alan Wake ja reicht, dann wird man halt auf Adaptive-Sync verzichten.

Davon ab, im Falle von Alan Wake ist dann 120 fps, 144 fps, etc ja dann echt Wumpe, wichtiger wäre ja dann nur noch als Szene zum testen eine zu wählen, die danna auch wirklich worst case darstellt. Das ist ja das schöne wenn man je nach Spiel entscheidet, welche Target Auflösung eigentlich relevant ist. Schneller Shooter wäre umgekehrt natürlich 30 FPS irrelevant.

Vsync auf 120 bzw 144hz mit 40, 48, 72 hast du zwar natürlich nicht unrecht, anderseits ist das alles so nah an 60 bzw 30 dran. Da wären die Settings auf jeden Fall guter Startpunkt, mal ganz davon ab das ich keinem Redakteure zumuten wollen würde dann für die ganzen GPUs auch noch auf den Frame genau die Settings zu optimieren, am besten noch je nach Szene. Es ging ja gerade darum das es trotzdem nicht den Rahmen sprengen soll.

Ist aber auch latte, bei CB ist dann halt jeder Techniktest nochmal ne GPU Review mit Vergleichsbalken. Hat ja auch seine Berechtigung und DF macht ja eh schon oft ihren Guide zum Optimierten der Settings für Unterschiedliche Leistungsklassen von GPUs … also zumindest bei besonderen Titeln.
 
Ben_computer_Ba schrieb:
Stimmt natürlich, war auch hauptsächlich auf die anderen Aspekte bezogen, denn bei der Effizienz, FG und RT ist bei der 7800xt nahe zu nichts los.
Auch das ist übertrieben. Die Welt ist nicht schwarz/weiss. "Nahezu nix los" ist bei Karten wie der RTX3050, aber sicher nicht bei einer 7800 XT.
Beispiel Effizienz: FPS/Watt ist die 7800 XT ~20% schlechter als die 4070 Super gemäss CB Test. Absolut gesehen sind es ~20W. Das ist ein Unterschied. Aber völlig irrelevant in der Realität.
Beispiel FG: Sehe ich die AMD sogar vorne, zumindest in einigen Tagen (AFMF). Selbst bei FMF vs. DLSS FG kann man von einem Patt reden.
Auch beim Upscaling ist es so: ja, DLSS bietet i.d.R. ein hübscheres Bild als FSR. Die Unterschiede wird der Normaluser ohne Standbilder und Zoom aber kaum bemerken. Entsprechend ist FSR alles Andere als unbrauchbar, wie "ist nix los" impliziert.

Ist die 4070 Super technisch besser? Absolut! Ist der Unterschied gross? Absolut nicht.

Ben_computer_Ba schrieb:
Hogwarts war am Anfang aber auch wirklich schlecht optimiert, da kann dann dlss Abhilfe schaffen oder man spielt es später. Ausnahmen bestätigen die Regel.
Naja, es gibt da schon noch paar Games mehr, aber das ist auch gar nicht der Punkt. Es zeigt einfach, dass die 12GB halt "knapp" sind und man mit Spielen rechnen muss, die auf maxed out mehr brauchen. Wissen kann man das bisher ja nur von existierenden Games.

Ben_computer_Ba schrieb:
Das stimmt absolut, ich möchte Nvidias geizen beim Speicher auch nicht rechtfertigen oder so, sondern lediglich deutlich machen, dass für viele die nur seltenen Probleme wegen des vrams weniger stören, als fehlende oder nur schlechter gestaltete Features bei AMD.
Ausgehend von Normalverbraucher (also nicht unbedingt uns) würde ich das so nicht bestätigen. Die wenigsten Spieler nutzen die Features überhaupt und ob sie dann wirklich einen Unterschied merken zwischen FSR und DLSS, AFMF oder DLSS FG oder den 20W weniger Verbrauch bezweifle ich stark. Verschwindende Texturen oder massive Nachladeruckler (granted, das ist eher ein Problem bei den PCIe x8 Karten) fällt da wohl eher auf, aber sicher ebenfalls nicht durchwegs. Und wenn, dann wird der Durschnittsuser wissen, dass es an den 12GB liegt.
ThirdLife schrieb:
RDNA3 verkauft sich anscheinend eher schlecht wenn man die Steam Survey in Betracht zieht. Allein die 4070 hat sich besser verkauft als das gesamte RDNA3 Lineup bisher.
Q3-2023 im Vergleich zum Q3-2022 ist RTG rund 8% im Minus ABER gemäss Note verkaufen sie mehr Karten, der Einbruch kommt von den Konsolen:

"Gaming segment revenue was $1.5 billion, down 8% year-over-year, primarily due to a decline in semi-custom revenue, partially offset by an increase in AMD Radeon™ GPU sales."
 
blackiwid schrieb:
wenn du einen PC hast mit ner 4090 drin und sagen wir 3 Familienmitgliedern haben da jeweils nen eigenen Windows Account und nen eigenes Steam, zählt der die Hardware 3x. Nur mal ein weiteres Ding zu nennen, das mag bei Heimcomputern selten sein bei chinesischen Coffee-shops aber nicht.
Wurde schon vor über 5 Jahren geändert, du solltest dich vielleicht mal besser informieren. Nur weil dir eine Statistik nicht passt, ist sie bei weitem nicht schlecht und besser als sich irgendwelche "Zahlen" aus dem Finger zu saugen.
STEAM HARDWARE SURVEY FIX – 5/2/2018
The latest Steam Hardware Survey incorporates a number of fixes that address over counting of cyber cafe customers that occurred during the prior seven months.

Historically, the survey used a client-side method to ensure that systems were counted only once per year, in order to provide an accurate picture of the entire Steam user population. It turns out, however, that many cyber cafes manage their hardware in a way that was causing their customers to be over counted.
 
Plonktroll schrieb:
Hab gerade bei Mindfactory die 7900 GRE entdeckt AMD will,s glaub Wissen :cool_alt:
nice

ab 23. bei MF die 16GB-GRE@608€ incl. Pandora

Dann sollte CB die GRE auch endlich offiziell in die Charts aufnehmen!
(das sinnlose Einblenden der sauteuren 4090 ist ja auch möglich in nem Test der Billigheimer <<1k€)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: drSeehas
Taxxor schrieb:
Die XT war bei $899 / 1.050€ UVP
ok... aber statt 1050 jetzt 750 ist schon ne satte Preissenkung.
Der Rest des Postings betrifft mich nicht, Du meinst den Ersteller der Tabelle... und die Preise sind zu niedrig nochdazu wo GDDR6(X) auch nicht mehr günstig ist, wie vor nem Jahr... Deswegen geht die Preissteigerung von der 7600 auf die 7600 XT auch voll in Ordnung. Da gibts kein Markup im herkömmlichen Sinne, im Gegensatz zu nvidia 8GB vs 16GB.
Ergänzung ()

ThirdLife schrieb:
Das ist noch kein 4080 Die (AD103), den wird die 4070 Ti Super bekommen. Die 4070S sind quasi wirklich Restechips von der 4070 Ti.
Ergänzung ()
Die 4070 Ti Super ist schon ein 4080 Chip, wie sollen sonst 16GB möglich sein....
Ergänzung ()

Ayo34 schrieb:
Stable Diffusion unter Windows mit einem Klick installieren und nutzen? Wird es schon schwierig mit AMD. Und das ist eben nicht das einzige Tool wo es mit AMD schwieriger und häufiger auch langsamer ist.
Mit WSL2 sollte das auch für AMD einfach sein... Windows wird halt nicht komplett unterstützt.
Ergänzung ()

Ayo34 schrieb:
Dazu kommt ja auch, dass AMD beim Preis keine Kampfpreise liefert, sondern häufig nur 50 - 100€ günstiger unterwegs ist (reine Rasterleistung). Wenn die Grafikkarte dann 5-6 Jahre genutzt wird, bekommt man das Geld alleine durch den Strom schon wieder.
Ich kann mich noch an Zeiten erinnern, als AMD Kampfpreise lieferte, z.B. HD4850/HD4870 und keiner hats gekauft (wobei das die Zeit war mit dem hächsten AMD Marktanteil). Und jetzt verlangt eben auch AMD die Preise, die sie immer hätten aufrufen sollen und Du beschwerst Dich. Für das was sie liefern im Vergleich zu nvidia sind die Preise ok. Für das was Grafikkarten heutzutage kosten, sind beide Hersteller viel zu teuer. AMD muß natürlich auch Kohle verdienen, damit sie vor allem softwareseitig bzw. für Developer mehr machen können. Wenns generell zu teuer ist, am besten keine Graka kaufen und warten bis die im Gebrauchtmarkt landen oder wenns jetzt bei der Leistung zu knapp ist, kann man jetzt schon auf dem Gebrauchtmarkt schauern... Aber Kampfpreise helfen AMD nicht, die Leute sind in den wenigstens Fällen dazu zu bewegen etwas anderes kaufen, so ist das nunmal. Und wenn sie dazu bereit sind, dann sind einige sowieso schon gewechselt. Bei den Ryzen hats ja auch Jahre gedauert, bis sich etwas bewegt hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin
Eli0t schrieb:
Bei den Ryzen hats ja auch Jahre gedauert, bis sich etwas bewegt hat.

Bei Ryzen hat es aber nicht Jahre gedauert und dann hat auf einmal jeder Ryzen gekauft. Ryzen ist seit der 3000er Generation auf Intel Niveau und ab der 5000er Generation in einigen Bereichen vor den Intel Prozessoren. Deswegen kaufen die Leute Ryzen Prozessoren. Ich übrigens auch.

Bei den Grafikkarten sieht es eben anders aus und da ist AMD klar hinter Nvidia. Das muss man einfach objektiv so einsehen. Reine Rasterleistung kann AMD noch mithalten, aber bei der Effizienz schon nicht mehr und dann kommen eben die ganzen Nvidia Features. Bei dem was ich im AI-Bereich alles mit Cuda mittlerweile mache, hätte ich mich tot geärgert, wenn ich vor einem Jahr zur 7900xtx anstelle der 4080 gegriffen hätte.
 
ayngush schrieb:
Aber die wirst du nicht als Beweis akzeptieren, weil das ja deiner Meinung wiederspricht. Also höre bitte auf von Beweisen zu reden und erzähl mir lieber von deinen persönlichen Erfahrungen mit deiner 4070.
Such du doch Beweise / Belege für deine These, den mehr ist es nicht.
Zeige mir ein einziges Magazin/Webseite die explizit sagt "12GB sind ja ausreichend für 4k", vor allem für die nächsten 2 Jahre.
Ich (und viele andere) haben belegt das 12GB in 4k nicht gut geht.
Auch wenn es bsp. in Diablo 4 gepatcht wurde, rennen in der Zeit in der es alle zu Begin spielen diese Leute dann mit Einbußen im Spiel herum. Oder einfach für immer wenn es nicht gefixt wird.
Hier Posten 1 Dutzend Leute immer neue Belege und Tests.

Aber du tust das eben nicht, da kommt nur "meiner Gefühle/eigenen 'Test' nach".
Du kannst natürlich auf Basis deiner eigenen "Gefühle" statt Fakten gehen.
Dann verlassen wir aber das Feld der Diskussion und Argumentation den dann sage ich "das der Himmel Grün ist" und habe ja plötzlich deiner Logik nach recht.

Dazu, ich schrieb explizit mehrere Magazine nutzen als Testvergleich.
Nur sagen viele unabhängige Quellen das es eben nicht klappt.

Spätestens wenn Spiele einfach nicht max. Texturdetails in Einstellungen anbieten versagt deine Darstellung und das existiert bereits.

Wenns dir reicht ist gut, aber das kannst du eben nicht auf alle projezieren.
Kann ja sein das du es nicht wahrnimmst oder es gewohnt bist.
Testergebnisse aber können auf viele Menschen projeziert werden, dazu sind Sie da.
 
  • Gefällt mir
Reaktionen: JarlBallin
Plonktroll schrieb:
Hab gerade bei Mindfactory die 7900 GRE entdeckt AMD will,s glaub Wissen :cool_alt:

Super interessant.
Die 7900 GRE AMD Edition gibt es ebenfalls zu kaufen für 619€, bei Proshop.
Scheint, als würde AMD die Karte nach und nach in den freien Handel lassen.

Man müsste mal Mindfactory fragen, ob die 7900 GRE tatsächlich Avatar beigelegt bekommt. Laut AMD kriegen das nämlich nur die XT/XTX Karten.
 
IBISXI schrieb:
Ja, die sind schon echt arm dran.
An deiner Stelle würde ich eine Spendengruppe für NV starten, damit die nicht Hunger leiden müssen.

Wenn ich ein Produkt habe in dem 10% Eier sind und Eier um 50% teurer werden, muss dann das Produkt auch 50% teurer werden?
LOL.

Der Beitrag kommt echt so nice daher.

Bist du dir sicher das ein Grafikchip nur 10 Prozent der Gesamtkosten einer Grafikkarte ausmacht?

8-)
Ergänzung ()

Experte18 schrieb:
Träum Mal schön weiter. :mad: :baby_alt:
Welchen Teil passt den nicht?

Das Nvidia Fans wegen der hohen Preise genervt sind?

Oder sind deine Beiträge in der Regel dann doch intelligenter als das dümmliche AMD bashing weiter oben?
 
  • Gefällt mir
Reaktionen: JarlBallin
Wie sich hier das Grüne und Rote Lager an die Kehle geht.....

Seid froh dass es die Super Karten gibt.
Für Rote bedeutet das niedrigere Preise ihrer geliebten Karten
Für Grüne bedeutet es Leistungszuwachs und ggf. Preissenkungen

Muss doch jeder selbst wissen was er kauft. Einige hier kommen mir vor wie Sektenprediger
 
  • Gefällt mir
Reaktionen: Quidproquo77 und ThirdLife
Na also ist doch ein Schritt in die richtige Richtung, 15% mehr Leistung für den selben Preis. Ein typischer Superrefresh, sehe da kein Problem.

Erstaunlich finde ich nur wie schnell 12GB Vram totgesagt werden obwohl in den als "Beweis" angeführten Videos schon im Titel steht das 8GB gerade im sterben liegen, wie können dann 50% mehr Speicher auch schon tot sein!

Die Wahrheit ist halt immer von den Ansprüchen des Nutzers abhängig
 
Draco Nobilis schrieb:
Such du doch Beweise / Belege für deine These, den mehr ist es nicht.
Du hast es nicht verstanden: Ich muss dir nichts beweisen. Ich berichte von meinen Erfahrungen und wenn die zu deinen Informationen abweichend sind hast du zwei Möglichkeiten: Entweder du sammelst eigene Erfahrungen um meine Aussagen nachzuvollziehen oder du lässt es halt. Ich bin kein Testmagazin.

Und ob der Himmel für alle blau ist... kannst du ja gerne mal mit Menschen mit Farbwahrnehmungsstörung ausdiskutieren, tut hier übrigens auch nichts zur Sache, wie du den Himmel wahrnimmst. Blau ist er technisch betrachtet jedoch erst als Wahrnehmung im Auge des Betrachters.

Zu deinen Ausführungen: 12GB VRAM reichen für 4K. Man kann damit aktuell alles spielen, manchmal muss man mit den Grafikeinstellungen halt ein wenig runter, was bei einer Grafikkarte aus dem unteren Mittelfeld aber klar sein sollte. Wer mehr will muss sich halt eine 4090 kaufen. Aber die Aussage, dass man mit einer 4070 mit 12 GB VRAM nicht in 4k Auflösung spielen kann ist halt einfach Blödsinn. Das steht übrigens auch in keinen einzigen deiner so sehr vergötterten Werbekolumnen bzw. "Tests".

Erzähle mir mal: Was für eine Grafikkarte hast du denn und wie spielst du denn denn und wie läuft es so?
 
  • Gefällt mir
Reaktionen: SonyFriend
Zurück
Oben