News GeForce RTX 4070 mit GDDR6: In Spielen meist genauso schnell wie mit GDDR6X

Samuelz schrieb:
Was im Umkehrschluss heißt, den teuren GDDR6X hätte man sich von Anfang an sparen können, und die Karte billiger anbieten sollen.
Nvidia hat eine Marge von 80% bei den Karten. Glaubst du etwa, die wären mit günstigerem Speicher billiger angeboten worden?
 
  • Gefällt mir
Reaktionen: JarlBallin, chaopanda und SweetOhm
oh mein gott weniger leistung bei gleichen preis. nvidia kann sich das wohl leisten weil ja quasi Monopol und weil das den meisten Kunden wohl egal zu sein scheint. sieht man ja sonst würde nvidia nicht so viel verkaufen wenn das der fall ist. nvidia wird damit leider durch kommen. man darf eben nicht vergessen das die wenigeten sich wirklich gut auskennen. die gehen nur von hören und sagen und gehen davon aus das ist die Leistung wie die meisten meinen. Aber am Ende minimal weniger Leistung gekauft als geplant.
für die full HD user spielt es bestimmt keine Rolle oder die sogar noch weniger Auflösung zufrieden sind. Es gibt ja gewiss auf der Welt noch welche die mit crt Bildschirmen unterwegs sind. Die wo von haus aus noch weniger Auflösung haben und so.
Mit so ner niedrigen Auflösung wird man ohnehin keine Probleme haben. Die Bandbreite wird also da wohl keinen Unterschied ausmachen.
ich kann mir vorstellen das gddr6x erst ab wqhd einen echten Vorteil gegenüber gddr6 haben wird. Alles drunter wird weniger zu spüren sein. Aber hier zocken ja eh meist von euch in höheren Auflösung. Ich scheine da wohl zu den wenigsten so langsam zu gehören. Außerhalb haben die meisten noch immer full HD. Seid ich wieder zu full HD zurück gekehrt bin, haben ich massiv weniger Speicher bedarf. Bei wqhd war der viel höher gewesen.

Man merkt durchaus den Unterschied. Und sogar bei den älteren Games merke ich einen Unterschied, nur durch die Auflösung und so.

ich kann mich jedenfalls noch weiter zurück lehnen. Solange kein game kommt das ich wirklich mag, steigt auch bei mir der Bedarf nach neuer gpu auch nicht an. Die neuen games haben alle meist höhere Anforderung als ich bisher so an games habe.
Sobald das neue borderland kommt wird es auf der xbox one s gezockt sofern es noch geht. Auf dem PC wird das game wohl mit der gtx 1650 sehr zäh laufen. Da bin ich mir sehr sicher. Und wenn ich mir die sehr hohen gpu Preise so anschaue habe ich irgendwie wenig Lust auf den unübersichtlichen Markt und die teuren Preise tuen den Rest dazu.

Zudem mag zwar die rtx 3050 mit 75 Watt zwar ne leistungs Steigerung bei mir darstellen aber für den Preis müsste dieser schon mehr sein. villeicht bringt nvidia ja ne rtx 4050 als 75 Watt gpu raus oder sowas. Ich zahle jedenfalls keine 300 € aufwärts für ne gpu. Meine gtx 1650 hat 150 € gekostet. Was kriegt man dafür heute, ja genau nix. Und um die 300 € und mehr auszugleichen müsste die gpu schon bei 75 Watt mindestens 2x oder 2,5 x mehr Leistung haben. Besser wären 3x damit es sich lohnt von meiner zu wechseln. raytracing ist nach wie vor kein thema bei mir weil ich will es nach wie vor nicht nutzen. dlss ist mir auch egal bei full HD. ich will keine kleinere fake Auflösung haben. für mich ist die Auflösung auf dem Bildschirm die native Auflösung. wenn die gpu das nicht packt, dann ist sie zu schwach und damit nutzlos. Ja klar sagen welche umgerechnete Auflösung sei ähnlich gut aber darauf gebe ich nix.

zum Glück habe ich nur ne niedrige Anforderung. Da muss ich mir um die Bandbreite auch keine sorgen mehr machen bei einer gpu.
 
  • Gefällt mir
Reaktionen: oem111 und Snoop7676
syfsyn schrieb:
Es wäre locker drin gewesen noch ne rtx4060ti 12gb mit 18gbps und dem ad104 mit 42sm 180w tbp zu bringen.
Was sollte daran dann bitte besser sein?
Die 4060ti gibt es doch schon mit 8 und 16GB wozu dann noch ne 12GB Version?
Das wäre doch genauso unnütz wie die 4070 mit GDDR6.
 
wern001 schrieb:
Klar werden die günstiger. Hätte auch meine Mam sagen können. Grund wieso es günstiger wird. 5000er Serie steht vor der Türe
Wenn man sieht, dass die 4070 teils für 509 Euro bei MF erhältlich war, dürfte die Karte dann schon für deutlich unter 500 Euro erhältlich sein. Ist doch nett.

100 Dollar mehr als die 1070 vor 8 Jahren gekostet hat.
lynx007 schrieb:
Meine letztes echtes Schnapchen war glaube ich HD5870 ...??!!? als über 10 Jahre her... Seit dem wurde es immer seltener billiger, innhalb des Lebenzykluses, aber auch immer seltener gegen ende...
War die Karte nicht 50% teurer als die Krüppel 512mb 4870?^^
Es täuscht einfach, weil das Gehirn tendenziell nur das Gute aus der Vergangenheit abspeichert.
Ergänzung ()

Capthowdy schrieb:
Billigere Teile verbauen, aber den gleichen Preis aufrufen? Welchem BWLer das wohl mal wieder eingefallen ist? :rolleyes:
Die 4070 GDDR 6 ist für unsere Systeme nen Tacken günstiger zu bestellen, ergo wirds bisschen günstiger. ;)
 
Zuletzt bearbeitet:
Wichtig wäre eine Messung mit einem Frametimeverlauf und einer Auswertung von Minimum FPS und den Percentil.
Alles andere ist Käse.
Balken sagen absolut nichts aus, wie gut eine Karte oder Prozessor tatsächlich performen.

Es gab schon Tests, da waren ähnliche Produkte auf dem Papier fast gleich schnell, unter der Oberfläche brodelte es aber gewaltig und das kleinere/andere Produkt war dann plötzlich nicht mehr wirklich empfehlenswert, weil z.B. Speichermenge/Bandbreite/Lanes oder Kernzahl bei CPU's etc. durchaus ein limitierender Faktor sein kann.
Man benötigt also Spezialtests, keinen normalen Benchmarkparcour (wo der Durchschnitt dann Top aussieht).
Wenn also Metro bis zu 10% Differenz ausgibt, ist das schon einmal ein gutes Indiz für ein durchaus vorhandenes Limit der Speicheranbindung.
Die Frage ist: wird so ein Spiel dann gleichzeitig auch unruhiger, oder sinken nur die FPS ein wenig?
Zudem muss man bedenken, NVidia hat ja vermutlich nicht aus Lust und Laune heraus auf den neuen und teuren Standard gesetzt gehabt.
Man hätte mit dem günstigeren Speicher zum gleichen Preis mehr Gewinn erzielt.
Und gleichzeitig wäre es eine Aufwertigung der höher stehenden Produkte gewesen, als zusätzliche Rechtfertigung der viel höheren Preise.
Und man hätte mehr kapazität für die teuren Modelle gehabt, was ja jetzt wohl auch der Grund ist, warum man nun doch den billigeren Speicher nehmen möchte - neben der höheren Gewinnmarge, wie vorhin erwähnt.

Ich bin der Meinung: da es sich durch die Änderung um ein komplett eigenständiges neues Produkt handelt, müsste man es extra gekennzeichnet und in diesem Fall als günstigere Variante verkaufen.
Alles andere ist Kundentäuschung.
Im Umkehrfall hätte man es machen können, wenn der Kunde dadurch einen Vorteil hat, quasi als kostenloses Facelifting, wie bei Autos, wo dann mittendrin Verbesserungen und fehlerbehebungen vorgenommen werden, so wie NVidia vorgeht, geht es aber absolut nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin und SweetOhm
Quidproquo77 schrieb:
War die Karte nicht 50% teurer als die Krüppel 512mb 4870?^^
Es täuscht einfach, weil das Gehirn tendenziell nur das Gute aus der Vergangenheit abspeichert.
Vielelicht verdehe ich da auch was. Vielelicht war es auch dfie HD 5870, die für paar wochen praktisch verschenkt wurde. Saphire...
Es geht ja auch nicht um eine einzige GPU! sondern eher das der Upgrade immer teurer geworden ist, wärend abverkäufe praktisch nicht mehr stattfinden. Früher war es gang und gäbe, das zum Release einer neuen Serie die alte nochmal stark im Preis viel. Und das war auf jedenfall etwas gutes, weil man dann oft zum ende eines Produktlebens noch auf ein Schnpächen hoffen konnte. Und das scheint in der Industrie leider nicht mehr drinnen zu sein. Das gibt es praktisch nicht mehr.

NV RTX 3k kann man heute noch kaufen, und zum release hatte zwar untermstrich sogar ein besseres P/L Profiel als der Nachfolger 4k , zb 3060 zur 4060?!?! Oder waren es die TI pendaten. Bitte jetzt nicht wieder aufs Model genau nehmen. Aber Fakt ist, wen man im Lowend noch Sinnvoll upgraden möchte, ist man praktisch immer gezwungen 2 Jahre alte Hardware zu kaufen, die kaum günstiger als die Neue (cost per frame), obwohl sie schon 2+ Jahre auf dem Markt ist. Und nciht weil die neue Gen so günstig ist, sondern weil dei neuen Serien Mondpreise verlangen, und bei den alten Serien kaum ein Preisverfall mehr stattfinden. Beim AMD wo heute noch 6xxx empfohlen wird. Ich warte jetzt schon paar Jahre um meine rx480 zu ersetzen, langsam drängt es auch, aber der einstiegspreis einer x16 karte liegt bei gut 300-500€! was schon ne hausnummer ist.... und da kommt halt nichts mehr wo auch nur 4 wochen der Presi auf 150-300€ fällt, und man sich denkt, ohhh das muss ich jetzt schnell Schießen, wie es früher oft der fall war. Man wartet, man wartet und langsam sind halt auch Spiele dabei die man gerne hätte, wie wokong oder SpaceMarine2, die man aber nicht kaufen kann.

Aber da will ich jetzt auch nicht ewig darauf rumhacken. Mitlerweile laufen oft 2 Gens nebeneinander, das ist halt tatsache. Das muss man Akzeptieren. Und eine neue GPU Archetektur, ist halt nur noch etwas für Enthusiasten die bereit sind 400, 500+ zu bezahlen... Und das wollte ich halt einfach erwähnen. Vieleicht ist das bei rx8xxx wieder anders. Es wurde ja von AMD angekündigt, das man sich auf die "breite" konzentrieren will, das man marktanteile anstrebt. Ich will daraus jetzt nciht wieder "es ist alles so teuer" geworden debatte anstoßen. Es ging mir nur darum das Sonserschlussverkäufe wie man sie früher hatte, auf die viele hoffen, und hoffen darf man ja, praktisch nicht mehr existent sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snoop7676, SweetOhm und Corpus Delicti
Die rtx3050 6gb ist schon gut 60% schneller als die gtx1650 und ein kleines update was auch anzuraten ist. Die gtx1650 hadert bei den 4b vram die werden definitiv zum problem.
Was ab 2025 kommt im low end sage ich nur alles unter 300€ wird kaum bis keine Steigerung bekommen. Es besteht die Hoffnung das amd die rx8600 grob rx7600 perf für 230€ bringt diese hat aber 8gb und ist auf lange Sicht keine Lösung aber die letzte low end gpu von amd.
Danach also ab 2026 wird es nur noch apu bis 600€ geben. Da ab 2026 am6 kommt mit nenn 256bit si.
Erste wird wohl 60cu mit 8 kern cpu in n3 node (+- 3,0ghz =30tf) 599$
Zweite mit 40cu 8core 399$
Dritte mit 20cu 6 core 299$
Rdna5 wird es ab 80cu geben und ab 599$ 250w tbp

Rdna4 läuft bis 2027 dann kommt udma was die arch drastisch ändert (doppelte alu per cu gestapelte chips)
nvidia indes letzte entry gpu wird die rtx6060 2026 mit dann 50sm 200w tbp sf3 node 2,6ghz
Danach folgt rubin 2027 auch gestapelte chips ab 128sm in a18 +n6 node (256bit si)
Das es so kommt ist sicher da man immer mehr in wärmedichte Probleme Kommt und mcm das lösen kann.
Der Takt bleibt gleich die chipdichte ändert sich ab a18 node nicht mehr da man auf Takt gehen muss.
Ab hier wird es ungewiss da man mehrere Wege gehen kann, mehrere chips stapeln mit wärmebrücken sehr wahrscheinlich, höhere packdichte mit mehr alu =Taktreduzierung oder mehrere alu Blöcke verbinden und sogar den sram auslagern.
amd geht den Weg mehrere alu Blöcke zu verbinden nvidia unklar. ich nehme eher an das es Monolithen bleiben und nur das Si ausgelagert wird erste gen. zweite der sram ausgelagert wird. vertikal zu alu verbunden. (3d chip)
Nur wird es das am Desktop nicht geben bis 2028 wird maximal 100tf am desktop geben (rtx6090 perf 2026)
Die apu werden primär desktop Lösungen sein die gehen bis 60tf danach folgt ne Verdoppelung der perf bei den apu bis 110tf.
Das ist der moment wo nvidia ganz aussteigt aus dem desktop Geschäft. und nur noch titan und quadros anbieten wird ob sich das trägt ist offen und hängt von intel ab.

jetzt ist der Moment wo nvidia was gegen den altbestand was tun kann und sogar muss.
Ada ist eol und stapeln sich in lagern. Wenn nvidia nix tut und das aussitzt sind die mich los
Dann wird der Weg sein
2025 rdna4 48cu 16gb 200w tbp 439€ (+- 22tf) alternative rtx5060 (+-18tf) 175w tbp 449€
2027 rdna6 80cu 32gb 180w tbp 599€ (+- 80tf)
ps6 grob 60tf 32gb ab 2027
apu bis 60tf ab 2028
ich kaufe bis dahin die letzte am5 x3d cpu x800x3d 6,0ghz 8 core das wird ein teures upgrade
board cpu ram 400€ + 600€ gpu 2028
Ein apu system wäre gleich teuer

Es gibt keine gpu bis 2026 die wirklich ohne nachdenken gekauft werden kann bis 500€
amd ist die dxr perf zu gering -40% vs nvidia und nvidia hat pcie5 x4 mit 12gb vram die auch ab 2027 sehr eng werden können
Bis 300€ lohnt sich quasi nix das wird stagnieren und von amd sowie nvidia nur mit Restbeständen der ga106 , ad106, n44 und n33 rebranded.

ga106 24-28sm maxed 9tf 8-12gb
ad106 28-34sm maxed 13tf 8-16gb
n44 32cu maxed 16tf 8-16gb
n33 32cu maxed 13tf 8-16gb

ps5 pro 22tf
Sofern der Preis fällt wird das der neue standard werden für 1080p 60fps ab 2026
 
lynx007 schrieb:
Es geht ja auch nicht um eine einzige GPU! sondern eher das der Upgrade immer teurer geworden ist, wärend abverkäufe praktisch nicht mehr stattfinden.
Kann man auch aus einer anderen Perspektive sehen. Ich kann die alte GPU noch mit gutem Preis abverkaufen, bevor ich mir eine neue zulege.
lynx007 schrieb:
Früher war es gang und gäbe, das zum Release einer neuen Serie die alte nochmal stark im Preis viel. Und das war auf jedenfall etwas gutes, weil man dann oft zum ende eines Produktlebens noch auf ein Schnpächen hoffen konnte.
Hast du da ein Beispiel?
Im unteren Preisbereich wie du sagst, hat das denke ich mit den Margen/Intel zu tun, warum die 30er Generation noch da ist. Bei AMD ist RDNA2 ja auch noch verfügbar.
 
Zuletzt bearbeitet:
ThirdLife schrieb:
Spielt keine Rolle bei den eh schon geringen Preisen. Wenn 8GB GDDR6X irgendwas um die 10€ kosten und GDDR6 dann halt 7-8€, dann ist die GPU was ? 5-8€ günstiger ?

Macht für dich als Endkunde was genau aus ? Einen Döner ? Nicht so als obs der Gamechanger wäre. :D

Laut Deiner "Milchmädchenrechnung" vielleicht !
Bei NV sind es bei der 4060Ti mit 8 GB vs. 16 GB ca. 100 € !!
Ziemlich teurer Döner ... :freak:
 
  • Gefällt mir
Reaktionen: JarlBallin
@Quidproquo77 Das ist so ewigkeiten her... 15 Jahre....

Wen ich mich nicht tottal täusch 58(50/70) die ging glaub ich zum ende der lebzeiten für unter 200€ über den tisch... aber auch das ohne gewähr... ich weiß nur noch PC Games / Gamestar haben alle geschreiben, wer aufrüstet sollte sie kaufen günstiger kommt ihr nicht raun... und für meine ähnlich schnelle 6870 musste ich nen saftigen aufpreis bezhalen... (25%)... heute lacht man über solche beträge, weil man unter 200€ gar keine brauchbare GPU mehr bekommt. Damals gabs halt noch gehobene Mittelklasse dafür.

Ähnlich bei der HD 38xx... die sehr viel vram hatte... und deutlich günstiger als Mitbewerber.... Spielt aber auch keine Rolle mehr. Weil das ist Gone und wird nicht wieder kommen. Es werden viel weniger dezidiert GPUs verkauft als früher. Und wen der Markt stagniert oder schrumpft, dann bleibt halt nur noch so eine entwicklung wie jetzt, wo GPUs über längvere zeiträume und nach oben offen verkauft werde. Ich bin mir sehr sicher das 5090 von NV nochmal 30% schneller sein wird als die 4090, und der frame wird vieleicht auch 1-5 cent billiger, UVP 3k+, Staßenpreis 3,5k...

1726226054899.png

1726226426592.png
 
  • Gefällt mir
Reaktionen: Quidproquo77 und SweetOhm
jap das waren noch Zeiten gewesen. Damals hatte ich das topmodell gtx titan für 1250 € im Jahre 2013 gekauft und das war ne Menge Geld gewesen. Dafür hatte sie 6 GB vram gehabt und war schneller als eine gtx 680 gewesen und sogar die gtx 780 schlug diese. Später kam dann eine gtx 780 ti raus die war dann schneller als die tian gewesen. Später habe ich diese aber ich hatte sie sehr lange gehabt mit Verlusten verkauft. Ob ich mir nen gefallen damit gemacht hatte als ich diese gegen eine gtx 1650 getauscht gehabt hatte zwecks Strom sparen, ich bin mir nicht sicher. Ich zocke auch nicht mehr so viel wie früher ich es getan hatte. Auch habe ich sowas wie super sampling ssaa bzw sgssaa seid Jahren nicht mehr an. Und das ich von full HD auf 4k dann whqd und danach wieder zurück zu full HD gegangen war ebenso ein Weg der über Jahre geschehen ist. Ich scheine mich nie wirklich an die hohe Auflösung der Bildschirme gewöhnt zu haben. Man sagt ja das sich der Mensch dran gewöhnen würde. Bei mir war es niemals der Fall gewesen. Es konnte mir auch keiner die Wahrnehmung abnehmen. Auch unterschätzt wie fein und klein sich das auf einer wie 24 " sich das auswirken würde. Seid dem bin ich in der Hinsicht kuriert. Seid dem Wechsel brach jedoch der Bedarf an gpu Leistung massiv ein.

wie es bei mir weiter gehen wird das ist nicht sicher. raytracing finde ich übertrieben sieht es aus. Ich habe zwar richtiges gesehen gehabt aber das Bild ist dennoch etwas dunkler durch die ganzen strahlen geworden. Ich will es jedoch nicht ganz so dunkle haben. Und die unecht wirkenden raytracing da drauf kann ich auch verzichten. Es wird noch ein langer Weg bis es passen wird. Bis dahin kann ich ja mit ner gtx 1650 zurecht kommen. Später wird es gewiss ab 2028 massiv die gpu Anforderung bei PC steigen.

dann werde auch ich nicht mehr um mehr Leistung drum rum kommen sofern ich denn ein aktuelleres game zocken wollen würde.
Da spielt dann gewiss auch der Vram der gpu ebenso ne Rolle. Aber da ist der ganze mit gddr6 oder gddr6x auch Geschichte weil dann gddr7 Standard sein wird.
 
Capthowdy schrieb:
Billigere Teile verbauen, aber den gleichen Preis aufrufen? Welchem BWLer das wohl mal wieder eingefallen ist? :rolleyes:


Shrinkflation - jetzt auch bei Technik
Ergänzung ()

Das macht in Spielen offenbar nichts

Korrigiere @MichaG - das macht in den meisten Spielen offenbar nichts! Solange, bis ein Game bzw. eine Engine um die Ecke kommt die explizit von schnellem Speicher profitiert. Es ist und bleibt eine Mogelpackung.
 
  • Gefällt mir
Reaktionen: MichaG
Zornica schrieb:
und damit wären wir beim Problem, denn da wird Neukunden ein objektiv schlechteres Produkt verkauft, ob man das nun durchgehend messen kann spielt keine Rolle. Ein Ausreißer ist schon einer zu viel
Ja der unmündige Kunde. Bis vor kurzem (Ankündigung der 4070 GDDR6 Variante) wurde den Kunden nur unterstellt, dass sie zu blöd wären, Angaben auf dem Kartons der Karten zu lesen (weil ein paar Hersteller es bisher nicht für nötig gehalten haben, den Speichertyp anzugeben). Jetzt wird der Kunde schon gezwungen, so eine Kare zu kaufen, wenn sie nicht seinen Vorstellungen in Leistung und Preis entspricht.

Chaosbreed schrieb:
Kaufe mir ja aber eine Nvidia-Karte für CUDA und KI Anwendungen, finde ich nicht gut das es nicht gekennzeichnet wird...
Wenn mir Zotac eine RTX 4070 mit GDDR6 im alten Karton verkaufen würde, wäre es schlicht Betrug. Wenn Du Dir einen Hersteller aussuchst, der das nicht angibt, ist das Dein Problem, aber nicht das von NVidia (die verbieten die Angabe ganz offensichtlich nicht)

Mich würde eher mal KI-Vergleiche interssieren anstatt nur dutzende von Spielen. Aber gut, ist halt PCGH2 hier.

Ich bin damals bei der GTX 1060 auf den "tollen" GDDR5X Speicher reingefallen und habe versäumt, alle Features der Karten zu vergleichen. DIe GDDR5 Variante hatte einen Zero-Fan Mode gehabt, bei der GDDR5X Variante hat der selbe Hersteller das gestrichen.

Chaosbreed schrieb:
Macht bei den Preisen gegenüber einer 4070 Super eh keinen Sinn die 4070 zu kaufen.....
Das sowieso, aber es gibt halt noch ein paar andere Gründe, zum alten Modell zu greifen. Selbst, wenn man die Super auch ohne Leistungesverlust auf 170W undervolten könnte.

Wenn ich sowieso meinen PC umbauen muss (neues und stärkeres NT), kann ich für KI auch gleich eine 4070 Ti Super mit 16 GB VRam und mehr Leistung einbauen.
 
SweetOhm schrieb:
Laut Deiner "Milchmädchenrechnung" vielleicht !
Bei NV sind es bei der 4060Ti mit 8 GB vs. 16 GB ca. 100 € !!
Ziemlich teurer Döner ... :freak:
Was willst du jetzt damit klarstellen ? Dass eventuell günstigeres GDDR6 von nVidia im selben großen 100€ Stil weitergegeben wird ?
 
gymfan schrieb:
Ja der unmündige Kunde. Bis vor kurzem (Ankündigung der 4070 GDDR6 Variante) wurde den Kunden nur unterstellt, dass sie zu blöd wären, Angaben auf dem Kartons der Karten zu lesen (weil ein paar Hersteller es bisher nicht für nötig gehalten haben, den Speichertyp anzugeben). Jetzt wird der Kunde schon gezwungen, so eine Kare zu kaufen, wenn sie nicht seinen Vorstellungen in Leistung und Preis entspricht.
Der Kunde ist also dafür zuständig dass Milliardenunternehmen nicht betrügen?
Täter-Opfer Umkehr vom feinsten
 
  • Gefällt mir
Reaktionen: Solavidos und SweetOhm
Beide Versionen mit nur 8 GB RAM sind sowieso uninteressant...
 
Zurück
Oben