News GPU-Gerüchte: GeForce RTX 4070 ab 13. April ab 599 US-Dollar im Handel

BornBad schrieb:
25% weniger Alus und dazu weniger Takt 1920 zu 2310Mhz.
Den Takt kann ja jeder mit dem MSI Afterburner etc. wieder hochdrehen. Es sei denn sie haben das BIOS krass kastriert und den maximalen Takt irgendwie gekappt. Was ich nicht denke.

Also bleibt es bei circa 76,6% der Ausführungseinheiten Alus, TMUs, ROPs(80%) der 4070Ti, 46 vs 60 SMs.
75% 2ndLvl Cache, 36 vs 48 MegaByte.

Optimistisch ist die 4070 also nur 23% langsamer als die 4070Ti.
 
  • Gefällt mir
Reaktionen: aklaa und BornBad
Preis ist noch nicht bekannt? 800€?
Mal sehen, ob und wie sich der Preis der bisherigen Preis-Leistungs-Königin 6800 xt dann einpendelt.
 
Ich hatte gestern mal nach 4060 und 4070 geguckt und dachte mir "höö?", denn vom Gefühl her, dachte ich dass die Teile schon da wären. Wollte nämlich mal gucken wo so ein Teil liegt.

Pauschal würde für meine Casual Gaming Ansprüche auch eher eine 4060 reichen, aber leider ja noch gar nichts da und das ist schade. Denn jetzt am Wochenende als ich die Beta von Diablo 4 mal ausprobiert hatte, fand meine Zotac 1060 AMP das noch OK, aber wenn ich auf dem zweiten Monitor dann was parallel laufen hatte, fand sie es sehr uncool.

Bin aber gespannt wann die Teile auf den Markt kommen und wie viel sie kosten werden. Sonst wird der Nachfolger doch eher eine 3060 für mich.
 
Gibt noch keine inoffiziellen Preisvorstellungen der HErsteller wie Asus und MSI, oder?
 
frames p. joule schrieb:
Preis ist noch nicht bekannt? 800€?
Mal sehen, ob und wie sich der Preis der bisherigen Preis-Leistungs-Königin 6800 xt dann einpendelt.
700
 
Weltraumeule schrieb:
Für mich ist 24" bei 1080p eine gute Pixeldichte, deswegen habe ich mir bei 32" einen 1440p Monitor geholt, da er dieselbe Pixeldichte bietet. Ich "ertrage" das sehr gut und die RTX 3060 kann den noch ganz gut befeuern. Brauche zum Glück keine Pixeldichte von 4k@32" oder 1440p@27".
Aber selbst du spielt auf 32" ich sag ja es geht gerade noch, gut vielleicht hab ichs bisschen drastisch ausgedrückt mit aechtzen und krachen, aber würdest du 10% weniger PPI noch freiwillig ertragen? Ich nicht. Daher ist es das Minimum.

Es ist ein Kompromiss den man halt eingeht, und ja die wenigsten wollen noch mit 24" spielen mal ganz klar die wenigsten die 600 euro für ne Grafikkarte hin legen bereit sind. und spätestens mit 27" reicht dann halt fullhd nimmer. Ich mein wenn man 0 Geld hat wird das auch irgendwie gehen aber dann hat man eben keine 600 Euro für ne Grafikkarte.

Ich hab auch 31.5" oder 32" auf 1440p, aber nochmal ich hab nicht extrem viel für ne Grafikkarte hin gelegt und die 3060 kostet zumindest auch keine 600 Euro mehr wann hast du sie gekauft und wie viel hat sie beim Kauf gekostet?

Er hat ja auch argumentiert das Leute ne 4070 Karte perfekt passt für Fullhd, du hast aber ne 60er karte also ne schlechtere Reihe und ältere Generation. Fuer Leute die Geld sparen muessen/wollen wie du und ich, ja da mag die Pixeldichte vielleicht grad noch reichen aber das ist das absolute Minimum, und 24" ist eben zu klein.
 
Zuletzt bearbeitet:
JackTheRippchen schrieb:
Nein, natürlich nicht, sondern durch durch Minimierung der Die-Fläche, weil das mehr Dies pro Wafer ergibt.
Langsam wird's affig. Wenn man die maximale Performance pro Fläche erzielt, dann hat man die minimale Die Fläche für die angestrebte Performance.
Du willst einfach nur widersprechen ohne überhaupt zu lesen was gesagt wurde.
JackTheRippchen schrieb:
Das Speicherinterface ist aber nicht einfach gegeben, sondern ein Freiheitsgrad im Chipdesign.
Ja und den wählt man so, dass die Bandbreite passend zur Rechenleistung ist und nicht so, dass es im Portfolio schön aussieht.

JackTheRippchen schrieb:
Außerdem hätten die "gegebenen" Speicherinterfaces bei RTX 3070 und RTX 3080 die doppelte Speichermenge hergegeben, ohne dass krumme Dinger wie die GTX 970 entstehen.
Es ging um die 3060. 6 GB sind zu wenig, also wurden es 12.
Ergänzung ()

klesshilde schrieb:
auch komisch,
erste 70er Ti mit beschnittener Anbindung von 192-bit. Gabs in keiner vorherigen Reihe bei 70ern...und Ti schon garnicht.
Da ist nichts am Speicherinterface beschnitten, das ist der maximale Ausbau.

Gab es vorher noch nie ist auch keine valide Aussage, weil der Name nur Schall und Rauch ist. Das Portfolio wird ständig umgebaut. Unter xx80 hat man mal den 104 dann 102, dann kommt irgendwo ne Ti dazu, dann ein Zwischenchip 103, ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
Sowohl FrameGeneration ja sicherlich ein Zusatzargument für 40XX sein mag, da sind mir ehrlich gesagt die 30er lieber und eben [derzeit] wirklich preiswerter.

Immerhin bringt eine 4070ti 3090 Leistung zu grob 100€ initial mehr und eben Neu, aber auch den Vorteil - ca. 100W bei vergleichbarer Renderleistung weniger.

Muss jeder selbst wissen. Mehr als 500€ würde ich jedenfalls nicht in die 4070 stecken [wollen], dafür ist schon die 4k Leistung der 4080 imo zu niedrig und AMD was das angeht weit besser aufgestellt [Ohne RT].
 
Die Preise für die nV Grafikkarten sind in den letzten 2 Jahren enorm gestiegen. Der Spieler musste in den Pandemiezeiten für überteuerte Hardware richtig Geld ausgeben.
Die meiner Meinung nach ca. >20% überteuerten nV Grafikkarten führen dazu, dass die Bastler wegbleiben, so dass die Überteuerung den Kauf anderer Komponenten (Motherboard, CPU ...) im Sinne eines Dominoeffektes stark schadet.
Was wäre, wenn der Markt - die Käufer - die Geldgier eine Weile nicht belohnen.
 
  • Gefällt mir
Reaktionen: klesshilde und Enzos
Bei dem Versuch, uns die 4070ti als 4080/12 unterzujubeln, war das doch klar. Natürlich wurde zwischen 4090 und 4080 eine viel zu große Lücke für eine spätere ti gelassen, so dass jetzt nur noch effiziente untere Mittelklasse folgt.
 
4070 könnte interessant werden, weil günstiger im Preis als 4070 Ti bei höchstwahrscheinlich besserer Effizienz.
Nur leider wird man die nicht zu einer UVP von €599 sehen. Eher €699.
Aktuell werkelt die 6700XT für €500 im Rechner. €100 Preisaufschlag für DLSS3, NVENC würde ich ohne Meckern akzeptieren. Doch für 699 ist man wieder in einem Preisbereich, der die Verteuerung der GPUs deutlich spüren lässt.
 
Die Geforce RTX 4070 könnte auf Augen höhe mit der Geforce RTX 3080 Ti sein dazu gibt es die bessere Effizienz plus FR. Wenn der Preis stimmt, sagen wir mal 650 Euro könnte die Karte AMD Kopfschmerzen verursachen. Bin gespannt, wo die Karte sich ein ordnen wird und wie AMD drauf reagiert wird spannend.
 
  • Gefällt mir
Reaktionen: schneeland
5hred schrieb:
4070 könnte interessant werden, weil günstiger im Preis als 4070 Ti bei höchstwahrscheinlich besserer Effizienz.
Nur leider wird man die nicht zu einer UVP von €599 sehen. Eher €699.
Aktuell werkelt die 6700XT für €500 im Rechner. €100 Preisaufschlag für DLSS3, NVENC würde ich ohne Meckern akzeptieren. Doch für 699 ist man wieder in einem Preisbereich, der die Verteuerung der GPUs deutlich spüren lässt.
Klar wenn die fast ne Leistung der 3090 hätte wäre preis ok aber leider nur 3080 dad ist einfach zu teuer vielleicht wird es ja 650 sonst halt warten auf die neuen amd
 
blackiwid schrieb:
Und btw lassen wir mal die Theorie beiseite spielst du auf Fullhd noch und mit ner >600 Euro Grafikkarte?
Nein, ich spiele in WQHD bei 27" und das reicht mir auch völlig.
bensen schrieb:
Die 3060 hat 12 GB. Das war doch gerade der Punkt.
Ja die kam aber später als die Ti mit nur 8Gb auf den Markt, bloss wenn du neben viel Vram halt auch mehr GPU Power willst blieb bis zur 3080 keine Alternative. Man war also gezwungen mehr Geld auszugeben also man eigentlich an Leistung gebraucht hätte. Warum NV gerade die 3060 mit 12Gb gebracht hat habe ich auch nicht verstanden.
yamiimax schrieb:
Was bringt mir die 3060 mit den 12 (super Leistung yeah!) wenn die 3070 und TI nur 8 hat wtf aja RTX bringt es mir
Marketing, kann mir nur vorstellen das NV die 3060 mit 12Gb ausgestattet hat um die Verkäufe in dem Segment anzukurbeln.
Domi83 schrieb:
Pauschal würde für meine Casual Gaming Ansprüche auch eher eine 4060 reichen
Selbst dafür hat die wahrscheinlich noch zu viel Power, für FHD wird wohl auch eine 4050 reichen.
blackiwid schrieb:
Er hat ja auch argumentiert das Leute ne 4070 Karte perfekt passt für Fullhd
Falsch, ich habe gesagt das man auch auf FullHD spielen kann, nicht das es perfekt ist. Die Karten haben mehr als genug Leistung für FHD, WQHD und selbst UHD, derzeit. Ich kann nur für meinen Fall sprechen, und da ich z.B. nicht vorhabe mir in nächster Zeit einen 4K Monitor zu holen reichen mir auch die 12Gb VRam einer 4070 Ti obwohl natürlich bei dem Preis min. 16Gb zu erwarten gewesen wären. Klar kann man ja hin und her philosophieren das ich mir dann nächstes Jahr eine Neue Karte holen müsse weil der VRam dann nicht mehr reicht, aber wirklich wissen tut man es nicht. Und wirklich eine Alternative habe ich nicht, Intel fällt raus, AMD fällt raus bleibt nur NV kaufen oder lassen.
Als orientierung eigenen sich die Konsolen sehr gut, so lange die nicht mehr als 12Gb VRam zur Verfügung haben wird sich auch nicht viel ändern da diese das untere Maß darstellen.
 
Ja toll, und was ist mit der Ti, der 3070 (Ti) usw.? Mehr Speicher hat nur die 3060 bekommen nicht das Rechtliche Portfolio, das ist Das was mir nicht einleuchtet. Ich würde tippen das es Marketinggründe hat. 12Gb sehen einfach besser als 8Gb aus. Ich habe Freunde welche die Leistungsfähigkeit ihrer Grafikkarte anhand der Größe des VRAMs bemessen. Für die ist eine Karten mit 12Gb schneller und besser als eine mit 8Gb, das klappt aber nur wenn wie in dem Beispiel auch mehr als die 8Gb der kleineren Karte genutzt werden, sonst die vermeintlich Langsamere Karte schneller. Aber auch dann bliebe die Frage warum nicht auch den anderen Karten mehr Speicher spendieren?
 
sikarr schrieb:
Marketing, kann mir nur vorstellen das NV die 3060 mit 12Gb ausgestattet hat um die Verkäufe in dem Segment anzukurbeln.
Da war sie noch fhd spitzenklasse
sikarr schrieb:
Selbst dafür hat die wahrscheinlich noch zu viel Power, für FHD wird wohl auch eine 4050 reichen.
Klar wenn jetzt schon die 3070 ins Schwitzen kommt haha
sikarr schrieb:
Ist das nicht fast 4k?
sikarr schrieb:
obwohl natürlich bei dem Preis min. 16Gb zu erwarten gewesen wären.
Für 4k genug dann
 
sikarr schrieb:
Ich würde tippen das es Marketinggründe hat. 12Gb sehen einfach besser als 8Gb aus.
Das denke ich auch. Vor allem haben sie auch direkt eine Karte genommen die langsam genug ist damit die 12GB auch nicht wirklich die Langlebigkeit der Karte wesentlich erhöhen.
Die 3060ti, 3070(ti) waren dann schon wieder zu schnell, hätten die 12GB bekommen dann wären die viel zu lange brauchbar gewesen, dann hätte ja niemand was neues kaufen müssen.
Bei den großen Karten ala 3090 oder jetzt 4090 hauen sie die 24GB raus weil sie wissen die meisten Nerds die die Flaggschiffmodelle kaufen, schlagen bei der nächsten Generation direkt wieder zu.
 
  • Gefällt mir
Reaktionen: klesshilde
Nvidia "musste" wegen dem Speicherinterface den Vram so verbauen, wie sie es bei der 3060 bis 3080 getan haben.

Die 3060 hat ein 192 Bit Interface. Bedeutet, es gehen technisch (ohne Mogeleien wie bei der gtx 970 damals) nur 6gb oder 12gb. Nur 6gb hat sich aber nicht mal Nvidia getraut, also mussten es 12gb Vram sein.

Die 70er Karten hatten dann logischerweise das nächsrgrößere Interface, 256 bit. Da gehen dann nur 8GB oder 16GB. Klar hätten sie 16GB machen können, aber dann wären die Karten teurer geworden +es ist halt Nvidia. Bei der 3080 mit dem 320 bit Interface genauso, 10 oder 20gb wären gegangen, haben sich leider für 10 entschieden.
 
  • Gefällt mir
Reaktionen: Hal14 und iSight2TheBlind
Zurück
Oben