News Nvidia GeForce RTX 4070: Gerüchte sprechen von 5.888 ALUs und 250 Watt TDP

Gortha schrieb:
Niemals werden so viele Einheiten vom AD104 abgeschaltet.... Damit wäre die non-Ti ein absoulter Krüppel ggü der 4070 Ti. Außerdem würde man dann die Leistung der meisten Teildefekten Chips verschwenden, erst recht, wenn man voll funktionierende AD104 zu einer kleinen RTX 4070 machen würde.

Diesen riesen Leistungsabstand kann ich mir beim besten Willen nicht vorstellen.
Sei dir da mal nicht so sicher, genau das hat doch NV auch mit der 4080 ggü der 4090 gemacht. Da klafft auch eine riesen Performance Lücke.
Nur die Preislücke ist verhältnismäßig eher gering...

Zw 4070 und 4070ti ist so noch Platz für eine SUPER Variante, und zw 4080 und 4090 ist auch noch genug Platz für Super und 80ti.
 
3070Ti Leistung mit 12Gb Vram klingt nicht so übel, wenn denn der Preis stimmen würde :( .
Hito360 schrieb:
sehe ich genauso....192bit....bei 250€ GPUs klingt das normal, aber für obere Mittelklasse einfach zu kurzsichtig.
Solange die Performance passt sind die Daten zweitrangig. Schon durch den schnelleren Speicher ist man mit nur 192bit vor der RTX 3070 was die Bandbreite angeht. Inwieweit der Cache die fehlenden 100GB/s zur 3070Ti ausgleichen kann, wird man sehen. Und mit 12Gb hat man hier auch etwas mehr puffer bei 1440p, 2160 oder RT. Tensor Cores und RT Cores sollten eigentlich auch Zulegen insgesamt auch wenn es geringfügig weniger Einheiten sind.
Ich könnte mir vorstellen, dass hier die Karten im Preisberreich der 4070 von AMD eher das Problem werden.
scheru schrieb:
Würde mich wundern, wenn die wirklich mit 12GB VRAM kommt.....
Wiso, bei 192bit si ist das absolut der beste Ansatz. Nv wird hier sicher nicht irgendwas krummes mit nur 8gb oder 10gb bringen. Hat man bei der 3060 ja auch so gelöst. Zumal ein kleineres Si ja immer effizienter ist.

NEO83 schrieb:
Ich habe es gelesen und stimme dir ja auch zu, die Effizienz steigt auch aber nicht in einem erwähnenswerten Maße, 10-15% mehr Effizienz finde ich jetzt nicht wirklich gut, genau wissen tun wir es eh erst nach den Tests.
Raster evtl nicht überragend, aber RT könnte ich mir 20%+ vorstellen.
 
Zuletzt bearbeitet:
Falc410 schrieb:
Ich weiss nicht in welche Klasse du gehst, aber du berechnest hier doch korrekt, dass es keine lineare Steigerung ist, ergo ist die Effizienz gestiegen. Also du widersprichst dir selbst in jedem Post. Wenn bei 14% Mehrverbrauch die Leistung um 14% steigt, wäre die Effizienz gleich geblieben. Steigt die Leistung aber stärker, ist die Karte somit effizienter.

Ich habe es gelesen und stimme dir ja auch zu, die Effizienz steigt auch aber nicht in einem erwähnenswerten Maße, 10-15% mehr Effizienz finde ich jetzt nicht wirklich gut, genau wissen tun wir es eh erst nach den Tests.
Ich hoffe es wird auch getestet was die Karte bei gleichem Verbrauch wie bei der 3070 noch leistet
Ergänzung ()

Gerithos schrieb:
Aber... Aber... DLSS 3! /s
Ist für mich kein Argument und auch FSR ist es nicht.
Keine der beiden Techniken kann mich überzeugen und daher bleibt bei mir immer nur nativ zu berechnen 😎
 
  • Gefällt mir
Reaktionen: Falc410
Papalatte schrieb:
Ist doch normal, ging in der Vergangenheit immer wieder auf und ab.
Da liegst du völlig falsch.
Zeige mir eine 70er Karte mit 250 Watt.
Genau, die gab es nie.
Mit 250 watt konnte man in der Vergangenheit maximal bei der Enthusiastenklasse suchen.
Als AMD z.B. mit der R390X ein heißes Eisen auf den Markt geschmissen hat, war der Aufschrei riesig.
Jetzt wird 250 Watt bereits in der Mittelklasse als völlig normal abgetan???
Das ist Irrsinn. Wahnsinn. Völlig am Markt vorbei.
Was haben die bei nVidia geraucht?
Bei der 20er und 30er Generation konnten die sich noch rausreden, dass man auf ältere Techniken von Samsung zurückgreifen musst eund man um jeden Preis mehr Leistung bieten wollte.
Jetzt haben die jedoch einen Technikvorsprung vor AMD extra teuer erkauft.
Und was machen die?
Anstatt sich auf deren beste Generation 1000 zurückzubesinnen und aktuelle Hardware im möglichst gleichen Wattkorsett und handelbarer Kühlung zu stecken, um somit auch dem Kunden bezahlbare Karten anbieten zu können, nein, da baut man noch dickere Backsteinklötze, die sich niemand mehr kaufen kann, geschweige denn in den eigenen PC reingequetscht bekäme.
Neues Netzteil, Lüftung, fortlaufender Energieverbrauch obendrauf.
Meiner Meinung nach extremer Schwachsinn, was NVidia da seit Jahren nun extremst praktiziert.
Ich habe noch eine 1080 im System, schön 2 Slot, läuft undervoltet auf max. 180 Watt bei bis zu 2Ghz Takt.
Bevor ich mir eine neue Karte von denen kaufe, besorge ich mir stattdessen lieber Spiele, die zu meiner Karte passen, nicht umgekehrt, so wie es damals mal üblich war.
Die brauchen sich über mangelnden Absatz gar nicht beschweren, das haben die durch großes Missmanagement in der Chefetage doch selbst zu verantworten.
Die sollten mal echt darüber nachdenken den ollen Lederjackenfuzzi rauszukicken und durch eine geeignete fachkompetente Person zu ersetzen, ehe deren Laden wegen dem Typen noch komplett vor die Hunde geht.
 
  • Gefällt mir
Reaktionen: baizer, Cempeg, Romanow363 und 3 andere
Dann lohnt nicht sich meine RTX 3070 auf 4070 upzugraden... Besodneres Bitter ist damals eine RTX 3080 bestellt aber nie angekommen für 699€ Wie es aussieht dann eine Radeon 7900XT/XTX wenn es billiger ist. Nvidia kann ich voll vergessen.........
 
Zum Thema Effizienz:
Die 3070 hat eine TDP von 220 Watt. Die 4070 wahrscheinlich eine von 250 Watt und ist dabei um die 50% schneller. Gleichzeitig hat sich bisher gezeigt, dass die 3000er Serie ihr Limit immer sehr schnell ausreizt und nach unten hin auch schlechter skaliert. Die 4080 und 4090 hingegen begnügen sich mit deutlich weniger als der TDP. Daraus resultiert eine sehr schlechte Vergleichbarkeit zur Zeit.

Meine Rechnung:
3070 -> 220 Watt
4070 -> 180 Watt bei min. 40% Mehrleistung
--> 4070 wäre um über 60% effizienter!

Schon hätte man gegenüber der 3070 einen ordentlich Sprung gemacht und gleichzeitig mit 12GB 50% mehr RAM.
 
  • Gefällt mir
Reaktionen: Tiara G.
Gerithos schrieb:
Aber... Aber... DLSS 3! /s
FSR3

Wenn AMD das tatsächlich gut umsetzt und auch auf ner 6000er lauffähig macht, dann werde ich wohl mal
eher über ne Moni-aufrüstung von 4k@60Hz zu 120Hz nachdenken.
(statt ner neuen Graka)

Ob Turing+Ampere auch profitieren wäre ganz interessant und kleiner Seitenhieb gg. LovelaceONLY-shit.
 
NEO83 schrieb:
Ist für mich kein Argument und auch FSR ist es nicht.
Keine der beiden Techniken kann mich überzeugen und daher bleibt bei mir immer nur nativ zu berechnen 😎
Sehe ich absolut ähnlich und ist auch in dem rel. aktuellen Test hier nachvollziehbar:


Ghosting, irgendwelche sontigen Artefakte, Flackernde Texturen / flimmernde Kanten usw. usf.

Auch nach 4 Jahren ist die Technologie (DLSS) einfach nur ein Gimmick und auch der Performancevorteil dadurch ist meistens sehr überschaubar bis kaum der Rede Wert in den meisten Spielen. Dann lieber gleich nativ bleiben und ein paar andere Einstellungen reduzieren um die FPS zu erhöhen. DLSS3 - das interessiert einfach 0 und sieht auch in schnellen fast-paced Spielen auch grottig aus.

Anfangs dachte ich auch- klingt nicht schlecht und ist nice-to-have (DLSS), falls man irgendwann drauf angewiesen wäre und habe aus dem Grund AMD Karten direkt ausgeschlossen (und wegen ein paar anderen Themen wie NVENC, CUDA etc.) Aber wenn man ein ordentliches Bild haben will, ist das alles wie bereits erwähnt nur ein Gimmick.

Und bei der neuen Generation hat AMD genau diese Themen verbessert- Streamingqualität verbessert mit AV-1 codec, wo das Bild jetzt sogar besser aussieht als x264 low/medium, bessere Einbindung und Encodingqualität im OBS usw.

Die nächste Karte wird eine von AMD werden, entweder die 7900 xt oder 7800 xt(x), weil ich keine Karte mit einem Verbrauch > 300 W im PC haben will.
 
  • Gefällt mir
Reaktionen: danyundsahne und Gortha
Kurz ein Wort zur 70ti: Ihr Hauptproblem ist das Speicherinterface von 192bit. Bandbreite wie 1080ti aber GPU ist ca. doppelt so schnell. Das ist ein Monsterflaschenhals.

Zur 70: Auch nur ein 192bit SI, aber GPU 30% schwächer, deshalb Flaschenhals nicht ganz so groß.

Bei beiden 70ern wird man durch Vram OC massiv profitieren. Wobei ich denke, dass man bei der 70ti nicht wirklich eine Chance hat, der GPU-Leistung gerecht zu werden. Das SI is einfach viel zu dünn.

Bei der 70er könnte man es vllt ausgewogen hinbekommen.

Ich versteh net, wie man bei der 70ti so eine GPU-Leistung mit so einem dünnen SI kombinieren kann, des is net normal.
 
Clutch04 schrieb:
Sehe ich absolut ähnlich und ist auch in dem rel. aktuellen Test hier nachvollziehbar:
Dabei muss man auch fair sein und sagen das die implementation in diesem Titel nicht die beste ist bzw, Renn-Spiele etwas schwieriger sind. Gibt genug andere Titel in denen diese Probleme nicht bestehen bzw. sehr sehr viel weniger auffallen.
 
Ayo34 schrieb:
Die 4070 wahrscheinlich eine von 250 Watt und ist dabei um die 50% schneller.
Die ist im Leben keine 50% schneller - hoechstens 30-35%. Die 4070TI ist ja nicht einmal 50% schneller und landet eher bei deiner Kalkulation. Mit DLSS3 ja - sonst wohl kaum.

Normalerweise landete die 70er immer in etwa Roundabout bei der alten 80 TI und nicht gerade einmal eben so bei der 80er Karte. Und vor allem zu einem deutlich guenstigeren Preis.

Ich habe normalerweise immer am Anfang die 80er Karte gekauft, die dann bei erscheinen der TI oder Titan an meinen aeltesten Sohn ging und ich bin halt auf die Schnellste gewechselt. Diese Generation bin ich raus - warte ab was AMD macht und dann sehe ich weiter ob ich ueberhaupt nachlegen "muss".
 
  • Gefällt mir
Reaktionen: danyundsahne
Humbertus schrieb:
Dabei muss man auch fair sein und sagen das die implementation in diesem Titel nicht die beste ist bzw, Renn-Spiele etwas schwieriger sind. Gibt genug andere Titel in denen diese Probleme nicht bestehen bzw. sehr sehr viel weniger auffallen.
Trotzdem führt DLSS / FSR 2 zum Schärfeverlust und es muss nachgeschärft werden um das einigermaßen zu kompensieren. Für mich ist das alles nur ein Gimmick und da bleibe ich lieber beim nativen Bild + je nach Spiel TAA und dann weiß man, dass das Bild sauber dargestellt wird, ohne irgendwelche Artefakte und flimmernde Texturen.

Dann lieber manuell ein paar Settings runterschrauben, falls die FPS nicht ausreichen.
 
ThirdLife schrieb:
Ja die absurden Erwartungen immer. Alles wollen aber nix dafür zahlen, schon klar. :D

Deiner Argumentation folgend, wäre auch die 3060 eine miese Karte gewesen, die war nur 19% schneller als eine 2060 und nur 2% schneller als eine 2070 non Super. Schauen wir doch mal die 2060 an ggü. der 1070, oh, auch die war nur 18% schneller als eine 1070.

Hier kriegst du 27-40% und das ist jetzt auf einmal schlecht ? Was geht nur in den Köpfen der Leute vor ? Amnesie ? Alles vergessen was vor 2-4 Jahren so passiert ist ?


Denke mit mehr und teurem Speicher plus gut doppelt so teurer Chipfertigung wird die Karte sicher nicht für unter 500 zu haben sein. Denke auch eher nicht unter 600€. 7-850 wird schwierig, da muss ja die 4070 Ti hin, und viel Luft zur 7900XT bliebe sonst ja nicht.
Denke eher mit Einfuhr-/Zoll-Gebühren und Euro-Schwäche werden es 900 Euro für die 4070. Aber der Preis ist wohl egal - auch wenn er "zu hoch ist", es wird gekauft. Ganz sicher.
 
Tiara G. schrieb:
Ich versteh net, wie man bei der 70ti so eine GPU-Leistung mit so einem dünnen SI kombinieren kann, des is net normal.
Vielleicht verstehst du, wenn du auf den Cache schaust.
 
  • Gefällt mir
Reaktionen: pipip, ErichH. und Humbertus
DonDonat schrieb:
Äh nein. Das wäre auch genau das wäre Scamming.
Gute Analogie: du sagst, du verkaufst nen Audi RS Irgendwas, in der Realität ist es aber ein Polo, den du einfach als Audi RS Irgndwas bezeichnest und so viel verlangst, wie der echte Audi RS Irgendwas kosten würde.

Heißt am Ende nicht, dass der Polo schlecht ist , ist immerhin noch ein Neuwagen mit guter Ausstattung, und vertraglich kannst du sowas legal auch machen, ein Scam ist es am Ende aber defakto trotzdem.
Würde voraussetzen, dass der Käufer, blind und taub ist. Bin ich beides nicht, daher wirds schwer sowas zu verkaufen. Unter Scamming versteh ich Ranjid vom Fake-Amazon Support der deine Kreditkarten Infos plus Passwörter will, nicht die Wahlfreiheit ein Produkt zu kaufen das vom Marketing als Allheilmittel angepriesen wird.

DonDonat schrieb:
So so, bei dir ist es also normal, dass ein Produkt mit gleichem Namen so viel langsamer ist, wie das nächst liegende Produkt da drunter. Gut zu wissen, dann wirst du dich ja über eine 4080 12GB freuen, natürlich zum Preis der normalen 4080 weil du es so möchtest ;)

Und so wie es aktuell aussieht, ist der MSRP identisch zur normalen 3060, nur ist die "8GB" Version halt ordentlich langsamer, auch in nicht Speicher-Ausbau limitierten Anwendungen. Plus, auf der Box sowie auf den Produkt-Seiten weist man ja auch sehr offensichtlich darauf hin, dass die "8GB" Version natürlich genau so schnell ist wie die normale. Macht man definitiv!
Das würde voraussetzen, dass der Käufer weder liest, noch Bescheid weiss was er da kauft. Wenn er aber eh schon so doof ist weiss er auch nicht was eine 3060 kann oder nicht kann - somit ist das ein sehr schwieriges Argument.

Entweder der Käufer ist ein informierter und kann die Produkte in Relation setzen oder halt nicht. Aber wenn er es nicht kann, dann sagen ihm alle Zahlen auf der Packung nichts.
 
rasenschach schrieb:
Die ist im Leben keine 50% schneller - hoechstens 30-35%. Die 4070TI ist ja nicht einmal 50% schneller und landet eher bei deiner Kalkulation. Mit DLSS3 ja - sonst wohl kaum.
3070 20,4 TFLOPS und die 4070 über 30 TFLOPS. Daher gehe ich von grob 50% Mehrleistung aus. Außerdem hat man an den anderen Karten auch gesehen, dass die Effizienz deutlich mehr als um 50% steigt. Warum sollte das bei der 70er Karte anders werden?
 
@Clutch04

schon mal was von DSR gehört? Stell auf 6% Smoothness, stell DLSS ein ,hast ein knackscharfes Bild mit entsprechend viel FPS. Die Spielefilter kannst du zusätzlich noch drauflegen. Also wenn du da kein befriedigendes Ergebnis findest liegt es eher an dir.
 
wrglsgrft schrieb:
Ausgehend von den bisherigen Preisen wird die 4070 in Zukunft wohl auch ähnlich viel kosten wie die 3080 jetzt. Also neue Mittelklasse für den Preis der bisherigen Oberklasse.
Und dabei wird nicht mal ein zu früheren Generationen vergleichbarer Leistungssprung erreicht.

Ich bin echt gespannt was AMD zustande bringt!

AMD macht doch genau das selbe nur etwas weniger dreist. Aber im Endeffekt sind die Karten bei AMD auch nur so viel schneller, wie sie mehr kosten, nur orientiert sich AMD an den aktuellen Marktpreisen und nvidia am Release mrsp. Im Endeffekt bedeutet das aber auch nur, dass die 6900xt 700€ statt 1000€ als Preisbasis hat.

weder AMD noch nvidia ersetzen zum selben preispunkt mit die alten Karten mit einer, sagen wir, 50% schnelleren Karte.

Die Leistung einer 5700xt kostet seit 2019 bei AMD 400€. Das ist völlig abstrus.
 
  • Gefällt mir
Reaktionen: ComputerJunge, spfccmtftt89, wrglsgrft und eine weitere Person
Clutch04 schrieb:
Die nächste Karte wird eine von AMD werden, entweder die 7900 xt oder 7800 xt(x), weil ich keine Karte mit einem Verbrauch > 300 W im PC haben will.

Die 4000er Karten sind sehr effizient bisher. Glaubst du wirklich da kann AMD nochmal einen drauf setzen? Die angekündigten 50% mehr werden nicht reichen um auf Nvidia Niveau zu kommen.

PS: Meine 4080 läuft mit max. 250 Watt und rennt trotzdem mit 4k + Raytracing + 120Frames/hz. Mit Raytracing wird AMD diese Effizienz zu 100% nicht schaffen! Ohne Raytracing wird es spannend und mal schauen wie die Karten mit 250 Watt laufen.
 
NEO83 schrieb:
Heute eine 4070 mit der Leistung einer 3080 von vor 2 Jahren für vermutlich 100€ mehr UVP als die 3080 vor 2 Jahren :p
Ich denke das kann man auf alle Fälle ausschließen, denn von der Leistung her sollte sie mit den kolportierten Daten leicht überhalb einer 3080 herauskommen, mit DLSS3 und RT Spielereien deutlich.
Immerhin hat die Karte 12GB Vram, das bedeutet 10GB sollten auf der 3060 sicher kommen.
Wenigstens ist die Karte dann kein V-ram Krüppel.
 
Zurück
Oben