News Nvidia GeForce RTX 4070: Gerüchte sprechen von 5.888 ALUs und 250 Watt TDP

Also ich gehe davon aus, das die 4070TI die Leistung von der 3090 haben wird. Nur mit weniger VRAM aber auch deutlich weniger Verbrauch.

Bei der heutigen Inflation wären m.M 700-850 Euro preislich okay.
Die 4080 customs hätten maximal 950-1100 Euro kosten dürfen.

Ich glaube das hätte jeder einigermaßen akzeptiert.
Die Preise von 500-700 Euro sind heute einfach leider nicht mehr zeitgemäß.
 
LamaMitHut schrieb:
@bensen lese dir die Tests zur Karte durch, schau dir den Abstand zum Flagship an. Der Abstand zur alten 3080 kommt auch ein Stück weit zustande, weil die nur 10 Gigabyte hat.
Hast du mein Argument überhaupt verstanden?
Der Abstand ist auch zur 3080Ti und 3090Ti großzügig.

LamaMitHut schrieb:
Aber ich Folge deiner Argumentation einmal: wenn die anderen Modelle kaum gewachsen sind, warum sieht sich Nvidia trotzdem gezwungen so viel Geld für 4080 12/16 Gigabyte zu verlangen?
Keinen Ahnung warum du mir die Farbe stellst. In meiner Argumentation geht's um den Namen und nicht um den Preis.
Wenn man die Preise der Vergangenheit nimmt, müssten ja alle Karten mindestens 90er sein. Klingt nach einem sinnvollen Konzept....
 
@bensen so richtig habe ich es tatsächlich nicht verstanden.

Ich sehe da jedenfalls eine große Lücke zwischen 4090 und 4080, die sich nicht im Preis wiederspiegelt. Ein guter Teil vom Leistungszuwachs zur vorgänger Generation kommt halt nur zustande, weil der Prozess von Ampere nicht das gelbe vom Ei ist.

Naja, am Ende ist es ja in der Hand der Kunden ob sich die Preise durchsetzen.
 
Clutch04 schrieb:
Ach das ist wieder nur eine Kurs-Anpassung an den -erneut- erstarkten Euro... N__O__T__!
Es ist eigentlich völlig normal, dass sich die Händler bei den Preisen unterbieten, wenn genügend Ware auf Lager ist. Eine unverbindliche Preisempfehlung wurde immer schon um gut und gerne 10 bis 15% unterboten.
Clutch04 schrieb:
Auch wenn Nvidia seine Käufer gerne für Vollidioten verkauft, denke ich, dass nun selbst die eingefleischtesten Fanboys den ganzen Müll der Firma nicht mehr abkaufen.
Nvidia ist auch wegen der hohen Margen gefühlt die einzige Firma die seit Jahren den Markt vorantreibt.
Raytracing, DLSS, Framegeneration ujnd Co. AMD hinkt nur hinterher.
Nvidia hat halt ihre Preisvorstellung dafür, was sie leisten und wie gerechtfertigt diese ist, sieht man erst, wenn die Konkurrenz in den Markt eintritt.

Wenn es eine 7900XTX nicht schafft eine RTX 4080 zu schlagen, wieso sollte die Nvidia Preisvorstellung nicht stimmig sein? AMD muss dann eben mit den Preisen heruntergehen.
Clutch04 schrieb:
Aber selbst für 1330 sind das noch Mindestens (mit großem M) 600 zu viel. Und selbst dann würde mich noch das hier richtig stören:

Anhang anzeigen 1294832
Gibt auch die Möglichkeit ein neues Netzteil zu kaufen.
Aber ab dem Moment wo ein neuer Stecker eingeführt wird, kann es eben keine bereits vorhandenen am Netzteil geben. Rein vom Prinzip her muss ich nur einen Stecker einstecken, im Gegensatz zu 3. Das spart Zeit.
Wenn du eine Karte in neuem Prozess, bei den gestiegenen Erzeugerkosten für das gleiche Geld wie vor 2 Jahren möchtest, ist das nicht realistisch.
 
Zuletzt bearbeitet von einem Moderator:
Clutch04 schrieb:
Auch wenn Nvidia seine Käufer gerne für Vollidioten verkauft, denke ich, dass nun selbst die eingefleischtesten Fanboys den ganzen Müll der Firma nicht mehr abkaufen.
Wenn man Käufer einer RTX 4080 schon Vollidioten nennt, wie soll man dann z.B. Käufer eines Ryzen 7950X nennen? Der wurde mit einer noch deutlich höheren Marge hat als die RTX 4080 verkauft. Beim Ryzen 7950X bezahlt man ca. das 10fache der Herstellungskosten, während man bei der 4080 etwas weniger als das 10fache der Herstellungskosten des Dies bezahlt und noch zusätzlich ein PCB mit VRMs, VRAM und Kühler bekommt.
 
Chismon schrieb:
Bei mir waere die RX 7900XTX ein No-Brainer, wenn ich in der Leistungsklasse/Preiskategorie einkaufen wuerde, denn alleine der Aufpreis bei der RTX 4080 und nVidias Kunden- und Preispolitik (auch waehrend des Miningbooms) wuerden mich davon abhalten 200 Euro mehr fuer deren Pendant, welches auch noch deutlich langsamer im Rasterizing sein duerfte
Inwiefern ist die Kundenpolitik während des Miningbooms bei Nvidia gegenüber der Konkurrenz abgefallen?
Hat Nvidia nicht versucht Bremsen in die Produkte per Treiber und dann sogar BIOS einzubinden, damit mehr Produkte für Gamer verfügbar werden?

Man könnte doch auch einfach zugeben, dass die ganze schlechte Stimmung einfach nur am Preis liegt, weil man sich einen niedrigeren erhofft hat. Aber weshalb genau sollte Nvidia das machen, wenn die Firma weiß, dass Preise von über 1000 Euro ohne mit der Wimper zu zucken angenommen werden und so natürlich auch viel mehr Geld für Investitionen in neue Technik frei wird?

Also es immer als einen Kundennachteil hinzustellen, wenn eine Firma hohe Preise für sehr gute Produkte verlangen kann, ist auf mittelfristig und lange Sicht nicht unbedingt negativ.
Chismon schrieb:
... nicht sehr viele, mir ist das noch viel zu unausgereift, aber ich bin ja auch nicht Zielgruppe fuer diese Karten, denn schon bei ueber 600 Euro habe ich sehr gehadert mir eine RX 6800XT zu zu legen).
Mal zu der angeblichen Unausgereiftheit ein Zitat aus dem letzten CB Test:

In der Open World ist aktives Raytracing quasi ein ständiger Begleiter der Grafik, ohne dass die Effekte aufgesetzt oder erzwungen wirken. Seien es die vielen Hochhäuser, in denen sich die Umgebung spiegelt, die Geschäfte an der Straße oder die Autos. Übertrieben wirken die Reflexionen nur selten. Das ist wiederum oft in Innenräumen der Fall, auch wenn es zumindest im Test noch nicht gestört hat.


Insgesamt sind RT-Reflexionen in dem Spiel also ein gutes Optik-Upgrade. Ohne sie bleibt der Titel sehr hübsch, man vermisst und verpasst aber definitiv etwas.
Ein gutes Optik Upgrade also. Mit diesem Fazit kann man fast so gut wie jede RT Implementierung bisher beschreiben. Dann muss man einfach feststellen, dass manche Nutzer eben keine bessere Grafik mehr haben wollen oder schlicht und einfach falsches in die Welt setzen.

Chismon schrieb:
Zu A) Wohl nur Leute, bei denen Geld eine untergeordnete Rolle spielt, die ein sehr seltsames Verhaeltnis zum Geld (Preis-Leistung) haben, denen es evt. als Statussymbol wichtig ist oder fuer die Grafik oder Gaming alles ist (und die damit evt. Ihr Geld verdienen, aber dann duerften i.d.R. eigentlich noch teurere GPUs in Frage kommen).
Warum sollte die Preis-Leistung einer 4080 gegenüber einer 7900XTX schlechter sein, wenn die 4080 deutlich mehr Frames mit RT liefert? Es ist doch einfach nur ein einfaches Rechenexempel wie das PLV Verhältnis ausfällt. Reine Rasteraufgaben sind im AAA Bereich längst in der Minderheit.

Chismon schrieb:
Zu B) Leute, denen RT-RT bisher zu wenig Mehrwert bietet und die mit einem FSR3 fast auf Hoehe von DLSS3 rechnen, die bei 1000 US$ eine rote Linie ziehen und ein besseres Preis-Leistungs-Verhaeltnis zu schaetzen wissen, und denen nVidia einfach als Unternehmen gegen den Strich geht.
Also den letzten Punkt kann man völlig streichen, weil Nvidia mal abgesehen von den Preisbedingten Shitstorm, der sich auch bald wieder legen wird, ein viel viel besseres Standing als AMD hat, bei den Usern, in der Industrie, Notebooks und Fertigsystemen.
RT bringt den Mehrwert, da mit Rasterbedingungen eben nicht adäquat erfüllbar.
Die Studios gehen mit riesigen Schritten auf Raytracing zu. Man könnte es auch umdrehen und fragen, wieso ich mir heute noch eine Grafikkarte zulegen soll, die nur die Pflicht und nicht die Kür erfüllt.

Man könnte es noch einfacher herunterbrechen: Die AMD Karten sind einfach zu langsam!
 
Zuletzt bearbeitet von einem Moderator:
Laphonso schrieb:
Wen interessiert noch Raster im next gen in der Preisklasse? Raster ist zunehmend EOL.
Irrelevant in absehbarer Zukunft.
Wäre das anders, würde AMD wohl kaum Raytracing weiter ausbauen.
Nvidia und AMD haben das Ende von Raster 2018 und 2020 vice versa eingeleitet. Das ist nur noch Brückentechnik bis es Krückentechnik ist.
Komplett limitiert.

Siehe wohin die Reise mit der UE5 geht.

Für Raster kannst Du eine 6800 oder 6900 oder 6950 GPU kaufen, die "lösen" Raster auch in 4K und Du sparst noch Geld.
Ergänzung ()

Schau Dir mal die letzten Games Tests und Benchmarks auf Computerbase hier an @aemonblackfyre

Portal RTX Raytracing (überraschend ;-) ) ✅
Spider Man Miles Morales Raytracing
Gotham Knights
Raytracing ✅
Uncharted 4 Raytracing ❌
APT: Requiem Raytracing ✅
Steelrising Raytracing ✅
Spiderman Remastered Raytracing ✅
Stray Raytracing ✅
F1 22 Raytracing ✅
Forza Horizon 5 Raytracing ✅ (nachgeliefert)
Sniper Elite 5 Raytracing ❌
God of War Raytracing ❌
Landwirtschaftssimulator 22 Raytracing ❌
Hitman 3 Raytracing ✅
Ghostwire: Tokyo Raytracing ✅


Witcher 3 kommt die Tage. Mit Raytracing ;)
Raster ist ein Relikt, das nach und nach nur noch Plan B wird.

Die Old gen Playstation Ports ziehen den Schnitt nach unten. Konsolengames sind hat limitiert :p
Wie erklärst du dir dann das hier?
https://www.computerbase.de/2022-11/raytracing-games-grafikkarten-umfrage/
 
Rockstar85 schrieb:
600€ ist aber was anderes als 1000€ ... Und ich wäre auch bereit 750€ für die GPU auszugeben, aber dann ist halt Schluss mit Lustig. Das da ist halt keine 1000€ GPU.. (Bedenke, die 3080 kostete 749€)
Das die RTX 4080 (16 GB) viel zu teuer ist, bin ich bei dir. 999 EUR brutto in Deutschland maximal, mehr ist die nicht wert. Inflation und schwacher Euro hin oder her.
 
  • Gefällt mir
Reaktionen: Rockstar85
man kann DXR spiele genau an Zwei Händen zählen die ich habe
Das dxr in Zukunft allgegenwärtig sein wird steht klar.
Aber mein groß der spiel sind raster und bei einer neuen gpu muss diese alle laufen.
ich nehme dass ab dx6 an sofern Os und kopierschut mitspielt ab und an muss am game selbst angepasst werden.
Das ist Bedingung damit ich eine neue gpu kaufe,.
Danach zählt noch P/L sowie maxed 180w tbp Daher ist die frage amd oder nvidia nur die was weniger Strom brät und was die bessere dxr Leistung hat die Rasterleistung ist in etwa gleich.
Zumal diese über 100fps mit ausnahmen in 1080p so ziemlich sicher sind.
Größere Auflösungen machen aktuell keinen Sinn da dafür min ein gpu mit min 20tf benötigt wird.
Der Ausblick auf die rtx4060 für mich die einzige option wegen strombedarf unter 200w ist leider zu wenig Mehrleistung wie schon beschrieben von anderen post.
Nvidia könnte so effiziente gpu mit ada designen.
Aber aktuell ist es nur 14tf mit 8gb drin. Was ein nogo wäre für mich den schon jetzt kommen einige dxr spiele über 10gb vram daher.
Bliebe nur 250w tbp und die Vorgesehene rtx4070 abseits vom preis den ich zwischen 499-599$ erwarte ist der strombedarf keine option.
Derzeit sind die tes1t der rx7900xtx am Montag wichtig wenn amd die rtx4080 zersägt wovon ich ausgehe dann wars das mit der Idee den ad104 46sm als rtx4070 das wird ne rtx4060ti

zur Klarstellung
ad104 hat 6 gpc je 12sm = 72sm wovon nur 60 52 und 46 aktiv sind bisherige Gerüchte der chipausbeute.
da der 4n process sehr gut läuft wundert das einen doch extrem einzige Einfall wäre nur das die chips bis 1,12v gehen und über 3,0ghz kommen.
Die yield ist extrem gut weswegen mich schon der schnitt auf nur 60sm wunderte und noch weniger als 52 könnte ich mir nur vorstellen als 60ti.
Nehme ich an das der ad106 28sm hat von 36sm wäre das die dritte gen die genau dieselbe sm menge hat
Und ada profitiert allein beim Takt was dann 3,0ghz vs 1,88ghz wären also nur + 58%
Eigentlich guter gen Wechsel aber da wäre ein Problem
Die bandbreite ist geringer und der vram ist zu wenig. 128bit gddr6 20gbs=320gb/s vs ga106 360gb/s
Der vram geiz ist aber genau das was mich stört.
Das wird die rtx4060 ad106 deutlich einbremsen auf nur noch +40%
bliebe die rtx4070 und den sauren apfel 250w tbp
Die nebenbei auch genau dieselbe sm menge hat wie rtx3070 aber nicht vom bandbreiteh limit betroffen ist.

Wie ich drehe und wende richtig glücklich bin ich nicht mit ada
zurück zu raster vs dxr beides ist wichtig primär aber raster, dxr ist noch nicht durchgehend Präsent
Wo es eingesetzt wird bricht die Leistung weg, ein Grund zum aufrüsten aber ansonsten ist noch zu erwähnen das dxr durchaus in cpu limits verhungert selbst in fhd.
aktuelle bsp wären
deathloop
farcry 6
dying light 2
Und das mitn zen2 cpu auf 1080p dxr dlss q
 
  • Gefällt mir
Reaktionen: herculesgott
LamaMitHut schrieb:
@bensen so richtig habe ich es tatsächlich nicht verstanden.
Der Abstand zwischen 4090 und 4080 ist so groß, weil der AD102 einen extrem großen Sprung gemacht hat. Transistoren Mal eben verdoppelt. Das gab es bisher noch nie, das eine neuer Prozess direkt ausgereizt wurde. Alle anderen Chips haben einen normal großen Sprung hingelegt. Der Abstand zur Vorgängergeneration und zur Konkurrenz ist ok.
Die 4090 ist ohne Konkurrenz und ist nichtmal der Vollausbau.
 
  • Gefällt mir
Reaktionen: Ragnarök88
aemonblackfyre schrieb:
Wie erklärst du dir dann das hier?
Mit einer Einsteiger, ällteren Mittelklasse oder AMD GPU würde ich RT auch nicht aktivieren, aber hier reden wir von neuen High End GPUs.
Ergänzung ()

syfsyn schrieb:
man kann DXR spiele genau an Zwei Händen zählen die ich habe
Es gibt etwa 250 Titel mit RT.
 
ich sagte die ich habe
 
  • Gefällt mir
Reaktionen: Ragnarök88
bensen schrieb:
Der Abstand zwischen 4090 und 4080 ist so groß, weil der AD102 einen extrem großen Sprung gemacht hat. Transistoren Mal eben verdoppelt. Das gab es bisher noch nie, das eine neuer Prozess direkt ausgereizt wurde. Alle anderen Chips haben einen normal großen Sprung hingelegt. Der Abstand zur Vorgängergeneration und zur Konkurrenz ist ok.
Die 4090 ist ohne Konkurrenz und ist nichtmal der Vollausbau.
Ich komme immer noch nicht mit. Bei Ampere setzen RTX 3090 Ti bis 3080 auf GA102, bei der aktuellen Generation ist da nur die 4090 die den Big Chip verwendet. Da passen locker noch zwei Karten mit dem Big Chip (=High End / Enthusiast) zwischen 4090 und 4080, und warum sollte man das nicht ansprechen dürfen?
 
Wer verbietet es dir das anzusprechen? Nur weil etwas dazwischen passt, wird es aber nicht zwangsläufig kommen. Warum sollte Nvidia den halben Chip deaktivieren um da was zwischen zu quetschen? Da wird maximal eine Karte unter der 4090 auf Basis der AD102 kommen.

Die 80er Karten vor Ampere waren 104 Basis. Jetzt eben dazwischen. 3080 hätte auch fast auf Basis des AD103 sein können.
Ein teildeaktivierter Navi21 hieß auch 6800. Bei Navi 31 7900.

Der Name 4080 passt für 4080 in Sachen Performance zur Vorgängergeneration und zur Konkurrenz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut und Ragnarök88
LamaMitHut schrieb:
Da passen locker noch zwei Karten mit dem Big Chip (=High End / Enthusiast) zwischen 4090 und 4080, und warum sollte man das nicht ansprechen dürfen?
Der AD102 Die ist ja auch mehr als doppelt so teuer wie der GA102 Die. Bei Ampere war es noch vertretbar, die 3080 als Salvage Chip mit dem gleichen Die wie die 3090 auszustatten. Bei Ada rechnet sich das nicht mehr, weshalb nun bereits der AD102-300 der 4090 ein Salvage Chip mit 16 deaktivierten SMs ist.
Man darf auch nicht vergessen, dass das noch Launch Preise sind. Die 3090 war günstiger in der Herstellung als die 4080 und ist damals zu einem Preis von $1499 gestartet. Dagegen sieht die 4080 dann nicht so schlecht aus. Die 4090 ist einfach, verglichen mit dem Ampere Launch, viel zu günstig und lässt die 4080 schlecht aussehen.
 
  • Gefällt mir
Reaktionen: LamaMitHut
bensen schrieb:
Der Name 4080 passt für 4080 in Sachen Performance zur Vorgängergeneration und zur Konkurrenz.
Sehr gut sogar, wenn man sich aktuelle Leaks anschaut.
Die 7900XTX kommt somit wie erwartet nicht über das Niveau einer RTX 4080 hinaus.
 
Zuletzt bearbeitet von einem Moderator:
Also die Gerüchte die ich gelesen habe, sprechen von einer Performance über 4080 aber unter 4090. Zumindest ohne Raytraycing.
 
  • Gefällt mir
Reaktionen: Ragnarök88 und s1ave77
bensen schrieb:
Zumindest ohne Raytraycing.
Selbst der vorhin von ihm zitierte Artikel bestätigt;
Alle Anzeichen zusammengenommen deutet sich dennoch grob folgendes Performance-Bild an: Die kleinere Radeon RX 7900 XT dürfte bei der Raster-Performance der GeForce RTX 4080 recht nahe kommen, vielleicht jene hier und da erreichen. Die größere Radeon RX 7900 XTX sollte die GeForce RTX 4080 beachtbar hinter sich lassen, könnte im Idealfall sogar nahe der Mitte zwischen GeForce RTX 4080 & 4090 kommen. Im schlimmsten Fall sollte die größere Radeon RX 7900 XTX aber immer noch vor der GeForce RTX 4080 herauskommen.
:)
Wird echt albern, was einige hier interpretieren.
 
mae1cum77 schrieb:
Wird echt albern, was einige hier interpretieren.
Also wird sie es im Mittel nicht vor die RTX 4080 schaffen, das ist doch klar.
Das ist doch seit Monaten klar, allerdings wollen das einige nicht so recht wahr haben.
Oldschool Rasterization wird keine Preise mehr gewinnen.
 
Zuletzt bearbeitet von einem Moderator:
Ragnarök88 schrieb:
das ist doch klar.
Keine Ahnung, was du da liest. Der Artikel sagt nur aus, daß die XTX sich nicht wie erwartet deutlich von der XT absetzen kann. Nichtsdestotrotz scheint die XT die 4080 zu knacken und die XTX die Mitte zwischen 4080 und 4090 zu füllen. Ist bei der geplanten Positionierung seitens AMD doch genau das, was erwartet/angedeutet wird. Rasterleistung als Maßstab.

Zitiere nie Artikel, die du nur oberflächlich überflogen hast.
 
Zurück
Oben