News Nvidia GeForce RTX 4070 Ti: Die umbenannte RTX 4080 12 GB kostet 899 statt 1.099 Euro

Chilisidian schrieb:
Bei der kleinen Mehrleistung bei Spielen im Gegensatz zum 5900X und unter Berücksichtigung der Tatsache, dass ein 5800X3D mehr Spieleleistung liefert und dabei die Hälfte kostet?
Der 5800X3D ist auch schon eine Weile auf dem Markt und ist "old gen". Ich habe für meinen auch noch über 500€ bezahlt, ein Freund vor ein paar Wochen 315 Euro bei Mindfactory. Schwer zu vergleichen.

Der Logik zufolge müssten vor allem die 30er Karten aktuell 30-40% unter deren UVP's liegen, abverkauf. Das war sonst bei einem Generationswechsel auch mal der Fall.

Zumindest ist der 7900X im vgl zum 5900X bei Release nicht unverrhältnismäßig teurer geworden oder die MSRP massiv gestiegen. Zumindest nicht in einem Rahmen der nicht tatsächlich mit Produktionskosten oder Inflation begründbar wäre, das ist der Unterschied.

DayvanCowboy schrieb:
Was interessiert mich MSRP? Am besten noch in Dollar? Mich (und dich) sollten ausschliesslich die Preise interessieren, für die es das Ding im Laden zu kaufen gibt.
Tun sie auch, meine XT hab ich von AMD zur MSRP (ja die MSRP für den Euroraum) und eine 40er Karte würde bei mir auch nur als FE von NBB in den PC wandern. Keiner in meinem Freundeskreis hat für seine AMD 6000er oder Nvidia 30er Karten mehr als die UVP bezahlt. Und wie im oberen Teil des Beitrags geschrieben, in einem normalen Zyklus wäre eine 3080 gerade im Abverkauf, genau das möchte Nvidia scheinbar vermeiden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und MojoMC
basic123 schrieb:
Wie verbittert hier einige Nvidia und deren Preisgestaltung gegen jegliche Kritik verbissen verteidigen anstatt sich einer sachlichen Diskussion zu stellen.
Wo ist denn die sachliche Diskussion? Es wird hier allgemein ignoriert, dass sich die Waferpreise durch die aufwendigeren Fertigungsprozesse in letzten 8 Jahren versechsfacht haben. Allein der Sprung von DUV auf EUV hat in dieser Generation die Wafer-Preise für AMD fast verdoppelt und für Nvidia fast verdreifacht.
Beitrag schrieb:
Wenn man da noch Mainboard und RAM mit einkalkuliert (bei der Graka zahlt man ja auch nicht nur den GPU-Chip), sind die neuen Gens ebenfalls nicht gerade günstig, aber immer noch humaner als die neuen GPUs.
Das kann ich nicht erkennen. AMD verlangt z.B. für den Ryzen 7700X mit $40 Chips zum Launch $399. Der Ryzen 7950X mit $60 Chips wurde für $699 gestartet. Der Chip der 4070ti dürfte dagegen eher über $100 kosten.
 
  • Gefällt mir
Reaktionen: shaboo und DayvanCowboy
DayvanCowboy schrieb:
Ein perfektes Indiz dafür, wie gut Ada Lovelace als Generation wirklich ist.
So gut, dass DLSS3 als Feature beworben wurde und bisher ziemlich versagt, ebenso wie nVidia gesponsorte Spiele wie die Witcher 3 RT-RT Version mit Bugs beladen sind, aber hey, man kann sich das auch alles gerne schoen reden.

Du wuerdest bestimmt auch gerne kritiklos den Preis einer RTX 4080 12GB zahlen (Du kannst die sich aus dem Protest der - von Dir so madig gemachten - Tech-Tuber ergebende Preis-Differenz/Ersparnis der RTX 4070 12 GB ja jetzt dem "armen" nVidia CEO Huang fuer eine neue Lederjacke spenden).

Wie verblendet muss man eigentlich sein, um so einen Bloedsinn hier von sich zu geben oder bekommst Du von nVidia noch Kommission dafuer, dass Du solche hohlen Marketingphrasen hier dreschst?

Vergleichen kann man den Anstieg bzgl. der Vorgenerationen bei den Ada Lovelace Karten und den RDNA3 natuerlich miteinander und dann kommt man vielleicht (bei Dir ist das scheinbar noch nicht eingetreten) auf den Trichter, dass beide neue Grafikkarten-Generationen sich ueberhaupt nicht lohnen (wenn man nicht wie Du dem Marketing dieser Grosskonzerne total auf den Leim geht), da diese total ueberteuert angesetzt worden sind.

Die Unternehmen, Boardpartner und Haendler bleiben aktuell zu Recht bei diesen Preisen groesstenteils auf der Ware sitzen, zumal die restliche alte Ware (RDNA2 und Ampere) vergleichsweise noch viel attraktiver ist (solange da die Presie nicht weiter angehoben werden, was ja auch schon geschehen ist in den letzten Monaten, etwa bei der RTX 3080, um die Kundschaft zu den neuen masslos ueberteuerten Produkten hin zu steuern) als die neue, wenig feature-innovative Generation z.T. mit Leistungsreserven, die nicht ausgereizt werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, MojoMC und scheru
Chilisidian schrieb:
Du findest also, dass ein 7900X 12-Kerner von AMD mit 660 EUR fair bepreist war? Bei der kleinen Mehrleistung bei Spielen im Gegensatz zum 5900X und unter Berücksichtigung der Tatsache, dass ein 5800X3D mehr Spieleleistung liefert und dabei die Hälfte kostet?
Es soll Leute geben, die Ihre Rechner nicht nur für Gaming verwenden.
 
Der Preis richtet sich nicht nach den Herstellungskosten.
nein, dass kann man ausschließen. Wir sehen ja schon seit längeren, dass die Gewinnmarge explodiert. Im Umkehrschluss kann sich dann der Verkaufspreis nicht nach dem Herstellungspreis richten!
 
  • Gefällt mir
Reaktionen: Rockstar85 und MojoMC
Simonsworld schrieb:
Meine Überzeugung reift immer mehr, dass ich eine gebrauchte GPU kaufen werde.
Hm, schwierig. Die Gebrauchtpreise für die RTX 30er und RX 6000er Serie finde ich jetzt (noch) nicht so ansprechend. Da würde ich mir lieber 'ne neue kaufen, die mit 5 Jahren Garantie daherkommt. Sonst regt man sich nur auf, wenn man für bisschen Ersparnis was gebrauchtes geholt hat und die Karte dann mit etwas Pech nach zwei Jahren schon durch ist.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne
DayvanCowboy schrieb:
Auf diesen Umstand basierst du deine Aussage, aber ich bin es der in der eigenen Welt lebt? Hahaha

Faktencheck: zu Release konnte man sie bei Alternate zum UVP vorbestellen.
Der Irrsinn der danach kam spielt keine Rolle.
 
Chismon schrieb:
So gut, dass DLSS3 als Feature beworben wurde und
Immerhin hast du es geschafft, nicht den Stecker zu erwähnen, dafür schonmal volle Hochachtung!

Chismon schrieb:
Wie verblendet muss man eigentlich sein, um so einen Bloedsinn hier von sich zu geben oder bekommst Du von nVidia noch Kommission dafuer, dass Du solche hohlen Marketingphrasen hier dreschst?
Nein, ich bin freiwillig hier, und DU bist mein content. Dafür ebenfalls ein Dankeschön!
 
  • Gefällt mir
Reaktionen: Chismon
Wie ich es schon sagte, Nvidia hat mit der 4000er Serie die MiningBoom-Preise eingepreist. Die wollen nicht mehr weniger dafür haben.
Man kann nur hoffen die Leute lassen die Finger davon und warten bis die Preise purzeln. Denn wenn die Karte jetzt für den Preis weggeht, wird man bei der nächsten Generation wieder einen Aufschlag zahlen müssen. Dann ist man bei einer "5070TI" dann vermutlich bei ca. 1300€.
Also ich bin bei den Preisen erstmal raus und warte. So ein anständiger Drop wie es die 3090TI hingelegt hat, würde dieser Generation auch gut tun.
 
  • Gefällt mir
Reaktionen: Rockstar85, MojoMC und Klever
shy-Denise schrieb:
Faktencheck: zu Release konnte man sie bei Alternate zum UVP vorbestellen.
Der Irrsinn der danach kam spielt keine Rolle.
Ach so, ja dann. Solange du sie dort vorbestellen konntest, haben die Preise in der restlichen Welt natürlich keine Bedeutung, mein Fehler...wieviele Ls möchtest du dir heute noch abholen?
 
Beitrag schrieb:
Hm, schwierig. Die Gebrauchtpreise für die RTX 30er und RX 6000er Serie finde ich jetzt (noch) nicht so ansprechend. Da würde ich mir lieber 'ne neue kaufen, die mit 5 Jahren Garantie daherkommt. Sonst regt man sich nur auf, wenn man für bisschen Ersparnis was gebrauchtes geholt hat und die Karte dann mit etwas Pech nach zwei Jahren schon durch ist.

Für um die 800 Euro gibt's vernünftige 3090 Custom Designs mit ca. 1 Jahr Restgarantie. Klar sie kommen nicht an die Effizienz der 4000er ran, aber 24GB VRAM ist in 4k deutlich zukunftssicherer als die 4070 Ti. Die einzige wirkliche Alternative stellt die 4080 dar. Die müsste aber erstmal auf 1100 Euro runter, damit sie preislich ähnlich attraktiv wird.
Klar am Ende kann immer etwas passieren. Wenn die Karte jedoch erstmal im Gehäuse sitzt und im ersten Jahr alles gut geht, sollte sie weitere Jahre überstehen.
 
Slavicgirl schrieb:
Für 500€ kriegst du genau das selbe wie damals kannst mit der gleichen auflösung in hoch weiter zocken
Warum sollte man sich dann eine neue Karte kaufen?
Slavicgirl schrieb:
Ahso … ja.. du verlangst selben preis für mehr leistung[...]
Willst du mehr fps oder hast deine anforderungen erhöht DANN ZAHL MEHR
Will der Hersteller neue Karten verkaufen, dann müssen die für den gleichen Preis mehr leisten.
Slavicgirl schrieb:
niemand hat anrecht auf luxus karten für 500€
Dir ist nicht einmal bewusst, dass Leistungssteigerungen im Technikbereich grundsätzlich auf ganz normalem, bereits eingepreistem technischem Fortschritt beruhen. Aber teil ruhig deine Einschätzung zum Grafikkartenmarkt mit, es ist unterhaltsam.
Slavicgirl schrieb:
Sagmal wovon träumt ihr alle???!!!!
Egal, was du nimmst - nimm weniger.

Chilisidian schrieb:
Naja inflationsbereinigt sind die 650 von damals aber heute 780 EUR, das sind also nur noch 120 EUR Unterschied.
Nicht ganz: Das Äquivalent von 650 EUR vom 10. Juni 2021 (Launchdate 3070 Ti) sind 722,32 EUR am 03. Januar 2023. Inflation über den Zeitraum: 11,13 %, herangezogener Index: DECPI2005 (Statistisches Bundesamt).
Chilisidian schrieb:
Und das auch nur, wenn man die allgemeine Inflation ansetzt und nicht die reale für den Bereich Hardware, wo alleine die gestiegenen Energiekosten überproportional reinschlagen.
Komischerweise schlagen in allen Branchen die gestiegenen Energiekosten überproportional ein...
Chilisidian schrieb:
Bedenkt man dann noch den deutlich teureren 4N, der nicht mit der Inflation skaliert, sondern für sich nochmal 20-30% teurer ist,
Firmeninterne Prozessweiterentwicklungen führen allgemein eher zu Effizienzsteigerungen. Wir können gerne spekulieren, ob nVidia da also was verbockt hat oder ob es vielleicht einfach ganz zu Anfang teurer war, was sich dann sehr schnell ändert.

Ist ja nicht so, als hätte es noch nie Verbesserungen in der Lithographie bei Chips gegeben - oder etwa doch?

Ragnarök88 schrieb:
AMD und Intel haben keine großen Margen auf ihr Grafikangebot, demnach wird es auch keine deutlichen Preissenkungen am Markt geben können.
Chilisidian schrieb:
wird die Rohmarge bei der 4070Ti kaum höher sein für Nv.
Über die Rohmarge bei der 4070TI mache ich mir keinerlei Gedanken, solange nVidia Milliardengewinne wie in den letzten 6 Jahren einstreicht. Aber so gar keine Gedanken.

Man muss da halt auch mal genauer draufschauen als stumpf irgendwelche Zahlen zu vergleichen.

Nolag schrieb:
Es wird hier allgemein ignoriert, dass sich die Waferpreise durch die aufwendigeren Fertigungsprozesse in letzten 8 Jahren versechsfacht haben.
Ja und?
  • ist das nur ein kleiner Kostenbestandteil von vielen
  • ist also technischer Rückschritt, wenn sich der Preis überproportional zur Leistungssteigerung verteuert?
  • könnte man auch behaupten, dass die gestiegenen Waferpreise anscheinend für deutlich verbesserte Margen verantwortlich sind, da der Gewinn von nVidia in dem Zeitraum massiv gestiegen ist
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wanderwisser, Rockstar85, schkai und 2 andere
Slavicgirl schrieb:
Mittlerweile hat sich dir erde weiter gedreht die käufer von damals sind längst nicht mehr ziel gruppe.
Danke dass du erleuchtest. So machen die aktuellen Preis endlich Sinn...
Konsum ist okay, solange es "Luxus" ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ceberus
Chilisidian schrieb:
Bei der kleinen Mehrleistung bei Spielen im Gegensatz zum 5900X und unter Berücksichtigung der Tatsache, dass ein 5800X3D mehr Spieleleistung liefert und dabei die Hälfte kostet?

Es ist dann die Frage, ob man sich 12+ Kerne (AMD) Prozessoren fuer Spiele kauft?

Mit Sicherheit werden das viele nicht tun sondern weil sie die Kerne und Threads fuer Anwendungen benoetigen werden, da den meisten Gamern 6 Kerne vollkommen ausreichen und diejenigen, die noch nebenher streamen, sind dann auch meist mit 8 Kernen problemlos unterwegs.

So gesehen passt Deine R7 5800X3D Argumentation hier gar nicht, denn das einzige wozu dieser Prozessor vorwiegend taugt sind eben Spiele (in Anwendungsbereichen ist er oft schwaecher als die Standard R7 5800X Version ohne X3D Cache) und einigen reicht das eben nicht (wohingegen einige genau das wollen).

Es ist also eine Frage des Anwendungsprofils und ein reiner Gaming-Monitor reicht mir bspw. auch gar nicht, es muss ein Allrounder her, denn den Grossteil meiner Zeit vor dem PC verbringe ich (und das duerfte den meisten so gehen) immer noch mit anderem als mit Spielen ;).

Die Preisbewegungen im CPU-Bereich sind ein Witz verglichen mit denen im GPU-Bereich und nein, rechtfertigen kannst Du das eben nicht (selbst wenn Du die teureren Plattformen wie Zen4 oder Raptor Lake bemuehst, sind die Preissteigerungen vergleichsweise moderat mit denen im GPU-Sektor) und das zeigt auf, wie viel im GPU-Bereich bei der Preis- und Kundenpolitik der Unternehmen schief laeuft (mit dem Ende des Kryptomining-Booms und daraus sprudelnden Erloesen hat man sich wohl vor allem bei nVidia aber auch noch bei AMD/RTG immer noch nicht abgefunden).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lex30 und Simonsworld
Cleric schrieb:
Also mal kurz rekapitulieren: Trotz zusätzlichen Aufwands und zusätzlicher Kosten für das Umlabeln der Fake-4080-12GB hat NVIDIA bei der Marge einen Spielraum von mal eben 200 Euro, wenn sie von 1099 auf 899 Euro runtergehen. Applaus, Applaus!

Aber das Fettnäpfchen hat sich NV selbst hingestellt.. Alter Preis = Shitstorm, neuer Preis = Shitstorm.
Auf diesen Punkt der Nvidia Firmen-, Markt- und Preispolitik kann man einfach nicht genug eingehen (oder besser gesagt herumreiten?), vor allem wenn man sich dann auch noch vor Augen hält, was für dünne Margen Nvidia den Boardpartnern zugesteht!
 
  • Gefällt mir
Reaktionen: lex30, Rockstar85, MojoMC und eine weitere Person
Taurus104 schrieb:
Die 7900XT ist nicht die XTX, was Stromhunger, Peaks und Temperaturen angeht.
Muss sie ja auch nicht, die XT hat 315W TBP, im CB Test hat sie sich 306W genehmigt.
Die 4070Ti hat nur 285W. Zum Vergleich, die 4080 hat 320W, hat im Test aber nur 290W gebraucht.
Man darf also davon ausgehen, dass die 4070Ti am Ende real bei ~260-275W landen wird.


Taurus104 schrieb:
Und Stand Informationen jetzt, ist die 4070Ti mit RT nicht schneller als eine 3090Ti.

Rein von der Rohleistung her kann man sich die Performance ja schon recht genau herleiten.
Die 4080 hat 20% mehr TFLOPs, kann also auch maximal 20% schneller sein.
Damit müsste die 4070Ti bereits gleichauf mit der 3090Ti sein, denn die 4080 ist hier im RT-Test exakt 20% schneller als diese, im Raster 18%.

Dank nicht linearer Shader Skalierung dürfte sie aber eher zwischen 15 und 20% schneller sein als die 4070Ti.
Das würde uns im RT leicht über die 3090Ti und im Raster ziemlich genau auf die 7900XT bringen.

Taurus104 schrieb:
In Portroyal trennten die 7900XT und die 4070 Ti 6% Leistungsunterschied.
Portroyal ist kein Spiel.
Im RT Rating von CB liegt die 3090Ti 22% über der 7900XT, nimmt man mit Guardians of the Galaxy und Far Cry 6 die jeweils größten Ausreißer pro AMD und pro Nvidia raus, sind es sogar 24% Schnitt für die restlichen Spiele.

Wer jetzt meint "Aber Cyberpunk..." : Das Spiel können wir natürlich so lange weiterspielen, bis alle fordernden RT Titel draußen sind, nur bringt uns das nichts. Aber gut, nehmen wir das gerne auch noch raus, dann landen wir wieder bei 22%.
Die 4070Ti sollte also auch mind. 22% schneller sein.

Also RT ~20-25% schneller als die XT, Raster evtl 3-4% langsamer, dafür mindestens 20, eher 30W weniger Verbrauch(~10%) und dazu noch 100€ günstiger(+DLSS etc).


Eigentlich exakt die gleiche Situation wie bei 4080 vs 7900XTX nur dass diesmal sogar der Preisvorteil eindeutig bei Nvidia liegt.

Umso bitterer fürs Marketing, wenn man sich die Namensgebungen anschaut: Eine 4070Ti mit dem AD104 ist in Summe besser als AMDs 7900er GPU auf dem fast Vollausbau Flaggschiff Navi31 Chip
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JonaHH, karl_laschnikow und DayvanCowboy
DayvanCowboy schrieb:
es geschafft, nicht den Stecker zu erwähnen

Das soll vorkommen ;), zumal es sich bei dem von Dir jetzt erwaehnten Adapterstecker der Lovelace dGPUs ebenso wie bei der Vapor-Chamber fuer die RDNA3 Karten um eingekaufte und nicht selber (von nVidia oder AMD/RTG) hergestellte Komponenten einer Grafikkarte handelt und im Endeffekt laeuft es bei beiden auf mangelhafte Qualitaetskontrolle heraus (die beide Unternehmen aber weder eingesehen noch zugegeben haben) ... so einfach ist die ganze Chose.

DayvanCowboy schrieb:
ich bin freiwillig hier, und DU bist mein content. Dafür ebenfalls ein Dankeschön!

Na, da bin ich ja froh, dass Du bei nVidia noch nicht auf der Gehaltsliste stehst, aber es erweckt hier beizeiten den Eindruck, als ob Du Dich fuer diese bewerben moechtest.

Gerne geschehen, wenigstens scheinen meine Beitraege noch nicht so fade und langweilig zu sein, dass diese gewisse Leute nicht jucken wuerden (auch wenn ich weiss, dass wenig Chance darauf besteht, dass diese Ihre Meinung aendern werden).
 
  • Gefällt mir
Reaktionen: MojoMC und DayvanCowboy
Chismon schrieb:
auch wenn ich weiss, dass wenig Chance darauf besteht, dass diese Ihre Meinung aendern werden
Mal den Schalk kurz beiseite, die 4070ti juckt mich, und ich würde auch gerne weniger bezahlen, aber ich teile die Kritik der Preise einfach nicht, solange kein anderer Hersteller zeigt dass es besser und günstiger geht.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne
Also Preise fangen damit 100€ über der UVP an. War zu erwarten ist aber einfach traurig. Noch dazu wäre die FE das bessere Produkt wenn man sich die 4080er und 4090er anschaut, ist die FE einfach deutlich effizienter - weniger Verbrauch beim Spielen und vor Allem idle auf dem Desktop. Und dafür zahlt man dann auch noch ein paar hundert Euro Aufpreis.

Echt Schade, dass es von der 4070 Ti keine FE gibt. Neue Infos zur 4070 (ohne Ti) gab es wohl nicht auf der CES.

Interessant ist auch, dass die Modelle wohl teilweise 2x andere 3x 8-Pin Stecker benötigen obwohl schon bei der 4080 es nichts gebracht hat da PT zu erhöhen. Aber das zeigt nur wieder mal, dass die Custom Hersteller irgendeinen Rotz produzieren um 5 verschiede Modelle zu rechtfertigen. Ein Model mit guter Kühlung und guter Effizienz hätte doch gereicht (pro Hersteller).
 
Taxxor schrieb:
Man darf also davon ausgehen, dass die 4070Ti am Ende real bei ~260-275W landen wird.
Meinst du hier Furmark etc oder tatsächlicher gaming Verbrauch? Wie auch immer, ich finde die Effizienzgewinne zur 3090 ti gigantisch
 
Zurück
Oben