Test Nvidia GeForce RTX 4070 Ti im Test: AD104 muss sich mit 12 GB für 899 Euro UVP beweisen

Blood011 schrieb:
Doom Eternal ...

Bis 2026 sollen 8 GB also reichen? Für was genau? Für 1080p @Low? Dafür bezahlt man keine 1k sondern kauft sich für 0,25k eine Series S

Die Karte wäre top, wenn sie 599 kosten würde oder 16 GB und dementsprechend mehr Bandbreite hätte. Die 4080 wäre dann mit 20GB ebenfalls besser oder hätte für 899 auf dem Markt kommen müssen.

Aber egal. Letztlich gehen diese Enthusiasten Produkte eh gut weg...
 
Zuletzt bearbeitet von einem Moderator:
beeindrucken auf 3090 niveau mit halb so viel verbrauch.
die frage ist ob der preis über dem von 3090 geht oder ob der preis vom 3090 runter geht

bzw die frage ist doppelt so viel ram oder doppelte effizienz..ich bin aktuell eher für effizienz
 
  • Gefällt mir
Reaktionen: Hutzeliger
Knut_Knudsen schrieb:
Für was genau? Für 1080p @Low?
Das les ich schon 10Jahre lang.....

Bis heute nicht eingetroffen,und die spiele die mehr wollen laufen auf einmal auch nicht wie nen sack nüsse.
 
  • Gefällt mir
Reaktionen: Hutzeliger
die Preise weitaus mehr anheben, als es die aktuelle Inflations- und Lieferkettenproblematik tatsächlich rechtfertigt. Dass sie also ihre Margen erhöhen
...nun das ist kein raten oder vermuten - einfach die von nVidia veröffentlichten Finanzdaten anschauen. Wir können da sehr leicht sehen, dass die Kosten gleich geblieben, teilweise sogar gefallen sind und die Einnahmen erheblich gestiegen sind, anhand der veröffentlichten Gewinne und das wird weiter ausgebaut!
Der Grund warum AMD & nVidia jetzt da noch mal die Preisschaufel dem Käufer über den Kopf ziehen ist einfach der, dass sie weniger Einheiten verkaufen können, weil die Miner weggefallen sind.
Da aber AMD & nVidia immer behauptet haben, dass wäre keine große Menge die an diese Gruppe gegangen sind, müssen sie sich irgendwas ausdenken um den Gewinn zu steigern um die Großaktionäre nicht zu verprellen.

Natürlich hat nVidia auch höhere Kosten, das aber kompensiert in dem sie sie bei der aktuellen Generation den Speicherbus 3070ti 192 Bit zu 256 Bit und auch den Chip 103 zu 102 bei der 4080 verkleinert, das holt die Kosten wieder rein.
Die Mehrleistung dieser Generation kommt fast ausschließlich aus dem mehr an Takt, den sie dem kleineren Fertigungsprozess bei TSMC verdanken. Auch hier keine Mehrkosten bei nVidia.
Die höheren Waferkosten sind bei jedem neuen Prozess angefallen. Das ist nichts neues und wird kompensiert.

Wir werden auch in dieser "Saison" phantastische Zahlen von nVidia sehen, zumindest was den Gewinn betrifft. Umsatz wird deutlich fallen denn die Mengen wie zu Corona (auch dank Miner) wird jetzt nicht mehr verkauft. Auch weil die eigentlichen Umsatzträchtigen Grafikkarten wie 4050/60/70 noch gar nicht zu kaufen sind.

Bei all diesen Dingen verstehe ich aber absolut gar nicht, warum AMD hier AUCH die großen Grafikarten heraus gebracht hat anstelle der "Brot & Butter" Karten? So wie ich die Nachrichten von TSMC verstanden habe, können derzeit die hergestellten Wafer gar nicht absetzen und beide Grafikkarten Hersteller wollen sie wohl auch nicht verkaufen - trotz der wartenden Käuferschaft und der seit Jahren überhöhten Preisen.
Wenn das keine Absprache ist, dann weiß ich auch nicht was es sonst ist. Von den riesigen Lagerbeständen von denen einige sprechen, glaube ich heute nicht mehr.
Wann hatten wir denn mal eine alte Generation die im Abverkauf mehr im Laden kostet als UVP?

Wenn weniger gekauft wird, dann weil alles überteuert ist und das hat, vor allem bei der alten Generation, nichts mit höheren Kosten zu tun!
Ich selber habe gerade Container ab China laden lassen und der Preis ist seit einigen Monaten wieder niedrig - auch wenn die Häfen überlastet und langsam arbeiten und alles länger dauert.
 
  • Gefällt mir
Reaktionen: Gene Jackman und Czk666
Ich muß schon sagen, für meine Bedürfnisse wäre das derzeit wohl die beste Karte. Allerdings brauche ich wohl wieder einmal, wie zuletzt so oft, Sitzfleisch und Geduld, bis sich das Ding der 700 Euro Marke annährt.

Vielen Dank an Wolfgang, für den ausführlichen Test.

P.S.: ich hatte ja wenigstens von Nvidia erwartet, daß sie die 4050/4060/4070 Karten eine zarte Idee anteasen, und darüber hinaus feengleich einen ungefähren Releasezeitraum in die Menge hauchen.
 
Zuletzt bearbeitet:
kachiri schrieb:
Jetzt mal ernsthaft: Wie verbreitet ist 4K wirklich?
Unter der Zielgruppe für eine knapp tausend Euro teure Grafikkarte? Ich würde schätzen zumindest deutlich höher als im Steam Durchschnitt. Aber wäre in der Tat interessant.
 
  • Gefällt mir
Reaktionen: McTheRipper
d3nso schrieb:
So sollte es auch sein, Kein Tester sollte den Herstellern in den allerwertesten schlüpfen, aus Furcht in Zukunft bei Reviewsamples ausgeschlossen zu werden.
So Leute wie Steve generieren ohnehin genug Geld um sich Testsamples selber kaufen zu können.
Der einzige Haken wäre , dass man die Dinger oft halt dann erst auf der Benchtable hat, wenn alle anderen schon längst Reviews rausgehauen haben, und ein weiterer Test eigentlich kaum mehr wen interessiert.
Aber da haben die meisten eh gute Kontakte in den Handel um nicht auf Herstellerbemusterung angewiesen zu sein. Sieht man ja auch bei CB; die bekommen auch nicht immer alle Modelle einer neuen CPU die in den Tests drinn sind direkt von AMD/Intel.
Das Problem sind eher die Massen an kleinen Influencern/Youtubern die sich die Menge an Samples nicht leisten könnten.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz
DevPandi schrieb:
Du willst es hören? Gut!
Danke dir :) Da stimme ich dir zu 99,9% zu :)
Dennoch darf das alles mit den Preisen nicht die Regel werden
 
  • Gefällt mir
Reaktionen: TKessel
Laphonso schrieb:
Ich finde den 4070Ti Test und das Computerbase Fazit hier differenziert und kritisch, es gibt doch gar keine Kaufempfehlung.

Nur weil Computerbase den reaction Youtube Clickbait Titel Müll nicht mitmacht, sind sie „zurückhaltend“?
Findest du "zurückhaltend" jetzt irgendwie anstößig? Das war im Vergleich zu diversen anderen Reviews eher positiv gemeint.

Aber warum muss man immer peinlichst genau differenzieren? Wir erleben hier ein Abziehbild von Turing. Erfolgstrunken vom Crypto-Boom hat NVIDIA auch damals gedacht, sie könnten beliebig an der Preisschraube drehen. Die Bilanzen und Shareholder im Auge, der Kunde im Abseits. Dann kam der Crash.

Ich bin kein großer Freund der ganzen Influencer. Aber hier wiederholt sich Geschichte und wenn sich die reichweitenstarken Youtuber meinetwegen auch teils aus Eigeninteresse mal mit markigen Aussagen in den Dienst ihrer Community stellen, dann finde ich das völlig in Ordnung. Irgendwer muss ja mal klar und deutlich aussprechen, dass die 4080 12GB eine Kundenverarschung war und die 4070 Ti immer noch ein Money Grab ist.

Und ein anderer Aspekt kommt irgendwie zu kurz -> Marge.

Größere Karte = höhere Marge

Wenn NVIDIA bei der 4070 Ti 200 Euro Spielraum hat - und sie werden die Karten nicht mit Verlust verkaufen - dann darf man schon hinterfragen, wie viel Spielraum sie bei den größeren Modellen haben.

Die 4090 ist sicherlich ein eigenes Ding. Da hat NVIDIA erfolgreich die Early-Adopter gemolken. Angebot und Nachfrage. Ist ok.

Aber die 4080 war bisher ein Flop. Und so wie sie die 4070 Ti nun bepreisen, lässt sich vermuten, dass bei einer 4080 auch mindestens 200 Euro Spielraum wären. Vermutlich könnte NVIDIA die Karte problemlos für 1100 oder noch weniger anbieten. Aber was interessiert NVIDIA schon die Kundschaft?

Der Markt bedarf einer erheblichen Korrektur, so wie damals bei Turing. Die kann aber nur durch den Kunden erfolgen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gene Jackman, Benji18, Weltraumeule und eine weitere Person
Wie immer: Guter Test. Danke :)

Wolfgang schrieb:
... Falls sich wer wundert :)

@Wolfgang:
Leistungsaufnahme, Windows-Desktop: Ich vermute beim Verbrauch im Bereich "YouTube-Video" fehlt der Hinweis/Eintrag "Dual-Monitor, 2 × 3.840 × 2.160, 60 Hz:".

Test:
Wo ich nicht schlecht gestaunt habe: Anlaufdrehzahl 1100 Umdrehungen. Willkommen im Jahr 2023 Gigabyte. Aber vielleicht habe ich das auch nur falsch verstanden.

Gortha schrieb:
RT zum fairen Preis. (WQHD)

Raytracing sieht schön aus. Ist ansonsten uninteressant für mich.

Rechnet man mal den ganzen Fancy-Shmancy-Kram raus ist die aktuelle Generation der Grafikkarten bzw. die 4070ti (mehr oder weniger gehobene Mittelklasse-Grafikkarte) sogar noch uninteressanter als sie es ohnehin schon ist.

Eine GTX 4070? Schauen wir uns mal um: Auch im Jahr 2023 nirgends in Sicht.

Tommtomm schrieb:
Relativ zu den wahnsinnigen preisen aus den letzten 2 jahren erscheint sie 4070ti guenstig...

Du meinst wegen dem Cybercoin-Quatsch, den ganzen Scalpern (private wie nicht-private), der Gewinn-Gier und der ganzen Betrugsvermarktung sind die aktuellen Preise "günstig"? Gewagte These.
 
Zuletzt bearbeitet:
bL4ckfish schrieb:
3080TI? ist aber in der Regel schneller als eine 3090 o_O
4k Benchmarks, ganze 3% vor der 3080ti. Nochmal den Test hier lesen.

Aber ich bin mir sicher, du wirst diese 3% zu jeder Zeit in jedem Game bemerken.
 
Gortha schrieb:
Hammer Karte, sobald die unter 900€ier fällt, gehört mir eine.

Meiner Meinung nach das beste Produkt im 4000er Lineup. Auch AMD hat im 7000er Lineup nichts dagegen zu setzen.
Leistung einer 3090Ti in Raster und RT zum fairen Preis. (WQHD)
Du bezeichnest 900€ fair für Mittelklasse? Manche sind von der GPU Preistreiberei komplett indoktriniert. Kann ich mir nur an den Kopf packen.
 
  • Gefällt mir
Reaktionen: Gene Jackman, eXe777, McFritte und 9 andere
Rein auf die Leistung bezogen ist die Karte "okay", denn wenn man vor ein paar Wochen ca. 3090 Ti Rohleistung (<4K) für 899€ neu ab Werk bekommen hätte (wohlgemerkt hätte, mal sehen wo der Straßenpreis liegt), dann wäre der große Run ausgebrochen. Und das bei quasi halbiertem Verbrauch zur 3090 Ti.

Das Problem der Karte ist (für den 0815 User der Name "4070") und für denjenigen mit etwas Ahnung die 12GB VRAM Ausstattung. Mit 16GB würde man über die Karte zu diesem Preis ganz anders diskutieren und das macht NV leider ganz bewusst so. 12GB heute sind wie damals zur 3070 mit 8GB gerade ausreichend aber bei knapp 1k€ Invest will ich auch in 3 Jahren noch was damit anfangen können. Die 4K Benchmarks und die Abstände zeigen ja schon heute wo die Reise hingeht. Und wenn man dann sagt "ach komm dann die 4080", dann kann man auch gleich eine "günstige" 4090 nehmen. Verrückt...
 
MiniM3 schrieb:
beeindrucken auf 3090 niveau mit halb so viel verbrauch.
Man könnte auch sagen die Ampere war eine überzüchtete Saufkuh. :D
12GB weniger VRAM brauchen natürlich auch einige freie Elektronen weniger.
 
  • Gefällt mir
Reaktionen: MiniM3
Lars_SHG schrieb:
...nun das ist kein raten oder vermuten - einfach die von nVidia veröffentlichten Finanzdaten anschauen. Wir können da sehr leicht sehen, dass die Kosten gleich geblieben, teilweise sogar gefallen sind und die Einnahmen erheblich gestiegen sind, anhand der veröffentlichten Gewinne und das wird weiter ausgebaut!

Ähm, du hast meinen Post nicht ganz gelesen, oder? Ich habe doch gerade in den letzten Earnings Report (Q3/FY23) reingeschaut! -12% bei der Marge und sagenhafte -72% beim Nettoeinkommen. Die operativen Kosten sind erheblich gestiegen. Kannst mich gerne korrigieren, wenn ich hier was falsch sehe. Und ja, die Daten beziehen sich auf das Gesamtunternehmen. Die Daten nur für den Gamingbereich habe ich nicht gefunden. Allerdings ist der Gamingbereich immer noch der zweitstärkste bei Nvidia (nach dem Data Center).
 
  • Gefällt mir
Reaktionen: ThirdLife
ShiftC schrieb:
Hardware MUSS günstiger werden ODER besser sein bei gleichem Preis (inflationsbereinigt).
Alles andere ist nichts weiter als Bullshit.

Abgesehen, dass deine Begründung mit der 2070 nicht sehr stichhaltig ist, da passend zur der jeweiligen wirtschaftlichen Lage das Ganze gesehen werden muss, erkenne ich eher eine sukzessive Preissteigerung seit Jahren.

Die Aussage, dass HW günstiger werden muss, mutet auch eher wie ein Wunschdenken an.

Man sollte sich immer die Frage stellen gibt es wirklich ein "müssen" für den Hersteller (das ist etwas anderes als ein Willen der Nutzer) oder verfolgt Nvidia einen konkreten Plan damit?

Ich spinne das Rad mal weiter und behaupte, dass Nvidia mit Geforce Now ein Alleinstellungsmerkmal hat, was preislich, wie eine andere News dalegt, immer attraktiver wird.
Wenn es Nvidia schafft hier die Käufer hin zu lenken, entsteht ihnen ein massiver Vorteil, da sie nicht auf Boardpartner angewiesen sind, AMD nichts vergleichbares hat und dem Kunden ein billiger Vorteil als langfristige Bindung verkauft wird.

Da mache ich mir viel mehr Sorgen als die hypothetischen Preissteigerungen, denn nebst den Konsolen gebe es dann keine Möglichkeit mehr ohne Abo-Modell seinem Hobby nachzugehen.

Das Beispiel macht ja gerade bei Kinos seit längerem die Runde (On Demand).
 
  • Gefällt mir
Reaktionen: Azzkickr
ChrissKrass schrieb:
Kann jemand mal 2 Jahre Vorspulen…. Vielleicht gibt es dann wieder vernünftige Grakapreise
In 2 Jahren ist die 4070Ti dann halt auch fast schon wieder Altsilizium, überspitzt gesagt.
Aber der Preis dafür wird dann möglicherweise auf einem vernünftigen Niveau sein.
 
MiniM3 schrieb:
beeindrucken auf 3090 niveau mit halb so viel verbrauch.
die frage ist ob der preis über dem von 3090 geht oder ob der preis vom 3090 runter geht

bzw die frage ist doppelt so viel ram oder doppelte effizienz..ich bin aktuell eher für effizienz
Frage beantwortet? 😂
 

Anhänge

  • 6357F07E-AAAE-4342-B9C7-4A82E82517E8.jpeg
    6357F07E-AAAE-4342-B9C7-4A82E82517E8.jpeg
    968,8 KB · Aufrufe: 213
  • Gefällt mir
Reaktionen: MiniM3, gustlegga und .Ake
Lars_SHG schrieb:
Bei all diesen Dingen verstehe ich aber absolut gar nicht, warum AMD hier AUCH die großen Grafikarten heraus gebracht hat anstelle der "Brot & Butter" Karten? So wie ich die Nachrichten von TSMC verstanden habe, können derzeit die hergestellten Wafer gar nicht absetzen und beide Grafikkarten Hersteller wollen sie wohl auch nicht verkaufen - trotz der wartenden Käuferschaft und der seit Jahren überhöhten Preisen.
Wenn das keine Absprache ist, dann weiß ich auch nicht was es sonst ist. Von den riesigen Lagerbeständen von denen einige sprechen, glaube ich heute nicht mehr.
Wann hatten wir denn mal eine alte Generation die im Abverkauf mehr im Laden kostet als UVP?
Selbstverständlich sind das alles absprachen. Man sollte nicht so dumm sein etwas anderes zu glauben. Nvidia hatte es doch selbst öffentlich kundgetan das sie die "Marktsituation korrigieren" werden.

Deswegen bleiben alle Grafikkarten teuer, vor allem die RTX 3000er. Hier wird alles getan was möglich ist um sich weiterhin Dumm und dämlich zu verdienen. Künstliche Verknappung. Niemals würden sonst die Vorgänger so teuer bleiben. Das gabs nie.
Wer was anderes denkt ist einfach nur Naiv.
 
  • Gefällt mir
Reaktionen: Czk666
Zurück
Oben