News GeForce RTX 4090 und 4080: Wie geht die Rechnung von Ada Lovelace für Nvidia aus?

Laphonso schrieb:
Das Jammern hier und die Realität sind halt doch ein mismatch.
Wundert es dich? Ein großer Teil der Foristen sind sowieso nur zum Jammern hier, da könnte es goldene Schlösser für 1€ geben und sie würden jammern, dass die nicht frei Haus geliefert werden. Werfe dazu noch einen Haufen AMD Fanboys, die grundsätzlich alles was nicht von ihrer Lieblingsfirma kommt bejammern, garniere es noch mit den "gestrigen", die von Inflation und Wechselkursen nichts wissen wollen und am liebsten noch in Mark rechnen würden, kröne das ganze "technikblinden", die der Meinung sind es wird ewig alles schneller größer und billiger werden. Dann hast du ungefähr den "Forumsschnitt".

Diejenigen die das Geld und das Interesse an der Technik haben, kaufen einfach und posaunen es hier nicht rum. Was sollen die denn auch sagen? Niemand muss seinen Kauf rechtfertigen und das Gejammere ist doch schon seit Jahren hier gleich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maggolos, .Sentinel., Darkscream und 4 andere
MD84 schrieb:
Indem der Einstieg bei dem 4000 er verteuert wird, versucht Nvidia die Preise der 3000 er noch hochzuhalten. Dieser Move ist einfach so offensichtlich das hat und nicht nur mit Gestiegenen kosten zu tun.
Nvidia hat gesehen, was die Leute zahlen, und nun versuchen sie eben das Selbst von vorne rein so zu bepreisen.

Vermutlich ist das tatsächlich die Logik hinter NVIDIAs Strategie. Das hat nur einen kleinen Haken. Wenn NVIDIA und die AIB-Partner nun schon seit Monaten auf historisch hohen Lagerbeständen sitzen und die Karten trotz kleckerweiser Preissenkungen nicht abverkauft bekommen, zeigt das doch irgendwie, dass bei diesem Preisniveau die Kaufbereitschaft abseits von Minern verschwindend gering ist.

Aber anscheinend, so zumindest von einigen Tech-Journalisten gemutmaßt, hat NVIDIA Lovelace in einer Phase designed bzw. finalisiert, wo sie noch davon ausgingen, dass sie dieses Preisniveau aufrufen können. Denn Miner bezahlen alles, so lange es rentabel ist. Und Minern ist auch der absolute Stromverbrauch egal, so lange die Energieeffizienz passt. Aber NVIDIA hat natürlich nie Miner im Blick, alles nur für Gamer. ;)

Nur hat sich der Markt dramatisch geändert. Und das, was NVIDIA mal angenommen hat, passt nun überhaupt nicht mehr zur aktuellen Lage.
 
  • Gefällt mir
Reaktionen: ArrakisSand
Für die letzten beiden Fragen finde ich den Zeitpunkt noch zu früh, um diese korrekt antworten zu können. Ob Nvidia mit diesen Preisen Erfolg haben wird hängt ganz allein von AMD ab. Und ob ich eine 40er Karte kaufen will hängt noch von den unabhängigen Tests ab.
 
Falke85 schrieb:
Ob Nvidia mit diesen Preisen Erfolg haben wird hängt ganz allein von AMD ab.

Ich würde mal sagen, dass es eher von der Tiefe deines Geldbeutels abhängt. Wenn viele Haushalte an ihre Belastungsgrenzen kommen oder schon drüber hinaus sind, dann ist wohl völlig egal, wie die Preise bei NVIDIA ausschauen oder ob AMD sie unterbieten wird. Dann hast du beim Geldausgeben oder Geldzusammenhalten einfach andere Prioritäten.
 
Unterm Strich bin ich mal auf die ganzen Tests gespannt. Was ich mich eher frage ist was Nvidia noch für Folgemodelle bringt...Selbst die 4090 ist sehr weit vom Vollausbau entfernt und da ist soviel Platz zur 80er...Bin super neugierig aber warte diesmal mindestens bis ins nächste Jahr wenn alle Karten sowohl von AMD als auch Nvidia auf dem Tisch liegen.
 
Zuletzt bearbeitet:
Finde Artikel mit solchen Umfragen sehr gut, danke und weiter so.
 
  • Gefällt mir
Reaktionen: Laphonso
xexex schrieb:
und kröne das ganze "technikblinden", die der Meinung sind es wird ewig alles schneller größer und billiger werden.
Exakt.
Wir können uns bei Nvidia bedanken, dass AMD bei Raytracing und einer Antwort auf DLSS liefern musste.

Dass der Technologieführer und Marktanteilsführer und Feature Pioneer teurer ist, liegt in der Natur der Sache.

Siehe Apple.

Offensichtlich kaufen viele eben dann doch das beste Paket aus Technik, Frames, Features und Drumherum.
Nicht nach Preis-Leisutng.

Wäre das anders, hätte AMD 70% Marktanteil.

Damit Nvidia weiter abliefert, brauchen wir aber wiederum einen starken RDNA 3 Auftritt. So leicht wie jetzt hatte es AMD bei den GPUs noch nie.
Bin sehr gespannt auf die AMD 7000er Flotte.
Ergänzung ()

TobiD79 schrieb:
Unterm Strich bin ich mal auf die ganzen Tests gespannt. Was ich mich eher frage ist was Nvidia noch für Folgemodelle bringt...
Nahe liegen eine 4090TI und eine 4080TI. Letztere wird dann bei so 1499 Euro landen.
Under der "4080"-12 kommen dann vielleich die 4070 und 4070 TI sowieso die 4060 und 4060Ti, sobald die 3060, 3070 und 3080 BEstände soweit abverkauft sind.
Ergänzung ()

Visualist schrieb:
Man sieht auf jeden Fall, das Igor hier fleißig mitliest und einiges aus unseren Diskussionen - mit seinen Worten - übernimmt :D
 
Zuletzt bearbeitet:
Laphonso schrieb:
Anhang anzeigen 1264082

Grundgesamtheit 2683.

Wir sprechen also von über 330 Interessenten für 4090? WTF 😂 Ich dachte echt wir wären nur 5. ODer 10.
Spannend wieviele hier "still" einfach ein anderes Bild abgeben als das, was wir im Forum sehen.

Das Jammern hier und die Realität sind halt doch ein mismatch.
Technik Forum das ist ganz normal.
Als ich in Toronto im Air Canada Centre waren.... waren, oh Wunder, fast nur Maple Leafs Fans da 😉.

Ach @Laphonso in der nachfolgenden Umfrage, 2700 Teilnehmer/innen, haben nur 8% dem Kauf einer 40xx zugestimmt... also das passt ja nicht ganz was 🙃.
 
Zuletzt bearbeitet:
Nachdem Nvidia bei den Ampere Grafikkarten gesehen hat, das Ihnen diese von den Kunden selbst zu absurden Preisen durch Lieferengpässe, Scalper und Mining förmlich aus den Händen gerissen wurden, war klar das die Nachfolgende Generation im Preis steigen würde.

Wer allerdings glaubt, das AMD seine neue Grafikkartengeneration zu deutlich günstigeren Preisen anbieten wird, hat den Markt noch nicht verstanden. Das hat man schon bei der letzten Grafikkartengeneration gegen Ampere gesehen, mit annähernder gleicher Leistung werden auch annähernd gleiche Preise aufgerufen. Warum sollte auch hier AMD seine Grafikkarten verramschen, bei ähnlichen oder gleichem Leistungsniveau.

Was allerdings beiden großen Herstellern von Grafikkarten die Suppe deutlich versalzen könnte, ist die Rezession, die immer bedrohlichere Ausmaße annimmt und mittlerweile alle Lebensbereiche der Menschen betrifft und verteuert. Und es kann gut sein das im ersten Quartal des nächsten Jahres die Preise deutlich nach unten angepasst werden müssen, wenn ein großteil der Bevölkerung Ihre ersten Nachzahlung der Strom und Gasrechnungen erhalten haben.
 
  • Gefällt mir
Reaktionen: Laphonso und PHuV
ThePlayer schrieb:
Du kannst mir auch nicht erzählen das die Kosten in den letzten zwei Jahren so stark gestiegen sind.
Man nimmt jedenfalls an, dass sich der Preis pro Wafer für Nvidia beim Sprung von Samsung 8nm auf TSMC 4nm fast verdreifacht hat. Eine solche Situation hat es bisher noch nicht gegeben.
 
fox40phil schrieb:
Bzw. die Entwickler es meistens nicht hinbekommen ihre Games zu optimieren! Und man muss es schon immer mit teurerer Hardware ausgleichen (Oder man lässt es^^)

Oder man kann Regler bedienen.

Viele „problematische“ games verhalten sich nur bei maximalen Details so.
Das ist auch nichts ungewöhnliches. Es hat immer wieder Games gegeben, die bei Ultra Settings quasi überproportional viele FPS verlieren, weil die Engine den Effekt oft nicht mehr effizient berechnen kann oder weil irgendwelche in der Engine gesetzten Buffer überlaufen.

Man ist bei solchen Spielen immer gut beraten, solche Settings zu identifizieren und entsprechend handzuhaben. Noch heute würde ich z.B. bei GTA V das Graß nicht auf Maximum stellen und die Sichtweite in den erweiterten Einstellungen nicht maximieren.
Die Engine läuft damit einfach nicht rund Und die FPS skalieren nicht richtig mit aktueller Hardware.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil
Laphonso schrieb:
Dass der Technologieführer und Marktanteilsführer und Feature Pioneer teurer ist, liegt in der Natur der Sache.
Das war allerdings nicht der Kerne meiner Aussage an dieser Stelle. Das ewige Wettrennen zu immer kleineren Chips neigt sich schlichtweg dem Ende, auch wenn manche scheinbar glauben es wird hier ewig noch Fortschritte geben.

Seit einigen Jahren erkauft man sich jeden Shrink nur noch mit exponentiell wachsenden Kosten und kann dabei noch nicht einmal mehr den Leistungsvorteil mit einer gesenkten Leistungsaufnahme entgegen wirken. Das wird nicht von heute auf morgen passieren, aber letzten Endes wird sich früher oder später solche Monster niemand mehr im Privathaushalt leisten können und die zukünftigen Multichip Leistungsmonster landen dann bestenfalls nur noch in dicken Serverfarmen.

Dies wollen nur viele scheinbar heute noch nicht wahr haben und glauben noch 2030 oder gar 2040 wird es dann brav alle zwei Jahre neue GPUs und noch schnellere CPUs geben, den Zenith hat diese Technologie aber schon vor einigen Jahren überschritten, was wir hier sehen sind noch die letzten Zuckungen.

PCs die irgendwann nur noch mit Wasser gekühlt werden können und einen 400V Anschluss zur Stromversorgung brauchen, sind kein Fortschritt mehr sondern Spezialwerkzeuge, wie es sie vor 30 Jahren schon gab. Die Entwicklung geht nun letztlich genau dort wieder hin, weil man die Dinge heute zwar noch kleiner machen kann, aber schon lange an andere Stellen an physikalische Grenzen gestoßen ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maggolos, .Sentinel. und Laphonso
Zotac2012 schrieb:
Wer allerdings glaubt, das AMD seine neue Grafikkartengeneration zu deutlich günstigeren Preisen anbieten wird, hat den Markt noch nicht verstanden. Das hat man schon bei der letzten Grafikkartengeneration gegen Ampere gesehen, mit annähernder gleicher Leistung werden auch annähernd gleiche Preise aufgerufen. Warum sollte auch hier AMD seine Grafikkarten verramschen, bei ähnlichen oder gleichem Leistungsniveau.
AMD kann schlicht und ergreifend nicht die Stückzahlen liefern wie NVIDIA. Mit begrenzten Fertigungskapazitäten macht es einfach keinen Sinn, seine Grafikkarten zu verschenken, wenn du im Prinzip alles verkauft bekommst.

Aber wenn AMD Marktanteile gewinnen will, werden sie ihre Strategie anpassen müssen.
 
  • Gefällt mir
Reaktionen: PHuV und Apocalypse
  • Gefällt mir
Reaktionen: Visualist
Nolag schrieb:
Man nimmt jedenfalls an, dass sich der Preis pro Wafer für Nvidia beim Sprung von Samsung 8nm auf TSMC 4nm fast verdreifacht hat. Eine solche Situation hat es bisher noch nicht gegeben.

Es weiß natürlich niemand, wie NVIDIAs Verträge mit Micron oder TSMC ausschauen. Vor allem die langfristige Perspektive, Konditionen wie Preise oder Abnahmemengen etc.

Aber so wie NVIDIA leidet auch die restliche Branche unter den aktuellen Problemen. D.h. Nachfrageeinbruch und das Inventory schießt überall ganz massiv in die Höhe.

Die kurzfristigen Spot-Markt-Preise für viele Bauteile kennen deshalb seit einer Weile nur eine Richtung -> nach unten.
 
Cleric schrieb:
AMD kann schlicht und ergreifend nicht die Stückzahlen liefern wie NVIDIA. Mit begrenzten Fertigungskapazitäten macht es einfach keinen Sinn, seine Grafikkarten zu verschenken, wenn du im Prinzip alles verkauft bekommst.

Aber wenn AMD Marktanteile gewinnen will, werden sie ihre Strategie anpassen müssen.
Woher weisst du, wie viele Chips Nvidia und AMD von TSMC bekomnen? Die 4xxx werden nicht von Samsung hergestellt! Ich vermute, sollte Nvidia mehr Chips als AMD bekomnen, dann nicht sehr viel mehr?!
 
Nolag schrieb:
Man nimmt jedenfalls an, dass sich der Preis pro Wafer für Nvidia beim Sprung von Samsung 8nm auf TSMC 4nm fast verdreifacht hat. Eine solche Situation hat es bisher noch nicht gegeben.
Tja wenn das stimmt dann ist das echt blöd für Nvidia. Aber die Grafikkarte besteht nicht nur aus der GPU. Ich kenne die Preise nicht die Nvidia pro GPU bei 50k oder 100k Abnahme verlangt. Aber die werden wohl deutlich weniger als 50% des Grafikkarten Preises betragen. Ich würde ja Mal auf etwas um die 100 Euro tippen.
Das wäre ja wirklich Mal für AMD die Chance hier über den Preis richtig Anteile zu holen. Und trotzdem noch eine gute Marge zu haben. Bin gespannt was AMD mit RDNA3 liefert und was sie dafür verlangen.
 
Syrato schrieb:
Woher weisst du, wie viele Chips Nvidia und AMD von TSMC bekomnen? Die 4xxx werden nicht von Samsung hergestellt! Ich vermute, sollte Nvidia mehr Chips als AMD bekomnen, dann nicht sehr viel mehr?!
NVIDIA ist seit langer, langer Zeit TSMC-Partner. Auch mit dem Ausflug zu Samsung sind Produkte bei TSMC geblieben. Und NVIDIA hat schon seit Jahren ~80% Marktanteil. Auch schon vor dem Samsung-Abstecher. Also kannst du gerne eine Rechnung aufmachen. ;)

Für 2021 gab es eine Umsatzschätzung der größten TSMC-Partner. AMD machte da einen Anteil von 4.36% an TSMCs Umsatz aus, NVIDIA 2.83%. Da war NVIDIA aber auch noch bei Samsung. Und Grafikkarten sind bei AMD bekanntlich eine vergleichsweise kleine Nummer.

Und für den Wechsel von Samsung zu TSMC hat NVIDIA letztes Jahr sogar noch Kapazitäten zugebucht, um sich einen großen Teil der 5nm-Produktion zu sichern. 9 Milliarden US-Dollar standen im Raum.

Ohne es natürlich konkret zu wissen, würde ich schätzen, dass NVIDIA für seine Grafikkarten um einiges Mehr an Fertigungskapazitäten zur Verfügung hat als AMD.
 
  • Gefällt mir
Reaktionen: RogueSix
Zurück
Oben