News Nvidia Gaming Ampere: Angeblicher Kühler der GeForce RTX 3080 fotografiert

Knuddelbearli schrieb:
Die Verbrauchswerte und die Existenz der 3090 klingen danach das entweder

a.) AMD NV wieder dicht im Nacken sitzt

Auch wenn ich mir das wünschen würde - habe schon immer ein Herz für den underdog - befürchte ich aber anderes. NV haut ein wirkliches Monster raus. Ich denke nicht das NV verlernt hat wie man effizient eine GPU ins Silizium ätzt...
Ich glaube mit 350 Watt wird die übelst FPS erzeugen.... Na ja wenn das der Kühler wird - und der 150 Tacken kostet dann hab ich eine Hoffnung - dann sind >1000 Tacken für die KomplettGPU ja an sich gesetzt... NV will ja auch was verdienen...
Das lässt für AMD hoffen.
 
  • Gefällt mir
Reaktionen: Transistor 22
Tommy Hewitt schrieb:
Angeblich nicht weniger, wenn nicht sogar noch mehr.

Wenns eine "doppelte" 5700 XT wird, ist das ja eingrenzbar.
 
150 $ Kosten allein für Gehäuse+Kühler ist ne Hausnummer - da schwant mir Böses bei den Preisen der FEs und Budget-Partnerdesigns werden bei Lautstärke/Temperatur wohl auch keine gute Figur machen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon
domian schrieb:
Wenns eine "doppelte" 5700 XT wird, ist das ja eingrenzbar.

Jo, die 5700XT war für 7nm schon nicht sonderlich sparsam. Die jetzt doppelt + die gerüchteten Effizienzverbesserungen, liegt man min. auf Nvidia-Niveau.

Revan1710 schrieb:
150 € Kosten allein für den Kühler ist ne Hausnummer

Nvidia zahlt da nie und nimmer 150$. Das mag Endkundenpreis sein, aber nicht die Kosten in der Produktion.
 
  • Gefällt mir
Reaktionen: Transistor 22, Kazuja und Cpt.Willard
Mutmaßlich schon sehr detaillierte Informationen gibt es zum Speicher- und dem Speicherinterface. So sollen alle drei Modelle über „GDDR6X“-Speicher verfügen, der höher taktet als bisheriger GDDR6-Speicher. GDDR6X ist bisher nicht offiziell spezifiziert. Vielleicht handelt es sich auch um klassischen GDDR6-Speicher, der aufgrund erhöhter Taktraten einen neuen Namen erhalten hat.
Gibt nvidia beim Speicher mal wieder mehr an als dann wirklich geliefert wird?

Der Unterschied zwischen GGDR5 und GDDR5X war ja nicht nur ein größerer Takt, sondern auch ein verdoppelter Prefetch von 8n auf 16n.

Aber mal gucken was dann schlußendlich kommt.
 
Herstellungskosten für den Lüfter in Höhe von 150 Dollar? Wer soll das bitte glauben? Das würde bedeuten, Verkaufspreis locker 300 Eur nur für den Lüfter? Also wären die Preise der Karten wohl eher weiterhin sehr hoch anzusiedeln. Und was soll an dem Plastikteil bitte 150 Eur kosten? Ist der handgeknüppelt oder was? Das stellen sie doch in China, für ein paar Euro her. Das teuerste ist da noch das Material für den Kühlkörper.

Zumal ich auch nicht ganz nachvollziehen kann, wozu das Ganze? Es steht doch ein Shrink bevor!? Eigentlich müsste man doch davon ausgehen, dass die Karten deutlich sparsamer und kühler sind, so wie eigentlich auch mal spekuliert wurde (Stichwort "50% geringerer Stromverbrauch"). Wozu dann so ein überteuertes Kühlermonster? Irgendwie passt das nicht zusammen. Oder es bahnt sich ein Flop auf Seiten Nvidias an, was nach der Entwicklungszeit mehr als peinlich wäre. Oder der Leistungssprung fällt doch größer aus, als bislang vermutet wurde.
 
  • Gefällt mir
Reaktionen: Transistor 22, Smartbomb, Cpt.Willard und 3 andere
Tommy Hewitt schrieb:
Nvidia zahlt da nie und nimmer 150$. Das mag Endkundenpreis sein, aber nicht die Kosten in der Produktion.
Da behaupten die Quellen von Igor Wassolek aber was anderes
 
@Tommy Hewitt

Könnte mir auch vorstellen, dass der Produltionspreis aktuell für wenige Stücke zum Testen etc. so hoch ist. Sobald dann die Volumenproduktion anläuft, sinkt der Preis
 
  • Gefällt mir
Reaktionen: Transistor 22
Tommy Hewitt schrieb:
Nvidia zahlt da nie und nimmer 150$. Das mag Endkundenpreis sein, aber nicht die Kosten in der Produktion
Hier ist klar von Herstellungskosten die Rede, Igor hat hier wohl die Bauteile analysiert und demnach eine Schätzung abgegeben - es gibt ja überhaupt keinen expliziten Endkundenpreis für den Kühler
 
Das Ding kostet in der Herstellung nie im Leben 150 Kröten. Der Hersteller hat das womöglich für die erste Kleinserie genommen.
 
  • Gefällt mir
Reaktionen: Transistor 22 und jemandanders
Ich kann mir nicht vorstellen, dass das Topmodell bzw. die 3080Ti 350W Leistung hat. Die Effizenz wäre besonders im Hinblick auf den 7nm Fertigungprozess katastrophal. Eine Leistungssteigerung Ggü. dem Vorgänger von 100W halte ich für übertrieben. 250W wie die aktuelle Generation sind m.M.n. realistisch.
 
Zuletzt bearbeitet:
Tommy Hewitt schrieb:
Jo, die 5700XT war für 7nm schon nicht sonderlich sparsam.

Das lag aber imho am Taktverhalten. Die 5700 an sich war super-effizient. Der doppelte Chip plus Detailverbesserungen könnte hier recht sparsam für die Leistung sein. Meine Vermutung ist aber, dass sowohl Nvidia als auch AMD die Chips bis ans Limit des Vertretbaren bringen, um bei Benchmarks nicht unerwartet ins Hintertreffen zu geraten.
 
  • Gefällt mir
Reaktionen: Transistor 22 und Smartbomb
Mein Limit ist der Preis der 2080Ti be release, ich hoffe dass die 3080Ti ähnlich liegen wird. Eine RTX 3090, Titan oder was auch immer für um die 2000+, das ist dann schon ne andere Welt. Finde ja eh schon 1200€ krass für ne GPU wenn man bedenkt dass die 1080Ti 820€ gekostet hat bei launch. Aber gut, die hatte halt auch keine Tensor und RT Cores. Sagen wir mal der Preisanstieg wird mit dieser ganzen RT Sache gerechtfertigt. Daher sollte die 3080Ti genauso im Preis liegen wie die 2080Ti.
 
Botcruscher schrieb:
Das Ding kostet in der Herstellung nie im Leben 150 Kröten
Finde das garanicht so abwegig, wenn wir hier von einer ~350 W Karte sprechen. Mit einer 0815-Lösung wirst du das nicht leise/kühl bekommen, zudem wird Nvidia wohl weiterhin ordentliche FEs abliefern wollen.

Wär ja auch nichts neues, wenn die FE ein gutes Stück über dem UVP liegt.
 
Smartin schrieb:
Zumal ich auch nicht ganz nachvollziehen kann, wozu das Ganze? Es steht doch ein Shrink bevor!? Eigentlich müsste man doch davon ausgehen, dass die Karten deutlich sparsamer und kühler sind, so wie eigentlich auch mal spekuliert wurde (Stichwort "50% geringerer Stromverbrauch"). Wozu dann so ein überteuertes Kühlermonster? Irgendwie passt das nicht zusammen. Oder es bahnt sich ein Flop auf Seiten Nvidias an, was nach der Entwicklungszeit mehr als peinlich wäre. Oder der Leistungssprung fällt doch größer aus, als bislang vermutet wurde.

Ist doch logisch und war meist so. Natürlich verbessert sich durch den shrink die Leistungsaufnahme, aber du möchtest doch auch deutlich mehr Leistung bei einer neuen Generation...
 
th3o schrieb:
Finde ja eh schon 1200€ krass für ne GPU wenn man bedenkt dass die 1080Ti 820€ gekostet hat bei launch.

Vorallem wenn man sicher überlegt, dass die erste Titan als extrem teuer galt mit ihren 1000€ UVP :D
 
  • Gefällt mir
Reaktionen: Smartbomb, v3locite, fox40phil und 4 andere
Cruentatus schrieb:
Nvidia hatte bisher deutlich die Leistungskrone und geht jetzt also erstmals auf 7nm - mit diesem neuen Prozess sollte es möglich sein die Chipfläche zu verkleinern und dabei mehr Grafik-Power zu erreichen bei etwa gleich bleibender Leistungsaufnahme.

Also die Frage warum macht Nvidia das? Das passt nicht so Recht zu ihrer Strategie der Gewinnmaximierung. Ein großer Chip in 7nm dürfte sehr teuer werden. Und es birgt das Risiko sich den Ruf zu versauen weil die Teile laut und heiß werden.

Die einzige Schlussfolgerung die mir aktuell einfällt: Nvidia weiß das AMD ein echtes Leistungsmonster bringen wird und setzt direkt die Brechstange ein um vorn zu bleiben.

Die einzig logische Grund warum NV so grosse Chips in einer neuen Fertigung bringt und sich damit die
Ausbeute und die Marge runieren, ist das sie wissen was von AMD kommt.
Auch gehen sie mit der TDP an die Grenzen also evtl müssen sie mit der Brechstange ran.

Heisst für mich, durch RDNA2 gibts von Rot gewaltig aufs grüne Fressbrett!
Gut so!
Immer feste druff ist optimal für den Kunden.
 
  • Gefällt mir
Reaktionen: Mr. Rift, hurcos, cmok und 7 andere
Hylou schrieb:
Vorallem wenn man sicher überlegt, dass die erste Titan als extrem teuer galt mit ihren 1000€ UVP :D

Wenn ich mir die Preisentwicklung im Serverbereich bei HP in den letzten 5 Jahren anschaue und wie sich die Proliant Modelle entwickelt haben, ist das alles noch human
 
Zurück
Oben