News Nvidia: Riesiger Kühler der GeForce RTX 3090 FE fotografiert

Ich sage es nochmal. Hier wird so getan, als müsste man sich eine 3090 holen und als hätte jeder den Anspruch darauf.

Das ist einfach nicht der Fall. Jeder kann sich das holen, was zu seinem Budget passt. Es geht auch nicht darum, ob man genug Geld hat oder nicht. Entweder man hat es und ist nicht bereit es auszugeben, oder man hat es eben nicht und kann sich dementsprechend eine kleinere Karte holen.

Ich hätte auch gerne folgendes Fahrzeug (welches übrigens auch immer teurer wird):

https://www.porsche.com/germany/models/911/911-turbo-models/911-turbo-s/

Kann ich mir das leisten? Nein.... fahre ich deshalb einen? Nein....

Habe ich ein kleineres und langsameres Fahrzeug? Ja...

Hätte ich gerne einen? Ja...

---

Soll ich jetzt gegen Porsche haten und gegen alle die einen fahren, weil ich es mir nicht leisten kann?

Vielleicht reicht es irgendwann mal für einen Cayman...

---

Und nein, ich finde es auch nicht gut, dass immer alles teurer wird, aber den Obolus muss man einfach in Kauf nehmen. Die Karten sind absolutes Highend und für Highend bezahlt man immer mehr. Dies gilt auch für Mechanische Uhren. Du kannst Dir eine Einsteiger Seiko (Automatik) holen, die für 250€ richtig preiswert ist und ein super Preis/Leistungsverhältnis hat. Oder Du holst Dir für 7000€ eine Grand Seiko, welche einfach nur hervorragend ist. Für 100.000€ + bekommst Du dann auch was von A.Lange&Söhne, oder AP, oder von wem auch immer.

Ist eine 100.000€ Uhr nun so viel besser als eine 250€ Uhr? Das liegt immer im Auge des Betrachters und den Details.

Wird eine 3090 so viel besser als eine 3060 sein? Also, wovon reden wir hier?
 
  • Gefällt mir
Reaktionen: Hardwarious, 50/50, .Sentinel. und 7 andere
Nvidia will halt nochmal richtig abgreifen. Verständlich, dass wird wahrscheinlich die letzte Grafikkartengeneration sein die noch in Massen verkauft wird bevor Streaming aus der Cloud sich durchsetzt.
 
  • Gefällt mir
Reaktionen: Irgendjemand123
MiniM3 schrieb:
Also ich habe das Lineal an den Bildschirm gehalten und beide haben die gleiche Länge
Dann “geht dein Linear falsch“ oder einfach falsch gemessen?
Messe nochmal (nur das Slotblech)... ;)
1598135446165.jpeg



btw:
Da wird die 3090 aber ganz schön heiße Luft kotzen und wahrscheinlich gerade mal 60fps schaffen :D
(ab 14:55)
 
Zuletzt bearbeitet:
Naja die neuen Karten sind mir mittlerweile relativ egal. Viel zu teuer. Ich behalte vorerst meine GTX1060 6gb und rüste vielleicht irgendwann auf ne gebrauchte GTX1080 auf. Das einzige Spiel auf das ich mich zur Zeit freue ist der Nachfolger von ,,The Witcher 3''. Bis der kommt dauerts ja eh noch ein paar Jährchen. Haben ja mit der Entwicklung noch nicht mal richtig angefangen bis jetzt wegen CP2077.
 
orlof schrieb:
AMD wird auch maximal zugreifen, sobald es ihre Position am Markt erlaubt.

Nö, das hat AMD nie getan, auch nicht als sie vorne waren.

Ein 3950X ist auch Konkurrenzlos im Desktop Segment, hat aber wie ich finde noch einen fairen Preis.
Bei den Threadrippern im HEDT Segment das selbe.
Bei EPYC auch, aber in diesem Segment braucht man Marktanteile.
Dort denke ich das man mit niedrigen Preisen einen Fuß in die Tür bringen will.

xexex schrieb:
Der "Sweetspot" bei der IC Fertigung ist schon längst überschritten, nicht ohne Grund sind die meisten Fertiger aus diesem "Rennen" bereits ausgestiegen und fertigen in Prozessen die bezahlbar und für die Anforderungen vollkommen ausreichend sind.

Was meinst Du mit "Sweetspot bei der IC Fertigung" ?
Ich denke nicht das es so etwas gibt.

Warum sollte ein Fertiger aus einem Rennen aussteigen?
Die nehmen nur Aufträge die sie bekommen.
Wenn sie keine mehr bekommen, gehen sie Pleite.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Irgendjemand123
Laphonso schrieb:
Was konnte die 580? Full HD, damals fix. Sonst nix.

Was kann die 3090:

Eine 3090 wird ~ 700 % (eine 2080 ist schon 4-6 schneller, limitiert durch die Engine caps ) schneller sein im 1:1 fps Vergleich als eine 580, liefert das 15 fache and VRAM, bietet 8 mal mehr Shader, dazu Tensor Cores für RT und DL und AI Features, G-Sync und ist 4K tauglich mit den dann wohl max benchmark fps der aktuellen Gamer GPUs.

Das heutige High End kann viel mehr bei AMD und Nvidia als 2010, es steckeh ja nicht nur “mehr Chips” drin.
High End Smartphones kosten auch mehr als die Top Handys 1998.


Ja und? und trotzdem sollte es im bezahlbarem rahmen bleiben sonst ist der Käuferkreis sehr eng.
 
Wenn sie bis zur 3050 runter alles vorstellen ist für jeden was dabei. Dann kommt noch AMD hinzu und kleiner braucht mehr bezahlen als er will :)
 
SirSilent schrieb:
Nvidia will halt nochmal richtig abgreifen. Verständlich, dass wird wahrscheinlich die letzte Grafikkartengeneration sein die noch in Massen verkauft wird bevor Streaming aus der Cloud sich durchsetzt.
ich glaube reines game-streaming , dass sich breit durchsetzen kann, attraktiv daherkommt und technisch die spitze bildet - das dauert dann doch noch einige jahre; falls es sich überhaupt so wie herbeiprognostiziert durchsetzen kann!
Ergänzung ()

eines frage ich mich - wenn man wirklich von diesen leistungsaufnahmen ausgehen kann, die ja offenbar ein gutes stück über denen der turing's liegen - was für einen riesigen sprung muss doch die performance machen, damit das halbwegs akzeptabel bleibt? 40% mehr leistung bei 30% mehr verbrauch, wäre jetzt nicht so der burner....
 
  • Gefällt mir
Reaktionen: Laphonso
IBISXI schrieb:
Warum sollte ein Fertiger aus einem Rennen aussteigen?

Weil die Kosten nicht mehr zu bewältigen sind. Eine Fab kostet heutzutage wieviel? 10 Mrd? Wie viele Unternehmen können und wollen diese Ausgaben überhaupt noch stemmen? Für welche Art von Chips sind solche Strukturen überhaupt noch sinnvoll? Wie lassen sich die Kosten überhaupt wieder reinholen?

Die von mir verlinkte Liste zeigt es ziemlich gut, übern Daumen gepeilt gibt es knapp 50 Fertiger, aber gerade einmal drei gehen aktuell überhaupt die EUV Fertigung an und auch die wird in 10-15 Jahren am Ende sein. Der Prozess hat nun mal ein Ablaufdatum und bald ist dann auch der Punkt erreicht wo sich solche Komponenten auch in den teuersten Geräten nicht mehr lohnen.

IBISXI schrieb:
Was meinst Du mit "Sweetspot bei der IC Fertigung" ?

Der Sweetspot war erreicht, als man mit einem Schrink noch relevant den Takt steigern und die Produktionskosten senken konnte. Heutzutage lässt sich zwar noch immer die Fertigungsdichte steigern, die Kosten dafür steigen aber bereits exponentiell an.

Im Umkehrschluss bedeutet es letztlich, dass sich solche Verkleinerung nur noch dann lohnt, wenn man die Verkaufspreise für das Endprodukt erhöhen kann und sich dadurch noch anderweitig Vorteile ergeben, wie zum Beispiel niedrigerer Verbrauch und dieser Prozess ist endlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Recharging, .Sentinel. und Laphonso
xexex schrieb:
Weil die Kosten nicht mehr zu bewältigen sind. Eine Fab kostet heutzutage wieviel? 10 Mrd? Wie viele Unternehmen können und wollen diese Ausgaben überhaupt noch stemmen?

Naja, nicht jeder kann die beste Fertigung haben.
Das war auch früher nicht anders.
Im Moment liegen TSMC und Samsung ganz gut im Rennen.

Für viele Sachen ist die modernste Fertigungstechnik aber gar nicht nötig, wie man gut an Intels und Nvidias Umsätzen sieht.
Intel fertigt selber, das meiste in 14nm.
Für NV war bis jetzt auch 12nm gut genug.

Wer ist nach deiner Meinung aus dem Rennen ausgestiegen?

xexex schrieb:
Der Sweetspot war erreicht, als man mit einem Schrink noch relevant den Takt steigern und die Produktionskosten senken konnte.

Mit einem Shrink konnte man noch nie die Kosten senken.
Auf die Transistoranzahl gesehen wird es immer günstiger sein, nicht die neuste Technologie zu verwenden.
Vor allem bei großen Chips.

Taktsteigerungen sind schwierig geworden.
Aber die gewonnene Fläche kann man gut für Kerne und Cache verwenden.
 
Zuletzt bearbeitet:
IBISXI schrieb:
Mit einem Shrink konnte man noch nie die Kosten senken.

Natürlich konnte man das! Ein Shrink hat vor Jahren bedeutet, dass man schlichtweg viel mehr Chips aus einem Wafer bekam und dadurch automatisch die Kosten für die Herstellung gesunken sind.
The term die shrink (sometimes optical shrink or process shrink) refers to the scaling of metal-oxide-semiconductor (MOS) devices. The act of shrinking a die is to create a somewhat identical circuit using a more advanced fabrication process, usually involving an advance of lithographic nodes. This reduces overall costs for a chip company, as the absence of major architectural changes to the processor lowers research and development costs, while at the same time allowing more processor dies to be manufactured on the same piece of silicon wafer, resulting in less cost per product sold.
https://en.wikipedia.org/wiki/Die_shrink

Der Punkt ist aber vor Jahren schon längst überschritten worden, weshalb sich auch nach und nach viele Unternehmen von ihren Fabs getrennt haben.
 
Bulletchief schrieb:
Sieht schon geil aus.
Wenn die Leistung dann noch passt.... Rrrrrrrrr...

3-Slot Design hatte ich früher schon, damals die Asus GeForce GTX 580 DirectCU II
hat auch funktioniert...
Die habe ich heute noch neben dem PC stehen. Eine wunderschöne und hochwertig verarbeitete Karte.
 
xexex schrieb:
Natürlich konnte man das! Ein Shrink hat vor Jahren bedeutet, dass man schlichtweg viel mehr Chips aus einem Wafer bekam und dadurch automatisch die Kosten für die Herstellung gesunken sind.

Das Problem dabei ist, das man für eine neuere Fertigung überproportional mehr bezahlen muss.
Wenn das nicht so wäre, würde jeder alles nur mit der neusten Fertigungstechnologie herstellen lassen.

Wenn Du den selben Chip hast, einmal in 7nm und einmal in 12nm, wirst Du für die 7nm Fertigung mehr bezahlen müssen.

Das zweite Problem ist das eine neuere Fertigung immer anfälliger für Fehler ist. (Yield)
Je größer der Chip, desto höher die Chance das er unbrauchbar ist.

Deshalb sind am Anfang einer neuen Fertigung nur kleine Chips rentabel.
z.B. Intel 10nm.
Die würden auch gerne 28Kerner in 10nm fertigen, nur lohnt es sich nicht, wenn 75% des Wafers Ausschuss sind.
Deshalb ist bei 4 Kernen Ende im Gelände.
 
Zuletzt bearbeitet:
IBISXI schrieb:
Das Problem dabei ist, das man für eine neuere Fertigung überproportional mehr bezahlen muss.

Wie ich schon sagte, aktuell ja, weil der Sweetspot längst überschritten wurde. Das war früher nicht so.

Überlege einfach mal was früher PCs gekostet haben, wie irgendwann die Preise in den Keller gingen und wie sie aktuell nur einen Kurs kennen.
 
IBISXI schrieb:
Nö, das hat AMD nie getan, auch nicht als sie vorne waren.

Ein 3950X ist auch Konkurrenzlos im Desktop Segment, hat aber wie ich finde noch einen fairen Preis.
Bei den Threadrippern im HEDT Segment das selbe.

Nein überhaupt nicht. ;-) Wieviele HEDT-Modelle gab es denn vorher die 4000€ gekostet haben? AMD hat auch einen Rekordpreis erhoben der seinesgleichen sucht. Und vom Materialwert und Entwicklungsaufwand womöglich auch nicht höher ist als bei einer RTX 3090. Früher haben High-End-CPUs max. 999€ gekostet im Desktop. Komisch, dass so etwas auch immer ignoriert wird, aber bei GPUs immer der Holzhammer rausgeholt wird. Übrigens beim Friseur zahle ich nun schon das Fünffache im Vergleich zu vor 10 Jahren, ähnliche Anstiege gab es in fast allen anderen Bereichen auch. Verdienen tue ich in etwa das Doppelte wie damals. Alles wird teurer und dank Corona und unserer tollen Bundesregierung wird das auch in Zukunft noch deutlich schneller geschehen!
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Chismon
@xexex

Wo genau ist jetzt der Unterschied zu früher?
Ich sehe das nicht.
Ergänzung ()

Lübke82 schrieb:
Nein überhaupt nicht. ;-) Wieviel HEDT-Modelle gab es denn vorher die 4000€ gekostet haben?

Ein 3950X ist ein Desktop Prozessor.
Der liegt um die 700€.

Ein 24 Kern Threadripper liegt bei 1300€.
Wenn das nicht günstig ist, weiß ich auch nicht.

Kunden haben derzeit bei AMD eher das Problem die CPU auszulasten, anstatt sich die CPU leisten zu können.
1300€ habe ich vor wenigen Jahren für meinen 5960X Intel 8Kerner bezahlt.
Der lag 2018 immer noch bei 1000€.

Die Leistung ist ca. Faktor 4 innerhalb von ca. 2 Jahren, zum selben Preis.
Teuer ist was anderes.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777, russianinvasion, Dai6oro und 4 andere
IBISXI schrieb:
Wo genau ist jetzt der Unterschied zu früher?

Hast du dir mal angeschaut welcher Aufwand alleine betrieben wird um Licht für die EUV Belichter zu erzeugen? Der Unterschied ist, das die physikalischen Grenzen für diesen Prozess fast erreicht sind.

Most forecasters, including Gordon Moore,[125] expect Moore's law will end by around 2025
https://en.wikipedia.org/wiki/Moore's_law

Jede Geschichte hat nun mal ein Ende, die Physik lässt sich nun mal nicht aushebeln.
 
  • Gefällt mir
Reaktionen: Recharging
@IBISXI

Ich schrieb nicht von deinem 3950x, sondern vom aktuellen AMD-Topmodell, welches auch nunmal extrem anstieg im Preis, im Vergleich zu früher.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Laphonso
xexex schrieb:
Der Unterschied ist, das die physikalischen Grenzen für diesen Prozess fast erreicht sind.

Dann wird sich dein "Rennen" eh bald verlangsamen.
So recht glaube ich aber nicht daran.
Bis jetzt ist es immer irgendwie weiter gegangen.

5nm und 3nm liegen im Plan.
Aber klar, einfacher wird es nicht.
 
xexex schrieb:
Zum Herstellungspreis hat AMD denke ich genug gesagt.
Anhang anzeigen 957856

Die Kosten steigen, die Fläche steigt, wer sich da wegen der gestiegenen Verkaufspreise wundert, der kann nicht rechnen.

von 45nm (2008) auf 14nm (~2015?) eine verteuerung von faktor 2 über 3 full nodes und eine half node - und von 14nm auf 7nm wiederum eine verteuerung von ca faktor 1,8 innerhalb von 3 jahren mit nur einer full node aber der nächste full node schritt von 7nm auf 5nm wird nur noch mit faktor 1,3 angegeben. :confused_alt: was soll hier für ein trend abgebildet werden?

diese folie ist aus 2017 und sollte aus heutiger sicht mit vorsicht genossen werden. die kostensituation ist stand heute eine andere. niedrigere waferkosten, höhere yields, bessere qualität der chips. über die zeit sinken die kosten. sonst würde das ganze nicht funktionieren und hardware hätte schon vor 10 jahren einen unbezahlbaren stand erreicht - tatsächlich ist eher das gegenteil der fall: hardware war früher richtig teuer und wurde trotz mehr leistung und steigender komplexität günstiger.

zudem ist es schwer nachvollziehbar, warum ausgerechnet die 7nm so schweineteuer sein sollen, aber ab 2019 gleichzeitig mainstream krempel in 7nm gefertigt wird, u.a. der snapdragon 855 im derzeit 310-350€ teuren lg g8s und den riesigen APUs in den neuen konsolen während apple mit 7nm schon durch ist und richtung 5nm schielt.

es ist schon richtig, dass die kosten mit jedem weiteren full node schritt steigen, aber bestimmt nicht so extrem, wie von der folie suggeriert wird.

jede neue node war mal teuer mit schlechten yields, als die produktion frisch aufgenommen wurde. da war 7nm in 2017 keine ausnahme.

xexex schrieb:
Zeige mir mal eine Partnerkarte in den letzten 10 Jahren, die mal eine Innovative oder halbwegs durchdachte Kühlung vorzeigen konnte und sich nicht auf einzig auf eine "kindertaugliche" Optik konzentriert hat.

sapphire-trix-fury-top.jpg
 
  • Gefällt mir
Reaktionen: dohderbert und IBISXI
Zurück
Oben