News Nvidia: Riesiger Kühler der GeForce RTX 3090 FE fotografiert

IBISXI schrieb:
Dann wird sich dein "Rennen" eh bald verlangsamen.

Bald ist gut, seit wie vielen Jahren fertigt Intel nun in 14nm? Einzig Samsung und TSMC sind noch dabei kleinere Strukturen herzustellen und einzig TSMC schafft es die dafür benötigten Belichter herzustellen. Wo ist das ein Rennen?

Lass noch 5nm und 3nm kommen, das kommt mit der 2025 Prognose gut hin. Danach wirst du wie bei den Festplatten noch alle paar Jahre hier und dort einen etwas besser optimierten Prozess sehen und das wars.
Ergänzung ()

duskstalker schrieb:
diese folie ist aus 2017

Nein! Diese Folie ist aus 2017.
1598145078386.png


Daran hat sich auch nichts geändert und wieso sollte es auch? TSMC muss die Kosten einholen um noch viel höhere Kosten für weitere Fabs und noch teurere Prozesse zu stemmen. Das ist vom Prinzip eine sich exponentiell entwickelnde Preisspirale.
 
  • Gefällt mir
Reaktionen: Mcr-King und KlaraElfer
TSMC und Samsung sind im Plan.
Intel nicht.
Und Globalfoundries will, bzw. kann nicht, wobei es dort auch am meisten am Geld fehlt.
Ergänzung ()

Lübke82 schrieb:
Ich schrieb nicht von deinem 3950x, sondern vom aktuellen AMD-Topmodell, welches auch nunmal extrem im Preis anstieg im Preis, im Vergleich zu früher.

Das das Topmodell teurer geworden ist, liegt daran das AMD das Enterprise Topmodell auch auf den HE Desktop bringt.

Der größte EPYC hat 64Kerne, der größte Threadripper hat 64 Kerne.

Intel hat das nie gemacht, da war im Desktop bei 4, 8 oder HE 10 Kernen Schluss, obwohl es 28 Kern Xeons für ungefähr 10.000€ gegeben hat.

Das ist nicht vergleichbar.

Ähnlich war das bei der Radeon VII.
Das war nur eine umglelablete Enterprise Karte.

Sehr wohl kann man aber einen Blick auf das Preisleistungs Verhältnis werfen.
Noch nie hat es so viel Leistung für so wenig Geld gegeben.

Nicht nur absolut, sondern auch relativ.

Früher haben ein paar Kerne mehr immer gleich eine Welt gekostet.
Heute ist bei AMD das Verhältnis relativ linear.
(Kosten 6-8-12-16-24- usw. Kerne)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dai6oro
xexex schrieb:
Daran hat sich auch nichts geändert und wird auch nicht.

lebensweisheiten-andreas.jpg


eine folie ist ein marketingwerkzeug und enthält korrekte oder falsche angaben aus einer bestimmten zeitperoide (also was damals der stand der dinge war) und das wars. die sind teilweise nicht einmal frei von schreibfehlern. die sollte man jetzt nicht unbedingt als die heilige schrift nach den worten des herrn mit lustigen tierillustrationen der jungfrau maria ansehen.

bei intel sind die folien eher ein persönliches tagebuch als eine verlässliche quelle für informationen, vorallem was den releaseplan für produkte angeht und gewisse "empfehlungen" bezüglich benchmarks und leistungsbeurteilung.

bei den 7nm kosten verteidigst du die amd folie bis aufs letzte - aber wie siehts mit einer amd folie aus, die big navi über der 3090 sieht? gilt die auch oder ist das dann blödsinniges marketing?
 
  • Gefällt mir
Reaktionen: hurcos und dohderbert
duskstalker schrieb:
aber wie siehts mit einer amd folie aus, die big navi über der 3090 sieht? gilt die auch oder ist das dann blödsinniges marketing?

Erstens ist mir eine solche Folie nicht bekannt und zweitens, wäre sie dann bestenfalls aus dem Finger gesaugt, denn im Gegensatz zu den Kosten und Preisen die AMD bei TSMC bezahlen muss und die denen bekannt sind, dürfte die Leistung einer 3090 von AMD bestenfalls anvisiert, aber keineswegs bekannt sein.

Ich verteidige keine Folien, es dürfte jedem klar sein das die Fertigungskosten explodieren, Dafür brauchst du dir nur die Preise für die ASML Belichter anschauen, die Tatsache dass GF komplett ausgestiegen ist berücksichtigen und einfach mal im Internet schauen wie sich die Fertigung entwickelt.
1598146653372.png


Glaubst du diese Kosten bezahlt TSMC aus der Kaffeekasse? Sie werden logischerweise wie jedes Unternehmen die Kosten auf die Kunden umwälzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., Laphonso und KlaraElfer
Volkimann schrieb:
Hier wurde der Verkaufspreis einfach auf den mm² umgerechnet. Das sagt nur leider rein gar nichts über den eigentlichen Herstellungspreis aus.

Dass man immer noch mit diesem Unfug in Foren hausieren geht, wird langsam unerträglich.
Bei jedem Launch dieselbe Leier, immer seien die Produkte angeblich zu teuer und jedes mal werden die, die das behaupten widerlegt. Nvidia und AMD überlegen sich schon die richtigen Preise, damit deren Produkte auch gekauft werden.
Warum heult ihr immer über die Preise, kauft doch einfach ein Regal weiter drunter oder überspringt eine Generation. Selbst eine gebraucht für 180€ geschossene olle 2060 bietet für WQHD ausreichend Performance.

Mcr-King schrieb:
Richtig und vor allem dass massive bescheiden im Entry Bereich GTX16er Totaler Mist kein NVec4k und keine Tensor-RT Cores und DSSL grade dort währe DSSL sinnvoll. Wie es bei Konsolen der PS5 auch kommt.

Die User, die jahrelang erklärt haben, man brauche weder DLSS noch Raytracing, beklagen nun, dass die Einstiegsklasse einer 1650S, 1660 oder 1660 Ti genau diese Dinge nicht haben?

Mcr-King schrieb:
Nee nicht wirklich bin immer noch da habe aber schon Checkerboard bei der PS4 und ML bei der XBox nicht wirklich toll gefunden. Wenn 4k dann echtes 😉

Einmal so, dann wieder so, innerhalb weniger Monate, erklärt der Selbsternannte "DLSS Hater", siehe Vorposting.

duskstalker schrieb:
aber ab 2019 gleichzeitig mainstream krempel in 7nm gefertigt wird, u.a. der snapdragon 855 im derzeit 310-350€ teuren lg g8s und den riesigen APUs in den neuen konsolen während apple mit 7nm schon durch ist und richtung 5nm schielt.

Hast du dir schon einmal die Chipgröße eines snapdragon 855 angesehen?
Das sind deutlich weniger als eine 1Cent Münze, also rund etwa 100mm².
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ChiliSchaf, Laphonso und Cohen
Unmöglich so eine Karte.

Pascal war ja ein guter Wurf. So abgekrüppeltes Kinderraytracing (komm, vollständiges Raytracing kann die 2000er nicht, wenn man die paar ausgekratzten Effekte aktiviert geht die Leistung aber gut in die Knie -> Marketing mehr nicht) braucht noch paar Jahre mehr. Verbrauch meiner 1070 ist ja ein Traum. Leistung reicht für Forza Horizon 4 auf Ultra bei 1440p 75hz/fps.

Eine Konsumerkarte darf niemals 500 Watt ziehen. Da hat man mal effiziente Fertigung und dann dreht man doch noch komplett am Rad.

wenn man nen Käfer fährt mit 4 Zylindern und 38PS dann helfen auch 40 Zylinder nicht um auf 380 PS zu kommen. Alles sehr unverhältnismäßig.
 
  • Gefällt mir
Reaktionen: TIMOTOX
DerHalbmann schrieb:
Eine Konsumerkarte darf niemals 500 Watt ziehen.

Du würdest also eine 3090 als "Konsumerkarte" bezeichnen? Ein Bugatti Veyron ist für dich dann wohl auch ein "Konsumerauto"?

Für mich sind das Spielzeuge für Enthusiasten, die kauft man sich weil man es kann und weil man Spaß dran hat.
 
  • Gefällt mir
Reaktionen: audioph1le und tomasvittek
xexex schrieb:
Du würdest also eine 3090 als "Konsumerkarte" bezeichnen? Ein Bugatti Veyron ist für dich dann wohl auch ein "Konsumerauto"?

Für mich sind das Spielzeuge für Enthusiasten, die kauft man sich weil man es kann und weil man Spaß dran hat.

wer sagt dass ich das sage? Nvidia sagt das.

aber klar Tesla und Titan gibts ja nicht wow wie gut du dich auskennst.
 
Luxmanl525 schrieb:
Denn man sollte sich mal erinnern, wie es nur seinerzeit war, als AMD mit Vega alles in Grund und Boden stampfte, in Relation im Bezug auf den Strombedarf. Schon interessant daß genau diejenigen die seinerzeit sich so hierüber mokierten, jetzt regelrecht kein Sterbenswörtchen in kritischer Weise zu Hören respektive zu Lesen sind. Und was die Strombedarfseckpunkte der Neuen Nvidia Modelle alleine schon angeht, dabei wird es ja nicht alleine bleiben.

die vega war eine verspätete antwort auf eine mid-range nvidia karte. die 3090 ist die TOP TIER karte.

niemand beschwert sich wenn ein ferrari 20 liter frißt. wenn das aber der golf 6 macht dann wird ZURECHT darüber diskutiert ;-)
wenn AMD nächsten monat mit der stärksten karte auf diesem planeten auftaucht und die frißt 380 watt dann kauf ich die trotzdem.
 
Tawheed schrieb:
siehe meinen vorherigen Post
Anhang anzeigen 957844
Die Chips werden immer Komplexer und damit steigt automatisch der Preis...

und du meinst die "Tools/Geräte" diese zu entwickeln, werden seit Jahren nicht effizienter und bleiben im Stand von vor xx Jahren ??

Sorry aber deine Tabelle zeigt nur eine Seite !
 
Mcr-King schrieb:
.... RTX3070 8/16 GB
RTX3080 10/20 GB
RTX3080ti 12/24 GB
RTX3090 only 24GB

so ungefär. ;)

Möglicherweise, kommt noch eine RTX 3060(Ti) mit 12 GB dazu, neben einer normalen RTX 3060 mit 8GB und einer speicherverknappten RTX 3060 Bauernfänger/OEM Version mit nur 6GB, wer weiss?

Bei einem kolportierten Startpreis von schon 399 US-Dollar für die normale RTX 3060 wäre das schon ein ganz schön stolzes Preiseinniveau für eine Mittelklasse-Karte.

Es gibt ja auch Stimmen, die RTX bei nVidia noch nicht durch die Bank/bei allen Ampere GPUs sehen und somit die RTX Grafikkarten als Enthusiasten-Produkte generell klassifizieren (um wohl die Preistreiberei jetzt und in Zukunft damit zu rechtfertigen), was natürlich Unsinn ist aber gar nicht dumm wäre vom Produktmarketing her.

Ob die RTX 3090 neben einer RTX Titan (A) existiert oder diese ersetzen wird (das wird zum Teil gemunkelt) und die gesamte Produktplatzierung bei nVidia zukünftig verändern wird, muss man wohl abwarten.
 
  • Gefällt mir
Reaktionen: Mcr-King
ich zünd ne Kerze in der Kirche an, das ich mich entschieden habe, auf Zen 3 zu warten.
So steh ich wenigstens nicht ohne Gehäuse und Netzteil da, wenn die Nvidias rauskommen;)
 
  • Gefällt mir
Reaktionen: Recharging und Mcr-King
Ich würde eine 3060 mit 6GB nun nich krüppel nennen. Die is doch genau richtig für leute die Esports mit hohen fps zocken wollen. Diese Games brauchen doch keine menge an VRam sondern nur eine gewisse GPU Power.
 
xexex schrieb:
Hast du dir mal angeschaut welcher Aufwand alleine betrieben wird um Licht für die EUV Belichter zu erzeugen? Der Unterschied ist, das die physikalischen Grenzen für diesen Prozess fast erreicht sind.

Jede Geschichte hat nun mal ein Ende, die Physik lässt sich nun mal nicht aushebeln.

Und aus diesem Grund wir auch das Chiplet-Design bei GPU's sehen. Leaks aus Ende 2019 sagen das Nvidias Hopper diesen Ansatz verfolgen soll. AMD soll bei RDNA 3 mit Multi Chips kommen. Quasi SLI / Crossfire on a chip design. Ich bin gespannt und hoffe doch sehr, dass wir hier den ZEN effekt sehen werden. Mehr leistung zu gleichem kurs, gern auch weniger ;)

Bei Silizium ist irgendwann feierabend aber auch hier wird geforscht (z.B. Scandiumaluminiumnitrid) und seit kurzen auch nicht nur mit dem Hirn der Menschen. Die KI hält einzug in die wissenschafft und wird meiner Meinung nach einiges bewegen.
 
Zuletzt bearbeitet:
Sunjy Kamikaze schrieb:
... würde eine 3060 mit 6GB nun nich krüppel nennen. Die is doch genau richtig für leute die Esports mit hohen fps zocken wollen. Diese Games brauchen doch keine menge an VRam sondern nur eine gewisse GPU Power.

Wenn es nur um die eSports Nische geht, kann so eine verknappte RTX 3060 evt. Sinn machen, aber braucht es dann RTX Fähigkeiten?

Höchstens wegen DLSS (und evt. VRS zukünftig), aber RT-Raytracing ist damit voraussichtlich eine Luftnummer oder sehr eingeschränkt nutzbar, weil dann der Speicher ins Spiel kommt.

Zudem ist die Karte dann kein Allrounder mehr wenn 8GB Speicher sich in den kommenden Jahren als Mindeststandard etablieren wird und so eine 6GB Karte dann verhungert, es sei denn man kann mit sehr reduzierter Grafik leben, aber dann dafür eine neue GPU anschaffen?

Ich denke eine gemunkelte RTX 3050Ti (auch mit 6GB) wäre da die bessere Wahl (evt. gar eine RTX 3050, wenn es eine solche - mit 6GB - geben sollte).

Alternativ wäre die leistungsstärkste neue GTX (auch mit 6 oder 8GB, wenn diese denn noch kommen sollten) da auch sinnvoller oder günstig dann eine RDNA1 RX 5700(XT), das bessere Angebote; da muss man sehen, wie sich alles preislich und technisch entwickelt.

RTX-Features sehe ich für eSports aktuell und in den kommenden Jahren noch als unnötig (teuer) an, 'mal abwarten, wann sich das lohnen wird ;).
 
KlaraElfer schrieb:
Dass man immer noch mit diesem Unfug in Foren hausieren geht, wird langsam unerträglich.
Bei jedem Launch dieselbe Leier, immer seien die Produkte angeblich zu teuer und jedes mal werden die, die das behaupten widerlegt. Nvidia und AMD überlegen sich schon die richtigen Preise, damit deren Produkte auch gekauft werden.
Warum heult ihr immer über die Preise, kauft doch einfach ein Regal weiter drunter oder überspringt eine Generation. Selbst eine gebraucht für 180€ geschossene olle 2060 bietet für WQHD ausreichend Performance.
Bei jedem Launch die selbe Leier von genau den selben Leuten das man ja ein Regal weiter unten kaufen soll, aber die es nicht schnallen das auch das untere Regal eine massive Preiserhöhung erhalten hat.

Und welch eine Erkenntnis, die Hersteller können ihre Preise und somit Margen selber gestalten. Genauso kann der Endverbraucher die aufgerufenen Preise kritisieren.
Aber natürlich dürfen die Lämmchen mitlaufen und jeden Preis der Welt zahlen.
 
  • Gefällt mir
Reaktionen: IBISXI, eXe777, ebgnvc und 6 andere
PS828 schrieb:
Ich such halt ne gamingkarte welche die Radeon Pro VII ergänzt. Problem ist halt dass es maximal dual Slot sein darf weil's sonst eine Kollision mit der Soundkarte gibt die zwischen den beiden GPUs ist.

Wenn dann noch der RAID Kontroller drunter sitzt bekomm ich ein Problem wenn die alle die Wärme ins Gehäuse Blasen. Am liebsten wäre mir ein radiallüfter Design damit die Abwärme direkt draußen landet.

Da gibt's was gegen, falls du die Soundkarte mit nem kh benutzt einen Fiio dazwischen schalten und die Soundkarte raus die meisten bringen eh nicht die welt.
 
Sunjy Kamikaze schrieb:
Ich würde eine 3060 mit 6GB nun nich krüppel nennen. Die is doch genau richtig für leute die Esports mit hohen fps zocken wollen. Diese Games brauchen doch keine menge an VRam sondern nur eine gewisse GPU Power.
Weiss nicht. Man liest so einiges über Hoch-FPS E-Sports-Gamer. Wenn das wirklich alles stimmt, dann kommt es bei denen sogar auf die letzten 5 FPS an, die eine 10900k vom 3900x abheben. Dann müssten die eigentlich aus dem höchsten Regal Grafikkarte kaufen.

Irgendwie passen all die Puzzlestücke nicht zusammen finde ich.

Die Aussage, dass eine Karte mit 6 GB ein Speicherkrüppel ist unterschreibe ich sofort wenn die 300, 400 EUR kosten soll.
 
Mcr-King schrieb:
Jap warte noch auf die Leute die kein NT mit 12er Pin haben.

da liegt eh ein Adapter der Graka bei, ist für die Zukunft gedacht um mal endlich mit dem Kabelkram aufzuräumen irgendwann muss man anfangen

alternativ kann man die ggf. gleich passend nachkaufen, stellt sich nur die Frage wollen das die NT-Hersteller anbieten
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben