News Nvidia Gaming Ampere: Angeblicher Kühler der GeForce RTX 3080 fotografiert

MrNejo schrieb:
An sich ist ja eh alles aktuell Spekulation, das einzige was man sich wohl grob herleiten kann ist ca. 2080 Leistung für kleiner gleich 400€ aufgrund der neuen Konsolen.
😂 😂 😂 😂

Zotac2012 schrieb:
Ich bin echt mal gespannt, wann bei Nvidia die Preisblase mit den Grafikkarten platzt, meine Vermutung ist, allzu lange wird es nicht mehr dauern.
Da bin ich auch gespannt, ohne AMD hätten wir dieses Jahr auch wieder ein leistungsmäßiges "Zahlen-Durchgeben" gesehen, also 2080 zu 3070, 2070 zu 3060 usw., wobei man natürlich die Preise für das Extra an supertollen Tensorcores so weit angezogen hätte, dass der Preis pro FPS immernoch auf dem Niveau der Vorgeneration wäre. Signifikante Verbesserungen der P/L sind wohl out, lineare Abhängigkeit dafür voll im Trend.

Wenn denn AMD nicht ordentlich auf den Putz haut. :D
 
  • Gefällt mir
Reaktionen: GT200b und Zotac2012
Wadenbeisser schrieb:
Der Rest hatte für deine Argumentation wohl nicht mehr gepasst und wurde deshalb weggelassen, was?

Weil es Bullshit ist und mit Argumenten braucht man dir sowieso nicht zu kommen. Ist ein TR 3990X ein Stromfresser, oder kauft man hier schlichtweg eine potente CPU mit einem entsprechenden Energieverbrauch? Wie sieht das im Vergleich zu einem i9-10900K?

Entscheidend ist nicht ob die neuen High-End Karten 350W oder 500W an Energie verbrauchen. Entscheidend ist ob das Gesamtprodukt rund ist und im Vergleich zur Konkurrenz mindestens genauso effizient, wie auch leise zu Werke geht.

Du darfst gerne die 350W bei Nvidia kritisieren, wenn die Karte von AMD dann aber am Ende 500W verbraucht, wäre das dann immernoch eine der Leistung entsprechende effiziente Lösung.
Ergänzung ()

Zotac2012 schrieb:
Aber irgendwie ist die Entwicklung des Kühlers schon witzig,

Die Leistung steigt, aber die Effizienz wird schlichtweg mit den kleiner werdenden Lösungen nicht überproportional besser. Das wird sich auch in der Zukunft nicht mehr ändern, der "Sweetspot" bei der Chipentwicklung ist schon lange überschritten worden.

Das Problem liegt hier:
Compared to N7, N5 is said to deliver 1.8x routed logic density. In terms of performance, N5 will have either 15% higher performance at iso-power or 30% lower power at iso-performance. Like N7, N5 will have two flavors – mobile customers and HPC. HPC cells will offer an additional option for up to 25% performance improvement over N7.
https://fuse.wikichip.org/news/2567/tsmc-talks-7nm-5nm-yield-and-next-gen-5g-and-hpc-packaging/

Während die Packdichte also noch immer gut gesteigert werden kann, ist das beim Energieverbrauch schon lange nicht mehr der Fall.

Jetzt übertrage das mal auf eine GPU die aktuell 200W benötigt. Dann bekommst du mit einem Stepping, bei gleicher Chipfläche fast die doppelte Leistung (1,8x so viele Recheneinheiten), aber "nur" maximal 30% weniger Verbrauch und bist dann halt irgendwo bei 300W+.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Affe007
Igor von Igor's Lab hat schon ein paar technische Details veröffentlicht. Die Karten kommen mit 10, 11 und im Topmodell mit 24 GB DDR-6 . Allein das wird dafür sorgen das die Karten die Titan ablösen wird und preislich darf man sich wohl darauf einstellen das sie teurer als die Titan Karten sind. Von daher wird das sowieso nur ein Nischenkarte bleiben die sich nur die allerwenigsten leisten wollen . Mag sein das Nvidia damit wieder beweisen möchte das sie die schnellsten und leistungsfähigsten Karten bauen können, für mich ist das aber am Consumermarkt komplett vorbei entwickelt. Schon die 2080 Ti werden sich nur die wenigsten kaufen weil das Preis/Leistungsverhältnis einfach nicht mehr stimmt.
 
@xexex

Es ist also Bullschit das die Framerate für die Kühlung und Stromversorgung von 300W irrelevant ist?
Faszinierend, damit steht das Niveau deiner Argumentation schonmal fest denn genau darim ging es im von dir zitierten Abschnitt.
 
Wadenbeisser schrieb:
Es ist also Bullschit das die Framerate für die Kühlung und Stromversorgung von 300W irrelevant ist?

Ja es ist Bullshit! Wenn eine Grafikkarte 500W bei 120FPS verbraucht und eine andere bei 500W nur 60FPS bringt, dann kaufe ich mir vom Hersteller A, eine die nur 250W für 60FPS benötigt und beschwere mich nicht darüber, dass es Leute gibt die potentere Grafikkarten kaufen. Mist gebaut hat dann Hersteller B der anscheinend 50% der Energie einfach nur verpulvert, während Hersteller A schlichtweg Kunden bedient die mehr Leistung benötigen.

Ich kann es gerne nochmal für dich wiederholen. es ist nicht der Verbrauch entscheidend, sondern was dabei rumkommt, und wie die Leistung zustande kommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Affe007 und RNG_AGESA
Zotac2012 schrieb:
So sieht’s aus! Schaut man sich allein nur das jetzige Kühldesign an, sollten sich diese Spekulationen Bewahrheiten, bekommt man eine RTX 3080 wohl zu einem Preis der jetzigen RTX 2080Ti. Die RTX 3080Ti wird dann irgendwo bei 1600,00 bis 2.200,00 Euro liegen und die RTX 3090 liegt im Preis vermutlich bei einer jetzigen RTX Titan. Die RTX Ampere Titan wird dann nochmal etwas teurer, wie die RTX 3090, aber wer das absolute Gaming Flaggschiff will, der muss halt auch den absoluten Gaming Preis bezahlen, was für Nvidia nichts Neues ist.

Wer früher immer eine GTX 1070 oder RTX 2070 gekauft hat, bekommt dann vermutlich bei Ampere zum Preis von 500,00 +X nur noch eine RTX 3060 und die neue Ampere 3070 ist dann für die Käufer, die bisher eine RTX 2080 hatten, was den Preis betrifft. Ich bin echt mal gespannt, wann bei Nvidia die Preisblase mit den Grafikkarten platzt, meine Vermutung ist, allzu lange wird es nicht mehr dauern. Durch die anstehende Rezession, welche durch das Corona Virus ausgelöst wurde, deren Folgen wir wohl erst so langsam zum Ende des Jahres anfangen werden zu spüren, wird man das auch irgendwann bei Nvidia in deren Umsatzzahlen zu sehen bekommen.

Aber wie sagt die Politik so schön, wenn schon untergehen, aber dann wenigstens mit "Wums"! :daumen:
Abwarten bevor man so pessimistisch ist. Schließlich kann man sich auch eine Nextgen Konsole zulegen oder evtl AMD im High End Segment kaufen.

Ich glaube die Preise werden sich nicht großartig nach oben bewegen. Man Stelle sich vor die Preise bleiben stabil diesmal aber die Leistung steigt enorm, dann wird man Nvidia trotz Wucher Preise noch feiern soweit sind wir schon angekommen, dass man eine 3080 für 800€ als gut ansieht.

Nvidia hat es tatsächlich geschafft. Die Leute würden wohl Luftsprünge machen, wenn die Preise nicht steigern, dass ist der eigentliche Witz...
 
  • Gefällt mir
Reaktionen: chilchiubito, II n II d II und Cpt.Willard
AMD im Highend ist nur eine Option, wenn sie an die Leistung von Ampere im Highend-Segment anschließen können und obendrein ein Pendant zu DLSS 2.0 vorweisen können.

Ich würde mal gerne wieder eine AMD-GPU verbauen, aber da muss Leistung und auch Software stimmen.
 
duskstalker schrieb:
weil das durchaus plausibel klingt und immer wieder in diversen gerüchten auftaucht. die chips sind riesig. bei grob geschätzen 800mm² in 7nm sind mit ein bisschen takt die >300w kein problem. die radeon 7 liegt bei vergleichsweise winzigen 331mm² und kann mit ensprechenden einstellungen saufen wie ein loch. die 5700XT genau so. das hängt wirklich nur an spannung und takt.

vielleicht erreicht nvidia die nötige performance im verbrauch/takt sweet spot nicht und muss höher takten als ihnen lieb ist. oder die enorme größe bringt ineffizientes silizium hervor, weil man 800mm² nicht gut binnen kann. da nimmt man das, was nicht defekt ist - aber ggf. sind manche bereich "leaky" und brauchen einfach mehr spannung um stabil zu laufen.
Ich glaube schon alleine nicht an einen 800mm² GA102, das würde ja dann bereits in Richtung GA100 gehen mit 54,2 Milliarden Transistoren. Die einzige Erklärung die ich mir aus dem Finger saugen kann für den hohen Verbrauch und die extreme Kühllösung wären bei der spekulierten 3090 die 24GB mit 21Gbps oder eben eine überraschend schlechte Ampere Architektur.
Mcr-King schrieb:
Nee denke ich nicht denke die gehen bei 450€ los. 😉
Bright0001 schrieb:
😂 😂 😂 😂
Naja wir werden sehen, dann können wir ja darauf zurückkommen.
 
  • Gefällt mir
Reaktionen: Bright0001
@SKu bis jetzt hat sich AMD immer so geäußert, das sie Grafikkarten im mittleren Bereich herstellen. Für die paar High-End Gamer die tausende von € für ihren PC ausgeben ist der Markt einfach zu gering und lohnt sich wohl nicht. RDNA2 kommt ja auch in den Spielekonsolen, das ist der Massenmarkt und auch die neuen RDNA2 Karten für PC's werden wohl eher in dem Leistungsbereich anzusiedeln sein. Das AMD jetzt auf Biegen und Brechen eine High-End GPU entwickelt nur um Nvidia auszustechen glaube ich nicht. AMD hat sich schon lange eher auf die breite Masse konzentriert die eben preisbewusst entscheiden und nicht bereit sind für die letzten paar Prozent überdurchschnittlich viel zahlen. Es wäre echt interessant zu wissen wieviele Titan oder 2080Ti Nvidia pro Jahr verkauft, aber es wird vergleichsweise gegen null tendieren im Vergleich zu den Mittelklassekarten.
 
  • Gefällt mir
Reaktionen: Mcr-King
alteseisen schrieb:
Es wäre echt interessant zu wissen wieviele Titan oder 2080Ti Nvidia pro Jahr verkauft, aber es wird vergleichsweise gegen null tendieren im Vergleich zu den Mittelklassekarten.

Bei der Titan gebe ich dir recht, bei der 2080Ti jedoch nicht. Das Hobby PC und Gaming ist noch immer vergleichsweise günstig, Leute können sich noch relativ einfach "das Beste" kaufen und tun dies auch. Vor allem aber sind die Margen in diesem Beriech groß und wer den "längsten" hat, darf den Preis diktieren, während man in der Mittelklasse wegen der Konkurrenz knapper kalkulieren muss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Affe007 und Mcr-King
xexex schrieb:
Während die Packdichte also noch immer gut gesteigert werden kann, ist das beim Energieverbrauch schon lange nicht mehr der Fall.

Jetzt übertrage das mal auf eine GPU die aktuell 200W benötigt. Dann bekommst du mit einem Stepping, bei gleicher Chipfläche fast die doppelte Leistung (1,8x so viele Recheneinheiten), aber "nur" maximal 30% weniger Verbrauch und bist dann halt irgendwo bei 300W+.

30% weniger bei iso Performance, also doch der Leistung die die alte GPU bei 200W gebracht hat.

Mit iso-performance ist doch eigentlich der Takt der Transistoren gemeint oder?
Dann ist das unabhängig von deren Anzahl, also würde man den gleichen Takt bei gleicher transistorenzahl beibehalten kommt man auf 140W. Durch das erhöhen der Transistorzahl kommt dann wieder Leistung drauf.
Maximal eben das 1,8-fache wobei die Recheneinheiten ja nicht den kompletten Verbrauch der Karte ausmachen, sondern eher so 80%.
140 + 140 x 0,8 x 0,8 = 230W
Ergänzung ()

alteseisen schrieb:
@SKu bis jetzt hat sich AMD immer so geäußert, das sie Grafikkarten im mittleren Bereich herstellen. Für die paar High-End Gamer die tausende von € für ihren PC ausgeben ist der Markt einfach zu gering und lohnt sich wohl nicht. RDNA2 kommt ja auch in den Spielekonsolen, das ist der Massenmarkt und auch die neuen RDNA2 Karten für PC's werden wohl eher in dem Leistungsbereich anzusiedeln sein. Das AMD jetzt auf Biegen und Brechen eine High-End GPU entwickelt nur um Nvidia auszustechen glaube ich nicht.

Das Statement ist aber auch schon lange überholt.

AMD möchte mit den RDNA2 Karten den GPU Markt vom Entry Level bis zum 4K Enthusiast Segment so aufmischen, wie man den CPU Markt mit Ryzen aufgemischt hat, das ist die letzte Aussage dazu.

Big Navi wird sich mit ziemlicher Sicherheit irgendwo zwischen der 3080 und der 3090/3080Ti befinden, dann ebenfalls mit um die 300W.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und domian
gut genaue zahlen kenne ich nicht, aber ich habe mal kurz bei mindfactory geschaut, da dort ja zahlen angegeben werden wieviel sie verkauft haben. da stehen 80 verkauften 2080 Ti etwa 9000 verkaufte 5700XT im selben zeitraum gegenüber also kommt auf eine verkaufte 2080Ti grob 100 mal mehr verkaufte 5700XT.
 
  • Gefällt mir
Reaktionen: Gruml und Mcr-King
Bei der hohen Leistungsaufnahme verstehe ich nun auch warum NVIDIA ihren Chip Ampere nennt. 😁

Wenn nun Big NAVI zwischen 250 und 300 Watt verbraucht geht die Entscheidung ganz klar zu AMD, selbst wenn Big NAVI ein paar FPS weniger liefert, so sind mir die 50 Watt Mehrverbrauch, welche ständig weggekühlt werden muss, deutlich unangenehmer als ein paar FPS weniger zu haben.
 
  • Gefällt mir
Reaktionen: Benji21 und Mcr-King
SKu schrieb:
... Kühler der FE soll ca. 150$ veranschlagen.
Die Platine kommt mit V-Auschnitt und soll auch nochmal bisschen mehr als der Kühler kosten.
Dann noch GPU, Speicher und der ganze Rest.

Da kommen rein auf die Herstellungskosten bezogen mit Sicherheit 500$ zusammen. Da kann man sich schon ausmalen, dass so eine 3080 mehr kosten wird als der Vorgänger, zumal der größere Chip zum Einsatz kommt.

Ich tippe mal:

1,200$ 3080
1,800$ 3090
3,400$ TITAN

Ich denke eine RTX 3080 koennte fuer ca. 850 Euro auf den Markt kommen, denn mit dem wenigen/duerftigen Speicher waeren mehr als 1000 Euro schon sehr happig fuer die Vanilla RTX 3080 (trotz angeblich hoher Kuehlerkosten, so soll wohl durch diesen eventuell von nVidia selbst lancierten Leak die Kundschaft auf hoehere (neue Rekordboersenkurs-)Preisvorstellungen vorbereitet werden (?) und GDDR6X).

Allerdings koennte eine RTX 3080 "Super" oder RTX 3080Ti dann schon knapp oberhalb oder unter 1000 Euro liegen, muesste dann aber auch etwas mehr Speicher mitbringen (16 GB wie vermutlich bei AMD/RTG mit dem Big Navi RDNA2 Gaming-Flaggschiff etwa waeren schon wuenschenswert).

Eine RTX 3090 waere ja im Prinzip durch den Vollausbau eine neue RTX Titan, aber dafuer im GeForce HardCore-/RT-Raytracing-/4K+/VR-Gaming Gewand und vielleicht bekommt stattdessen ja eine weitere RTX Titan einen GA101 Chip fuer sich alleine spendiert (so eine Art (semi-)professionelle Kompromissloesung zwischen GA100 und GA102, wer weiss)?

Wenn die kommende RTX Titan also einen eigenen Chip bekommen sollte, duerfte deren Preis noch einmal kraeftig ansteigen und von ueber 3000 Euro wuerde ich dann auch ausgehen.

Zum Preis, ab 1500 Euro waere wohl realistisch fuer eine RTX 3090 und 1800 Euro kann ich mir auch noch sehr gut dafuer vorstellen.

Wenn man dann den Bogen zu AMD/RTG spannt, dann waeren dortige 16 GB direkt zum Marktstart eigentlich der Sweetspot bei der Speicherbestueckung (dazu duerfte es beim RDNA Flaggschiff womoeglich wieder HBM2(E) geben) und im Zweifelsfall (bei aehnlichen Preisen) wuerde zumindest ich definitiv eher 10 oder 20% weniger Leistung in Kauf nehmen und dafuer 5 bis 6 GB Speicherausbau mitnehmen wollen (also eher RDNA2 als Ampere nehmen) und somit auf Langlebigkeit setzen.

Denn was nuetzt einem die Mehrleistung, falls eine RTX 3080(Ti?) irgendwann am Speicher (bei RT-Raytracing und 4K-Texturen etwa) in Spielen verhungern sollte ;).

Unter 12 GB wuerde ich eigentlich ungern eine neue Grafikkarte erwerben und dass ich dafuer ueberzogene Mondpreise zahle, kann nVidia aber komplett vergessen, der leicht schnellere GDDR6X (welcher ab GA102 Chips wohl zum Einsatz kommen soll) wird vermutlich auch nicht so viel teurer als GDDR6 sein (und vermutlich immer noch guenstiger aber mit weniger Bandbreite als HBM2(E)).

Vielleicht kommt aufgrund des doch ziemlich aufgeblaehten Kuehldesigns (hoffentlich wird es keine neue Fermi-/Thermi-artige GPU-Flop-Generation, nachdem Turing (trotz "Super" Refresh) schon ziemlich enttaueschend war fuer nVidia Verhaeltnisse) auf nVidia da wieder - wie anfangs bei der RTX 2080Ti - ein (fuer die Kundschaft sehr aergerliches) ueberdurchschnittliches Kartensterben beim Grosschip zu?

Warten wir es ab, wie das alles gelingt; also vorbestellen wuerde ich bei diesen aufgebohrten Founders Edition Kuehl-Designs und dem kolportierten Verbrauch jedenfalls nicht und eher einige Monate nach Marktstart abwarten wollen (zumal dann auch die GPU-Preise sich langsam einpendeln duerften), aber das duerften einige Early Adopter und Hobby-Enthusiasten vermutlich nicht verkraften koennen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Um einmal etwas Licht ins Dunkle wegen den Kühlerkosten zu bringen.
NVIDIA hat doch schon mit der Founders-Edition einen Fixkostensatz bei ihren Referenz-Kühlern gesetzt. Dieser beträgt 100 USD. Nun haben sie diesen Satz eben auf 150 USD erhöht, denn auch am Kühler will NVIDIA gut mitverdienen. 😉

Oder glaubt etwa tatsächlich jemand, dass man für etwas lackiertes Blech, 150 USD Herstellungskosten hat?
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Mcr-King
DarkerThanBlack schrieb:
Oder glaubt etwa tatsächlich jemand, dass man für etwas lackiertes Blech, 150 USD Herstellungskosten hat?

Das kommt auf die Werkzeugkosten an die auf die erwartenden Verkäufe umgelegt werden müssen. Gehe mal zu einem Werkzeugbauer und frage nach was ein einfacher Stanzeinsatz für eine Stanzmaschine kostet. Billig ist das nicht und bewegt sich schnell im 5-6 stelligen Bereich. Benötigt man dann mehrere Werkzeuge für die Fertigung wird das richtig teuer.

@Chismon 850 € wo alleine die kleinste Karte schon 10 GB DDR-6 hat ? Kann ich nicht glauben, schon gar nicht bei Nvidia.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus und Mcr-King
alteseisen schrieb:
@SKu bis jetzt hat sich AMD immer so geäußert, das sie Grafikkarten im mittleren Bereich herstellen. Für die paar High-End Gamer die tausende von € für ihren PC ausgeben ist der Markt einfach zu gering und lohnt sich wohl nicht. RDNA2 kommt ja auch in den Spielekonsolen, das ist der Massenmarkt und auch die neuen RDNA2 Karten für PC's werden wohl eher in dem Leistungsbereich anzusiedeln sein. Das AMD jetzt auf Biegen und Brechen eine High-End GPU entwickelt nur um Nvidia auszustechen glaube ich nicht. AMD hat sich schon lange eher auf die breite Masse konzentriert die eben preisbewusst entscheiden und nicht bereit sind für die letzten paar Prozent überdurchschnittlich viel zahlen. Es wäre echt interessant zu wissen wieviele Titan oder 2080Ti Nvidia pro Jahr verkauft, aber es wird vergleichsweise gegen null tendieren im Vergleich zu den Mittelklassekarten.

Big Navi richtet sich nicht an den Massenmarkt, sondern addressiert die Enthusiasten. Die GPU kommt noch vor den Konsolen lt. AMD. Außerdem hat AMD auf der globalen Technologiekonferenz bereits bestätigt, dass RDNA2 zunächst für Enthusiasten auf den Markt kommen soll. Zwar soll es auch RDNA2-Karten im mittleren Segment geben, wann ist aber noch nicht erwähnt worden. Der Enthusiastenmarkt mag vergleichweise klein ausfallen, er ist aber weitaus prestigeträchtiger. Den Massenmarkt decken die Konsolen ab. Im PC-Bereich ist es aber gefühlt schon eine Dekade her, dass AMD mal wieder ein Enthusiastenprodukt auf den Markt bringt. Radeon VII war zwar "teuer", aber brachte nicht wirklich die Leistung mit sich für den Gamingbereich. Vega war auch nur bis zur 1080 gewappnet, darüber gab es nichts mehr. Hoffentlich kommt mit Big Navi zumindest mal eine GPU, die in der Liga der Nvidia Big Chips mitspielen kann.
 
Zuletzt bearbeitet:
 
  • Gefällt mir
Reaktionen: KarlsruheArgus
MrNejo schrieb:
Ich glaube schon alleine nicht an einen 800mm² GA102

Warum? Der Chip auf der 2080ti/TITAN ist auch schoin 754mm^2 groß.
 
  • Gefällt mir
Reaktionen: Mcr-King
MrNejo schrieb:
Ich glaube schon alleine nicht an einen 800mm² GA102, das würde ja dann bereits in Richtung GA100 gehen mit 54,2 Milliarden Transistoren.

Igor hat so eine Andeutung im Igor's Lab Forum gemacht nach der man bzgl. der Die-Groesse Richtung 650mm2 schliessen koennte, wenn ich mich richtig erinnere … 800mm2 (wie beim GA100) werden es bei der RTX 3090 definitiv nicht ;).
 
Zurück
Oben