News Nvidia Gaming Ampere: Angeblicher Kühler der GeForce RTX 3080 fotografiert

Taxxor schrieb:
30% weniger bei iso Performance, also doch der Leistung die die alte GPU bei 200W gebracht hat.

Richtig! Aber die neue hätte bei gleicher Chipfläche 1,8x so viele Recheneinheiten!

Taxxor schrieb:
Mit iso-performance ist doch eigentlich der Takt der Transistoren gemeint oder?

Das ist einfach nur eine Angabe. Du kannst eben 15% mehr Leistung kriegen, weil du mit dem neuen Prozess höheren Takt fahren kannst oder 30% weniger Energie verbrauchen, indem du die Spannung senkst.

1591826399396.png

https://en.wikichip.org/wiki/iso-#Comparison_types

Du setzt also letztlich einfach nur einen Wert fest und vergleichst, welche Vorteile du alleine durch den neuen Prozess erreichen kannst. Natürlich gilt das nur bei einem identischen Chip, eine 2080Ti würde bei einer solchen Skalierung 30% weniger nur durch den Prozess und der damit verbundenen Spannungssenkung verbrauchen, eine 3080Ti mit doppelt so vielen Transistoren logischerweise mehr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
xexex schrieb:
Richtig! Aber die neue hat 1,8x so viele Recheneinheiten!
Die Rechnung dazu hab ich doch bereits geschrieben und komme auf 230W ^^
 
  • Gefällt mir
Reaktionen: xexex
Chismon schrieb:
Igor hat so eine Andeutung im Igor's Lab Forum gemacht nach der man bzgl. der Die-Groesse Richtung 650mm2 schliessen koennte, wenn ich mich richtig erinnere … 800mm2 (wie beim GA100) werden es bei der RTX 3090 definitiv nicht ;).

Dann werden die Karten vlt. doch günstiger als die Vorgänger. :)
 
alteseisen schrieb:
... kommt auf die Werkzeugkosten an die auf die erwartenden Verkäufe umgelegt werden müssen. Gehe mal zu einem Werkzeugbauer und frage nach was ein einfacher Stanzeinsatz für eine Stanzmaschine kostet. Billig ist das nicht und bewegt sich schnell im 5-6 stelligen Bereich. Benötigt man dann mehrere Werkzeuge für die Fertigung wird das richtig teuer.

@Chismon 850 € wo alleine die kleinste Karte schon 10 GB DDR-6 hat ? Kann ich nicht glauben, schon gar nicht bei Nvidia.

Der veranschlagte, angebliche Kuehlerpreis ist Wucher/ (uebliche nVidia) Kundenabzocke, zumal die Herstellerquellen in China bekannt sind (als jemand der schon eine Weile in China lebt, kann ich Dir sagen, dass Du bei einer Grossbestellung wie der von nVidia niemals auch nur in die Naehe dieses nVidia Maerchenpreises fuer einen solchen Kuehler kommen wirst) und nVidia dafuer auch wegen der Niedrigloehne einen Bruchteil dessen bezahlen wird ;).

Was die geschaetzten 850 Euro fuer eine RTX 3080 angeht, so beziehe ich da den Preisdruck durch mindestens eine staerkere AMD/RTG RDNA2 GPU (also das Halo/Flagschiff Modell) ein, welche die RTX 3080 da wohl preislich unter Druck setzen wird (insbesondere, falls AMD/RTG tatsaechlich noch vor nVidia mit RDNA2 GPUs auf den Markt kommen sollte, was sehr zu wuenschen waere) und nVidia dieses Mal wohl keinen Fantasieaufpreise wie bei Turing (von Pascal kommend) ansetzen kann trotz Hochstufung zum GA102 Grosschip (weil man sonst womoeglich keinen passenden Gegenspieler zu dem RDNA2 Aufgebot haben koennte).

Wie komme ich darauf, dass man oberhalb (nicht auf Augenhoehe) einer RTX 3080 bei AMD/RTG liegen koennte?

Einerseits deswegen, weil AMD/RTG besser auf den TSMC Prozess 7nm+ angepasst sein duerfte und andererseits, weil nVidia Fermi/Thermi-maessig leider in die vollen/Ineffizienz geht, wenn man den Geruechten (insgesamt) traut und das neue Kuehldesign miteinbezieht, und das nicht ohne Grund tun wird/muss ;).

Denkbar ist es, dass Jen Hsun Huang gerade gewaltig die Muffe geht :D.
 
Den Chip in der Zeichnung habe ich zumindest im Verhältnis zur Platinengröße aus meiner Sicht auch richtig platziert. TechPowerUp schreibt auf der Homepage im Datenbankeintrag zum GA102 von 700 mm² und liegt da noch nicht einmal sonderlich falsch. Rechnet man nämlich alles zusammen, was man bereits an Fakten kennt, dann kommt man mit etwas Taschenrechner-Einsatz und zusätzlichen Informationen aus liebgewonnenen Quellen auf eine Chipfläche von knapp über 627 mm², die so wohl auch stimmen sollte.

https://www.igorslab.de/350-watt-fu...ich-rechne-mal-nach-warum-der-wert-so-stimmt/
 
SKu schrieb:
Warum? Der Chip auf der 2080ti/TITAN ist auch schoin 754mm^2 groß.
Also ausschließen würde ich es auch nicht aber wie gesagt, wenn man eine ähnliche Packdichte wie beim GA100 hätte dann wäre man damit bei über 50Mrd Transistoren. Natürlich weiß man nicht welcher Prozess jetzt zum Einsatz kommt oder man könnte auch auf Packdichte verzichten für eine eventuell bessere Taktbarkeit, aber wie gesagt das ist reine Spekulation. Ich persönlich rechne mal nicht mit 800mm², wenn ich eines besseren belehrt werde, ist das auch ok.
Chismon schrieb:
Igor hat so eine Andeutung im Igor's Lab Forum gemacht nach der man bzgl. der Die-Groesse Richtung 650mm2 schliessen koennte, wenn ich mich richtig erinnere … 800mm2 (wie beim GA100) werden es bei der RTX 3090 definitiv nicht ;).
Interessant, halte ich für realistischer mit verbesserten Tensor und Raytracing Kernen.
Chismon schrieb:
Wie komme ich darauf, dass man oberhalb (nicht auf Augenhoehe) einer RTX 3080 bei AMD/RTG liegen koennte. Einerseits deswegen, weil AMD/RTG besser auf den TSMC Prozess 7nm+ angepasst sein duerfte und andererseits, weil nVidia Fermi/Thermi-maessig leider in die vollen/Ineffizienz geht, wenn man den Geruechten (insgesamt) traut und das neue Kuehldesign miteinbezieht, und das nicht ohne Grund tun wird/muss ;).
Ich denke immer noch, dass das Kühlerdesign eingesetzt wird, weil man wieder eine Titan (oder Titan-ähnliche) Karte bringt und wahrscheinlich auf 20+Gbps Speicher setzt. Hatte nicht Turing anfangs Probleme mit zu heißem Speicher?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon
SKu schrieb:
Warum? Der Chip auf der 2080ti/TITAN ist auch schoin 754mm^2 groß.
Und jetzt kann man über die 1,5fache Fläche einsparen durch den Prozess.

Von Chiphell gab es ja diese Tabelle hier, da kann man sich jetzt aussuchen was von den Daten stimmt oder nicht, aber die 611mm² für GA102 scheinen mir realistisch.

EZ93bUTU0AEbGnX.jpg
 
xexex schrieb:
Ja es ist Bullshit! Wenn eine Grafikkarte 500W bei 120FPS verbraucht und eine andere bei 500W nur 60FPS bringt......
Na sicher doch, weil die so viel sparsamer, kühler und leiser ist und ist damit auch den doppelten bis dreifachen Preis wert, gelle?
Dafür läßt man sie dann natürlich auch nur auf halber Kraft laufen um die gleiche Framerate rauszubekommen und strom zu sparen damit man irgendwie sagen kann das 500W nicht gleich 500W sind.
 
@Taxxor Die prozentualen Leistungswerte scheinen ja nicht komplett aus der Luft gegriffen. Jedoch, und ich weiß Nvidia knausert gerne mit VRAM, kann ich mir eigentlich nicht vorstellen, dass man mit 8 gegen 16GB bzw mit 10 vs 20GB antritt und ob man AMD den Bereich zwischen 3080 und 3090 überlässt :confused_alt:

Außer natürlich die Gerüchte über die Tensor Compression sind wahr.
 
alteseisen schrieb:
Das kommt auf die Werkzeugkosten an die auf die erwartenden Verkäufe umgelegt werden müssen. Gehe mal zu einem Werkzeugbauer und frage nach was ein einfacher Stanzeinsatz für eine Stanzmaschine kostet. Billig ist das nicht und bewegt sich schnell im 5-6 stelligen Bereich. Benötigt man dann mehrere Werkzeuge für die Fertigung wird das richtig teuer.

Ja, das Werkzeug ist sicherlich nicht billig. Dann rechne mal aus, was so ein Stanzeinsatz kostet, wenn 100.000 Karten verkauft werden. Richtig. 1 USD pro Kühler. 150 USD wird verlangt...
 
  • Gefällt mir
Reaktionen: Colindo
@MrNejo Ja die Prozente scheinen mir auch recht realistisch zu sein, 3070 genau da wo man es vermutet im Bereich der 2080Ti, die Verbrauchswerte wirken auch nachvollziehbar.
Nvidia ist speziell im oberen Bereich dann doch noch einiges effizienter, dafür sieht es im unteren Bereich z.b. 6700XT vs RTX3060 recht ausgeglichen aus.

Wenn ich mich anhand dessen für eine AMD Karte entscheiden müsste, ohne Preise zu kennen, sondern rein auf Performance und Verbrauch bezogen, würde es wohl die 6900 non-XT sein, die 246W die sie real verbrauchen soll, macht meine Nitro+ mit Standard BIOS auch und dabei wäre sie 70% schneller und knapp unter der 3080.

Und meine Grenze für ein Upgrade liegt bei 66%, dafür dürfte sie aber max 600€ kosten und ich glaube da wird es schon wieder unrealistisch, wenn die Daten so stimmen sollten^^ Dann könnte man aber evtl für 600€ eine 6800XT mit der Leistung der 2080Ti/3070 bekommen.
600€ für eine 3070 scheint mir auch ein realistischer Wert zu sein, dem Preisverlauf der 1070/2070 folgend.
 
  • Gefällt mir
Reaktionen: Chismon
Taxxor schrieb:
Von Chiphell gab es ja diese Tabelle hier, da kann man sich jetzt aussuchen was von den Daten stimmt oder nicht, aber die 611mm² für GA102 scheinen mir realistisch.

Wenn das wirklich so kaeme, wie von ChipHell zusammengestellt/suggeriert, waere so eine RX 6900 (mit ganzen 20GB, das waere ja maechtig) schon meine Wunschkarte (und koennte mit etwas Glueck sogar noch halbwegs erschwinglich bleiben als kleinster Navi 21 Ableger), wobei eine RX 6800XT (auf ca. RTX 2080Ti Niveau mit 16GB, damit doppelt so viel Speicher wie eine RTX 3070 von nVidia haette, es sei denn letztere kaeme mit Samsungs teurerem Double-Capacity/-Density GDDR6) auch noch in Frage kaeme, solange es wegen Navi 23 keine Feature-Einbussen geben wuerde.

Ja, irgendwie zwischen 600 und 650mm2 klingt wahrscheinlich als GA102 Die-Groesse.
 
Chismon schrieb:
wobei eine RX 6800XT (auf ca. RTX 2080Ti Niveau mit 16GB, damit doppelt so viel Speicher wie eine RTX 3070 von nVidia haette, es sei denn letztere kaeme mit Samsungs teurerem Double-Capacity/-Density GDDR6) auch noch in Frage kaeme, solange es wegen Navi 23 keine Feature-Einbussen geben wuerde.
Also vorausgesetzt die daten stimmen wenigstens einigermaßen so, dann wäre die 6800XT ziemlich ineffizient verglichen mit der 6900.

232W vs 246W bei 125% zu 146%

Die 6900 würde 6% mehr verbrauchen und dabei 17% mehr leisten.
Die 6900 hat ja auch den niedrigsten Takt von allen Navi 2x Karten, die dürfte der totale Sweetspot sein.
 
@Taxxor Könnte ein sehr interessantes Duell werden mit dieser Generation, jedoch stimmen die VRAM Werte wohl noch nicht 100%, unter gleichem Namen gibt es ziemlich sicher keinen Rückschritt (3060 Super).
Für mich sollten es schon 75%, eher 100% Mehrleistung sein (von einer GTX 1070) bis 500€, ob das geliefert wird muss ich dann wohl sehen.
 
Taxxor schrieb:
... vorausgesetzt die daten stimmen wenigstens einigermaßen so, dann wäre die 6800XT ziemlich ineffizient verglichen mit der 6900.

232W vs 246W bei 125% zu 146%

Die 6900 würde 6% mehr verbrauchen und dabei 17% mehr leisten.
Die 6900 hat ja auch den niedrigsten Takt von allen Navi 2x Karten, die dürfte der totale Sweetspot sein.

Das stimmt, energetisch gesehen waere so eine RX 6900 schon ein Schmankerl neben dem ueppigen Speicherausbau (mich erstaunt schon, dass kein HBM2(E) bei Navi21 vorgesehen sein soll).

Der Knackpunkt bei der kolportierten RX 6900 waere wohl vermutlich der Preis, denn dass man diese unter 700 Euro bekommen wird mit deutlich mehr mehr als RTX 3070 Leistung/fast auf Niveau einer RTX 3080, halte ich eher fuer ziemlich unwahrscheinlich?

Bei so einer Karte wuerde ich dann auch nicht zum Billig-Custom-Modell greifen wollen, also eher mindestens 30-40 Euro hoeher (fuer eine Sapphire Nitro+ wird das nicht reichen aber evt./mit Glueck vielleicht fuer eine Powercolor Red Dragon oder Sapphire Pulse im Angebot oder etwas vernuneftiges/solides von Gigabyte, MSI oder XFX).

Hinsichtlich fuer unter 750 Euro fuer ein gutes Custom-Modell habe ich da anfangs zumindest wenig Hoffnung (bis RDNA3 und Hopper irgendwann kommen, es sei denn Intel kommt dann als frueher erstaunlich potenter Seiteneinsteiger im 1.HJ 2021, aber so lange wollte ich eigentlich nicht warten) und soviel wollte ich eigentlich nicht berappen dafuer (650 Euro waere eigentlich meine Schmerz-/Rechtfertigungsgrenze fuer eine GPU).

Es bleibt zudem zu hoffen, dass Navi23 ebenso komplett RDNA2 beherrscht wie Navi21 (nicht nur bei letzterem Chip RT-Raytracing in vollem Umfang enthalten ist), man schaue auch auf die ROPs (160 bei RX 6900 vs. 64 bei RX 6800XT) ...

... na gut, ich habe mir sowieso vorgenommen erst mit Zen3 die Grafikkarte zusammen zu kaufen, also vor Fruehjahr 2021 wird das bei mir eh nichts und hoffentlich rutscht bis dahin der Preis einer moeglichen RX 6900 (wenn sie denn den Daten und Tests entsprechend attraktiv sein sollte) etwas.
 
Zuletzt bearbeitet:
domian schrieb:
Fliz schrieb:
350 Watt ist eindeutig zuviel..
Die Gamer schreien nach Leistung... wo soll die denn bitte herkommen?
Na ja - im idealen Fall einfach aus einer besseren Architektur und einer kleineren, energieeffizienteren Fertigung.
Bei Pascal hatte die 1080 Ti 250 Watt, bei Ampere die 2080 Ti ebenfalls 250 W. Ich finde, das ist auch ein guter
Kompromiss aus Highend-Leistung und Stromverbrauch.

Das Problem ist ja: Die nach Leistung schreienden Gamer wollen diese bestimmt auch im Sommer abrufen.
Also wenn meine GraKa 350 W ziehen würde, wäre bei meinem Zimmer Zocken im Hochsommer nur noch mit händisch runtergeschraubter TDP oder FPS-Limiter möglich.
 
domian schrieb:
? Seit wann verbraucht die 2080ti 175 Watt, also bitte mal nicht übergeneralisieren.

Ich rede von der Spieleleistung. Nicht von der Stromaufnahme.
Ergänzung ()

Bccc1 schrieb:
@eLw00d Die 2080Ti hat eine TDP von 250W. Die TDP ist also um 40% gestiegen. Zur Performance wissen wir noch zu wenig, aber eine Steigerung der Performance um mehr als 40% ist aktuell nicht unrealistisch.

Wie gesagt, ich glaube nicht an die doppelte Performance (Leistung). Die bräuchte die Karte aber meiner Meinung nach um den Mehrverbrauch zu rechtfertigen.
Dass Nvidia seit Ewigkeiten 250 Watt TDP für ihre Top Karten veranschlagt ist ja genau das Ding. Auf einmal packen sie 100 Watt drauf und lösen sich von ihrem jahrelangen Standard.
 
legenddiaz schrieb:
Ich glaube die Preise werden sich nicht großartig nach oben bewegen. Man Stelle sich vor die Preise bleiben stabil diesmal aber die Leistung steigt enorm, dann wird man Nvidia trotz Wucher Preise noch feiern soweit sind wir schon angekommen, dass man eine 3080 für 800€ als gut ansieht.
Da glaube ich doch lieber an den Weihnachtsmann oder Osterhasen! :daumen:

Wenn sich das bestätigt, was hier an Spekulationen zu den neuen Ampere Grafikkarten mit deren neuen Kühler-Design für die Nvidia FE zeigt, dann will ich gar nicht wissen, wie die Kühllösungen erst für die Customer Grafikkarten aussehen. Und wenn hier solch wuchtige Kühllösungen benötigt werden, kostet das auch mehr Geld, da mehr Material verbaut wird.

Mir ist auch nicht bekannt, das Nvidia seit Pascal bei den Grafikkarten vom Preis her gleichgeblieben oder billiger geworden wäre. Ich habe für meine MSI GTX 970 damals 399,00 Euro bezahlt, meine MSI GTX 1070 hat mich 499,00 Euro gekostet. Die MSI RTX 2070 Super kostet derzeit 570,00 Euro, würde mich also nicht wundern, wenn die MSI RTX 3070 Ampere dann um die 670,00 Euro liegt und somit wäre man dann schon sehr nah am Preis einer RTX 2080 der Turing Serie.

Da ich allerdings von der RTX Turing Serie weder von der Leistung noch vom Raytracing überzeugt war, habe ich diese Generation komplett übersprungen. So werkelt meine GTX 1070 jetzt seit Juni 2016 in meinem Rechner und feiert in diesem Jahr ihren 4. Geburtstag. Für jemanden wie mich, der eigentlich alle 2.Jahre auf die neue Grafikkartengeneration gewechselt hat, ist das jetzt schon eine verdammt lange Zeit. Aber ich kaufe auch nicht mehr um jeden Preis eine neue Grafikkarte, wenn ich vom Produkt und dem P/L Verhältnis, nicht überzeugt bin.
 
  • Gefällt mir
Reaktionen: Nordbadener, Benji21 und Qualla
eLw00d schrieb:
Ich rede von der Spieleleistung. Nicht von der Stromaufnahme.
Du hast von ineffizienter geredet und das wäre die 3080Ti bei 350W laut deinem Zitat, wenn sie dabei nicht auch die doppelte Leistung einer 2080Ti bringt.

Das bedeutet, wenn sie die doppelte Spieleleistung einer 2080Ti bringen müsste, um nicht ineffizienter zu sein, dann wären 350W auch der doppelte Verbrauch, und das ist weit daneben^^

Eine 2080Ti verbraucht hier bei CB 275W, 350W wären 27% mehr, also schon bei 30% Mehrleistung wäre sie bereits etwas effizienter als die 2080Ti.

Wenn die Zahlen aus der Tabelle oben in etwas stimmen sollten, verbraucht sie 302W und ist dabei 59% schneller als die 2080Ti bei 10% mehr Verbrauch.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Du hast von ineffizienter geredet und das wäre die 3080Ti bei 350W laut deinem Zitat, wenn sie dabei nicht auch die doppelte Leistung einer 2080Ti bringt.

Das bedeutet, wenn sie die doppelte Spieleleistung einer 2080Ti bringen müsste, um nicht ineffizienter zu sein, dann wären 350W auch der doppelte Verbrauch, und das ist weit daneben^^

Eine 2080Ti verbraucht hier bei CB 275W, 350W wären 27% mehr, also schon bei 30% Mehrleistung wäre sie bereits etwas effizienter als die 2080Ti.

Wenn die Zahlen aus der Tabelle oben in etwas stimmen sollten, verbraucht sie 302W und ist dabei 59% schneller als die 2080Ti bei 10% mehr Verbrauch.

Nagut, ich gebe auf. ^^
Vielleicht lässt sich durch undervolten was machen.
Ich find's jedenfalls uncool 7nm-Karten rauszubringen, die so viel mehr verbrauchen als ihre 12nm-Vorgänger.
 
Zurück
Oben