News GeForce RTX 4000 „Ada“: Andere Eckdaten, TDP und Termine im Wochentakt

Könnt mich nicht Erinnern
Eventuell zum Wechsel auf dx10 2006 von 7900gtx vs 8800gtx
Aber damals gab es die 7950 ultra (dual gpu Karte).
Und wenn man genau sein will war diese gleichschnell wie die 8800gtx
So gesehen gab es das nie wo der Nachfolger entry chip den high end chip letzte gen schlug.
eventuell die entry class chip den mid class chip gab es öfters wie die gtx1060 die gtx970 Leistung brauchte
das waren gp106 vs gm204 nur weil eine karte 80er Namen hat bedeutet nicht das der chip es auch ist
high end war der gm200 in der titan x
Die tiatn serie hat einen komische anmenschema
erste war
titan 2013 kepler gk110
titan black kepler vollausbau gk110
ttitan x maxwell gm200
titan Xp maxwell vollausbaul gm200b
titan XP pascal gp102
Titan RTX und ziemlich die letzte tu102

Derzeit sieht es so aus
ad102 steht alleine da +90-110% rechnet mit etwa 1499-1999€ maximal 54tf =106%
ad103 schlägt den high end ga102 Vollausbau +50% 39tf üblich 80er karte um die 900€
ad104 schlägt den ga102 vollausbau +10% 29tf üblich 70er karte um die 600€
ad106 schlägt den ga104 +10% 18,5t üblich 60er karte um die 400€
ad107 schlägt den ga106 +12% (üblich 50er karte um die 250€
nach derzeitigen Preisgefüge was sich schnell ändern kann
 
Jan schrieb:
Das nehme ich mal als Leserfeedback so mit. Insbesondere mit der heutigen News, die das, was die letzten Wochen auf Twitter so abging, kritisch hinterfragt, sehe ich uns eigentlich auf dem bekannten Pfad. Und, ja, zuletzt gab es vermehrt Inhalte zu den Gerüchten - aber in meiner persönlichen Wahrnehmung war das immer noch nur ein Auszug dessen, was man hätte alles "raushauen" können. :)
Ich finde, dass Ihr die Balance gut hinbekommt. Ihr pickt selektiv "Snaphots" der Gerüchte raus und spammed nicht willkürlich alles, was alle 1-2 Tage auftaucht.
Das Ganze ist ja auch ein Puzzle aus meiner Sicht mit einer Mischung aus plausiblen Informationen, manchen Desinformationen und sich mal deckenden und sich widersprechencen Insiderinfos.

Durch Eure News im Sinne "Hier, das sagen die Grüchte gerade" entsteht hier ja auch der Impuls der CB Community, das offen und gleichsam kritisch zu diskutieren. :)
 
  • Gefällt mir
Reaktionen: schneeland, Plage, Colindo und 7 andere
nVidia wird das liefern (müssen), was AMD liefert. AMD lässt sich aber überhaupt nicht einschätzen. Multi-Chip - ja, nein? Mal gegeben Multi-Chip, würde ich auch nicht gleich den Vollausbau fahren um Leaks über meine Spitzenperformanz vorzubeugen. Sollte AMD wirklich das Experiment wagen, erwarte ich für die erste Generation allerdings noch Stolpersteine.

Was die Berichterstattung angeht: Ich halte es nicht für verkehrt mal ein paar Gerüchte zu sammeln und in einer Art "Rückblick" sich kritisch damit auseinanderzusetzen. Im Sinne einer Aufklärung halte ich dies sogar für gut, da mir zu viele Leute zu viel Glauben in Gerüchte setzen.
 
Taxxor schrieb:
Mit 82 SMs kommen wir insgesamt auf 128x82= 10496 Shading Units, die alle theoretisch 2 FP32 Berechnungen pro Taktzyklus bearbeiten können.
Da war mein Problem. Für mich macht eine FP32 genau eine Berechnung Pro Takt, bei NVidia aber 2 pro Takt. Der Rest war mir schon klar. Dass die Hälfte der Einheiten entweder FP32 oder INT32 kann, hatte ich ja schon geschrieben. Ist halt die Frage, wie das bei Ada gelöst ist (aktuell ist ja die Rede von getrennten Einheiten für FP32 und INT32, dafür pro SM dann 128 reine FP32 und zusätzlich 64 INT32).
DevPandi schrieb:
Nein, nicht falsch. Die Shader-Leistung wird in dem Fall mit einem MAD/MAC angegeben, ein MUL und ADD. Also a * b + c.
Es werden - nur bei dieser Kombination - 2 Operationen in einem Takt ausgeführt.
Hm, interessant, dass die eigentlich komplexe MAD Operation in einem Takt zwei Berechnungen machen kann. Verstehe ich das richtig, dass eine einfache Multiplikation dann nur einmal pro Takt gehen würde? Oder interpretiert das der Treiber dann automatisch als c = 0 und schafft dadurch auch 2?
 
Taxxor schrieb:
Im Tweet ist von 16128FP32 Einheiten die Rede. Wenn das reine FP32 Einheiten sind, wäre das ca eine Verdreifachung dieser Einheiten, denn die 3090 hat davon nur 5248 wenn man die geteilten Einheiten weg lässt.
Dann wird auch klar, woher die Prognosen von doppelter Performance der 3090 her kommen.
Gerade wenn man dann noch die Leaks zu den erreichbaren Taktraten mit einbezieht in die Betrachtung, habe ich keine Probleme damit, dass die Leistung angeblich doppelt so hoch sein soll.

Wo ich Probleme habe, ist beim Powerbudget. Wie sollen 100W mehr (es kommen nach VRM-Verlusten ca. 90W an im Chip) ausreichen, um die Leistung zu verdoppeln?

Mal ne kleine Rechnung dazu. Die RTX 3090 hat rund 250W Core Power (ohne Spannungswandler, VRAM und den ganzen Kleinkram). Wenn man davon ausgeht, dass die RTX 4090 rund 90W mehr zu Verfügung hat, dann sprechen wir von 50% mehr Effizienz, wenn sich die Leistung verdoppelt.

Eine 50% höhere Effizienz? Wie? Im Vergleich dazu, eine RTX 3090 ist kaum effizienter als eine RTX 2080 Ti, wenn man für letztere 180W Core Power und 40% mehr Leistung für Ampere ansetzt. Woher soll dieser Sprung kommen, gerade wenn hohe Taktraten benötigt werden für eine Verdopplung der Leistung?

@Locuza @.Sentinel.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Colindo und GERmaximus
Zer0Strat schrieb:
Eine 50% höhere Effizienz? Wie?
Der Fertigungsprozess macht viel aus. Schon die aktuelle A100 ist da deutlich im Vorteil gegenüber der 3090, und die läuft ja noch im 7nm statt 5nm bei TSMC. Damit wurd das für mich durchaus plausibel.
 
Laphonso schrieb:
Durch Eure News im Sinne "Hier, das sagen die Grüchte gerade" entsteht hier ja auch der Impuls der CB Community, das offen und gleichsam kritisch zu diskutieren. :)
Sehe ich auch so. CB macht das gut/seriös/kritsisch. Außerdem macht spekulieren ja auch Spaß. ^^

stefan92x schrieb:
Der Fertigungsprozess macht viel aus. Schon die aktuelle A100 ist da deutlich im Vorteil gegenüber der 3090, und die läuft ja noch im 7nm statt 5nm bei TSMC. Damit wurd das für mich durchaus plausibel
Ja, man gewinnt Effizienz durch den besseren Prozess (aber keine 50%), verliert andererseits durch den höheren Takt, weil die Leistungsaufnahme quadratisch mit der Spannung steigt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Laphonso
syfsyn schrieb:
Derzeit sieht es so aus
ad102 steht alleine da +90-110% rechnet mit etwa 1499-1999€ maximal 54tf =106%
ad103 schlägt den high end ga102 Vollausbau +50% 39tf üblich 80er karte um die 900€
ad104 schlägt den ga102 vollausbau +10% 29tf üblich 70er karte um die 600€
ad106 schlägt den ga104 +10% 18,5t üblich 60er karte um die 400€
ad107 schlägt den ga106 +12% (üblich 50er karte um die 250€
nach derzeitigen Preisgefüge was sich schnell ändern kann
Klingt soweit logisch und Preislich ist es das, was ich in den letzten Wochen aus dem Netz gefiltert habe. 1899,- laut Leak/Insider

Abwarten. 450 Watt gönne ich mir durchaus für die Karte wenn die Leistung auf die Straße gebracht werden kann
 
Zer0Strat schrieb:
Eine 50% höhere Effizienz? Wie?
Viel hängt ja am Takt bzw. der Spannung.
AMD hat es auch geschaft 50-60% mehr Effizienz aus RDNA und 7nm zu holen.
 
Zer0Strat schrieb:
Ja, man gewinnt Effizienz durch den besseren Prozess (aber keine 50%), verliert andererseits durch den höheren Takt, weil die Leistungsaufnahme quadratisch mit der Spannung steigt.
Nvidia macht hier einen Sprung von 2 Nodes auf einmal, das macht schon viel aus. Und der Punkt mit der Spannung stimmt zwar, aber wir wissen ja noch nicht welche Spannung für welche Frequenz nötig ist, das ist ja stark prozessabhängig.
 
stefan92x schrieb:
Und der Punkt mit der Spannung stimmt zwar, aber wir wissen ja noch nicht welche Spannung für welche Frequenz nötig ist, das ist ja stark prozessabhängig.
Das stimmt. Die Kurve könnte günstig verlaufen. Möglich ist das alles, warum nicht. Aber um ehrlich zu sein, ich wäre verwundert, wenn Ada jetzt plötzlich 50% effizienter wird. Insgesamt wäre das ein riesiger Sprung in mehreren Bereichen. Das riecht danach, sofern es so kommt, dass Nv mit angezogener Handbremse gefahren ist die letzten Jahre.
 
Finde ich witzig, erst wird von einer Leistungsaufnahme von 600 Watt berichtet, eine Meldung ging sogar bis utopischen 900 Watt, was natürlich völlig in die falsche Richtung geht. Damit wird schon mal Stimmung gemacht und auf hohe Stromaufnahmen sensibilisiert.

Danach kann man dann sogar schreiben, only 450 Watt das find ich krass.

Ich weiß nur, eine GPU mit 450 Watt kommt mir nicht in den PC!
 
  • Gefällt mir
Reaktionen: Perdakles
Zer0Strat schrieb:
Das stimmt. Die Kurve könnte günstig verlaufen. Möglich ist das alles, warum nicht. Aber um ehrlich zu sein, ich wäre verwundert, wenn Ada jetzt plötzlich 50% effizienter wird. Insgesamt wäre das ein riesiger Sprung in mehreren Bereichen. Das riecht danach, sofern es so kommt, dass Nv mit angezogener Handbremse gefahren ist die letzten Jahre.
Das highend Model wird nie wirklich Effizienter, da geht die Effizienz auf Kosten der Performance drauf. Aber im Niedrigeren Sektor wo du nur 20-30% mehr Performance bekommst ist eine 50% bessere Effizienz definitiv machbar.
 
Zer0Strat schrieb:
Das riecht danach, dass Nv mit angezogener Handbremse gefahren ist die letzten Jahre.
Das ist doch kein Geheimnis? Samsungs Fertigung war halt gut verfügbar und günstig, also liefen alle Consumer-Produkte und viele professionelle darüber, hingen aber auch praktisch eine Generation hinter TSMC N7 zurück.

Den guten TSMC-Prozess gab's ja nur für die A100, und mit der verglichen bleibt von den 50% Effizienzsteigerung gar nicht mehr so viel über, sonder ein Rahmen der für einen Generationswechsel ganz normal ist.
 
CB morgen:
Schrecklicher Verdacht - entsprechen Gerüchte nicht immer den Tatsachen? Die Redaktion ermittelt ... 😜
Ich muss den Postillon abbestellen.
 
  • Gefällt mir
Reaktionen: gravens4k2
Zer0Strat schrieb:
Eine 50% höhere Effizienz? Wie? Im Vergleich dazu, eine RTX 3090 ist kaum effizienter als eine RTX 2080 Ti, wenn man für letztere 180W Core Power und 40% mehr Leistung für Ampere ansetzt. Woher soll dieser Sprung kommen, gerade wenn hohe Taktraten benötigt werden für eine Verdopplung der Leistung?

@Locuza @.Sentinel.
Also Effizienz erhöhen ist keine Kunst im neuen Prozess. Blöd nur, wenn man die gewonneme Effizienz aus dem Fenster wirft, wenn man sinnlos mit dem Takt übertreibt
 
Zer0Strat schrieb:
Gerade wenn man dann noch die Leaks zu den erreichbaren Taktraten mit einbezieht in die Betrachtung, habe ich keine Probleme damit, dass die Leistung angeblich doppelt so hoch sein soll.

Wo ich Probleme habe, ist beim Powerbudget. Wie sollen 100W mehr (es kommen nach VRM-Verlusten ca. 90W an im Chip) ausreichen, um die Leistung zu verdoppeln?

Mal ne kleine Rechnung dazu. Die RTX 3090 hat rund 250W Core Power (ohne Spannungswandler, VRAM und den ganzen Kleinkram). Wenn man davon ausgeht, dass die RTX 4090 rund 90W mehr zu Verfügung hat, dann sprechen wir von 50% mehr Effizienz, wenn sich die Leistung verdoppelt.

Eine 50% höhere Effizienz? Wie? Im Vergleich dazu, eine RTX 3090 ist kaum effizienter als eine RTX 2080 Ti, wenn man für letztere 180W Core Power und 40% mehr Leistung für Ampere ansetzt. Woher soll dieser Sprung kommen, gerade wenn hohe Taktraten benötigt werden für eine Verdopplung der Leistung?

@Locuza @.Sentinel.
Der Sprung von 10 auf 5nm sollte schon ne Ecke Effizienz bringen , das sind immerhin 2 Nodesprünge .
Ob’s die Effizienz der ganzen Karte gleich um 50% steigt steht auf einem anderen Blatt .
 
BAR86 schrieb:
naja was heißt "üblich". Gab schon Generationen da hat die x60er das geleistet, was zuvor nur die x80er konnten.
Wäre ja nicht verkehrt mit meiner "Prognose" 4070 = 3090/3080ti und dann eben 3060ti = 3080 ;)
Die normale 3060 - Keine Ahnung wo ich die platzieren soll.
 
Zurück
Oben