News GeForce RTX 4000 „Ada“: Andere Eckdaten, TDP und Termine im Wochentakt

Cyberbernd schrieb:
Leider fehlen die Games die auch diese Mehrleistung benötigen...
Also ich hungere nach der Leistung.
5120x1440@100Hz ist beinahe wie 4k@100Hz.
Ich geifere nach mehr Leistung: Cyberpunk, Ark, Battlefield V @RTX, MSFS, Control, Hell Let Loose, WARNO, etc
Edit: Star Citizen
 
  • Gefällt mir
Reaktionen: Gast12345, RAZORLIGHT, Celinna und 3 andere
Crifty schrieb:
Eine 4070 mit 3080ti/3090 Performance mit 12gb vram beim selben Stromverbrauch wie die aktuelle 3070 maximal 10% mehr. Für 500-600€.
Hahahaha :D Guter Witz....^^
 
  • Gefällt mir
Reaktionen: Bright0001 und Onkel Föhn
Ist aber realistisch
 
Jan schrieb:
Puh, so genau kann ich dir das nicht sagen. Ich gehe aber davon aus, dass die bekannten Personen definitiv ihre Quellen haben, dieses Mal aber entweder wiederholt hinters Licht geführt wurden, oder schneller respektive früher liefern wollten, als es die allgemeine Sorgfaltspflicht erlaubt hätte.
Oder es wird tatsächlich intern noch viel herumjongliert eben weil AMD ja dicht auf sein könnte und es deswegen noch einige Änderungen gibt.
 
Muessen ja frueher dran sein, wenn die RX7000 so schnell wird wie alle behaupten.

Navi 21 (5120 SPs)Navi 31 (15360 SPs)
 
Cyberbernd schrieb:
Hi zusammen

Leider fehlen die Games die auch diese Mehrleistung benötigen...
Oh, die gibt es. Es gibt dazu auch eine Menge gamer, die spielen jenseits von alten Full HD Auflösungen und High Settings und nutzen Raytracing ;-)

Wer fullHD und ohne competetive high fps shooter Ambitionen unterwegs ist, ist eher immer erst im CPU Limit.

Meine 3090 hat schon eine ganze Gruppe an Games, in denen sie mir (in 3440x1440 / UWQHD) zu lahm ist, nahe 100% vollster Last läuft und/oder zu wenig fps Korridor bietet für meine Wohlfühlzone.
 
  • Gefällt mir
Reaktionen: Gast12345, Celinna, derSafran und 4 andere
Ich denke es gibt die bekannten Steigerungen:
3080ti 3090= 4070
Aber mit deutlich mehr rt Leistung
 
  • Gefällt mir
Reaktionen: Laphonso
Syrato schrieb:
für GPUs zuverlässige Leaker
Die bekannten Namen halt, Kopite7kimi und Greymon55, ich persönlich halte beide für insider, aber es gibt sicher Leute die das anders beurteilen. Auffällig bei beiden und seit Jahren konstant - je näher das finale Produkt ist desto präziser deren leaks. Wenn irgendwo in der Entwicklung der Bock noch einmal umgestoßen wird führt das aber immer wieder zu Verwirrung und Zweifeln an der Quelle. Aber wer jemals eine Produktentwicklung mitgemacht/begleitet hat weiß auch das so etwas völlig normal ist. Trotzdem gilt bis zum Test hier auf CB - alles Spekulation.
 
  • Gefällt mir
Reaktionen: simosh, konkretor, Syrato und 4 andere
Dat Marketing; erst 600watt ins Gespräch bringen damit die 450watt später als wenig erscheinen. Sind ja nur …
 
  • Gefällt mir
Reaktionen: Leereiyuu, Celinna, iWeaPonZ und 2 andere
Oberst08 schrieb:
Ich habe da mal eine rein technische Frage:

GA102 hat 10752 Shader, jeder Shader kann 2x FP32 (1x nativ und 1x als mixed unit mit entweder FP32 oder INT32). Damit hat GA102 also schon 21504 FP32 Einheiten (von denen 50% alternativ für INT32 verwendet werden können). Irgendwie passt das nicht, oder?
Die für Ampere angegebenen FP32 Einheiten berücksichtigen bereits die Dopplung, da musst du nichts mehr multiplizieren.

______________

Ich finde die Darstellung von "die Leaker" etwas undifferenziert, die Aussagen von Kopite und MLID zu Nvidia waren sehr lange in den wichtigen Punkten wie Performance Target 80-110%, 384 Bit Memory Bus, Anzahl der SMs im Vollausbau sowie Die Size und Prozess aus der 5nm TSMC Familie konsistent.

Aus meiner Sicht ist dieser Fokus auf exakte Specs einer fiktiven 4090 nicht das, was man aus Leaks mitnehmen sollte. Das Branding als 4080 Ti/4090/4090 Ti wird intern bei Testboards nicht dabeistehen, sondern das ist dann ein AD102 mit bis zu 144 SMs, von denen X gerade aktiv sind. Die Zuordnung zur genauen finalen SKU muss nicht stimmen.

Das Chipdesign steht sehr früh fest, aber die genaue TDP und die genaue Anzahl der aktiven Einheiten ist erst viel später final, wenn man bessere Informationen zum Yield und zum Scaling hat und sich final für eine Segmentierung entschlossen hat.

Diese Leaks ermöglichen recht früh einen guten Eindruck davon, wo man die nächste Generation ca. einordnen kann, nicht mehr und nicht weniger.
 
  • Gefällt mir
Reaktionen: N0Thing, simosh, RAZORLIGHT und 4 andere
Caramelito schrieb:
RTX 3090 x2 Leistung wäre halt ne Hausnumer.
Glauben tue ich es jedoch einfach nicht.

Eher das Übliche. RTX 4070 wird ca. die Leistung der 3080ti/3090 haben und mit 12GB Vram bestückt.
Etc etc
Wieso sollten die ihr nur 12 GB spendieren, wenn die 6700/6800er schon 16 haben?
Ergänzung ()

DAU123 schrieb:
Falls die Gamescom heuer wieder stattfinden darf, wäre es doch ganz nice, wenn da die Karten kommen würden bzw vorgestellt werden würden.
Steht schon längst fest, findet physisch statt!
 
  • Gefällt mir
Reaktionen: DAU123
Oberst08 schrieb:
GA102 hat 10752 Shader, jeder Shader kann 2x FP32 (1x nativ und 1x als mixed unit mit entweder FP32 oder INT32). Damit hat GA102 also schon 21504 FP32 Einheiten (von denen 50% alternativ für INT32 verwendet werden können). Irgendwie passt das nicht, oder?
Falsch.
GA102 hat 10752 Shader, davon sind 5286 reine FP32 Shader und 5862 mixed Units.
Daher hat Ampere auch auf dem Papier soviele FP32 Shader im Vgl. zu Turing oder Pascal. Es wird einfach doppelt gezählt (Trick 17)^^
- unabhängig davon, dass ein Spiel möglicherweise eben doch mal das ein oder andere an INT Berechnungen benötigt. Dementsprechend erhält man eine recht große Streuung in Benchmarks. Eine 3060 liegt so vor einer 1070 um Faktor 1,15 - 1,90.
Ich bin da auch kein Fan dieser Zählweise. Besser wäre es reine und mixed Units getrennt anzugeben.

Bei Ada soll das mit den mixed Units wieder rückgängig gemacht werden. D.h. es gibt wieder 'dedizierte' INT Einheiten:
https://www.3dcenter.org/news/gerue...da-lovelace-mit-deutlich-hoeherer-rechenkraft
 
  • Gefällt mir
Reaktionen: simosh und Onkel Föhn
HardcoreGaymer schrieb:
Wieso sollten die ihr nur 12 GB spendieren, wenn die 6700/6800er schon 16 haben?
Weil AD104 einen 192 Bit Bus haben soll, womit du mit den aktuellen 1 und 2 GB VRAM Chips entweder 6, 12 oder 24 GB umsetzen kannst.

24 GB erfordern kostspielige und schwer zu kühlende Bestückung auf Vorder- und Rückseite des PCBs, das passt nicht zur Preisklasse einer 70er Karte.
 
  • Gefällt mir
Reaktionen: Gast12345, FatalFury, Laphonso und 2 andere
KlaasKersting schrieb:
Die für Ampere angegebenen FP32 Einheiten berücksichtigen bereits die Dopplung, da musst du nichts mehr multiplizieren.
Achso, dann sind die TFlop Werte von Ampere aber alle um 100% zu hoch. Denn die 3090TI hat 10752 Shader bei 1860MHz Takt. 10752FPUs*1860MHz = 19998720MFlops = 19,998TFlops. Angegeben sind von NVidia aber 40TFlops, also das doppelte. Wie kommt das dann? Von den Tensor Cores kann das nicht kommen, die können kein FP32 (nur TF32). Muss also von den "normalen" Shadern sein.
 
Zer0Strat schrieb:
Doppelte Leistung mit 40% mehr Powerbudget, das wird sehr sehr sportlich.
So unrealistisch ist das nicht. Von TSMC 10nm auf N5P wird die Power Consumption auf 40% reduziert. Jetzt mag 8LPP etwas sparsamer als TSMC 10nm sein und die theoretische Ersparnis nicht voll ausgenutzt werden, da man auch den Takt erhöht. Aber zusammen mit dem höheren Powerbudget klingt das nicht utopisch.
Der Performancesprung an sich auch nicht. Die theoretische Transistordichte steigt auf das 2.8 fache. Praktisch ist die Dichte von H100 2.2x so hoch wie GA102.

Das was überrascht ist, dass die direkt in der ersten Generation All-in gehen. Die werden so schnell nicht auf N3 umsteigen. Wird spannend wie die die folgenden Jahre gestalten.
 
GERmaximus schrieb:
Soweit mir bekannt, wird die Karte im System als eine Karte erkannt.
Die Schaltung der GPU dies wird wohl wie bei Ryzen sein, intern noch vor dem Treiber.
Es gab ja schon einige Multi-GPUs in der Vergangenheit, die alle als einzelne Karte vom System erkannt und genutzt wurden und dennoch hatten diese Karten ihre Probleme mit Microrucklern.
 
Diese Gerüchte sind langsam nur noch nervig, erst 1000+ Kommentare wie schrecklich 600W werden, dann waren es plötzlich sogar bis zu 850W - ich befürworte einen frühen Vorstellungstermin von nvidia, damit diese "Leaker" (bzw. "Guesser") keine Lebensgrundlage mehr haben.


Caramelito schrieb:
Eher das Übliche. RTX 4070 wird ca. die Leistung der 3080ti/3090 haben und mit 12GB Vram bestückt.
Etc etc

Man möchte in 2 Jahren ja auch wieder eine GPU verkaufen, daher glaube ich ebenfalls nicht, dass sich an dem Leistungsgefüge großartig viel verändert und stimme somit deiner Prognose zu, habe bereits mehrfach dasselbe gesagt, die Leistungsaufnahme der 4070 dürfte dafür etwas niedriger sein, sozusagen Win/Win.

bensen schrieb:
Das was überrascht ist, dass die direkt in der ersten Generation All-in gehen. Die werden so schnell nicht auf N3 umsteigen. Wird spannend wie die die folgenden Jahre gestalten.

Warum sollten sie in 2 Jahren mit RTX 5000 nicht N3 nutzen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna und Caramelito
Mal eine andere Frage zu diesem Thema:
Was haben wir überhaupt von solchen Leaks?

Ändert sich dadurch von irgendjemandem von uns der Alltag oder so etwas dadurch?
Fangt ihr eher an zu sparen, wenn die neuen Grakas 1000% schneller sein sollen?
Kauft ihr jetzt schon neue 1200W Netzteile?

Verstehe diese Emotionen hinter so etwas noch nicht so ganz.
 
  • Gefällt mir
Reaktionen: ThePlayer und Maxxx800
MeisterOek schrieb:
Es gab ja schon einige Multi-GPUs in der Vergangenheit, die alle als einzelne Karte vom System erkannt und genutzt wurden
Ich bin leider nicht genügend in der Materie drin um es passend wieder zu geben. Aber es soll keine hd7990 werden. Daher soll auch nur einmal vram drauf sein müssen und nicht wie bisher klassisch 2x Vram bei sli/ Dual Chip.
MeisterOek schrieb:
und dennoch hatten diese Karten ihre Probleme mit Microrucklern.
Ja da hast du recht. Das würde sich heute denke ich in der Form kein Hersteller mehr erlauben.
 
Zuletzt bearbeitet:
Zurück
Oben