Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce RTX 4000 „Ada“: Andere Eckdaten, TDP und Termine im Wochentakt
Also ich hungere nach der Leistung.
5120x1440@100Hz ist beinahe wie 4k@100Hz.
Ich geifere nach mehr Leistung: Cyberpunk, Ark, Battlefield V @RTX, MSFS, Control, Hell Let Loose, WARNO, etc
Edit: Star Citizen
Puh, so genau kann ich dir das nicht sagen. Ich gehe aber davon aus, dass die bekannten Personen definitiv ihre Quellen haben, dieses Mal aber entweder wiederholt hinters Licht geführt wurden, oder schneller respektive früher liefern wollten, als es die allgemeine Sorgfaltspflicht erlaubt hätte.
Oh, die gibt es. Es gibt dazu auch eine Menge gamer, die spielen jenseits von alten Full HD Auflösungen und High Settings und nutzen Raytracing ;-)
Wer fullHD und ohne competetive high fps shooter Ambitionen unterwegs ist, ist eher immer erst im CPU Limit.
Meine 3090 hat schon eine ganze Gruppe an Games, in denen sie mir (in 3440x1440 / UWQHD) zu lahm ist, nahe 100% vollster Last läuft und/oder zu wenig fps Korridor bietet für meine Wohlfühlzone.
Die bekannten Namen halt, Kopite7kimi und Greymon55, ich persönlich halte beide für insider, aber es gibt sicher Leute die das anders beurteilen. Auffällig bei beiden und seit Jahren konstant - je näher das finale Produkt ist desto präziser deren leaks. Wenn irgendwo in der Entwicklung der Bock noch einmal umgestoßen wird führt das aber immer wieder zu Verwirrung und Zweifeln an der Quelle. Aber wer jemals eine Produktentwicklung mitgemacht/begleitet hat weiß auch das so etwas völlig normal ist. Trotzdem gilt bis zum Test hier auf CB - alles Spekulation.
GA102 hat 10752 Shader, jeder Shader kann 2x FP32 (1x nativ und 1x als mixed unit mit entweder FP32 oder INT32). Damit hat GA102 also schon 21504 FP32 Einheiten (von denen 50% alternativ für INT32 verwendet werden können). Irgendwie passt das nicht, oder?
Die für Ampere angegebenen FP32 Einheiten berücksichtigen bereits die Dopplung, da musst du nichts mehr multiplizieren.
______________
Ich finde die Darstellung von "die Leaker" etwas undifferenziert, die Aussagen von Kopite und MLID zu Nvidia waren sehr lange in den wichtigen Punkten wie Performance Target 80-110%, 384 Bit Memory Bus, Anzahl der SMs im Vollausbau sowie Die Size und Prozess aus der 5nm TSMC Familie konsistent.
Aus meiner Sicht ist dieser Fokus auf exakte Specs einer fiktiven 4090 nicht das, was man aus Leaks mitnehmen sollte. Das Branding als 4080 Ti/4090/4090 Ti wird intern bei Testboards nicht dabeistehen, sondern das ist dann ein AD102 mit bis zu 144 SMs, von denen X gerade aktiv sind. Die Zuordnung zur genauen finalen SKU muss nicht stimmen.
Das Chipdesign steht sehr früh fest, aber die genaue TDP und die genaue Anzahl der aktiven Einheiten ist erst viel später final, wenn man bessere Informationen zum Yield und zum Scaling hat und sich final für eine Segmentierung entschlossen hat.
Diese Leaks ermöglichen recht früh einen guten Eindruck davon, wo man die nächste Generation ca. einordnen kann, nicht mehr und nicht weniger.
GA102 hat 10752 Shader, jeder Shader kann 2x FP32 (1x nativ und 1x als mixed unit mit entweder FP32 oder INT32). Damit hat GA102 also schon 21504 FP32 Einheiten (von denen 50% alternativ für INT32 verwendet werden können). Irgendwie passt das nicht, oder?
Falsch.
GA102 hat 10752 Shader, davon sind 5286 reine FP32 Shader und 5862 mixed Units.
Daher hat Ampere auch auf dem Papier soviele FP32 Shader im Vgl. zu Turing oder Pascal. Es wird einfach doppelt gezählt (Trick 17)^^
- unabhängig davon, dass ein Spiel möglicherweise eben doch mal das ein oder andere an INT Berechnungen benötigt. Dementsprechend erhält man eine recht große Streuung in Benchmarks. Eine 3060 liegt so vor einer 1070 um Faktor 1,15 - 1,90.
Ich bin da auch kein Fan dieser Zählweise. Besser wäre es reine und mixed Units getrennt anzugeben.
Achso, dann sind die TFlop Werte von Ampere aber alle um 100% zu hoch. Denn die 3090TI hat 10752 Shader bei 1860MHz Takt. 10752FPUs*1860MHz = 19998720MFlops = 19,998TFlops. Angegeben sind von NVidia aber 40TFlops, also das doppelte. Wie kommt das dann? Von den Tensor Cores kann das nicht kommen, die können kein FP32 (nur TF32). Muss also von den "normalen" Shadern sein.
So unrealistisch ist das nicht. Von TSMC 10nm auf N5P wird die Power Consumption auf 40% reduziert. Jetzt mag 8LPP etwas sparsamer als TSMC 10nm sein und die theoretische Ersparnis nicht voll ausgenutzt werden, da man auch den Takt erhöht. Aber zusammen mit dem höheren Powerbudget klingt das nicht utopisch.
Der Performancesprung an sich auch nicht. Die theoretische Transistordichte steigt auf das 2.8 fache. Praktisch ist die Dichte von H100 2.2x so hoch wie GA102.
Das was überrascht ist, dass die direkt in der ersten Generation All-in gehen. Die werden so schnell nicht auf N3 umsteigen. Wird spannend wie die die folgenden Jahre gestalten.
Soweit mir bekannt, wird die Karte im System als eine Karte erkannt.
Die Schaltung der GPU dies wird wohl wie bei Ryzen sein, intern noch vor dem Treiber.
Es gab ja schon einige Multi-GPUs in der Vergangenheit, die alle als einzelne Karte vom System erkannt und genutzt wurden und dennoch hatten diese Karten ihre Probleme mit Microrucklern.
Diese Gerüchte sind langsam nur noch nervig, erst 1000+ Kommentare wie schrecklich 600W werden, dann waren es plötzlich sogar bis zu 850W - ich befürworte einen frühen Vorstellungstermin von nvidia, damit diese "Leaker" (bzw. "Guesser") keine Lebensgrundlage mehr haben.
Caramelito schrieb:
Eher das Übliche. RTX 4070 wird ca. die Leistung der 3080ti/3090 haben und mit 12GB Vram bestückt.
Etc etc
Man möchte in 2 Jahren ja auch wieder eine GPU verkaufen, daher glaube ich ebenfalls nicht, dass sich an dem Leistungsgefüge großartig viel verändert und stimme somit deiner Prognose zu, habe bereits mehrfach dasselbe gesagt, die Leistungsaufnahme der 4070 dürfte dafür etwas niedriger sein, sozusagen Win/Win.
bensen schrieb:
Das was überrascht ist, dass die direkt in der ersten Generation All-in gehen. Die werden so schnell nicht auf N3 umsteigen. Wird spannend wie die die folgenden Jahre gestalten.
Mal eine andere Frage zu diesem Thema:
Was haben wir überhaupt von solchen Leaks?
Ändert sich dadurch von irgendjemandem von uns der Alltag oder so etwas dadurch?
Fangt ihr eher an zu sparen, wenn die neuen Grakas 1000% schneller sein sollen?
Kauft ihr jetzt schon neue 1200W Netzteile?
Verstehe diese Emotionen hinter so etwas noch nicht so ganz.
Ich bin leider nicht genügend in der Materie drin um es passend wieder zu geben. Aber es soll keine hd7990 werden. Daher soll auch nur einmal vram drauf sein müssen und nicht wie bisher klassisch 2x Vram bei sli/ Dual Chip.
MeisterOek schrieb:
und dennoch hatten diese Karten ihre Probleme mit Microrucklern.