Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions

nicht direkt
man kann aber samsung 10nm zu 14nm und tsmc 12nm zu 7nm
Differenz ist ~15% mehr Effizienz bei tsmc
samsung von 14 auf 10nm 10% Effizinez zu 8nm marginal um die 5%

tsmc 4n vs 7nm etwa 30% mehr Effizienz oder 15% mehr Takt.
Der Takt wird aber vom chipdichte limitiert.
amd Vorteil liegt daran das der warme teil cache nicht im chip ist abseits L0.
nvida ada wird vermutlich nur dann hoch Takten wenn die int32 Einheiten deaktiviert sind/dlss3
 
Samsung N8 zu TSMC 7N waren ja auch ca. 10-15% Effizientsunterschied.

Wäre dann ca. 40-45% Unterschied zwischen den 2 Gens

Normale TGP der 3090 waren 350 Watt, bei der 4090 450 Watt, also 28% mehr Stromverbrauch.
Milchmädchenrechnung ergibt alleine durch die Fertigung und mehr Stromverbrauch 80% Mehrleistung
 
  • Gefällt mir
Reaktionen: Illithide
Was hat cb gegen Tabellen?
Siehe den text da würde ich das machen
Energie Einsparung
7nm100%
5nm60%
gut ist was mehr 40% dazu die fehlende 15% von Samsung = 55% oder 27% mehr Takt.
 
Ah, sorry, hab davor dem falschen Link gepostet und wie schon Markus gesagt hat, der Samsung 8nm war etwas schlechter als der 7nm von TMSC. Und ich meine du bist deswegen etwas falsch, weil du 4nm = 5nm setzt, was nicht richtig ist.

https://fuse.wikichip.org/wp-content/uploads/2019/07/wikichip_tsmc_logic_node_q2_2019.png


edit und der Link ist auch interessant aber genau bei 4nm ist ein Fragezeichen^^
https://www.anandtech.com/show/16639/tsmc-update-2nm-in-development-3nm-4nm-on-track-for-2022
 
Zuletzt bearbeitet:
RogueSix schrieb:
Es hält sich ja hartnäckig das Gerücht, dass DSC etwas ganz Böses sei, aber ich kann -so wie viele andere- aus erster Hand sagen, dass das völliger Unsinn ist.
Das kannst du dann hier im Forum 100 mal in jedem Thread behaupten, AMDs Marketing Abteilung wird das zu ihren Gunsten ausschlachten und darum ging es vor allem in meiner ursprünglichen Aussage. Nvidia hat hier der Konkurrenz eine Steilvorlage geliefert nur um ein paar Cent zu sparen?

Abgesehen davon ergibt sich aus der Geschichte noch ein zweites Problem, DP2.0 würde einfache und günstige passive DP2.0->HDMI2.1 Adapter ermöglichen, auch das ist bei Nvidia zunächst einmal nicht drin. Hier kann man sich aber immerhin etwas behelfen, indem man von Anfang an eine ASUS Karte kauft, bei den meisten Herstellern wird man aber vermutlich wie üblich mit einem HDMI2.1 Port abgespeist.
1663928103771.png

https://www.asus.com/Motherboards-C.../TUF-Gaming/TUF-RTX4090-O24G-GAMING/techspec/
 
Artikel-Update: Nvidia hat mittlerweile weitere Details zur Ada-Lovelace-Architektur bekannt gegeben. Darunter sind auch neue technische Spezifikationen, die unter anderem sowohl die Chip- sowie Cache-Größen zu den 3 GPUs AD102, AD103 sowie AD104 betreffen, die auf der GeForce RTX 4090, GeForce RTX 4080 16 GB sowie GeForce RTX 4080 12 GB eingesetzt werden. Die Informationen hat ComputerBase in folgende Tabelle eingefügt.
 
  • Gefällt mir
Reaktionen: Laphonso, McTheRipper, PietVanOwl und 4 andere
Danke für das Update, also doch L2 Cache deutlich gewachsen :)
Man eifert AMD ja schon etwas nach.
 
  • Gefällt mir
Reaktionen: Qyxes
„Das Erstellen eines 8K-Videos im H.265-Codec soll gar in 25 statt 10 Minuten erledigt sein.“
Eher in 10 statt 25 oder @Wolfgang?

4090 ist ja ein Monster von den TFLOPs und anderen Werten.
 
  • Gefällt mir
Reaktionen: fox40phil
Was mich an der Geschichte am meisten wundert, es gibt scheinbar bei keiner dieser Karten eine Zweitverwertung für teildefekte Chips! Landen die "guten" wieder so wie früher in professionellen Lösungen und ist das bereits die Zweitverwertung? Wird man später "Li" Karten nachschieben? Geht Nvidia von überragenden Yields aus?

Fast könnte man denken, dass hinter AD102-4 der gleiche Chips mit unterschiedlichen Namen steckt, aber auch das wäre mehr als seltsam.
 
Nach Physix, N-Sync, RTX, DLSS1 dann DLSS 2 usw.
kommt jetzt mit DLSS3 aber wirklich Nvidias Game Changer.
Ist ein absolutes Must Have Killer Feature.

Gaming geht nicht mehr ohne RTX 4080/4090.
 
  • Gefällt mir
Reaktionen: Aekoric, Recharging, CrAzYLuKe und eine weitere Person
Wie witzig wäre es eigentlich, wenn alle Tech Seiten die 12GB 4080 einfach 4070 nennen würden 😂... wäre eine spannender demonstrativer Test.

Edit: bzw. 4060(ti)... bei der Die Größe, die schön auf reddit über viele Gens. verglichen wurde
Ergänzung ()

Depi schrieb:
Ist das ernst gemeint?
Nein... sicher nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Coeckchen, Recharging, Tzk und 2 andere
AD104 ist mit 295 mm² also deutlich kleiner als GA104 mit 393 mm².
Also es gibt mehr GPUs pro Wafer, auch wenn die Waferkosten gestiegen sind. Das dürfte sich doch wohl ausgleichen?

RTX 3060 Ti 419€
RTX 3070 519€
RTX 4080 12GB 1.099 €

Es passt einfach nicht zusammen. Niemand kann ernsthaft die RTX 4080er in Betracht ziehen.
 
  • Gefällt mir
Reaktionen: eXe777, KingL, Tzk und 2 andere
fox40phil schrieb:
Wie witzig wäre es eigentlich, wenn alle Tech Seiten die 12GB 4080 einfach 4070 nennen würden 😂... wäre eine spannender demonstrativer Test
Wird durch die genauen Angaben jetzt auch nur noch mal bekräftigt, dass das eine 4070 ist. Anderer Chip, kleiner, hat eigentlich nichts mit der wirklichen 4080 gemeinsam.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tzk, msv und fox40phil
fox40phil schrieb:
Wie witzig wäre es eigentlich, wenn alle Tech Seiten die 12GB 4080 einfach 4070 nennen würden
Wir können ja hier als Forum gemeinsam und geschlossen damit anfangen.
Ich bin mal so frei: Ich freue mich schon auf erste Tests. Vor allem wie die 4070 gegenüber der alten Generation abschneidet. Schließlich hat sie mit 12 GB ja jetzt deutlich mehr Speicher als ihr Vorgänger.
 
  • Gefällt mir
Reaktionen: Coeckchen, Recharging, Einfallslos^99 und 5 andere
cloudman schrieb:
Klar der ist für 600w ausgelegt.
Eigentlich wollte ich nur darauf hinweisen, dass man mit den üblichen 8 pin an etwas älteren NT nicht mit 1 oder 2 Kabeln auskommt
Ja, das stimmt natürlich. Ich habe zwischenzeitlich eine Antwort von BeQuiet erhalten, man wird wohl tatsächlich ein Kabel anbieten, kann aber noch nicht sagen wann. Na schauen wir mal.
 
Sun-Berg schrieb:
@Recharging Der Punkt ist, dass das Spiel CPU limitiert ist. Sogar in 4K noch.
Das ist der Grund dafür, warum für den MSFS alles ab RTX 3080 schon Overkill ist und somit rausgeworfenes Geld. Es sein denn, man spielt noch andere Games, was bei mir nicht der Fall ist und deswegen ist meine RTX 3060 Ti eigentlich die perfekte GPU für den MSFS. Nur mein i5-11600 limitiert leider.
 
  • Gefällt mir
Reaktionen: Recharging und Sun-Berg
leonM schrieb:
30fps sind immer mit Inputlag-Gefühl behaftet(auch bei der besten Hardware für Inputlag), wenn man Steuerung auf hohe Sensibilität hat. Aktuell sieht es bei den meisten so aus, dass ihre Hardwarekomponenten im Zusammenspiel mit einen Render(bei den jedweiligen Spielegenres) von >60fps als spielbar annehmen. Jetzt soll aufeinmal das nicht mehr von Relevanz sein und das Grundlegende bei hohen Frames nur die Beseitigung von Motion Blure ? Naja, jedenfalls nicht für mich und einer der Hautgründe warum ich nicht auf Konsolen, sondern auf dem PC zocke
Online Gaming mit 30ms Ping fühlt sich ja auch gut an, obwohl 30 ms dazukommen, von 60 FPS auf 30 kommen nur 17ms dazu. Also müsste sich rein vom Inputlag her ein Singleplayer game mit 30 FPS responsiver als ein Multiplayer mit 60 FPS anfühlen, tut es aber nicht, das Gefühl hängt halt irgendwo auch mit der Flüssigkeit zusammen, und Onlinegames berechnen natürlich auch Sachen lokal damit man die 30ms nicht fühlt. Ist also kein guter Vergleich sondern eher als Gedankenexperiment gedacht.

Denke man muss selber testen wie sich das anfühlt. Und die Idee ist grundsätzlich keine schlechte Sache.

Was aber schlecht ist, ist so zu tun als ob dadurch aus 1-2 facher Leistung auf einmal 2-4 fache Leistung wird, das ist einfach unehrlich von Nvidia
 
xexex schrieb:
Was mich an der Geschichte am meisten wundert, es gibt scheinbar bei keiner dieser Karten eine Zweitverwertung für teildefekte Chips! Landen die "guten" wieder so wie früher in professionellen Lösungen und ist das bereits die Zweitverwertung? Wird man später "Li" Karten nachschieben? Geht Nvidia von überragenden Yields aus?
Zumindest der AD102 ist bereits ein Salvage Chip, der Vollausbau hat 1800 Shader mehr und wandert in den Profibereich: https://www.computerbase.de/2022-09...-profi-loesung-mit-mehr-shadern-und-speicher/

Aber für 2k Euro kann man natürlich auch keinen Vollausbau erwarten 🙃
 
Zurück
Oben