News GeForce RTX 4000 „Ada“: Andere Eckdaten, TDP und Termine im Wochentakt

Ich glaube die 100% Mehrleistung zur 3090 werden erreicht aber nur bei Raytracing.

Bei Games ohne Raytracing glaube ich so an 70% Mehrleistung was whh Realistisch ist bei 450watt

Ich persönlich will ja eher die 3080er Leistung mit max 250watt (evtl 4060ti?)
Und definitiv nicht unter 10gb vram sonst schaue ich mich bei amd um.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
MeisterOek schrieb:
Es gab ja schon einige Multi-GPUs in der Vergangenheit, die alle als einzelne Karte vom System erkannt und genutzt wurden und dennoch hatten diese Karten ihre Probleme mit Microrucklern.
Das waren aber zwei Grafikkarten auf einem PCB mit zwei separaten Chips samt eigenem separaten Speicher, wenn man so will.
Bei AMD soll, wenn es denn so kommt, eine Grafikkarte auf einem PCB erscheinen, bei der ein Chip in unterschiedliche Teilaspekte zerlegt wird, damit die Ausbeute besser und günstiger wird. Also fast das Gegenteil dessen, was man von den alten Multi-GPU-Karten kennt.
 
  • Gefällt mir
Reaktionen: MegaManX4 und MeisterOek
bf3gmer schrieb:
Ich persönlich will ja eher die 3080er Leistung mit max 250watt (evtl 4060ti?)
Für die RTX 3070 dürfte mit 300 Watt zu rechnen sein. Insofern erscheinen 250 Watt für eine 3060Ti als durchaus realistisch. Damit würde die 4060Ti ungefähr so viel verbrauchen wie eine GTX 1080Ti. Die Frage wäre, welche Leistung sie auf die Straße bringt. Wir werden es sehen.
 
Zuletzt bearbeitet:
Flyerdommo schrieb:
Die Frage wäre, welche Leistung sie auf die Straße bringt. Wir werden es sehen.
Du meinst bestimmt die 4060TI nicht die 3060Ti, aber da eine 3060TI jetzt schon bessere FPS liefert wie eine 1080Ti wir die 4060TI wenn sie bei 250-300W ist definitiv 20-30% schneller sein wenn nicht sogar mehr plus RT performance was die alte 1080Ti gar nicht hat.
 
  • Gefällt mir
Reaktionen: Flyerdommo
Oberst08 schrieb:
Verstehe ich das richtig, dass eine einfache Multiplikation dann nur einmal pro Takt gehen würde?
Richtig. Ein MAC ist ein Befehl, der zwei Operationen in einem Takt verbindet. Andere Befehle, die nur eine Operation habe, werden dann auch in einem Takt ausgeführt.

Der Shader-Compiler ist aber in der Regel so schlau, dass er versucht bestimmte Berechnungen zu optimieren, also, wenn möglich ein a * b + c zu erreichen um zwei Operationen in einem Takt auszuführen.

So formt er durchaus ein a + b * c zu einem b * c + a um, womit dann auch ein MAC ausgeführt werden kann.
Zer0Strat schrieb:
Ja, man gewinnt Effizienz durch den besseren Prozess (aber keine 50%), verliert andererseits durch den höheren Takt, weil die Leistungsaufnahme quadratisch mit der Spannung steigt.
Kommt darauf an, wenn man durch geschicktes Schaltungsdesigns ggf. die Leckströme verhindern kann, dann kann das durchaus klappen.

RDNA2 hat gegenüber RDNA1 auch etwas "IPC" geopfert um am Ende mehr Takt zu schaffen und auch in der Effizienz noch mal zu zulegen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Colindo, Oberst08 und eine weitere Person
MeisterOek schrieb:
Es gab ja schon einige Multi-GPUs in der Vergangenheit, die alle als einzelne Karte vom System erkannt und genutzt wurden und dennoch hatten diese Karten ihre Probleme mit Microrucklern.
Stell es dir eher wie Zen3 vor, mit einen übergeordneten Cache, eben den Infinitiy Cache.
So und nicht Anders wird es kommen. Und ich würde wetten, amd nutzt auch die 3D Cache in den teuren Modellen.

Du wirst also keine doppel GPU im Sinne eines SLI haben.
 
  • Gefällt mir
Reaktionen: MeisterOek
  • Gefällt mir
Reaktionen: Onkel Föhn und Rockstar85
Caramelito schrieb:
Die RT Leistung soll nicht wirklich besser werden bzw. das Gap zw. NV und AMD wird wohl eingehalten werden.
Wem RT wichtig ist, wird dann wohl wieder NV kaufen.
Glaskugeln haben wir genug aktuell.
 
Zer0Strat schrieb:
Ja, man gewinnt Effizienz durch den besseren Prozess (aber keine 50%), verliert andererseits durch den höheren Takt, weil die Leistungsaufnahme quadratisch mit der Spannung steigt.
Habe ich oben schon mal ausgeführt. Der Prozess bietet selber mehr als 100%. Davon wird man nicht alles ausnutzen und in der Praxis bleibt dann weniger übrig. Aber +50% ist nicht so viel für den Sprung.
So einen großen Sprung bei der Fertigung gab es lange nicht mehr. Vielleicht das letzte mal von 28 nm auf 14 nm FF. Da hat Maxwell mehr als +50% auf Kepler gut gemacht.
 
Tallantis schrieb:
Glaskugeln haben wir genug aktuell.
Glaskugel hin oder her - Wenn jemand erwartet, dass NV stagniert und AMD in Sachen RT aufholt oder gar überholt, hat dieser Mensch zu viele Illusionen.

Das sage ich, während ich eine 6900xt nutze - Nein, kein "Fanboi".
Muss aber auch sagen, dass mir RT an sich egal ist und ich lieber deutlich mehr Leistung habe in Spielen anstatt auf Screenshots "Finde den Unterschied" zu spielen^^
 
Rockstar85 schrieb:
Stell es dir eher wie Zen3 vor, mit einen übergeordneten Cache, eben den Infinitiy Cache.
So und nicht Anders wird es kommen. Und ich würde wetten, amd nutzt auch die 3D Cache in den teuren Modellen.

Du wirst also keine doppel GPU im Sinne eines SLI haben.
Wie schon im Artikel angekündigt drehen sich die Gerüchte mit immer höheren Drehzahl im Kreise.

Plötzlich wird in den Leaks in Frage gestellt, ob AMD überhaupt bei RDNA3 GPU-MCM bzw. GPU-Chiplets verwenden wird.

kopete7kimmi sagt nun 1 GDC (Graphic Core/Compute Die) und 6 MCD (MemoryCoreDie?, er nimmt an es sind 3D V-Cache Chips).
Aber die Argumentation ist dass AMD für nur 6 SE keine 2 GPU-Chiplets benötige. Also er hält die Zahl von 7 Chiplets für richtig, 2 GDC + 5 MCD gefällt im nicht so gut wie 1 GDC + 6 MDC

Für mich ist klar, dass weder Greymon55 noch Kopite7kimi oder ein anderer tatsächlich Zugriff auf Interna haben. Sie bekommen Informationshäppchen und versuchen daraus ihre Schlüsse zu ziehen. Das hat immer das Risiko Informationen falsch zu interpretieren. Hinzu kommt, dass je weniger Informationen man hat, desto schwieriger ist es die Plausibilität einzuschätzen.

Patrick Schur der eine Zeit lang, wie sich gezeigt hat, exzellente Leaks verbreitet hat, ist seit August 2021 auf Twitter stumm. Ich hoffe es war nur ein ernsthaftes Gespräch.


Also gilt es sich überraschen lassen was tatsächlich kommt.
 
  • Gefällt mir
Reaktionen: Colindo und Rockstar85
@ETI1120
Wie ich sehe, noch einer der sich nicht auf Leaks stützt :) Wir werden sehen was da kommt und dann schauen wir weiter :)
 
Artikel-Update: Keine Woche, sondern nur zwei Tage sind vergangen, seitdem Kopite7kimi die für eine mutmaßliche GeForce RTX 4090 als erstes Topmodell genutzte Konfiguration des AD102 massiv nach unten korrigiert hatte. Doch nachdem er bereits am Dienstag davon sprach, dass Nvidia noch keine finale Entscheidung für die Ausgestaltung der jeweiligen Modelle getroffen hätte, rudert er jetzt offensichtlich komplett zurück und spricht abermals von einer „SKU“ (Stock Keeping Unit“) mit 18.432 FP32-Shadern - was dem kolportierten Vollausbau der AD102-GPU entsprechen würde.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]

Was AMD und Nvidia planen, bleibt unbekannt
Das Fazit von Montag, dass es aktuellen „Leaks“ zu Ada und RDNA 3 an Substanz fehlt, wird damit einmal mehr unterstrichen. Weiterhin gilt: Was Nvidia und AMD genau tun werden, ist und bleibt unbekannt.

Besondere Vorsicht ist auch bei der Einordnung der am Dienstag im Forum von Chiphell veröffentlichten Bilder der mutmaßlichen neuen Kühllösung für Nvidias Founders Edition einer GeForce RTX 4090 Ti (oder auch nur RTX 4080?) angebracht – zumal der Thread mittlerweile gar nicht mehr verfügbar ist.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

In der Tat waren Bilder des Kühlers einer GeForce RTX 3080 FE vor zwei Jahren das erste, was man von GeForce RTX 3000 zu sehen bekam. Die Authentizität der neuen Bilder garantiert diese Tatsache aber nicht.
 
  • Gefällt mir
Reaktionen: Celinna, karl_laschnikow, Colindo und 4 andere
Mal wieder das alluebliche Raetselraten, bei dem man versucht aus Bildern potentieller Kuehler, Stromanschluesse und geworfenen Knochen die Leistung einer Grafikkarte zu erraten.
Grosser Aufruhr: jemand hat auf Twitter X gewuerfelt, ein anderer aber Y.....

Edit: Gab es nicht mal eine "News" auf CB in der es hiess "wir wissen, dass es da draussen zig Geruechte ueber neue GPUs gibt, aber wir werden nicht darueber berichten bevor etwas gesichert wird."? Warum jetzt wieder dieses Rumgerate?
 
  • Gefällt mir
Reaktionen: MeisterOek, v_ossi, downunder4two und eine weitere Person
Alleine wegen dieses hin und her verstehe ich nicht warum manchen "Leakern" so viel Aufmerksamkeit gewidmet wird. Wenn sich fast stündlich was ändert ist der Informationsgehalt doch gleich null...
 
Ich bin mittlerweile geneigt, Astrologie als eine deutlich seriösere "Disziplin" zu betrachten.

Fakt ist, dass AMD und Nvidia ganz offensichtlich das Thema Leaks im Griff haben. Abgesehen davon, selbst Laien wie mir muss es absolut klar sein, dass die verschiedenen "SKUs"/GPU-Varianten für das Launch-Produktportfolio selbstverständlich schon längst final festgelegt sein müssen - außer dieses Jahr kommt nix mehr.
 
  • Gefällt mir
Reaktionen: Celinna, Oberst08, Onkel Föhn und 3 andere
Zurück
Oben