News Nvidia Ampere: PCB einer mutmaßlichen „GeForce RTX 3090“ abgelichtet

Och nö, dann muss also auch noch ein neues Netzteil her...
 
Tzk schrieb:
3x 8pin? Alter Verwalter, hoffentlich säuft die Karte nicht sooo extrem wie alle befürchten.

Samsung 8 ähm 10nm halt. Naja, lassen wir uns überraschen, wenn die Leistung und der Idle Verbrauch stimmt kommts mir auf +-200W in Game nicht an ;)
 
  • Gefällt mir
Reaktionen: Tzk
Ein 352Bit Speicherinterface, welches 22 GB bedient, ist schon nett und durchaus passend für das GeForce Gaming GPU Flaggschiff (RTX 3080Ti/3090?) der kommenden nVidia RTX Ampere GPU-Generation.

Für mich wären die 3x8 Pin Stromports vermutlich für alle GA102 Karten aber keine Option, da wäre es sogar denkbar, dass eine RDNA2 Halokarte (RX 6900XT/6950XT) effizienter ist als der direkte nVidia Modellkonkurrent.

Verkehrte Welt wäre das irgendwie, wenn nVidia mehr GPU-Speicher bieten wird als AMD/RTG, aber dafür effizienztechnisch hinten liegen würde.

Am ehesten käme wohl nach wie vor ein (vermutlich später) GA-104 Vollausbau (RTX 3070Ti?) mit 16 GB GDDR6 (X) für mich in Sachen Ampere in Frage.
 
Sehr interessant. Meine Vermutung. Nvidia schraubt rauf auf max. Weil bignavi ein kracher wird. Laut AMD bekommt Bignavi RT, nur wie macht es AMD? NV über eigene Tenso Kerne. AMD denke ich macht es über die Shadereinheiten. Wenn ein Game z. B. für RT 2400 Shader braucht dafur aber für die Texturen weniger denke ich das die effizienz bei BigNavi weit größer ist auch wegen der 7nm+ Fertigungstechnik. Somit ist NV gezwungen hoch zu schrauben damit diese wenn RT in Einsatz kommt auch mithalten können.
Glaskugel sei dank.
Ergänzung ()

Sehr spannend das Jahr. Amd liefert, NV liefer und Intel pennt mal wieder.
 
Linmoum schrieb:
Doch, Igor sprach in dem Zusammenhang nämlich von der TGP. Das ist Analog zu AMDs TBP oder eben der TDP-Angabe bei CPUs. Also das, was der Hersteller für das Produkt eben festlegt als Referenzwert.
TGP ist bei Nvidia die gesamte Power des Boards einschließlich der 3.3 Volt Leitung. Bei AMD heißt das TBP, ist aber das gleiche OHNE 3.3 Volt.
 
  • Gefällt mir
Reaktionen: derSafran, Hardware_Hoshi, Tzk und 6 andere
Kacha schrieb:
Willst du hardwarebegeisterte oder Fanboys?

Immer lustig, dass alle gleich Fanboys sind, wenn man etwas nicht kritisiert.
Kacha schrieb:
Deine Verneinungen, dass der Stromverbrauch ordentlich steigt deuten auf zweiteres.

Wo genau verneine ich das denn? Ich habe lediglich gesagt, dass der Maximalverbrauch Null mit der Effizienz zu tun hat und das wir den Maximalverbrauch real auch nicht kennen.

Kacha schrieb:
Wenn es wirklich Samsungs 8nm Node ist, dann ist der Stromverbrauch gar nicht mal so abwegig, denn im Endeffekt handelt es sich um einen leicht verbesserten 10nm Node. Das einfach abzutun hat nichts mit hardwarebegeistert zu tun, sondern mit nicht wahrhaben wollen.

Und noch mal, auch der Herstellungsprozess hat erst mal nichts mit der absoluten Leistungsaufnahme zu tun. Ob das nun 8nm, 7nm oder 45nm sind, ist mir am Ende relativ egal, wenn das Ergebnis stimmt. Sieht man doch super bei den aktuellen Karten. Eine 7nm 5700Xt ist in etwa so effizient wie eine 16nm GTX 1080. Eine 5600XT mit dem angepassten Speicherinterface und angepassteren Taktraten erreicht etwa die Effizienz von Turing in 12nm (angepasster TSMC 16nm Prozess) Unterm Strich ist das Ergebnis was zählt. Aktuell liefern AMD und Nvidia beispielsweise recht vergleichbar effiziente Karten, trotz sehr unterschiedlichem Fertigungsprozess.


Und wo tue ich das ab?
SoDaTierchen schrieb:
Es hat nichts mit "Hardware-Enthusiasmus" zu tun, wenn man solange Annahmen tätigt, bis keiner mehr weiß, was wahr ist.


Traurig, wenn du über Hobbys du nicht mal ein wenig über solche Dinge spekulieren kannst oder dazu bereit bist, dich mit gleichgesinnten auszutauschen.

Irgendwelchen irrwitzigen Annahmen von einer miesen Effizienz sind aber okay. Weil das ist ja Fakt, wenn da drei Stromanschlüssen sind:freak: Geht ja quasi nicht ander.

SoDaTierchen schrieb:
Hier wird halt schlicht auf das eingegangen, was man erkennen oder erahnen kann und darüber gefachsimpelt, nicht einfach nur solange Fakten erfunden, bis irgendwer das Diskussion nennt.

Ah ja und wo genau sind denn die Fakten zur Effizienz? Wenn es Fakten sind, dann hast du sicherlich ein paar Zahlen parat. Darfst sie auch per PN schreiben, wenn du Angst hast, dass die Nvidia Anwälte sonst ans bein pinkeln.....

Wie schon gesagt, hier wird sich plakativ über Stromanschlüsse aufgeregt, die rein gar nichts über die Effizienz, Leistung oder gar den wirklichen Stromverbrauch verraten und das sind Fakten okay.

SoDaTierchen schrieb:
Long Story Short: Ich teile deine Einschätzung nicht, dass es hier keine Hardware-Enthusiasten gibt.

Keine habe ich auch nie gesagt. Kenne selbst einige hier :) Aber es werden tatsächlich gefühlt immer weniger. Sieht man super in vielen Themen, wo dann Threads mit der Preis-Leistung erstickt werden. Fällt mir halt besonders hier auf CB immer auf.
Ergänzung ()

Makso schrieb:
Sehr interessant. Meine Vermutung. Nvidia schraubt rauf auf max. Weil bignavi ein kracher wird. Laut AMD bekommt Bignavi RT, nur wie macht es AMD? NV über eigene Tenso Kerne. AMD denke ich macht es über die Shadereinheiten. Wenn ein Game z. B. für RT 2400 Shader braucht dafur aber für die Texturen weniger denke ich das die effizienz bei BigNavi weit größer ist auch wegen der 7nm+ Fertigungstechnik. Somit ist NV gezwungen hoch zu schrauben damit diese wenn RT in Einsatz kommt auch mithalten können.
Glaskugel sei dank.

Laut Gerüchten rechnet Nvidia ja damit, dass Big Navi mit der 3080 mithalten kann. Es gibt Patente von AMD, wo das ein wenig ersichtlich wird. Bei AMD passiert das über die angepassten Shader bzw. angepassten Texture Units.

Die teile heißen übrigend Tensor Kerne und haben nichts mit Raytracing zu tun. Aktuell hat jeder Shadercluster von Nvidia einen zusätzlichen RT Core. Die Tensor Kerne dienen für die KI Berechnungen. Davon hat Turing aktuell 8 je Shadercluster. Die Tensor Kerne Berechnen kein Raytracing.

Wie effizient AMDs Ansatz ist, dass muss sich zeigen. Bisher wissen wir das noch nicht. Konsolenspiele geben da einen ersten Einblick. Da wird Raytracing bisher relativ zurückhaltend genutzt, was jetzt aber nichts genaues heißen muss. Wie stark die Raytracingleistung von Ampere ist, wissen wir auch noch nicht.

Die Effizienz ist nicht unbedingt nur vom Fertigungsprozess abhängig. Eine 5700XT ist trotz 7nm in etwa so effizient wie eine GTX 1070/1080 in 16nm. Die kleineren Navi Chips etwas effizienter. Eine 5600XT ist beispielsweise so effizient wie eine GTX1650 Super und damit auf dem gleichen Level wie Nvidias Turing in 12nm, wobei die 12nm auch nur ein angepasster 16nm Prozess ist.

Welche Fertigung für Ampere zum Einsatz kommt, wissen wir bisher auch nicht zu 100% sicher. Kann Samsung 8nm sein, kann aber auch TSMC 7nm sein bzw, je nach Chip ein Mix aus beidem.

In der klassischen Leistung wird laut meiner Glaskugel AMD sicherlich diese Generation so dicht kommen, wie schon seit langem nicht mehr. Bei den Zusatzfunktionen bin ich mal gespannt und lasse mich überraschen. Hier hat Nvidia einiges an Forsprung und viele Transistoren in Hardware investiert. Da wird es für AMD schwerer sein mitzuhalten, als in der reinen Rechenleistung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Makso, TøxicGhøst und Lübke82
@FormatC

Kurze Einschätzung vom Profi bitte: GDDR vs HBM bei den dickschiffen. Wird die beidseitige GDDR Bestückung kühltechnisch und layouttechnisch ein problem? Vgl. Speichertemperaturen auf einigen gddr6 Karten (Navi) und die toten 2080ti zum start von Turing. Die Memory ICs sitzen ja flächendeckend auf den Power Planes fürs vcore vrm.
Wasserblöcke vs beidseitige Bestückung?

Danke :D
 
Es ist überall die Rede von 2x8pin. Sparsam wird Ampere nicht, aber es wird auch einen Leistungssprung geben. Insofern erstmal abwarten.
 
  • Gefällt mir
Reaktionen: Lübke82 und cookie_dent
Okay das hat mich jetzt etwas geflasht:

Auch wenn wieder viele der Meinung sind, dass AdoredTV abseits seiner Analysen nur ein Schwätzer ist, aber das wäre heftig, wenn nVidia Samsungs 5nm (EUV) Kapazitäten für Ampere bekommen hat...das wäre echt Game Over für AMD.
 
@yummycandy Oder von diesem neuen 12 Pin. Ich denke die normalen karten werden mit 2x8 Pin kommen wie die letzten Jahre. Auch das reicht ja locker für die gemutmaßten Leistungsaufnahmen. Auf dem Bild ist ja ein Custom PCB zu sehen und nicht das Nvidia Referenz PCB.

Das Board soll von Colorful stammen. Die vertreiben auch GTX 2080Ti Modelle mit 3x8 Pin.

thepusher90 schrieb:
das wäre heftig, wenn nVidia Samsungs 5nm (EUV) Kapazitäten für Ampere bekommen hat

Das halte ich für ziemlich ausgeschlossen. Besonders bei einem komplexen High Power Chip. Sowas war ja auch mal für Zen 3 in Umlauf. Ich würde da nicht zu viel Hoffnung reinstecken. Wobei Samsung 5nm und TSMC 5nm noch mal eine andere Nummer sind. Aber zeitlich würde das mit Samsung 5nm auch schon knapp werden und ob sie die Yieldprobleme mit 5nm wirklich in den griff bekommen haben ist auch fraglich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cookie_dent
@thepusher90 Ich höre Jim gerne beim schwätzen zu :D der Akzent ist einfach genial dem könnte ich stundenlang zuhören.
 
  • Gefällt mir
Reaktionen: thepusher90 und Colindo
Novasun schrieb:
Der Fail zeigt in den APUs aber schon was er kann. Auch in den Profi GPUs für KI sieht Vega nicht so schlecht aus wie du meinst...
Das soll sich nur auf die Spieleableger beziehen. Wenn Vega langsamer als "UHD Graphics" wäre, wäre es auch ein bisschen peinlich für einen diskreten Grafikhersteller. Vega hilft nur die schiere Anzahl an CUs und jetzt werden auch noch die Treiber vernachlässigt (20.8.1). Das mit dem "Fine Wine" hat sich denke ich komplett erledigt - insbesondere mit RT-Geschichten.
 
Zuletzt bearbeitet von einem Moderator:
thepusher90 schrieb:
Auch wenn wieder viele der Meinung sind, dass AdoredTV abseits seiner Analysen nur ein Schwätzer ist, aber das wäre heftig, wenn nVidia Samsungs 5nm (EUV) Kapazitäten für Ampere bekommen hat...das wäre echt Game Over für AMD.
Massenproduktion von 5nm bei Samsung läuft erst seit letztem Quartal, natürlich ist er damit ein Schwätzer. Die Dinger launchen schon nächsten Monat, zeitlich schlicht nicht machbar.
 
  • Gefällt mir
Reaktionen: McLovin14 und Iapetus
thepusher90 schrieb:
wenn nVidia Samsungs 5nm (EUV) Kapazitäten für Ampere bekommen hat...das wäre echt Game Over für AMD.
Wieso wäre es ein Game-Over ? Schein ja ähnlich wie der 7nm+ von TSMC zu sein, nur ohne einen bisherigen Kunden und Erfahrung. Ich tippe da eher auf 8nm bei Samsung, der einfach gut optimiert ist. Das wird NV auch wichtiger sein. Weiteres soll der genutzte Chip sehr groß ausfallen. Würde nicht so für 5nm Node sprechen.
 
das stark verpixelte Bild is aber nicht wirklich ne Meldung wert...
 
pipip schrieb:
Weiteres soll der genutzte Chip sehr groß ausfallen. Würde nicht so ganz auf diesen 5nm Node sprechen.

Ich glaube auch nicht an Samsung 5nm, dass passt in meinen Augen mit dem angepeilten Launchtermin nicht wirklich zusammen. Es sei denn, es wird ein reiner Paperlaunch. Aber von der Chipgröße würde ich da nichts ablesen.

Der GA100 Chip ist auch riesig und hat eine extrem hohe Transistordichte. Samsung 5nm erreicht ähnliche Transistordichten wie TSMCs 7nm. Der GA102 soll ja angeblich etwas über 600mm² groß sein. Das wäre zwar groß, aber noch immer ein gutes Stück kleiner als der TU102. Bei Big Ampere hat Nvidia also ziemlich in mehr Transistoren investiert. Gut Möglich, dass Sie das auch beim Gaming Ampere machen, dort kommen ja zusätzlich wahrscheinlich noch die RTX Einheiten dazu.

Also rein von der Größe könnte das schon hinkommen. Aber Samsungs 8nm Prozess erlaaubt eine ähnliche Packdichte wie Nvidia Sie beim GA100 nutzt. Beim GA100 sind sidn vom Maximum ja ein gutes Stück entfernt und bewegen sich auf dem Niveau eines voll ausgefahrenen Samsung 8nm Prozesses. Von der Größe her würden also sowohl 8nm voll ausgenutzt, als auch 5nm mit ähnlicher Auslastung wie bei TSMC passen.
 
Zurück
Oben