News Nvidia Ampere: PCB einer mutmaßlichen „GeForce RTX 3090“ abgelichtet

pipip schrieb:
Die TGP ist bei der 2080TI 250 Watt oder ?
Für die FE sind es 260W, bei den Referenzmodellen 250W.
09b542156bdbb9d5d4e1aa6db3a528cf.png


https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2080-ti/#
 
Shoryuken94 schrieb:
"Was ist das für ein bislang unbekannter Chip und was kann der" "Warum sieht man nur 11 Chips" "Geil auf der Rückseite Speicher, also ergo doppelte Speicherbelegung" "Ein verborgener Speicherchip in den Signalwegen vom PCIe Slot"

Um mal auf die Fragen zu antworten:
  • Ampere. Was der kann wird sich bei Release (oder kurz vorher) zeigen. Aus dem Pixelbrei kann man nicht erkennen, was der leistet.
  • Vielleicht, weil ein verpixeltes 2D-Foto nicht alle Details eines dreidimensionalen Objektes erfassen kann.
  • Jop, ist geil. Das ist tatsächlich ein interessanter Fakt, der aber schon bekannt war.
  • Ist nicht erkennbar, würde ich also nicht drauf eingehen. Könnte auch ein Klebezettel sein. Oder ein Copy&Paste-Fehler. Der Pixelbrei gibt zu wenig Informationen her.

Shoryuken94 schrieb:
Manchmal vermisse ich hier ein wenig die wirklich Hardwarebegeisterten Enthusiasten
Es hat nichts mit "Hardware-Enthusiasmus" zu tun, wenn man solange Annahmen tätigt, bis keiner mehr weiß, was wahr ist. Das ist kindliche Aufmerksamkeitshascherei. Auf dem Foto erkennbar sind die kurzen Abstände von Chip zu den 11 sichtbaren Bausteinen, die 3 8pin-Anschlüsse, die Nvidia-Brücken-Anschlüsse und irgendein verpixelter Fleck, der einen Teil des PCIe-Interfaces verdeckt. Was ist denn daran Enthusiasmus, wenn man jetzt fachsimpelt, ob der schwarze Fleck jetzt ein Klebezettel, eine Halterung, eine neuartige Hardware in der Mitte des PCIe-Anschlusses oder einfach nur Pixel-Copy-Paste ist?

Hier wird halt schlicht auf das eingegangen, was man erkennen oder erahnen kann und darüber gefachsimpelt, nicht einfach nur solange Fakten erfunden, bis irgendwer das Diskussion nennt.

Long Story Short: Ich teile deine Einschätzung nicht, dass es hier keine Hardware-Enthusiasten gibt.
 
  • Gefällt mir
Reaktionen: derSafran, hurcos und Lübke82
SoDaTierchen schrieb:
3x8 Pin wären bis zu 525W. Das wäre schon ein gewaltiges Monster. .

In jedem Fall werden die kommenden Monate enorm spannend.

vergiss nicht das nv die RT Kerne aufgebohrt hat die werden schon ordentlich saft ziehen. Die Frage ist wieviel „mehr“ Leistung bringt die Karte bei 350 Watt
 
Shoryuken94 schrieb:
Manchmal vermisse ich hier ein wenig die wirklich Hardwarebegeisterten Enthusiasten :(

Willst du hardwarebegeisterte oder Fanboys? Deine Verneinungen, dass der Stromverbrauch ordentlich steigt deuten auf zweiteres.

Wenn es wirklich Samsungs 8nm Node ist, dann ist der Stromverbrauch gar nicht mal so abwegig, denn im Endeffekt handelt es sich um einen leicht verbesserten 10nm Node. Das einfach abzutun hat nichts mit hardwarebegeistert zu tun, sondern mit nicht wahrhaben wollen.
 
  • Gefällt mir
Reaktionen: Lübke82
Der Stromverbrauch juckt mich nicht, zahle meinen Strom selbst.

Was ich mich frage ist, wenn die 2080 Ti schon nachträglich geflickt werden musste, damit sich nicht die BGAs vom PCB lösen, was ist dann bei diesen unzähligen, nah beieinander liegenden Hotspots zu erwarten.

Ich freue mich schon auf die Erfahrungen der Early Adopter.
 
  • Gefällt mir
Reaktionen: iceshield und Ben81
Man darf eines nicht vergessen. NV hat bisher immer ein sehr gutes Linup hingestellt - wenn es darum geht das Partner noch deutlich differenzieren könnten aufgrund von OC Versionen. Deswegen geh ich davon aus das die 3 Stecker gerade so von der FE benötigt wird - die Custom Designs dann aber eben noch nen Spielraum von plus 50 bis 75 Watt haben.
Aber ich glaube nicht das die Karten billig werden...
 
Intel als Bild genommen, soll evtl. bedeuten dass hier auch hoher Stromverbrauch/TDP und hitze zu erwarten ist........ :D
11 vorne und elf hinten bedeuten also 24GB VRam denke ich mal. Sind aber schon eng einander geklatscht.
Ich hoffe das geht alles gut.
 
Linmoum schrieb:
Dann hast du auch eine Wakü nehme ich an? Ansonsten würde dich das sehr wohl interessieren.

Da besteht kein direkter Zusammenhang, also nein.
 
DasUnding schrieb:
Das Vega ein guter Undervolter ist, ist wohl eher ein Gerücht und reines Marketing. Vega war ein totaler "Fail", so ziemlich nichts von den kolportieren tollen Funktionen hat funktioniert.
Der Fail zeigt in den APUs aber schon was er kann. Auch in den Profi GPUs für KI sieht Vega nicht so schlecht aus wie du meinst...
 
LatinoRamon schrieb:
11 vorne und elf hinten bedeuten also 24GB VRam denke ich mal.
Das träfe zu, wenn ein Ram-Chip 1,09090909... GB hätte. Es sind aber runde 1GB. Wie im Text vermerkt geht "man" davon aus, dass es noch einen 12. Chip (-> 24) gibt, der aber verpixelt sein soll. Ich persönlich habe Schwierigkeiten, diesen 12. Chip auf dem PCB noch 'passend' um die GPU unterzubringen, aber bei dem Bild ist sicher sehr viel möglich.
 
  • Gefällt mir
Reaktionen: LatinoRamon und Lübke82
Mysterion schrieb:
Da besteht kein direkter Zusammenhang, also nein.
Natürlich besteht ein direkter Zusammenhang. Mehr Verbrauch heißt höhere Abwärme, heißt höhere Temperaturen und heißt damit logischerweise höhere Lautstärke bei luftgekühlten GPUs. 350W wären für Luft ein ordentliches Brett.
 
Linmoum schrieb:
Natürlich besteht ein direkter Zusammenhang. Mehr Verbrauch heißt höhere Abwärme, heißt höhere Temperaturen und heißt damit logischerweise höhere Lautstärke bei luftgekühlten GPUs.

Ich zahle meinen Strom selbst, deshalb juckt mich der Verbrauch nicht und entsprechend muss ich eine Wasserkühlung verwenden? Ok!

Ich gehe stark davon aus, dass das neue PCB und die Nähe der ganzen Hotspots noch sehr interessant wird. Da kauft man natürlich einen teuren Luftkühler mit.... weil der direkt runtergerissen wird. :D

Ne, ist schon in Ordnung. Die Hauptsache ist, Du konsumierst brav und denkst wenig, das gibt weniger Kopfschmerzen und ist sehr gut für die Wirtschaft! xD
 
Mysterion schrieb:
Ich zahle meinen Strom selbst, deshalb juckt mich der Verbrauch nicht und entsprechend muss ich eine Wasserkühlung verwenden? Ok!
Du scheinst es nicht zu verstehen. Der Stromverbrauch juckt dich dann, sofern du keine Wakü besitzt. Einfach, weil bei (deutlich) über 300W Luftkühler langsam an ihre Grenzen kommen, wo leises kühlen noch möglich ist.

Ergo kann es dir aus preislicher Sicht egal sein, aber da du Luftkühlung nutzt passt die Aussage dann trotzdem nicht. Es sei denn, du magst es laut(er) und warm/wärmer.
 
Linmoum schrieb:
Es sei denn, du magst es laut(er) und warm/wärmer.

Die Wärme fällt bei Wasserkühlung nicht geringer aus.
 
  • Gefällt mir
Reaktionen: Lübke82
Mein Setup wird zu Stromanbieters’ Liebling...
 
  • Gefällt mir
Reaktionen: Lübke82
Zurück
Oben