News Nvidia Ampere: PCB einer mutmaßlichen „GeForce RTX 3090“ abgelichtet

Hoffentlich langt mein 600 Watt NT noch für die 3090 :/
 
Sa.Lt schrieb:
uv ging bei vega doch meist ganz ordentlich

Das Vega ein guter Undervolter ist, ist wohl eher ein Gerücht und reines Marketing. Vega war ein totaler "Fail", so ziemlich nichts von den kolportierten tollen Funktionen hat funktioniert. So ziemlich jede Nvidia Karte der letzten Jahre, die ich hatte, hatte mehr Spielraum (OC/UV nenne es wie du willst) als alle meine AMD Karten. Polaris war da noch das Beste der letzten Jahre (in dieser Hinsicht). Zur 5700 XT kann ich nichts sagen.
 
Zuletzt bearbeitet von einem Moderator:
Linmoum schrieb:
Ich war zwar nicht gemeint, ich mache das aber an Igor fest. Bisher hat sich alles, was er zu Ampere an (auch eigens exklusiven) Infos gebracht hat, als stimmig herausgestellt. Igor ist auch derjenige, von dem die (bis zu) 350W für Ampere kommen.


Alles richtig, es ging aber um die Effizient. Dass die GPU potentiell viel Strom aufnimmt ist ja nur die eine Seite. Ohne Die Leistung zu kennen sagt das aber nichts über die Effizienz aus.

350 Watt schön und gut (sind 30 Watt mehr als viele Custom 2080Tis). Wenn die Karte dabei aber auch deutlich schneller ist, steigt die Effizient. Eine HD 5870 hat eine TDP von 188 Watt, verbraucht also wenig Strom. Ist aber um welten ineffizienter, als eine 2080Ti, die je nach Konfiguration zwischen 250 und 320 Watt als TDP Angabe hat. Ich glaube durchaus, was Igor da sagt. Nur können wir aus einem Bild auch nichts ablesen und genau um dieses Bild ging es ja. Die Firma von der das PCB stammt hat auch mal eine GTX560Ti Version mit 3 Stromanschlüssen veröffentlicht, die 2080Ti von denen hat auch 3 Stromanschlüsse, wie möchte man hier etwas aus dem Bild bezüglich des realen Verbrauchs ablesen?

Die gleiche Firma hat auch eine passiv gekühlte GTX 680, liest du aus diesem Bild ab, dass die GTX 680 so wenig Strom verbraucht, dass sie passiv kühlbar ist?
1597416001574.png


Daher die Frage, wie kann man Aussagen zur Effizienz treffen, ohne die Leistung zu kennen. Wie möchte von den Stromanschlüssen auf den verbrauch schließen? Das Leute von den Anzahl der Stromanschlüsse auf die Effizienz und den Realverbrauch schließen, ist eher traurig. Zumindest in einem PC Forum.

Erinnert mich aber etwas an meine Mutter, die zu meinem aktuellen auto mal meinte:

"Dein Auto hat zwei Auspuffrohre? Das muss ja viel PS haben". Auf etwa dem Niveau bewegen sich hier auch viele Annahmen....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KarlsruheArgus, eyefinity87, Strahltriebwerk und 4 andere
Jetzt wird auch Nerdporn zensiert? Warum...
 
  • Gefällt mir
Reaktionen: Cpt.Willard, hAck3rmEn, Mil_vanderMaas und 3 andere
Die Stromversorgung wird wahrscheinlich kein Einzelfall bleiben.. bin fast froh dass mein Netzteil 8x8 Pin Stromstecker zur Verfügung hat. Also Brauch ich 5x8 schonmal save. Na sowas :D

Die Spannung steigt auf jeden Fall. AMD hält sich ja bedeckt, also muss Nvidia erneut durch die Gerüchteküche. ^^

#Thermi 2.0
 
Wieviel verbraucht denn eine Titan RTX momentan so? Die sogenannte 3090 scheint ja eher in deren Sphären vorzustoßen.

Edit: Hatte das falsch im Kopf, die Titan RTX war relativ genügsam und mit am effizientesten, Titan RTX Test. Ich hoffe aber auch mal insgesamt, dass Nvidia da nicht etwas verschlimmbessert hat.
 
lugge schrieb:
Wieviel verbraucht denn eine Titan RTX momentan so? Die sogenannte 3090 scheint ja eher in deren Sphären vorzustoßen.

Abhängig von der Konfiguration. Out of The Box ist Sie mit 280 Watt angegeben. Viele Custom 2080Tis haben eine TDP von 320 Watt.
 
Ich bin schon sehr gespannt, wie der Leistungszuwachs aussehen wird. Man wird hier in Zukunft sicher zwischen Rasterizing und Raytracing unterscheiden müssen. Ich denke beim Rasterizing werden die Zuwächse wohl wieder so um die 30% ausfallen zwischen Topmodell Turing und Ampere. Beim Raytracing sehe ich aber durchaus das Potenzial für sehr große Sprünge in den nächsten Generationen, wäre nicht einmal überrascht wenn man sogar etwa 100% mehr RT-Leistung bieten könnte, 50%+ erwarte ich mir auf jeden Fall. Die Technik steckt einfach noch in den Kinderschuhen, da geht es vermutlich vergleichsweise schnell voran.

Auch sehr interessant wird, wie sich Big Navi schlagen wird. AMD hat deutlich mehr Erfahrung mit dem neuen Node, aber Nvidia wiederum mehr Raytracing-Erfahrung. Bei AMD dürfte hinzukommen, dass der Node von TSMC vermutlich etwas besser als der von Samsung ist. Andererseits hat AMD bisher auch noch einen Rückstand an der Energieeffizienz, mal sehen wie stark man hier aufholen wird können.

Wird jedenfalls ein sehr spannender Herbst, hoffentlich läutet er eine neues Wettrüsten im GPU-Markt ein, welches letztlich zu mehr Leistung und besseren Preisen für uns Konsumenten führt.
 
Aber man merkt wieder gut das CB Forum. Hier nur alle "Waaaaaas 3 Stromanschlüsse, die muss ja richtig ineffizient sein und viel Strom verbrauchen"

Auf PCGH und anderen Foren
"Was ist das für ein bislang unbekannter Chip und was kann der" "Warum sieht man nur 11 Chips" "Geil auf der Rückseite Speicher, also ergo doppelte Speicherbelegung" "Ein verborgener Speicherchip in den Signalwegen vom PCIe Slot"

Manchmal vermisse ich hier ein wenig die wirklich Hardwarebegeisterten Enthusiasten :(
 
  • Gefällt mir
Reaktionen: Cronos83, hahaqp, Smartbomb und 3 andere
Botcruscher schrieb:
Du siehst RAM-Bausteine und das reicht... Der gesamte Leak dürfte damit bestätigt sein. Mal sehen wann AMD einen auf Intel macht...
Okay, ein grob verpixeltes PCB, ein Chip mit einem Intel Aufkleber und RAM Bausteine - komplett ohne Beschriftung.

Das macht es natürlich gewiss aus.
 
@Shoryuken94 das war ja schon alles nahezu bekannt. Der Stromanschluss hingegen nicht. Denn bisher hatte Nvidia ihre eigenen seltsamen 12 Pin Stecker zum testen wo keiner sich etwas darunter vorstellen konnte. Geht jetzt halt besser.
Ergänzung ()

Klar kann es auch nur dieses custom Modell betreffen und die Leistung redet auch keiner schlecht. Aber vielen wäre das halt unangenehm.

Mir ist der Verbrauch auch egal.
 
Aktuell ist ja noch nicht einmal der Fertigungsprozess von den Gamingamperes bekannt, so dass sich auf die Effizienz keine Rückschlüsse treffen lassen, obwohl am 01.09.20 einige GPUs vorgestellt werden sollen. Also sind 8nm bei Samsung immer noch ein Gerücht.

Wie schon davor geschrieben wurde sind 3 8-Pin Stecker bei Colorful nicht selten, so dass man auch hier keine Rückschlüsse treffen kann. Einzig der VRAM ist von der Größe her sicher. Da sind die Speicherbausteine ja gut sichtbar.
 
Zuletzt bearbeitet von einem Moderator:
Ich dachte NVIDIA wollte einen neuen 12 poligen PCIe-Stromanschluss einführen. Bin mal gespannt, ob dieser bei der FE zum Einsatz kommt.

Und die 11 Speicherbausteine könnte sogar stimmen. Wer kauft sich noch eine 11GB-Karte? Aber für die Präsentation am 1.September kann man so dadurch den Preis schmackhafter gestalten, da dieser dann für die günstigeren Modelle aufgerufen werden wird. Optional bleibt eben optional. 😉
 
Lübke82 schrieb:
Ist ja noch nicht mal erahnbar, ob die 350W maximiert oder in der Standardeinstellung gemeint sind.
Doch, Igor sprach in dem Zusammenhang nämlich von der TGP. Das ist Analog zu AMDs TBP oder eben der TDP-Angabe bei CPUs. Also das, was der Hersteller für das Produkt eben festlegt als Referenzwert.
 
Also ich sehe da am Foto 14nm+++ und Hochfrequenzkerne mit einem sehr hohen Turbo 🤔

1597417525491.png


Linmoum
Die TGP ist bei der 2080TI 250 Watt oder ?
 
  • Gefällt mir
Reaktionen: Coeckchen und Smartbomb
Hoffe die 22-24GB Speicher GPU kommen um die gleichen Preise wie jetzt auch, dann müssen die ganzen Freaks ihre dann schrottigen S 2070-2080TI "Schrottkarten" verkaufen :D:D:D weil mit 8GB kommt man ja nicht weit. :rolleyes:
 
Zuletzt bearbeitet:
Zurück
Oben