News GeForce RTX 3090 Turbo 24G: Das nächste Custom Design von Gigabyte bläst zur Attacke

Microsoft schrieb:
Also für mich bedeutet Fortschritt: Mehr Leistung durch geringere Leistungsaufnahme und wenn ich mir einige Partnerkarten anschaue die 3x8Pin (450watt) + PCI_E (75Watt) = 525Watt theoretisch nur für die GPU, dann ist das schon übelst grenzwertig was die dort entwickeld haben.
...

Die Karte ist im Stockzustand sowohl effizienter als die Vorgänger als auch das aktuell schnellste AMD Modell (ausgedrückt in fps/W). Besser sieht man das noch in dem Test, wo sie wie die 2080 Ti auf 270W gesetzt wird. Da sind es 25 % mehr Leistung bei gleicher Leistungsaufnahme.

Wer mit Vsync, Adaptive Sync oder Gsync spielt, hat es unter Umständen noch besser. Um den gleichen Output abzuliefern, benötigt sie fast halb so viel Energie. Da sieht man doch, dass der Vorgänger schon schwitzen muss. Ich denke, dass von solch einem Szenario Nvidia auf die 1,9x Effizienz in ihrer Präsentation kommt. Frag mal hier rum, wer alles mit FPS-Limit spielt. Wenn man die Karte an ihre Grenzen bringt, sinkt natürlich die Effizienz. Aber die ist immer noch höher als bei den Vorgängern.

Link zu PC-WELT
123.png


Bezüglich des "absichtlichen" Weglassens von Gesamtverbrauchsangaben kannst du hier mal schauen. Die geben u. a. den Gesamtverbrauch an: Techspot und Tweaktown

1234.png

Vielleicht juckt das einfach kaum jemanden. Wer sich wie du wirklich dafür interessiert, wird den eigenen Verbrauch des Systems und der eigenen Karte kennen und muss nur noch die Differenz aufaddieren. Fertig.
 
  • Gefällt mir
Reaktionen: Philanthrop
Microsoft schrieb:
nVidia stehen die Gesamtauslastung des Systems wegelassen haben
ich habe jetzt nur die Tests auf CB gelesen und da ist es mir auch aufgefallen, wollte eigentlich einen Vergleich zu meiner 980 TI machen, habe daher den alten CB Test gesucht, bei der 980TI wurde das Gesamtsystem angegeben bei der 3080 dann nicht mehr... habs auf "andere Testweise" geschoben :)
 
Kann man machen. Die Vega 64 mit extrem aufgedrehten Lüftern kann auch deutlich über 300 Watt Boardpower wegkühlen. Aber ob man sich das akustisch antun möchte....
 
NguyenV3 schrieb:
Wer mit Vsync, Adaptive Sync oder Gsync spielt, hat es unter Umständen noch besser. Um den gleichen Output abzuliefern, benötigt sie fast halb so viel Energie.
Für letztere ist das ziemlich egal da es keinen festen Aktualisierungszyklus wie bei vsync gibt.
Ist das Bild fertig wird es an den Monitor ausgegeben. Solange das in dessen Range liegt ist es egal ob mit oder ohne und wenn man nicht mehr FPS als mit der schwächeren Karte rausbekommt, wozu dann aufrüsten?
 
Ohhhhh, leider kein DVI mehr. Nicht mal beim Blower Modell. Das war doch das Markenzeichen von nVidia? Ach mennooo... Wie schaaade...
NICHT! 🍌 😝

@SV3N : Denke die Karte ist einfach für die Jenigen, die eh auf WaKü Umbauen. Nackte Karte wollten die wohl nicht verkaufen. Dann muss ja Irgendwas drauf und dann eben das Billigste. Die 3090 schreit ja förmlich nach WaKü.

Wobei nackte Karten für nen guten Preis ist ne Marktlücke wie ich finde. Wenn man schon um die 150$ für die FE Kühler rechnet und bestimmt nicht viel weniger für Custom Kühler. Für das Geld lieber nen guten WaKü Block. Kühlerwechsel ist bei vielen Herstellern eh "erlaubt" wieso dann nicht gleich ne "Core" Edition? Würden sich höchstwahrscheinlich größtenteils nur Leute kaufen, die wissen was sie tun. Wäre ein win win für alle. Weniger Aufwand für Anbieter und Kunde. Der kann direkt Marge drauf packen ohne weitere Umstände / Entwicklungskosten / Maschinen oder Personal und "günstiger" weiter an den Kunden geben :daumen: Verstehe ich nicht wieso es das bis heute nicht gibt. Sonst gibt es ja auch von allem eine "Bulk" Version.
 
Zuletzt bearbeitet:
AleksZ86 schrieb:
ich habe jetzt nur die Tests auf CB gelesen und da ist es mir auch aufgefallen, wollte eigentlich einen Vergleich zu meiner 980 TI machen, habe daher den alten CB Test gesucht, bei der 980TI wurde das Gesamtsystem angegeben bei der 3080 dann nicht mehr... habs auf "andere Testweise" geschoben :)

Wenn die damals bei der 980 Ti das gleiche Testsystem haben wie beim 3080 Test, kann man das so machen :D
 
Der Winter kann kommen. :(
Ich sehe die Entwicklung auch eher kritisch. Wie damals beim Pentium IV: Mit der Brechstange mehr Leistung.
 
NguyenV3 schrieb:
Wenn die damals bei der 980 Ti das gleiche Testsystem haben wie beim 3080 Test, kann man das so machen :D
jap, war/ist mir bewusst, mich hätte trotzdem der verbrauch des letzten und des aktuellem interessiert ;)
 
  • Gefällt mir
Reaktionen: Philanthrop
Frei nach dem Motto: wenns nicht laut ist, hats keine Leistung :evillol:
Naja, DHE-Kühler haben schon so den Pluspunkt in OEM-Gehäusen mit wenig Airflow auch noch gut zu funktionieren, aber ich wage mal zu behaupten, dass >250W einfach zu viel sind, die 1080 Ti FE war mW wohl halbwegs iO in Sachen Geräuschkulisse, vor allem deshalb, weil es keinen DVI mehr gab und somit eine Slotblende komplett frei war, aber andere mit eben DVI im zweiten Slot nicht, wie die R9 290, ist mir letztens über den Jordan gegangen:

Schon verständlich, dass zumindest einer diese Nische noch füllen möchte, von Turing (2080 Ti) gabs die ja neben Gigabyte u.a. noch von Asus als "Turbo", der Name passt immerhin gut und MSI als Aero, aber an der 3090/3080 werden sie sich mMn diesbezüglich die Finger verbrennen.
Vielleicht fallen die dann schnell im Preis und man kann sie sich für WaKü-Umbau nehmen (wobei es ja inzwischen auch viele fertige gibt, nicht mehr nur EVGA Hydro Copper, sondern Aorus Waterforce, MSI Sea Hawk EK X, KFA² Hall of Fame habe ich auch schon mit WaKü gesehen, 980 Ti und 1080 Ti) etc. oder schraubt einen Morpheus 8057 drauf, sofern der auch Ampere-Kompatibel ist.

@Herdware Doch nicht die Tesla-Serie, die haben wie ihre Konkurrenten Radeon Instinct und Xeon Phi gar keinen Lüfter und auch keine Videoausgänge, da reicht idR der Luftdurchsatz und Druck von den Propellern in den Servergehäusen, nur mit anderen guckt man dann in die Röhre und sollte sich bspw. einen Luftschacht bauen, vor dem dann ein Lüfter kommt, der dann hoffentlich genug Luft durch den Kühler drückt.

Die Quadro und Radeon Pro haben weiterhin DHE-Föhne, wäre aber mal interessant, wenn AMD/nVidia probeweise dort mal einen Kühler wie jetzt bei 3080/90 FE bringen würden...
 
Nice, brauche eh nen neuen Fön, Griff dranschrauben und ab die Post :D
 
für Workstations zwar perfekt, doch dürften die wenigsten normal erhältlichen WS 4 davon vertragen können, selbst für 3 wird es sehr sehr eng werden. Wenn ich mich recht entsinne, bietet die P920 mit einem 1400W Netzteil dahingehend die stärkste PSU am Markt - selbst in dieser hätte ich mit 3en davon ein mulmiges Gefühl (weiß nicht ob überhaupt möglich und es genügend x8 Stecker gäbe) - die CPUs und anderen Komponenten sollten ja auch noch versorgt werden...
Ich denke bei 4 haben auch die größten so erhältlichen NTs mit 2000W praktisch gar keine Reserve mehr, bei Dual Sockel System wird es wohl sogar damit eng werden können - na Prost Mahlzeit, das sind Regionen
 
Je nachdem wie nahe sich die Karte an der UVP bewegt und welches PCB verwendet wurde könnte die Karte durchaus für Wakü Nutzer interessant werden. Kühler runter, Block drauf. Insgesamt wahrscheinlich noch günstiger als Karten mit großen Luftkühlern, die aber kein Leistungsplus damit erreichen.
 
Immer wenn ich diese mini radial Lüfter sehe die in diesen recht Voluminösen Resonanzkörpern sitzen, muss ich an Dyson denken. Dyson, ihr wisst schon, das ist der hersteller mit hochfrequent laufenden Lüftern um mini Tornados in ihren Staubsaugern zu erzeugen..
 
  • Gefällt mir
Reaktionen: Scr1p
Sollen mir erstmal meine 3080 Eagle schicken, noch für 699€ abgegriffen. Aber was ein Radiallüfter noch heute Einsatz findet versteh ich nicht.

Vlt für Mining Racks von Tinnitus Patienten, die im Schlafzimmer stehen um Meeresrauschen oder Tsunamigeräusche zu simulieren.
 
peru3232 schrieb:
Ich denke bei 4 haben auch die größten so erhältlichen NTs mit 2000W praktisch gar keine Reserve mehr, bei Dual Sockel System wird es wohl sogar damit eng werden können - na Prost Mahlzeit, das sind Regionen

Wieso nur ein Netzteil nehmen? Nur weil es im "Spielzeugmarkt" sowas nicht gibt, bedeutet es nicht, dass keine Lösungen dafür existieren.
1600513843895.png
1600513931653.png
 
  • Gefällt mir
Reaktionen: konkretor
NguyenV3 schrieb:
Die Karte ist im Stockzustand sowohl effizienter als die Vorgänger als auch das aktuell schnellste AMD Modell (ausgedrückt in fps/W). Besser sieht man das noch in dem Test, wo sie wie die 2080 Ti auf 270W gesetzt wird. Da sind es 25 % mehr Leistung bei gleicher Leistungsaufnahme.

Wer mit Vsync, Adaptive Sync oder Gsync spielt, hat es unter Umständen noch besser. Um den gleichen Output abzuliefern, benötigt sie fast halb so viel Energie. Da sieht man doch, dass der Vorgänger schon schwitzen muss. Ich denke, dass von solch einem Szenario Nvidia auf die 1,9x Effizienz in ihrer Präsentation kommt. Frag mal hier rum, wer alles mit FPS-Limit spielt. Wenn man die Karte an ihre Grenzen bringt, sinkt natürlich die Effizienz. Aber die ist immer noch höher als bei den Vorgängern.

Link zu PC-WELT
Anhang anzeigen 968585

Bezüglich des "absichtlichen" Weglassens von Gesamtverbrauchsangaben kannst du hier mal schauen. Die geben u. a. den Gesamtverbrauch an: Techspot und Tweaktown


Vielleicht juckt das einfach kaum jemanden. Wer sich wie du wirklich dafür interessiert, wird den eigenen Verbrauch des Systems und der eigenen Karte kennen und muss nur noch die Differenz aufaddieren. Fertig.

Kein Mensch auf diesem Planeten außer NVIDIA um die leichtgläubigen zu verarschen misst die Performance per watt mit einem Frame Limiter bei 60 FPS.

Glaubst du das es AMD bei ihrer kommenden Präsentation, wenn es darum geht die Performance per watt Steigerung von RDNA1 mit RDNA2 hervorzuheben es AMD nötig hat diesen bei 60FPS durchzuführen?
Anstatt eine reale Steigerung von 50% kommen sie dann mit + 400% daher ich denke nicht das AMD das nötig hat seine Kunden so zu verarschen.

Man kann jetzt NVIDIA zugute halten das es sich bei einer solchen Aktion um kreatives Marketing handeln würde.
Aber ich würde das eher als Bauernfängerei bezeichnen.


Die reale Performance per Watt Steigerung der 3080 beträgt nämlich max. + 5%. nicht mehr aber auch nicht weniger.
 
  • Gefällt mir
Reaktionen: t0mic
ro///M3o schrieb:
@SV3N : Denke die Karte ist einfach für die Jenigen, die eh auf WaKü Umbauen. Nackte Karte wollten die wohl nicht verkaufen. Dann muss ja Irgendwas drauf und dann eben das Billigste. Die 3090 schreit ja förmlich nach WaKü.

War auch mein erster Gedanke, das Ding ist prädestiniert dafür. Bin aber trotzdem gespannt wie laut das Teil wird.
 
  • Gefällt mir
Reaktionen: ro///M3o
Zurück
Oben