News GeForce RTX 3090 Ti: EVGA K|NGP|N mit zwei 16-Pin-Steckern für bis zu 1.275 Watt

fraqman schrieb:
@Martinipi

Ja, eine Grafikkarte besitzen, die im Jahr mehr schluckt, als jeder Kühlschrank. Der Inbegriff von Freiheit.. nur dafür wurden hunderte Schlachten geschlagen..
Das kann man dann auf alles ummünzen.
Autos, Häuser, Kleidung, Hobby, Nahrung.

Dann schreibt man einem bald nicht nur vor wie viel Strom sein Hobby Fressen darf, sondern wie viel qm Wohnfläche und wie viel ps dein Auto haben darf. Wie viel Fleisch pro Woche gegessen werden darf und wie oft du neue Kleidung kaufen darfst.

Wie kann man bei unseren engstirnigen Gesetzen nur noch mehr Verbote fordern?

Diese Werte der Karte sind doch nur bis zu Werte.
Das 1kw BIOS geistert doch schon ewig rum und machte Theater mit dem vram (der Takt lief permanent auf Anschlag).
Hat doch quasi jeder 3090 Wakü User mal getestet, gebenchd, gestaunt, und zurück gerüstet.

Außer für oc bzw bench Spielereien nutzt das im Alltag niemand.

Aber ja es gehört verboten weil wir deutschen im verbieten und reglementieren ja Weltmeister sind.
 
  • Gefällt mir
Reaktionen: ComputerJunge, VoAlgdH und ThirdLife
So allmählich dürften diese Watt Zahlen auch dem letzten zu dumm werden. Wo führt das hin außer ins absurd lächerliche! PC muss bald in die Küche statt Herd, Starkstrom...
 
JahJah192 schrieb:
So allmählich dürften diese Watt Zahlen auch dem letzten zu dumm werden. Wo führt das hin außer ins absurd lächerliche! PC muss bald in die Küche statt Herd, Starkstrom...
Betreibst du deine 3090 denn am absoluten Maximum mit 500W Verbrauch 24/7 ? Nein ? Was motzt du dann also ? Das macht niemand dessen IQ Zimmertemperatur überschreitet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus und TigerNationDE
Mich würde mal interessieren, was die Karte an MH/s schafft. Die normale 3090 geht ja schon gut ab.
Ansonsten ist das hier eine Machbarkeitsstudie, eine Enthusiastenkarte.
Und niemand ist gezwungen, sich sowas zu kaufen...
 
  • Gefällt mir
Reaktionen: TigerNationDE
DerHechtangler schrieb:
Mich würde mal interessieren, was die Karte an MH/s schafft. Die normale 3090 geht ja schon gut ab.
Ansonsten ist das hier eine Machbarkeitsstudie, eine Enthusiastenkarte.
Und niemand ist gezwungen, sich sowas zu kaufen...
Naja, das kann man ja mehr oder weniger überschlagen:

5376 / 5248 Shader = 2,439% Differenz. Bei gleichem GPU und VRAM Takt wäre das die Mehrleistung. Also komplett vernachlässigbar.

Die meisten Miner werden ihr VRAM auch OCed/optimiert haben und somit wohl problemlos auf 20.5Gbps rankommen oder auf 21G gleichziehen. Best Case also auch hier nochmal 2,5% ca. on Top. +/- 5% würde ich mal in den Raum werfen.

Denke der Sweet-Spot ist immer noch die 3080 Ti, auch für Miner. Man kriegt die meisten Shader, das schnelle Speicherinterface + schnelles VRAM fürs Geld. Die 24GB der 3090 kosten nur Strom dürften aber wenig bringen. Kann mich aber auch irren, bin in dem Segment kein Profi :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus und VoAlgdH
Echt der Wahnsinn - im negativen Sinne:
Die GPU dürfte kaum dafür ausgelegt sein, den zur Verfügung gestellten Mehr-Strom 1:1 geschweige denn noch effizienter in verwertbare Mehrleistung umzusetzen: Der theoretische Stromverbrauch gegen über der NVidia 3090 Ti "Vanilla" steigt um rund plus ~180% an - und wieviel kommen davon in Form von FPS auf dem Monitor an? +30%? +50%? Wenn überhaupt...

Hier halte ich es ausnahmsweise mit den kalifornischen Verordnungen: Dermaßen, höchstgradig ineffiziente Hardware, die den Mehrstrom überwiegend nur vernichtet, sollte für den Verkauf verboten werden. Machbarkeitsstudien, ok. Irgendwelche Hochleistungsrechner an Instituten, meinetwegen. Aber darüber hinaus gewerblich geschweige denn privat: Nein.
 
Wenn Spiele wieder mit Gehirnschmalz und entsprechend nach Spielspass programmiert/gepublisht werden,
wuerden integrierte Loesungen voellig reichen.

Nvidia & co muessten dann ihren eigenen Muell beseitigen, viel Spass.

Leider ist das Gegenteil der Fall.
Der Trend geht immer weiter Richtung Grafikposer ohne Inhalt/Spielspass.

Ist einfach einfacher ;).
 
branhalor schrieb:
Echt der Wahnsinn - im negativen Sinne:
Die GPU dürfte kaum dafür ausgelegt sein, den zur Verfügung gestellten Mehr-Strom 1:1 geschweige denn noch effizienter in verwertbare Mehrleistung umzusetzen: Der theoretische Stromverbrauch gegen über der NVidia 3090 Ti "Vanilla" steigt um rund plus ~180% an - und wieviel kommen davon in Form von FPS auf dem Monitor an? +30%? +50%? Wenn überhaupt...

Hier halte ich es ausnahmsweise mit den kalifornischen Verordnungen: Dermaßen, höchstgradig ineffiziente Hardware, die den Mehrstrom überwiegend nur vernichtet, sollte für den Verkauf verboten werden. Machbarkeitsstudien, ok. Irgendwelche Hochleistungsrechner an Instituten, meinetwegen. Aber darüber hinaus gewerblich geschweige denn privat: Nein.
Ich denke die Mehrleistung in Form von FPS bewegt sich im Bereich 5% ebenfalls. 30 werden das niemals sein.

Und der hohe Maximalverbrauch ist eher theoretischer Natur und eben für Leute die OC Rekorde mit Stickstoff erzielen wollen, nicht für Gamer im Alltag gedacht. Die 1300W kannst du nicht wegkühlen vom Die. Auf so engem Raum so viel Energiedichte wird die Leistung eher reduzieren denn erhöhen ausser du gehst in die Minusgrade.

Im Alltag wird die Karte soviel fressen wie eine 3090 bisher auch, die wird dann mit 350W betrieben und liefert dir ihre 5% Mehrleistung und gut ist. Da muss man die Kirche auch mal im Dorf lassen. :)
 
  • Gefällt mir
Reaktionen: GT200b
KurzGedacht schrieb:
Der Ansatz jedes Produkt so regulieren zu wollen ist einfach abstrus. Für so was ist der Staat und inbesondere die EU viel zu unflexibel. Zumal die absolute Energieaufnahme einer GPU exakt nichts über die Effizienz aussagt, jeder Versuch einer Regulierung ist da also zum scheitern verurteilt.
Ich habe mit keinem Wort erwähnt, dass die Energieaufnahme (vor allem nicht die absolute) das einzige Kriterium sein sollte. So einen Fail hat man schon bei besagten Staubsaugern sehen dürfen und das kann keiner wollen, auch ich nicht. Allerdings kann es auch nicht angehen das künftige Generationen nur ein paar Prozent effizienter sind als die Vorgänger Gen aber dann trotzdem X-hundert Watt mehr saufen, damit künftig dann 16K Auflösungen bei 300 FPS gefahren werden können (überspitzt gesagt).

Das ganze erinnert mich ein wenig an die Effizienzsteigerungen bzgl. Verbrauch bei Autos. Da wird lieber mehr Leistung der Fahrzeuge gewählt bzw. mehr Luxusausstattung verbaut und höheres Karossengewicht (SUV Stadtpanzer) etc. als die Verbrauchssenkung mal in der Umwelt ankommen zu lassen. Es wird auf Dauer sowieso nicht möglich sein, dass sich jeder das Recht rausnimmt dynamisch 2000kg Masse im Individualverkehr durch die Gegend zu bewegen, aber das ist ein anderes Thema.

KurzGedacht schrieb:
Wenn ich ne GPU hab die 3000W zieht, aber damit 30 Gamer gleichzeitig versorge, sind die 3000W ein prima Wert.
Wenn man das "tatsächlich" macht und die GPU dann im Solobetrieb für dich allein 100W säuft, dann ja, aber darum geht es gerade nicht.

KurzGedacht schrieb:
Man regelt solche Dinge über allgemeine Dinge wie Standby Energieverbrauch und letztlich eben über die Kosten für CO2 bzw. den Strompreis.
Da sehe ich ein großes Problem denn bis der Strompreis selbst bei solchen Karten eine Wirkung zeigt ist eine zu große Steigerung desselben notwendig.
 
ThirdLife schrieb:
Im Alltag wird die Karte soviel fressen wie eine 3090 bisher auch, die wird dann mit 350W betrieben und liefert dir ihre 5% Mehrleistung und gut ist. Da muss man die Kirche auch mal im Dorf lassen. :)
Ja, da hast Du schon Recht mit.

Trotzdem Wahnsinn. Eben auch wegen dem, was Du sagst: Wozu entwickle ich eine derartige Nischenkarte, wenn es praktisch keinerlei Relevanz für 99,9% der Nutzer hat. Das kann doch dann auch nur Marketing sein und dem Schwanzvergleich dienen, oder?
 
Anstatt effizienter zu werden, steigt der Strombedarf. Der falsche weg. Die Karte ist absoluter Schwachsinn.
 
branhalor schrieb:
Ja, da hast Du schon Recht mit.

Trotzdem Wahnsinn. Eben auch wegen dem, was Du sagst: Wozu entwickle ich eine derartige Nischenkarte, wenn es praktisch keinerlei Relevanz für 99,9% der Nutzer hat. Das kann doch dann auch nur Marketing sein und dem Schwanzvergleich dienen, oder?
Naja, man spricht die OC Klientel an, hat ein Halo-Produkt im Regal das die Marke EVGA als Crazy-OC-affine Marke hervorhebt und kriegt gratis Werbung weil die Leute natürlich darüber reden.

Und ja, hier gehts einfach nur um ne reine Machbarkeitsstudie, das ist wie ein Bugatti Chiron. 1500+PS sind rein zum zeigen was geht mit der Brechstange. Den Otto-Normal-VW Golf 1.6 TDI Fahrer brauch das nicht kratzen - der kauft weiterhin seinen Golf und motzt über den Verbrauch eines Chiron und wie unnötig das Ganze sei.

Das Produkt wird eh kaum verfügbar bis vergriffen sein, teuer wie die Sau und bringt selbst Enthusiasten mit sehr guter Custom WaKü keinen Mehrwert, weil man es eben selbst damit nicht sinnvoll kühlen kann.

Es wird also ein äusserst beschränkter Kreis mit Zugang zu Stickstoff sein der sich das kauft und damit rumspielt.
 
  • Gefällt mir
Reaktionen: branhalor und VoAlgdH
ist schon ne geile Karte, keine Frage. Aber was noch geiler ist, die Karte wird auch verkauft/gekauft und dass, sind genau die Leutz, die sich heftig über TDP/Watt einer CPU beschweren, wenn Sie hoch ausfällt. 😎
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fischifisch
Wird zeit für einen Case Standard.... 2 Netzteile muss dieser aufnehmen können. So langsam muss man mit den Mehrfachsteckdosen aufpassen: Die könnten das bald nicht mehr packen. ;)
 
  • Gefällt mir
Reaktionen: Schrotty74
branhalor schrieb:
Die GPU dürfte kaum dafür ausgelegt sein, den zur Verfügung gestellten Mehr-Strom 1:1 geschweige denn noch effizienter in verwertbare Mehrleistung umzusetzen:

Diese Grafikkarte ist speziell dafür gedacht, die GPU bei Temperaturen weit unter dem Gefrierpunkt (Flüssig-Stickstoff-Kühlung usw.) auf extremes Niveau zu übertakten. Dabei soll die Stromversorgung nicht limitieren und deshalb ist die so extrem dimensioniert.
Die Eigenschaften der GPU ändern sich komplett, wenn sie weit unter Null gekühlt wird. Weit über das hinaus, was bei normalen Betriebstemperaturen möglich ist.

Mit dem Dauerbetrieb der GPU bei üblichem OC mit normaler Luft- und Wasserkühlung hat das nichts zu tun.

branhalor schrieb:
Hier halte ich es ausnahmsweise mit den kalifornischen Verordnungen

Ich habe die Details nicht mehr im Kopf, aber ging es bei diesen kalifornischen Verordnungen nicht um moderne Stromsparfunktionen, Idle-Verbrauch usw., nicht um Maximalverbauch?
Ich bin ziemlich sicher, dass diese Grafikkarte solchen Verordnungen entspricht und auch in Kalifornien verkauft werden darf. Jedenfalls wenn sie mit einem normalen BIOS für den Dauerbetrieb genutzt wird und nicht mit einem speziellen LN/OC-BIOS für Extrem-Versuche, bei dem Stromsparfunktionen, Throttling und Co. absichtlich deaktiviert sind.
 
Zuletzt bearbeitet:
TigerNationDE schrieb:
Ich würde mal behaupten bei Gamern läuft der Staubsauger deutlich seltener wie ne GPU unter last ;)
Und ich behaupte nicht jeder Gamer spielt ständig Cyberpunk 2077 mit RT in 4K Ultra Details.

Wer auch mal "normales" zockt und auch gerne mal Klassiker (AOE2 zB) der wird auch mit dieser Karte hier weit unter 100W verbraten. Somit relativiert sich auch deine Relativierung :D
 
Da bin ich mal auf den realen Verbrauch gespannt und wie hoch die Last-Spitzen ausfallen werden.
Ich seh schon dass man ein 1200-1500W Netzteil brauch um die Karte überhaupt stabil betreiben zu können...
Vorausgesetzt, dass es überhaupt für die wenigen der wenigen Interessenten Karten gibt, da sich die Karte ja die Produktion mit den anderen Modellen teilen muss.
 
DonDonat schrieb:
Da bin ich mal auf den realen Verbrauch gespannt und wie hoch die Last-Spitzen ausfallen werden.
Ich seh schon dass man ein 1200-1500W Netzteil brauch um die Karte überhaupt stabil betreiben zu können...
Vorausgesetzt, dass es überhaupt für die wenigen der wenigen Interessenten Karten gibt, da sich die Karte ja die Produktion mit den anderen Modellen teilen muss.
Ich behaupte, dass die Spitzen unverändert hoch sein werden. Warum sollten auch deutlich höher sein bei gerade mal 2,4% mehr Shadereinheiten und vergleichbarem Takt ?

Der grösste Mehrverbrauch wird vom VRAM kommen das mit 21 statt 19,5Gb läuft. Dürften wohl um die 30-50W sein die das mehr zieht unter Volllast.
 
Zurück
Oben