Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Wie sich hier einige über die 1000 Watt echauffieren. Selbst wenn die Karten wirklich so viel aufnehmen, die Rechenzentren der Großen dürsteln nach Rechenleistung, nicht nach Effizienz. Wenn man sich solche Karten kauft, bewegt man sich im Großabnehmerbereich für Strom und dann ist die kWh extrem günstig. Da interessieren die 1000 Watt auch nicht mehr.
Kraft kommt von Kraftstoff… dass wir keine Leistungsverdopplung bei gleich bleibendem Verbrauch allein unter Betrachtung der Verkleinerung der Strukturbreite sehen werden ist aber schon jedem klar oder?
Warum bitte nicht? Vielleicht nicht mit einem Sprung. Aber von N7 auf NE3 oder NE sollte das drin sein. Leider gebe ich dir Recht in freier Wildbahn werden wir das so nicht sehen - da keiner seine Architektur nur 1:1 shrinkt...
Ergänzung ()
paccoderpster schrieb:
Wenn man sich solche Karten kauft, bewegt man sich im Großabnehmerbereich für Strom und dann ist die kWh extrem günstig. Da interessieren die 1000 Watt auch nicht mehr.
Das ist so auch nicht wahr. Rechenzentren rechnen schon mit dem Verbrauch. Aber anders als Otto Normalsterblicher. Auf die Lebenszeit der Hardware (3 Jahre bis abgeschrieben) kostet der Strom nämlich so viel wie die Hardware selbst (so eine Aussage zu Servern). Denn die Rechnen nicht nur die KwH die die Hardware braucht sondern auch noch die KwH die du zur Kühlung selbiger ebenfalls brauchst... Und das 24/7 auf 3 Jahre... Aber ja grösstes Problem ist noch immer - die Zuwachsraten an benötigter Rechenpower.
Man kanns den Leuten echt nicht recht machen. Was ist denn die Erwartungshaltung ? Eine 299€ Karte die 2x 3090 Performance liefert aber das bei 80W ? Man man man 🤦♂️
Ja das wäre in etwa was der durchschnittlich vernünftige Kunde möglichst nahe an der eierlegenden Wollmilchsau möchte.
Also ich zumindest würde dort auch Kunde sein wollen
Warum bitte nicht? Vielleicht nicht mit einem Sprung. Aber von N7 auf NE3 oder NE sollte das drin sein. Leider gebe ich dir Recht in freier Wildbahn werden wir das so nicht sehen - da keiner seine Architektur nur 1:1 shrinkt...
Weil die Steigerungen nicht mehr so gross sind wie früher. Ein Shrink kann selbst mit einer verbesserten Architektur auch nur begrenzt was ausrichten. Wenn dir ein Shrink 30% bringt, dann musst du die jetzt aufteilen - will ich 30% mehr Performance ? Oder will ich noch mehr Performance ? Oder lieber nur 10% Performance aber dafür 20% mehr Effizienz ?
Man kann nicht immer alles zugleich haben. Sollte man schon als Kind lernen.
Viper816 schrieb:
Ja das wäre in etwa was der durchschnittlich vernünftige Kunde möglichst nahe an der eierlegenden Wollmilchsau möchte.
Also ich zumindest würde dort auch Kunde sein wollen
Nenene, laut Grünenregierung reicht ein Windpark im eigenen Garten.
Erst wenn EU-weit Atomkraft und Gas als ökologische Ressource legalisiert wird, weil man sonst nicht die jahrezehntelang verschlafenen Klimaziele erreichen kann (in DE mitte der 90er bereits ein großes Thema in der Tagesschau, ohne Scherz), darf man dann auch bei uns umrüsten.
Warum das nicht drin ist, siehst du doch aktuell. Sowohl bei AMD, als auch bei Nvidia und Intel steigt der Verbrauch. RDNA3 und Lovelace sagt man beiden 500W+ nach.
Keiner der drei schafft es den Verbrauch zu senken und gleichzeitig die Performance zu steigern. Meinst du die machen das nur um dich zu ärgern?
Miner untertakten / undervolten bzw. senken das Power Limit.
Gamer drücken die Regler wenn dann eher in die andere Richtung, scheiß auf Stromverbrauch, und die geilste Karte ist die OC++ Super-Plus Goes Like Hell Edition mit 80W mehr Stromverbrauch.
Erstens, wir kennen den Verbrauch noch nicht, da Gerücht. Und wenn der GH100 3x schneller als ein GA100 wäre, würde sich das auch locker rechtfertigen. Du darfst nicht vergessen, das dann 3x GA100 mehr Platz benötigen, mehr Leitungen, mehr Slots, und mehr Wärme und Co. produzieren, was so dann auch wieder eine Milchmädchenrechnung wäre.
Bei den Servern ist die Performance eines Systems die Voraussetzung überhaupt in die engere Wahl zu kommen. Die Total Cost of Ownership ist bei die professionell geführten Rechenzentren die entscheide Größe bei der Entscheidung welches System gekauft wird.
In die TCO geht die Effizienz massiv ein. Im Grunde kann es passieren, dass ein ineffizientes System selbst dann zu teuer ist, wenn es verschenkt wird.
Leistung koste es was es wolle gibt es eigentlich nur bei Prestigeprojekten. Wenn Supercomputer Rechenzeit verkaufen müssen, dann haben sie ein Problem wie die Kosten für die Aufgabe teurer als Konkurrenzangebote ist.
paccoderpster schrieb:
Wenn man sich solche Karten kauft, bewegt man sich im Großabnehmerbereich für Strom und dann ist die kWh extrem günstig.
Das ist so falsch.
Die Tarife von Großabnehmer sind anders aufgebaut als Kleinabnehmertarife.
Die elektrische Arbeit ist nur eine Teilkompomente des Preises. Andere wichtige Teilkomonenten sind der Anschlussleistung und Blindleistung.
Wenn man alles durchrechnet und auf die verbrauchten kWh umrechnet gegen sich die Tarife nicht viel. Sie können aber bei einem Abnehmer der hohe Verbrauchspeaks hat durchaus höher sein.
Die 1000 Watt werden akzeptiert, wenn die GPU effizient ist. Das heißt für ihren Verbrauch eine adäquate Performance bietet.
AMD hat eine Ankündigung zur Effizienz bei HPC und KI workloads lanciert. Nvidia als Platzhirsch hat es nicht nötig darüber zu reden. Aber Du kannst sicher sein dass sie alles daransetzen die Effizenz ihrer GPUs nach oben zu pushen.
Gamer drücken die Regler wenn dann eher in die andere Richtung, scheiß auf Stromverbrauch, und die geilste Karte ist die OC++ Super-Plus Goes Like Hell Edition mit 80W mehr Stromverbrauch.
Dann bin ich wohl eine Ausnahme. ^^
Hab meine 3080 undervolted + das werkseitige OC leicht rausgenommen. Im Spiel vielleicht 2 bis 5 fps weniger aber dafür ~85W weniger Leistungsaufnahme. Das läppert sich wenn man sieht wie lange ich vor der Kiste hänge.
Charminbaer schrieb:
Enterprise Kunden kann man zwar nicht so gut ausquetschen wie Gamer
Ohne CPU, FPS oder Power Limit hat man mit Undervolting eigentlich keinen geringeren Stromverbrauch
sondern einfach nur mehr FPS bei gleichem Stromverbrauch oder habe ich gerade einen Denkfehler ?
Warum das nicht drin ist, siehst du doch aktuell. Sowohl bei AMD, als auch bei Nvidia und Intel steigt der Verbrauch. RDNA3 und Lovelace sagt man beiden 500W+ nach.
Keiner der drei schafft es den Verbrauch zu senken und gleichzeitig die Performance zu steigern. Meinst du die machen das nur um dich zu ärgern?
Moment. Das wissen wir nicht. Denn wenn die 500 Watt 100 oder 200% mehr Leistung bedeuten - wäre rechnerisch vielleicht 10 % mehr Leistung bei 15% weniger Verbrauch drin... Nur kann das AMD nicht machen wenn NV mit der Brechstange alles in mehr Renderleistung quetscht - und umgekehrt.
Die Aussage an sich ist falsch durch Shrinks werden wir sehr wohl deutlich Ersparnis bezüglich elektrischer Energie sehen! Nur werden daß die Beteiligten nutzen um die doppelte Anzahl Transistoren zu fahren..
Im übrigen wer meint da passiert nicht mehr viel... Von 7nm auf 3 nm entspricht dem Sprung 28nm auf 14 nm. Von 3nm auf 1nm entspricht von 28nm auf 9nm... Wir werden noch einige Zeit sehr viel zu sehen bekommen.
Ja es wäre schön wenn ein Hersteller hingehen würde und anstatt immer mehr Power raus zu quetschen Mal hingehen würde und einfach die Leistung der z.B. 6700 mit dem nächsten und übernächsten Step so effizient wie möglich zu produzieren.. Ich glaube da würden einige sich wundern was geht. Wobei Achtung - hier vergleichen viele die Power die die GPU als ganzes braucht. Nur bei RAM und Co sehen wir solche extrem Einsparungen nicht so schnell.. Wenn also irgendwann 32 GB aufm GPU Board sind - dann war das bei gleichbleibender TDP nur möglich weil die Energie im eigentlichen GPU Chip eingespart wurde.
Es würde schon ein Quentchen Menschenverstand reichen. Aber wenn du mir so kommst: Die 3090Ti verbraucht 450Watt. Bei 1000 Watt müsste der neue Chip mehr als doppelt so schnell sein, wie eine 3090Ti, und das dar man getrost bezweifeln
Es würde schon ein Quentchen Menschenverstand reichen. Aber wenn du mir so kommst: Die 3090Ti verbraucht 450Watt. Bei 1000 Watt müsste der neue Chip mehr als doppelt so schnell sein, wie eine 3090Ti, und das dar man getrost bezweifeln
Der GH100 wird in seinem Einsatzbereich(!) garantiert deutlich mehr als doppelt so schnell wie eine 3090ti sein
Faszinierend, wie auf Seite 9 immer noch nicht durchgedrungen ist, dass es sich um einen HPC Chip handelt.
Faszinierend, dass auch auf Seite 9 immer noch Leute krampfhaft versuchen den Stromhunger mit HPC zu rechtfertigen. da scheints ja nichts aus zu machen
Kann es dir nicht komplett egal sein, ob in einem Rechenzentrum, von dessen Existenz du nicht einmal weißt, 10.000 500W GPUs stecken oder 5.000 1000W GPUs?
Dann bin ich wohl eine Ausnahme. ^^
Hab meine 3080 undervolted + das werkseitige OC leicht rausgenommen. Im Spiel vielleicht 2 bis 5 fps weniger aber dafür ~85W weniger Leistungsaufnahme. Das läppert sich wenn man sieht wie lange ich vor der Kiste hänge.