Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia DGX GH200: 256 Grace Hopper Superchips liefern 1 ExaFLOPS FP8 für KI
- Ersteller nlr
- Erstellt am
- Zur News: Nvidia DGX GH200: 256 Grace Hopper Superchips liefern 1 ExaFLOPS FP8 für KI
Leistungsänderungsgeschwindigkeit ist durchaus eine gängige Größe bei Kraftwerkstechnik. Allerdings eher in MW/min.7H0M45 schrieb:kW/h gibt es also nicht, sondern entweder kW oder kWh.
Auch echt beeindruckend wie viele hier Probleme mit einfachster Physik haben. Ich hätte gar nicht mehr den Elan das zu korrigieren. Da ist Hopfen und Malz schon verloren.
Zuletzt bearbeitet:
Ok, ja bei Leistungsänderung, da macht das ganze Sinn. Aber das hat ja jetzt absolut nichts mehr mit der NVIDIA Karte hier zu tun. Noch sind sie Gott sei Dank nicht so groß und träge, dass das ein Problem wäre 😂bensen schrieb:Leistungsänderungsgeschwindigkeit ist durchaus eine gängige Größe bei Kraftwerkstechnik. Allerdings eher in MW/min.
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
McLovin14 schrieb:Das System zieht ja trotzdem 300 W zu jedem Zeitpunkt.
Aber nun einmal pro Stunde, wenn man es in der Einheit berechnet, die man bezahlt.
Auf der Rechnung stehen 300 Wh und die kosten XY pro kWh, weswegen die Bezahlung in kW/h abgerechnet wird.
Wie man es rechnet, ist jedem selbst überlassen. So lange man versteht, was dort passiert, ist alles i.O.
Daher sagte ich, Einheiten werden benutzt wie Unterhosen.
mfg
p.s.
Die 300 Watt, von denen du redest, sind komplett richtig. Sie sagen aber absolut nichts aus, wenn man den Verbrauch pro Stunde oder pro Tag berechnen will. Oder gar pro Jahr.
p.s.s.
Oder wer redet über die maximale Leistung seines KfZ, wenn er über den Durchschnittsverbrauch redet?
Web-Schecki
Lieutenant
- Registriert
- Juni 2010
- Beiträge
- 980
Nein, das ist völliger Blödsinn. Hast du überhaupt versucht zu verstehen, was hier alle anderen geschrieben haben?[wege]mini schrieb:Aber nun einmal pro Stunde, wenn man es in der Einheit berechnet, die man bezahlt.
Du bezahlst für Energie, also einen bestimmten Preis pro kWh.
Watt pro Stunde ergibt einfach überhaupt keinen Sinn. Das wäre Leistung pro Zeit (also Energie pro Zeit pro Zeit).
Doch, natürlich tun sie das. Energie ist die Leistung integriert über einen bestimmten Zeitraum. Wenn ich eine konstante Leistungsaufnahme habe, dann kann ich die entsprechend mit jeder beliebigen Zeitspanne multiplizieren und erhalte die benötigte Energie in dieser Zeitspanne.[wege]mini schrieb:Die 300 Watt, von denen du redest, sind komplett richtig. Sie sagen aber absolut nichts aus, wenn man den Verbrauch pro Stunde oder pro Tag berechnen will. Oder gar pro Jahr.
Welche Energie braucht ein 300W-Gerät pro Sekunde? 300Ws.
Welche Energie braucht ein 300W-Gerät pro Stunde? 300Wh.
Welche Energie braucht ein 300W-Gerät pro Tag? 300Wd = 300W*24h = 7200Wh = 7.2kWh
Alles unter der Annahme, dass die 300W konstant über den entsprechenden Zeitraum aufgenommen werden.
Physik, 7. Klasse. Wirklich.
Das sag ich dem nächsten Polizisten, hab gedacht, das sind 30 m/s... Oh mann, so viel Ignoranz.[wege]mini schrieb:Daher sagte ich, Einheiten werden benutzt wie Unterhosen
Aber genau das tut es. 300 W*die Zeit = Energie, die mein Stromanbieter abrechnet. Schlag doch mal ne andere Einheit vor, die die Leistung darstellt.[wege]mini schrieb:Die 300 Watt, von denen du redest, sind komplett richtig. Sie sagen aber absolut nichts aus, wenn man den Verbrauch pro Stunde oder pro Tag berechnen will. Oder gar pro Jahr.
Ich seh den Verbrauch in kWh/100 km im Tacho. Und weil es Leute wie dich gibt, auch beim Laden in km/min. Zum Glück steht daneben die Lade-Leistung in kW.[wege]mini schrieb:Oder wer redet über die maximale Leistung seines KfZ, wenn er über den Durchschnittsverbrauch redet?
Yosup
Lt. Junior Grade
- Registriert
- Nov. 2022
- Beiträge
- 439
Grossabnehmer müssen durchaus das Hoch- und Runterfahren von Lasten mit dem Stromerzeuger kommunizieren. Da sind jetzt eher Aluschmelzen etc mit gemeint. Würde mich aber nicht wundern wenn da irgendwann KI-Rechenzentren auch zu gehören.7H0M45 schrieb:Ok, ja bei Leistungsänderung, da macht das ganze Sinn. Aber das hat ja jetzt absolut nichts mehr mit der NVIDIA Karte hier zu tun. Noch sind sie Gott sei Dank nicht so groß und träge, dass das ein Problem wäre 😂
McLovin14
Lt. Commander
- Registriert
- Aug. 2013
- Beiträge
- 1.194
Du bezahlst doch aber Euro pro kWh? Und eine Kilowattstunde ist nunmal eine Einheit für Energie. Nicht für Leistung und drst recht nicht für Leistung über Zeit.[wege]mini schrieb:Aber nun einmal pro Stunde, wenn man es in der Einheit berechnet, die man bezahlt.
Kein Anbieter rechnet in kW/h ab! Diese Einheit ist im Bereich des Endrgieverbrauchs von Privathaushalten absolut sinnfrei. Sie beschreibt die Änderungsrate der Leistung, welche wiederum die Änderungsrate der Energie beschreibt:[wege]mini schrieb:Auf der Rechnung stehen 300 Wh und die kosten XY pro kWh, weswegen die Bezahlung in kW/h abgerechnet wird.
kW/h steht zu kW steht zu kWh wie
m/s² steht zu m/s steht zu m.
Du verstehst es aber offensichtlich nicht, das versuchen dir mittlerweile ca. 5 Leute zu erklären.[wege]mini schrieb:Wie man es rechnet, ist jedem selbst überlassen. So lange man versteht, was dort passiert, ist alles i.O.
Der einzige, der hier Einheiten benutzt wie Unterhosen, bist du![wege]mini schrieb:Daher sagte ich, Einheiten werden benutzt wie Unterhosen.
Richtig, die 300 W sind eine Momentaufnahme. Wenn das System konstant 300 W zieht, dann kann ich den Energiebedarf errechnen, indem ich die Leistung mit der Zeit, für die ich den Energiebedarf ermitteln möchte, multipliziere. Sind die 300 W nicht konstant, so integriert man den Verlauf der Leistung über die Zeit und erhält ebenfalls den Energiebedarf.[wege]mini schrieb:Die 300 Watt, von denen du redest, sind komplett richtig. Sie sagen aber absolut nichts aus, wenn man den Verbrauch pro Stunde oder pro Tag berechnen will. Oder gar pro Jahr.
Nicht alles, was hinkt, ist ein Vergleich...[wege]mini schrieb:Oder wer redet über die maximale Leistung seines KfZ, wenn er über den Durchschnittsverbrauch redet?
Die Diskussion hier bestätigt mich:
Ich könnte niemals Lehrer werden. Ich würde mental daran zugrunde gehen...
Alpha.Male
Lt. Commander
- Registriert
- Mai 2011
- Beiträge
- 1.082
Wie die Leute sich hier wegen dem KW /(h) undsoweiter Seitenweise gegenseitig anpixxxen..herrlich. Nicht ausgelastet?
@Topic: Schon ein durchaus beindruckendes Stück Technik...Auch wenn ich nicht immer mit allem von Nvidia d'accord gehe..Sie haben schon teilweise interessante Dinge im Portfolio.
@Topic: Schon ein durchaus beindruckendes Stück Technik...Auch wenn ich nicht immer mit allem von Nvidia d'accord gehe..Sie haben schon teilweise interessante Dinge im Portfolio.
B
BaluKaru
Gast
Das geht schon länger über die Rechenzentren der 4 Netzbetreiber.Yosup schrieb:Grossabnehmer müssen durchaus das Hoch- und Runterfahren von Lasten mit dem Stromerzeuger kommunizieren. Da sind jetzt eher Aluschmelzen etc mit gemeint. Würde mich aber nicht wundern wenn da irgendwann KI-Rechenzentren auch zu gehören.
Verbraucher und Erzeuger kommunizieren da in aller Regel nicht miteinander (ausgenommen sind diverse Sonderregelungen), sondern über die Kette Versorger -> Netzbetreiber -> Erzeuger (gerne auch als Dreieck) oder Netzbetreiber -> Erzeuger -> Versorger. Die Netzbetreiber haben übrigens auch Fernzugriff auf Großverbraucher, Kraftwerke, große Solarparks, Windräder, Pumpspeicher, .... und können da Intervenieren.
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
Alpha.Male schrieb:undsoweiter Seitenweise gegenseitig anpixxxen
Wenn man sonst nix kann, muss man halt mit seinem begrenzten Wissen auch mal den Helden spielen.
Einheiten sind Denkhilfen und wer darauf rumreitet, hat sonst nicht viel, worüber er nachdenken kann.
Das versuchte ich ja aber schon die ganze Zeit zu erklären. Meine Denkhilfe ist Watt pro Stunde.
McLovin14 schrieb:Ich würde mental daran zugrunde gehen.
Man kann nirgend wo hin gehen, wo man schon ist.
mfg
p.s.
Witzig wird es, wenn ich gesagt hätte, ich rechne in Watt je Stunde. Das wäre dann wieder "richtig".
p.s.s.
Noch geiler wäre Watt mal Stunde. Gibt es nicht im Kunstunterricht. Wortwitze sind die geilsten.
Da es sowieso mit 1 Multipliziert oder Dividiert wird, ist es total egal. Aber dann würde es wieder "stimmen".
Zuletzt bearbeitet:
Korben2206
Lt. Commander
- Registriert
- Nov. 2019
- Beiträge
- 1.193
Tja, sollte nvidia den Gamer-GPU Markt verlassen, oder nur noch als "Hobby" ansehen, wird es für uns ziemlich duster. Da kann man nur hoffen das Intel es gebacken kriegt, sonst stehen wir mit nur noch einem nennenswerten GPU-Hersteller da.
Und wenn man sich deren Strategie was die Preise angeht und die "Lustlosigkeit" bei den GPU-Modellen anschaut, würde ich das noch nichtmal für so unwahrscheinlich halten.
Im AI Umfeld kann man halt noch viel mehr Geld verlangen, solange man die Spitzenhardware liefert. Bei Gaming-GPUs ist das Limit vermutlich erreicht.
Und wenn man sich deren Strategie was die Preise angeht und die "Lustlosigkeit" bei den GPU-Modellen anschaut, würde ich das noch nichtmal für so unwahrscheinlich halten.
Im AI Umfeld kann man halt noch viel mehr Geld verlangen, solange man die Spitzenhardware liefert. Bei Gaming-GPUs ist das Limit vermutlich erreicht.
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
Korben2206 schrieb:wird es für uns ziemlich duster
Unwahrscheinlich. Der Markt ist einfach zu groß, um ihn verlassen zu wollen.
Korben2206 schrieb:Bei Gaming-GPUs ist das Limit vermutlich erreicht.
Noch lange nicht. The Sky is the limit.
Die "Master Race" der Daddelkids müssen irgend wann begreifen, dass sie nur "Beifang" sind. So ein paar Stückchen vom Kuchen, werden sie aber immer bekommen.
Wenn dann noch zu viel übrig ist, den man nicht an die "Geldsäcke" verkaufen konnte, wird der Preis sogar richtig billig, falls man einen zu großen Kuchen gebacken hat.
mfg
McLovin14
Lt. Commander
- Registriert
- Aug. 2013
- Beiträge
- 1.194
Vorsicht. Wer im Glashaus sitzt...[wege]mini schrieb:mit seinem begrenzten Wissen
Nein. Einheiten sind elementarer Bestandteil der Physik. Das sagt Wikipedia zum Thema physikalische Größe:[wege]mini schrieb:Einheiten sind Denkhilfen
"Jeder spezielle Wert einer physikalischen Größe (Größenwert) wird als Produkt aus einem Zahlenwert (auch Maßzahl)[1] und einer Maßeinheit angegeben."
Einheiten in Gleichungen werden wie Zahlen behandelt.
Hat auch weiterhin null Aussagekraft.[wege]mini schrieb:Meine Denkhilfe ist Watt pro Stunde
Nein, wäre es nicht. "Je" impliziert einen Bruch, also W/h, was ja für die Betrachtung der Energie in diesem Zusammenhang irrelevant ist.[wege]mini schrieb:Witzig wird es, wenn ich gesagt hätte, ich rechne in Watt je Stunde. Das wäre dann wieder "richtig".
Das hingegen wäre korrekt, oder wie man eben sagt: Wattstunde.[wege]mini schrieb:Noch geiler wäre Watt mal Stunde
Web-Schecki
Lieutenant
- Registriert
- Juni 2010
- Beiträge
- 980
Es geht darum, dass man Blödsinn nicht unwidersprochen lassen sollte. Am Ende liest das noch ein ahnungsloser Siebtklässler und versemmelt die nächste Physikklausur.Alpha.Male schrieb:Nicht ausgelastet?
Lass gut sein, wenn einer so kommt...McLovin14 schrieb:Vorsicht. Wer im Glashaus sitzt...
Da ist Hopfen und Malz verloren.
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
McLovin14 schrieb:Das hingegen wäre korrekt, oder wie man eben sagt: Wattstunde.
Wie gesagt. Einheiten sind Grundlagen des Rechnens. Wenn man aber einem Mathematiker sagt, er betreibt eine Hilfswissenschaft, ist der natürlich auch beleidig.
Wattmalstunde ist völlig i.O. In deiner Welt "richtig".
In meiner Welt ist es ein Seitenfach des Kunstunterrichtes, wo man Watt malt.
Chill mal ein bisschen.
Ich kann berechnen, dass ein 1200 Watt Stromerzeugungsgerät, welches nur 5 Minuten läuft, weniger verbraucht als ein 300 Watt Gerät, welches eine Stunde läuft. Du auch. Also ist alles gut.
mfg
Korben2206
Lt. Commander
- Registriert
- Nov. 2019
- Beiträge
- 1.193
Er schrumpft, und speziell bei nvidia, gewaltig:[wege]mini schrieb:Unwahrscheinlich. Der Markt ist einfach zu groß, um ihn verlassen zu wollen.
Ja, das kann man richtig gut beobachten wie sie billiger werden über die letzten Montate... aber die Hoffnung stirbt ja bekanntlich zuletzt...[wege]mini schrieb:Noch lange nicht. The Sky is the limit.
Die "Master Race" der Daddelkids müssen irgend wann begreifen, dass sie nur "Beifang" sind. So ein paar Stückchen vom Kuchen, werden sie aber immer bekommen.
Wenn dann noch zu viel übrig ist, den man nicht an die "Geldsäcke" verkaufen konnte, wird der Preis sogar richtig billig, falls man einen zu großen Kuchen gebacken hat.
mfg
Schau dir mal die Keynote an, die Jensen gerade gehalten hast.. da erkennt man das Mindset des Mannes (und damit der Firma) sehr gut...
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
Korben2206 schrieb:Schau dir mal die Keynote an, die Jensen gerade gehalten hast
Irgend wie kann ich mir auch vorstellen, dass sie mit AMD die Sparte für die Daddelkids zusammen schmeißen und dann unter dem Namen XYZ firmieren. Komplett, wird man aber diesen Markt nicht aufgeben.
mfg
Jenergy
Rear Admiral
- Registriert
- Dez. 2008
- Beiträge
- 5.445
@Korben2206 Hab mir die ersten paar Sekunden der Keynote angeschaut und es dann gelassen. Jensen hält die RTX 4060 Ti hoch mit den Worten "for our core gamers". Ja ne, Jensen, lass stecken!
joah, GPU Firmen waren lange Zeit sehr klein.StefanArbe schrieb:vor 20 jahren waren sie noch bei 1€
Ich hätte mir das auch nie ausgemalt, als ich 2014, kurz vor Maxwell-Release Shares gekauft hab. Ich bin ja immer nur von satten Gewinnen im GPU Sektor ausgegangen und damals war abzusehen, dass AMD keine Gegenwehr leisten kann, Nvidia somit die Preise hochziehen würde. Wohin die Reise führt war für mich aber überhaupt nicht klar.
Ergänzung ()
Es ist immer noch ein Milliardenmarkt für den man ohnehin entwickelt, man wäre Dumm rumliegendees Geld nicht mitzunehmen und Einfluss aufzugeben.Korben2206 schrieb:Er schrumpft, und speziell bei nvidia, gewaltig:
Man muss das ganze auch historisch betrachten, klar schrumpft der Markt nach den Rekordjahren/margen.
Wie viel Umsatz hat Nvidia im Gamingbereich in den letzten 10 Jahren je einzeln gemacht?
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 57
- Aufrufe
- 7.731
- Antworten
- 6
- Aufrufe
- 3.581
R