Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsBis zu 1.000 Watt Verbrauch: Dells Aussagen zu Nvidia B100/B200 und was dahinter steckt
Ich warte auf die EU, die (ähnlich wie bei z.B. Staubsaugern) maximale Leistungsaufnahme reglementiert.
Hier wäre es eventuell sogar deutlich sinnvoller als bei Staubsaugern.
Die sollen lieber mal an der Effizienz arbeiten, dass eine Graka wieder mit 1x8 Pin an extra Strom klar kommt (225W Gesamtleistung) sollte eigentlich reichen.
Das die Grafikkarte nach der Heizung und Warmwasser der größte Energiefresser im Haus ist, ist langsam wirklich lächerlich!
Meine 4090 ist nicht weit weg von den 225w..... Nur weil ein Stück Hardware eine bestimmte Energie aufnehmen kann, heißt das noch lange nicht, dass sie es auch macht
Lest ihr alle nur headlines?! Es geht um Server und der absolute Verbrauch sagt gar nichts aus!
Ob ich jetzt zwanzig H200 oder fünfzehn B100, was juckt das die EU? Der Verbrauch liegt in beiden Fällen bei max. 15 kW.
Zumal es für Rechzentren ja sogar auch Regelungen zum Energie Einsparen gibt. Komme hier auch nicht mehr mit. Dachte Stammtisch ist Mittwochs zum Bergfest...
Consumervarianten der Rechenbeschleuniger?
Du glaubst echt, dass die Produkte dort in deiner Daddelkarte landen?
Wie schon geschrieben: Die Leistungsaufnahme alleine sagt nichts über die Effizienz.
Und wofür? Ki Schwachsinn, Crypto Stumpfsinn und Börsenrechnerei.
Alles nichts was man (oder irgendwer) braucht, egal was der Hype meint.
Bei den NVidia Karten kann man schon sehen das die mit höher Leistungsaufnahme ineffizienter sind als die selben Modelle mit niedriger Leistungsaufnahme wenn man die SXM Modelle mit den PCIe Karten vergleicht.
NVidia verwendet übrigens nicht den erwähnten OAM Standard sondern ihr eigenes SXM format. Die A100 konnte in speziellen Konfigurationen sogar bis zu 500 W verbrauchen. Diese Karten sind halt so teuer das das es fast egal ist wie viel Strom die verbrauchen weil es anteilig egal ist.
Da ignorierst du jetzt aber den Faktor Abwärme und wie diese abgeführt wird. Also selbst wenn im Serverbereich die Effizienz ("fast") egal wäre (was sie nicht ist), ist der Verbrauch eben nicht egal.
Abwärme ist bei Servern eigentlich auch kein Problem. Es gibt auch für Server Wasserkühlungs-Systeme oder mit anderen Flüssigkeiten, womit man die Wärme ausreichend gut von den Chips abstransportiert bekommt. Auch wird die Abwärme mittlerweile auch nicht mehr einfach in die Umgebung geblasen, sondern in die Heizung oder Warmwassererzeugung von Nachbargebäuden eingespeist.
Im Laufe der Servergeschichte hat man schon ganz andere Wärmemengen bewältigt. Die Cray 1 hatte bspw. nen Verbrauch mit "Netzteil" von 115 kW auf recht kleinem Raum und die ist auch nicht geschmolzen.
Im Laufe der Servergeschichte hat man schon ganz andere Wärmemengen bewältigt. Die Cray 1 hatte bspw. nen Verbrauch mit "Netzteil" von 115 kW auf recht kleinem Raum und die ist auch nicht geschmolzen.
Hat die irgendwo auf der Fläche von wenigen Quadratmillimetern 1000W Abwärme erzeugt?
mibbio schrieb:
Es gibt auch für Server Wasserkühlungs-Systeme oder mit anderen Flüssigkeiten, womit man die Wärme ausreichend gut von den Chips abstransportiert bekommt.
Wozu wird sowas entwickelt, wenn die "Abwärme" angeblich seit den 70ern kein Faktor mehr ist (von "Problem" sprach ich nicht)? Die Entwicklung immer raffinierterer Kühlungen zeigt doch, dass die Abwärme nicht egal ist.
Ampere bleibt Ampere egal wieviel Volt oder Watt. Hohe Volt Zahlen lassen sich leichter Transportieren als hohe Watt Zahlen.
Ich weiß das Gleichstrom in Leitungen weniger Wärme erzeugt als Wechselstrom. Aber es sind immer noch extrem hohe Ampere.
Eine normale Destkop-CPU erzeugt auf mm² 5-10x mehr Wärme als eine Herdplatte
Was das nicht-Zielpublikum hier nicht weiß/versteht: Die Dinger sind ja nur Teile des Gesamtsystems und der Mehrverbraucht (auch mit schlechterer Effizienz) kann durchaus am Ende effizienter sein, weil weniger Peripherie drumherum benötigt wird. insbeonsdere sehr breitbandige Interlinks sind inzwischen ein energetisches Problem - und nicht zuletzt auch Grund für die immer höhere Konzentration.
Es gibt viel Literatur dazu, aber sich einzulesen ist schwieriger als von einer GeForce auf den Profibereich "zu schließen".
Die Abwärme ist in dem Sinne egal und kein Problem, als dass es eben ausreichend Möglichkeiten gibt, diese abzuführen. Dem Kunden ist am Ende auch egal, wie das Teil gekühlt wird, denn der kauft schlicht einen Server von HP, Dell, usw. mit Ausstattung XY und schiebt den in sein Rack.
Stimmt sollte Ampere heißen. Hab auch geschrieben "Wenn das Teil auf 1 Volt läuft" 1 Volt und 1000 Watt sind und bleiben es 1000 Ampere.
1000 Watt bei 230V sind ca 4,3 Ampere. Bei Kabelquerschnitte und Kontakte sind extrem die Ampere ausschlaggebend.
Korrekt, am Ende des Tages aber egal, die Systeme werden ja dafür ausgelegt. Dass da 100+A aus den Ausgängen kommen ist selbst bei ATX-Netzteilen keine Utopie mehr. Kommt halt mehr Kupfer in die Platinen oder man führt die Kabel näher an die Verbraucher.
Was hier auch oft übersehen wird: Die Träger (mit diversen Dice) sind riesig, da lassen sich 1.000 W ganz anders kühlen als bei einem übertakteten i7, wobei inzwischen gut zu sehen ist, wie sich die feinrippigen Kühler entwickelt haben, da geht inzwischen auch mit Luft viel mehr als "früher".
Am Ende ist es simple Mathematik ob weniger-effiziente oder mehr Beschleuniger das Gesamtsystem effizenter machen.