News Zu viel Strom und Wärme?: Samsung dementiert Berichte über mangelhafte HBM-Chips

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.786
Seit Wochen kursieren Gerüchte, dass bei Samsungs neuen HBM-Chips noch Optimierungen für den Einsatz bei Nvidia nötig seien. Samsung bestätigt dies nun teils, dementiert aber größere Probleme. Die sollen laut Insidern aber vorliegen, vor allem bei Stromverbrauch und Wärmeentwicklung. Samsung streitet dies jedoch vehement ab.

Zur News: Zu viel Strom und Wärme?: Samsung dementiert Berichte über mangelhafte HBM-Chips
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, PietVanOwl und konkretor
Weckt mich, wenn wir gescheite Consumer GPUs und APUs mit HBM sehen... 😴 😴 😴 😴
 
  • Gefällt mir
Reaktionen: lynx007
Flutefox schrieb:
… gescheite Consumer GPUs und APUs mit HBM sehen... 😴 😴 😴 😴
Welche Vorteile haben Konsumenten wie Spieler von HBM? Die Kosten stehen null im Verhältnis zum Preis. Die GPUs sind ja ohnehin schon zu teuer. Denke das wäre kein kluger Schachzug, außer man denkt einmal über die Normalisierung der Preise nach.
 
  • Gefällt mir
Reaktionen: flo.murr, BorstiNumberOne, baizer und 8 andere
Flutefox schrieb:
Weckt mich, wenn wir gescheite Consumer GPUs und APUs mit HBM sehen... 😴 😴 😴 😴
Dann bin ich aber nicht mehr da, um dich noch wecken zu können. ;)
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, baizer, Flutefox und 2 andere
  • Gefällt mir
Reaktionen: BorstiNumberOne, baizer, ETI1120 und eine weitere Person
Nvidia: best we can do is 5060 with 8GB again.
 
  • Gefällt mir
Reaktionen: Hellyeah, lynx007, PulsarS und 2 andere
Silencium schrieb:
Welche Vorteile haben Konsumenten wie Spieler von HBM? Die Kosten stehen null im Verhältnis zum Preis. Die GPUs sind ja ohnehin schon zu teuer. Denke das wäre kein kluger Schachzug, außer man denkt einmal über die Normalisierung der Preise nach.
Momentan nichts, weil die HBM-Produkte für die superteueren NVidia-Karten sind (A100, B200) und diese werden auf AI-Clustern der großen Unternehmen wie MS, Alphabet, OpenAI, Meta usw. eingesetzt. Zurzeit gibt es keine Konkurenzprodukte. Absehbar sind aber alternative Produkte, die nicht auf HBM setzen und deutlich weniger Strom verbrauchen (z.B. von AMD oder neue NPUs von Startups).
 
LamaMitHut schrieb:
best we can do is 5060 with 8GB again.
Es wird zwangsweise so sein, dass sich das Portfolio bei immer breiter/größer werdendem HighEnd Produkten immer weiter auseinander zieht.
Die Frage ist nicht, ob eine 5060 mit 8GB kommt, sondern wie viel Luft/Spielraum zwischen dieser fiktiven 5060 und dem TopEnd Produkt ist.

Es gab Zeiten, da waren die (x)x6x Modelle die zweit schnellsten am Markt - bspw. GTX 260 < GTX 280 fällt mir da spontan ein. Mehr gab es nicht. Heute liegen da wie viele Modelle zwischen?
4090 > 4080 > 4070TI > 4070 > 4060TI > 4060? Und da sind die "S" Versionen noch gar nicht mit inbegriffen vom Refresh. Zudem es auch nur bis zu jener 4060 geht. Sprich das ist innerhalb der dGPU 4000er Reihe das LowEnd Produkt.

Man kann sich ja über vieles aufregen, aber wer mehr will, kann ja höher ins Regel gehen. Teurer, klar, aber ist halt so.

Eneloop schrieb:
Momentan nichts, weil die HBM-Produkte für die superteueren NVidia-Karten sind (A100, B200) und diese werden auf AI-Clustern der großen Unternehmen wie MS, Alphabet, OpenAI, Meta usw. eingesetzt.
Das eine hat mit dem anderen nix zu tun.
HBM ist einfach nur ein anderer Typ Speicher. Was am Ende zählt ist Bandbreite, Latenz und Kosten. Ggf. noch Platzbedarf auf dem Endprodukt, Kühlmöglichkeiten/Anforderungen und Verbrauch/Effizienz.

HBM hat in einigen Punkten klare Vorteile. Wie bspw. der Effizienz pro Bandbreite. Sprich man kommt mehr Leistung bei gleichem Verbrauch oder weniger Verbrauch bei gleicher Bandbreite. Dafür ist es eben teurer.

Technisch spricht nix gegen HBM im Gamingbereich. Aber solange man mit GDDR irgendwas ausreichend hohe Bandbreiten bei ausreichend viel Speicher anbieten kann, wird kein Unternehmen der Welt teureren HBM für bisschen Effizienz verbauen. AMD hat es seinerzeit versucht über die Effizienzkeule, aber es hat nicht nur am Speicher gekrankt bei Verbrauchsfragen. Ohne HBM wäre es wohl nur noch schlechter...
 
  • Gefällt mir
Reaktionen: Grestorn
Flutefox schrieb:
Wohl eher auftauen. Alles was so im Bereich consumer ist wird langsam aber sicher aussortiert. Das große Geld wird außerhalb von gaming gemacht. In 2 Gens gibts für uns nur noch den Elektroschrott der übrig bleibt als Abriss.
 
  • Gefällt mir
Reaktionen: Zarlak
Eneloop schrieb:
… deutlich weniger Strom verbrauchen (z.B. von AMD oder neue NPUs von Startups).
Nehmen wir mal an, dass 8GB GDDR6 ca. 5W benötigt, dann sprechen wir von konservativen maximalen 20W für den Speicher. Bei den Stromverbräuchen heutiger GPUs trägt das Kosten-/Nutzenverhältnis von HBM null dazu bei, um HBM für die Konsumenten aus dem Spielebereich ansatzweise schmackhaft zu machen. Also Stromverbrauch alleine lasse ich hier nicht gelten und im konkreten Fall nur für 24/7 interessant.
Zumindest ist das bei der Vielzahl der Floristen die Argumentation! Da heißt es immer „ich lasse den PC doch nicht X Stunden laufen, da interessiert es mich nicht.“ also wenn selbst diese Zielgruppe damit nicht abgeholt wird, wer wird denn dann bitte mit welchem Argument den Aufpreis von HBM zahlen wollen?
 
Silencium schrieb:
Welche Vorteile haben Konsumenten wie Spieler von HBM?
  • Verkleinerte Bauform der Karten
  • Weniger Leistungsaufnahme und geringere Wärmeentwicklung
  • Mehr Performance, selbst mit HBM 1
 
GeleeBlau schrieb:
Wohl eher auftauen. Alles was so im Bereich consumer ist wird langsam aber sicher aussortiert. Das große Geld wird außerhalb von gaming gemacht. In 2 Gens gibts für uns nur noch den Elektroschrott der übrig bleibt als Abriss.

Mir kommen gleich die Tränen.

Noch mehr Polemik geht wohl nicht. Hat Dir jemand den Lolli genommen, weil jetzt plötzlich die Technik, die Jahrzehnte fast nur für Gamer von Interesse war, jetzt auf einmal der große Hype geworden sind?

Könnte doch auch Vorteile haben, meinst Du nicht? Statt ein paar Milliönchen werden jetzt hunderte von Milliardern in die Technik investiert werden. Selbst wenn wir nur mehr oder weniger versehentlich mitprofitieren, ist das dennoch ein riesiger Gewinn.

Wenn das alles noch ne Rolle spielt, nach der AI Revolution kann sich ohnehin alles ändern.
 
@fdsonne ich jammer doch gar nicht. Dank der Preispolitik wird RT vorerst ne Nische bleiben, und die Auswahl an High Resolution Monitoren klein. Mir als nicht - Enthusiast kanns am Arsch vorbei gehen, hab genug andere Hobbys. :)
 
  • Gefällt mir
Reaktionen: Zarlak
Flutefox schrieb:
Weckt mich, wenn wir gescheite Consumer GPUs und APUs mit HBM sehen... 😴 😴 😴 😴
Ist Speicherbandbreite bei Grafikkarten denn die Engpassressource? Also ich brauch nicht unbedingt 2tb/s, wenns dann nur 3fps mehr gibt.
 
  • Gefällt mir
Reaktionen: Zarlak
Flutefox schrieb:
Weckt mich, wenn wir gescheite Consumer GPUs und APUs mit HBM sehen... 😴 😴 😴 😴
Aber das macht ja Hoffnung!

1716563703833.png

Wen damit Geld verdient wird, und soviel Geld mehr, dann macht es Sinn Kapazitäten aufzubauen. Solange bis genügend Überkapazitäten gebildet haben, das es sich lohnt, auch beim Endkunden zu verkaufen.


Vom Mainfraime, über Server zu Desktop vergingen oft round about mal 20 Jahre. Gab ja auch mal Consumer GPUs mit HBM. Und durch den AI Hype, auch wen der gerade Scheiße ist, dank des Hypes dürfte soviel Geld in Produktionskapazitäten gespühlt werden, das auch wir irgendwann mal davon Profitieren. Das wird aber wohl bei den Preisen nicht morgen sein.
Ergänzung ()

GeleeBlau schrieb:
Wohl eher auftauen. Alles was so im Bereich consumer ist wird langsam aber sicher aussortiert. Das große Geld wird außerhalb von gaming gemacht. In 2 Gens gibts für uns nur noch den Elektroschrott der übrig bleibt als Abriss.
Das ist Quatsch. Schon allein weil es Ineffizent wärer alle GPUs die für B2B nicht in frage kommen, weg zu werfen... Dann verkaufe ich sie lieber den Endkunden.

Aber klar, Geld sucht sich immer den einfachsten Weg. Und wen ich mit dem Wafer leichter mehr Geld mit nem AI Cluster machen kann, dann hat das natürlich Einfluss auf das Endkunden Angebot. Man wird nach hinten gereicht. Aber irgendwann, profitiert auch der Endkunde davon. Spätestens wen das neue B2B Produkt, das ablöst. Wir sind Quasi Reste Verwerter... aber das ist nicht erst seit heute so. Aber irgendwann ist auch dieser Schweinezyklus zu ende und irgendwann fallen dann die "Krümel" auch wieder zu uns runter, so lange man damit Kohle machen kann.

Aber der Gamer spielt halt nicht die erste Geige. Haben wir aber ohnehin nie so wirklich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn und Zarlak
Grestorn schrieb:
...

Wenn das alles noch ne Rolle spielt, nach der AI Revolution kann sich ohnehin alles ändern.
Stimmt, nach der AI Revolution gibt es gar keine Gamer mehr, weil die AI für die Gamer spielt ;)
lynx007 schrieb:
Das ist Quatsch. Schon allein weil es Ineffizent wärer alle GPUs die für B2B nicht in frage kommen, weg zu werfen... Dann verkaufe ich sie lieber den Endkunden.

...
Das wird etwas schwierig, weil die GPUs im Business-Bereich (AI Beschleunigung etc.) nur noch PUs sind (kein Displayinterface)
 
LamaMitHut schrieb:
Nvidia: best we can do is 5060 with 8GB again.
Genau :) und mit PCIe 5.0 x4 Anbindung damit sie auch in jeden M.2 Sockel passt :D
+10 % mehr Leistung als die RTX 4060 aber zum Preis einer RTX 4060 Ti @16 GB (~499 €) und wir reden hier nur über zukünftige "Einsteiger-Grafikkarten". :evillol:
 
MarS81 schrieb:
Das wird etwas schwierig, weil die GPUs im Business-Bereich (AI Beschleunigung etc.) nur noch PUs sind (kein Displayinterface)

Bei den Mainfraime, Datacenter teilen hast du recht. Und die wirken sich natürlich auch auf angebot von Quadros und damit auch auf Geforce aus... aber auch nur solange die Produktionskapazitäten nicht reichen.

B2B besteht ja Gott sei dank nicht nur aus Datenzentrum. Und Gott sei dank sind wir noch weit davon entfernt, alles Zentral über die Cloud abwickeln zu können.

AI ist halt gerade im Hype und für NV so extrem Profitabel! Auch, das es bis dato praktisch keine Mitbewerber gibt. Sprich die Margen dort, haben halt leider einflusss auf das Angebot in den anderen Feldern , natürlich.... War ja beim Cryptoboom leider nicht anders. Aber das wird schon wieder, irgendwann...^^

Skynet ist noch weit davon entfernt jede workstation und gamer obsolet zu machen.
 
Samsung bestätigt und dementiert gleichzeitig.. ist klar^^
Auf Samsung's "Wort" in Bezug auf "Foundry" kann man seit Jahren nichts mehr geben. Ähnlich wie bei Intel.
 
Nein, Samsung ist noch Mal eine ganz andere Nummer als Intel.

Die koreanischen IT-Medien betreiben was Samsung angeht, Hofberichterstattung. Alles was da zu Samsung berichtet wird ignoriert man am besten.
 
  • Gefällt mir
Reaktionen: Benjamin_Blume
Zurück
Oben