News SSDs mit Lüfter?: Phisons CTO über neue Anforderungen an die Kühlung

Weckt mich in 2-3 Jahren nochmal, dann passt diese Leistung in einen 2,5-5 Watt Mantel.
 
Vindoriel schrieb:
Und was bringen die höheren Geschwindigkeiten, die eine solch hohe Wärme erzeugen, im Desktopbereich, außer dass man den Längsten (Benchmarkbalken) hat? Windows dürfte nicht spürbar schneller starten und Spiele auch nicht.
Alles was die Geschwindigkeit abrufen kann, profitiert davon. Alles was den Speed nicht braucht, oder eben nur sehr kurz, erwärmt das Ding auch nicht nennenswert. Übrigens sollen Menschen auch andere Dinge mit ihren Computern machen, außer Windows hochzufahren und zu spielen ...
 
  • Gefällt mir
Reaktionen: massaker
So eine PCIe5 SSD macht sich übrigens auch in einem PCIe4 Slot schick. Da wird immerhin PCIe4 voll ausgereizt und zugleich bleibt alles erfrischend kühl, weil die SSD ja auf einen höheren Standard ausgelegt ist.
Bin mal gespannt, welcher neuer Stecker da ab PCIe6 kommt. Im Artikel steht ja, dass PCIe5 für M.2 die Endstation sein wird. Idealerweise wird der Stecker dann nicht wieder für Laptops entworfen und 1:1 für den Desktop übernommen, wo man doch viel mehr Platz und Kühlungsoptionen hat.
 
  • Gefällt mir
Reaktionen: massaker
@Conqi
Jau, U.2 gab es ja auch und ja, genau so etwas meine ich.
Mich stört es nicht, 2,5" ist klein genug.

Jaaa, "Laptop-ultra-super-mega-deluxe-thin" geht dann nicht, doch dann ist das eben so.
Wäre vielleicht auch von Vorteil, bei einigen von den Dingern leidet dann die Gehäusestabilität,
weil Funktion +- weggelassen wurde um die Abmessungen hinzubekommen.
 
CDLABSRadonP... schrieb:
Ohnehin ergäbe es viel mehr Sinn, wenn Hersteller mal native PCIe x16-SSDs herausbringen würden. Dann können sie auch die gesamten NAND-Channels verwenden. Dann können sie auch wirkliche HighEnd-Controller einsetzen. Und auf die PCIe-Karten passen auch fette Kühlkörper. Dort kann dann auch frühzeitig experimentiert werden, was überhaupt mit den Giganto-Transferraten auch für Consumeranwendungen überhaupt entwickelt werden könnten...
Das tun sie doch seit Jahren - nur bezahlen willst du sie nicht was schon bei passendem Mainboard anfängt.
 
SirSilent schrieb:
Wie kommst du darauf das geringerer Stromverbrauch zeitgemäß ist? Ich sehe es genau andersrum, ein immer höher Stromverbrauch geht mit dem Fortschritt einher. Die Herausforderung der Zukunft ist, diesen bedienen zu können.
Was benötigt wird, ist eine hohe Energieeffizienz, kein möglichst hoher Verbrauch.

Dass in Zukunft Strom andere Energieformen ersetzen wird, keine Frage, und dadurch wird auch der globale Stromverbrauch ansteigen. Aber der Verbrauch jedes einzelnen Geräts sollte dennoch immer so niedrig wie möglich sein.
 
  • Gefällt mir
Reaktionen: GTrash81
Robo32 schrieb:
Das tun sie doch seit Jahren - nur bezahlen willst du sie nicht was schon bei passendem Mainboard anfängt.
Nein. Was du vielleicht im Sinn hast, sind Steckkarten, auf denen vier x4-SSDs sitzen. Das ist aber nicht das gleiche, wie wenn du eine SSD hast, die wirklich auf x16 ausgelegt ist.

Samsung bietet zum Beispiel eine Serie an echten PCIe x8-SSDs an:
https://geizhals.de/samsung-pm1735-pcie-4-0-x8-v16485.html (für PCIe4)
https://geizhals.de/samsung-pm1725b-pcie-3-0-x8-v16487.html (für PCIe3)

So etwas dann bitte auch für x16.
 
CDLABSRadonP... schrieb:
So etwas dann bitte auch für x16.
Nochmal: Wozu 16x, welche abgefahrenen Anwendungsfall soll das bedienen? Bei PCIe5 sind das ~60GB/s, bei reinem Zugriff aufs Dateisystem rennt man da tendenziell ins CPU-Limit.
 
Robo32 schrieb:
Aber bitte sehr - und ja, auch das ist eine SSD...
Auf jeden Fall ist das eine --- auf deren Reviews ich auch nach wie vor gespannt bin. Wurde sie mittlerweile eigentlich irgendwo praktisch im Einsatz gesehen?
Sie sollte dann jeweils aber auch die aktuelle PCIe-Revision nutzen --- das tat sie damals bei der Vorstellung schon nicht und heute natürlich erst recht nicht.
Piktogramm schrieb:
Nochmal: Wozu 16x, welche abgefahrenen Anwendungsfall soll das bedienen? Bei PCIe5 sind das ~60GB/s, bei reinem Zugriff aufs Dateisystem rennt man da tendenziell ins CPU-Limit.
Es gibt zwei unterschiedliche Aspekte, einer ist idealistisch, einer praxisrelevant.
Der idealistische ist der, dass wenn man wirklich eine baut, die das voll und ganz ausreizen kann, eben schon für die Zukunft programmiert werden kann.
Der praxisrelevante hingegen ist, dass zum Beispiel eine heute mit PCIe 5.0 x16 erscheinende SSD, die von der Geschwindigkeit irgendwo über dem Limit von PCIe 5.0 x4 liegen würde, sowohl auf Plattformen mit nur acht freien 5.0-Lanes, als auch auf solchen mit sechszehn freien 4.0-Lanes ausreizen kann.
 
Ich finde Steckkarten gar nicht schlecht. Die haben den Apple 2 umd IBM PC zu den offenen Plattformen gemacht, die sie mal waren.

Ausserdem: Sieht doch schick aus!
Erinnert mich an XTIDE-Karten oder an eine Filecard! 👍
Oder für die Frischlinge, an eine i-RAM Karte mit echtem RAM-Speicher (war eine RAM Disk). ;)

https://www.lo-tech.co.uk/introducing-the-lo-tech-xt-cfv2/
https://de.wikipedia.org/wiki/Filecard
https://en.wikipedia.org/wiki/I-RAM

Apropos.. So fortschrittlich oder seltsam ist das ganze garnicht.
Früher, in Zeiten des IBM ATs und seiner Clone, hingen Festplatten praktisch direkt am System-Bus!

ATA hieß nichts anderes als "AT attached" -> AT war der AT-Bus (praktisch ISA).
Und IDE bedeutete "Integrated Drive Electronics" -> gemeint war hier die integrierte Laufwerkselektronik, da der eigentliche Controller nun im Laufwerk selbst steckte.
Frühe IDE-Festplatten hießen anfangs auch AT-Bus Festplatten.

Nur ganz frühe Festplatten-Interfaces vor IDE (ESDI, SCSI, ST506 etc) hatten richtige Controller.
Die IDE "Controller" vor dem PCI mit Bus-Mastering waren nur IDE Host Adapter.

Kurzum: Dinge direkt an PCI/PCI Express anzuflanschen ist Stand ~1987:
Sowas wurde früher bei ISA auch schon gemacht.
ISA (bzw. der ursprüngliche AT-Bus) war zu 286er Zeiten nichts anderes als ein Frontside-Bus.
 
Robo32 schrieb:
Aber bitte sehr - und ja, auch das ist eine SSD...
Die Micron X100 darf man jetzt leider vergessen...die haben sich ja von Intel getrennt und dann die Fabs an Texas Instruments verkauft, weil 3DXPoint wohl einfach nicht wirtschaftlich herstellbar ist. Intel hat sich von Consumer SSDs verabschiedet und trotz dem eigentlichen Verlustgeschäft stellt ihre non-Consumer Optanes weiterhin für Enterprise-Kunden her (weil sie parallel dazu im Enterprise-Segment ihre teure CPUs verkaufen und sich so die Verluste wieder schnell relativieren - was ja Micron leider nicht hat!). Micron hat nur eine kleine Serie von X100 rausgebracht, deswegen gibt es nicht mal Reviews davon. Aber gute 2 Mio IOPs hatten sie zumindest im Lesen und auf jeden Fall >8GB/s geschafft mit 16x PCIe3.0 Lanes, was Intel ja bekanntlich gleich mit 4x PCIe4.0 fast eingeholt hat. Es gab aber nur ein Paar Samples mit 750GB und 1,5TB im Umlauf (oder waren das 720 und 1440?) und daher kaum Artikel.
1648592443998.png
1648592461784.png
 
  • Gefällt mir
Reaktionen: DFFVB
cypeak schrieb:
also ich rühme mich ein recht gutes gehör zu haben, aber das höre ich nicht. selbst die mit 500 upm drehenden 200mm lüfter in der gehäusefront säuseln bestenfalls unauffällig vor sich her..da muss man schon sehr nah mit dem ohr dran um etwas zu hören..
Es kommt am Ende irgendwann auf den jeweils im Lüfter verbauten Motor sowie Luftverwirbelungsmöglichkeiten an.
aber heute packen viele ihre tower AUF den tisch, neben den monitor in nahezu optimaler hörweite und höhe - und wundern sich dann dass selbst langsam drehende lüfter nervig werden... :rolleyes:
Ich sitze gut und gerne 4m vom PC meiner Frau entfernt und höre die Silent Wings 3 bei knapp 700- 800 U/min. Sobald da dann die GPU mit ihren 1.000 U/min dazu kommt, wird es extrem nervig. Die AIO flog schon raus. Die GPU ist als nächstes dran.

Also gern auch für dich; das individuelle Hörvermögen mag für sich selbst vllt. den Eindruck der Allgemeingültigkeit sein - das ist im besten Fall eher ein individueller Trugschluss.

Ich persönlich beneide alle, die sich von solchen Geräuschen nicht gestört fühlen. Allein diesen Luxus habe ich nicht. Bleibt mir also am Ende des Tages nur, einzelne subjektive Lärm-Quellen Schritt für Schritt auszuschalten. Hardware in ein extra Zimmer verbannen steht als Option auch nicht zur Verfügung.

Da würde so ein 50mm-Lüfter halt nicht helfen. ;)
 
Conqi schrieb:
Du meinst U.2? Hätte mir auch gewünscht, dass sich das im Desktop-Bereich etwas mehr verbreitet.
Das hätte ich mir auch gewünscht.

Ich halte M.2-SSD für ein Fehlentwicklung, zumindest in dem Maß, wie sie jetzt eingesetzt werden. Da ist einmal der Platzverbrauch auf den Mainboards, die meisten haben heute 3-4 M.2-2280/22110-Steckplätze, nahezu alle mit Kühlkörpern. Dafür oft nur noch drei x16-Slots und nur noch selten 1-2 x1-Slots. So, wie zeitweise die Mehrzahl der Mainboards offenbar SLI/Crossfire mit x8/x4/x4 und noch einen x4 vom PCH vorsahen, obwohl nur ein niedriger einstelliger Prozentsatz der Käufer das genutzt haben dürfte, rüstet man heute Mainboards so aus, als wollte jeder ein sinnloses RAID0 mit 3-4 NVMe-SSD aufbauen.

M.2 mit riesigen Kühlkörpern wie aktuell schon tlw. find ich schon krank, die können mitten auf dem Board einfach kaum gekühlt werden. Aktive Belüftung nein danke, kann auch auf dem M.2-Board selbst kaum umgesetzt werden und müsste vom Mainboard oder Gehäuse genau an der richtigen Stelle vorgesehen werden.

PCIe-Karten wären schon sinnvoller, könnten besser gekühlt werden und dann auch gerne mal mehr mit x8 oder x16 kommen, könnten aber auch nur mit etwas umdenken bei den Mainboarddesigns im größeren Umfang eingesetzt werden, indem man eben den M.2, der direkt an der CPU hängt, shared mit einem x4-Slot macht und wieder 2-3 weitere x4 an den PCH hängt. PCIe-Lanes sind wohl genug vorhanden, man braucht sie heute auch kaum für was anderes.
Alternative wären solche Karten wie die Asus Hyper M.2, die AFAIK 2-4x M.2 ohne eigenen PCIe-Switch in die Vertikale verlegen und auch meist einen kleinen Quirl haben, aber da funktioniert mehr als 2xM.2 eben auch nur in einem x16-Slot, den man auf S.1700 und AM4/AM5 nicht über hat.

U.2 oder etwas ähnliches wären aber am sinnvollsten. Klar, schon heute sind die 2.5"-Gehäuse von SATA-SSD kaum halb gefüllt, aber im Gehäuse ist einfach viel mehr Platz für sowas und man kann sie wie 3.5"-HDD in einen Käfig mit dickem 140mm-Lüfter davor einhängen. Auch hier wären Gehäuse mit mehreren M.2-Steckplätzen für einen 3.5"-Einschub möglich, aber dann bräuchte es auch eine Kabelverbindung für PCIe x8 oder x16.

Zudem meine ich auch, dass eine weitere Geschwindigkeitssteigerung für normale Nutzer nicht genug Vorteile bietet, um einen noch höheren Kühlungsaufwand zu rechtfertigen. Ich habe zwar nur eingeschränkte Erfahrungen, da ich meine WD Black SN750 2TB auf einem Z87-System via PCIe-Adapter betreibe, aber sie hat mir gegenüber meiner alten Corsair Performance Pro 128GB gefühlt keine Geschwindigkeitsvorteile gebracht, eher Nachteile, weil ich das SATA-SSD mit Intel RapidStart besser nutzen konnte.
Man kann nun auch leider nicht sagen, dass auch nur diejenigen sich um die Kühlung gedanken machen müssen, die so ein Gen5-NVMe-SSD auch ausfahren, denn die Kühlung auf Mainboards und SSD muss für diesen Fall ja ausgelegt sein. Besser die Enthusiasten und Profis, die von dieser Geschwindigkeit profitieren, können auf aktiv gekühlte Add-In-Karten oder U.2-SSD zurückgreifen und für Normalos gibt es weiterhin einfach passiv zu kühlende M.2-Karten.
 
CDLABSRadonP... schrieb:
Es gibt zwei unterschiedliche Aspekte, einer ist idealistisch, einer praxisrelevant.
Der idealistische ist der, dass wenn man wirklich eine baut, die das voll und ganz ausreizen kann, eben schon für die Zukunft programmiert werden kann.
Der praxisrelevante hingegen ist, dass zum Beispiel eine heute mit PCIe 5.0 x16 erscheinende SSD, die von der Geschwindigkeit irgendwo über dem Limit von PCIe 5.0 x4 liegen würde, sowohl auf Plattformen mit nur acht freien 5.0-Lanes, als auch auf solchen mit sechszehn freien 4.0-Lanes ausreizen kann.
Softwareentwicklung scheint nicht so dein Feld zu sein oder? Kein Schwein optimiert darauf Bandbreite des Festspeichers zu sättigen, I/O ist und wird auf absehbare Zeit immer langsamer sein als der Hauptspeicher. Damit gilt es I/O zu vermeiden und aufs Notwendige zu beschränlen. Wenn I/O Zugriffe notwendig sind, dann sollten die flott abgewickelt werden, es ist aber kein Selbstzweck!
Ganz abgesehen davon, dass es sinnlos ist zum Zeitpunkt X Software auf Hardware zu optimieren, deren Leistungsstand bei den Kunden frühestens in 5 bis 10 Jahren weit etabliert sein wird.

Und in der Praxis zählt vor allem, dass man Produkte in ausreichender Anzahl absetzen kann. Es muss schon jemand sehr viel Geld bei gleichzeitig geringem Verstand haben, sich in eine "alte" PCIe4 Plattform mit altem und damit langsamen Prozessor ein Laufwerk zu stecken, welches auf der Plattform nie ausgereizt werden wird.
 
Piktogramm schrieb:
Und in der Praxis zählt vor allem, dass man Produkte in ausreichender Anzahl absetzen kann. Es muss schon jemand sehr viel Geld bei gleichzeitig geringem Verstand haben, sich in eine "alte" PCIe4 Plattform mit altem und damit langsamen Prozessor ein Laufwerk zu stecken, welches auf der Plattform nie ausgereizt werden wird.
Das war doch auch nicht das Szenario. Nochmal zur Erinnerung:
CDLABSRadonP... schrieb:
Der praxisrelevante hingegen ist, dass zum Beispiel eine heute mit PCIe 5.0 x16 erscheinende SSD, die von der Geschwindigkeit irgendwo über dem Limit von PCIe 5.0 x4 liegen würde, sowohl auf Plattformen mit nur acht freien 5.0-Lanes, als auch auf solchen mit sechszehn freien 4.0-Lanes ausreizen kann.
Soll ich es noch mal anders formulieren? Dann hier ein paar Angebote:
  • Sie würde auf einer alten HEDT-Plattform (diverse PCIe 4-Lanes) ihre Performance ausfahren können und auf einer brandneuen Mainstream-Plattform (ein mechanischer x16-Slot, der elektrisch x8 ist) auch.
  • Sie würde zum Beispiel mit 20GiB/s lesen. Das liegt zwischen dem Limit von PCIe 4 x16 und PCIe 4x8 bzw. zwischen PCIe 5 x8 und PCIe 5 x4.
Piktogramm schrieb:
Kein Schwein optimiert darauf Bandbreite des Festspeichers zu sättigen, I/O ist und wird auf absehbare Zeit immer langsamer sein als der Hauptspeicher. Damit gilt es I/O zu vermeiden und aufs Notwendige zu beschränlen. Wenn I/O Zugriffe notwendig sind, dann sollten die flott abgewickelt werden, es ist aber kein Selbstzweck!
Gerade weil es von sich aus kein Schwein macht, ist es umso wichtiger, dass die Hardware OP ist. Nur die Möglichkeit sorgt für die weitere Beschleunigung des Fortschrittes, der ansonsten liegenbleibt. So läuft das doch immer. Denk an Displayanschlüsse, denk an Auflösungen, denk an RAM-Kapazitäten, (denk zurück an die 64bit-Umstellung!) denk an Multicore, ...
64bit-Umstellung ist wirklich das beste Beispiel der Liste: Eine frühere Umstellung hätte so viel Ärger erspart...
 
@CDLABSRadonP...
Und was will eine HEDT-Kiste der PCIe4 Generation dann mit den 20GB/s? Es fehlt grundlegend der Anwendungsfall, wo eine reale Anwendung ausreichend CPU-Zyklen hat um die Datenraten annähernd sinnvoll zu verarbeiten. Ein aktueller, schneller x86 Kern schafft annähernd 1GB/s Durchsatz beim MD5-Hashsummen berechnen[1]. Bei dem Durchsatz der SSD sind das also 20Kerne, die voll ausgelastet sind, nur um sinnlos einen sehr schnellen Hashalgorithmus zu beackern, ohne dass das Betriebssystem überhaupt die Chance hat CPU-Zyklen zu ergattern um Operationen auf dem Dateisystem durchzuführen.
Anwendungen die sinnvoller sind als stumpfes Berechnen von Hashsummen, haben in der Regel um Größenordnungen geringeren Durchsatz an Rohdaten!

Das Hardware "OP" sein soll, deutet mehr auf die Gedankengänge und Sprache von Call of Duty Spielern hin, als eine Person die selbst mal ein paar tausend Zeilen Code geschrieben hat. Hardware hat eine Aufgabe zu erfüllen und das innerhalb eines Kostenrahmens. Im HPC-Bereich gibt es da allerhand Lösungen an denen auch fleißig entwickelt wird. Wobei das bereits jetzt ein Arbeiten an allen Baustellen ist, da in dem Bereich alles zum Flaschenhals wird. Eine PCIe Lösung mit 16Lanes will aber auch da Niemand (blöde Bauform, keine Redundanz, tendenziell zu wenig Speicherplatz, ..).

Und der x86 zu x64-Vergleich hinkt so extrem. Wenn Festspeicher schneller wird, muss man ja nicht wie bei deinem Beispiel das gesamte Speichermanagement angehen. Klar bisschen Betriebssystemoptimierung muss es geben (und gibt es), im HPC Bereich laufen die da jedoch locker dem Desktoprechner 5Jahre voraus. Das was DirectStorage angedenkt kommt ja eben aus der HPC-Ecke.


[1]gemieteter Zen2 Epyc mit 2GHz schafft bei Openssl speed md5 ~500MB/s auf einem Kern. Ich bin großzügig und rechne mit 1GB/s für neuere Cores, obwohl das unrealistisch ist. Bei 20Prozessen die sich um Speicherbandbreite kloppen ist das eher (deutlich) weniger.
 
Piktogramm schrieb:
als eine Person die selbst mal ein paar tausend Zeilen Code geschrieben hat.
Normalerweise gehe ich auf so etwas nicht ein; besonders, weil es ziemlich OffTopic ist. Aber ich befürchte, dass du es ansonsten in den nächsten Kommentar wieder einbauen wirst: Doch, ich habe schonmDeine Aufgabe icstal ein paar tausend Zeilen Code geschrieben. Mein Fokus liegt aber klar auf Hardware und Hardwaregeschichte.

Piktogramm schrieb:
Das Hardware "OP" sein soll, deutet mehr auf die Gedankengänge und Sprache von Call of Duty Spielern hin
Nein, das ist ein Gedankengang aus der Hardwaregeschichte. Er orientiert sich an der Wortbedeutung: Overpowered, stärker als nötig.
Piktogramm schrieb:
Und der x86 zu x64-Vergleich hinkt so extrem. Wenn Festspeicher schneller wird, muss man ja nicht wie bei deinem Beispiel das gesamte Speichermanagement angehen.
Der Sinn des Beispiels war es aber, die Auswirkungen zu zeigen, wenn Hardware nicht OP ist, obwohl es möglich gewesen wäre.
Jedes einzelne Beispiel hat Eigenheiten. Wenn du verstehen möchtest, wozu die Beispiele dienen, fokussiere dich nicht auf diese Eigenheiten!
Piktogramm schrieb:
Hardware hat eine Aufgabe zu erfüllen und das innerhalb eines Kostenrahmens.
Das gilt auf Einzelentscheidungsbasis, nicht aber auf gesellschaftlicher Ebene.
Da du das ja mit AMD64 nicht mochtest, wechsele ich lieber mal zu dem Beispiel der Displayanschlüsse:
Grafikkartenhersteller haben lange nicht zu DP1.3/DP1.4 gewechselt. Viele Panels zu der Zeit hätten aber auch gar keine Kombination aus Bittiefe, Auflösung und Bildwiederholrate nutzen können, um DP1.2 zu überlasten. Doch dann kam der Umbruch und es waren zuerst die Panels da, für die DP1.2 nicht mehr reichte. Weil die Grakas mit DP1.4 fehlten, kamen aber keine Monitore mit diesen Panels auf den Markt. Als die Grakas endlich nachgezogen hatten, waren dann die Produktionszyklen aber schon weiter und es kam zu noch längeren Verspätungen...

Jetzt mal zurück zu den SSDs: Wenn Plattformen über lange Jahre hinweg genutzt werden sollen, ist es wichtig, dass einzelne Hardware möglichst OP ist. Für diese Plattformen, aber auch für künftige Entwicklungen. Rein praktisch gesprochen: DirectStorage soll unter anderem auch den direkten Datenfluss zur Grafikkarte bzw. deren VRAM ermöglichen. Wie du auch schon angemerkt hast:
Piktogramm schrieb:
I/O ist und wird auf absehbare Zeit immer langsamer sein als der Hauptspeicher. Damit gilt es I/O zu vermeiden und aufs Notwendige zu beschränlen. Wenn I/O Zugriffe notwendig sind, dann sollten die flott abgewickelt werden,
 
Zurück
Oben