News Phison E26: Nächstes Jahr kommt die neue PCIe-5.0-SSD-Plattform

mgutt schrieb:
Dann aber montiert wie RAM oder wo willst du die alle hinpacken? Bzw selbst dann ist es schwer die alle unter zu bringen.
Naja, so 4-5 Slots bieten die Top-Bretter jetzt schon. 6 sind bestimmt nicht unmöglich, aber wohl einer Steckkarte bedarf (siehe Dimm.2 bei Asus, MSI Z-Expander usw.)... Günstige Bretter werden wohl maximal 4xM.2 bieten, hast Recht.
 
massaker schrieb:
Naja, so 4-5 Slots bieten die Top-Bretter jetzt schon
Was ich so finde, geht aber eher in Richtung e-ATX und dann bereits teilweise mit separater Steckkarte, wo man die M.2 draufschraubt. Fraglich wie man das bei mATX umsetzen will. Nur wegen der M.2 würde ich mir jedenfalls keinen Riesen-PC mehr zusammen bauen. Irgendwie auch ein Widerspruch. Die Datenträger werden immer kleiner und das Board immer größer ^^
 
mgutt schrieb:
Was ich so finde, geht aber eher in Richtung e-ATX und dann bereits teilweise mit separater Steckkarte, wo man die M.2 draufschraubt. Fraglich wie man das bei mATX umsetzen will....
Tja, von mATX war bisher ja auch nicht die Rede. Dachte eher an halbwegs günstige Bretter, wie MEG B550 Unify, aber auch X570S Aero G/Carbon Max WiFi/Carbon EK X oder x570S Aorus Master... Muss nicht gleich Crosshair VIII Extreme oder MEG Godlike sein... Kommende MEG ACE MAX auch ganz lecker... Und dabei habe ich nur vom roten Lager gesprochen (wo ich auch unterwegs bin), wie es bei Intel aussieht, weiß ich nicht, evtl. noch besser.
 
bensen schrieb:
Erst recht kein Consumer profitiert von hohen Dauerschreibraten. Das ist ja der Punkt.
Mein Punkt war, dass es so performante Produkte derzeit sowieso im normalen Consumerbereich gar nicht mehr braucht. Und WENN doch eine Ausnahme da ist und hohe Übertragungsraten da sind und jemand braucht, braucht er die meistens nicht für 5 GB sondern für 500. Es bringt mir persönlich etwa nicht, wenn ich nominell eine hohe Schreibrate habe, aber die nach kurzem einbricht und ich insgesamt geringere Schreibraten habe - wie bei aktuellen QLC Laufwerken
 
Ja, stimme ich trotzdem nicht zu. Es gibt immer auch Anwendungsszenarien wo überwiegend gelesen wird uns nur kleine Mengen geschrieben. Wobei klein ja deutlich mehr sein können als 5 GB.
Es ist ja nicht so, als würde man für eine hohe Peak Performance eine hohe Dauerschreibrate opfern müssen. Beides wird ja technisch völlig unterschiedlich erreicht und beides hat seine Kosten. Deswegen verstehe ich dein Argument nicht. Es gehört jedes Segment bedient und jeder kann sich dann das Produkt aussuchen, welches zu seinem Anwendungsprofil passt.
Keine Angst, es wird sicher nicht zuerst QLC NAND mit dem E26 kombiniert.
 
massaker schrieb:
Warum? Mehr wie 4TB geht da doch eh nicht per Laufwerk? Dann lieber ein (paar?) U2 / U3 Anschlüsse und einen dritten / vierten Speicherkanal für den Desktop. :)
Wenn "die da oben" bei den Workstations / Servern jetzt damit um sich werfen, dann sollte es unten auch mal ein bissl weiter gehen. :D
Muss ja nicht gleich jede Kiste so etwas haben.
 
abzjji schrieb:
Für Grafikkarten eigentlich erstmal Uninteressant oder? Pcie3 16x limitiert ja bis jetzt noch nicht mal
Wenn Intel jetzt auch GPUs baut hätte man die Marktmacht sich endlich vom 16er Anschluss zu trennen und auf 1/2/4 zu gehen wenn alles aus einer Hand kommt. Mehr Geld könnte man nicht einsparen bei der gesamten produktionskette und das einmal ohne irgendwelche Nachteile für den Endkunden.
 
ThomasK_7 schrieb:
Kauft Euch doch erst einmal PCI4.0-SSD, bevor Ihr Euch die neuen PCI5.0-SSD wünscht!

Meine passiv gekühlte PCI4.0 SSD kann bis zu 6900 MB/s lesen und bis zu 5100 MB/s schreiben.
Das ist schon rund eine Verzehnfachung im Vergleich zu den SATA6-SSD!
Leider verzehnfacht sich damit aber auch nicht die Verarbeitungsgeschwindigkeit. :(
Wieso sollte ich mir jetzt noch PCIe 4.0 kaufen?

Aktuell hätte ich davon keinen Vorteil, da kann ich genau so gut auf PCIe 3.0 bleiben und dann 2023 eine PCIe 5.0 SSD kaufen. Bis dahin kosten sie realistisch nur noch unwesentlich mehr als PCIe 4.0 und es dürfte sowohl von AMD als auch Intel entsprechende Unterstützung von PCIe 5.0 im M.2 Slot geben.

Es wird zwar immer das Direct Storage Gespenst beschworen, aber solange ich da real nichts von sehe, gebe ich dafür auch kein Geld aus. Bis das mal breit verfügbar ist, ist schon längst 2023, zumal man ja schon ein ähnliches Konzept auf der PS5 beobachten kann und mich das nicht wirklich von den Socken haut. Von den Instant Load Times deutlich über PC-Niveau sehe ich bisher jedenfalls nicht viel.
 
Summerbreeze schrieb:
Warum? Mehr wie 4TB geht da doch eh nicht per Laufwerk? Dann lieber ein (paar?) U2 / U3 Anschlüsse und einen dritten / vierten Speicherkanal für den Desktop. :)
Nicht viele brauchen halt >20 GB an NVMe-SSD-Storage. Ich hätte auch gerne einen U.3-Anschlüss auf dem neuen Brett. Das bieten nicht einmal Top-Consumer Bretter wie C8E für 800€. Weil M.2 "ist das neue Schwarz"! Aber bei Bedarf gibt es halt notfalls Adapter-Kabel/Platinen -> im Notfall kann man halt basteln.
 
massaker schrieb:
Ich sag ja, Platzprobleme. Das Board ist ATX und hat eine PCIe Ausstattung wie ein mATX Board und 4 M.2 sind eben auch keine 6:
IMG_20211002_073116.jpg

Hätten die M.2 ihre Anschlüsse an der langen Seite wie RAM Module, könnte man problemlos 3 an eine Stelle packen, wo vorher nur eine hingepasst hat. Wobei wegen der Wärme und der möglichen Kollisionen mit PCIe Karten auch das wieder ein Problem wäre.

Ich verstehe ja nicht, warum man nicht einfach Mini SAS HD oder Oculink als Buchse nimmt und der Nutzer kann sich die M.2, U.2 oder U.3 dann irgendwo in sein Gehäuse packen. Wenn genug Lanes da sind bzw die Bifurcation 4 bis 8 NVMe erlaubt, können auch gerne die SATA Buchsen weg.
 
mgutt schrieb:
....man nicht einfach Mini SAS HD oder Oculink als Buchse nimmt und der Nutzer kann sich die M.2, U.2 oder U.3 dann irgendwo in sein Gehäuse packen. Wenn genug Lanes da sind bzw die Bifurcation 4 bis 8 NVMe erlaubt, können auch gerne die SATA Buchsen weg.
Echt tolle Ideen, mein Ernst, aber die Mini-SAS-HD und OCuLink Kabel kosten mit oft ~60-70€ ca. schon so viel, wie die meisten hier für ihre SSD überhaupt ausgeben können. Das beste - mit Mini-SAS-HD könnten SATA-Anschlüsse tatsächlich weg von der Platine, denn wer unbedingt SATA möchte, könnte mit einem entsprechenden Kabel 4x SATA-SSDs an einem Anschluss betreiben. Es wird einfach mal Zeit, dass Consumer-Systeme >30 Lanes bekommen, dann lassen auch die entsprechenden Lösungen nicht lange auf sich warten.
 
mgutt schrieb:
Also wenn ich nach SFF-8611 bei Amazon oder eBay suche, dann finde ich Kabel für unter 30 €. Bei Amazon.com auch für unter 20 Dollar.
ОК, dann steht der nächsten Evolutionsstufe nichts meh im Wege :daumen: Jetzt müssen nur noch die Hersteller die Idee adoptieren, dass sie HEDT-like Mainboards im mATX-Format rausbringen sollen.:schluck:
 
Ich fände es ja cool, wenn die 4 Buchsen in einer Reihe aufs Board machen würden, wo ein X16 Slot wäre und dann die Karten entsprechend dem Bedarf mit 1 bis 4 Steckern ausstatten würden. Also eine LAN Karte würde zb eine Buchse verwenden und so hätte man noch 3 frei, die man dann zb für NVMes verwenden können. Natürlich vorausgesetzt, dass man jede nur denkbare Bifurcation Aufteilung nutzen könnte. Das ist ja aktuell eher das Problem.
 
mgutt schrieb:
Wird Zeit für neue PCIe Buchsen. Schließlich ist dann sogar X1 (4 GB/s) für viele Karten völlig ausreichend und X4 (16 GB/s) sowieso.
Verrätst du uns auch warum ds so sein sollte?
PCIe 1x Slots sind doch schon steinalt. Falls du dich auf m.2-Slots beziehst: Niemand ist gezwungen dort 4 Langes anzubinden, weniger ergibt aber keinen Sinn, weil die SSDs nicht kleiner werden.

Ich sehe für Consumer Boards auch 0 Sinn in 6x m.2. Selbst 2 Slots werden nur seltenst genutzt.
 
Dann braucht auch kein Konsument 20x USB Slots, wenn doch viele Nutzer einen USB Hub auf dem Tisch als gemeinsamen USB Verteiler nutzen und mittlerweile manch einer über Daisychain seine Monitore an einem Kabel anschließen möchte.
Über die Jahre hätte man auch keine 6x SATA verbauen müssen, wenn der übliche Konsument höchstens mal 2 Laufwerke einbindet und selbst viele Spieler auf mATX setzen und die 3 Slot Grafikkarte komplett über das Brett hinaus steht.

Warum braucht jemand als Konsument oder als Spieler 4 Monitore, zwei davon für die Formel 1 Außenspiegel und damit so viele Monitorausgänge? Dafür gibt es für Office nicht mal zwei VESA spezifierte DP Anschlüsse auf dem Mainboard verbaut.

Bei AMD war nach dem Sockel 940 Sledgehammer 939 und AM 2/3+ immer noch HEDT in höchster Ausbaustufe über die Northbridge. Wer weniger wollte, konnte sich AMD 754, AM1 und FM kaufen.
Eine solche Ausbaustufe als AM5 mit PCIE 4.0/5.0 und AMD könnte mich wieder überzeugen, wenn sie auch eletrisch sauber funktioniert.
http://www.amdarea51.de/mbds/formular.php?ID=115

Bei intel sah die Sache anders aus. Erst mit LGA1366 ist man auch in ordentlichen WS Unterbau abseits von Serverlösungen eingestiegen und das auch noch in günstig. Ein Triple Channel RAM Controller hätte AM4 auch gut gestanden und man könnte auch Sparbretter für Office mit drei RAM Slots anbieten, wem 24/48/96GB RAM in Vollbestückung ausreichen oder man nur einen oder zwei Kanäle bestückt. Es also keine FM Sparplattform mehr gibt. Eine AM4 APU mit Triple Channel RAM würde ebenso besser mit 1/3 höherer Bandbreite gegenüber Dual Channel abgehen.

Der Nutzen mit dem derzeitigen PCIE 4.0 und kommenden PCIE 5.0 Lösungen hält sich für den Konsumenten dennoch in Grenzen, wenn manch einer schon bei PCIE 4.0 auf 3.0 zurück stellen muss oder erst ein BIOS Update machen, damit seine PCIE 4.0 Hardware sauber funktioniert. Bei den SSDs mit über die Zeit auftretenden Leistungsabfällen, wo neue Firmware nach helfen muss, wird man auch bei zukünftigen Phison Lösungen einen Blick drauf haben.
 
Nagilum99 schrieb:
PCIe 1x Slots sind doch schon steinalt
Bei PCIe 5.0 hat X1 4 GB/s. Dadurch wird X1 doch moderner als jemals zuvor, da jede heutige PCIe 3.0 X4 Karte nur noch PCIe 5.0 X1 benötigt. Natürlich wäre da noch das Thema mit dem parallelen Durchsatz. Dann erhöht man aber eben auf PCIe 5.0 X2. Der Unterschied dürfte dann kaum noch messbar sein. Schlussendlich hätte man aber schon mal 2 Lanes gespart.

Fragen wir doch mal andersherum. Welche Karte braucht PCIe 5.0 X16? Das ist doch völlig überflüssig, solange die CPUs so "langsam" sind.

Nagilum99 schrieb:
Niemand ist gezwungen dort 4 Langes anzubinden, weniger ergibt aber keinen Sinn, weil die SSDs nicht kleiner werden.
Das verstehe ich nicht. Warum ist die Größe der NVMe entscheidend?

Nagilum99 schrieb:
Ich sehe für Consumer Boards auch 0 Sinn in 6x m.2. Selbst 2 Slots werden nur seltenst genutzt.
Dann würde auch heute keiner Boards mit 6x oder gar 8x SATA kaufen und die 4x M.2 Boards ja auch nicht. Und warum kaufen die Leute überhaupt ATX oder E-ATX Boards. Da scheint es also sehr wohl eine Zielgruppe für zu geben.
 
massaker schrieb:
Das beste - mit Mini-SAS-HD könnten SATA-Anschlüsse tatsächlich weg von der Platine, denn wer unbedingt SATA möchte, könnte mit einem entsprechenden Kabel 4x SATA-SSDs an einem Anschluss betreiben.
Und wer soll das >1000€ teure Mainboard bezahlen welches den Trimode Controller beinhaltet damit du an dem Anschluss sowohl SATA, SAS als auch PCIe nutzen kannst? Der Anschluss alleine sagt doch erstmal gar nichts aus was unterstützt wird. Gucke einfach mal bei Broadcom und Co wie teuer solche Controller sind. Komplett unrealistisch sowas im Consumer Markt zu bringen.

mgutt schrieb:
Bei PCIe 5.0 hat X1 4 GB/s. Dadurch wird X1 doch moderner als jemals zuvor, da jede heutige PCIe 3.0 X4 Karte nur noch PCIe 5.0 X1 benötigt. ...
Wenn man nur die Bandbreite betrachtet sicherlich, aber damit beschneidest du sämtliche existierende Hardware. Eine Gen3x4 SSD würde an so einem Anschluss dann halt auch nur mit Gen3x1 laufen und hat damit nur nen viertel ihrer potentiellen Bandbreite zur Verfügung. Daher wird Anzahl an Lanes immer das entscheidende Kriterium bleiben mit dem die CPU Hersteller ihre Produkte differenzieren in Consumer/HEDT/Server Bereich.

massaker schrieb:
Es wird einfach mal Zeit, dass Consumer-Systeme >30 Lanes bekommen...
Wird so nicht kommen. Grund ist einfach, dass man passend zur IO Bandbreite von PCIe ja auch entsprechend Bandbreite des Arbeitsspeichers benötigt (Wenn man mit den gelesenen Daten auch arbeiten will und nicht nur übern DMA Controller von A nach B schaufelt). Zwei PCIe Gen4x16 Ports hätten 64 GB/s Bandbreite, zwei DDR4 3200 Kanäle dagegen nur 51,2 GB/s (alles jeweils ohne Protokolloverhead etc.). Damit hat man beim RAM also nen Flaschenhals. Daher benötigen wir also mehr RAM Kanäle wenn mehr PCIe Lanes notwendig sind und landen damit wieder bei Konfigurationen wie z.B. AMD mit dem Threadripper ja im Angebot hat.

Das führt z.B. auch dazu, dass Intels Alder Lake zu wenig Speicherbandbreite hat, wenn man sämtliche IO Bandbreite die per PCIe bereitgestellt wird, ausnutzen will. (Falls dieses Diagramms stimmt: https://hothardware.com/news/intel-z690-alder-lake-chipset-specs-pcie-5-ddr5-gear-4-mode) Demnach werden zwei DDR5 4800 Kanäle unterstützt, welche 76,8 GB/s Bandbreite haben. Dem gegenüber stehen 16 PCIe Gen5 Lanes mit 64 GB/s und 12 PCIe Gen4 Lanes mit 24 GB/s - in der Summe also 88 GB/s Bandbreite per PCIe. Wird in der Praxis kaum jemanden wirklich betreffen, aber wenn jemand sagt die integrierte Grafik reicht mir, ich nutze alles was an PCIe Lanes da ist für schnellstmögliches IO, dann scheiterts an der RAM Bandbreite :)
 
Chuuei schrieb:
Eine Gen3x4 SSD würde an so einem Anschluss dann halt auch nur mit Gen3x1 laufen
Ich spreche von PCIe 5.0 X1 bzw X2 NVMes und keine alten Modelle. Welchen Sinn hätte denn PCIe 5.0, wenn nicht auch die passenden Komponenten dafür kämen.
 
Schon klar, aber man kann doch nicht sämtliche bestehende Hardware außer Blick lassen. All die abermillionen bestehenden PCIe Gen 2,3,4 Devices die es gibt.

Die Abwärtskompatibilität ist ja gerade das schöne bei PCIe. So einen Bruch wie du ihn im Sinn hast, wird denke ich erst kommen, wenn es mal ein Protokoll gibt was nicht mehr abwärtskompatibel ist zu bestehender Hardware.

Bis dahin wird alles über die Anzahl der Lanes gehen. Das ist auch der Grund warum bei AMD z.B. der B550 Chipsatz für den allergrößten Teil der User ausreicht und nicht der X570 benötigt wird. Die Geschwindigkeit der Chipsatzlanes ist dort auch weniger interessant als einfach die Anzahl der Lanes.
 
Zurück
Oben