Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestIntel Optane SSD 900P im Test: Der Benchmark-Kaiser ist im Alltag kaum schneller
Momentan noch, da stimme ich dir zu. Aber das war bei den ersten NAND SSDs nicht anders, da wurde zuerst auch nur eine 'System-SSD' eingebaut, inzwischen hingegen würde ich niemandem mehr überhaupt eine HDD im Laptop empfehlen.
Bei 3D-XPoint wird die Entwicklung in die gleiche Richtung gehen, mehr Speicherplatz zum günstigeren Preis, da wäre es zumindest mal interessant zu sehen, wie die Optane sich in dem Szenario schlägt.
... Man legt einfach 5 Instanzen von World of Warships an und Patched diese gleichzeitig
Da kommen dann kurzfristig genügend IOPS zusammen.
Und die 450 Mbit Leitung hat dann auch was zu tun.
Oh ja... diese 40 MB/s aus dem DSL-Strohhalm, das stresst jede SSD zu Tode, dafür braucht es dringend eine 900p.
Wenn müsste der 40 GB Patch lokal parat liegen und selbst dann bremst immer noch die CPU und die Software die Verarbeitung aus.
Das ist alles andere als sicher. Bei SSDs war die gefühlte Beschleunigung riesig, ihr Zusatz-Nutzen war immer unbestritten und dementsprechend groß waren die Stückzahlen.
Hier ist das nicht so, die "Anwender" werden keine Optane kaufen, ein paar "Technik-Freaks" aus einem Forum fallen zahlenmäßig nicht ins Gewicht.
Es kommen ja auch noch Konkurrenz-Produkte, die womöglich das bessere Preis/Leistungsverhältnis haben werden. Dann würden die sich in den Nischen, wo der Mehrpreis gerechtfertigt ist, am Ende durchsetzen.
Fragger911;20696056
Wenn müsste der 40 GB Patch lokal parat liegen und selbst dann bremst immer noch die CPU und die Software die Verarbeitung aus.[/QUOTE schrieb:
Erkennst du auch Sarkasmus wenn andere ihn benutzen?
Endlich mal ein sinnvoller Anwendungsfall.
Für manche ist halt dem schnellen patchen zusehen, geiler als Wows spielen.
Lieber den ganzen Tag Massenpatches hin und her kopieren. Da nutzt man endlich mal den Speed und freut sich dran.
( Achtung: Nicht ernst gemeint ! Muss man ja dazu sagen. )
Ja, so ein System ist nicht mehr sehr zeitgemäß, erst recht wenn man damit Alltagsanwendungen testen möchte.
Lord_Helmi schrieb:
Am besten irgendwas mit festgetackerter Frequenz - zb ein 8700k @ 5.0 GHz, das hält dann auch wieder ein paar Jahre vor und zeigt die wahren Unterschiede besser.
Sowas wäre gut um die SSD besser an ihre Grenzen zu bringen, aber es wäre auch wenig repräsentativ für die Mehrheit der User des Forums. Außerdem würden wohl selbst dann einige meckern, wieso denn kein i9 7980XE@5GHz verwendet wird
Hildebrandt17 schrieb:
2) Die Teils um den Faktor 10 schnellere Leistung gegenüber einer SATA SSD kommt offensichtlich nicht in der Praxis an (e.g. 6,4s zu 6,9s bei einer 850evo beim Start von Gimp). Woran liegt das? Mangelnde Optimierung der Anwendungssoftware, des Betriebssystem, Bottleneck bei anderen Hardware Komponenten oder die Summe aller Teile?
Erstens ist die Leistung ja nur teils und nicht durchgehend um den Faktor 10 höher, aber z.B. die Schreibperformance kann sich von der einer 960 Pro erst absetzen, wenn viel geschrieben wurde und sie bei den NAND basierten SSDs dann einbricht, was bei Heimanwendern kaum je vorkommen dürfte. Auch Lesend ist die 900P besser wenn kurze Zugriffe erfolgen und nur wenige parallel, kommen aber lange Zugriffe oder genug parallele Zugriffe zu Einsatz, dann gewinnt die 960 Pro sogar. Es hängt also immer davon ab was die Anwendung für Zugriffe macht, wie man in den synthetischen Benchmarks ja auch sieht.
Bei Alltagsanwendungen hängt es dann natürlich auch vom Rest des Systems ab, vor allem auch der CPU. Die muss bei synthetischen Benchmarks ja nur die I/Os erzeugen, vielleicht noch die nicht komprimierbaren Daten was aber meist vorab erfolgt und für den Rest interessieren sich synthetische Benchmarks nicht für die Daten die gelesen oder geschrieben werden. Reale Anwendungen lesen aber die Daten nicht zum Spaß, sondern um damit was anzufangen und selbst wenn sie diese nur Entpacken um sie an die Graka weiterzureichen, so dauert dies eben eine Zeit und diese ist unabhängig von der Performance der SSD und kann nicht unterschritten werden.
Ebenso beim Programmstart, da muss der Code geladen und dann aber auch abgearbeitet werden, bis z.B. im Programm eine dll oder irgendwelche Daten geladen werden, ist alleine die CPU dafür verantwortlich wie viel Zeit vergeht. Dazu kommt ja auch noch, dass der Virenfinder draufschaut ob das was geladen wird auch ungefährlich ist und wenn eine dll angefordert wird, so schaut Windows erst ob diese nicht schon ins RAM geladen wurde, lädt sie dann erst nach und registriert sie, damit sie beim zweiten mal dann vorhanden ist und so weiter, da spielt überall die Performance des ganzen Systems rein, denn zwischen dem Laden des Programmcodes und dann dem Nachladen der dll oder von Daten geht die SSD und/oder deren Host Controller bzw. der PCIe Host Controller ggf. in einen Energiesparzustand und dann kommt die Latenz für das Verlassen diese Energiesparzustandes auch noch hinzu, was vermutlich auch der Grund ist warum PCIe SSDs an den Lanes der Chipsätze weniger Latenz zeigen als an denen der CPU, da man bei denen der CPU, gerade bei den CPUs mit vielen PCIe Lanes, natürlich viel mehr gewinnt, wenn man diese möglicht oft in Energiesparzustände versetzt, während diese bei den Lanes der Chipsätze weniger bringt weil es nicht so viele sind, der Chipsatz sowieso extern ist und über dessen Anbindung eigentlich ständig irgendwelche Daten gehen.
ruthi91 schrieb:
Bin ich blind, oder wird im gesamten Test das Testsystem nicht erwähnt?
Wo sind die guten alten Zeiten wo das Testsystem noch im Inhaltsverzeichnis aufgeführt worden ist?
Das finde ich auch sehr traurig, es gehört in einen Review hinein mit welches HW und SW er ausgeführt wurde, da die Ergebnisse sonst kaum nachvollziehbar sind.
ruthi91 schrieb:
Irgendwo scheint ein Flaschenhals vorhanden zu sein, sonst müssten sich ja eigentlich die Highend SSDs absetzen?
Das I/O Subsystem und/oder die Energiespareinstellungen von Windows dürften auch eine Bremse sein, dies zeigt sich auch wenn man mal die Ergebnisse mit den Serverversionen von Windows mit denen der normale Clientversionen vergleicht.
HaZweiOh schrieb:
Das ist alles andere als sicher. Bei SSDs war die gefühlte Beschleunigung riesig, ihr Zusatz-Nutzen war immer unbestritten und dementsprechend groß waren auch die Stückzahlen.
War er das immer? Die ersten Consumer SSD waren beim Schreiben langsamer als HDDs und die mit den JMicron 602 konnten sich da teils Sekundenlange Auszeiten nehmen. Da hat wohl jemand die Anfangszeit der Consumer SSDs nicht mitverfolgt, denn so wirklich unumstritten besser waren sie erst ab den Intel X25-M, deren Controller deutlich besser war als die zuvor verwendeten. Die Optane sind auch noch ganz am Anfang und die Controller scheinen noch einiges an Verbesserungspotential zu bieten, so sind die seq. Transferraten ja weder vom Medium noch der Schnittstelle begrenzt, sondern nur vom Controller und die Latenz der 900P ist sogar etwas höher als bei den kleinen Optane Memory. Welche Entwicklung die nächsten Generationen nehmen werden, wird man also sehen müssen, aber die 900P ist eigentlich die DC P4800X und daher die ersten SSD überhaupt mit 3D XPoint, die Lernkurve dürfte also weit steiler verlaufen als es bei SSDs mit NAND der Fall ist.
HaZweiOh schrieb:
Die Anwender werden keine Optane kaufen, ein paar "Technik-Freaks" in einem Forum fallen zahlenmäßig nicht ins Gewicht.
Die Heimanwender vielleicht, aber die Unternehmenskunden reißen sich um die DC P4800X und Intels Fokus bei SSDs liegt seit Jahren auf dem Enterprisemarkt:
Im Enterprisesegment, da haben Micron und Samsung mit den Z-SSDs Konkurrenzprodukte bringen, aber es wird wohl kaum Versionen für private Endkunden davon geben.
Wenn der Markt für Arbeitsplatz-PCs (Büro und privat, Desktop und Notebook) ein lohnender Markt ist, werden Geräte dafür entwickelt.
Wenn es sich nicht lohnt (weil dieser Markt keinen Bedarf nach so einer SSD hat), bestätigt das nur meine Aussage ... und das Fazit in diesem Test.
Ich bewerte dieses Produkt so, wie es jetzt ist. Für einen künstlichen Hype um eventuelle, zukünftige Produkte ist es noch zu früh. Das kann man sich aufheben für den Zeitpunkt, wo ein tolles Produkt zu einem tollen Preis erscheint, falls es auch in der Praxis was taugt.
Selbst bei Enterprise SSDs verliert MLC NAND massiv, die neuen Modelle kommen nun praktisch nur noch mit 3D TLC NAND und vermutlich dürften damit auch die Consumer SSDs mit MLC bald komplett verschwinden.
TLC ist billiger, schafft aber bei hohen Belastung nicht die Schreibperformance wie MLC, aber für die paar Anwendungen wo dies wirklich wichtig ist, kommen eben diese Nischenprodukte wie die Optane. Die Massen der Anwendung, selbst in Unternehmen, erfordert aber werde die Haltbarkeit noch die Schreibperformance von MLC SSDs, sondern viel Kapazität für wenig Geld und dies kann mit den 3D TLC NANDs viel besser erreicht werden, so wie die Optane die Anforderungen an eine SSD bei Anwendungen mit massiven Schreiblasten viel besser als jede auf NAND basierte SSDs erfüllen kann, da es bei ihr keinen Leistungseinbruch im Steady State gibt.
Dazwischen ist einfach nicht viel, um mal ein paar GB schnell schreiben zu können, haben die SSDs mit TLC NANDs einen Pseudo-SLC Schreibcache und dieser reicht für alltäglich Schreibvorgängen von Heimanwendern praktisch immer lock aus, zumal wenn er wie bei der 960 Evo und PM981 dann auch nicht nur einen festen Bereich und damit eine feste Größe hat, sondern je nach Füllstand auch noch auf Bereiche ausgedehnt werden kann, die normal als TLC benutzt werden. Die Haltbarkeit ist auch kein Problem, wie diverse Endurance Test immer wieder gezeigt haben, Hunderte von TB wird kaum ein Heimanwender innerhalb der normalen Nutzungsdauer schreiben. Wenn doch, wäre er wohl kaum einer von denn die hier im Forum so gerne als Normalanwender bezeichnet werden und eher schon ein Kandidat für ein Nischenprodukt wie die Optane.
Wenn Du mit Aufstieg die Verbreitung vor allem bei Heimanwendern meinst, so dürfte es wegen der wahrscheinlich immer über den Kosten für NAND liegenden Kosten von 3D XPoint schwer werden SSD mit NAND zu verdrängen. In gewisser Form übernimmt die Optane die Rolle früher Enterprise SSDs wie den FuisionIO, die auch die Nische der hohen Performance trotz geringer Kapazität besetzt hatten und dort erfolgreich waren, bevor Heimanwender sich überhaupt mit dem Thema SSD auseinandergesetzt haben. Damals waren HDDs die einzige Alternative, heute übernehmen die SSD, vor allem die mit TLC und künftig dann wohl auch die mit QLC immer öfter die Rolle der HDDs als günstiger, aber weniger performanter (zumindest schreibend) Massenspeicher.
Bin ich blind, oder wird im gesamten Test das Testsystem nicht erwähnt?
Wo sind die guten alten Zeiten wo das Testsystem noch im Inhaltsverzeichnis aufgeführt worden ist?
Loool, genau dasselbe habe ich auch ewig gesucht, bis ich schließlich in Form eines kleinen versteckten Links fündig wurde!
==>
Ganz oben auf Seite 2,des Artikels befindet sich (jetzt/inzwischen??) folgender Link: https://www.computerbase.de/2014-06/ssd-testverfahren/
Testssystem läuft noch mit 2x2GB DDR3-1600
Prozessor
Intel Core i5-4670K @ 3,4 GHz (Turbo und Stromsparmodi deaktiviert)
Motherboard
Asus Z87I-Pro (Intel Z87-Chipsatz „Lynx Point“) für SATA-SSDs / ASRock Z97 Extreme6 für M.2-SSDs
SATA-Controller
Intel 8 Series/C220 Series SATA AHCI Controller – 8C02 (Treiber: 9.4.0.1023)
Arbeitsspeicher
2× 2 GB DDR3-1600 (Corsair Dominator CMPG4GX3M2A1600C9)
Grafikkarte
Intel HD 4600 Graphics (in Prozessor integriert)
Ergänzung ()
ruthi91 schrieb:
Irgendwo scheint ein Flaschenhals vorhanden zu sein, sonst müssten sich ja eigentlich die Highend SSDs absetzen?
Fraglich ist also ob der Flaschenhals in Windows, in den Anwendungen oder in der Hardware ist.
Also ein Hinweis darauf, dass das System möglicherweise dennoch kein allzu dramatischer Flaschenhals sein kann, ist möglicherweise die erstaunlich hohe auf eben diesem System erzielte 4k QD1 Leistung!!
Klar ist aber dennoch: wirklich ausschließen kann man es nur dann, wenn man die SSD an einem schnelleren System testet.
Wobei naja... CB ist ja nur eine Testseite von tausenden, bin sicher von anderen Seiten wird man Tests im Netz finden an aktuellen und schnellen Systemen.
Ist halt bissle schade, dass hier die aufgebrachte Arbeitszeit des Redakteurs in gewisser Weise dadurch entwertet wird, dass er einfach nur ein altes System zur Verfügung hatte.
Das System ist ja insgesamt inzwischen fast weniger wert, als die getestete SSD.
Die Konfiguration des Systems ist absolut hahnebüchen und ich denke in der Praxis wird es weltweit nicht einen einzigen Nutzer geben, der sein altes System mit so einer teuren SSD ausrüstet.
Insofern dann von einem "Alltagstest" überhaupt zu sprechen ist mehr als witzig.
Nichtsdestotrotz, die SSD bekommt ihre auch in diesem Test bestätigte brachiale 4k-QD1-Leistung nicht ansatzweise auf die Straße!
Dies ist ein objektives erstes Anzeichen dafür, dass die Ursache eher nicht in der Hardware und auch nicht wirklich alleine im Testsystem zu suchen ist.
Man darf ja nicht vergessen, 4K-QD1-Leistung ist ja nichts anderes als Single-Thread-Leseleitung!!
Und genau DAS wird ja eigentlich in den leseunoptimierten Alltagszenarien benötigt.
Daher um so merkwürdiger, dass eben diese typischen Alltagsszenarien wie Programmstarts davon so gering profitieren.
Fakter 4x schneller ist nämlich ne echte Hausnummer!!!
Hier in diesem Thread hatte ich dazu schon eine mehr als ausführliche und auch aufschlussreiche Diskussion mit Holt, der mich daraufhin leider auf die ignore-Liste gesetzt hat. https://www.computerbase.de/forum/t...s-vom-hersteller.1727062/page-2#post-20664768
Evtl. interessierts ja wen. Besonders interessant ist der Vergleich der Zugriffzeiten verschiedener Medien miteinander. So hat die Optane z.B. erstaunlicherweise ja hier in diesem Thread-Test eine gemessene Zugriffzeit von 17-22µs und ist damit quasi nicht schneller als z.B. eine Samsung 960 pro.
Das finde ich recht unerwartet!! Ob es am System liegt oder an der Optane muss man mal schauen.
Die theor. Vorteile von XPoint sind enorm.
Der praktische Nutzen in den meisten Fällen jedoch nur minimal.
Was genau die Ursache ist, werden die kommenden Monate zeigen.
Sollte es jedoch in der Software begründet liegen wie die Zeichen es andeuten, dann würde das auch bedeutet, dass künftig diese Bremse gelöst werden kann.
Davon sind ja auch sicherlich bereits viele aktuelle NAND-NVMe-SSDs betroffen, die ja auch ggü. alten NAND-SSDs deutlich Land gewinnen konnten bzgl. Zugriffzeiten.
PS: Ich bin auch nicht der Meinung, dass normale SSDs schnell genug sind.
Inzwischen gibts genug Programme, die sind so fett und schwerfällig geworden, dass sie auf normalen SSDs tatsächlich gefühlt so lange starten wie vor 10 Jahren Programme auf HDDs.
Das ist wohl leider so. Es läßt sich auch kein typisches Szenarion zusammenbauen, da Datenbankprobleme immer auch auf veryschiedene Weise behoben werden, wenn die permanent sind.
Datenbanken sind nunmal ein völlig gegenläuftiges Szenario zum Thema Fileserver. Selbiges Problem haben wir seit 20 Jahren im Rechenzentrum, wo nichtmal die Profis unter den Architekten und Datenbänken die Problemursache erkennen wollen. Dabei ist ein SAN mit 500µs Latenz bereits ein "pain in the as". Immerhin können die auf diese Weise Geld für 2-4TB RAM locker machen, statt sich zu überlegen mal einfach die Platten lokal in die Server zu bauen und die Datenbankstruktur der Hardware anzupassen. Aktuell dauer ein "reorg rebiuld" oder "alter table" bei 250-Mio-Datensätzen gerne 2-3 Wochen, weil irgendwann mal jemand glaubte, mit zentralem Storage spart man Unterhaltungkosten.
Für Computerbase-Benchmarks wäre wohl eher ein semi-professioneller Einsatz noch vermittelbar. Studenten, die ohne Budget eine große Datenbank aufbauen und analysieren müssen oder kleine Firmen, die nicht Millionen für Server ausgeben wollen/können. Diese intel-Karten sind dagegen das reinste Schnäppchen.
Also ein Hinweis darauf, dass das System möglicherweise dennoch kein allzu dramatischer Flaschenhals sein kann, ist möglicherweise die erstaunlich hohe auf eben diesem System erzielte 4k QD1 Leistung!!
Naja-Das beweist nur, dass das System eben in praxisfernen Szenarien tolle Leistung bringt. Beim Laden einer Anwendung spielt aber eben nicht nur I/O des Massenspeichers eine rolle, sondern die gesamte Plattform. CPU, RAM, Cache, PCI(e), DMI etc. etc.
Auch spielt die Programmierung des Loaders eine Rolle. Auch diesen kann man threaded gestalten bzw. vom Zeitverhalten her auf unterschiedliche Datenträger einstellen.
ja klar, was du schreibst ist alles korrekt.
Deswegen schreibe ich ja auch, es ist "**ein** Hinweis".
Dennoch zeigt der Test, theor. wäre es möglich. Das Testsystem ist also nicht komplett unfähig und es kann nicht die alleine Ursache für die Minderperformance sein.
Das wollte ich damit nur zum Ausdruck bringen.
Die Langsamkeit des Testsystem kann duchaus **ein** Faktor sein, aber ganz sicher nicht der alleinige.
Alle von dir genannten Faktoren zhlen auch mit dazu.
Deswegen widersprechen wir uns auch nicht.
Ergänzen uns!
Gerade weil du von threaded spricht.
4k QD1 ist ja UNTHREADED brutale Singlethreadleseleistung.
Gerade deswegen müsste genau eine SSD mit so hoher Singlethreadleseleistung die nicht durch threading optimierten Anwendungen (Mehrzahl!!) absolut rocken!
der 4k QD1 Benchmarkwert ist auch keinesfalls praxisfern, sondern im Gegenteil eigentlich der praxisnächste Messwert, der uns überhaupt zur Bewertung eines Laufwerks zur Verfügung steht.
Gerade deswegen müsste genau eine SSD mit so hoher Singlethreadleseleistung die nicht durch threading optimierten Anwendungen (Mehrzahl!!) absolut rocken!
In vielen Fällen werden die Daten nicht nur in 4K Blöcken sondern in größeren gelesen und von Windows im Cache gehalten. Somit trifft nur der erste Zugriff die SSD hart und die weiteren kommen schon aus dem Windows Cache.
Benchmarks unterbinden in der Regel das Cachen, Anwendungen in der Regel hingegen nicht.
@Unlimited1980
Eine 4K QD1 muss bei einer entsprechend schnellen Abarbeitung niemals auf eine QD2 oder größer ansteigen.
Vollgepferchte Queues liegen in der absoluten Transferrate den standard SSDs gut, sind aber wiederum Gift für die Latenzen, die ja gerade die Xpoint Technik zu senken versucht.
NSomit trifft nur der erste Zugriff die SSD hart und die weiteren kommen schon aus dem Windows Cache.
Benchmarks unterbinden in der Regel das Cachen, Anwendungen in der Regel hingegen nicht.
Alles korrekt. Ist aber auch keineswegs ein Widerspruch zu meiner Aussage!
@ZeroZerp
Jeppa, voll der gute Punkt, den du da bringst mit den vollgepferchten QDs.
Genau deswegen sollte diese Optane ja das Potential haben eben diese "Alltagsanwendungen" zu rocken.
Überragende 4kQD1 Leistung vorhanden.
Mal sehen wo das Problem liegt.
Werden wir ja erleben, irgendwann wird es ja gelöst werden.
Abwarten und Spekulieren so lange.
Mehr nicht tun wir können!
Zu Testsystem und Methodik haben wir doch schon lange einen eigenständigen Artikel auf den in jedem Test verlinkt wird. Das ist auch bei anderen Bereichen so und sollte sich eigentlich so langsam durchgesprochen haben.
Ja, das System ist inzwischen recht betagt. Ich stand vor der Wahl: Optane mit allen anderen SSDs unter gleichen Bedingungen (altes System) zu vergleichen oder eben auf einem neueren System nur 1-2 Modellen (die noch da sind) gegenüber zu stellen.
Nochmal zur Praxisleistung: Schaut euch doch mal den PCMark 8 an. Der ist sehr praxisnah, da er als Trace-Benchmark mit zwar aufgezeichneten (Spuren) aber echten Datentransfers von echten Anwendungen arbeitet. Dort seht ihr, dass die Optane 900P ca. doppelt so schnell ist beim Durchsatz wie die 960 Pro. Bei der Dauer für die einzelnen Anwendungen gibt es dann aber im Bestfall nur 1% Vorsprung. Und das ist nicht nur bei uns so, da könnt ihr auch bei anderen mit aktuellerem/schnelleren System schauen. Allerdings schreiben viele nur die gemessenen Durchsatzraten (weil's da halt große Unterschiede gibt), statt die letztlich relevante Dauer für die Ausführung der Aufgabe. Was bringt mir eine SSD, die in der Theorie doppelt so schnell ist, mit der sich mein Programm aber nur 0,1 Sekunden schneller verhält?
Der Flaschenhals liegt leider oft woanders. Sich auf Spezialfälle zu konzentrieren (100 FireFox-Offline-Tabs anyone?) wäre zwar richtig, um die SSD zu fordern, aber wäre sowas für Normalnutzer relevant und praxisnah?
Heyhey Micha, super Hinweis mit dem PCMark8, danke dir!!
Wie passt es denn zusammen, dass eine SSD eine doppelt so hohe gemessene Bandbreite hat und zetlich quasi keinen Vorsprung? Verstehe ich das richtig, PCMark8 gibt die Ergebnisse doppelt aus, als Bandbreite und als Zeit?
Das widerspricht sich doch... irgendwo muss da dann doch auch ein Fehler im Messsystem/Benchmark sein, denn Bandbreite und Zeitverbrauch hängen ja zusammen. Bandbreite = MB/Zeit
Wohin geht denn im speziellen deine Vermutung, wo der Flaschhals liegen könnte?
Holt vermutet ja gewissen Dekompressionsalgos.
Er hat das aber niemals mit Links belegt oder eine Aussage dazu gemacht, welcher Anteil von normalen Alltagsdateien "komprimiert" ist.
Ich habe halt an seiner Aussage immer etwas gezweifelt, weil wenn es stimmen würde müsste ja die Laufwerksperformance inzwischen auch stark von der CP-Leistung abhängen (dekompression).
Davon ist mir allerdings bislang nichts bekannt.