News USB 3.2 Gen 2×2 Adapter: PCIe-Karte bietet über 4 Lanes bis zu 20 Gbit/s im Desktop

Also den Ärger über die Bezeichnung der USB-Generationen verstehe ich, den über die Kabelgeschichte nicht. Was ist daran so schwer zu verstehen und vor allem ärgerlich, dass 20Gb/s nur die gleichen Kabel brauchen wie 10Gb/s? Was anderes ist damit nicht gemeint, die Kabel müssen für 10Gb/s spezifiziert sein, dann geht jetzt auch 20Gb/s, aber irgendwelche Kabel, die nur für 480MBit/s oder 5Gb/s spezifiziert sind, reichen nicht, vermutlich, weil einfach die Pins nicht vorhanden sind.
 
Na, die Pins gibt es seit USB 3.0. Also inklusive 5GBit/s. Die Stecker und Buchsen haben sich seitdem nicht mehr verändert. Es gibt zwei Stromleitungen und zwei Datenleitungen, die kompatibel mit dem USB-2.0-Standard sind, und 5e zusätzliche Kontakte und Leitungen für die neue Norm. Nur USB C ist als universale Steckerform hinzugekommen - unterstützt aber ebenfalls sämtliche Standards seit USB 2.0.
 
  • Gefällt mir
Reaktionen: Smartbomb
Ich verstehe auch das die USB Standards nicht so intuitiv benannt sind wie man es vielleicht gerne hätte und dazu die Hersteller es meist auch irritierend benutzen, aber wirklich kompliziert oder gar unlogisch ist es nicht auf technischer Ebene.

Die Kabelsache ist ganz einfach. USB 3.2 schreibt USB-C zwingend als Steckverbinder vor, im Umkehrschluss ist USB-C aber nicht USB 3.2 exklusiv, kann genauso gut wie bei Handys gerne nur für USB 2.0 genutzt werden. Daher brauch es diese Zertifizierung auf 10 GBit da rein elektrisch Leiter drin sein könnten die für USB 2.0 reichen, aber für die höheren Frequenzen bei USB 3.2 nicht. Warum nun 10 Gbit/s und nicht 20 Gbit/s ist auch einfach zu verstehen. Es wird nämlich nicht ein Leiterpaar genutzt, sondern zwei Leiterpaare bei USB 3.2 Gen2x2 und diese laufen halt mit 10Gbit/s und nutzen einfach das zweite Leiterpaar, welches bei 3.2 Gen 2 durch den verdrehsicheren USB-C Stecker vorhanden ist, aber nicht genutzt wird. Daher sind es auch 2x10 Gbit/s und nicht 1x20Gbit/s - daher reicht es aus, wenn das Kabel auf 10 Gbit/s spezifiziert ist aus elektrischer Sicht.

Bei den Standards wird es hier auch schlimmer geredet als es ist. Und ein wenig sind die Hersteller auch selbst schuld da sie nicht durchgängig die von dem USB-IF vorgeschlagenen Bezeichnungen verwenden. Wenn die Leute "SuperSpeed USB" verwenden würden, dann würde es keinen kümmern und auch nicht interessieren ob es nun USB 3.0, USB 3.1 Gen 1 oder 3.2 Gen 1 ist - es steckt zwar nicht zwangsweise der gleiche Standard dahinter, aber da die Modi in die neueren Standards übernommen wurden sind sie elektrisch und logisch identisch und daher ist es eigentlich egal welcher Standard gemeint ist aus Verbrauchersicht. Das die Leute sich so sehr an die technischen Bezeichnungen aus dem Standard halten hat das USB-IF wahrscheinlich nicht kommen sehen. Das die Bezeichnungen aus den Standards zwar technisch vollkommen logisch und nachvollziehbar sind, aber für Kunden ungeeignet, da gehe ich mit den Kritikern hier mit. Aus technischer Sicht ist nichts einfacher zu verstehen als das USB 3.2 Gen2x2 doppelt so schnell sein muss wie USB 3.2 Gen2 wenn das x2 bedeutet das doppelt so viele Datenpaare genutzt werden. Sowas sollte aber nicht zum Endkunden wandern und daher finde ich hier Gigabytes Produktbezeichnung auch alles andere als gut hier.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen und Smartbomb
bensen schrieb:
Nicht jeder macht gleich einen Intel-AMD-War aus ner simplen Diskussion. Er hat nur gesagt, dass AMD die Preise für sein HEDT ordentlich angehoben hat. Warum siehst du dich genötigt hier mit Intel anzukommen?

Nö, hat er nicht, er hat grundsätzlich nur HEDT mit genug PCIe-Lanes gesagt. Und dass die wegen AMD teurer seien. Der 1920X ist aber HEDT, hat "genug" Lanes und ist auch nicht wirklich teurer als HEDT mit so vielen Lanes früher war. Da es früher "vor AMD" nur Intel mit HEDT gab, kam ich eben zufällig auf Intel. ;)
Wenn er unbedingt die neusten HEDT-CPUs haben will kosten die neuen von AMD auch nicht wirklich mehr, als die von Intel gekostet haben bevor AMD es angeblich alles teurer gemacht hat. Also wo genau liegt da das Problem?
Ich schließe ja nicht mal aus, dass ich etwas übersehe, ich sehe einfach nur nicht so ganz das geäußerte Problem.

Wenn es für Intel okay war, für viel Leistung 2000€ zu verlangen (18-Kerner vor TR3xxxx), warum kann AMD dann nicht für viel mehr Leistung auch 2200€ verlangen? Man bekommt ja je nach Anwendung sogar fast die doppelte Leistung. Und Threadripper für unter 1000€ gibt es ja immer noch, die haben auch immer noch viele PCIe Lanes. Oder man nimmt halt die jetzt günstigeren Intels, die "Dank AMD" jetzt je Kern im Preis halbiert wurden.
Wo ist da etwas teurer geworden? Es gibt dasselbe wie vorher zum halben Preis und deutliche Mehrleistung zum "alten Preis", so wie ich das sehe.
 
Klassikfan schrieb:
Ist das wirklich so schwer zu verstehen

Offenbar, ich sehe da kein Problem darin. Zumindest nicht in der Größenordnung, wie Du hier versuchst, ein Fass aufzumachen. Wie ich schon schrieb: Es ist verwirrend, absolut unnötig und bei näherer Betrachtung einfach nur dämlich, da es absolut zur Verwirrung der Käuferschicht beiträgt.
Aber: Es ist kein Betrug, wie Du behauptet hast.
 
  • Gefällt mir
Reaktionen: Smartbomb und Hayda Ministral
lowrider20 schrieb:
Wenn eine Übertragungsrate von 20Gbps unterstützt wird, benötigt man dafür ein Kabel, welches für 10Gbps spezifiziert ist. Wo ist da die Logik?
Es ist die gleiche Frequenz, also reichen die 10 gbps Kabel.

Selbe Logik wie die aktuellen Bezeichnungen von USB. Anstatt es USB 20G oder ähnlich mit eindeutigem Hinweis auf die Geschwindigkeit zu benennen, kommen irgendwelche Zusätze ohne eindeutiger Aussage oder gibt überhaupt nur USB3.1 oder USB 3.2 an, was zuwenig ist.
Die vorgeschlagene convention der usb.org ist Superspeed 10 und Superspeed 20. Nutzt nur keiner.
Und wo liegt die Logik, daß ein Kabel mit 10Gbps-Unterstützung auch zur Bündelung der Leitungen für 20Gbps geeignet ist?
Alle Typ-C Datenkabel sind geeignet. Da sie verdrehsicher sind, müssen sie beide Leitungen geschaltet haben. Für das bündeln ist nur der Controller wichtig.
 
MaverickM schrieb:
Offenbar, ich sehe da kein Problem darin. Zumindest nicht in der Größenordnung, wie Du hier versuchst, ein Fass aufzumachen. Wie ich schon schrieb: Es ist verwirrend, absolut unnötig und bei näherer Betrachtung einfach nur dämlich, da es absolut zur Verwirrung der Käuferschicht beiträgt.
Aber: Es ist kein Betrug, wie Du behauptet hast.
Aber natürlich ist es das!

Wenn ich einen Hub für USB 3.1 kaufen will, dann will ich einen, der 10 GBit/s macht. Und wenn ich einen in 3.2 haben will, soll der 20GBit/s haben. Ganz einfach!
Aufgrund der Mehrfach-Umbenennungen kann ich aber unter 3.1 sowohl Geräte mit 10 als auch mit 5 GBit/s erwischen! Und bei 3.2 können sogar drei verschiedene Standards vertreten sein. Das ist wenig hilfreich!

Tatsächlich - und das habe ich mal ausprobiert - gibt es so gut wie gar keine Hubs in 3.1 und absolut nix in 3.2 zu kaufen. Dafür gibt es eine einfachen Grund: Kaum ein Kunde braucht das aktuell, und die Hersteller haben sich das Geld für entsprechende Neuentwicklungen (der Controller zB.) schlicht gespart, und verkaufen weiter 3.0-Technik. Dagegen wäre auch gar nichts zu sagen - wenn sie es offen und ehrlich machen. Und genau das tun sie nicht, wenn sie die offiziellen Bezeichnungen des USB-IF benutzen. Und die haben sich das siocher auchnicht einfach mal so ausgedacht, sondern in Abstimmung mit den Herstellern gehandelt, die ihren Geräten halt einen aktuellen Anstrich verpassen wollen. Aber das ist halt genauso Betrug am Kunden, wie Geräte mit USB3.0-Anschlüssen, die aber nur die Geschwindigkeit von 2.0 haben. Das gab es am Anfang von 3.,0 recht oft.
 
Hast du irgendwas, was dagegen spräche?

Oder anders gefragt: Welchen anderen sachlichen Grund könnte es dafür geben, USB 3.0 und USB 3.1 mehrmals umzubenennen und als neue Präfix-Bezeichnung den jeweils aktuellen Standard zu benutzen?

...wärest du bereit, zuzugeben, daß ich recht habe, wenn mit der Einführung von USB 4.0 USB 3.0 die vierte Bezeichnung erhielte? Also nach 3.0, 3.1 gen1 und 3.2 gen1 auch noch 4.0 gen1? Und zusätzlich USB 3.1 nach 3.2 gen2 auch noch 4.0 gen2? Und, um das Chaos perfekt zu machen, USB 3.2 dann 4.0 gen3 hieße und das echte 4.0 öhm.... 4.0. 4x4 gen4 hieße?

Wie weit sollen die das noch treiben, ehe du zu zweifeln beginnst?
 
Zuletzt bearbeitet:
Wattwanderer schrieb:
Los AMD, spendiert mal den Desktops acht zusätzliche Lanes dafür könnt ihr die Zahl der Kerne von mir aus auch halbieren.

Weniger Kerne, aber höher getaktet und mehr I/O...

Das mit dem höher getaktet gibt es zwar nicht, aber da Threadripper 2000 weiter produziert werden soll und die Preise für die unter den high end consumer CPUs sind … also wer PCIe Lanes braucht, der kriegt die bei AMD tatsächlich zum Consumer Preis. Ab 429€ für den 2920x mit 12-Kernen und 4.3ghz boost. TR4 Boards kosten auch nimmer die Welt, so manches AM4 ist da teurer, selbst ohne PCIe 4.0 …

So und jetzt muss ich erst mal weg und eine halbe Stunde "Du hast bereits genug PCIe Lanes, du brauchst gar keinen Threadripper, …" aufsagen, sonst bekommt meine Frau Verstimmungen, wenn sie die Kreditkartenabrechnung sieht. Die Dinger haben aber auch einen echten "haben will" Faktor. ;-)
 
Faultier schrieb:
Nach dem Drama hätte man USB 3irgendwasexistiert nirgends4buy verlassen sollen und es mit 4.0 Richtig machen sollen !
Fett durch mich.

Ich plädiere, das soll der neue Name werden.
Catchy und einfacher zu merken als der aktuelle. ;)
 
Ich bin begeistert, darauf habe ich schon lange gewartet!

Jetzt muss ich nur noch die passende Maus dazu finden...

:-)

Mal abgesehen davon schon eine Wahnsinns Leistung.
 
@Klassikfan
Naja, so kompliziert ist es jetzt nicht. Wenn du einen USB Switch mit 10 gbps haben willst, dann Kauf einfach einen wo 10 gbps oder Gen2 dran steht.


Und es ist kein Betrug, da der Standard mehrere Geschwindigkeiten enthält. Es ist sicher nicht kundenfreundlich, aber definitiv kein Betrug.
Wenn man es aber einmal weiß, ist es kein Problem mehr. Nur für nicht informierte, kann das beim Einkauf ein Problem werden.
 
Ooch... die Maus wird nicht das Problem sein... Eher du als Bediener. Denn du mußt die dann so schnell bewegen, daß dabei Datenraten jenseits der 10GBits anfallen... :D

Ansonsten... ist halt der Stand der Technik. Die haben den neuen Standard ja nicht nur fürs Papier entwickelt. Fragt sich nur, ob es schon einen Markt dafür gibt. Denn außer einer NVMe-SSD fiele mir nix ein, was schnell genug ist, um diese Datenrate zu benötigen. Und die betreibt man eher nicht extern.
Ergänzung ()

bensen schrieb:
@Klassikfan
Wenn man es aber einmal weiß, ist es kein Problem mehr. Nur für nicht informierte, kann das beim Einkauf ein Problem werden.
Nun, die sind aber nunmal die Masse der Kunden! Wir hier im Forum sind doch nicht repräsentativ. Wir hier wissen ja auch, daß nicht nur Intel super und AMD Schrott ist. Aber da draußen? ;)

Und ja, wenn auch nur einer dieser Kunden wegen solcher Tricks über den Tisch gezogen wird, ist das in meinen Augen Betrug an ihm.
 
Klassikfan schrieb:
Fragt sich nur, ob es schon einen Markt dafür gibt. Denn außer einer NVMe-SSD fiele mir nix ein, was schnell genug ist, um diese Datenrate zu benötigen. Und die betreibt man eher nicht extern.
Warum nicht? SATA ist kaum billiger. Für 60/ 100 € gibt's 512/1024 GB. Finde ich jetzt nicht gerade sehr abgehoben.
Sicherlich nicht für die breite Masse, aber so ein kompaktes schnelles M.2 Laufwerk ist doch interessant und mittlerweile gut bezahlbar.
 
lowrider20 schrieb:
Wenn eine Übertragungsrate von 20Gbps unterstützt wird, benötigt man dafür ein Kabel, welches für 10Gbps spezifiziert ist. Wo ist da die Logik?

Das ist die gleiche Logik die auch besagt dass man für 10Gbit Ethernet ein Kabel braucht das mal für 1 Gbit Ethernet spezifiziert wurde. (Cat5). Die Logik liegt darin dass man keines nehmen kann (sollte) das nicht wenigstens für die kleinere Geschwindigkeit spezifiziert wurde, jedoch keines braucht das explizit für die neue Geschwindigkeit spezifiziert wurde.
 
Hoffentlich hat das Ding wieder einen anderen Stecker. Sonst ist ja der ganze Stecker-wechsel-dich-Spaß weg:
 
bensen schrieb:
Warum nicht? SATA ist kaum billiger. Für 60/ 100 € gibt's 512/1024 GB. Finde ich jetzt nicht gerade sehr abgehoben.
Sicherlich nicht für die breite Masse, aber so ein kompaktes schnelles M.2 Laufwerk ist doch interessant und mittlerweile gut bezahlbar.
Nur daß es diese Teile meines Wissens noch gar nicht gibt. Auf Amazon etwa wird eine "USB3.2 Potable SSD" von Crucial (CT1000X8SSD9) mit "Unglaubliche Leistung mit Lesegeschwindigkeiten von bis zu 1050 MB/s " angepriesen. Das entspricht der Geschwindigkeit von USB 3.1. Und ob die in der Praxis überhaupt erreicht werden, ist bei "bis zu"-Formulierungen ohnehin zweifelhaft. Ist übrigens wieder ein schönes Beispiel der angesprochenen Kundernver...... Die komplette Spezifikation verrät einem nämlich, daß es - tattaa: "USB 3.2 gen2" ist - also USB 3.1!
 
Klassikfan schrieb:
Hast du irgendwas, was dagegen spräche?

Oder anders gefragt: Welchen anderen sachlichen Grund könnte es dafür geben, USB 3.0 und USB 3.1 mehrmals umzubenennen und als neue Präfix-Bezeichnung den jeweils aktuellen Standard zu benutzen?

...wärest du bereit, zuzugeben, daß ich recht habe, wenn mit der Einführung von USB 4.0 USB 3.0 die vierte Bezeichnung erhielte? Also nach 3.0, 3.1 gen1 und 3.2 gen1 auch noch 4.0 gen1? Und zusätzlich USB 3.1 nach 3.2 gen2 auch noch 4.0 gen2? Und, um das Chaos perfekt zu machen, USB 3.2 dann 4.0 gen3 hieße und das echte 4.0 öhm.... 4.0. 4x4 gen4 hieße?

Wie weit sollen die das noch treiben, ehe du zu zweifeln beginnst?

Ist jetzt nichts persönliches, aber so funktioniert das mit der Beweislast nicht, so argumentieren Flatearther und andere Verschwörungstheoretiker. Die schlimmsten dieser Sorte erwähne ich jetzt mal im Sinne der Diskussionskuktur nicht als Vergleich.
Wenn Du eine solche Beschuldigung machts, dann ist es Deine Pflicht, sie anständig zu belegen und nicht unsere, Gegenbelege zu bringen.
Die einfache Erklärung wäre hier einfach, dass einmal solche Technologien immer eine Zeit brauchen, bis sie auf dem Markt erscheinen. USB3.2x2 wurde erst diesen Frühsommer vorgestellt, das ist eigentlich schon recht schnell, man bedenke z.B., dass der ASM3242 noch nicht auf deren Homepage ist, zum Anderen, dass das Marktinteresse schon an USB3.1 wohl recht gering ist, so dass die Hersteller sich nicht gerade überschlagen.


Was ich übrigens das eigentlich ärgerliche beim aktuellen USB-Standard seit USB3.1 finde: Nicht die Geschwindigkeit ist der Hauptvorteil von USB-C, sondern die zusätzlichen Fähigkeiten, die aber leider viel zu selten umgesetzt werden. Es gibt einige Notebooks, die das zeigen: Über den USB-C wird neben USB3.0 oder 3.1 noch Displayport ausgegeben, eventuell noch PD bis 100W. So kann man einen entsprechenden Monitor oder ein Dock mit nur einem Kabel anhängen, der Monitor braucht nichtmal separat Strom, der USB-Hub am Monitor wird auch versorgt. Ein Dock könnte so echte DP- und (passiv oder aktiv gewandelt) auch HDMI1.4b oder gar 2.0b-Ausgänge liefern, daneben noch ordenlich USB und (2.5/5)Gb, bei USB3.2x2 sogar 10GbE.
Bei Mainboards und Controllerkarten ginge das auch, aber da sieht man es höchst selten umgesetzt, eigentlich nur, wenn TB3 dabei ist. Gigabyte hatte mal einige Board mit DP-In und/oder PD 100W, war aber so X99/Z170-Zeit. Von Delock gibt es auch je eine USB3.1-Controllerkarte mit DP-In und PD 100W, aber nicht beides zusammen und beides nur mit ASM1142, also leicht veraltet.
 
  • Gefällt mir
Reaktionen: Smartbomb, Hayda Ministral und MaverickM
Zurück
Oben