News Finale Spezifikationen für PCI Express 3.0

Quackmoor schrieb:
Gibt es eigentlich schon heute Grafikkarten, die die Bandbreite des mehrere Jahre alten PCI-E 2.0x16 Standards ausnutzen?
Kann schon sein. Schau dir die Dual GPU Karten an, da könnte es soweit sein.
 
Quackmoor schrieb:
Versteht mich nicht falsch, ich finde es richtig gut, dass das Protokoll erweitert wird, bevor es zu Engpässen kommt, die Leistungssteigerung ist leider nur im Prozentbereich.

Hier geht es um viel mehr, als um die Bandbreite eines PCIe Slots. Interne Datenverbindungen setzen ebenfalls dieses Protokoll ein, dadurch brauch man also weniger PCIe Lanes um die gleiche Bandbreite zu erhalten --> ergo Mainboards können mit weniger Layern, also günstiger produziert werden. Außerdem könnte man sich den einen oder anderen Zusatzchip, wie den NF200, sparen.

Natürlich wird sich der Standard durchsetzen. ;)
 
Die Grafikkarte hat am wenigsten nutzen, eher die anderen Chips die darauf zurück greifen.
Man merkt keinen wesentlichen Unterschied zwischen PCI-E 1.0 und 2.0, also wird es bei 3.0 auch nicht anders sein.
 
dayworker123 schrieb:
scheint sich zu bestätigen das es bei pcie 3.0 keinen 16*Anbindung mehr gibt.
Wodurch wird das bestätigt?

derultra schrieb:
Also das Intel bei den Sandy Bridges die PCIe 16x Slots weg lässt, ist irgendwie ein Witz, denn Pack ich auf so n Board meine "alte" GTX 590 mit nur PCIe 2.0, würde der Slot ja auch nur im 2.0 modus laufen und dann habe ich wegen den nur 8 Lanes nur die hälfte der Bandbreite der aktuellen Boards.
Nur weil in einem Diagramm die Lanes als x8 Links gebündelt sind, heißt das nicht, dass es keine x16 Slots auf den Mainboards geben wird.
 
Pro Lane ergibt sich daraus eine Bandbreite von einem Gigabyte pro Sekunde und Richtung, einer mit 16 Lanes angebundenen Grafikkarte stünde somit eine Gesamtbandbreite von 32 GB/s zur Verfügung.

Habe ich in Mathe nicht aufgepasst ? 16x1 = 16 und nicht 32.

Eine Grafikkarte kommuniziert doch nicht bi-direktional oder ?
 
Zuletzt bearbeitet:
dayworker123 schrieb:
das es bei pcie 3.0 keinen 16*Anbindung mehr gibt.
Aus welchem Satz in der News beziehst Du diese Mutmaßung? Nicht ein diesbezügliches Wort ist dazu zu finden.
bensen schrieb:
Nur weil in einem Diagramm die Lanes als x8 Links gebündelt sind, heißt das nicht, dass es keine x16 Slots auf den Mainboards geben wird.
Wenn der Verfasser des von Dir zitierten Beitrages die News verstanden hätte, wüßte er, daß es bei den x8 Slots um solche für Netzwerkadapter, Raid Kontroller, ..., geht. Was meiner Meinung nach auch eindeutig aus dem Text hervorgeht. Und wers nicht versteht, gehört vermutlich eh nicht zur Zielgruppe der News. ;)
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Laut meiner groben Hochrechnung wirds bei HD 6990 und GTX 590 schon knapp.(10-20% Leistungsverlust) Die single GPUs müssten aber noch im grünen Bereich liegen. Einige Spiele brauchen mehr Bandbreite wie andere, erst recht wenn der Vram zu klein ist und ständig hin und her geschaufelt wird...
Wenn die Karte zu wenig Speicher hat und ständig Daten schaufeln muss ist schneller Schaufeln nicht wirklich die besten Lösung, oder?
Kasmopaya schrieb:
Edit: Bzw. man kann ja bereits heute deutliche Geschwindigkeitszuwächse beobachten wenn man die Karten einzeln einsetzt, also für jede Karte volle 16 Lanes PCIe 2.0, ergo ist es für Multi-GPU Karten schon zu spät und die Zeit ist schon reif für PCIe 3.0
Das zwei GPUs nicht doppelt so viel leisten wie eine, ist doch wohl normal und nicht automatisch der Bandbreite geschuldet.
Banger schrieb:
Bei den neuen AM3+-Brettern kann ich PCI-E 3.0 eher weniger erwarten?
Nein, die 9x0 Chipsätze werden nur ein kleiner Aufguss der 8x0er sein, stand doch gerade hier bei CB.
Eisenfaust schrieb:
LGA2011 und LGA1355 (B2)

Die Romley-Plattform stellt mich vor einige kleinere Rätsel. Interessant für HPC- und Graphikworkstations wird der Sockel B2, der ganz sicher auch als Ablösung der X58/LGA1366-Plattform daherkommt.
Das denke ich eigentlich nicht, der Sockel 1155 ist Mainstream und man wird die Top CPU kaum auf der Plattform verkaufen können.
Eisenfaust schrieb:
Für die 60iger Chipsätze für den LGA1155 wird es nach meiner Einschätzung kein PCIe 3.0 geben.
Wird es definitiv nicht geben, die Boards sind doch zum grossen Teil schon vorgestelllt und das die Chips wohl (weitgehend) pinkompatible zu den 50ern sind, war es ja wohl kein grosser Aufwand für die MB Hersteller gleich zum Launch eine große Palette an Boards anzubieten.
Eisenfaust schrieb:
Ich glaube auch nicht an einen Segen, was Intel uns da beschert, es ist in meinen Augen ein Überdehnen der Technikfront.
Das denke ich auch, immerhin wollte man ja zuerst 10GHz bei 8b10 aber die Frequenz war einfach zu hoch. Da wird mancher MB Designer noch eine Menge schwitzen, bis er die 8GHz problemlos zu den Slots und Chips bringt. Weniger Layer wird man deswegen wohl nicht erreichen sondern wohl ehr mehr, um die Signale schirmen zu können.
Eisenfaust schrieb:
Der Tylersburg Chipsatz mit seinen 32 PCIe 2.0 Lanes ist bereits zu alt, Romley mit seinen 24 Lanes per CPU zu neu, dazwischen fehlt das gesunde Mittelmaß. Und von AMD fehlt diesbezüglich schon jetzt bei den Serverplattformen jede Spur einer vernünftigen Systemplattform für Workstations.
Das ist der Preis für die Verdrängung andere Anbieter aus dem Chipsatzmarkt. Selbst kommen sie offenbar nicht damit hinterher regelmäßig wirklich neue Chipsets für ihre ganzen Desktop und Server CPUs zu machen. Es beleibt dann eben bei kleinen Überarbeitungen der bestehenden von denen man die Versionen für mobilen Einsätz und Server ableitet.
Eisenfaust schrieb:
Oh, nochwas. Mich würde an dieser Stelle wirklich brennend interessieren, warum Intel nun wirklich USB 3 NICHT in die 60iger Chipsätze gepackt hat. Seinerzeit hieß es, daß angeblich die Spezifikationen zu spät fertig wurden, um sie noch in die Produkte einfließen lassen zu können. Hier liest man, daß PCIe 3.0 erst JETZT in der finalen Spezifikation vorliege, in sechs bis seiben Monaten will man aber schon Sandy-Bridges der Reihe E/EN sehen wollen? Da ist doch was faul.
Deswegen bin ich gegenüber den offiziellen Verlautbarungen auch immer so kritisch. Das ist alles Lüge und Propaganda. Intel bringt bestimmt deswegen kein USB3 weil man LightPeak pushen will, was aber nicht so leicht ist, wenn der Kunde schon USB3 auf dem MB hat und der MB Hersteller dieses nur aus dem Chipsatz ziehen muss. Hat er aber LightPeak schon nativ im CS und müsste USB3 erst per Extra Chip anbinden, dann sieht es eben anders aus.
 
Da wünscht man sich standardisierte Sockel für CPUs.

Aber ob es jetzt einen gewissen Performancegewinn bei einer PCIe3 GPU bringt im Vergleich zu 1 und 2 bleibt abzuwarten, von 1 auf 2 war der Unterschied ja nicht der größte.
 
frankpr schrieb:
Und wers nicht versteht, gehört vermutlich eh nicht zur Zielgruppe der News. ;)
Was ist denn deiner Meinung nach die Zielgruppe der News bzw. der Romley Plattform?
 
Zuletzt bearbeitet:
Hmm, gibt es eigentlich Co-Prozessor-Karten für PCI-E?
Dann wäre ein Standardisierter CPU-Sockel völlig egal.
Da könnte man einfach in einen PCI-E-Slot die GraKa klemmen und in einen oder mehrere andere Co-Processor-Karten, um mehr Leistung zu bekommen.
Aber dafür müsste natürlich die Software-Seite wieder stimmen, das wird wohl noch längere Zeit Zukunftsmusik bleiben für Windows . .

und hatte inzwischen einer die Frage beantwortet, wie viel Saft da dann durchgehen darf?
 
um kompatibilität zum alten Standard zu gewährleisten (was hier der Fall sein sollte), wirds wohl bei den 75W bleiben
 
Raucherdackel schrieb:
um kompatibilität zum alten Standard zu gewährleisten (was hier der Fall sein sollte), wirds wohl bei den 75W bleiben

Wieso? Könnte auch mehr werden und der alte Standard wäre bedient.

Ich freu mich schon auf meinen neuen Rechner Ende nächstes Jahr mit
USB 3.0
PCIe 3.0
SATA 6GB/s
SSD
Oktacore oder höher
:hammer_alt:
 
Raucherdackel schrieb:
um kompatibilität zum alten Standard zu gewährleisten (was hier der Fall sein sollte), wirds wohl bei den 75W bleiben

Nicht nur wegen der Kompatibilität: Habt ihr euch mal überlegt, wievie Strom bei 75W Verlustleistung durch die "dünnen PCI-E-Leitungen" fließen müssten?
Bei einem 6- oder 8-poligen Stromstecker speziell für Grafikkarten hat man "richtig fette" Kabel mit einem Querschnitt im mm²-Bereich. Bei den einzelnen Lanes des PCI-E-Anschlus muss der Strom über extrem dünne Querschnitte geführt werden.

Das hat zur Folge: Bei gleicher Dimensionierung der stromführenden Lanes steigen die thermischen und somit die elektrischen Verluste an => Es kommt zu extremer Erhitzung der stromführenden Letiungen => Irgendwann kann die Hitze dann nicht mehr abgeführt werden.

Eine Erhöhung der Leistung wäre nur realisierbar, wenn entweder
1) Die Anzahl der stromführenden Lanes erhöht wird (PCI-E-Stecker wäre dann nicht mehr abwärtskompatibel)
2) Der Querschnitt der stromführenden Lanes drastisch erhöht wird, um den Leitungswiderstand und somit die Erhitzung zu drosseln: Dies wäre mit neuen "PCI-E-3-Karten möglich, doch wenn man eine ältere GraKa (wenig Leitungsquerschnitt) mit dem neuen PCI-E-3-Stecker (großer Querschnitt) betreibt und mehr als 75W ziehen würde könnte die alte GraKa "schmelzen").

Also lässt man es lieber bei 75W beruhen (ein solider 6-poliger oder besser 8-poliger Stromstecker mit viel Reserven ist mir allemal lieber, als ein am Rande des Siechtums dahinvegitierender 100W-Direktanschluss. ;)

LG
Martin
 
Wann soll das denn rauskommen?
Dann werden doch bestimmt die 2.0 Karten billiger oder?
 
@Weyoun: Also das mit Mainboarderhitzung kann ich ja noch nachvollziehen. Wie du jedoch auf die Idee kommst, die Karte könnte "schmelzen" wenn der PCIe Port mehr Leistung bereitstellt, und man trotzdem noch einen Stecker verwendet ist mir jedoch unklar.
Selbst wenn theoretisch der Port 300W liefert, und ich noch einen Stecker dranmache der 100W liefert, passiert da nicht viel, schließlich verbraucht die Karte dadurch nicht mehr Leistung. Es ist ja nicht so, als würde die Karte mit Ampere vollgestopft werden.
Oder habe ich deinen Post falsch verstanden?

@jensi251: Weil der PCIe Standard wohl sehr seeeehr wenig mit dem Preis der Karte zu tun hat.
 
schön, gibts dann wieder ein halbes Prozent Leistungszuwachs im Vergleich zu PCIe 2.0?
 
r4yn3 schrieb:
@Weyoun: Also das mit Mainboarderhitzung kann ich ja noch nachvollziehen. Wie du jedoch auf die Idee kommst, die Karte könnte "schmelzen" wenn der PCIe Port mehr Leistung bereitstellt, und man trotzdem noch einen Stecker verwendet ist mir jedoch unklar.
Selbst wenn theoretisch der Port 300W liefert, und ich noch einen Stecker dranmache der 100W liefert, passiert da nicht viel, schließlich verbraucht die Karte dadurch nicht mehr Leistung. Es ist ja nicht so, als würde die Karte mit Ampere vollgestopft werden.
Oder habe ich deinen Post falsch verstanden?
Ich glaube, du hast mich falsch verstanden. :D
Ich meinte folgendes (in Kurzform):
1) GraKa nur über den reinen PCI-E-Port angebunden (habe ich wohl etwas irreführend als "Stecker" bezeichnet), also NICHT über einen zusätzlichen 6- oder 8-poligen Stromstecker
2) Wenn man nun die Spezifiaktion des Ports an sich erhöht von z.B. bisher 75W auf 100W und man am Port selber und am Mainboard die Querschnitte der stromführenden Leitungen erhöht, wäre man hier auf der sicheren Seite, aber:
3) wenn man nun an den neuen Port eine "alte" PCI-E-2-Karte hier anschließt und diese nun (theoretisch) bis zu 100W ziehen würde, dann würde die Karte thermisch überlastet werden, da die "Lanes" an der Karte je einen kleineren Querschnitt haben und somit der elektrische und somit auch der thermische Widerstand deutlich größer ist. Wenn nun bei gleichem Strom der Widerstand größer wird (beim Übergang vom Port auf die Karte selber), gibt es einen höheren Spannungsabfall über genau dieser "Problemzone". Das hieße dann, dass ein Großteil der elektrischen Leistung allein auf diesem Übergangswiderstand "vernichtet" wird, also in Wärme umgeandelt wird.

Nur mal so ein Beispiel zur Verdeutlichung: Angenommen, der Gesamtstromfluss liegt bei 10A, dann reicht schon eine winziger Widerstand von 10mOhm (z.B. die reine Leiterbahn) aus, um darüber eine Spannung von 100mV aufzubauen. Nach Ohm'schen Gesetz würde somit allein auf die Leiterbahn eine Verlustleistung von 1W zukommen (das ist schon eine gehörige Erwärmung bei den dünnen Querschnitten, wie sie PCI-E-Karten haben).
Wenn man also die erlaubte Leistung erhöht, erhöht man dabei automatisch den erlaubten Stromfluss, was sich in deutlich höherer thermischer Verlustleistung niederschlägt.

Bei den 6- oder 8-poligen Steckern stellt sich diese Frage zum Glück nicht, da der Widerstand hier aufgrund des hohen Leitungsquerschnitts im Bereich unter 1mOhm liegt. Zudem hält solch ein dickes Kabel deutlich mehr Wäme aus als eine "mickrige" PCI-E-Lane.

Ist es nun besser rübergekommen?

LG
Martin
 
Zuletzt bearbeitet:
Wenn die Karte zu wenig Speicher hat und ständig Daten schaufeln muss ist schneller Schaufeln nicht wirklich die besten Lösung, oder?
Nö die beste garantiert nicht, da man Vram nicht ersetzten kann nur durch mehr Vram, aber bei SLI, CF Gespannen beobachtet man erhebliche FPS Vorteile bei Mainboards die zb. 3x PCIe 2.0 16 verwenden für TRI-SLI. Für SLI und CF waren ausreichend Lanes schon immer wichtig, erst recht wenn man 2 GPUs auf eine Schnittstelle quetscht..

Das zwei GPUs nicht doppelt so viel leisten wie eine, ist doch wohl normal und nicht automatisch der Bandbreite geschuldet.
Ne hab ich ja auch nicht gesagt, aber es gibt ja schon Beweise das PCIe 2.0 am Limit ist und das bei 600€, 1500€ Multi-GPU Systemen, nicht gerade toll wenn man so viel Geld ausgibt für sein System oder?
Aber keine Sorge, PCIe 3 braucht noch seine Zeit, die ersten Mainboard haben vielleicht nur 8x und dann muss man nochmal eine Zeitlang abwarten bis die erste 16x auftauchen, geschweige denn richtig gute mit 2x 16 für SSD, PhysX Karten und Konsorten...


Also lässt man es lieber bei 75W beruhen (ein solider 6-poliger oder besser 8-poliger Stromstecker mit viel Reserven ist mir allemal lieber, als ein am Rande des Siechtums dahinvegitierender 100W-Direktanschluss.
Richtig, vor allem ist ja das Mainboard nicht verantwortlich Strom zu schaufeln, man muss ja dann den extra Stecker den man sich bei der GPU spart auf das Mainboard klatschen. Total wurst wo man den hinsteckt oder? Wobei es mir auch lieber ist es direkt am Verbraucher anzustöpseln, anstatt es durch zig Layer und Leitungen durchs Mainboard zu jagen. Was man aus 75Watt alles rausholen kann zeigt ja die HD 5750 green. Genau so viel Leistung wie vor zig Jahren eine 8800GTX. Wenn das so weiter geht gibts bald eine HD 6850 green ohne Stecker. Das wird der "gib Stecker keine Chance" Fraktion wohl dann wieder genügen oder?
 
Zurück
Oben