News Finale Spezifikationen für PCI Express 3.0

@Weyoun: Ja, macht schon mehr Sinn (für mich) :)
Dann wärs natürlich interessant, ob man den Strom irgendwie begrenzen könnte, wenn das Mainboard merkt, das hier noch eine PCIe 2.0 Karte drinnensteckt.
Vorausgesetzt das die Lanes, die bei der Karte die 75W entgegen nehmen, überhaupt am Limit laufen.
 
Diese "Alterkennung" müsste dann über Software laufen (das BIOS bzw. in Zukunft das EFI müsste bereits beim Booten erkennen, dass es sich um eine 2.0-Karte handelt (sollte problemlos vonstatten gehen, da man das aus der Firmware der Karte ganz gut herauslesen kann) und somit die PowerSupply auf dem Mainboard anweisen, nur noch eine bestimmte Verlustleistung zuzulassen (Strombegrenzung pro Lane)).

Auf dem Mainboard müsste dann natürlich eine "intelligente Stromversorgung" stecken, die je nach gesetztem Flag mehr oder weniger Strom treiben kann (wird die Produktionskosten leicht erhöhen).

Preiswerter wäre eine Jumperlösung (dann würde allerdings der Kunde die Verantwortung übernehmen, wenn er z.B. den Jumper bei einer "Altkarte" falsch steckt, was wohl auch nicht leicht zu vermitteln wäre.

LG
Martin
 
Holt schrieb:
Wenn die Karte zu wenig Speicher hat und ständig Daten schaufeln muss ist schneller Schaufeln nicht wirklich die besten Lösung, oder?

Das zwei GPUs nicht doppelt so viel leisten wie eine, ist doch wohl normal und nicht automatisch der Bandbreite geschuldet.

Amdahls Gesetz ...
... eben doch. Wenn eines Rechenwerkes IPC durch eine mangelhaft und unausgewogen designte Speicheranbindung gebremst wird, hilft nur schneller schaufeln, also redesign der Speicherschnittstelle. Was für die CPU gilt, gilt erst recht für eine GPU.

Im Bereich GPGPU ist es fast schon ein 'Kapitalverbrechen', die GPU-Kernel Daten via PCIe holen und ablegen zu lassen, während ein Kernel noch rechnet. Die CPIe-Buslatenzen sind enorm und können je nach Größe der Rechnung den Vorteil einer GPU zunichte machen.

Würde die interne Verarbeitungsgeschwindigkeit der GPU gleichbleiben und dabei die Bandbreite zum externen Speicher verdoppelt, verdrei- oder fünffacht, wäre das schon ein enormer Gewinn. Vermutlich aber geht die Entwicklung schnellen lokalen Speichers schneller voran als die elektrisch sehr komplexe, weil über lange Signalwege geführte Busspezifikation.

[...]
Das denke ich eigentlich nicht, der Sockel 1155 ist Mainstream und man wird die Top CPU kaum auf der Plattform verkaufen können.

Aber genau das will ich doch damit sagen! Auf allen Graphen ist bislang von Sockel LGA2011 und Sockel B2, alias LGA1355 die Rede. Während B2 für maximal 2 Sockel/Prozessoren im System Platz schafft (QPI), werden es bei LGA2011 deutlich mehr sein können. Schon jetzt gibt es mit dem Tylersburg/X58 Chipsatz und LGA1366 eine ähnliche Konfiguration, nur daß LGA1366 auf allen Server- und Workstationplattformen zum Einsatz kommt. Jetzt wird dies nach oben erweitert, 8 oder mehr Kerne und 4 oder mehr Sockel für LGA2011. Ich bin mir sehr sicher, daß wir 'Westmere-ähnliche' XEON Prozessoren mit 6 oder 8 Kernen für den LGA1355 sehen werden, ähnlich wie dies derzeit mit dem XEON X3680 der Fall ist, dem UP-Workstation Prozessor Gulftown mit 6 Kernen.
Die Graphen zeigen diese Konstellation. LGA2011 hat vier statt nur drei Speicherkanäle. LGA1155 ist, wie Du schon sagtest, Mainstream, das kann ich im Labor nicht gebrauchen, allerdings kann ich auch keine 4-Sockel Maschine gebrauchen, weil wir sie schlichtweg nicht bezahlen könnten. Der 'Enthusiasten'- und Workstationmarkt hat es bisher immer Intel gedankt, daß es einen Mittelpfad gab. Und wenn ich mir dann die Graphen nochmals genauer ansehe, so sehe ich, daß bei Romley je nach CPU-Klasse auch noch PCIe 2.0 Lanes verfügbar sein sollen - ich weiß nur nicht, ob diese dann ausschließlich für das un auch im professionellen Bereich eingeführte Krüppelinterface 'DMI' verwendet werden oder ob DMI (in seiner Karnation 2.0) extra läuft.

Klarheit wird die CEs im Frühjahr und das IDF im Frühjahr 2011 bringen.
Ergänzung ()

CR4NK schrieb:
Wieso? Könnte auch mehr werden und der alte Standard wäre bedient.

Ich freu mich schon auf meinen neuen Rechner Ende nächstes Jahr mit
USB 3.0
PCIe 3.0
SATA 6GB/s
SSD
Oktacore oder höher
:hammer_alt:

Kannst Du Dir das von Deinem Taschengeld eigentlich leisten? Gemessen an dem Taschenrechner in Deinem Profil wäre das ja ein Quantensprung. Was soll denn der neue Super-Rechner so schwieriges rechnen, daß Du ein solches Geschütz auffahren willst? Spielen? DVDs raubkopieren? Oder einfach nur MP3 hören und Videos ansehen? Das geht auch mit einem Taschenrechner.
 
jensi251 schrieb:

Gegenfrage: Wieso sollten die PCIe 2.0 Karten billiger werden?
PCIe 3.0 ist noch nicht notwendig für den Großteil des Graka Markts und wegen der Abwärtskompatibilität werden Hersteller und Konsumenten sich mit der Umstellung auf den Standart Zeit lassen. Das wird fließend und Unbemerkt ablaufen.
Ob die nächste Graka Generation 3.0 oder 2.0 hat...wen juckts?...der Einfluss auf die Leistung ist vernachlässigbar gering.
2.0 Karten sind wegen dem neuen Standart jetzt nicht alt und technisch merklich im Nachteil.
Also versteh mich nicht falsch. Die PCIe 2.0 Karten werden mit Sicherheit billiger werden, aber nicht deswegen weil n neuer PCIe Standard eingeführt wurde, sondern weil die GPUs einfach irgendwann nicht mehr aktuell sein werden.
Sind USB-2.0-Sticks billiger geworden als USB 3.0 kam?
Oder SATA I Festplatten als SATA II kam?
 
Zurück
Oben