Bericht Bericht: PCIe 3.0 vs. PCIe 2.0

KainerM schrieb:
Der kleine aber feine Unterschied ist aber, dass der PCIe-Controller bei dein Intel in der CPU sitzt (seit SandyBridge), nicht im Chipsatz. Bei AMD ist der PCIe-Controller noch über den HyperTransport angeschlossen und wenn sich meine Rechnungen nicht als ganz Falsch rausstellen, macht PCIe 3.0 16x bei AMD Prozessoren und dem HT-Link kaum sinn, da sich alles da die knapp 25,5GiByte/s pro Richtung teilt.
 
Gab hier im forum mal nen schönen test dazu da hat der Tester einfach Kontakte zugeklebt selbst mit pcie mit PCIe 2 x4 War es mit leicht spürbaren Performance Verlusten noch gut spielbar
 
naja - besser heute einen neuen standard mit reserven eingeführt, als in morgen nicht zu haben, wenn man ihn braucht.

im mom macht der standard wohl nur sinn, bei auflösungen von weit über 1080p und quad sli systemen.
 
Haja.... Toll. nun wissen wir das PCI-E nicht verlangsamt bei Single GPU... jedenfalls haben wir nun einen Test mehr im Internet auf den wir verweisen können.....

Aber man sieht schon das Multi-GPU Einbussen hat,wenn kein CPU limit besteht. Wann kommen die Tri und Quad setup tests ? Oder ist das völlig unwichtig da ja eh niemand so etwas benützt ?

PCI-E Lanes und BUS übertakten tu ja heute eh niemand mehr oder ? (ja ich weiss, von 100mhz zu 103mhz ist nicht besonders viel...)
 
Ich finds ja ziemlich krass, dass die HD7970 mittlerweile fast 10% vor der 680 liegt...

Und bitte keine Fanboy disskussion...
 
Das Ergebnis war ja klar und zeigt das selbst PCIe 1.0 noch sowas von ausreicht. :lol:
 
Stahlseele schrieb:
Warum schneidet denn die 7970 so viel besser ab als die 680? O.o
Die Auswahl der Benchmarks, die Einstellungen, die Treiber. Alles spielt mit in das Ergebnis rein. Es lohnt sich auf jeden Fall einen detailieren Blick in die Benchmarks der Spiele zu werfen, die man selbst auch spielt, um darauf die Entscheidungsgrundlage zu bilden. So groß wie vor wenigen Jahren ist der Unterschied nicht mehr, dass man sagen könnte xx ist besser als yy, nimm die.
 
Dennoch beruhigend für mich mit PCIe 3.0 x 8 :p Also praktisch kein Verlust :p Hatte mir schon Gedanken gemacht (gefühlt wars aber so oder so in Ordnung).
Wie gesagt, netter kurzer Test, aber irgendwie erwartungsgemäß.
 
Stahlseele schrieb:
Warum schneidet denn die 7970 so viel besser ab als die 680? O.o

Man muss sich ja nur mal die reine Rohleistung bzw das Datenblatt ansehen. Früher waren es noch unterschiedliche Architekturen bei AMD und Nvidia. Da man sich aber nun immer weiter annähert und beide eine 1D-Architektur einsetzten wird über kurz oder lang sich die Karte klar absetzen.

von HD5000 -> Hd6000 -> HD7000 gab es immer einen Architekturwechsel und es ist klar das es hier und da noch ein paar Fehler gibt und das ganze noch nicht super optimiert ist. GCN wird aber nun wie bei Nvidia ersteinmal das Maß der Dinge für mehrere Jahre sein.

https://www.computerbase.de/2012-03/test-nvidia-geforce-gtx-680/2/
Der GK104 war von der Chipbezeichnung auch nie High-End.
 
Freut euch doch über den 1% Bonus, tut ihr bei Treibern doch auch :p
 
Tja , was erwartet man von Computerbase.
Wie Lange haben wir jetzt PCI-e 3.0 ?
Jetzt kommt ein test ?
Ich lach mich weg
 
@G3cko, immer der gleiche Spruch über Nvidia's GTX 680. Ich kann das nicht mehr hören. Die GTX 680 spielt im High End Bereich mit, also ist sie auch eine High End Karte. Du glaubst doch nicht wirklich, dass Nvidia "bessere" Produkte aka "Big Kepler" zurück halten würde, wenn sie schon bereit wäre. :rolleyes:

@CB
Es wäre interessant Spiele zu testen, welche den Vram der GPUs füllt, dann sieht man vielleicht grössere Unterschiede bei den Tests.

mfg ODST
 
Wie kann man so einen mist bei Multi GPU Testen::(
Man hätte einen 2600K auf 4,5 GHZ Takten können und den 3770K @4,5GHZ ja verwenden können bzw das CPU OC mit Cinebench so anpassen anpassen können das die CPUs gleich schnell sind und dan 8Fach PCie2.0 VS 8Fach 3.O machen können im CF und SLI.

Egal schwer entäuscht von dem Test 2 Völlig verschiedene Sockel 6 Kern VS 4 Kern da zu CF /SLI @2.0 16 vs 3.0 8Fach.
Das einzige was der Multi GPU Test Zeigt ist das Intel Highend Chipsatz für 2 Grafikkarten sein Geld nicht Wert ist.:D:D

Einen beseren vergleich hätte man mit 2600K und 3770K hinbekommen im Multi GPU Test da beide CPUs auf 2*8Fach spliten halt nur in 2.0 und dan in 3.0.:mad:
Den 3.0 *8Fach ist wie 2.0 *16 Fach von der Leistung.
 
Zuletzt bearbeitet:
Ich hab mit dem Test so meine Schwierigkeiten, unabhängig davon was ich spiele oder berechne, ist am Ende doch total egal da die Menge an Daten die durch den Bus muss, doch viel kleiner ist, oder?

Also die maximale Datenmenge die die Karte pro Sekunde verarbeiten müsste wäre doch Pixel x Farbtiefe x FPS
Also für FullHD @ 60fps z.B. 1920x1080x24x60= ~2.99Gigabit, das heißt ich müsste schon 2 Monitore anschließen und die auf 120hz laufen lassen um zumindest mal auf ~12Gigabit zu kommen.

Und das sind ja nur die Daten die aus der Karte zum Monitor müssen, die Daten die tatsächlich über den Bus müssen um Daten mit Ram und CPU zu tauschen, müsste doch deutlich kleiner sein, hat hier mal jemand konkretere Zahlen was den so tatsächlich in einem normalen Usecase durch den Bus geht?

Für das Aufdecken von Denkfehlern bin ich natürlich auch dankbar.
 
Zurück
Oben