Test Test: Grafikkarten mit PCIe

Guter Test, danke.

Ein Grund mehr, sich kein Kopfzerbrechen über PCI-Express 3.0 zu machen.
 
Der Multi GPU Test ist Sinnlos.

Er testet zwei 6970 an jeweils 8 Lanes. Ergo haben beide GPUs zusammen 16 Lanes, bzw jede GPU 8 Lanes.
Dann testet er eine 6990 an einem Slot mit 16 Lanes. Also haben beide GPUs zusammen wieder nur 16 Lanes, bzw jede GPU nur 8 Lanes.

Um es auf den Punkt zu bringen:

2x 6970 @ PCI-e x8 = 16 Lanes
1 x 6990 @ PCI-e-X16 = 16 Lanes

Daraus ergibt sich das er zwei mal das selbe getestet hat... schöner Fail.

Sagt also mal wieder sehr viel aus xD
 
Pickebuh schrieb:
Ausstreichen ja, Optimal NEIN !

Um nichts anderes geht es - das es nicht Optimal ist hat niemand bestritten.

Pickebuh schrieb:
Volle Lanes sind fast immer schneller und laut CB-Artikel hier immer vorzuziehen.
Bitte den Test lesen und nicht selber hinein interpretieren wollen. ;)

DU interpretierst hier hinein, das User ihr Board auf 8x stellen obwohl ihnen 16x zur Verfügung stehen - aber das ist Blödsinn.
Ob es nun um SLI/Crossfire auf 8/8er Boards geht, oder um Boards mit PCIe 3.0;

Ein Umstieg, sprich ein Neukauf eines neuen Mainboards lediglich für schnellere PCIe Slots, ist nach den vorliegenden Ergebnissen nun wirklich unnötig.
Und selbst beim grundsätzlichen Neukauf ist der Nutzen für den zum Teil gehörigen Mehrpreis mehr als Fragwürdig.

Pickebuh schrieb:
Ich Danke CB für diesen aktuellen Lanes-Test und hoffe somit, dass alle Antilane-Trolle endlich mal sehen, das es immer besser ist mehr Speed zu haben, wenn er verfügbar ist.

"Antilane Trolle" sprechen nicht dagegen verfügbare Leistung zu nutzen, sondern teure Hardware für prozentual niedrige, einstellige Verbesserungen zu kaufen.

Pickebuh schrieb:
Natürlich ist dieser Test noch nicht ganz aussagekräftig, denn nutzt doch jedes Board 16x Lanes für eine Singel-Karte. Erst bei Crossfirenutzung oder anderen PCIe2.0-16x Gedöhns werden aus den 16 Lanes 2x8 Lanes.

'Crossfirenutzung' wurde simuliert, im übrigen ist der Test nicht viel anders wie der von Tomshardware, den du vor nicht mal einen Monat als "aussagekräftig" bezeichnet hast.

Wie schnell das doch manchmal geht ...

Pickebuh schrieb:
Interessant wird es erst mit PCIe3.0 wo auch Verbesserungen vorgenommen wurden.
Aber das wird CB sicherlich nach reichen. :cool_alt:

PCIe 3.0 wird erst einmal nichts ändern .. zumindest nicht bezüglich der höheren Bandbreite. Aber wenn es nach dir geht, müssten ja alle mit was schnellerem als eine 5770 zwingend PCIe 3.0 kaufen, nicht wahr?

Pickebuh schrieb:
Es wurden aber keine 2xHD6990 hier getestet. ;) Nicht einmal die schnellste Singelkarte GTX580 hat hier den Weg in den Test gefunden.

Wozu auch - der Prozentuale Unterschied zwischen 16x und 8x bei einer HD 5770 ist ähnlich groß, wie bei einer doppelt so schnellen GTX 570.
Was erwartest du nun also bei einer GTX 580?

Wie schon zu deinem Beitrag, in dem du Sinngemäß behauptest PCIe 3.0 wäre Pflicht für alles über Midrange, bleibt mir auch hier nur zu sagen;
wer sich bei Umrüstung oder Neukauf auf Informationen berufen möchte, sollte sich abhängig von seinen Anforderungen (natürlich auch für die Zukunft) mit den Werten und den Fazit dieses Tests vertraut machen, und kann dein Gerede getrost ignorieren.
 
MFelgate schrieb:
@Eisenfaust:
Um Deine Ausführungen zu vereinfachen, reichen im Grunde die theoretischen Zahlen für Berechnungen/Transfers der CPU und der GPU sowie anderer per PCIe angebundener Komponenten aus.
Wenngleich die theoretischen Werte, unabhängig von der Anbindung der beiden oder mehreren Prozessoren, auch unter optimalsten Bedingungen sicherlich nicht hundertprozentig erreicht werden. Die Art der Daten/Berechnung spielt sicher auch eine Rolle.
Aber genau diese enorme Diskrepanz zwischen Theorie und der Praxis zeigt doch, daß die Anbindung vielleicht nicht mehr reicht. Im Hinblick auf die zufünftige Entwicklung der Leistungsfähigkeit der CPUs und GPUs ist eine Vergrößerung der Bandbreite eh notwendig.
Ich erinnere mich nur daran, wie die Aussicht war, als PCIe-2.0 eingeführt wurde und an die Leistungsfähigkeit heutiger Grafikkarten und SSDs sowie RAID-Konstellationen noch nicht zu denken war.
PCIe-3.0 ist ja nicht nur für Grafikkarten interessant, sondern bildet dann auch z.B. die Anbindungsgrundlage für Intel-CPUs an die dazugehörigen PCHs.

Intel und AMD verwenden mit DMI schon lange eine PCIe-ähnliche Verbindung zwischen CPU-PCH oder NB-SB. DMI wurde lediglich um komplexe Arbiterfunktionen kastriert, da die Punkt-zu-Punkt-Verbindung nur zwischen zwei bekannten Teilnehmern herrscht. Die PCH-Anbindung des Sandy-Bridge-E anzuführen ist nicht glücklich - aus meiner Sicht. Wenn man eine einfache Rechnung aufmacht, welche Bandbreite die sogenannten Knoten (oder angelsächsisch Peers) konsumieren dürfen und diese addiert, dann ist bei 10 oder 14 SATA Ports, zusätzlichen PCIe 2.0 Lanes, Netzwerk, USB/USB 3.0 oder statt SATA 6/2GB 8x SAS 2.0 UND den zusätzlichen Nettigkeiten das PCIe 3.0-Interface alias DMI 3.0 schon wieder zu eng und veraltet! Gleiches führts Du ja in dem unten stehenden Abschnitt auch an, das galt für DMI 2.0 und gilt auch für DMI 3.0. Aber, wenn ... und damit kommen die großen Fragen. Die Peer-to-Peer Bandbreite wird auch nur dann gewährleistet, wenn der roo-Komplex eine Crossbarswitch enthalt, der das schafft. ich schrieb das weiter oben. Wir kennen ähnliches von Netzwerk-Routern für große Netze, deren Backplane quasi jeden Port mit seiner nominellen bidirektionalen Bandbreite, also vollduplex, bedienen können muß - plus eine Reserve führ die Arbiterlogik wie Routing, Filtering und VLAN-Geschichten etc. Auf der einen Seite stehen also vollmundige Versprechen und Aussagen, auf der anderen Seite hingegen aber die Physik, die unerbittlich ist, was menschliches Lügen und Dummheit betrifft. Ich glaube nämlich eher, daß sich die Herren Intel, AMD (oder seinerzeit ATi) bewußt waren, daß die Chips niemals in der Lage sein werden, gemäß der Spezifikationen von SATA oder PCIe ALLE Lanes/Peers mit der vollen Bandbreite zur selben Zeit zu versorgen. Also bastelt man auch keine schnelle Brücke an die Verbindungspunkte, weil das eh absoluter Quatsch wäre. Gerade die krummnasig-feilschenden Pfennigfuchser bei Intel sind ja bekannt dafür, daß sie knallhart kalkulieren, und dennoch gute Leistung an den Mann bringen können. Deshalb wäre aus meiner Sicht erwstmal ein sehr kritischer Blick auf die Anforderungen notwendig, also was KÖNNEN die Peers und was muß das Verbindungsmedium letztlich theoretsich leisten können.
Eigentlich ist es mir egal, was auf Spielzeugplatinen verwurstet wird, aber die Frechheit besteht darin, daß sogenannte "Workstation" und "Server" Systeme, zumindest die Allroundkomponenten wie Systemplatinen, mit diesen Aussagen der PR Abteilungen verkauft werden. In keinem anderen Sektor wird soviel gelogen, betrogen und verschwiegen wie im elektronikbereich und allem voran Computertechnik für die Massen! In fast allen anderen Konsumbereichen wird man wegen vorgaukeln falscher Tatsachen zu Regress gezogen - nur nicht bei Müll-Computertechnik oder Müll-Software.


Die aktuellen Bandbreiten bei Sockel-1156/1155-CPUs zu dem entsprechendem PCH ist doch bereits bei Produkteinführung schlichtweg nicht mehr zeitgemäß gewesen, da SSDs und RAID-Setups die vom DMI zur Verfügung gestellte Bandbreite locker ausreizen können und damit ausgebremst werden (z.B. Videoschnitt, Bildbearbeitung, Verschlüsselung, RAID). Z.B. mit der Quicksync-Funktion der Sandy-Bridge-CPUs hat sich das Dilemma noch verschärft.
Insofern wird nicht für jeden die Vergrößerung der Bandbreite von genereller Bedeutung sein, aber im produktiven Umfeld zu positiven Ergebnissen führen können.

Ersteres ist auch mit DMI 3.0 der Fall und Letzterem stimme ich voll zu. Das ist leider ein Teufelskreislauf. Die Produzenten produzieren oder entwickeln erst, wenn die notwendige Plattform vorhanden ist, die anderen, die Plattformanbieter, entwickeln und produzieren erst, wenn Bedarf durch Geräte vorliegt. Als noch Ingenieure und nicht profitgeile halbgebildete Anzugträger aus Banken und Vorstandsebenen die Entwicklung dominierten, hat man, siehe IBM, Siemens, AEG etc., Plattformen geschaffen, um dann Möglichkeiten zu bieten, die angenommen wurden. Oder man hat schnell auf neue Geräte reagieren können. Heute bedarf es langsamer Abstimmungen über fragwürdige Konsortien, wo nicht Ingenieure und Techniker debattieren, sondern wiederum die Vorstandprimaten aus dem juristischen Profitlager.
nVidia hatte mit einem Athlon64-Chipsatz aus zwei Bausteinen Dual-SLI möglich gemacht, indem man den schnellen Hypertransport als Verbindung zwischen NB und SB wählte. Teuer, aber zuverlässig und man konnte an diesem Chipsatz so ziemlich alles mögliche einstellen! Nachteil: die primäre Karte hing mit ihrem PCIe 1.1 PEG an der SB und dort waren dann auch alle anderen Peripheriekomponenten untergebracht, was bei voller Last auf dem PEG zu merklichen Einbrüchen auf dem HT führte. Aber: das war der richtige Bus für die richtige Anwendung! Sowohl AMD als auch Intel haben neuerdings einen schnellen seriellen Bus: HT 3.1 und der QPI 2.0. Intel baut den QPI in seine CPUs, warum nicht vier oder 8 Lanes dieser Gattung zum PCH? AMD will ja mit den kommenden Chipsätzen, die irgendwann in den nächsten 10 oder 20 Jahren kommen sollen (bei denen weiß man nie, wann der Launch-Termin ist ...), dem nVidia-Beispiel folgen und den HT als Verbindung nutzen. Das finde ich gut. Und dennoch stellt sich nochmals die Frage: warum tun die Hersteller das nicht schon jetzt? linker Hand der Gleichung steht die Summe der Datenbandbreitenproduzenten, rechter Hand des Gleichheitszeichen die Bandbreite der Verbindung zum Zentragestirn, also CPU und RAM. Aber in Wirklichkeit ist es doch eine Ungleichung :-(
Ergänzung ()

slingshot schrieb:
kleine Anmerkung zu Seite 2 ganz oben:

der Untergang der AGP-Schnittstelle soll bestimmt besiegelt worden sein, nicht besiedelt

Brachflächen werden doch in der Regel neu "besiedelt", oder? Meist von Schimmel oder Pilzen ...
 
@megaptera:

Ja, was willst Du denn mit solch einem Vergleich bezwecken?
Bitte kläre mich auf; ich kann leider nur erähnen, worauf Du hinaus möchtest.

PCIe-2.0 ist vollständig abwärtskompatibel zu 1.1 und 1.0.
Der Unterschied von 1.1 zu 1.0 liegt nur in kleinsten Detailänderungen.
Der Test simuliert letztlich auch teilweise die Bandbreiten der Revisionen 1.x.
Willst Du eine 2.x-Karte im 1.x-Steckplatz betreiben? Kein Problem, das geht mit geringem Leistungsabfall, da sich ein 1.x-Steckplatz im x16-Modus eben wie ein 2.0-Steckplatz im x8-Modus verhalten sollte.
Was willst Du dann vergleichen? Die 1.x-Karten sind bei weitem nicht so leistungsfähig wie die 2.0-Karten (auch bezogen auf die Highend- und stärkeren Mainstream-Modelle). Eine 1.1-Karte kommt niemals an die Bandbreiten der 2.0-Karten heran.
D.h., eine 1.1-Karte im 2.0-Slot würde diesen nicht überfordern. Selbst im x8-Modus nicht, da eben die Leistungsfähigkeit der GPUs auf 1.1-Karten nicht so enorm ausfällt, wie die moderner GPUs.
Die theoretischen Werte (Füllraten der GPUs, Übertragungsraten zum VRAM auf 1.x-Karten) sprechen da für sich. Hinzu kommt die geringe Speicherausstattung. Die damit verbundene Problematik wurde im Artikel angesprochen. Das sollte aber nicht zu massiven Einbrüchen führen, da die älteren GPUs eh nicht soviel Daten verarbeiten können.
Die ersten PCIe-Karten von NV waren Low-Cost/Mainstream-Modelle der GeForce4/5-Serie.
Selbst die GeForce6-Serie wird die PCIe-1.x-Revision nicht zum Flaschenhals degradieren. Der X-Serie von Ati gelingt das ebenso wenig.

Falls Du Dir andere Dinge unter einem Vergleich zwischen PCIe 1.x und 2.0 vorstellst, erhelle mich bitte.
 
milamber! schrieb:
PCIe 3.0 wird erst einmal nichts ändern .. zumindest nicht bezüglich der höheren Bandbreite. Aber wenn es nach dir geht, müssten ja alle mit was schnellerem als eine 5770 zwingend PCIe 3.0 kaufen, nicht wahr?

Das hier immer einige genau wissen, was etwas bringt und was nicht. :(

Natürlich wird PCIe 3.0 etwas bringen, vornehmlich bei den Spielen und Karten, die exzessiv über diese Schnittstelle kommunizieren. Das war schon bei 1.1/2.0 der Fall. Karten mit wenig Rama und best. Spiele ziehen vielleicht einen geringeren Nutzen aus dem neuen Bus.

Genau so, wie ich mir heute kein Brett mehr mit PCIe 1.1 kaufen würde, würde ich mir in Zukunft kein Brett mehr mit 2.0 Schnittstelle kaufen.

Klingt doch alles einleuchtend und logisch, oder?
 
T-REX schrieb:
Der Multi GPU Test ist Sinnlos.

Er testet zwei 6970 an jeweils 8 Lanes. Ergo haben beide GPUs zusammen 16 Lanes, bzw jede GPU 8 Lanes.
Dann testet er eine 6990 an einem Slot mit 16 Lanes. Also haben beide GPUs zusammen wieder nur 16 Lanes, bzw jede GPU nur 8 Lanes.

Um es auf den Punkt zu bringen:

2x 6970 @ PCI-e x8 = 16 Lanes
1 x 6990 @ PCI-e-X16 = 16 Lanes

Daraus ergibt sich das er zwei mal das selbe getestet hat... schöner Fail.

Sagt also mal wieder sehr viel aus xD

Da fällt mir nochwas ein.

Wenn man zwei GPUs auf einer Karte verbaut, dann haben doch diese GPUs auch nur ein einziges Interface zum Host, oder? Deshalb baut man doch den Multiplexer auf die Karten, der wechselseitig die beiden Bussysteme auf den Host aufschließen läßt. Die beiden GPUs könnten untereinander dann theoretisch abzüglich der Latenz, die der Multiplexer induziert, miteinander kommunizieren - sofern die GPUs über Logik verfügen, ähnlich wie Prozessoren, ihre Caches etc. abzugleichen, also das ganze Gedönse um MESI/MOESI etc. in einer ccNUMA Umgebung. Soweit ich weiß ist das aber nicht so. Wenn jetzt beide GPUs gleichzeitig auf den Hostspeicher zugreifen wollen, was macht dann der Multiplexerchip? Genau, einen nach dem anderen, oder: halbe/halbe. Und dennoch sieht man bei Dual-GPU Karten ein Plus in der Bandbreite? Sehe ich das richtig?
Das einzige was man hier meiner Meinung nach "vermißt", ist die Buszugriffslatenz oder das wirkliche Drama um die nicht PEG-16 konforme Bandbreite auch nur einer einzigen GPU! Die Geschwindigkeitsvorteile zweier GPUs sind dann nur durch die beiden GPUs selbst begründet, weil sie auf ihrem lokalen Speicher jeweils eine halbe Sache einer Ganzen berechnen können. Sobald aber Texturen etc. auf die Karten transferiert werden müssen - und das muß ja bei dieser Art der Konstruktion dann auf beide Speicherblöcke beider GPUs, schlägt die zusätzliche Latenz des Multiplexers zu.
Ich habe mich schon immer gefragt, ob zwei individuelle GPUs über ein wie oben beschriebenes Synchronisationsmodell verfügen, wie CPUs, um sich Aufgaben im Verbund teilen zu können. Wenn die GPUs für jeden Abgleich aber, ähnlich dem Intelschen FSB seinerzeit, über die "Außenwelt" müssen, ist das schon Anti-HPC-mäßig.

Vielleicht kennt der eine oder andere von Euch noch den englischen Chiphersteller Inmos und deren T400 und T800 "Transputer". Das waren RISC Prozessoren, die mittels seriellem Protokoll untereinander kommunizierten. Das gabs Ende der 80iger schon. QPI und HT ist nix Neues (hat man jemals von Intel und den x86-Klumpern was Neues erwarten können?). Wenn die GPUs untereinander seriell über einen schnellen Bus kommunizieren könnten, würde das den externen Bandbreitenkonsum etnlasten. ich kenne mich aber hier zuwenig aus, ich sehe nur, daß eine Doppel-GPU teurer Schnickschnack scheint, den man für das GPGPU-Szenario nicht sonderlich gut gebrauchen können wird.
 
MFelgate schrieb:
Falls Du Dir andere Dinge unter einem Vergleich zwischen PCIe 1.x und 2.0 vorstellst, erhelle mich bitte.

Was ist daran so schwer zu verstehen? :freak:

Ich will die heutigen karten GTX 560/570/580 bzw HD6000 verglichen haben in einem PCIe 2.0 und einem PCIe 1.1 slot - ganz einfach. Am besten mit einer Menge Spiele FPS, RTS, Rollen, Sim etc etc.

Und dann will ich ablesen können, wo und wann der PCIe 1.1 ein "großer" Flaschenhals ist, und wo nicht.

Es gibt ja gerade bei AMD-kisten immer noch viele Bretter mit PCIe 1.1 Slot.
 
Zuletzt bearbeitet:
Wieso gibts eigentlich bei euren Tests das Performancerating nicht mehr? Das war für mich immer die
beste Tabelle, um die richtige GraKa zu finden.
 
hmm... wäre interessant zu wissen, ob und wie sich eine geringere Lane-Anzahl auf Mikroruckler auswirken. Außerdem finde ich die "Simulation" bescheiden. Wieso kein AMD Unterbau?
 
Raucherdackel schrieb:
hmm... wäre interessant zu wissen, ob und wie sich eine geringere Lane-Anzahl auf Mikroruckler auswirken. Außerdem finde ich die "Simulation" bescheiden. Wieso kein AMD Unterbau?

weil der zu langsam wäre, selbst AMD hat die 6990 mit Intel Unterbau vorgestellt.
 
milamber! schrieb:
Um nichts anderes geht es - das es nicht Optimal ist hat niemand bestritten.

Aber auch nicht erwähnt !
Es wird einfach nur über PCIe 2.0 x16 hergezogen als ob es eine Krankheit wäre und sowieso kein Mensch einen Nutzen daraus gewinnen würde.
Es wird Argumentiert, es sei Unnötig, Ressourcefressend und eine reine Marketingstrategie um die Käufer eines teureren High-End-Board zu erhöhen.

Ich sehe das völlig anders.
Wer sich Heute ein Board mit 2.0 PCIe x16 anschafft, der braucht Morgen kein neues Board.
Ausgenommen, die Leute die noch mit ihrem alten, Board und PCIe 1.x zufrieden sind, aber die haben ja auch keine GTX590 an Board.

DU interpretierst hier hinein, das User ihr Board auf 8x stellen obwohl ihnen 16x zur Verfügung stehen - aber das ist Blödsinn.
Ob es nun um SLI/Crossfire auf 8/8er Boards geht, oder um Boards mit PCIe 3.0;

Nein du meinst, du würdest hier etwas in meiner Aussage erkennen was du dir selber hineininterpretrierst, worüber du dir aber anscheinend nicht genügend Gedanken darüber gemacht hast.
Schnelle Schlussfolgerungen sind zwar schön, aber richtige Schlussfolgerungen sind, auch wenn sie etwas langsamer sind, immer noch Gold wert. ;)

Ich bezog nämlich diese Aussage auf den CB-Artikel, das es eben nicht so große Auswirkungen hat, ob ein User nun weiß, ob sein Board mit der Singel-Karte nun 8x oder 16x zur Verfügung stellt, da die meisten Boards sowieso 16x zur verfügung stellen und sich somit die Frage ob nun 16x schneller ist erübrigt.
Erst bei MultiGPU System ist die Frage relevant, da ja bekanntlich nur die absoluten High-End Boards, volle Laneanbindung bereithalten können.

Das was du hier in meinen Text lesen "willst" ist daher absolut irrelevant !

Ein Umstieg, sprich ein Neukauf eines neuen Mainboards lediglich für schnellere PCIe Slots, ist nach den vorliegenden Ergebnissen nun wirklich unnötig.
Und selbst beim grundsätzlichen Neukauf ist der Nutzen für den zum Teil gehörigen Mehrpreis mehr als Fragwürdig.

Quatsch !
Wer in die Zukunft investiert, und das sollte man bei einem Neukauf auch tun, der besorgt sich mit Sicherheit keine PCIe 1.x mehr !
Also, so weit sollte man schon investieren können, und wer meint, das er jetzt noch mit PCIe 2.0 8x zurecht kommt der wird sich in Zukunft wohl darüber ärgern.
Niemand weiß was kommen wird.

Das ist weder fragwürdig noch als Dummheit zu bezeichnen, so wie du es so gerne darstellen möchtest.

"Antilane Trolle" sprechen nicht dagegen verfügbare Leistung zu nutzen, sondern teure Hardware für prozentual niedrige, einstellige Verbesserungen zu kaufen.

Willkommen im Forum.
Du solltest mal die Beiträge hier genauer durchlesen vor allem die Signaturen von den Leuten, die PCIe2.0 x16 als des Teufels Ausgeburt der Hölle verdammen.
Da sind viele Leute dabei, die verteidigen nur ihre Kaufentscheidung und machen sich somit etwas vor.
Ich möchte hier jetzt keine Links aussuche, da ich niemanden hier angreifen möchte.
Soweit solltest du auch denken können.

'Crossfirenutzung' wurde simuliert, im übrigen ist der Test nicht viel anders wie der von Tomshardware, den du vor nicht mal einen Monat als "aussagekräftig" bezeichnet hast.

Wie schnell das doch manchmal geht ...

Anscheinend, hast du selbst nach 1 Monat immer noch nicht verstanden, was ich geschrieben habe, aber dies als unumstößlichen Wahrheitsbekundung deiner abstrakten These mir gegenüber zum geglaubten Weltbild deiner Selbst erkoren.
Ich schlage vor, ließ nochmal alle Aussage genau durch und bleib bitte dabei völlig neutral.
Vielleicht wird dir doch noch etwas klarer. ;)

Und ganz nebenbei. Eine Simulation ersetzt niemals den reellen Test.
Wer das als Beweis interpolarisiert, der hat ganz andere Beweggründe.

Schon alleine vom logischen Standpunkt aus ist 2x8 Lanes auf 2 Steckplätze verteilt immer deutlich besser als ein MULTI-Karte auf einem Steckplatz mit nur x8 Lanes Anbindung (halbe Bandbreite).

PCIe 3.0 wird erst einmal nichts ändern .. zumindest nicht bezüglich der höheren Bandbreite. Aber wenn es nach dir geht, müssten ja alle mit was schnellerem als eine 5770 zwingend PCIe 3.0 kaufen, nicht wahr?

Das ist wiedermal nur dein Meinungsbild und lässt sich so gewiss nicht auf alle wirklich interessierten Leser hier übertragen. Gott sei Dank nicht !
Wiedermal hast du den Sinn meines Post in deine eigenen negativen Ausrichtung entfremdet.
Somit hast du die eigentlich Message nicht verstanden.
Setzen 6.

Wozu auch - der Prozentuale Unterschied zwischen 16x und 8x bei einer HD 5770 ist ähnlich groß, wie bei einer doppelt so schnellen GTX 570.
Was erwartest du nun also bei einer GTX 580?

Leider gehören Weissagungen nicht in einen wirklich Test oder ?
Nur weil du glaubst, eine GTX580 würde keine Veränderung bringen, so ist es weder glaubhaft noch bestätigt, sondern einfach nur ins Blaue geraten.

Deshalb habe ich ja geschrieben, das die GTX580 als schnellste Singelkarte am Markt, womöglich noch als übertaktet Version hier im Test fehlt. Sowie die echten und nicht die simulierten HD6990 und GTX590.
Erst dann kann man über deren Ergebnisse diskutieren.

Aber da du es ja nicht weißt kannst du darüber auch kein Urteil fällen.
Finde dich einfach damit ab.

Wie schon zu deinem Beitrag, in dem du Sinngemäß behauptest PCIe 3.0 wäre Pflicht für alles über Midrange, bleibt mir auch hier nur zu sagen;
wer sich bei Umrüstung oder Neukauf auf Informationen berufen möchte, sollte sich abhängig von seinen Anforderungen (natürlich auch für die Zukunft) mit den Werten und den Fazit dieses Tests vertraut machen, und kann dein Gerede getrost ignorieren.

Nur weil man etwas wiederholt, wird es deshalb nicht richtiger auch wenn man glaubt es zu kennen, macht es keinen Unterschied ob du diese Aussage ignorierst oder nicht. Sie bleibt deshalb richtig !

Du kramst hier wirklich auf eine lächerlichen Art und Weiße alte Beiträge heraus, wo nichts weiter drinsteht, das PCIe3.0 die Zukunft ist und man bei einem Neukauf lieber den neuen Standard berücksichtigen sollte als auf der alten Technik herum zu reiten.

Wer dies, wie du, als Markel herauslesen möchte, dem ist nicht weiter zu helfen und wird vermutlich auch in 10 Jahren noch diesen Betrag als sinnlos erachten, während die Welt sich weiter dreht und schon mit ganz anderen Standards an Ihm vorbei geht.

Sorry ! Die Zukunft bleibt nicht stehen, nur weil ihr stehen bleibt! Und das ist auch gut so. :cool_alt:
 
Zuletzt bearbeitet:
Unter dem Punkt "leistung" ist wohl ein tippfehler untergelaufen.
"... was bei Sandy-Bridge-GPUs üblich ist..."
um einen von mir erkennbaren Sinn zu ergeben müsste es heißen CPUs

ansonsten freut mich das ergebniss sehr, dass eine Höhere Datenrate kaum mehrleistung bringt, so kann ich auch in Zukunft mein PCIe 2.X-Mainboard behalten ohne die GPU spürbar auszubremsen.
 
war doch mal interessant.
wusste ich zb noch nicht das es so "egal" ist im norm betrieb.
jetzt hat man für die zukunft was gelernt^^.
mfg
 
megaptera schrieb:
Das hier immer einige genau wissen, was etwas bringt und was nicht. :(

Du tust ja auch so, als würdest du es "wissen".
Was 3.0 bezüglich der Bandbreite bringt und was nicht, sieht man doch anhand dieses Tests; selbst ne GTX 570 profitiert nur minimal von PCIe 16x, gegenüber 8x. Genauso minimal wie ne halb so schnelle Karte.


megaptera schrieb:
Natürlich wird PCIe 3.0 etwas bringen, vornehmlich bei den Spielen und Karten, die exzessiv über diese Schnittstelle kommunizieren. Das war schon bei 1.1/2.0 der Fall. Karten mit wenig Rama und best. Spiele ziehen vielleicht einen geringeren Nutzen aus dem neuen Bus.

Laut diesem Test ziehen so gut wie alle nur geringen Nutzen aus 16x PCIe 2.0 gegenüber 8x PCIe 2.0. Warum sollte dann bitte morgen schon 16x PCIe 3.0 verpflichtend und zwingend Notwendig sein?

Irgendwann reicht PCIe 2.0 nicht mehr aus, selbstverständlich, aber bis es so weit ist dauert erst vermutlich noch etwas.

megaptera schrieb:
Genau so, wie ich mir heute kein Brett mehr mit PCIe 1.1 kaufen würde, würde ich mir in Zukunft kein Brett mehr mit 2.0 Schnittstelle kaufen.

Das kommt immer auf den Aufpreis, die zur Zeit noch damit einhergehenden Einschränkungen bezüglich der Auswahl, und den eigenen Bedarf an. Generell kann man das überhaupt nicht sagen.

megaptera schrieb:
Klingt doch alles einleuchtend und logisch, oder?

Nö, so pauschal betrachtet ganz und gar nicht.
 
Ich versteh nicht, warum ihr euch alle so aufregt. Offensichtlich ist der Leistungsverlust durch eine 8x-Anbindung so niedrig, dass es kein Argument gibt, dafür extra Geld auszugeben. Das ist bereits davor bekannt gewesen und wurde durch diesen Test nun folgerichtig bestätigt.

Selbstverständlich achtet man bei einem Neukauf darauf, dass die Leistung der Komponenten auch lange hält. Nur: Bis Grafikkarten mit 8x PCIe2.0 nicht mehr klarkommen, ist SB für diese auch nicht mehr geeigntet. Darum muss man jetzt nicht unbedingt schon ein PCIe3-Ready-Board kaufen. (Welches widerum impliziert, dass man auch auf Ivy Bridge aufrüstet)
 
Ich haette mir nicht die Muehe gemacht es selbst mal zu testen, aber als ich neulich neue Waermeleitpaste auf die CPU auftrug, zeigten nach dem Hochfahren alle Programme fuer meine Graphikkarte (Sapphire HD 5850 Toxic) nur noch 8 Lanes an. Ich habe dann den Selbstversuch gemacht und mit 8 Lanes die uebertaktete Karte durch den 3d Mark 11 geschickt. Das Resultat mit 16 Lanes war mir bekannt da einfach zu merken (5001 Punkte). Resultat mit 8 Lanes: 5001 Punkte

Damit kann man schon leben, aber ich habe die CPU noch mal ausgebaut und wieder reingesteckt, danach zeigten alle Programme wieder 16 Lanes an.
 
milamber! schrieb:
Was 3.0 bezüglich der Bandbreite bringt und was nicht, sieht man doch anhand dieses Tests; selbst ne GTX 570 profitiert nur minimal von PCIe 16x, gegenüber 8x. Genauso minimal wie ne halb so schnelle Karte.

Das bleibt wohl auch nur dein Geheimnis, in einem Test über die Anzahl der Lanes bei gleichem Protokoll etwas über die zukünftige Leistungsfähigkeit eines weiterentwickelten Busprotokolls zu mutmaßen.

Laut diesem Test ziehen so gut wie alle nur geringen Nutzen aus 16x PCIe 2.0 gegenüber 8x PCIe 2.0. Warum sollte dann bitte morgen schon 16x PCIe 3.0 verpflichtend und zwingend Notwendig sein?
s.o.
Irgendwann reicht PCIe 2.0 nicht mehr aus, selbstverständlich, aber bis es so weit ist dauert erst vermutlich noch etwas.

Ungelegte Eier. 3.0 ist ja noch nicht einmal draußen. Vielleicht schlägt sich die theoretisch doppelte Datenrate in einer 20% Leistungsteigerung nieder.

Das kommt immer auf den Aufpreis, die zur Zeit noch damit einhergehenden Einschränkungen bezüglich der Auswahl, und den eigenen Bedarf an. Generell kann man das überhaupt nicht sagen.

Doch kann ich, für mich persönlich. Ganz einfach. Meine karte ist leider nicht üppig bestückt, und da war mir damals 2.0 sehr wichtig.
Aber unabhängig davon, hätte ich damals bei Erscheinen von 2.0 jemandem bei Neukauf mit an Sicherheit grenzender Wahrscheinlichkeit nicht zu einem 1.1 geraten
 
Folgendes Beispiel:

Intel 2500k , Asus P8P67M , 8GB & Ati Radeon 4890 .

Sofern ich bei Supreme Commander ganz raußzoome beleibt das system komplett stehen und läuft erst dann weiter wenn der Zoom fertig ist sofern die Karte in Pci 4x slot steckt , ist sie im 16x Slot besteht das problem nicht , wieso ? Laut diesem test dürfte bei dieser "langsamen" Hardware überhaupt kein Problem bestehen... weiß jemand eine Erklärung?
 
Zurück
Oben