Test Test: Grafikkarten mit PCIe

sowas hattet ihr hier noch nicht? den meisten war es wahrscheinlich so auch schon klar, aber trotzdem top!
 
Verdammt, 140 Kommentare Lesen um herrauszufinden ob das schon jemand gefragt hat bzw. aufgeklärt wurde. Nähhhh :cool_alt:

Wie genau wurde das ganze jetzt bei 2 Karten Getestet?
Wenn eine 6990 jetzt in einem 16X Slot steckt, sind das ja wie 2 6970 im CF auf 8x/8x, wie will man denn jetzt eine Aussage über 2 6970 auf 16x/16X treffen?
 
Kannst du nicht. Aber da du mit Sandy Bridge auch niemals 16x/16x in echt betreiben kannst, beschränkt sich dieser Artikel also auf diesen Mainstream-Chipsatz.

Die P67/Z68-Boards die 16x/16x anbieten haben alle ein NF200 bzw das ATI pendant, das kommt also dann aufs gleiche hinaus wie in dem Test mit der 6990/590.
 
Also ich muss sagen, und ich denke es geht fast allen so, dass ich mir viel mehr "Grundlagentests" wünsche.
Lieber wieder einmal etwas über technische Grundlagen, Entwicklungen und Kuriositäten vorstellen als den 25. Smartphone und Gehäusetest des Monats.

Der Test damals mit dem Netzteil, als jede Komponente einzeln erklärt wurde, die Untereschiede zwischen Single und Multirail etc. hatte doch einen nie dagewesenen Zuspruch.

Ich würde mich mal über einen Artikel freuen, der die ganzen Fachbegriffe klärt, mit denen bei CPU und GPU Tests um sich geworfen wird. Angenfangen bei einfachem wie Core und Shader bis ROPs FPUs und wie sie alle heißen.
 
Top Test, der eine Frage beantwortet, die sich bestimmt viele User stellen.

Vielen Dank & Greetz, G.
 
Ameisenmann schrieb:
weil der zu langsam wäre, selbst AMD hat die 6990 mit Intel Unterbau vorgestellt.
Ich bin ja fast vom Stuhl gekippt, als ich das gelesen habe :-) Typisch AMD. Sie entwickeln einen neuen Treibstoff - aber sie haben noch keinen Motor, der sich damit betreiben ließe und mehr Leistung brächte ... :evillol:

megaptera schrieb:
[...]

Ungelegte Eier. 3.0 ist ja noch nicht einmal draußen. Vielleicht schlägt sich die theoretisch doppelte Datenrate in einer 20% Leistungsteigerung nieder.

Diese Erfahrung macht heutzutage doch fast jeder, der sich ein wenig mit dem Zahlenmaterial im Computerumfeld beschäftigt. Woran liegt das? Sind es Milchmädchenrechnungen von PR-Lehrlingen, die gerade Multiplizieren gelernt haben und einfach ein paar Taktraten mit der Leitungsanzahl multiplizieren und vergessen, daß es einen 30% Overhead gibt, der vom Gesamtten nicht der Datenfracht zur Verfügung steht? Oder könnte die Technik im Prinzip mehr, wenn da nicht die billigt ausgeführte Platine wäre, die massiv elektrisches Rauschen verursacht? Soweit ich weiß haben neue Bussysteme, so auch PCIe, adaptive oder dynamische Geschwindigkeitsanpassungen bzw. können Daten nachfordern, wenn der Prüfkopf unkorrekt ist. Wenn jedes dritte Datenpaket fehlerhaft aufgrund von Rauschen übertragen wird, sind schon 30% Bandbreite futsch.

Ich habe das schon mal hier erwähnt. Mich hat die Behauptung MSIs auf der letzten CES sehr erstaunt, daß deren auf PCIe 3.0-aufgemotzte LGA1155 Platinenen, die jetzt etwas mehr Elektronik für höher getaktete PCIe 3.0-Signalleitungen haben, ein Leistungsplus von bis zu 12% beim Einsatz einer PCIe-angebundenen SSD im Vergleich zu einer herkömmlichen PCIe 2.0 Platine verbuchen konnten. Der verwendete Unterbau, eine Sandy-Bridge-CPU, beherrscht noch kein PCI 3.0, also kann die SSD in keiner Form von PCIe 3.0 profitiert haben. Als logische Konsequenz bleibt also nur der elektrische Unterbau, der Dank der qualitativ högerwertigen Baugruppen jetzt höhere Datenraten erlaubt. Ich persönlich finde, sofern dieser Test stimmen sollte, es einfach widerwärtig, zu welch horrenden Preisen dann Platinen angeboten werden, die angeblich "servertauglich" sind, und auf denen es nur so von elktrischen "Störern" wimmelt, die letztlich das Plus an Leistung wieder kaputt machen - und dem Kunden unnötig Geld aus der Tasche ziehen.

Ich hege nach diesem Test wieder einmal den Verdacht, daß aktuelle PCIe 2.0 Graphikkarten auf dem Speicherbus aufgrund von elektrischer Mängel ibeim Gros der Systemplatinen von Hause aus nicht höhere Transferraten aufschalten. PCIe 3.0 wird jetzt mit verkaufsträchtigen Argumenten diese Mängel beheben und die Anforderungen etwas erhöhen, so daß in Zukunft die Hersteller dann etwas weiter an der taktschraube drehen können ohne neuentwickeln zu müssen. Oder es ist technisch gar nicht möglich eine Hochfreuenzquelle wie eine Graphikkarte mit 16 Lanes und voller Taktbreite zu fahren, weil die Daten dann nicht mehr sicher beim Host ankommen. Also, egal wie, irgendwas ist einfach faul!


ExcaliburCasi schrieb:
Verdammt, 140 Kommentare Lesen um herrauszufinden ob das schon jemand gefragt hat bzw. aufgeklärt wurde. Nähhhh :cool_alt:

Wie genau wurde das ganze jetzt bei 2 Karten Getestet?
Wenn eine 6990 jetzt in einem 16X Slot steckt, sind das ja wie 2 6970 im CF auf 8x/8x, wie will man denn jetzt eine Aussage über 2 6970 auf 16x/16X treffen?

... indem man eine Tasse Kaffee brüht, eine Glaskugel neben diese auf dem Kaffeetisch platziert und versucht, durch "Extrapolation" aus Kaffeesatz und Glaskugel und den Zahlen 16,8,6970, 6990 und den noch nicht näher definierten "Operatoren" CF (vielleicht d/dSLI?)
eine allgemeingültige Lösung zu generieren.

FormatC schrieb:
Kann man nicht. Wie auch? Das ist der unterhaltsamere Teil des Artikels ;)

Spannend wie ein Krimi! :evillol:

Cey123 schrieb:
Kannst du nicht. Aber da du mit Sandy Bridge auch niemals 16x/16x in echt betreiben kannst, beschränkt sich dieser Artikel also auf diesen Mainstream-Chipsatz.

Die P67/Z68-Boards die 16x/16x anbieten haben alle ein NF200 bzw das ATI pendant, das kommt also dann aufs gleiche hinaus wie in dem Test mit der 6990/590.

Um 2x PEG 16fach testen zu können, hätte man doch problemlos auf eine stabile LGA1366 Plattform ausweichen können. Ich denke, daß wäre aber nicht mehr opprotun gewesen, denn der Plebs schreit nach Aktuellem. LGA1366 ist nicht mehr aktuell. Und das geifernde Volk will unterhalten werden.

[F]L4SH schrieb:
Also ich muss sagen, und ich denke es geht fast allen so, dass ich mir viel mehr "Grundlagentests" wünsche.
Lieber wieder einmal etwas über technische Grundlagen, Entwicklungen und Kuriositäten vorstellen als den 25. Smartphone und Gehäusetest des Monats.

Der Test damals mit dem Netzteil, als jede Komponente einzeln erklärt wurde, die Untereschiede zwischen Single und Multirail etc. hatte doch einen nie dagewesenen Zuspruch.

Ich würde mich mal über einen Artikel freuen, der die ganzen Fachbegriffe klärt, mit denen bei CPU und GPU Tests um sich geworfen wird. Angenfangen bei einfachem wie Core und Shader bis ROPs FPUs und wie sie alle heißen.

Smartphones, Gehäuse oder USB Sticks kann jede Hausfrau testen, das ist in der Computerbranche so wie Lockenwickler oder Fön im Haushalt. Aber Obacht! Stiftung Warentest machts immer wieder vor. Auch in einem Fön oder Lockenwickler kann eine tödliche Gefahr lauern! Vor allem, wenn der Fön oder Lockenwickler 24/7 betrieben wird, wofür er gar nicht ausgelegt ist. Das kann dazu führen, daß das formgebende Polymer seine Formstabilität in erster Näherung verliert und sich zu etwas anderem "verbiegen" kann. Dieser transiente Zustand währt allerdings nur wenige Sekunden, danach geht der Fön oder der Lockenwickler mit Flammen, Knallgeräuschen und einer enormen Rauchentwicklung in den Zustand einer höheren Entropie über. Wen Fortuna gerade nicht lustig ist, passiert das Gleiche mit dem Betreiber und eventuell noch mit dessen Behausung. Glücklicherweise sind die Feuerwehren heute so schnell, daß sie binnen einer Stunde am Unglücksort des verfehlten Tests ankommen können, so daß es nicht mehr wie im Mittelalter zu verheerenden Bränden kommen kann, und eine ganze Stadt lichterloh den Entropiezustand wechselt.

Fachbegriffe gehören in ein ordentliches Glossar. Gibt es sowas nicht schon im Netz?
 
Zuletzt bearbeitet:
Pickebuh schrieb:
Aber auch nicht erwähnt !
Es wird einfach nur über PCIe 2.0 x16 hergezogen als ob es eine Krankheit wäre und sowieso kein Mensch einen Nutzen daraus gewinnen würde.
Es wird Argumentiert, es sei Unnötig, Ressourcefressend und eine reine Marketingstrategie um die Käufer eines teureren High-End-Board zu erhöhen.

Wo in dem Test steht das PCIe 2.0 x16 Unnötig, Ressourcenfresend und reine Marketingstrategie ist?

Lies dir den Test doch mal bitte durch, die Einleitung, das Fazit und den Text dazwischen.
Oder lese dir bitte meinen Post durch; NIRGENDS habe ich das so geschrieben wie du behauptest.
Es stellt sich im Zuge des neuen Standards lediglich die Frage, in wie weit wir davon profitieren können. Und um diese Frage zu beantworten Testet man, in welchem Umfang die aktuellen Standards genutzt werden. Nicht mehr und nicht weniger, und darüber Handelt dieser Test.

Und die Aussage ist:

Nichtsdestotrotz sollte aber darauf geachtet werden, immer die vollen PCI-Lanes zu nutzen, denn nur so kann die beste Leistung garantiert werden. Anders herum zeigt der Versuch, dass der neue PCIe-3.0-Standard es zu Beginn schwer haben wird, sich bezüglich der Geschwindigkeit von PCIe 2.0 abzusetzen. Wir bezweifeln, dass selbst die schnellsten Next-Gen-GPUs von der höheren Bandbreite profitieren können, sodass sich PCIe-2.0-Besitzer voraussichtlich keine Kopfschmerzen über einen Engpass machen müssen – wir werden das bei Zeiten aber erneut nachprüfen.

Und nicht:
PCIe 2.0 x16 [...] sei Unnötig, Ressourcefressend und eine reine Marketingstrategie um die Käufer eines teureren High-End-Board zu erhöhen

Pickebuh schrieb:
Ich sehe das völlig anders.
Wer sich Heute ein Board mit 2.0 PCIe x16 anschafft, der braucht Morgen kein neues Board.
Ausgenommen, die Leute die noch mit ihrem alten, Board und PCIe 1.x zufrieden sind, aber die haben ja auch keine GTX590 an Board.

Hä? Was redest du?
Selbst das billigste 38€ AM3+ Asus hat eine vollwertigen PCIe 2.0 x16 Lane. Und die AM3 Boards mit PCIe nach altem Standard sind alles Boards mit veralteten Chipsätze in klarer Minderheit. Die Boards mit PCIe 2.0 16x sind nur unwesentlich teurer.

Ich wüsste nicht das der Test oder ich etwas anderes geschrieben haben, und zum Kauf von veralteten Mainboards mit PCIe 1.1 aufrufen. Boards betreffend 2 vollen PCIe 2.0 16x Lanes hingegen sind ein völlig anderes Thema.

Pickebuh schrieb:
Nein du meinst, du würdest hier [... bla bla bla bla ...]

Das hat nichts mit wollen zu tun, deine Aussagen ist doch unmissverständlich.
Nochmal; du unterstellt dem User er hätte etwas hineininterpretiert - aber das muß er gar nicht, folgendes ist doch klar Verständlich oder?

Acht PCIe-Lanes gegenüber den vollen 16 Lanes sind nur selten von Nachteil – im Durchschnitt liegt dieser bei gerade einmal ein bis zwei Prozent.

Das dies nicht die maximal mögliche Performance bietet, ist klar. Aber für die Meisten, und vor allem jene die NICHT ein High End System haben, reicht nunmal 8x aus.
Das dies 99% BESITZER und nicht KÄUFER von 1.1 Boards anspricht, sollte aus dem Kontext ja wohl klar sein. Wie auch nicht, zumindest bei AMD gibt es keine aktuellen Boards und Chipsätze mehr ohne mindestens einen PCIe 2.0 16x Lane.
Und die Verbreitung von High End Karten im schlage der GTX 570, 580 oder gar 590 kennen wir auch.

Pickebuh schrieb:
Quatsch !
Wer in die Zukunft investiert, und das sollte man bei einem Neukauf auch tun, der besorgt sich mit Sicherheit keine PCIe 1.x mehr !
Also, so weit sollte man schon investieren können, und wer meint, das er jetzt noch mit PCIe 2.0 8x zurecht kommt der wird sich in Zukunft wohl darüber ärgern.
Niemand weiß was kommen wird.

Nochmal; es gibt, zumindest bei AMD, keine Aktuellen Boards oder Chipsätze mehr mit PCIe 1.1. Wer heute aktuelle Hardware - ob entry oder high end - kauft, bekommt eh PCIe 2.0.
Gemeint war PCIe 3.0 oder ein PCIe 2.0 mit zwei vollen 16x Lanes.

Pickebuh schrieb:
Das ist weder fragwürdig noch als Dummheit zu bezeichnen, so wie du es so gerne darstellen möchtest

Wenn ich ein Board mit 1.1 besitze, und meine da eine GTX 570 (und mit aller Sicherheit auch schneller) drauf stecken zu wollen, lohnt es nicht für 1-3% im Schnitt ein neues Board, oder gar Board+Prozessor+Speicher kaufen zu müssen. Das ist gänzlich unnötig.
Wenn ich ein Board kaufe, ist es in jedemfall fragwürdig und muß im Speziellen erörtert werden, ob die Investition in ein 3.0 oder zwei mal 16x 2.0 Board getätigt werden muß.

Von einer "Dummheit" war meinerseits jedoch nicht die Rede.

Pickebuh schrieb:
Willkommen im Forum.
Du solltest mal die Beiträge hier genauer durchlesen vor allem die Signaturen von den Leuten, die PCIe2.0 x16 als des Teufels Ausgeburt der Hölle verdammen.
Da sind viele Leute dabei, die verteidigen nur ihre Kaufentscheidung und machen sich somit etwas vor.
Ich möchte hier jetzt keine Links aussuche, da ich niemanden hier angreifen möchte.
Soweit solltest du auch denken können.

Das Extrem - präsentiert durch dich - auf der einen Seite, erhält sein Gleichgewicht mit manchen Leute auf der "anderen Seite". Fakt ist; weder der Test, noch der von dir Zitierte User haben ähnliches zum Ausdruck gebracht.
Und Fakt; besonders bei den älteren Platformen AM3 und 1056 und 1366 sind zwei volle 16x Lanes mit nicht selten gehörigem Aufpreis zu bezahlen - wenn es SLI Unterstützen soll sicher noch was extra. Da ist es nicht verwundertlich, das dies viele für so geringe Vorteile nicht einsehen. Weder beim Neukauf, und schon gar nicht bei bestehender Hardware.

Deine Provokationen - wie hier am Ende des Absatzes - kannst dir im übrigen stecken. Wenn du sonst nicht weiter weißt, schreib doch am besten gar nichts.

Pickebuh schrieb:
Anscheinend, hast du [... nerviges Geschnatter ...]
Schon alleine vom logischen Standpunkt aus ist 2x8 Lanes auf 2 Steckplätze verteilt immer deutlich besser als ein MULTI-Karte auf einem Steckplatz mit nur x8 Lanes Anbindung (halbe Bandbreite).

Ich wiederhole es nochmal; wasvor nem Monat noch Aussagekräftig war, ist es jetzt nicht mehr. Wie das Fähnchen im Wind sich dreht, so dreht man sich seine Aussagen.

Pickebuh schrieb:
Das ist wiedermal nur dein Meinungsbild und lässt sich so gewiss nicht auf alle wirklich interessierten Leser hier übertragen. Gott sei Dank nicht !
Wiedermal hast du den Sinn meines Post in deine eigenen negativen Ausrichtung entfremdet.
Somit hast du die eigentlich Message nicht verstanden.
Setzen 6.

Dein Post hat keinen Sinn, du machst nur ne Welle.
Lies das Fazit von diesem Test durch, und gerne auch von dem dir selbst verlinkten Tomshardwaretest. Ich zitiere gerne:

Diese Angaben spielen zwar bei der Bewertung eines Systems eine Rolle, allerdings sind die Verluste in der Praxis, also beim Spielen, kaum wahrnehmbar. [...] Die geringfügigen Performance-Verluste bei x8-Steckplätzen führen uns automatisch zu unserem nächsten Artikel.

In diesem Zusammenhang weiß ich absolut nicht, was du hier beweisen willst. Mit reinen Behauptungen ohne Hand und Fuß fühlst du dich in deiner Argumentation den Testern von CB und Tomshardware überlegen .. doch wie erlauben Strunz?!

Es geht ja noch weiter, mit dem nächsten Artikel:
http://www.tomshardware.de/p67-gaming-3-way-sli-Triple-crossfire-X,testberichte-240780-17.html
16x/8x/8x gewinnt gegen 16x/16x/16x - da waren die Plattform und CPU Vorteile trotz Handycap so groß, das PCIe 8x einfach mal total untergegangen ist.
Aber mal davon abgesehen ist der Unterschied insgesammt so gering, das ich als Tester mich im Nachhinein ärgern würde für den Aufwand und so geringe Performanceabweichungen.

Dein gerede ist absolut konträr zu all den Informationen über die wir hier diskutieren, aber das ist dir anscheinend nicht bewusst.

Pickebuh schrieb:
Leider gehören Weissagungen nicht in einen wirklich Test oder ?
Nur weil du glaubst, eine GTX580 würde keine Veränderung bringen, so ist es weder glaubhaft noch bestätigt, sondern einfach nur ins Blaue geraten.

Ich brauche nicht raten; eine GTX 570 verliert im Schnitt mit 8x prozentual genauso wenig wie ein 5770, und zwar weit unter 5%. Selbst mit 4x ist der Performanceverlust einer 570 oder 6970 geringer als 10%. Also was zum Teufel willst du also mit einer GTX 580 im Test in Erfahrung bringen, das du bisher nicht wissen solltest?
Das sie unter 16x doppelt so schnell ist?

Die Zahlen sind da, also verdreh und vor allem ignoriere sie bitte nicht; meine Aussagen basieren nicht auf Weissagungen, und ich muß auch nicht ins Blaue raten. Ich stelle nicht mal unbelegbare Behauptungen auf, im Gegensatz zu dir.


Pickebuh schrieb:
Deshalb habe ich ja geschrieben, das die GTX580 als schnellste Singelkarte am Markt, womöglich noch als übertaktet Version hier im Test fehlt. Sowie die echten und nicht die simulierten HD6990 und GTX590.
Erst dann kann man über deren Ergebnisse diskutieren.

Die GTX 580 ist nur 15% schneller als die 570/6970; nochmal frage ich, was du da für Unterschiede erwartest?
Im übrigen sind die Dual GPU Karten nicht simuliert, sie sind BASIS für die Crossfire/SLI Simulation.


Pickebuh schrieb:
Nur weil man [... und wieder mal uninterssanter bla bla kram ..]

Dein als alt und aus der vergangenheit gerissener Beitrag ist gerade mal 5 Wochen her.

Das PCIe 3.0 die Zukunft ist, bestreitet niemand - nur wied diese Zukunft noch nicht BENÖTIGT.
 
megaptera schrieb:
...
Ich will die heutigen karten GTX 560/570/580 bzw HD6000 verglichen haben in einem PCIe 2.0 und einem PCIe 1.1 slot - ganz einfach...
Und dann will ich ablesen können, wo und wann der PCIe 1.1 ein "großer" Flaschenhals ist, und wo nicht...

Na dann lies meinen vorherigen Beitrag komplett durch, schaue Dir die Balkendiagramme des Tests an und verknüpfe diese mit den Bandbreiten der jeweiligen PCIe-Revisionen.
Du wirst überraschenderweise eine durchaus zufriedenstellende Antwort auf Deine Problemstellung finden können.
 
megaptera schrieb:
Das bleibt wohl auch nur dein Geheimnis, in einem Test über die Anzahl der Lanes bei gleichem Protokoll etwas über die zukünftige Leistungsfähigkeit eines weiterentwickelten Busprotokolls zu mutmaßen.

Ich habe mindestens zwei mal explizit den höheren Durchsatz angesprochen.
Was PCIe 3.0 ansonsten mit sich bringt, ist ein völlig anderes Thema. Aber da es hier keine Tests zu gibt, zumindest bei CB, gibt es noch viel weniger Gründe PCIe 3.0 als zwingend vorrausgesetzt zu propagieren.

megaptera schrieb:

s.o.


megaptera schrieb:
Ungelegte Eier. 3.0 ist ja noch nicht einmal draußen. Vielleicht schlägt sich die theoretisch doppelte Datenrate in einer 20% Leistungsteigerung nieder.

Wenn dem so ist, werden wir dies sicher erfahren, und dann müssen alle Aussagen revidiert werden.
Bis dato gibt es aber nur die angebliche, doppelte Datenrate. Und von der wird die Hardware nach jeztigem Erkentnisstand nicht haben. Im übrigen habe ich nicht ohne Grund "vermutlich" geschrieben.
Davon abgesehen geht es hier primär um PCIe 2.0.

megaptera schrieb:
Doch kann ich, für mich persönlich. Ganz einfach. Meine karte ist leider nicht üppig bestückt, und da war mir damals 2.0 sehr wichtig.
Aber unabhängig davon, hätte ich damals bei Erscheinen von 2.0 jemandem bei Neukauf mit an Sicherheit grenzender Wahrscheinlichkeit nicht zu einem 1.1 geraten

Was heißt hier denn doch? Ich schrieb doch ganz klar "Pauschal" und "Generell". Und selbst wenn es um deinen ganz persönlichen Bedarf geht, kannst du noch weniger eine Aussage über den positiven Nutzen von 3.0 etwas aussagen, als ich über den vermutlich noch fehlenden Bedarf.

Du stützt dich auf absolut spekulative 20% Mehrleistung durch verbesserte Protokolle.
Ich stütze mich auf die Tatsache (die hier und auf anderen Seiten bestätigen Werte im Test) das eine echt schnelle Grafikkarte wie die GTX 470 selbst an 4x PCIe weniger Performance "verliert", als an einem Phenom zu einem Sandy Bridge.
 
Das PCIe 3.0 die Zukunft ist, bestreitet niemand - nur wied diese Zukunft noch nicht BENÖTIGT.

Nunja,

ich will die Gesichter der Grafikkartenhersteller sehen, wenn die neusten Modelle dann auf einmal wegen etwas simplen wie die Bandbreite in ihrer Leistung eingeschränkt werden.

Einen Flaschenhals gibt es immer, und wenn man es vermeiden kann dass dieser aufgrund einer unausgereiften Technologie im PCIe Bereich entsteht, dann ist das ja wohl das vernünftigste.

@top.
ein sehr schöner und gelungener Artikel, Wolfgang. Auch dass man Kontakte einfach "abkleben" und damit die Lanes halbieren kann, hätte ich nicht gedacht. Musste schon etwas grinsen beim lesen ;)

Gruß
 
Danke für den Test! und an all die Trolle -> Nehmt euch lieber die Zeit den Artikel "genauer" zu lesen, als hier Müll zu schreiben. Armselig...
 
Sehr schöner Test.

Aber ich bin hier grade am grübeln. Hab grade ne disskussion bezüglich Vram bei der Asus mars2 gelesen. Jetzt fällt mir auf das dort geschrieben wird, die 1.5Gb Vram der Grafikkarte (1.5gb je chip bei der mars2) werden erst bei Auflösungen jenseits von 1920x1080 UND Texturemod so wirklich voll.
1.5gb nehm ich jetzt als hausnummer einfach weil ne gtx580 eben soviel ram besitzt.

Hast du denn die Vram auslastung der Karten beachtet? Solange da noch Platz vorhanden ist wird ja kaum was ausgelagert etc also sollte die Geschwindigkeit garnicht soo ins Gewicht fallen.
Tests bei denen der Vram regelrecht überläuft währen mal intressant.

für otto-normal gamer natürlich nicht wirklich von interesse, da stimme ich auch uneingeschränkt mit dem fazit überein. aber für eben diesen reicht heut zu tage ja schon nen mittel mäsiger rechner um alles ganz gut zocken zu können.

ich denke, leute die sich mit den pcie lanes auseinandersetzen bzw überhaupt wissen was das ist, fahren eher in den aktuellen grenzbereichen der leistung. leider kann ich jetzt keine aussage treffen denn ich weiss nicht ob meine vermutung wirklich stimmt aber für mich währe es logisch das sobald die grafikkarte vom ram her am limit läuft, der bus doch eine entscheidendere rolle spielt.

schön währen mal die frameverläufe wenn die grafikkarte gezwungen ist ständig daten in den normalen ram auszulagern. dann sieht man auch eventuell auftretende nachladeruckler.

mfg
 
Zuletzt bearbeitet:
Man muß das VRAM gar nicht vollschreiben, um einen Datentausch über den PCIe Bus zu erzwingen. Rechne einfach mal mit einem CUDA Kernel etwas aus und schiebe die Daten hin und her. Mit ein paar C Kenntnissen sollte man auch via getrusage(2) die Zeit, die für den Transfer benötigt wird, vom UNIX Kernel "messen" können.
 
Ich würde da gern mal wissen: Käme eine Grafikkarte eigentlich mit zwei Lanes zurecht? (theoretisch möglich, praktisch jedoch nicht vorgesehen) - Würde mich mal brennend interessieren..
 
Eisenfaust schrieb:
Um 2x PEG 16fach testen zu können, hätte man doch problemlos auf eine stabile LGA1366 Plattform ausweichen können. Ich denke, daß wäre aber nicht mehr opprotun gewesen, denn der Plebs schreit nach Aktuellem. LGA1366 ist nicht mehr aktuell. Und das geifernde Volk will unterhalten werden.

Und wozu hätte man das nun wieder machen sollen? Willst du etwa dann Äpfeln mit Birnen (P67 vs X58) vergleichen? Einen Test du einer Jahre alten Plattform rausbringen, die aufgrund der hohen Preise eh für den gemeinen User unattraktiv war und jetzt erstrecht ist. Is doch total überflüssig ^^ ... zumal es einen Test mit X58 eh schon gibt auf Tomshardware.
 
Man hätte auf dem X58 die Slots genauso abkleben können. Dann wären die Werte für den Multi-GPU-Betrieb wenigstens brauch- und vergleichbar gewesen.
 
Aber nicht mit P67. Weil X58 halt eben kein P67 ist und die doch sehr verschiedene Architektur (direkte PCIe-Anbindung an die CPU z.B.) doch auch Auswirkungen haben kann.
 
Danke für den Artikel. Da ich in einem PCIe x16 Slot ein RevoDrive verbaut habe (aufgrund fehlender X4 Steckplätze) hatte ich bei dem Board immer Angst die Grafikkarte im anderem Slot runterzubremsen, aber ich glaube das sind unbegründete Ängste gewesen ^^
 
Zurück
Oben