Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test 3x GTX 680 & 3x HD 7970 mit i7-3970X: 3-Way-GPU sorgt für höchste Leistung
- Ersteller Wolfgang
- Erstellt am
- Zum Test: 3x GTX 680 & 3x HD 7970 mit i7-3970X: 3-Way-GPU sorgt für höchste Leistung
Nova eXelon
Commander
- Registriert
- Jan. 2011
- Beiträge
- 2.506
@CB:
Wäre es nicht ne gute Idee, beim Zeigen von Mikrorucklern den Analogstick eines Gamepads per Xpadder zur Maus zu machen, um so geschwindigkeitsmäßig absolut konstante Kameraschwenks hinzubekommen? So habe ich mal nen Freund gezeigt, dass man sogar den Unterschied zwischen 60fps und 59fps sehen kann, sofern man denn die gleichbleibende Geschwindigkeit in den Kameraschwenks hat.
Wäre es nicht ne gute Idee, beim Zeigen von Mikrorucklern den Analogstick eines Gamepads per Xpadder zur Maus zu machen, um so geschwindigkeitsmäßig absolut konstante Kameraschwenks hinzubekommen? So habe ich mal nen Freund gezeigt, dass man sogar den Unterschied zwischen 60fps und 59fps sehen kann, sofern man denn die gleichbleibende Geschwindigkeit in den Kameraschwenks hat.
Visualist
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.734
@pisko
Obwohl hier noch nicht mal der 12.11 Treiber genommen wurde sieht man das NV von der Leistung her ehr Mittelklasse ist als Highend ist.
AMD sollte aber auch mehr Manpower in ihr Treiberteam stecken das dauert einem manchmal doch etwas zu lange mit guten Treibern da ist NV schon nen tick besser.
Obwohl hier noch nicht mal der 12.11 Treiber genommen wurde sieht man das NV von der Leistung her ehr Mittelklasse ist als Highend ist.
AMD sollte aber auch mehr Manpower in ihr Treiberteam stecken das dauert einem manchmal doch etwas zu lange mit guten Treibern da ist NV schon nen tick besser.
S
Sharif-Omar
Gast
Wird aber als Highend vor gestellt in CB, der Preis von der GTX680 ist einfach zu hoch. CB könnte ruhig schreiben für das Geld könnte man zwei GTX670 Kaufen oder zwei 7950 als eine GTX680.
Beide Hersteller haben Treiber Probleme AMD und NV wir müssen uns nicht gegen seitig alles schön reden.
Wer noch nie mit Dual GPU gespielt hat kann auch nicht beurteilen wie SLI/CF Läuft, 95% der User Schreiben nur das rein was Sie gelesen haben oder gehört haben.
In mein Umfeld haben die meisten Dual GPU System in ihren Rechner drin, und 99% sind mit der Leistung sehr zufrieden. Warum macht man SLI/CF bestimmt nicht mit 500FPS zu Spielen.
Spiele die SSAA unterstützen + DS sehen deutlich besser aus und eine GPU ist damit überfordert. Wer SLI/CF hat und in Game nur über Spiele Profil seine setting hoch schraubt hat den Sinn von Dual GPU nicht verstanden.
SLI/CF ist für 1920x1080 Total überflüssig da langt eine GTX680 oder eine 7970.
Ich kann mich auch nur anschließen über dein Kommentar.
Fazit: Ein absolut unnötiger, verwirrender und unvollständiger Test, der absolut keine Aussagekraft über das Thema High End CF und Sli besitzt.
Über das wichtigste Hardware wurde auch nicht berichtet das ist das MONITOR mit welchen Monitor und mit wieviel Hz habt ihr diesen Test gemacht ich hoffe CB hat eine anständige 120Hz Monitor benutz und keine 60Hz weil das wäre grob fahrlässig ??????? Bei 60Hz enstehen auch input Lags.
Beide Hersteller haben Treiber Probleme AMD und NV wir müssen uns nicht gegen seitig alles schön reden.
Wer noch nie mit Dual GPU gespielt hat kann auch nicht beurteilen wie SLI/CF Läuft, 95% der User Schreiben nur das rein was Sie gelesen haben oder gehört haben.
In mein Umfeld haben die meisten Dual GPU System in ihren Rechner drin, und 99% sind mit der Leistung sehr zufrieden. Warum macht man SLI/CF bestimmt nicht mit 500FPS zu Spielen.
Spiele die SSAA unterstützen + DS sehen deutlich besser aus und eine GPU ist damit überfordert. Wer SLI/CF hat und in Game nur über Spiele Profil seine setting hoch schraubt hat den Sinn von Dual GPU nicht verstanden.
SLI/CF ist für 1920x1080 Total überflüssig da langt eine GTX680 oder eine 7970.
Ich kann mich auch nur anschließen über dein Kommentar.
Fazit: Ein absolut unnötiger, verwirrender und unvollständiger Test, der absolut keine Aussagekraft über das Thema High End CF und Sli besitzt.
Über das wichtigste Hardware wurde auch nicht berichtet das ist das MONITOR mit welchen Monitor und mit wieviel Hz habt ihr diesen Test gemacht ich hoffe CB hat eine anständige 120Hz Monitor benutz und keine 60Hz weil das wäre grob fahrlässig ??????? Bei 60Hz enstehen auch input Lags.
Zuletzt bearbeitet:
Naennon
Lieutenant
- Registriert
- Jan. 2009
- Beiträge
- 621
AYAlf schrieb:Metro ist praktisch mit nVidia entwickelt worden, nVidia kann es nur nicht besser ^^
wenn man keine Ahnung hat...
als Metro rauskam konnte nur eine GPU die Engine handeln - und die war nicht rot
in den Folgemonaten wurde bei ROT die fehlend GPGPU Power überall bemängelt und daraufhin hat ROT bei Cayman und bei Tahiti mächtig an der GPGPU Schraube gedreht und nur dadurch kommt die Power in Metro oder Tess Benchmarks ala Unigine zustande
NVidia hingegen hat bei Desktop CPUs im Bereich GPGPU stagniert respektive zurückgedreht
Visualist
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.734
@Mumbria
Nein es ist noch viel einfacher zu erklären der GK104 war als Mittelklasse Chip gedacht und mehr auch nicht.
Darum habe ich NV diesmal auch nicht unterstützt .
Bezahle doch nicht für Mittelklasse Highend Preis den von high end ist NV mit der jetzigen Karte eine Ecke weit von entfernt.
GK110 und SeaIland bin ich gespannt im Frühjahr mal sehen wer von beiden meine Stimme bekommt bzw welcher der beiden Chips im Gehäuse landet.
Nein es ist noch viel einfacher zu erklären der GK104 war als Mittelklasse Chip gedacht und mehr auch nicht.
Darum habe ich NV diesmal auch nicht unterstützt .
Bezahle doch nicht für Mittelklasse Highend Preis den von high end ist NV mit der jetzigen Karte eine Ecke weit von entfernt.
GK110 und SeaIland bin ich gespannt im Frühjahr mal sehen wer von beiden meine Stimme bekommt bzw welcher der beiden Chips im Gehäuse landet.
Naennon schrieb:wenn man keine Ahnung hat...
als Metro rauskam konnte nur eine GPU die Engine handeln - und die war nicht rot
in den Folgemonaten wurde bei ROT die fehlend GPGPU Power überall bemängelt und daraufhin hat ROT bei Cayman und bei Tahiti mächtig an der GPGPU Schraube gedreht und nur dadurch kommt die Power in Metro oder Tess Benchmarks ala Unigine zustande
NVidia hingegen hat bei Desktop CPUs im Bereich GPGPU stagniert respektive zurückgedreht
Und trotzdem schlägt eine GTX650 eine 7750 in Metro2033.
PR3D4TOR
Fleet Admiral
- Registriert
- Juli 2008
- Beiträge
- 12.580
Danke für den umfangreichen Test.
Da sieht man, was im Gaming-Bereich möglich bzw. sinnvoll ist. SLI ist CF weiterhin voraus, wenn man denn solche 3-GPU-Systeme betreibt.
@ Visualist:
Ganz genau: Für eine Mittelklasse Karte mit "angeblichen" High-End Status zahle ich sicherlich keine "High-End-Segment" Preise.
Deshalb habe ich auch diese Generation ausgelassen. Weder Fisch noch Fleisch die gute GTX 680 (Eine der stärksten SGPU-Karten, allerdings kleiner Chip, Speicheranbindung zu gering, etc.)
Wenn ich aufrüsten müsste, dann würde ich derzeit definitiv zur HD 7970 mit 3GB greifen. Strom sparen interessiert mich nicht sonderlich wenn es um mein Hobby geht. Da gibts andere Baustellen wo man deutlich mehr sparen kann als die paar Watt. Ich hoffe auf den unvernünftigen GK 110 nächstes Jahr
Frohe Weihnachten,
PR3D4TOR
Da sieht man, was im Gaming-Bereich möglich bzw. sinnvoll ist. SLI ist CF weiterhin voraus, wenn man denn solche 3-GPU-Systeme betreibt.
@ Visualist:
Ganz genau: Für eine Mittelklasse Karte mit "angeblichen" High-End Status zahle ich sicherlich keine "High-End-Segment" Preise.
Deshalb habe ich auch diese Generation ausgelassen. Weder Fisch noch Fleisch die gute GTX 680 (Eine der stärksten SGPU-Karten, allerdings kleiner Chip, Speicheranbindung zu gering, etc.)
Wenn ich aufrüsten müsste, dann würde ich derzeit definitiv zur HD 7970 mit 3GB greifen. Strom sparen interessiert mich nicht sonderlich wenn es um mein Hobby geht. Da gibts andere Baustellen wo man deutlich mehr sparen kann als die paar Watt. Ich hoffe auf den unvernünftigen GK 110 nächstes Jahr
Frohe Weihnachten,
PR3D4TOR
Visualist
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.734
Die Paar Tage stehst mit deiner 580 auch noch durch jetzt bist ja schon so gut wie über den Berg mit der guten alten GTX580.
Meine gingen damals auch mit 1000 mhz hatte 2 von den GTX580ern als MSI Hydro gen waren tolle Karten hatte auch noch super Geld für die bekommen sonst hätte ich sie wohl auch behalten.
Auch dir ein Frohes Fest.
Meine gingen damals auch mit 1000 mhz hatte 2 von den GTX580ern als MSI Hydro gen waren tolle Karten hatte auch noch super Geld für die bekommen sonst hätte ich sie wohl auch behalten.
Auch dir ein Frohes Fest.
Eisenfaust
Banned
- Registriert
- Feb. 2007
- Beiträge
- 1.212
CB sollte sich nicht am Niveau seines Durchschnitts-Klientesl orientieren, sondern die Fackel der Vernunft höher tragen! Ich empfinde es als äußerst peinlich und eines tecnischen Magazins unwürdig (zumindest, wenn das Niveau einer BILD Zeitung NICHT erreicht sein soll), mit Zahlen zu protzen, die sinnlos sind. Wie kommt man nur auf die Idee, die L1-Caches summa summarum zu führen? Kein Kern hat Zugriff auf den L1-Cache eines benachbarten Kernes, so daß die Größe exklusiv für den jeweiligen Kern ausschlaggebend ist. Die 6 Caches zusammenzuzählen kommt etwa einer Rechnung gleich, als wenn man in einem Auto pro Rad die Maximalgeschwindigkeit heranzieht und addiert und das Ersatzrad nicht aus läßt!
Das Fazit des Tests ist gut, auch wenn es für meinen Geschmack etwas zu "flach" ist. Es hätte ruhig etwas aggressiver den Unsinn unterstreichen können, drei Karten in einem Rechner zu verbauen! Ich kann kaum noch Worte für den Schwachsinn finden, sich drei Graphikkarten nur zum Spielen in den Rechner zu verbauen, die zusammen unter Last knapp 1kW Energie umsetzen. Gleichzeitig wählt man Grün, um so die Atomkraftwerke abzustellen und heult mit jedem vergifteten Seehund mit. Ein Glück wird diesem Schwachsinn mit der "Energiewende" zumindest auf vielen gebieten Einhalt geboten, indem die Energiepreise angehoben werden.
Mir ist immer noch nicht nähergebracht worden, warum Graphikkarten eine zusätzliche elektrische Verbindung zum SLI- oder CrossFire-Betrieb benötigen. PCIe 2.1 oder gar PCIe 3.0 sollten ausreichend geringe Latenzen aufweisen, um eine Synchronisation des Multi-GPU Betriebes zu ermöglichen.
Fein herausgearbeitet empfinde ich die Sache mit den Rucklern! Im Multi-GPU-Betrieb für den prof. Bereich sieht man einen Anstieg der Latenzen bei Verwendung mehrerer GPUs ebenfalls, nur fällt das hier weniger ins Gewicht, weil oftmals die Kernel, die auf den GPUs ausgeführt werden müssen, eben wegen hoher Latenzen keine Abhängigkeiten und somit Kommunikationen mit Kernel auf anderen GPUs haben (sollen). Bei Bildern, die verzahnt von einzelnen GPUs berechnet werden und synchronisiert werden müssen, zeigt sich das Problem dann doch deutlich.
Die verwendete Technik ist möglicherweise doch nicht so modern wie immer gerne von den PR-Halbgebildeten verkündet. Die in der Werbung proklamierten Übertragungsraten der PCIe 2.0 und 3.0 Systeme werden in der Regel gerade mal zu 40 - 50% ausgeschöpft - vielleicht ist mehr gar nicht möglich. Letzteres wäre ja nicht schlimm, schlimm ist, wenn ein paar Oberschlaue einfach ein paar Zahlen zusammenaddieren, ohne zu wissen, was das eigentlich bedeutet, was sie da addieren (so wie sechs mal L1-Caches zusammenaddieren ...).
In diesem Zusammenhang wäre es eigentlich sehr von Interesse zu wissen, wie sich denn Dual-GPU Karten in einem solchen Verbund schlagen. Statt drei Uni-GPU Karten vielleicht zwei Dual-GPU Karten? Theoretisch sollte die Kommunikation der GPUs besser zu gestalten sein, denn die Unwägbarkeiten der Steckverbindungen bzw. Arbiterlogik des PCIe Hostsystems entfielen theoretisch.
Das Fazit des Tests ist gut, auch wenn es für meinen Geschmack etwas zu "flach" ist. Es hätte ruhig etwas aggressiver den Unsinn unterstreichen können, drei Karten in einem Rechner zu verbauen! Ich kann kaum noch Worte für den Schwachsinn finden, sich drei Graphikkarten nur zum Spielen in den Rechner zu verbauen, die zusammen unter Last knapp 1kW Energie umsetzen. Gleichzeitig wählt man Grün, um so die Atomkraftwerke abzustellen und heult mit jedem vergifteten Seehund mit. Ein Glück wird diesem Schwachsinn mit der "Energiewende" zumindest auf vielen gebieten Einhalt geboten, indem die Energiepreise angehoben werden.
Mir ist immer noch nicht nähergebracht worden, warum Graphikkarten eine zusätzliche elektrische Verbindung zum SLI- oder CrossFire-Betrieb benötigen. PCIe 2.1 oder gar PCIe 3.0 sollten ausreichend geringe Latenzen aufweisen, um eine Synchronisation des Multi-GPU Betriebes zu ermöglichen.
Fein herausgearbeitet empfinde ich die Sache mit den Rucklern! Im Multi-GPU-Betrieb für den prof. Bereich sieht man einen Anstieg der Latenzen bei Verwendung mehrerer GPUs ebenfalls, nur fällt das hier weniger ins Gewicht, weil oftmals die Kernel, die auf den GPUs ausgeführt werden müssen, eben wegen hoher Latenzen keine Abhängigkeiten und somit Kommunikationen mit Kernel auf anderen GPUs haben (sollen). Bei Bildern, die verzahnt von einzelnen GPUs berechnet werden und synchronisiert werden müssen, zeigt sich das Problem dann doch deutlich.
Die verwendete Technik ist möglicherweise doch nicht so modern wie immer gerne von den PR-Halbgebildeten verkündet. Die in der Werbung proklamierten Übertragungsraten der PCIe 2.0 und 3.0 Systeme werden in der Regel gerade mal zu 40 - 50% ausgeschöpft - vielleicht ist mehr gar nicht möglich. Letzteres wäre ja nicht schlimm, schlimm ist, wenn ein paar Oberschlaue einfach ein paar Zahlen zusammenaddieren, ohne zu wissen, was das eigentlich bedeutet, was sie da addieren (so wie sechs mal L1-Caches zusammenaddieren ...).
In diesem Zusammenhang wäre es eigentlich sehr von Interesse zu wissen, wie sich denn Dual-GPU Karten in einem solchen Verbund schlagen. Statt drei Uni-GPU Karten vielleicht zwei Dual-GPU Karten? Theoretisch sollte die Kommunikation der GPUs besser zu gestalten sein, denn die Unwägbarkeiten der Steckverbindungen bzw. Arbiterlogik des PCIe Hostsystems entfielen theoretisch.
G
G-Power
Gast
@ Mumbira
Was du bist der meinung das ich das Ironisch gemeint habe. HÖHÖ sorry ich habe den keinsten von 6Cors (3930). Und betreibe hir 32GB Ram und die fülle ich auch zu 80% aus. Wenn schon so eine CPU in einem Sys werkelt dann muss die auch richtig abeiten können. Denk darann mit HT hast du 12 Kerne, wenn jeder dieser kerne nun eine Aufgabe bekommt die ca 2GB Ram brauch bist du mit deinen 8Giga aber mächtig am auslagern und BREMST die CPU aus. Dafür habe ich keine Zeit mir so ein speicherkrüppel anzutun.
@ Eisenfaust
mit den Dualkarten muss ich dir recht geben. wir haben mal ein Test gemacht mit 1x 295 und 2x 270er und alles lief zu dem zeitpunkt besser mit 1 Dualkarte als mit 2 einzelnen
Was du bist der meinung das ich das Ironisch gemeint habe. HÖHÖ sorry ich habe den keinsten von 6Cors (3930). Und betreibe hir 32GB Ram und die fülle ich auch zu 80% aus. Wenn schon so eine CPU in einem Sys werkelt dann muss die auch richtig abeiten können. Denk darann mit HT hast du 12 Kerne, wenn jeder dieser kerne nun eine Aufgabe bekommt die ca 2GB Ram brauch bist du mit deinen 8Giga aber mächtig am auslagern und BREMST die CPU aus. Dafür habe ich keine Zeit mir so ein speicherkrüppel anzutun.
@ Eisenfaust
mit den Dualkarten muss ich dir recht geben. wir haben mal ein Test gemacht mit 1x 295 und 2x 270er und alles lief zu dem zeitpunkt besser mit 1 Dualkarte als mit 2 einzelnen
Zuletzt bearbeitet:
CD
Rear Admiral
- Registriert
- Mai 2010
- Beiträge
- 5.733
Hier wird ein Spielerechner betrachtet. Und mehr als 8 GB RAM sind dort momentan einfach nicht notwendig - egal was für ne CPU. Kaum ein Spiel (und glaub keins der getesteten) wird auch nur annähernd 12 Threads belegen (eher maximal vier), geschweige denn zusammen mit Windows mehr als 8 gig Speicher zuknallen. Für den Testeinsatz geht das daher vollkommen in Ordnung. Für den Produktiveinsatz so vieler Kerne ist mehr Arbeitsspeicher sicher sinnvoll (und billig sowieso), aber für Spiele-only einfach nicht relevant.
P
PuscHELL76
Gast
Experte18 schrieb:
und dann zeigste mir nen test mit single karten?
im cb test steht doch sogar das die karte mit 2gb ins vram loch faellt bei metro2033 oder hab ich das getraeumt?
F
Fantom
Gast
ich mag CB schrieb:wie wäre ein test ohne sli oder cf nur mit den neuesten treibern und games? sowas ist für mich und die meisten anderen sinnlos
das würde mich auch interessieren
ich würde mir auch keine karte mit 2GB mehr kaufen, bin grad meine am verkaufen, und diese 192bit speicherinterface von nvidia erinnern mich an die 4800 reihe von AMD, alles schön treiber oder was auch immer optimiert aber kleine reale rechenleistung, war damals froh wieder eine Nvidia zu haben, dass Nvidia irgendwann so einen Schritt geht hätte ich nicht gedacht
das ergebnis bei single karten: gtx680 nur bei dragon age besser, max payne gleich, sonst die 7970 klar vorne
und dann noch mehr geld verlangen für weniger leistung und weniger speicher, da ist aber schulss bei mir mit NVIDIA-Fanboy sein
Zuletzt bearbeitet:
wohtan
Lt. Junior Grade
- Registriert
- Mai 2010
- Beiträge
- 393
ronrebell schrieb:Da bin ich voll und ganz deiner Meinung. Habe deine Vorschläge schon damals mit nem Mod diskutiert und ne klare Antwort bekommen, wortlautähnliches Zitat :
"Min fps sind zu vergessen, da nur Momentaufnahmen. Wir haben eh die Frameverlaufdiagramme."
Ich finds auch schade und muss mich halt hinsichtlich Benchmarkdiagrammen bei pcgh umsehen, die pflegen min fps seit jeher ein, mMn sicher nicht grundlos.
momentaufnahme ... was sind den 25s benchmark abschnitte auch net mehr. dann wäre wenigstens vram sache mal interessant. den ich kann mir bei manchen benchmarks klar denken das der vram bei nur 2gig volläuft denoch würde ich sowas eher gern selbst sehen.
ich mein das muss man für ihren benchmarkparcour auch nur 1 mal notierne ud brauch es bei zukünftigen sofern man nicht mit anderen auflösungen oder anderne extrem settings / mods spielt auch net neu nach messen.
naja was solls, wie so oft, selbst testen und selbst bewerten. schade eigentlich ...
F
frankpr
Gast
Man hätte auch noch mit den beiden am meisten verbreiteten Auflösungen 1920x1200 und Full HD testen können. Dann wäre vielleicht herausgekommen, daß da auch der Framelimiter durchaus Sinn hat. Denn dann kommt man bei den GTX 680 und einem Limit von z.B. 75 FPS auf einen absolut glatten Frameverlauf ohne Mikroruckler, erst recht, wenn man dazu auch noch den Turbo umgeht. Und dafür reichen sogar schon 2 Karten. Das Ganze zumindest unter Battlefield 3 @max. BQ.
Solche Tests gibt es genug und es wäre nicht das Thema dieses Artikels. Ist das so schwer zu begreifen?ich mag CB schrieb:wie wäre ein test ohne sli oder cf nur mit den neuesten treibern und games?