GTX 480 3 Way SLi CPU Limitierung möglich?

VRAM kannst du mit dem RivaTuner oder mit GPU-Z unter dem Reiter Sensors messen.
 
Bei Metro 2033 sind es 1159MB die benutzt werden
 
GPU-Z ist wirklich nicht schlecht,weil man es sogar so einstellen kann,dass es eine History über die GPU Auslastung und den V-RAM Verbrauch schreibt und man so ein haargenaues Diagram bekommt,wie sich die GPU Auslastung und der V-RAM Verbrauch zum Beispiel nach 1 Stunde Spielzeit bei einem Spiel entwickelt hat.

EVGA Precision ist auch ganz nett,zeigt alle wichtigen Daten einer NVidia GPU sogar auf einem Logitech G15/G19 Display oder über On Screen Display in Echtzeit an und funktioniert mit jeder Art von NVidia Grafikkarte,egal welcher Hersteller.

Danke für die Benchmarks.
Das mit STALKER Clear Sky passt schon so,lastet die GPU fast gleichstark aus,wie STALKER Call of Prypjat,wenn nicht sogar noch ein bisschen heftiger.
 
@ XFC

Recht schönen Dank.
Weißt du vielleicht noch die Auflösung und die zugeschaltete BQ?
 
Von seinen vorherigen Screenshot gehe ich davon aus, dass die Auflösung bei 1920*1080 geblieben ist und er 8*MSAA gewählt hat .
 
Danke.
Ich schau übrigens selten Bilder an, das macht mit ~10kb/s nicht allzu viel Spaß, man möge mir also verzeihen.^^
 
Ja 1080p 8xAA 16AF alles andere auf maximum :)

MFG XFC
 
Das maximum erziehlte ich mit dem Furmark 1.8.2. Es Betrug sich auf 1289 Watt
So jetzt noch ein bisschen OC und du knackst die 1500Watt, war ja klar das die Fermis ein 1200Watt NT killen. :D

Metro 2033 @ max DX11 8xAA 16AF

läuft ohne Probleme mit 40 bis 60fps (auch mit 3D Vision)
Übelst, anhand der Benchmarks behaupte ich mal Fermi hat ein perfektes Speichermanagement, anders sind diese Werte nicht zu erklären. Solche Werte hab ich bis jetzt noch nie gesehen, das schafft nur Thermi.
Bei Metro 2033 sind es 1159MB die benutzt werden
War klar deutlich über 1GB, das packen die 1GB Radeons einfach nicht...
 
ich finde das die Radeons als Single GPU in akutellen Spielen besser sind aber in zukünftigen Spielen glaube ich das nicht , Fermi ist meiner meinung nach auf die kommende 3D Technik ausgelegt und das nvidia die "Profi - Teile des GF100" mit dem GF104 entfernt hat find ich weniger gut, weil solche kleinen Helferlein könnten später vill mal noch genau da dass bischen leistung bringen wo mans braucht, einziger nachteil mit diesen "Teilen" ist das man halt mehr Strom braucht :) und den Begriff Thermi versteh ich nicht, Spieler, Gamer oder sonst wer brauchen mehr leistung jedes Jahr , und mehr leistung hat eben mehr verbrauch was ist also eign das Problem?
 
Das Problem ist die HD 5000, Leistung stark gesteigert, weniger Verbrauch als vorher, stell dir mal vor die HD 6000(ein paar Monate noch) macht genau so weiter -> NV kann einpacken ;)

Also nein, Leistung heißt nicht gleich Strom schleudern auf neuen Rekordwerten...

Und eine Asus Ares(2x HD 5870 2GB) ist ganz nah dran an einem GTX 480 SLI: http://www.pcgameshardware.de/aid,7...-500-Watt-Leistungsaufnahme/Grafikkarte/Test/

Lust auf Quad SLI? https://www.computerbase.de/2010-07/asus-mars-ii-eine-dual-geforce-gtx-480/
 
Zuletzt bearbeitet:
Gut deine Meinung :)

ich werde trotzdem immer bei nvidia bleiben, bin zwar kein Fan Boy aber seit der ATi X1K Serie halte ich mich fern, war mit zu Hitze anfällig wenn man das ganze in etwas Platz knappere Geräte einbaut und an der Takt schraube gedreht hat. Ich hab schon so viele PC's gebaut, der eine wollte Ati und die anderen Nvidia mich hats nie gekümmert.

Ich habe einen guten Vergleichsbegriff über die Jahre zwischen Nvidia und ATi (AMD) entwickelt.

Nvidia GPU's bzw. Karten sind wie dicke Cevrolet Camro, Doge Charger, Shelby GT500.... von 1969 mit fetten Big Block V8 Motoren die einfach nicht kaputt gehen und eben saufen wie Löcher

Während ATi's (AMD's) GPUs wie hochgezüchtete Ferrari Motoren wirken die beim kleinsten Problem in ihrer Umwelt schnell mal bockig werden und vielleicht effizenter mit ihren Verbrauchsmittel umgehen.

also aus meiner Sicht ist es Ansichtssache und geht auf die persönliche Einstellung zurück was man nimmt, was man liebt und von was man träumt. Es wird immer Leute geben die die andere Seite hassen und dem untergang weihen.

Ich werde bei diesen Kreig nie mitmischen ;)
 
ich werde trotzdem immer bei nvidia bleiben, bin zwar kein Fan Boy

kannst Du für mich mal definieren, was einen Fanboy ausmacht, wenn nicht so ein Gerede?

Nein, ATI hat schon mit dem Referenz-Desing eine Klasse Serie mit der 5xxx hingelegt. Die Verkäufe sprechen da auch eine klare Sprache.

Ich warte auch auf die 6xxx Serie und hoffe auf einen ebensolchen Wurf wie bei der 5xxx Serie. Allerdings, wenn das nicht klappen sollte, bin ich mir auch nicht zu fein den Wettbewerb anzuschauen. Allerdings kommt in meinen Rechner keinesfalls eine Karte, die soviel Energie zieht wie die GTX470 / 480.

Back to Topic, auch wenn ich es mir nie installieren würde, immer interessant solche Extrem-System zu sehen - weiter so!
 
Kasmopaya schrieb:
Das Problem ist die HD 5000, Leistung stark gesteigert, weniger Verbrauch als vorher, stell dir mal vor die HD 6000(ein paar Monate noch) macht genau so weiter -> NV kann einpacken ;)

Also nein, Leistung heißt nicht gleich Strom schleudern auf neuen Rekordwerten...

Zitat 3D Center :

Zudem sollen die zusätzlichen Hardware-Einheiten von Southern Islands für eine bessere Tesselations-Leistung draufgehen – unter Umständen ist das reguläre Performanceplus von Southern Islands somit deutlich kleiner als manche sich vielleicht erhoffen. Erst bei der nachfolgenden Northern-Islands-Generation ist wieder mit einem deutlichen Leistungsschub zu rechnen, da diese dann schon in der 28nm-Fertigung hergestellt werden soll. Zur Southern-Islands-Generation kommt nun seitens HardOCP aus einem Interview mit einem HIS-Mitarbeiter die Information, daß die Southern-Islands-Generation nicht mehr im Herbst 2010 zu erwarten ist, sondern erst zum Jahresanfang 2011 kaufbar sein dürfte.

Kommentiert sich selbst !

Zu Netzteil:

Wenn man sieht das das Gespann jetzt schon bei 82% Lüfter inGame ist, braucht man wohl nicht mehr von Übertakten sprechen. Auch Furmark muß man dann nicht mehr Spielen.

Hätte also ein gutes 1200er NT gereicht. Aber bei den Ambitionen des TE kann 1500 ja auch nicht schaden :D .

P.s: Congratulations zum grundsätzlichem Lauferfolg

Mfg Pumpi
 
Hammer Werte, ein Freund von mir arbeitet selber im Hardwareverkauf, verdient dabei recht gut und kann sich in der Hinsicht auch "spielen"

Er hatte zuletzt zwar "nur" 2 480 GTX im SLI, allerdings dafür mit einem Core-i7-980X

Die Lautstärke war unterträglich meiner Meinung nach, das stört doch übelst beim spielen... mag sein, Performance ist zwar unerreicht allerdings ist der nach einem Tag wieder auf 2x HD5870 2GB umgestiegen, die zwar weniger, aber dafür immernoch mehr als ausreichend Leistung bei deutlich geringerer Lautstärke und Stromverbrauch bringen

Will nicht wissen wie laut es erst wird wenn man 3 Thermis verbaut hat und die 90° Grad kann ich kaum glauben, da seine schonmal 110° warm wurden
 
das mit den über 90 grad kann ich dir nicht bestätigen, sie habem immer 90°c außer Furmark aber das ist glaub ich klar, aber sonst egal was immer 90°c es variert nur der Lüfter
 
SI wird ja auf max. Performance per Watt ausgelegt, genau der richtige Weg wenn ihr mich fragt. Leistung ist nicht alles, sollten sie es schaffen die Performance per Watt noch weiter zu steigern werden das erst recht die besten Karten aufm Markt. Auch wenn Fermi 5 FPS schneller sein sollte mit der GTX 485 die dann 350Watt braucht.

Wenn alles glatt läuft wird es eine HD 6870 2GB. 28nm ist noch zu weit weg, bis der richtig läuft dauert es noch Jahre...

Ich habe einen guten Vergleichsbegriff über die Jahre zwischen Nvidia und ATi (AMD) entwickelt.

Nvidia GPU's bzw. Karten sind wie dicke Cevrolet Camro, Doge Charger, Shelby GT500.... von 1969 mit fetten Big Block V8 Motoren die einfach nicht kaputt gehen und eben saufen wie Löcher

Während ATi's (AMD's) GPUs wie hochgezüchtete Ferrari Motoren wirken die beim kleinsten Problem in ihrer Umwelt schnell mal bockig werden und vielleicht effizenter mit ihren Verbrauchsmittel umgehen.
Oder wie die Chevrolet Impala ;)

So einfach kannst du dir das nicht machen, das ändert sich von Generation zu Generation. Mal ist ATI schneller(Radeon X19xx) mal sterben NV Karten am laufenden Band(GF8M), mal ist NV schneller und sparsamer (GF 8 GTX) mal ist ATI schneller und sparsamer (Radeon 5000)

Zumal der Vergleich mit Ferrari hinkt, aktuell sind die ATIs eher Porsches, die elegant mit wenig Verbrauch mehr erzielen, bzw. fast so viel wie die Konkurrenz und daher alltagstauglicher sind. Ein Ferrari säuft wie ein Loch, jeder Benz/Audi/BMW ist da meilenweit besser.
 
Zuletzt bearbeitet:
Da es keine fragen mehr gibt und wir hier nur mehr von Thema abschweifen finde ich das wir den thread jetz closen können, ich bedanke mich für das intresse und die Hilfestellungen.

MFG XFC

*closed*
 
Zurück
Oben