Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
genau ... positiv auf die Leistung würde sich eher ein zusätzlicher Slot-Lüfter auswirken so kommt es auch im Sommer nicht zum Throtteln. (komisches Wort)
Tschulligung, aber weiß man inzwischen eigentlich warum der vierte SM deaktiviert wurde? Stromverbrauch? Chipdesignmurks?
Ergänzung ()
Wenn ich mir Stromverbrauch/Heizleistung der 480 so anschaue kommen mir die Fragen wieder in den Sinn, die ich mir beim Kauf meiner 5970 gestellt hatte. Da wurde die Taktrate ja schon wegen des Stromverbrauchs generft bzw. mit Rücksicht auf die Spezifikationen der Netzteile (wenn ich die Karte demnächst übertakte werde ich erstmal feststellen dürfen, ob mein NT genügend Ampere auf die Schiene bekommt).
Außerdem wurde in manchen Tests der 5970 spekuliert, ob eventuell schon PCIe 2.0 limitiert wegen mangelnder Bandbreite. Von limitierenden CPUs mal ganz abgesehen.
Und für Luftkühler und auch viele Gehäuse wird's langsam eng, jedenfalls ist der Lärm schon echt lästig - die 480 will ich allerdings mal als Unfall werten. Viel Spielraum nach oben wird es da ohne Wasser konstruktiv nicht mehr geben. Oder ohne 3-Slot-Kühler.
Ich habe das Gefühl, mit der nächsten, spätestens übernächsten GPU-Generation werden wir in der Peripherie an einige Grenzen stoßen. Wer noch keins hat wird ein Netzteil mit 12V-Schienen > 50A und einem Haufen 8-poliger Stecker brauchen. Es wird dann wohl auch Zeit für ein PCIe 3.0 Mainboard incl. neuster CPU. Und Double-GPU-Karten werden ihren Sinn verlieren wenn schon die Singles sämtliche Grenzen ausschöpfen (was allerdings ganz gut wäre).
Grade auch das Übertakten der Karten wird besondere Anforderungen stellen, da kann man dann nicht mehr mal eben unter Luft und mit 08/15-PSU 100MHz extra rauskitzeln...
Also mich würde auch brennend interessieren ob ne 5870 oder 480GTX auf PCI-e 2.0 8x ausgebremmst wird, bzw. wie stark die Differenz ist. Glaub noch nicht dran dass der Unterschied so groß sein wird.
Warum denn? Es wird doch machbar sein, dass man auf einem bis auf die Karten gleichen System jeweils den selben Abschnitt filmt und das Ganze dann nebeneinander (nVidia links, ATi rechts) arrangiert. Wäre dem Vergleich sicher sehr zuträglich. (Wenn ich jetzt richtig verstanden habe, was mit "direktem Vergleichsvideo" gemeint war).
Du sieht es auf deiner kommenden PCGH ja eh. Und wenn mir langweilig ist [was mir dieses WE nicht ist, weil ich was andres zu tun habe], gibt's auch das GF-Video.
also nach den letzen jeweiligen Patches skalieren die "freie Welt" Games (Anno 1404, GTA IV, ArmaII) eigentlich ziemlich gut mit 4 Kernen. Davor hatten ja viele das Problem mit mehr als 2 Kernen. Bei Arma2 kann man das noch mit der Verknüpfung nachhelfen. (-cpuCount=4) oder evntl 8 beim nehalem, wenn man im bios die virtuellen angelassen hat.
Deshalb verstehe ich erst recht net, wieso die Benchmarks noch mit solchen Titeln, wie Left4Dead , HL2, UT200x oder COD4/6 gemacht werden. Ist doch ziemlich wurscht ob man 150 oder 180 Fps hat. Da maximalen Einstellungen bei 1920 mit 8x AA/AF die Graka nicht mehr ausreizen.
Und Prob ist auch noch, dass die Meisten die unoptimierten und veralteten Demos verwenden. Die entsprechend mit neuer Hardware ihre Problemme haben. Deshlab sind die Benchmarks auf den Seiten so extrem abweichend.
Da GPU-PhysX kein offener Standard ist und wohl auch in Zukunft nicht in vielen hochwertigen Spielen eingesetzt wird, haben wir uns dazu entschlossen, diesen Test nicht in das Gesamtrating mit einfließen zu lassen.
Rein auf die Geforces gemünzt, zeigt BAA die GPU-PhysX-Leistung. Und das ist nicht unspannend - die Radeons könnte man da aber auch gleich weglassen, bedingt durch CPU-PhysX hat deren Fps-Wert ohnehin keine praktische Aussage.
Nun ja, solange das ganze ausser Wertung läuft, ist dagegen eigentlich nicht viel zu sagen. Dennoch ein weiterer Grund für einen offenen und gemeinsamen Physik Standard.
Seit dem neuen Testsystem habe ich diesen BatmanTest mit ATI u PhysX hinterfragt, angeprangert und und.
CB hat gute Gründe diesen Test so Nvidia supertoll zu machen. Denn es gab null komma nix Reaktionen warum ATI`s da mit "getestet" sind
Das die Werte nicht im Rating enthalten sind, ist total Alibi lächerlich! Die Balken sagen ATI kann das nicht nur darum geht es.
Wer sich die Mühe macht wird schon einige Kommentare hier auf CB finden, von Usern die echt glauben Batman kann man mit ATI nicht spielen.
Genug mit CB in Schutz nehmen, Benchmarks gehen nach Balken u sind in dieser Form einfach entwede von Nvidia gekauft oder der Tester hat bei jeder ATI Karte das unheimliche Verlangen nach 21fps damit die Balken der Nvidia noch länger sind. Verstehe diesen Blödsinn absolut nicht, da mir die Tests hier insgesammt nicht parteilich rüberkommen.
Habe nun seit am 16.4 eine Zotac Geforce 480 GTX und muss sagen dass ich restlos von dieser Karte überzeugt bin, im vergleich zu meiner alten 5970 kann ich endlich alle Games ohne Kompromisse (PhysX) auf Max Gamen und das mit ner Singel GPU. Es ist immer besser eine Singel GPU Karte als eine Dual mit vergleichbarer Power, sobald dass ich mit der 5970 mal unter 40FPS hatte spürte ich die Microruckeler enorm. Ganz abgesehen davon dass in der Zukunft DirectX11 immer mehr kommen wird und erst da die 480Gtx ihr wahres Potenzial entfalten kann wie z.B in Metro 2033 (Im vergleich zuner 5870 30-70% schneller)und dass mit "noch unausgereiften Treibern".
Immer wieder wird geschrieben dass die 480 aufgrund ihrer ansonnst schon hochen Temps kein übertaktungspotenzial hatt.Ich konnte sie locker von core 700 shader 1400 mem 924 auf
core 850 mem 1100 shader 1700 übertakten und dass mit Standart-Kühlung.(und bei Nvidia Karten sind z.B 150Mhz mehr Core wessentlich effizienter weil der Shader dann effektiv mit 300Mhz mehr läuft)
Mein Fazit die Atis sind bis DX10 brauchbar, die Nvida Karten aber auch für DX11 also eindeutig die langfristig geshen bessere Karte.