News GeForce GTX 580 auf 197 Prozent Chiptakt getrieben

directNix schrieb:
Ist es tatsächlich so, dass die Grafikkarte bei LN2 einen höheren Energiebedarf hat? Soweit ich weiss, reagiert die Fermi-Architektur sehr positiv auf tiefe temperaturen.
Nein. Das ist Halbleitereigen, dass die Leistungsaufnahme sinkt.
 
directNix schrieb:
Ist es tatsächlich so, dass die Grafikkarte bei LN2 einen höheren Energiebedarf hat? Soweit ich weiss, reagiert die Fermi-Architektur sehr positiv auf tiefe temperaturen.

Bei sinkender Temperatur sinkt die Leistungsaufnahme von Halbleitern. ;)
Fermi GPUs werden beim Einsatz eines guten Luftkühlers gegenüber dem Referenzdesign um mehr als 10W sparsamer (habe keine konkreten Werte zur Hand).

mfg dorndi
 
Wie haben die es nur geschaft,an diese spezielle Bios Version zu kommen,welche die automatische Leistungsaufnahmesperre der Grafikkarte umgeht,welche ab 300 Watt Verbrauch automatisch die Grafikkarte drosselt ?

Die müssten das spezielle Bios wirklich mal kostenlos für die Öffendlichkeit zum download freigeben,dass auch jeder normale Enthusiast,ohne solche speziellen Mittel seine GTX 580 flashen kann,um diese lästige Leistungsaufnahmebegrenzung dauerhaft zu umgehen und die Grafikkarte endlich mal ordendlich übertakten zu können,ohne das diese bei voller Leistung bei einer Übertaktung zu drosseln beginnt.

Das ist für mich der einzige Grund,warum ich meine übertaktete GTX 480 weiter behalten möchte und keine GTX 580 haben will,weil es für mich ein absolutes NoGo ist,dass sich die GTX 580 nicht wirklich übertakten lässt,wegen dieser unnützigen verdammten Leistungsaufnahmesperre.

Wenn da mal Besserung in Sicht ist und man diese Sperre dauerhaft umgehen kann mit einem einfachen Bios Flash,wäre die GTX 580 für mich wirklich interessant.
Aber was solls.

Die GTX 480 ist ja auch nicht von schlechten Eltern,ist nur minimal langsamer und bei ausreichend hoher Übertaktung einer GTX 580 ebenbürtig.
Nur halt ein bisschen heißer und lauter,was mich aber nicht stört,da ich nur mit voll aufgedrehten,ohrumschließenden Headset zocke.
 
Zuletzt bearbeitet:
Thomson1981 schrieb:
Wie haben die es nur geschaft,an diese spezielle Bios Version zu kommen,welche die automatische Leistungsaufnahmesperre der Grafikkarte umgeht,welche ab 300 Watt Verbrauch automatisch die Grafikkarte drosselt ?

Die müssten das spezielle Bios wirklich mal kostenlos für die Öffendlichkeit zum download freigeben,dass auch jeder normale Enthusiast,ohne solche speziellen Mittel seine GTX 580 flashen kann,um diese lästige Leistungsaufnahmebegrenzung dauerhaft zu umgehen und die Grafikkarte endlich mal ordendlich übertakten zu können,ohne das diese bei voller Leistung bei einer Übertaktung zu drosseln beginnt.

Nicht nur die GTX 580 hat ein spezielles Bios. Auch das Mainboard hat eins. :evillol:
Aber diese speziellen Bios für das M4E kann man bei ASUS erfragen bzw. auf der ROG Seite Downloaden.
http://www.asusrog.com/forums/forum.php

Hier das 0089 für das M4E, was auch hier beim Test genommen wurde.
 
Für jetzt ist das natürlich ein beeindruckendes Ergebnis, aber in zwei Jahren wird fast jeder Hardcore-Gamer eine schnellere Karte besitzen :D
Mehr Sinn, als Rekorde zu brechen, haben solche Übertaktungen echt nicht. Völlig übertrieben, wenn auch beeindruckend. Ich hoffe, dass dieser Leistungswahn mal ein Ende nimmt und solche Karten mal lieber in Richtung Performance pro Watt optimiert werden. Ein schöner Undervolting- oder Silent-Rekord bei Referenztakt wäre in meinen Augen auch mal interessant!
 
gibt es den imemr noch keine möglichkeit power tune auszuschalten um sowas mit einer 6970 zu erreichen?

1350 hat ja meine 5850 unter lukü mitgemacht ( zumindest kurzfrisitg bis es dann doch zu heiss wurde ^^ )
 
Ich hatte damals auf ner X300 SE gleichfalls brachiale knapp über 1000 Punkte im 03er XD

+97 % dürfte wohl so ziemlich einmalig sein im GPU-Bereich, überragende Leistung 0.0
 
Für den nicht einmal 1,3% höheren Takt der Asus Grakas braucht man sicher keine speziell selektierten Chips,
was sollte Asus auch mit den restlichen Chips anstellen nach dem es keine Asus GTX 580 mit Standardtakt gibt, wegschmeißen?

Sicher nicht! Alles bloß Marketinggeschwätz!

Edit: Ok, ich sehe gerade, beide Asus Varianten haben den gleichen Takt (782 MHz),
wozu dann der monströse Kühler ohne mehr MHz, um dem Kunden nicht das Overclocking abzunehmen?
 
Zuletzt bearbeitet:
wieviel ist etwa mit der standard kühllösung von ASUS drin?

aber krank ist es schon.
 
irgendwie finde ich es langsam echt merkwürdig, dass in jedem artikel hervorgehoben wird, dass "sogar" auch die shader angehoben wurden.
der shader-takt ist mittlerweile fest an den core-takt gekoppelt. es geht also nicht, den core-takt anzuheben und den shader-takt in ruhe zu lassen.
warum also diesen umstand nicht mal klarstellen, anstatt bei unwissenden für verwirrung zu sorgen??!
 
coool,

aber die wollten ja glaub ich auch mal in Metro 2033 testen - wahrscheindlich ist da die Graka abgeraucht...
 
miagi schrieb:
geschlossener stickstoffkreislauf ? das wird nie passieren... ich koennte jetzt ein 500-1000 worte text hinknallen wieso das total abwegig ist aber dazu hab ich einfach mal keine lust.

Wenn wir den finanziellen Aspekt aussen vor lassen, passiert das bereits seit 2008 in einer gigantischen Anwendung - nämlich im Large Hydron Collider des CERN. Würde mir an deiner Stelle also zweimal überlegen, ob sich ein 500-1000 Worte Text lohnt oder nicht ;)

Cya, Mäxl
 
holy sh*t
so einen Run mit LN2 auf ner Graka hab ich ja noch nie gesehn:freak:
Bisher kannte ich solche Versuche immer nur aus dem CPU-OC

Das ist aber echt mal ne dicke Hausnummer.

Die solln das mal mit einer GTX 560 versuchen, die soll doch so gut Übertaktbar sein :)
3DMark Ergebnis egal, die Prozentzahl, um wieviel % die Taktraten gesteigert wurden wäre interessant.

Die CPU-Z ROG Version gibts ja schon seit gestern zu Downloaden...


@ CB oder Wofgang:
Macht doch mal diesen Test mit der 560 Ti und LN2 nach :D
 
Ziemlich cool, sowas will ich gegen Ende des Jahres kaufen können, mit Luftkühlung ^^
 
Zurück
Oben