News HD 5970: Grafikmonster mit viel Luft nach oben?

MisaMisa schrieb:
die Karte ist sinnlos man kann sie doch schon jetzt zusammen bauen Quad Crosfire und SLI funktionieren sowieso nicht vor allem Crossfire. Ich würde auf 3 Way SLI gehen.

Vorallem weil duzende Tests belegt haben, dass Crossfire weit besser skaliert als SLI... warum hat wohl Nvidia das GPU-PhysX so stark gepushed, damit die ganzen Multi-GPU-Systeme überhaupt nen Sinn haben...
 
knuF schrieb:
Hätte da ne Verständniss-Frage:
Wenn die Karte unter Last 294 von maximal 300 Watt verbraucht, wie soll man die Karte dann gescheit übertakten können ohne das der Stromverbrauch ansteigen würde? Höher als 300 watt geht doch nicht, gell?

Klar gehts höher ... es würde so hoch gehn bis dein NT überlastet ist

Der 6Pin und 8Pin können bis 225W geben zusammen , aber die kabel können viel mehr als 12,5A transportieren.

Da teils die Schienen bis 40 oder mehr A gehn.

MFG
 
Wenn man statt des 6-Pin-Steckers noch einen 8-Pin-Stecker verbaut hätte, könnte man die Grenze auf 375 Watt hochstufen – dafür gibt es jedoch keine offizielle Zulassung.
Mal ne Frage dazu. Wer oder was legt diese Spezifikationen fest bzw. würde AMD sanktionieren, falls sie dagegen verstoßen?
 
es geht weniger um sanktionierung sondern darum, dass das borard oder andere komponente nicht abfackeln, wenn sie zu viel strom ziehn. die dünnen leiterbahnen sind nicht für solche stromsträrken ausgelegt.
wenn ein dau ein board für 35,- €, ein netzteil für 18,- € und eine 300 watt graka kauft, kann man sich das ergebnis ja vorstellen ;)
an der stelle erinnere ich noch mal an den phenom 1 mit ner tdp von 125 watt. da sind auch boards reihenweise in rauch aufgegangen, weil sie die belastung nicht verkraftet haben. dafür werden eben spezifikationen festgelengt.
 
Exar_Kun schrieb:
Mal ne Frage dazu. Wer oder was legt diese Spezifikationen fest bzw. würde AMD sanktionieren, falls sie dagegen verstoßen?

Wäre mir auch neu oder hat wer was gelesen das Asus wegen der 475Watt @ furmark (mit 2 8PIN) was zahlen musste dmit die auf den markt kommen darf ?

Also ich nicht

MFG
 
Das kommende Crysis hat wesentlich niedrigere Anforderungen. Ist für Konsolen optimiert und kann für den PC vielleicht etwas nach oben geschraubt werden. Also 40fps werden auf jedenfall in jeder normalen (EF auser vor gelassen) Auflösung erreicht werden.

Natürlich wird es Spiele die nächsten 2 Jahre geben die die Graka unter 40fps zwingt, vor allem wenn die CPU limiert. Aber man gewöhnt sich an alles! :D

Was mich eher stört das NVidia es verbockt und deswegen die Preise so weit oben sind :( Ich denke nicht das vor Mai 2010 etwas kommt und das ist zum kotzen. Nicht das mir ne Nvidia wieder kaufen würde... hab die letzte 3 Jahre nun genug von Anzeigetreiberfehler usw..
 
digitalangel18 schrieb:
Jede neue Kartengeneration arbeitet (teils deutlich) effizienter als die voran gegangene. Denn es wird mit der gleichen Menge Strom erheblich mehr Rechenarbeit geleistet ;)

Bisher ist jedes Mal der Verbrauch der Nachfolger gestiegen. Also nichts mit gleicher Menge Strom. Und selbst wenn es jetzt so wäre: Wenn man schon über 250W raushaut, dann ist man bereits zu hoch, da nützt es wenig, wenn man das Niveau hält, es muss wieder runter.

Klar steigt die Effizienz, aber noch besser wäre eine reine Effizienzsteigerung ohne eine Erhöhung des absoluten Verbrauchs. Und außerdem eine Senkung auf maximal 200W für eine Karte. Das ist mMn noch eine vertretbare Basis.

Bei den Autos haben mittlerweile selbst die Amis angefangen auf Diesel bzw. Spirtsparende Fahrzeuge zu setzen, was ja einiges heißen will. Bei den Grakas und z.T. auch den CPUs kommt man von den Maximalwerten einfach nicht weg.

Das liegt aber zum großen Teil auch an den Kunden, bei denen für die meisten das einzige Problem mit Energie darin besteht, die Rechnung dafür zu zahlen.
 
Creeed schrieb:
Das Problem in diesem Moment ist aber das sich ATI außerhalb jeglicher Spezifikation bewegt.

Sie bewegen sich doch genau innerhalb der Spezifikationen. Deswegen wurde doch extra der Takt gesenkt.

Wobei ca. 350W sicherlich auch überhaupt kein Problem sind für die NTs der Rechner wo diese Art Graka rein soll.

Moep89 schrieb:
Bisher ist jedes Mal der Verbrauch der Nachfolger gestiegen. Also nichts mit gleicher Menge Strom.

Wie schon gesagt, der Maximalverbrauch ist fast gleich geblieben, und der wichtigere Idle Verbrauch wurde deutlich gesenkt (ATI). Also so pauschal kann man das nicht sagen.
 
Zuletzt bearbeitet:
Das abführen ist ja noch garnicht unbedingt das Problem, nur klingt es dann halt wie im Serverraum wenn man versucht 400Watt Wärmeenergie in 2-Slot Bauweise wegzupusten :freak::D
 
An sich wird die Karte sicher interessant, wobei die ganzen Crossfire und SLI Probleme immer noch nicht restlos aus der Welt sind, aber fast 300W max. find ich schon sehr heftig.
Wie soll das bei der nächsten Generation aussehen?
 
Ball_Lightning schrieb:
Glaube nicht, dass das ATI gefällt, jedenfalls noch nicht. Klar sie werben zwar mit OC aber aber ob sie gleich 2x8 zulassen...?
Warum nicht? Besser ich packe mehr Stecker drauf als spezifiziert, als dass ich einzelne Stecker weit über die Spezifikation hinaus betreibe.
Kann AMD eigentlich vollkomen egal sein, was da verbaut wird. Schaden tut es ja nicht.

Exar_Kun schrieb:
Wer oder was legt diese Spezifikationen fest bzw. würde AMD sanktionieren, falls sie dagegen verstoßen?
Die PCI-Sig legt die PCI und PCIe Spezifikationen fest. Aber sanktioniert wird da wohl keiner. Es ist ja kein Gesetz sondern viel mehr eine Richtlinie.

Nvidia hat ja auch ne 8800gtx mit 2x 6pin PCIe-Stecker gebracht. War in PCIe 1.1 auch nicht spezifiziert.
 
F-Hörnchen schrieb:
@hübie
Wenn ich maximale Leistung will bin ich auch bereit dafür eine entsprechende Stromrechnung zu zahlen. Allerdings solle der idle Verbraucht immernoch niedrig bleiben. Solange das gegeben ist wäre mir der Verbrauch im 3D fast egal da der Rechner ja sowieso die meiste Zeit im Windows verbringt.

Naja aber 42W sind schon ziemlich wenig. Das liegt wohl an den 3 Monitoranschlüssen und der Tatsache, dass die zweite GPU nicht abgeschaltet bzw. in C1E-Modus versetzt werden kann.

dorndi schrieb:
Die Dummheit hat gesprochen. :(

Warum willst du eine Dual GPU Karte aus 4 GPUs zusammenbauen?
SLI und Crossfire funktioniert.
3 Way SLI mit 285GTX hätte wahrscheinlich bei hohen Settings eine ähnliche Leistung, würde aber VIEL mehr kosten und mehr Strom verbrauchen.
Warum schlägst du ein Crossfire und ein SLI Gespann vor, wenn es gar nicht funktioniert.



mfg

:lol: Dem stimme ich zu. Manch glaube etwas zu wissen, dass sie garnicht wissen.

bye Hübie
 
Bin ebenfalls sehr auf den Test gespannt. Besonders auf die Kuehlleistung, wenn man dann noch viel uebertakten kann, muss die ja besonders gut sein.
 
Sollten die nicht erstma versuchen die Engpässe der Ein-GPU-Karten in den Griff zu bekommen??
 
Zurück
Oben