News Alle Details zu ATis Radeon 5000er Serie

MEDIC-on-DUTY schrieb:
Schon lustig, wenn man bedenkt das man einen 60hz TFT vor der Nase hat, dazu evtl. auch noch Vsync aktiviert ist und die max. Auflösung bei der Mehrheit wohl bei 1280*1024 liegt.

Aber immer her mit der rohen Grafikgewalt ;)

Von dir und deinem Monitor aus darfst du und kannst du auch nicht auf die Allgemeinheit schließen ;)
 
deshalb ja auch die alternative einfach den catalyst 9.7 zu nutzen.

verdammt nochmal wenn schon quoten dann richtig!

und dann bitte statistiken zu den treiber fehlern bitte.
ansonten sind so aussagen nonsense und nichtssagend :freak:
 
Glaubt ihr, dass die HD 5870 (oder später 5890) von 2 GB VRam proftieren würde? Wir reden hier schliesslich von ca. 20% mehr Leistung, gegenüber einer X2 4870. Und das mit den ersten Treibern! Mit Optimierung und dank DX11 dürften sogar mehr als 50% möglich sein.
 
y33H@ schrieb:
Tendenziell bei ATi leider aber mehr.

Kann ich so nicht bestätigen hatte mal ein 7950 SLI gespann da hatte ich mehr ptobleme als mit Crossfire.
 
Zuletzt bearbeitet:
und mit dem alten Treiber habe ich dann "neue" bzw. alte Probleme bei anderen Spielen.
Wie gesagt ich möchte nichts schlecht reden aber die Treibersituation ist noch nicht besser geworden. Wenn man dann noch ne 5870X2 vermutlich das Mörderteil schlechthin hat und die Treiber nicht funktionieren, dann gute Nacht und viel Spaß damit.

Edit:

Sofern es denn der Tatsache entspricht, stellt sich noch die Frage für die Ursache; ATi oder It's Meant to be played.

kann mir persönlich egal sein, ich denke, dass es Unvermögen ist. Kein Spielehersteller möchte, dass die eigenen Spiele nicht laufen.
 
Zuletzt bearbeitet:
treiber und DX11 vorteile wirds aber bei NV auch geben und deshalb wird sich das relativieren. natürlich könnte man durch die 2-3 monate die ati dann mehr zeit hat noch ein paar % aus den karten rausdrücken bis dann der g300 kommt.
 
So Leute, jetzt wirds heiß

5870 X2 TDP: 376W


Also genau das doppelte der 5870.
Die 4870 X2 war mit 286W angegeben.

So langsam kann man da sein 750W Netzteil auspacken


:king:

(Wieviele Stromstecker soll man da noch gleich anschließen?) :eek::freak::evillol:

Wobei man die 4870 X2 auch in diesen Bereich bringen kann.
 
Zuletzt bearbeitet:
Bei FUD News wirds einem meistens heß. :evillol:
Das wird sich zeigen kann mir nicht vorstellen das es bei der 5 er X2 anders sein soll als bei der 4870X2
 
vinacis_vivids schrieb:
Von dir und deinem Monitor aus darfst du und kannst du auch nicht auf die Allgemeinheit schließen ;)

Habe ich auch nicht, denn sonst hätte dort 26" 1920x1200 stehen müssen :cool_alt:


@Energieverbrauch

Wer glaubt, dass eine verbesserte Energieeffizienz zu weniger Stromverbrauch führt, ist leider auf dem Holzweg. Jede technische Entwicklung zur Effizienzsteigerung führte in Summe nur zu einem höheren Verbrauch.
 
Zuletzt bearbeitet von einem Moderator:
@ Motkachler

Nun, ich hab tagtäglich Geforces wie Radeons im Rechner - ich hab da n bissl mehr Erfahrung wohl ;)
ATi oder It's Meant to be played.
Generelle Treiber-Probs wie spackendes CCC hat nicht mit TWIMTBP zu tun. Und wenn das Spiel spinnt - mir als Endkunde ist egal warum, es nervt einfach und hat nicht zu sein.
 
KAOZNAKE schrieb:
So Leute, jetzt wirds heiß

5870 X2 TDP: 376W


Also genau das doppelte der 5870.
Die 4870 X2 war mit 286W angegeben.

So langsam kann man da sein 750W Netzteil auspacken


:king:

(Wieviele Stromstecker soll man da noch gleich anschließen?) :eek::freak::evillol:

Wobei man die 4870 X2 auch in diesen Bereich bringen kann.



das ist doch ein quatsch was sich da verbreitet :freak:
 
cube83 schrieb:
Wie oft muessen wir die Benches noch sehen:lol:

Das kommt halt davon, dass die Leute sich nicht alles durchlesen.
 
Zuletzt bearbeitet:
gecan schrieb:
das ist doch ein quatsch was sich da verbreitet :freak:

Siehe meinen Link zur 4870 X2, die schafft das auch. AMD scheint wohl die TDP jetzt dem Furmark anzupassen.

Das hieße für die 5870 wohl 20% weniger durchschnittlich im "Real-Life", also so ca. 150W.

Bei der 4870 X2 ist der Unterschied sogar noch größer, da saugt der Furmark 40% mehr aus der Dose als das in der Beziehung anspruchsvolle Bioshock.

Dann sind wir ca. bei 230W im "Real-Life" für die 5870 X2. (40% Abzug von der TDP)

Das ist ja ohne weiteres kühlbar, aber fast 400W (denn die muss der Kühler ja schaffen wegen der TDP), das brauch schon nen 3-Slot-Kühler.
 
Ich verstehe nicht wieviele hier die Karten in den Himmel loben! Ich finde den Verbrauch viel zu Hoch!
 
Quatsch, als ob das ATi Infos wären. Da multipliziert Fuad die TDP der 5870 mit 2 und macht daraus ne News.
Im Furmark mag vielleicht ne X2 genau das doppelte verbrauchen, in der Realität definitiv nicht. Die Auslastung ist da einfach geringer.
Und wer sagt dass ATI nichts ändert? Niedrigerer Takt + Spannung und schon ist man unter 300W.

@Bumbelbee
Wie hoch ist denn der Verbrauch? Konnte noch nirgends nen Test dazu lesen.
 
Ich habe jetzt nicht alle 600 Kommentare gelesen, aber ich psote mal paar Bilder mit Benches:

Radeon_HD_5870_benchmark_02.jpg


Radeon_HD_5870_benchmark_03.jpg
 
KAOZNAKE schrieb:
Siehe meinen Link zur 4870 X2, die schafft das auch. AMD scheint wohl die TDP jetzt dem Furmark anzupassen.

Das hieße für die 5870 wohl 20% weniger durchschnittlich im "Real-Life", also so ca. 150W.

Bei der 4870 X2 ist der Unterschied sogar noch größer, da saugt der Furmark 40% mehr aus der Dose als das in der Beziehung anspruchsvolle Bioshock.

Dann sind wir ca. bei 230W im "Real-Life" für die 5870 X2. (40% Abzug von der TDP)

Das ist ja ohne weiteres kühlbar, aber fast 400W (denn die muss der Kühler ja schaffen wegen der TDP), das brauch schon nen 3-Slot-Kühler.


das ist wieder eine andere geschichte ;)

fakt ist das HD5870X2 ca 25W mehr als HD4870X2 verbrauchen wird ;)
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben