News Radeon HD 3870 X2 auf 28. Januar verschoben

Die Seite übertreibt bestimmt ein bisschen, 25% wären einfach Wahnsinn. :eek: Realistischer sind eher 10-15% max, aber Pflicht ist die Schnittstelle auf jeden Fall. Da läuft immerhin 2x 3870 bzw. 2x8800GTS drüber und 1 Karte ist übertaktet so schnell wie eine GTX!(nicht das ich damit sagen will, das die GF 9 X2 doppelt so schnell wird wie die GTX :rolleyes:)

Den Stromverbrauch von CF 3870 und der X2 zu vergleichen, macht nicht 100% Sinn. Bei der X2 muss ja nur 1 Spannungswandler ran und hat demnach auch von Haus aus weniger Verlustleistung, der 2. PCIe 16 Slot bei CF schluckt auch einiges.(bzw. der Mainboardchip wenn der 2. Slot aktiv ist, es wird ja immer das System gemessen) Es schaut allerdings so aus als ob die X2 30W mehr wie die Ultra verbraucht und demnach deutlich mehr braucht wie 2x 3870 im CF ):

Seit wann hat eigentlich der Catalyst die GPU Auslastung in % drin? Warum hat das Nvidia nicht? Das ist doch mal genial, da kann man endlich zuverlässig sagen, wann die CPU der Flaschenhals ist!
http://forums.vr-zone.com/showthread.php?t=228355 unter ATI Overdrive (ja er meint das unten rechts (; )

call of juarez macht mich ein wenig stutzig, da müsste sie ATI typisch viel schneller sein als die Ultra, aber vielleicht liegt das am CF? Insgesamt liegt sie genau da wo man sie erwartet, der Penismark spiegelt wie immer überhaupt nicht die nutzbaren FPS wieder, nur die max. FPS unter optimalen Bedingungen für die GPU...
 
Zuletzt bearbeitet:
mein 7.11er hat es glaube ich noch nicht drin....unter welchen Punkt haste denn die Anzeige gefunden?
 
@crustenscharbap

Stom wirst du im Schnitt vermutlich weit weniger als bei einer 8800 GT oder ähnlich brauchen. Immerhin braucht sie in Idle deutlich, sehr deutlich weniger, zumindest kann man davonausgehen das AMD da drauf geachtet hat. Die HD3870 machts ja vor.
Vielleicht fährst du sgar mit 2 HD 3870 X2 noch günstiger.

Wenn du dir unsicher bist, schreib dir mal über 4 Wochen jeden Tag die Zeit auf in der du im Windows gammelst, surfst, arbeitest etc, - und die Zeit in der deine Grafikkarte ausgelastet ist.
Schau dir die Werte von den CB Verbrauch Tests im Detail an und rechnes dir aus...

https://www.computerbase.de/2007-11/test-ati-radeon-hd-3870-rv670/31/#abschnitt_leistungsaufnahme

Greedz
 
1210234_080121_R680_Clock.jpg


@nockitsch


ich glaub er meint das unten rechts
 
?:eek:
Meine GPU tacktrate leigt bei 800Mhz (laut CCC) weshalb leigt das bei der X2 "nur" bei 300MhZ???
Kann das am CF von meinen 2 Karten leigen? (2x400)
Oder wie is das?
Schaft mal Klarheit Jungs!
 
Keine Angst, du hast schon 800MHz. Das hier könnte PowerPlay in Aktion sein. Bei 0% GPU-Last (wie man auf dem Bild sieht), muss die Karte doch nicht mehr mit Maximaltakt laufen und schaltet sich runter.
 
Stimmt danke....na jedenfalls hab ich das noch nich bei dem 7.11 dabei also kann ich nich sagen ob das schon beim 8.1er drin ist oder erst im nächsten, für die X2 Erscheinenden.
 
Kasmopaya schrieb:
Seit wann hat eigentlich der Catalyst die GPU Auslastung in % drin? Warum hat das Nvidia nicht? Das ist doch mal genial, da kann man endlich zuverlässig sagen, wann die CPU der Flaschenhals ist!
http://forums.vr-zone.com/showthread.php?t=228355 unter ATI Overdrive (ja er meint das unten rechts (; )

Meine 3870 zeigt´s seit´m 8.1er Cata auch an, somit CB Forum schmökern = 0% :)
 
Kasmopaya schrieb:
Die Seite übertreibt bestimmt ein bisschen, 25% wären einfach Wahnsinn.

Die 25% sind ohnehin nur bei einem Spiel wo ohnehin der Speicher zu knapp wird und damit ständig was über den pci-e Link geht.

Aber 10% Steigerung minimum und 15% im Schnitt empfinde ich durchaus als Berechtigung für 2.0-Pflicht bei einem seriösen Test.

Immerhin macht das gerade beim Vergleich zur Ultra einen großen Brocken aus. Von ~20% Vorteil auf ~30% oder so macht dann widerum gleich 50% Unterschied.
 
kann ich die Karte mit meinem Gigabyte 965P-DS4 evtl. nicht ganz ausreizen..?
meint ihr wirklich man braucht ein pci-e 2.0 board? :freak:
 
ich hoff ja mal auf satte preisstürtzte bei nvidia und ati (8800gt und hd 3870)
 
Das sind ja mal ein paar Helden:

PCGH schrieb:
Beim Stromverbrauch ändert sich das Blatt jedoch zu Gunsten der Single-GPU-Karte Geforce 8800 Ultra, so nimmt das gesamte Testsystem 303 Watt auf, während sich die selben Komponenten in Verbindung mit der Radeon HD3870 X2 gut 31 Watt mehr Energie einverleiben.

... Ja, aber nur unter Volllast. Somit ist das für die Netzteil-Wahl wichtig, aber im Leerlauf (viel wichtiger, wenn man Ersteres mal außen vor lässt) sieht das schon wieder anders aus, wie der CB-Test bestätigt:

https://www.computerbase.de/2008-01...r-einzelkarte/25/#abschnitt_leistungsaufnahme

CF (wird wohl nicht den Riesen-Unterschied machen zur X2) braucht hier im Leerlauf knapp 100W weniger. Sicher, der Wert stimmt nicht ganz und man muss noch etwas draufschlagen. Aber keine knapp 100 Watt! Und wo das Problem bei Nvidia liegt, ist ja auch bekannt (Karte hat keinen funktionierenden 2D-Modus).

Wer dem Test absolut nicht vertraut, kann hier nachschauen:

https://www.computerbase.de/2007-11/test-ati-radeon-hd-3870-rv670/31/#abschnitt_leistungsaufnahme

Man ziehe von der Leistungsaufnahme des Systems mit 2400XT vielleicht so 30 Watt ab (eigentlich weniger, die 2400 verbraucht bestimmt keine 30W im Leerlauf, aber wir wollen mal pro Ultra und gegen 3870 rechnen). Dann hat man ein System, das ca. 128W ohne Graka verbraucht. Dann verbraucht die 3870 die Differenz von 39W im Leerlauf = 167 Watt, steht ja da. Noch eine dazu, macht 206W für ein System mit zwei 3870 im Leerlauf. Unterschied zur Ultra: Fast 50 Watt. Draufschlagen bei dem anderen Test müsste mal also wohl über 50 Watt, was ich doch ein wenig viel finde.
 
Zuletzt bearbeitet:
An alle ATI Fans: Genießt jede Sekunde auf dem Leistungstrohn, denn dieser Moment wird nicht ewig halten :evillol:

@darko2
Stimmt da geb ich dir recht, der Idle verbrauch der GF 8 ist einfach abartig hoch, ABER die neue starke ATI Karte wird sich eigentlich der 9. Generation der Geforce stellen müssen und die braucht Idle 0W !(+ Nforce 7), ganz nebenbei sind auch noch die Lüfter im 2D ausgeschaltet, also im 2D Betrieb lautlos. ;)
https://www.computerbase.de/2008-01/nvidias-hybrid-sli-spart-strom/
(k der Nforce 6 ist total überzüchtet worden und schluckt einiges, aber dennoch sollte es im Idle weniger sein wie bei PowerPlay, wow so ein knappes Rennen in allen Disziplinen hatten wir seit Ewigkeiten nicht mehr wie geil :) )
 
Da hast du allerdings recht. Sowohl ein "Hybrid Power"-Pendant als auch ein "Geforce Boost"-Pendant (für uns High-Endler eh egal) sind zwar auch bei ATi geplant, aber die kommen wohl noch nicht mit dem jetzt neu erscheinenden AMD-7er-Chipsatz mit integrierter Grafikeinheit. Sehr sehr schade. Es muss aber noch erwähnt werden, dass auch "Hybrid Power" (also das Graka-Abschalt-Ding) laut CB-Nachricht nur unter Vista und - wie du schon richtig erwähnt hast - mit "Geforce 9" funktionieren sollen.
 
CF (wird wohl nicht den Riesen-Unterschied machen zur X2) braucht hier im Leerlauf knapp 100W weniger. Sicher, der Wert stimmt nicht ganz und man muss noch etwas draufschlagen


Ganz im gegenteil : die x2 verbraucht im idle viel weniger. Zum einen fallen redundante teile wie z.b. Spannungswandler weg und zum anderen kann man eine gpu abschalten was bei cf nicht geht.

die x2 wird im idle mit richtigen Einstellungen nur marginal über der normalen 3870 liegen.
Wer natürlich den zweiten Chip laufen lässt, was durchaus Standard-Einstellung sein könnte, der ist selbst schuld.



An alle ATI Fans: Genießt jede Sekunde auf dem Leistungstrohn, denn dieser Moment wird nicht ewig halten

Warum sollte man den Moment genießen ?
Ati ist oft genug schon eindeutiger Performance Sieger gewesen(z.b. bei x1 vs gf7, noch garnicht so lange her), ist ja nicht so das es was Neues wäre.


ABER die neue starke ATI Karte wird sich eigentlich der 9. Generation der Geforce stellen müssen

warum sollte sie ?

Sowohl die neue GF Serie als auch die (richtig) neue Ati Serie kommen nahezu zeitgleich q2-q3, siehe der News hier bei CB. Demnach muss sich die aktuelle Ati Serie keinesfalls der kommenden von Nvidia stellen.
 
Das Geschoss is einfach zu lang....:D
Meine 24 cm langen 2900er sind schon hart an der Grenze...:evillol:


Na gut Realsmasher hat mich überzeugt - ritsch ratsch weg is der Festplattenkäfig:D
 
Zuletzt bearbeitet:
Ich besitze auch eine HD 3870, würde ab zu gerne die neue X2 kaufen. Dabei interessiert mich Crossfire mit 2 solcher Karten am meisten :-) Ansonsten verkaufen und die neue Nvidia Serie kaufen :-) Die freie Marktwirtschaft ist was feines :-)
 
@ Xedos99 :

Da muss der Festplattenkäfig halt dran glauben :p

Werd meinen auch etwas "kürzen" müssen, aber was solls.

X2 >>> Blech

Gut das die karte nicht noch länger wie 8800gtx und Co ist, sonst gäbe es wirklich Probleme.
 
Zurück
Oben