Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.313
hm, was soll man sagen.
manche sagen
100% HD3870 Preis - 100% Leistung
110% 8800GT Preis - 110% Leistung
Das mag sein, aber wieso? Weil ATI nicht mehr Leistung bieten kann, nur wenn man 2 GPU zusammenpappt. Schön und gut, der HD3870 ist vielversprechend, vorallem die sehr niedrige Stromaufnahme unter Idle. Unter Last zeigt die 8800GT die bessere Effizienz.
Beeindruckender wäre eine Karte gewesen die gleich oder weniger in Idel verbraucht udn dabei 110% oder gar 130% der Leistung der GT bringt. Hätte NV einen dualslot Kühler auf die 8800GT gepappt wäre sie noch leiser, und man hätte die Taktraten weit höher ansetzen können sodass der Unterschied keine 10% gewesen wäre.
Ich will die HD3870 nicht schlechtreden, im Gegenteil, sie ist die beste Karte die AMD gerade auf dem Markt hat. Nur reicht das wie ich finde nicht. Wenn der R680 den Idle Verbrauch der HD3670 durch abschalten eines GPU Kerns wiederholen kann ist das schon eher nach meinem Geschmack, allerding ist der Leistungsverbrauch unter Last dann alles andere gut.
Man muss einfach sehen das AMD mit der HD3870 schon am Limit des R670 fährt, oder zumindest nahe daran ( DualSlot, volle Shaderzahl, GDDR4, wenig OC Potential) und NVIDIA zwar nicht den super Stromverbrauch hat (wobei hier 65nm auch eine Rolle spielen), aber noch nicht mit voller Shaderzahl agiert, singelslot-Kühlung hat und wesentlich merh OC Potential besitzt.
Letztendlich spielt der Lastverbrauch die größere Rolle wenn es darum geht was machbar ist. Nvidia könte genausogut eine 8800GT(s) X2 zuammenzimmern. Spekulation wäre es zu sagen das diese deutlich vor einer HD3870 X2 stehen würde.
Ich denke wenn die Karte durch das 55nm Verfahren recht günstig produzier bar, und mit 190€ noch ausreichende Verkaufszahlen liefert, ist es auf jedenfall ein guter Schritt nach vorne. Auch lässt sich bereits für unter 400 € ein sehr leises und sparsames Cossfiresystem aufbauen, dass das Gehäuseinnere nicht unnötig aufheitzt, DX10.1 Support bietet und dabei unhörbar leise ist.
In Verbindung mit einem X38 sicher eine feine Sache.
Noch würde ich allerdings warten, weil ich Nvidias Antwort auf die X2 sehen will
Greedz
manche sagen
100% HD3870 Preis - 100% Leistung
110% 8800GT Preis - 110% Leistung
Das mag sein, aber wieso? Weil ATI nicht mehr Leistung bieten kann, nur wenn man 2 GPU zusammenpappt. Schön und gut, der HD3870 ist vielversprechend, vorallem die sehr niedrige Stromaufnahme unter Idle. Unter Last zeigt die 8800GT die bessere Effizienz.
Beeindruckender wäre eine Karte gewesen die gleich oder weniger in Idel verbraucht udn dabei 110% oder gar 130% der Leistung der GT bringt. Hätte NV einen dualslot Kühler auf die 8800GT gepappt wäre sie noch leiser, und man hätte die Taktraten weit höher ansetzen können sodass der Unterschied keine 10% gewesen wäre.
Ich will die HD3870 nicht schlechtreden, im Gegenteil, sie ist die beste Karte die AMD gerade auf dem Markt hat. Nur reicht das wie ich finde nicht. Wenn der R680 den Idle Verbrauch der HD3670 durch abschalten eines GPU Kerns wiederholen kann ist das schon eher nach meinem Geschmack, allerding ist der Leistungsverbrauch unter Last dann alles andere gut.
Man muss einfach sehen das AMD mit der HD3870 schon am Limit des R670 fährt, oder zumindest nahe daran ( DualSlot, volle Shaderzahl, GDDR4, wenig OC Potential) und NVIDIA zwar nicht den super Stromverbrauch hat (wobei hier 65nm auch eine Rolle spielen), aber noch nicht mit voller Shaderzahl agiert, singelslot-Kühlung hat und wesentlich merh OC Potential besitzt.
Letztendlich spielt der Lastverbrauch die größere Rolle wenn es darum geht was machbar ist. Nvidia könte genausogut eine 8800GT(s) X2 zuammenzimmern. Spekulation wäre es zu sagen das diese deutlich vor einer HD3870 X2 stehen würde.
Ich denke wenn die Karte durch das 55nm Verfahren recht günstig produzier bar, und mit 190€ noch ausreichende Verkaufszahlen liefert, ist es auf jedenfall ein guter Schritt nach vorne. Auch lässt sich bereits für unter 400 € ein sehr leises und sparsames Cossfiresystem aufbauen, dass das Gehäuseinnere nicht unnötig aufheitzt, DX10.1 Support bietet und dabei unhörbar leise ist.
In Verbindung mit einem X38 sicher eine feine Sache.
Noch würde ich allerdings warten, weil ich Nvidias Antwort auf die X2 sehen will
Greedz
Zuletzt bearbeitet: