Test Test: ATi Radeon HD 4850 (CF) und HD 4870

Vendetta schrieb:
Der Witz ist ja die 4870X2 wird schätzungsweise überall 40-60% schneller als eine GTX280 sein, wohl weniger kosten und oben drauf auch für AMD billiger in der Produktion sein! A job well done!
Falls sie wirklich soviel schneller sein wird, würde die AMD trotz vll geringerer Fertigungskosten, wohl kaum für nen geringeren Preis anbieten. AMD ist schließlich auch kein Wohlfahrtsverein, sondern willl Profit machen. Nötig ham sie es ja schließlich auch.

@Test
Super, wie immer. Vor allem der Technik Teil ist immer wieder interessant. Benches kriegt man ja überall.

@Vantagte vs. PhysX
Also zunächst mal ist ganz klar festzustellen, dass der Einfluss der Graka auf den CPU-Part schlicht gegen die Driver Approval Policy verstößt, da kann man soviel drehen wie man will. Wobei ich nicht weiß inwiefern diese bindend ist. Klar ist es im Endeffekt die Schuld von Futuremark selbst, dass sie PhysX in den CPU-Test implementiert haben, um dedizierte Karten zu unterstützen. Aber - um mal eine Metapher zu bringen - man wird schließlich auch nicht belangt, wenn man die Tür offen stehen lässt (=PhysX-Unterstützung) und einem etwas geklaut wird (=Missbrauch dessen). Man muss nur damit rechnen, dass die Versicherung nicht zahlt (=jetzige Vorwürfe). Wenn nVidia gewollt hätte, hätten sie leicht die PhysX-Unterstützung nur für echte Spiele aktivieren können.
Wobei ich eh schon lange keine 3DMarks mehr angucke. Theoretisch bleibt theoretisch und hat mit der realen Spielelandschaft idR wenig zu tun.
 
Zuletzt bearbeitet:
Nur mal so als Denkanstoß für all die, welche hier über überhöhte Stromaufnahme unken:

das Testsystem:

Intel Core 2 Extreme QX9770 (übertaktet per Multiplikator auf 4 GHz, Quad-Core)
* Asus P5E3 Deluxe WiFi-AP (Intel X38, BIOS-Version: 1104) Haupt-Testplatine und für CrossFire-Systeme
* XFX nForce 790i Ultra (Nvidia nForce 790i, BIOS-Version: 811N1P01_Beta) für SLI-Systeme

Weder die 4850 saugt die kompletten 133Watt noch saugt die GTX 280 die kompletten 202 Watt Differenz zwischen Idle und Last :p

Von diesen Werten gehen noch paar Watt ab für CPU, Chipsatz, Festplatten (die ja auch mehr rödeln dürfen um die CPU/GPUs zu versorgen), usw.

Von daher gesehen ist relativiert sich der Stromverbrauch doch ein ganzes Stück, wäre Klasse wenn´s ne Möglichkeit gäbe die Verbrauchswerte rein auf den Verbrauch der Grafikkarten zu reduzieren, so ist´s ne nette Verbrauchsübersicht aber leider nicht wirklich aussagekräftig, da unbekannt ist, welchen Anteil die anderen Stromfresser am Ergebnis haben ;)
 
@Antimon: Als Vergleich zu dem CB Test hätte ich noch diesen Test anzubieten. Man kann dann über die Differenz des CF-Systems zu dem System mit der Einzelkarte recht leicht nachrechnen, was die Grafikkarten an sich einzeln an Strom verbrauchen (in etwa, ich weiß).
Damit erkennt man z.B. das eine HD 4870 ca. 70W (273W-203W) im idle zieht aber eine GTX 280 begnügt sich mit ca. 50W (211W-160W). Das bedeutet immerhin, dass die Ati-Karte stolze 40% mehr Strom verbraucht.

VG,
Dena.
 
und nochmal für alle, die nicht verstehen, dass es sehr wohl Sinn macht lediglich auf den Midrange-Grafikkartensektor abzuzielen.

Vorweg: Natürlich ist es sicherlich auch gut, wenn ein Unternehmen (hier Nvidia) von sich behaupten kann, die Leistungsspitze mit seinen Produkten darstellen zu können. Damit kann man sich natürlich schön profilieren und seine Fähigkeiten darzustellen. Dies ist für Marketingzwecke usw natürlich sehr praktisch.

Nur: allein davon kann man aber nicht leben. Und das wollen oder können hier einige anscheinend nicht verstehen.

Mal ein Beispiel:
von 100 Leuten kaufen maximal 5-10 die Highend-Version einer Grafikkartengeneration. Das ist mit allen Produkten des Marktes (Autos, Bekleidung etc.) so. Den Großteil stellen natürlich die, welche sich für das untere bis mittlere Preissegment entscheiden.

In diesem Fall gehen wir also wie folgt aus:
10 Leute kaufen eine Graka à la GTX280 - 90 Leute kaufen eine à la HD4850

Der Verdienst einer verkauften Grafikkarte liegt für den Hersteller jetzt bei sagen wir 10% des Verkaufspreises. Der Rest sind Entwicklungskosten, Herstellungskosten, Händler-/Großhändleraufschläge, etc.

eine GTX280 kostet ca. 500 € - eine HD4850 kostet ca. 150 €

Nun verdient also Nvidia hier 10 x 50 € = 500 €
ATI verdient hier 90 x 15 € = 1.350 €

In diesem Fall sieht man also mal, wie sich sowas marktwirtschaftlich darstellt – und DAS ist das Ziel eines Unternehmens. Es ist nicht wirtschaftliches Ziel eines Unternehmens protzen zu können, man habe das beste Produkt...

Selbst wenn ATI an einer Midrange-Graka nicht die 10% verdienen sollte – bereits ab 5,6% würde in diesem Beispiel ATI gleichviel/besser verdienen als Nvidia.

Soviel von meiner Seite – und jetzt bitte nicht kommen und erwähnen, dass auch Nvidia Midrangekarten hat usw. Es geht hier nur darum, dass manch einer nicht verstehen will, dass ein billigeres (und dennoch sehr leistungsfähiges Produkt) sehr wohl seinen Sinn hat...
 
4850

Catalyst 8.7 (Beta) - 11 Watt Idle

GILT nur für catalyst <8.6:

an alle, die mit Strom bla bla im Vorfeld gesülzt haben, eine kleine Rechnung:

Kaufpreis 4850: 140,-
Kaufpreis 9800: 175,- (neu, gesenkt)

Differenz 35,-

KWh= 0,2 Euro
35,- / 0,2 = 175 KWh

bei einem damaligen Mehverbrauch von 20 Watt

1000 / 20 = 5 h
175KWh x 5h = 875 h

d.h. erst in der 876 Iddle Stunde hätte sich der Mehrpreis armortisiert.

Diese simple Rechnung können sich die Leute direkt raus kopieren, damit in Zukunft das Gelaber aufhört, sich eine Karte zu kaufen die 500,- kostet aber 3 Watt weniger verbraucht und mit einer die 200,- kostet bei ähnlicher Leistung verglichen wird.

Dieses Phänomen gab es seiner Zeit mit den Röhren vs. Flachbildschirmen. Unmengen Geld für ein leistungstechnisch schwächeres Produkt weil es 50 Watt weniger verbraucht und cool aussieht oder man mehr Platz hat z.b. für einen Stifthalter.--> Liebe Menschen bitte ab und zu denken...danke im Vorraus!

Was in den ganzen Gesprächen vergessen wurde: DX 10.1 und SM 4.1, dass Volk solle bei derzeitigen NVIDIA Prdukten bitte suchen!!! lol
 
Zuletzt bearbeitet von einem Moderator: (Es geht auch unauffälliger)
Jetzt auf einmal ist es so, dass der geringere Stromverbrauch im Idle nebensächlich ist, während er noch vor einem halben Jahr das Maß aller Dinge war? Hmmmm..... (Das ist nur eine Anmerkung meinerseits. Mir persönlich ist der Stromverbrauch realtiv egal. Solange ich es mir leisten kann, spielt es nur eine untergeordnete Rolle.)

Und was bringt dir DX10.1 und SM4.1 jetzt schon? Darüber kann man sich unterhalten, wenn es denn wirklich Spiele gibt, die es auch unterstützen und da meine ich jetzt nicht AC, sondern allgemein mehr Spiele, die davon gebrauch machen. Mal sehen wie lange es noch dauert, bis da welche erscheinen und wie es dann bei ATi und nVidia mit neuen Grafikkarten aussieht. Ist doch das Gleiche mit der 6er-Serie von nVidia. Da hat z.B. SM3.0 auch erst was gebracht, als die neuen Generationen der beiden Graka-Hersteller am Markt waren.

Ich versteh nicht, wo das Problem liegt. Für den einen ist der Stromverbrauch wichtig, für den anderen nicht. Für den einen ist DX10.1/SM4.1 wichtig, für den anderen nicht. Warum kann das so nicht akzeptiert werden?
 
Sich über den Stromverbrauch der 4000er Serie im idle aufzuregen ist doch mehr als unnötig. Jeder sollte den sehr guten Idle Verbrauch unter Powerplay der 3000er Serie kennen. Die neue Serie hat das Feature PowerplayPLUS. Eine Weiterentwicklung. Wenn man sich die Taktraten im Idle ansieht und die mit denen der 3000er Serie vergleicht, muss einem spätestens das Licht aufgehen, daß hier ein Treiberproblem vorliegt. Es wurde auch schon vielerorts erwähnt, daß die Taktraten im Idle diejenigen der HD Wiedergabe sind. Man hat also keinen Idle Verbrauch, sondern den HD Wiedergabe Verbrauch.

Dieses Problem wird garantiert mit 8.7, spätestens 8.8, gefixt sein und man ist wieder Elite in diesem Bereich. Also kein Grund, liebe nV Boy, darüber zu lamentieren. Man kann es drehen und wenden wie man will, die 4850 ist nunmal eine gute Karten, die keine Schwächen hat. Das muss man nunmal akzeptieren, wie ATI Fanboy die Stärke der Geforce 8000er Reihe anerkennen mussten.
 
Vendetta schrieb:
Der Witz ist ja die 4870X2 wird schätzungsweise überall 40-60% schneller als eine GTX280 sein, wohl weniger kosten und oben drauf auch für AMD billiger in der Produktion sein! A job well done!
Du willst jetzt aber nicht eine XF-Lösung mit einer Single-GPU vergleichen oder?

Wenns eine X2 zu kaufen gibt, wirds auch eine 280GX2 geben und die können die Fertigungsgrösse noch verkleinern und demensprechend günstiger anbieten.

Die 280er ist beim SLI derzeit ungeschlagen an der Spitze und das nicht nur mit einem knappen Vorsprung.

Aber der wirkliche Vorteil liegt imho in Cuda. Wenn hier schnell Software kommt, die das unterstützt, dann möcht ich keine noch so billige ATI-Karte.

Wenn ich allein Fah ansehe. Stunden um Stunden braucht das auf einer CPU und auf der 8800GTX mit den gemoddeden Cuda-Treibern gerade mal 30 Minuten. Was man so sieht sind ATI-GPU´s da um den Faktor 4 langsamer.

Auch Encodinglösungen usw. machen NV-Karten interessant.

Ja NV-Karten sind teurer, ja die Technik mag bei ATI besser sein. Aber atm kann NV durch Cuda und auch noch Agaia stark punkten und vom Mitbewerb ist nichts zu sehen ausser Ankündigungen ohne Termine.

So sehr es auch vielen hier nicht wichtig erscheint, für viele Kunden zählt das letzte Quäntchen Performance und das hat man zur Zeit bei Nvidia, auch wenn man es sich einiges kosten lassen muss. Obwohl ich vermute, dass die Preise runterkommen, wo die 4870 doch recht ansprechende Ergebnisse liefert.

Mehr Geld ist jedoch imho mit leistungsfähigen, bezahlbaren Grafikkarten zu machen, da die wenigsten Menschen 500+ Euro für eine Grafikkarte ausgeben (möchten oder können) und da hat AMD den Trumpf in der Hand. Das Geld könnens eh gut gebrauchen nach den letzten CPU-Schlappen.

Ich hätte gern wieder mal eine ATI-Karte. Die Grafik in Spielen war imho besser, aber diese Generation werd ich wohl auslassen.

Wirklich traurig finde ich, dass Crysis bei 1920 x 1200 mit den neuen Karten auch nicht viel schneller läuft, aber da muss wohl die Crytec-Engine dran Schuld sein, weil so viel schöner (und damit rechenaufwändiger) ist die Grafik imho nicht, dass selbst schnellere Hardware keine viel besseren FPS schafft.

Kunacko schrieb:
Was in den ganzen Gesprächen vergessen wurde: DX 10.1 und SM 4.1, dass Volk solle bei derzeitigen NVIDIA Prdukten bitte suchen!!! lol

Das muss daran liegen, dass Vista zuwenig Menschen benutzen und dieses Feature deshalb zur Zeit für diese Menschen auch nicht wirklich interessant ist ;-)

Noch mehr, wenn keine Spiele dies auch unterstützen oder es tun und dann wegpatchen :evillol:
 
Zuletzt bearbeitet:
Ilaris schrieb:
...ist nunmal eine gute Karten, die keine Schwächen hat...

Keine Schwächen? Du willst also allen Ernstes sagen, dass sie die eierlegende Wollmilchsau ist? Das würd ich noch mal überdenken.

Die Karte ist wirklich sehr gut, das streitet keiner ab, aber Schwächen hat jede Karte, egal ob nun von ATi oder nVidia. Es kommt nämlich immer auf die persönlichen Bedürfnisse an. Die Karte mag dann vielleicht für dich keine Schwächen haben, andere User könnten aber dennoch anderer Meinung sein.

Mit solchen Aussagen wäre ich generell sehr vorsichtig. Man könnte z.B. die Temperaturen unter Last anführen, die auf einen "schlechten Kühler" zurückzuführen sind oder aber auf eine schlechte Steuerung des Kühlers. Man könnte auch schreiben, dass die neue 4er-Serie beim H.264-Codec eine höhere CPU-Auslastung hat, als die 3er-Serie. Als Nachteil könnte man z.B. auch das GPU-Computing anführen, etc.

Versteh mich nicht falsch, ich will die Karte keinesfalls schlecht machen, aber es zeigt doch, dass deine Behauptung, die Karte/die 4er-Serie hätte keine Schwächen sehr einseitig ist!
 
AvenDexx schrieb:
Mit solchen Aussagen wäre ich generell sehr vorsichtig. Man könnte z.B. die Temperaturen unter Last anführen, die auf einen "schlechten Kühler" zurückzuführen sind oder aber auf eine schlechte Steuerung des Kühlers.

Welche Karte gleich welcher Marke hatte in den letzten Jahren denn einen guten Kühler im Referenzdesign? Also das kann man getrost außen vor lassen.

Gruss Hr.Rossi
 
Diese simple Rechnung können sich die Leute direkt raus kopieren, damit in Zukunft das Gelaber aufhört, sich eine Karte zu kaufen die 500,- kostet aber 3 Watt weniger verbraucht und mit einer die 200,- kostet bei ähnlicher Leistung verglichen wird.

Das mit Abstand beste Zitat das ich während der letzten 6 Monate in einem Forum gelesen habe.

Greetz
Ganzir
 
AvenDexx schrieb:
Und was bringt dir DX10.1 und SM4.1 jetzt schon?

Ja genau die 8800er standen in den Regalen rum weil keine DX10 Spiele auf dem Markt waren.

Und deswegen bringt es was 10.1 und SM4.1 jetzt schon zu haben. weil morgen vieleicht übermorgen die ersten Spiele;....ähhm Hust Assassins Creed hat doch 10.1 ... ähm nein weil wegen nVidia kanns ja nicht.........;kommen werden und man dann Vorteile hat.

Jeder legt sich die Sachen so zurecht wie er das durch seine FanboyBrillle sieht.
 
OH MEIN GOTT.

Haben alle die Jammern die 48er Serie sei ja so "heiß" und wäre so eine Heizung im Rechner mal im Physik Unterricht aufgepasst?

Es ist völl WURSCHT ob die Karte 60° oder 90° heiß wird, es sei denn man will sie direkt nach dem Betrieb ausbauen und verbrennt sich die Finger.

Einzig relevant für die Erhitzung des Gehäuses bzw. des gesamten Raumes ist die effektive Abwärme, die direk proportional zur Aufgenommenen Leistung ist und völlig unabhängig von der Temperatur der Karte.

Hohe Grafikkartentemperaturen sagen nur eins: leise Karte! Abrauchen tut da im Sommer auch nichts weil der Lüfter ja Temperaturgeregelt ist und die Karte immer in diesem Temperaturfenster hält, worauf sie auch ausgelegt ist.

Ich finde es einfach nur Lachhaft wenn die "guten Temperaturen" der 9800GTX ins feld geführt werden und angeblich das Kühlsystem besser sei. SCHWACHSINN!

Die 4850 ist LEISER und läuft trotzdem 100% stabil!

Die Effektive Abwärme der 9800GTX ist aufgrund der Leistungsaufnahme sogar HÖHER als die der 4850 unter Last. Das heißt die 9800GTX heizt mehr das Zimmer auf als die 4850.

Nochmal zum zusammengefasst: Grafikkartentemperaturen sind VÖLLIG EGAL für die Abwärme die die Karte produziert. Wichtig ist der WÄRMESTROM und der ist das Produkt aus Lufttemperatur und Luftvolumen (mit spez. Wärmekonstante)

Die Kühlung der 9800GTX und 9800GTX+ ist LAUTER und die Karten produzieren mehr Wärme als die 4850. Der Kühler als kann NIE UND NIMMER (außer man ist dual slot fan) als Argument für die 9800er herhalten. Erst recht das geschwafel das man für die 4850 unbedingt einen accelero brauche und für die 9800er nicht.
 
Zuletzt bearbeitet:
HrRossi schrieb:
Welche Karte gleich welcher Marke hatte in den letzten Jahren denn einen guten Kühler im Referenzdesign? Also das kann man getrost außen vor lassen.

Gruss Hr.Rossi

Haarspalterrei. Du weist genau, was ich meine. :rolleyes:
Sagt man bei sowas "...keine Schwächen..."?


Bullet Tooth schrieb:
Ja genau die 8800er standen in den Regalen rum weil keine DX10 Spiele auf dem Markt waren.

Und deswegen bringt es was 10.1 und SM4.1 jetzt schon zu haben. weil morgen vieleicht übermorgen die ersten Spiele;....ähhm Hust Assassins Creed hat doch 10.1 ... ähm nein weil wegen nVidia kanns ja nicht.........;kommen werden und man dann Vorteile hat.

Jeder legt sich die Sachen so zurecht wie er das durch seine FanboyBrillle sieht.

Och bitte, komm mal runter. Es war ein Beispiel um einen gewissen Standpunkt zu verdeutlichen. Das du hier sofort wieder mit dem Wort "Fanboy" ankommst, macht dich echt nicht sympathischer. Versuch doch wenigstens mal zu verstehen, was ich geschrieben habe und was der Kern meiner Aussage ist. :freak:
 
Soso 11W im Idle. :rolleyes:
hd4850_power.gif


Bullet Tooth schrieb:
Und deswegen bringt es was 10.1 und SM4.1 jetzt schon zu haben. weil morgen vieleicht übermorgen die ersten Spiele;....ähhm Hust Assassins Creed hat doch 10.1 ... ähm nein weil wegen nVidia kanns ja nicht.........;kommen werden und man dann Vorteile hat.
Solange der aktuelle Marktführer um 1. einen Bogen macht wird niemand freiwillig ein Punkt1 Spiel bringen.
Es sei den AMD Supportet mal die eigenen Features, wovon ich nicht ausgehe.
Schon gewusst, das AC fehlerhaft war?
Welche Vorteile meinst du?

Guck mal PhysX und Cuda an. Brandneue nvidia Features die jetzt schon Anwendungen haben.
 
Die GTX280GX2 wirds aber frühstens mit GT200b geben, wenn Nvidia (wenn überhaupt) in 55mm fertigt..... 2 so riesen DIEs auf einer Karte?

Und die kostet dann? 800€? Dann kann ich mir auch 2 4870x2 kaufen, die sind dann billiger...:lol:

außerdem, wer den Test aufmerksam gelesen hat, dem wird aufgefallen sein, das Crossfire momentan effectiver arbeitet als SLI.....
Andersherum gibt es aber glaub ich mehr Games die SLI unterstützen, auchwenn die neunen beides mitmachen.....

Seit doch lieber FROH, dass ATI und nVidia wieder gleichaufliegen, so wirds wieder günstigere Preis geben, so wie bei der x1950xtx und der 7950GX2....
Ist doch echt scheiß egal, wer jetzt 2% schneller ist, hauptsache man bekommt ne günstige Karte auf der man in möglichst hohen Details zocken kann, was wollt ihr MEHR???
Die 8800GTX hat fast 1Jahr lang 500€ gekostet, weil es keine Konkurenz gab....
Die GTX280 wird schnell billiger werden...
 
Zum Thema Cuda / GPU-Computing (GPUC):
1. GPUC gibts bei ATI seit der 2900XT, CUDA und GPUC sind allso nix weltbewegend neues was die GTX280 besser macht, lediglich die performance der GTX290 in diesen Bereich ist wirklich beeindruckend.

2. Für GPUC braucht man keine extra Hardware (Transistoren), die Märchen die Unyu un Co erzählen, dass die GTX280 so viel mehr Transistoren für GPUC hat sind schlicht falsch. Die Idee dahinter ist ja, dass man bereits Vorhande ALUs (die Shader) einfach auch für andere Berechnungen verwendet. Theoretisch ist GPU-C auch auf SM3.0 Karten möglich, man benötig nur einen entsprechenden Compiler, wirklich effektiv wir das ganze aber erst mit den Unified Shadern, da diese alle gleich aufgebaut sind.

3. CUDA und das Gegenstück von AMD (der Name fällt mir gerade nicht ein) werden sich nie alleine durchsetztn, da es propertäre, zueinander inkompatible Lösungen sind. Erst eine gemeinsamme API wird den wirklichen Durchbruch auf dem Massenmarkt ermöglichen. Weis vieleicht jemand, ob für DX11 was in die Richtung geplant ist?

Anmerkung zu Folding at home: Es ist sinnlos die Foh Leistung von Grakas mit der einer CPU zu vergleichen, den GPUs können nur einen Bruchteil der Foh Probleme bearbeiten aufgrund des sehr rudimentären Funktionsumfangs der Shader. GPUs bekommen also nur Arbeitspkatet die auf ihnre speziellen Fähigkeiten zugeschnitten sind, während CPUs alles bearbeiten können.
 
Zurück
Oben