Test Test: ATi Radeon HD 4770

aspro schrieb:
Pure Spekulationen. Was soll das bringen?

...

Fühlst du dich jetzt cool?

Zu1 Mal weiter gelesen, das war ne Frage von mir und dann nur eine Erklärung dazu!

zu 2 Das tut schon weh! Ich versuche hier nur aufzuzeigen, dass es eben nicht unbedingt repräsentativ und vergleichbar ist mit einem so überdimensionierten NT zu testen. Daher mein Vorschlag die Leistungsaufnahme direkt am Verbraucher (hier Graka) zu messen.

Aber du und alle Anderen die mir die Worte im Mumd rumdrehen lasst mir die Ruhe, mit euch zu diskutieren macht echt keinen Spaß.
Die ganzen tausch Hardware X und Y noch sind sowas von fehl am Platz.
 
Zuletzt bearbeitet:
Suizid schrieb:
Ich versuche hier nur aufzuzeigen, dass es eben nicht unbedingt repräsentativ und vergleichbar ist mit einem so überdimensionierten NT zu testen.
Es ist eben doch vergleichbar. Das versuchen wir doch die ganze Zeit zu erklären, aber du gehst ja nicht mal darauf ein. Bei ähnlicher Leistungsaufnahme ist die Effizenz am NT so gut wie konstant, egal ob die niedrig oder hoch ist, daher ist auch die Vergleichbarkeit gegeben. Lediglich beim Vergleich von sehr hohen und sehr niedrigen Leistungsaufnahmen (bspw. 4870 X2 und 4670) würde die 4670 etwas benachtteilift werden, aber das ist doch völlig unerheblich.
Und "repräsentativ"? Ein Testsystem muss zweckmäßig sein. In Falle des NT bedeutet das genug Leistung für alle möglichen Lasten. Da interessiert keine Repräsentativität.

Daher mein Vorschlag die Leistungsaufnahme direkt am Verbraucher (hier Graka) zu messen.
...was umständlich und zeitraubend ist. Wenn du genaue Werte willst, kannst du doch bei HT4U, PCGH und xbit gucken. Die meisten interessiert aber nur die ungefähr Tendenz und die kann man auch durch CBs Messung erfahren

Aber du und alle Anderen die mir die Worte im Mumd rumdrehen lasst mir die Ruhe, mit euch zu diskutieren macht echt keinen Spaß.
Was genau soll ich dir im Mund herumgedreht haben? Wenn man nur mit Anschuldigungen "argumentiert", macht Diskutieren natürlich keinen Spaß.
 
@Volker: War auch nicht so gemeint, dass ihr ganz sicher falsch liegt. Bei dem Preis denk ich einfach, Versuch macht Klug. Schlimmstenfalls hat sie den Standardtakt, bestenfalls 20% mehr. Und da die Karte bisher nicht mehr kostet, als die anderen, kann ich´s ja auf einen Versuch ankommen lassen.
 
Ja eben bei "ähnlicher" Leistungsaufnahme.

Und angefangen mich zuzuflamen habt ihr schon als ich das erste Mal erwähnt habe, das ich die Wahl des NTs nicht gut finde.

Das ich dann zukünftig bei den von dir besagten Seiten nachschaue hab ich auch schon gesagt.

Die Leistungsaufnahme muss man an der Graka auch nur 1 mal für jedes Modell messen und nicht zu jedem Test erneut.
Wenn man das dann zur Bewertung einer Karte herranzieht sollte es eben genau sein und nicht ungefähr.

Das unsere Meinungen hier auseinander gehen habe ich Mitlerweile schon kappiert. Dafür will ich dich auch garnicht angreifen.
Du hast deine Meinung und ich meine - nächstes Mal schau ich auf einer anderen Seite nach der Leistungsaufnahme und halt meine Klappe.


Okay DU hast mir kein Wort im Mund rumgedreht - tut mir leid mein Fehler.

Bei den anderen Speziell der ganzen" tausch noch gleich Hardware X und Y".

So genug jetzt schöne Karte Leistungsaufnahme IDLE ist schlechter als erwartet - ich will jetzt aber dennoch eine mit 1GB Speicher.
Dann nen guten Kühler drauf einbauen und freuen. :)
 
Zuletzt bearbeitet:
aspro schrieb:
Es geht hier um idle, ich dachte das wäre klar...
Ich habe aber von Last gesprochen. Wenn dir das nicht bewusst ist, solltest du besser meine Beiträge nicht zitieren. Und du hast mich zitiert und nicht umgekehrt. ;)

Aber mal davon abgesehen, Idle dedizierter Grafikkarten wird in Zukunft sowieso irrelevant. Stichwort PowerXPress bzw HybridPower. Dafür ist momentan die Unterstützung leider noch nicht ausreichend. Das sollte sich aber spätestens mit der Verschmelzung von CPU und GPU ändern.

XxJakeBluesxX schrieb:
Nicht gegen dem ausführlichen Test, aber warum testet Ihr mit einer CPU die sich hier nur die wenigsten leisten können?
Der Konsistenz wegen. Die Ergebnisse wären sonst schlecht vergleichbar. Dass der Rest des System eigentlich überdimensioniert für die Grafikkarte ist, speziell CPU und Netzteil, sollte klar sein. Man sollte die Ergebnisse daher auch nicht überbewerten.

smith0815 schrieb:
Kaufe ich statt der HD4770 eine leistungsfähigere ATI-Karte, dann leide ich immer noch unter den unverschämten Limitierungen der Bildqualität. ATI hat den R600 damals böse verhauen und war geradezu gezwungen, uns die AF-Sparmaßnahmen zuzumuten, mit seinen lächerlichen 16 TMUs war das Teil einfach nicht konkurrenzfähig. Leider wurde und wird die Schweinerei bis heute schöngeredet und somit haben wir als Käufer noch immer keine Möglichkeit, die Bildqualität auf Kosten der Framerate bewusst zu erhöhen. Es gibt nur Low-Quality AF, sogar bei Crossfire-Gespannen, dafür hält uns ATI für blöd und verkauft uns 8xAA in Kombination mit Low-Quality-AF als hohe Bildqualitätsoption, wobei ja sogar ComputerBase und andere diesen Unsinn befördern.
Und? Dafür hat nVidia einen schlechteren 8xAA Modus. Wo ist das Problem? Keine Architektur ist perfekt. Man kann es mit Polemik auch übertreiben. Ich habe eher das Gefühl, die kleingeistigen nVidia Besitzer kommen wieder mal aus ihren Löchern gekrochen, um ein de facto gutes Produkt schlecht zu reden. Hätte nVidia den G92 auf 40 nm geschrumpft, mit vergleichbarer Performance und Leistungsaufnahme wie der RV740, wäre es natürlich das geilste der Weilt. :rolleyes: Und bevor jetzt irgendwelche "ATI F****y" Hilfeschreie kommen, ich bin selbst nVidia Besitzer.

y33H@ schrieb:
Eine 88GTX ist mit 4x MSAA einen Tick schneller als eine HD4850 und ergo etwas flotter als eine HD4770.
Nicht wirklich. Die letzten Tests bei CB mit 8800 GTX sahen sie iirc etwa 10% vor der 9800 GT. Mal abgesehen von extrem hohen Auflösungen, die bei der 4770 auch nicht getestet wurden. Beim Rest liegt die 4770 ebenfalls 10% über der 9800 GT. 8800 GTX und HD 4770 dürften sich bezüglich Performance also nicht viel nehmen.

Timesless schrieb:
Irgendwie zweifel ich an der Daseinsberechtigung der Karte, 4-6 FPS fehlen zur 4850.
Wieso schaut ihr denn immer nur auf das Performance Rating? Stichwort Leistungsaufnahme und Produktionskosten. ;)
 
gruffi schrieb:
Und? Dafür hat nVidia einen schlechteren 8xAA Modus. Wo ist das Problem? Keine Architektur ist perfekt. Man kann es mit Polemik auch übertreiben.
Keine Polemik, Argumente. Wenn bei 4xAA und 16xAF (hohe Qualität wäre schön, gibts bei ATI leider nicht) noch Reserven sind, dann schaltet jeder vernünftige Mensch erstmal TAA/AAA hinzu, um Transparenzen zu glätten (bei ATI habe ich leider nicht die Wahl ob MS oder SS). Wenn dann immer noch Luft ist, kann man bei Nvidia mittels der HybridModi prima das gesamte Bild aufhübschen und erwischt auch noch flimmernde Shader. Wie man sieht, gibt es für die Grafikkarte jede Menge zu tun, bevor 8xAA interessant wird.

Hier wird jedoch suggeriert, 8xAA mit 16xAF (16xLQAF bei ATI) wäre ein qualitativ hochwertiger Modus und womöglich sogar sinnvoll, das stelle ich in Abrede.

Ich habe eher das Gefühl, die kleingeistigen nVidia Besitzer kommen wieder mal aus ihren Löchern gekrochen, um ein de facto gutes Produkt schlecht zu reden.
Du beklagst Polemik, schlägst aber wild um dich und lieferst nicht ein Argument. Niemand redet irgendetwas schlecht, es gibt nur Gründe warum qualitätsbewusste Spieler alle aktuellen ATI-Karten kritisch hinterfragen sollten. Die Probleme mit fehlenden Wahlmöglichkeiten im Catalyst und das fehlen eines (optionalen) qualitativ hochwertigen Texturfilters haften eben auch der HD4770 an, außerdem hat ATI Powerplay in Zusammenhang mit GDDR5-Speicher noch immer nicht im Griff. Darüber wird man in einem Diskussionsforum "Grafikkarten Fachgespräche" doch auch noch reden dürfen.
Hätte nVidia den G92 auf 40 nm geschrumpft, mit vergleichbarer Performance und Leistungsaufnahme wie der RV740, wäre es natürlich das geilste der Weilt.
Ein solcher Chip wäre tatsächlich sehr fein, den gibt es von Nvidia aber leider nicht.
 
gruffi schrieb:
Ich habe aber von Last gesprochen. Wenn dir das nicht bewusst ist, solltest du besser meine Beiträge nicht zitieren. Und du hast mich zitiert und nicht umgekehrt. ;)
Ahja?
Post 124: Auch wenn der Post an dich gerichtet, hab ich nichts zitiert, weil ich auch auf keine besondere Textstelle verweise, sondern allgemein die Messungen von xbit anzweifle, die du ins Gespräch gebracht hast.
Post 142: Du zitierst mich und interpretierst Last rein, nur um es irgendwie widerlegen zu können, anstatt mal nachzudenken, dass ich damit was anderes gemeint habe.

gruffi schrieb:
Aber mal davon abgesehen, Idle dedizierter Grafikkarten wird in Zukunft sowieso irrelevant. Stichwort PowerXPress bzw HybridPower. Dafür ist momentan die Unterstützung leider noch nicht ausreichend. Das sollte sich aber spätestens mit der Verschmelzung von CPU und GPU ändern.
Was genau soll die Verschmelzung von CPU und GPU daran ändern? Das ist lediglich eine Maßnahme zur Erhöhung der Integrationsdichte ergo zur Kosteneinsparung.
 
aspro schrieb:
Auch wenn der Post an dich gerichtet, hab ich nichts zitiert, weil ich auch auf keine besondere Textstelle verweise, sondern allgemein die Messungen von xbit anzweifle, die du ins Gespräch gebracht hast.
Xbitlabs hat Mist gemessen, das ist offensichtlich und in letzter Zeit erstaunlich oft vorgekommen, waren sie doch mal die Referenz in dem Bereich. Wenn allerdings PCGH, ht4u.net und c't, allesamt Redaktionen die über hochwertiges Messequipement und das entsprechende Know-How verfügen, einander bestätigen und die Ergebnisse von Xbitlabs widerlegen, dann dürfte es keinen Zweifel geben, welche Werte zutreffen.

Was genau soll die Verschmelzung von CPU und GPU daran ändern? Das ist lediglich eine Maßnahme zur Erhöhung der Integrationsdichte ergo zur Kosteneinsparung.
Soweit ich das verstanden habe tritt in dem Bereich Microsoft massiv als Innovationshemmer auf, weil das Windows-Treibermodell es nicht erlaubt, den Ausgabetreiber im laufenden Betrieb zu wechseln, notwendig wäre das sogar herstellerübergreifend. Ansonsten stimme ich dir zu, wo sich die GPU physikalisch befindet ist erstmal zweitrangig, aus Kostengründen ist für die Hersteller eine integrierte Lösung natürlich hochinteressant.

Ich bin gespannt, ob Intel und AMD genug Druck machen, damit bereits Windows7 sich hier aufgeschlossener und flexibler zeigen wird, dann fehlt eigentlich nur noch eine Erweiterung des PCIe-Standards, um einen ganzen Slot samt Lanes und Grafikkarte nach belieben ab- und zuzuschalten.
 
smith0815 schrieb:
Hier wird jedoch suggeriert, 8xAA mit 16xAF (16xLQAF bei ATI) wäre ein qualitativ hochwertiger Modus und womöglich sogar sinnvoll, das stelle ich in Abrede.

Nun ja, die Problematik besteht darin, dass 8xMSAA + 16xAF (A.I. @Standard bzw. Q-AF) der "höchste" Modus ist, der noch recht gut vergleichbar erscheint. TSSAA bzw. TMSAA-Modi sind ihrerseits nur begrenzt mit AAA vergleichbar, da aufgrund der Entscheidung des ATi-Treibers, welcher Modus genutzt wird, irreführend. Zudem sind auch die (m.E. wirklich guten, speziell Edge Detect) CFAA-Modi bei ATi nicht vergleichbar.

Durch diesen "Dschungel" hat Wolfgang die Leserschaft schon geführt: https://www.computerbase.de/2009-01/bericht-anti-aliasing-bei-ati-und-nvidia/

Was bleibt übrig? Konventionelles MSAA in unterschiedlichen Samples (sinnigerweise 4x und 8x).

Dass eine bestimmte Gruppe von Usern, die sehr hohe bzw. extrem hohe Ansprüche an die Bildqualität stellen, die Schwächen der Bildqualität ansprechen, ist auch durchaus berechtigt. Nur sollte man sich ebenfalls vor Augen halten, dass die übergroße Mehrheit der Nutzer einer Grafikkarte sich damit nicht beschäftigen, bzw. dies nicht bemerken und damit die Unterschiede in der Bildqualität im Endeffekt nicht entscheidend ins Gewicht fallen. Es ist und bleibt Kritik auf sehr hohem Niveau. Betont man aber diese Unterschiede sehr deutlich, wie man dies in einschlägigen Threads liest, so könnte man den Eindruck gewinnen, als läge ein massiver Unterschied vor, der zwischen "nicht anzusehen" bzw. "augenkrebsauslösend" läge. Und genau in dieser, noch nicht einmal böswilligen, Übertreibung liegt das Problem. Auch in den Argumenten gibt es Qualitätsunterschiede bzw. Hierarchien. Steht das AF-Problem etwa auf der gleichen Stufe wie die das Spulenfiepen diverser Karten, oder wie die Temperaturproblematik von Spannungswandlern oder GPUs? Ich denke nicht.

Sicher verdient AMD Kritik für die mangelnde Justierbarkeit der Bildqualität, durchaus, aber die jeweilige Relevanz für den Einzelnen sollte dabei nicht überbewertet werden.
 
Zuletzt bearbeitet:
rumpel01 schrieb:
Nun ja, die Problematik besteht darin, dass 8xMSAA + 16xAF (A.I. @Standard bzw. Q-AF) der "höchste" Modus ist, der noch recht gut vergleichbar erscheint. TSSAA bzw. TMSAA-Modi sind ihrerseits nur begrenzt mit AAA vergleichbar, da aufgrund der Entscheidung des ATi-Treibers, welcher Modus genutzt wird, irreführend.
Zugegeben, man kann nicht einmal Multisampling-AAA mit TMSAA vergleichen, da sie unterschiedliche Bildqualität liefern. Allerdings bleibe ich dabei, 8xAA mit 16xAF ist ein ziemlich witzloser Modus, weil zuvor wesentlich sinnvollerere und weitaus effektivere Möglichkeiten bestehen, die Bildqualität zu erhöhen. Die Einbeziehung von 8xAA/16xAF als höchsten Benchmarkmodus führt aber unbedarfte User in die Irre und verleitet dazu, dies für einen Modus mit hoher Bildqualität zu halten. Sachkundigere User fühlen sich dagegen zu Recht veräppelt, es ist also niemandem geholfen.

Tatsächlich sollte man IMHO die herstellerübergreifenden Diagramme spätestens bei 4xAA/16xAF enden lassen und danach ermitteln, wie weit das jeweilige Stück Hardware in den getesteten Spielen bei den verfügbaren weiterführenden Qualitätseinstellungen (zunächst AAA/TAA, dann noch CSAA/HybridModi bzw. EdgeDetect) noch spielbare Frameraten liefern kann. Das würde natürlich eine Menge Arbeit bedeuten und auch auf auftretende Inkompatibilitäten müsste man im Fließtext eingehen, da ist dann nicht mehr viel mit scriptgesteuert und Copy&Paste.

Zudem sind auch die (m.E. wirklich guten, speziell Edge Detect) CFAA-Modi bei ATi nicht vergleichbar.
Natürlich nicht, Nvidia hat diesen qualitativ nichts entgegenzusetzen, sie sind die Krönung der Kantenglättung. Allerdings bleibe ich dabei, es ist widersinnig, die Polygonkanten mit einem derartigen Overkill zu bügeln, wenn der Anisotrope Filter in keinem Verhältnis steht und womöglich noch nicht einmal AAA zugeschaltet wurde.

Es ist und bleibt Kritik auf sehr hohem Niveau. Betont man aber diese Unterschiede sehr deutlich, wie man dies in einschlägigen Threads liest, so könnte man den Eindruck gewinnen, als läge ein massiver Unterschied vor, der zwischen "nicht anzusehen" bzw. "augenkrebsauslösend" läge. Und genau in dieser, noch nicht einmal böswilligen, Übertreibung liegt das Problem.
Zugestanden, andersrum liegt im Herunterspielen der Problematik, die ich auch gern auf weitere Bevormundungen im Catalyst (MS/SS bei AAA, Kompatibilitätsmodi nur durch EXE-Renaming, ...) ausweiten möchte ebenso die Gefahr, dass man damit mittelfristig dafür sorgt, dass die Konkurrenz sich dem schlechteren Niveau annähert und dann sind wir alle angeschmiert. Soll ATI bei A.I. Standard am Filter sparen wie sie wollen und A.I. den AAA-Modus bestimmen, so lange sie dem Käufer keine Möglichkeit bieten, HQ-AF zu erhalten und frei zu wählen, gehört das angeprangert. Wird es aber nicht, nur in Forenthreads und da sei die Zuspitzung gestattet.

Sicher verdient AMD Kritik für die mangelnde Justierbarkeit der Bildqualität, durchaus, aber die jeweilige Relevanz für den Einzelnen sollte dabei nicht überbewertet werden.
Es ist wie gesagt leider nicht so, dass ATI unverhältnismäßig lautstarke Kritik ertragen müsste und geradezu ungerecht behandelt würde. Tatsächlich hat wie ich finde ComputerBase bereitwillig auf die offizielle Linie eingeschwenkt und verkündet, der User merke keinen Unterschied, er braucht keine höhere Qualität. Genauso verkündet ATI, ihre Kunden fänden zu viele Optionen im CCC verwirrend und profitierten, wenn künftig Treiber entscheidet, ob beim AAA MS oder SS Anwendung findet, auch hier gab es keinen öffentlichen Widerspruch. Die Fachpresse versagt.
 
Ich gebe Dir in vielen Punkten recht, aber:

smith0815 schrieb:
Tatsächlich sollte man IMHO die herstellerübergreifenden Diagramme spätestens bei 4xAA/16xAF enden lassen und danach ermitteln, wie weit das jeweilige Stück Hardware in den getesteten Spielen bei den verfügbaren weiterführenden Qualitätseinstellungen (zunächst AAA/TAA, dann noch CSAA/HybridModi bzw. EdgeDetect) noch spielbare Frameraten liefern kann.

Dies wäre m.E. das Ende der üppigen und auf Kartenübergreifende Vergleichbarkeit ausgerichteten Testparcours. Das geht evtl. mit drei Karten und noch vier oder fünf Spielen, der Rest wird für einen Redakteur extrem zeitaufwändig.

Zugestanden, andersrum liegt im Herunterspielen der Problematik, die ich auch gern auf weitere Bevormundungen im Catalyst (MS/SS bei AAA, Kompatibilitätsmodi nur durch EXE-Renaming, ...) ausweiten möchte ebenso die Gefahr, dass man damit mittelfristig dafür sorgt, dass die Konkurrenz sich dem schlechteren Niveau annähert und dann sind wir alle angeschmiert.

Diese Gefahr sehe ich nicht. Zu R580-Zeiten konnte das AF überzeugen und man setzte sich von den Filterproblematiken des G70/71 ab, ebenso reagierte nvidia mit dem G80 und heimste dafür großes Lob ein, das AF des R600 wurde ebenfalls kritisiert, und zwar deutlich: https://www.computerbase.de/2007-05/test-ati-radeon-hd-2900-xt/7/#abschnitt_af_kontrolliert. Und dies wurde auch erneut bekräftigt bei der Einführung des GT200: https://www.computerbase.de/2008-06/test-nvidia-geforce-gtx-280-sli/6/#abschnitt_af_kontrolliert

Dass Deine Wahrnehmung der Bildqualität sich von anderen unterscheidet, sollte aber klar sein. Wenngleich ich selbst ebenfalls darauf achte und gern TSSAA nutze, so kann man auch akzeptieren, dass die Wahrnehmungen unterschiedlich sind und die eigene sprichwörtliche Sichtweise nicht absolut ist.

Ich bleibe in jedem Fall dabei, dass es sich dabei um Probleme der höheren bzw. höchsten Weihen handelt, deshalb wäre es v.a. wichtig, diese Dinge direkt gegenüber ATi bzw. nvidia zu kommunizieren
 
Zuletzt bearbeitet:
Lohnt es sich eine Stromfressende 3870 X2 gegen eine 4770 auszutauschen? Ich habe einen 24" Zoll Monitor und möchte hin und wieder schon sehr gerne Games als Gelegenheitsgamer mit ein paar zusätzlichen Gimmicks zocken. Ich bin mit meiner Leistung der 3870 X2 zufrieden und möchte aber später nicht schlechter da stehen. Inwieweit lässt sich die 3870 X2 in den Benchmarks einordnen?
 
da sie eine multi-gpu-karte ist eher gar nicht. ;) in den tests damals gegen die 8800gtx wurde sie je nach testseite mal vorn, mal hinten gesehn. demzufolge sollte sie mit der 4770 etwa gleichauf liegen. die 4770 ist also im direkten vergleich wohl die bessere wahl. ob sich allerdings ein wechsel lohnt, hängt imho davon ab, für wie viel du die 3870x2 los wirst. bei geringem aufpreis (den rest machen die stromkosten wett ;) ) würde sich das imho schon lohnen...
 
Ein Danke an "Lübke" und "doesntmatter"

Habt mir schon sehr weitergeholfen. Wenn ich mir das Performance Rating in der die 3870 X2 vorhanden ist so ansehe, macht sie schon was her. Klar, sie hatte mir damals 400 Euro gekostet. Ob ich das jetzt noch bekomme steht außer Frage. Denke an so 80-100 Euro..:rolleyes: Schade währe es trotzdem. Ich mag die Karte.
Leider ist das PowerPlay Problem noch nicht behoben bzw. hatte mit dem Treiber seit gestern erhebliche Probleme.
Nun gut, die 3870 X2 heizt schon sehr gut unter 2D. Deshalb die frage ob sich ein umstieg lohnt wenn die Grafikkarte 90% der PC Zeit ungenutzt bleibt.

Ich warte ab und eventuell tut sich am 9.5er Catalyst was oder es kommt eine günstige übertaktete 4770 mit 1 GB. Alleine die technischen Daten der neuen Karte sind klasse. Was man heute fürs Geld bekommt...:)
 
Suizid schrieb:
Dann sind die Verbrauchswert wohl leider nicht repräsentativ. Vielleicht könnt ihr das nächste Mal auch direkt an der Graka messen.

Klasse, wir haben einen freiwilligen Spender der CB ein PCIe Strommessgerät finanziert :D
 
philcrack23 schrieb:
Nun gut, die 3870 X2 heizt schon sehr gut unter 2D. Deshalb die frage ob sich ein umstieg lohnt wenn die Grafikkarte 90% der PC Zeit ungenutzt bleibt.

Rechne es dir aus: Mehrverbrauch in der Stunde * tägliche Laufzeit (abzüglich Spielzeit ;)) * Tage im Jahr, geschätzt

Selbst mit der neuen HD4770 (Idle - 30 Watt) und 8 Stunden am Tag, 365 Tage kommst du auf 87 kW/h * 20 Cent = 17 Euro.

Das rechtfertigt keinen Neukauf, denke ich ?! [uebertreibmodus]Sparst du das nicht ausgegebene Geld inkl. Zins, könntest du dir innerhalb Jahresfrist jeweils das nächstbessere Modell kaufen, nach einem weiteren Jahr bereits die nächstbessere Leistungsklasse usw. [/uebertreibmodus]

Das Laufgeräusch aufgrund lauterer Lüfter ist eine andere Sache und mit Geld kaum zu bewerten, aus Komfortgründen (Ruhe am Arbeitsplatz) sind 100 Euro m.E. bestens angelegt. Um mal verführerisch zu argumentieren. :evillol:

(Off topic: Ich baue gelegentlich um, meine zwei HD3850er im Crossfire sind schon sparsam im Idle, Crossfire deaktiviert und ich kann bei folding@home (fast) die Leistung je eines Quads ersetzen: macht grob drei Quads für die Wissenschaft, für alte Technik nicht schlecht.)
 
gruffi schrieb:
Dafür hat nVidia einen schlechteren 8xAA Modus.
Langsamer idR, ja. Schlechter - nein. Das MSAA ist praktisch identisch bzw. nur auf Shots bei diversen Winkel minimal unterschiedlich.
gruffi schrieb:
8800 GTX und HD 4770 dürften sich bezüglich Performance also nicht viel nehmen.
Alte Treiber. Bitte die 185er-Series beachten. Eine 88GTX ist oft gleichauf oder vor einer HD4850.
 
Zuletzt bearbeitet:
@Antimon

Hm man braucht dazu ein spezielles Messgerät, okay dann hätte ich wohl wirklich besser meine Klappe gehalten.

Ich mach mich mal schlau, allein spendier ichs aber nicht. Wir könnten ja eine Sammelspende machen? :evillol:
 
Zurück
Oben