Test Test: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI)

@redfirediablo

nvidia fertigt aber nicht die Grafikkarte, sondern liefert den Chip.

Sapphire, GeCube & Co. fertigen die Grafikkarten und wenn die einen Lüfter falsch montieren, dann ist das sicherlich nicht nvidias schuld.
 
Bitte macht Euch auch mal ein Bild von anderen Tests! Ich kann auf Computerbase die ganzen Tests nicht mehr nachvollziehen.

Es ging schon los als damals ne Ultra nur weiss nicht wie wenige FPS in Dirt haben sollte. Was nicht stimmte.

Was ich nun aber sehe ist verglichen mit den letzten Benchmarks der gtx280 im sli das, das gtx260 gespannt im SLI gerade mal 8 FPS weniger hat wie das gtx280 SLI gespann.

Komisch auch das die Werte der Karten ohne Sli identisch sind.

Ich habe gerade auf Tweaktown ein Test gesehen der bescheinigt das die hd4870 im CF nichtmal annähernd an eine gtx280 kommt.

Und zusätzlich ist dort fast immer eine einzelne zwar leicht übertaktete gtx260 fast immer schneller wie ein 4870 CF Gespann.

Also sorry irgendwas haut da nicht hin.

PS: Da ich nicht weiss ob Links erlaubt sind hier der Name des Tests:

Sapphire Radeon HD 4870 in Crossfire
 
Zuletzt bearbeitet:
Also ich weiß nicht warum manche hier nur spekulativ reden? Ich habe heute meine 4870 von saphhire eingebaut und alles klappt ganz gut. Ich kann nun nach paar spieletests und benches sagen, das diese karte ihr geld wert ist!

Strom:
Was aber manche behaupte, das die karte sooo viel strom frisst, was ich da leider net nachmessen kann, aber die taktet im 2d modus auf 500Mhz, was aber mit den nähsten treibern wohl (ich schätze mal) auf 300Mhz gehen wird und die karte dann wohl ca. genauso viel strom verbrauchen wird wie eine 3870 (hatte die auch drin;-) ).

Lautstärke/Temp.:
Manche denken wohl das die karte nonstop auf 100% GPU last laufen wird im 3D modus, dem ist net so! ich höhre die karte absolut net, sie ist flüsterleise. Habe Crysis über 1h auf 1650x1050 alles auf very high (lief flüssig wohlgemerkt) gespielt und die karte dabei nicht mal wahrgenommen, der lüfter hat nicht einmal aufgedreht und die max. GPU Temp. die ich gesehen habe war 71 Grad Celsius. (Die Karte ist leiser als meine Gecube 3870 OC oder die nVidia 8800GTS 512)
Bei Age of Conan habe ich alles auf absolutes maximum eingestellt und habe konstant über 33 bilder pro sekunde.
Ich habe einfach das subjektivobjektive gefühl das die karte permanent unterfordert ist:pcangry:
Was ich noch zur Temp. loswerden wollte. Also der chip ist in 55nm gefertigt, dabei (um so kleier die chips) herscht eine höchere oberflächentemperatur, ergo es kommt immer darauf an wo man misst. deswegen ist die karte "so warm". Was ich aber nicht verstehe warum dann die nVidia karten mit einem größeren chip mehr wärme produzieren, und bitte sagt net das hängt von der anzahl der transestoren im chip ab, ich weiß wovon ich rede:)

Ich hoffe ich konnt euch einen einblick gewähren. Ich für meinen teil würde die karte aufjeden fall weiter empfehlen! (und das mit GUTEM gewissen)
 
Zuletzt bearbeitet:
BLaKeDJ06 schrieb:
Bitte macht Euch auch mal ein Bild von anderen Tests! Ich kann auf Computerbase die ganzen Tests nicht mehr nachvollziehen.

Es ging schon los als damals ne Ultra nur weiss nicht wie wenige FPS in Dirt haben sollte. Was nicht stimmte.

Was ich nun aber sehe ist verglichen mit den letzten Benchmarks der gtx280 im sli das, das gtx260 gespannt im SLI gerade mal 8 FPS weniger hat wie das gtx280 SLI gespann.

Komisch auch das die Werte der Karten ohne Sli identisch sind.

Ich habe gerade auf Tweaktown ein Test gesehen der bescheinigt das die hd4870 im CF nichtmal annähernd an eine gtx280 kommt.

Und zusätzlich ist dort fast immer eine einzelne zwar leicht übertaktete gtx260 fast immer schneller wie ein 4870 CF Gespann.

Also sorry irgendwas haut da nicht hin.

PS: Da ich nicht weiss ob Links erlaubt sind hier der Name des Tests:

Sapphire Radeon HD 4870 in Crossfire


LoL, so ist das wenn man sich unbedingt was zurechträumen will. Der seriöseste Test den es im Internet gibt macht CBase, da werden die neuen Karten auch mit den aktuellsten Treibern getestet. Findest viele Tests im Netz zu 4870 vs 260/280 wo entweder ATI oder Nvidia benachteilt wird durch alte Treiber.
 
LinuxMcBook schrieb:
Was mir für eine Entscheidung noch fehlt ist ein GPU Computing Test, besonders für folding@home.

Meines Wissens gibt es keine aussagekräftigen Tests weil
- General-Purpose-GPU-Anwendungen nicht gleichzeitig auf nVdia- und ATI-Karten laufen
- CUDA bspw. gibt es nur für nVidia-Karten
wikipedia
- FAH stellt jeweils optimierte Treiber für beiden GPU-Typen zur Verfügung, die sehr stark in der CPU-Belastung schwanken und durchaus noch experimentellen Charakter haben

Diese Seiten kennst du wohl schon:
http://www.gpgpu.org/
http://de.wikipedia.org/wiki/GPGPU#Nachteile
Rubrik "FAH-Hardware"

Bei FAH ist alles noch stark im Fluß, man erinnere: die X1900-Serie wurde fast zwei Jahre mittels GPU1-Client unterstützt, danach eingestellt (Gründe und Erkenntnis in den News vom 27.05.2008), die derzeitigen Beta-Clients sind vielversprechend, aber noch lange nicht abschließend bewertet, d.h. sie müssen ihren wissenschaftlichen "Wert" noch beweisen (indem die Ergebnisse gegengerechnet werden). Streng genommen sollte man nciht die Performance der Clients als Maßstab ansehen, sondern die "Güte" der Ergebnisse. Und hierbei schneidet ATI/AMD keineswegs schlechter ab (siehe Diskussion "ATI vs Nvidia PPD vs architecture").
 
wow

kann nur sagen toller Test und ich denke ich hol mir die HD4870 :)

hoffe nur das sie da nochwas machen mit Stromverbrauch im Idle Modus, da ich viele chatte usw. wäre das für mich echt gut.
 
michafol schrieb:
Strom:
Was aber manche behaupte, das die karte sooo viel strom frisst, was ich da leider net nachmessen kann, aber die taktet im 2d modus auf 500Mhz, was aber mit den nähsten treibern wohl (ich schätze mal) auf 300Mhz gehen wird und die karte dann wohl ca. genauso viel strom verbrauchen wird wie eine 3870 (hatte die auch drin;-) ).

Sorry, aber mit "die Karte dann wohl ca. genauso viel ..." willst du was sagen ?

Entweder du hast einen Messwert oder wir vertrauen lieber auf (zumindest) relative Messwerte in Tests, die absolut messen können. Jeder kann dann die Relation der Karten zueinander einschätzen.

"Vom Gefühl her" auf Verbrauchswerte zu gehen ist absurd. Ich habe alle meine Grafikkarten wattgenau vermessen, selbst diese Ergebnisse sind auf andere Systeme nicht (korrekt) übertragbar, nur ein Stichwort: Netzteil-Effizienz. Von identischen Settings bspw. beim 3DMark oder gar CPU-Takt/-Vcore ganz zu schweigen.

Anders die Lautstärke, hier sagen uns Dezibel meist wenig und Vergleichsangaben zu älteren Grafikkarten (mit Referenz-Board und -Lüfter) sind sehr hilfreich für Kaufinteressenten.

Bedenken muss man dann lediglich die unterschiedlichen Zieltemperaturen in den Lüftereinstellungen (Bios oder Software) und natürlich standardisierte Belastungstests.
 
Ich habe ein 004er BIOS auf meine Sapphire HD 4850 geflasht (vorher 003er BIOS; Quelle: techpowerup), von dem es hiess, Idle-Spannung und -Takt seien dort korrigiert worden. Im 2D Modus taktet die Karte nun 160/500 (GPU/Speicher) bei niedrigerer Spannung. Temperatur und Verbauch sinken entsprechend.

Ein BIOS Update ist natürlich nicht jedermans Sache, geht aber mit WinFlash sehr einfach (auch unter Vista x64).
 
redfirediablo schrieb:
LoL, so ist das wenn man sich unbedingt was zurechträumen will. Der seriöseste Test den es im Internet gibt macht CBase, da werden die neuen Karten auch mit den aktuellsten Treibern getestet. Findest viele Tests im Netz zu 4870 vs 260/280 wo entweder ATI oder Nvidia benachteilt wird durch alte Treiber.

Es ist doch genau umgekehrt.:rolleyes::rolleyes:
 
Winterday schrieb:
Ich habe ein 004er BIOS auf meine Sapphire HD 4850 geflasht (vorher 003er BIOS; Quelle: techpowerup), von dem es hiess, Idle-Spannung und -Takt seien dort korrigiert worden. Im 2D Modus taktet die Karte nun 160/500 (GPU/Speicher) bei niedrigerer Spannung. Temperatur und Verbauch sinken entsprechend.

Ein BIOS Update ist natürlich nicht jedermans Sache, geht aber mit WinFlash sehr einfach (auch unter Vista x64).

Top Neuigkeit. Ich warte dann mal darauf, dass die Karten gleich von Beginn mit diesem Bios ins Haus kommen.

Hatte auf so etwas gehofft. Bios updates von Grafikkarten werde ich mir erst zutrauen mit einem MB mit 2 PCIe Slots, dann kann ich die Ersatzkrafikkarte zur Not reinsetzen um das Bios zu flashen.

Wie kühl bleibt jetzt deine Karte?
 
Ich hoffe ich habe kein Fehler gemacht. Wenn schon, bitte zerreißt mich nicht :D Ich lerne gerne dazu

Ausgang: Der PC läuft 5h am Tag x 365 Tage - Davon 4 im Idle und 1 im Last.

Radeon 4870
4h idle am Tag = 788 Watt

1000W = 19,000 Cent
0788W = 14,972 Cent

4h idle kosten 14.972 Cent am Tag
1h Last am Tag = 360Watt
0333W = 6,327 Cent

Also pro Jahr = 21,999 x 365 = 77,74 €

----------------------------------------------------------------

GeForce GTX 280
4h idle am Tag = 632 Watt

1000W = 19,000 Cent
0632W = 12,008 Cent

4h idle kosten 12.008 Cent am Tag
1h Last am Tag = 360 Watt
0360W = 6,840 Cent

Also pro Jahr = 18,848 x 365 = 68,80 €


Also ist das aufs Jahr ca 10€ bei meinen Typischen Verhalten. Müsste jeder selber wissen ob ihm 10€ egal sind. Ich persönlich hätte jetzt nicht so ein Problem damit. Aber Kleinvieh macht ja bekanntlich auch Mist.
 
Zuletzt bearbeitet:
@unLead
Zerreissen bestimmt nicht ;), nur ein Tipp: Stunden mal Watt = Wattstunden (788 Wh bzw. 632 Wh). Geschickter ist in kWh zu rechnen, weil üpblicherweise dafür auch der Preis angegeben wird (0,788 kWh bzw. 0,632 kWh).

Deine Rechnung ist zwar unkonventionell, kann aber keinen Fehler finden. Bei einer Stunde Last alle 365 Tage kommt das hin, vorausgesetzt die CPU-Belastung ändert sich bei dem Gebrauch der GPU nicht. Wäre der Fall bei PhysX-Software bspw.

Bei 10 Euro Unterschied wären tatsächlich andere Faktoren bedeutsamer. Einen Durchschnitts-Spielerechner mit nur 7 Stunden GPU-Last in der Woche halte ich für eine Randerscheinung. Auch wird nur ein Bruchteil einen QX9770 (wie im Testsystem) haben, mit einer geringeren TDP dürfte man den Wert weiter nach unten korrigieren.

Kauft sich nun jemand eine neue Grafikkarte um in den 8 Stunden Normal-Betrieb (Montag bis Freitag) seine Grafikkarte Proteine falten zu lassen (Vollast), sähe deine Rechnung wie aus ? Nur mal um die Dimensionen abzuschätzen.

Strom und Geld sparen sollte man dort, wo man bereits viel Verbrauch hat. Eine sparsame oder nicht übertaktete CPU kann in einem Spiele-Rechner viel mehr einsparen bzw. den Tausch schneller amortisieren. Ist der Rechner als Ganzes der Hauptfaktor in der Stromrechnung, lohnt sich in jedem Fall eine genaue Analyse.
 
Zuletzt bearbeitet:
Es gibt also doch noch Hoffnung.

Das wird dem Image von ATI gut tun, was mit nvidia ist, sieht man an den Aktien.
Allerdings gibt´s noch einiges an den Treibern und dem Bios zu tun, um die Stromsparmechanismen zu verbessern. Die Hitzeentwicklung ist meines Erachtens momentan bedenklich, ich hoffe, dass es bald Verbesserungen gibt.
Letztlich liegt das meiste Potential der aktuellen Grafikkarten (sowohl ATI als auch NVIDIA) mangels vernünftiger Unterstützung durch die Spieleprogrammierer brach. (Siehe DX 10.1 Problematik)
Weil man also (abgesehen von denen, die einen 30" LCD ihr Eigen nennen), die Leistung der Karten nicht wirklich nutzen kann (man sehe sich die Exorbitanten Frameraten an), ist es doch wohl klüger, sich bei einer Neuanschaffung an eine günstigere Karte wie die 4850 oder 70 zu halten. Wer sich aus Prestige eine GTX 280 kauft, für den gilt der klassische Spruch aus Friends: Wäre es nicht billiger gewesen, sich eine Socke in die Hose zu stecken.?

Denn erklärt mir bitte:
WER zur Hölle braucht diese Karten?

Bis es Spiele gibt, die davon ernsthaft profitieren (außer unser Feund Crysis; hier sei wieder auf den Sockenspruch verwiesen) wird die nächste Generation draußen sein.
Fakt ist: die Hardware ist der Software/den Spielen momentan zu weit voraus. Eine ähnliche Entwicklung ist ja bei den Prozessoren zu spüren, wo sich der Trend aber dank der Nettops und Netbooks momentan zumindest ein bisschen umkehrt. (Spezialanwendungen sind hier ausgenommen, es gibt natürlich Leute, die von sehr schnellen Prozessoren und Graikkarten profitieren! Aber das ist ein kleiner Kreis).



@unyu
In einigen Punkten hast du sicherlich Recht. Vorallem, dass man vorher Nvidia beschuldigt hat, Stromfresser zu bauen und jetzt wo ATI das macht, soll es plötzlich in Ordnung sein.
Aber hier besteht ja Hoffnung, auch wenn du das nicht gelten lässt. Und eben da liegt dein Problem: Deine äußerst polemische und teils einseitige Vortragsweise ist nicht gerade förderlich für eine ernsthafte Auseinandersetzung. Ich meine du hast dier hier sowieso schon den Titel "Größter nv-Fanboy" erworben. Wenn du deine Einwände etwas sachlicher formulieren würdest, wären sie aber zu Teilen sicherlich auch für die Ati-fans nachvollziehbar.
 
@redfirediablo kaputt.....

Wer sagt das die nicht die neusten Treiber haben?

Was ist mit meinen Vergleichen der beiden Benchmarks hier auf CB wo die GTX260 im SLI nur 5 FPS langsamer ist wie die GTX280 im SLI?

Wer sagt das man den Tests von anderen nicht so vertrauen kann wie die von CB?

Der einzigste der hier was zurechträumen will bist Du ATI Jünger!
 
Hm, ich hab mir vor 2 Wochen eine EVGA 9800 GTX Superclocked von Alternate gegönnt.... für preiswerte 189 Mücken.
Sauer bin ich deswegen nicht, die ist angenehm leise und schnell genug für meine derzeitigen Anforderungen (CoD4) :D

Aber Kompliment an AMD das sie endlich was vernünftiges hinbekommen haben, nun kann sich nVidia warm anziehen. Konkurenz belebt das Geschäft! Gut so !!! :freak:

Ich bin weder ATI/AMD noch nVidia "Jünger". Meine erste 3D Grafikkarte war eine Vodoo3 2000, dann nVidia Geforce 4 Ti4200, dann ATI 9800 pro, dann ATI X1900XT nun wieder nVidia 9800 GTX. Felxibel muss man sein ;)

Die 280GTX ist eigentlich auch beachtlich (aber zu teuer), auf die 4870 X2 bin ich aber mal gespannt :)
 
Zuletzt bearbeitet:
Objektiv gesehen ist die HD4870 also von ihrer Leistung her mit der GTX260 gleichwertig. Punkt. Etwas anderes kann man den bisherigen Reviews nicht entnehmen. Deswegen ist es mir schleierhaft wieso das hier teilweise wieder in einem Fanboy-Kleinkrieg ausgeartet ist.

Die Leistung stimmt also und das Preisleistungsverhältnis ist der Wahnsinn, schön zu sehen dass die HD4870 einen "Preissturz" der, zu hoch angesetzten, GeForce GTX bewirkt hat. Schlecht für Nvidia (Yieldrate -> Produktionskosten -> Gewinnmarge), gut für die Verbraucher die sich nun darüber freuen müssten, unabhängig davon ob sie nun im Nvidia oder ATI "Lager" sind.

Das tun einige nicht. Stattdessen wird auf andere offene "Schlachtfelder" ausgewichen wie Bildqualität oder Leistungsaufnahme. Da die meisten von uns subjektiv kein Qualitätsunterschied feststellen können und dieser höchstens theoretisch ist, ist das kaum ein Argument für einen der beiden Chiphersteller.
Während ich die Aufregung bei einem R600 noch gut nachvollziehen konnte, da die Aufnahme in Relation mit Leistung katastrophal war, sind die aktuellen Unterschiede in der Leistungsaufnahme eher marginal aber für viele trotzdem ein Anlass von "Stromfresser" im Bezug auf die HD4870 zu reden.
Gab es eigentlich schon mal eine Grafikkartengeneration im Bereich High-End die zusammen mit signifikanten Leistungssteigerungen die gleiche oder niedrigere Leistungsaufnahme hatte? Glaube nicht, aber genau das wird offenbar verlangt.

Diejenigen, die Wert auf niedrige Leistungsaufnahme legen, müssen wohl oder übel auf Mainstreamkarten setzen. Die, die von High-End Grafikkarten beides erwarten, sollten sich schleunigst in den F&E Abteilungen von Ati und Nvidia bewerben da die Ingenieure dort offenbar keine Ahnung haben.

Also, zwei super Karten von ATI, die in ihrem jeweiligen Preissegment mit der Konkurenz mehr als mithalten können. Lediglich die Temperaturwerte sind ein echter Negativpunkt aber es kommen sicherlich noch neue Kühllösungen auf den Markt...

Ein Angriff auf die GTX280 in Form eines Super-RV770 wäre aus Prestigegründen bestimmt wünschenswert. Ich hoffe nur, dass entsprechende Karten nicht explizit auf Wasserkühlung setzen werden...
 
@moe-ses
Stromfresser bezieht sich wohl auf das Verhältnis Chipfläche/energieverbrauch.
Dazu kommt, dass alle erwartet hatten, dass die NV gt200 aufgrund ihrer hohen Tranistorenanzahl viel mehr strom verbraucht, als die ATI 48xx. Jetzt ist es umgekert, dafür leistet die GT200 weniger und die ATI mehr als allgemein erwartet wurde.

Dass sich da die Fanboy-Lager zu wilden Diskussionen hinreißen lassen, ist ja vorprogrammiert.

Ich würde mir wünschen, dass die alte Technik besser ausgenutzt würde, bevor sie auf dem Müll landet. (Man sehe sich an, was aus den Konsolen noch nach Jahren herausgeholt wird.)

Ich denke die Grafikkartenhersteller müssen künftig auf modulare Lösungen setzen: HöchstleistungLeistung auf Last und niedrige Energieaufnahme im Idle-Modus. Der Hybrid Power Ansatz von Nvidia ist hier, wie ich finde, vorbildlich. Bleibt abzuwarten, was AMD im Notebookbereich mit Lasso fertigbringt.
 
BLaKeDJ06 schrieb:
Bitte macht Euch auch mal ein Bild von anderen Tests! Ich kann auf Computerbase die ganzen Tests nicht mehr nachvollziehen.

Es ging schon los als damals ne Ultra nur weiss nicht wie wenige FPS in Dirt haben sollte. Was nicht stimmte.

Was ich nun aber sehe ist verglichen mit den letzten Benchmarks der gtx280 im sli das, das gtx260 gespannt im SLI gerade mal 8 FPS weniger hat wie das gtx280 SLI gespann.

Komisch auch das die Werte der Karten ohne Sli identisch sind.

Ich habe gerade auf Tweaktown ein Test gesehen der bescheinigt das die hd4870 im CF nichtmal annähernd an eine gtx280 kommt.

Und zusätzlich ist dort fast immer eine einzelne zwar leicht übertaktete gtx260 fast immer schneller wie ein 4870 CF Gespann.

Also sorry irgendwas haut da nicht hin.

PS: Da ich nicht weiss ob Links erlaubt sind hier der Name des Tests:

Sapphire Radeon HD 4870 in Crossfire

ähm, krass...eine GTX260 schneller als ein CF von 4870ern..krass..da eigentlich sogar die 4870 mit der GTX260 gleichzieht... krass,mehr fällt mir da net ein.

und wer diesen benches dann glaubt (habs mir jetzt selber net angeschaut), der muss irgendwie ein wenig, verzeiht den ausdruck, hirntot sein,wenn er ahnung von der materie hat.

das ist marktverfälschung!

Edit:

lol, i hab mir den test nomml angeschaut..also i weiß net,was du da verzählst..

erstens nutzen die eine GTX260 oc, und vergleichen die mit der 4870, die in ca der hälfte der benches au no gleichschnell bzw schneller ist... zudem sie nie großartig langsamer ist.

zweitens scheinen die von der seite zu doof zu sein, CF zum laufen zu bringen..die haben ja nie leistungsvorteile..sorry,aber das ist praxisfern.

Final Thoughts

The single HD 4870 does an excellent job at standing its ground, floating around the GTX 260 XXX card we have here today. Like the HD 4850, turning on AA doesn’t cause the card to fall to its knees as was the case with the HD 3800 series of cards of last generation.

gruß
 
Zuletzt bearbeitet:
BLaKeDJ06 schrieb:
Bitte macht Euch auch mal ein Bild von anderen Tests! Ich kann auf Computerbase die ganzen Tests nicht mehr nachvollziehen.

Es ging schon los als damals ne Ultra nur weiss nicht wie wenige FPS in Dirt haben sollte. Was nicht stimmte.

Was ich nun aber sehe ist verglichen mit den letzten Benchmarks der gtx280 im sli das, das gtx260 gespannt im SLI gerade mal 8 FPS weniger hat wie das gtx280 SLI gespann.

Komisch auch das die Werte der Karten ohne Sli identisch sind.

Ich habe gerade auf Tweaktown ein Test gesehen der bescheinigt das die hd4870 im CF nichtmal annähernd an eine gtx280 kommt.

Und zusätzlich ist dort fast immer eine einzelne zwar leicht übertaktete gtx260 fast immer schneller wie ein 4870 CF Gespann.

Also sorry irgendwas haut da nicht hin.

PS: Da ich nicht weiss ob Links erlaubt sind hier der Name des Tests:

Sapphire Radeon HD 4870 in Crossfire
hast mal den cpu von cb(Prozessor
  • Intel Core 2 Extreme QX9770 (übertaktet per Multiplikator auf 4 GHz, Quad-Core)
und Tweaktown (Processor(s): Intel Core 2 Quad Q6600 @ 3GHz (333MHz x 9)verglichen ?
cu :king:
ganz zu schweigen vom ddr3 mainboard und speicher...
 
Zuletzt bearbeitet:
Vulture_Culture schrieb:
@ H3rby
Die Unternehmen haben nicht weniger geld in der Kasse. Im Gegenteil: AMD setzt darauf, dass viele Leute ihre Produkte kaufen. Dadurch wird der Preis günstiger und mehr Leute, die bis dahin gezögert haben kaufen die Grakas.
Lernt man alles 9te Klasse Realschule :D

Off-Topi: Wünsche allen Realschülern einen schönen Abschluss *:D*

Edit:

Ha ha ha wann wird es die GTX260 bitte für unter 200 geben? in 2 Jahren vil.
bestimmt schneller als du denkst war bei der 8800 gt genauso dies innerhalb von 3 wochen von 230 auf 120 gefallen ...
 
Zurück
Oben