Schade, schade, schade...
Eigentlich hatte ich mich dem Gedanken gespielt mir eine HD 4870 X2 zu kaufen, wenn AMD es wirklich schafft PowerPlay 2 zum Funktionieren zu bringen. Was Computerbase im Test mit "funktioniert ordentlich" beschreibt, kann ich nur als "völlig unzureichend" kommentieren. Das die Karte knapp 200W unter Last mehr braucht als eine 8800GTX könnte man in Anbetracht der Leistung evtl. noch verzeihen, wenn man sich aber die hohen Temperaturen (mal ehrlich CB; die Temperaturen sind alles andere als i.O.), den mit über 100W hohen Idle-Verbrauch der Karte, die wohl mehr als 350W unter Last und den Flugzeug-Turbinen-Lärm unter Last anschaut, könnte einem der Gedanke kommen, dass AMD absichtlich auf alle Kunden geschissen hat und mit der Karte aktuell lediglich krampfhaft die Performancekrone holen wollte. (Was durchaus gelungen ist). Wer damals bei der 8800er-Reihe geschrien hat, sollte jetzt ebenfalls aufstehen und protestieren.
Positiv hervorzuheben ist bei dieser Karte lediglich die Lautstärke im Idle-Modus. Das ist zwar ein wichtiges Kriterium, aber zumindest mich wird es kaum bewegen diese Karte zu kaufen.
Mein persönliches Fazit:
Diese Karte ist eine einzige Fehlentwicklung und absolut nicht marktreif. PowerPlay 2.0 erzielt so ziemlich die traurigsten Ergebnisse seit es "Stromspartechniken" gibt, die Lautstärke unter Last ist in Deutschland vermutlich sogar aus gesundheitlichen Gründen verboten und nur wenn man ein ATI-Fanboy wäre gerade noch als "absolute Frechheit" zu bezeichnen und die Leistungsaufnahme unter Last, die für Temperaturen und Lautstärke verantwortlich ist, führt vermutlich dazu, dass die Karte im Handel nur mit einem Vertrag on E-On angeboten werden darf (vermutlich liegt ein entsprechender Sticker der Karte bereits bei).
Das eigentlich traurige an der Sache ist aber, dass meine letzten zwei Grafikkarten keine NVidia-Karten waren, weil ich NVidia so toll finde, sondern dass ATI es schafft mich einzig und allein mit ihren eigenen Produkten dermaßen abzuschrecken, dass nur noch die Konkurrenz übrig bleibt. Da jedoch beide Firmen nicht sonderlich fähig in der Entwicklung von Chips zu sein scheinen, warte ich jetzt mal darauf, was Intel uns noch bringt und spätestens wenn Intel Zeit hatte ein bisschen Erfahrung zu sammeln, werden die beiden Möchtegern-Grafikkarten-Entwickler feststellen, dass man mehr als zwei Gehirnzellen anstrengen muss, um ein gutes Produkt auf den Markt zu bringen und eine Karte nicht so viele W verbrauchen sollte wie sie EUR kostet.
P.S.: Gibt es schon ein Forum, wo man sich erkundigen kann wie man am besten vorgeht, wenn der Nachbar aufgrund des Lärms einer ATI X2 verlagt?
Schinzie schrieb:
ja, zur dezibel sache. hatten wir schon mal bei der GTX280. 3 dezibel ist nur die verdoppelung der schallstärke. 6 sind der theoretische wert (glaub ich), und 10 die subjektive verdopellung.
Ääh...NEIN. Die Subjektive Verdopplung lässt sich mit dB überhaupt nicht ausdrücken, weil sich mit dB nicht die subjektiv empfundene Lautstärke angeben lässt. Selbst zwei Geräuscht mit gleichen Schalldruckwerten (dB) können als subjektiv unterschiedlich laut empfunden werden. Daher eignet sich die eine dB-Angabe auch überhaupt nicht zur Angabe von Lautstärken bei Produkten, was aber dennoch (leider) niemanden davon abhält diese zu benutzen. Hauptsache man hat so ein tolles Messgerät; man muss ja nicht auch noch wissen, ob es sinnvoll ist.
Schinzie schrieb:
wie erwartet die momentan schnellste und leistunstärkste Karte auf dem Planeten.
eine GTX290 oder ähnliches, wie es kollege Unyu voraussagt, ist noch nicht mal angekündigt. Nur ein shrink,aber wann und was es bringt ist ungewiss.
mit der X2 kann man endlich auch auf 30" spielen,und wenn man sich ein wenig mit CF beschäftigt läuft auch überall die X2 deutlich schneller.
Microruckler hingegen isnd subjektiv,einige nehmen sie erst gar nicht wahrm bzw andere stören sie nicht. fakt ist jedoch,wenn man über 30fps MIN bleibt, werden sie zu 95% erst gar nicht wahr genommen, und das ist bei der karte in jedem spiel, bis auf Crysis, der Fall. punkt.
gruß
Auf 30" kann man damit wirklich gut spielen. Leider habe ich kein Dual-DVI-Kabel zu Hause, dass 10m lang ist, so dass ich den PC in den Keller stellen kann, um nicht mehr ganz so von dem Lärm genervt zu werden.
Bei 50W idle und 50dB unter Last greife ich gerne zu, sobald die Karte 300 EUR kostet. Ansonsten würde ich mir die Karte alleine aufgrund der Lautstärke nichtmal für 1 EUR kaufen.