News ATi Radeon HD 3870 X2 fällt auf 159 Euro

Naja stimmt insofern mit der schlechten Qualität, wenn man Verbrauch, Treiber und Wärme betrachtet. Aber Mikroruckler und Leistung sind keineswegs die schlechten Dinge daran. Mirkoruckler treten auch auf, wenn man SLI oder CF mit ganz normalen Karten macht, sprich egal welche Form von Multi-GPU-Lösungen man einsetzt, es würden immer Mikroruckler auftreten. Nunja dieses Phänomen ist aber nur ein dummer Hype, der vollkommen übertrieben wird. Ich selber habe ein SLI aus zwei 7900 GS und merke von diesen berühmt berüchtigten Mikrorucklern überhaupt nichts. Ein Kollege von mir hat eine 9800 GX2 und ein anderer ein SLI aus zwei 8800 GT. Bei denen ist das genau das selbe, sie merken keinen Unterschied zu ihrer vorherigen Single-GPU. Und leistungstechnisch sind die Karten auch voll ok. Da die Karten jetzt auch noch preislich in bezahlbare Regionen gelandet sind (HD3870 X2 159€/9800 GX2 239€), kann man echt über einen Kauf nachdenken.
 
Zuletzt bearbeitet:
IgG schrieb:
X2/GX2 Karten sind (wenn sich mit dem R800 2009 nichts ändert) Geldvernichter mit vergleichsweise schlechter Qualität (Leistung, Wärme, Microruckler, Verbrauch, Treiber, ...).

Reichlich dummer Kommentar.
ATI Karten kosten die Hälfte bis ein Drittel von gleichwertigen NV Karten. Die Leistung ist bei den Topprodukten von NV höher, das ist wahr, nur für welchen Preis? Wie lange kostete dsasselbe Topprodukt bei NV 500 Euro?
Bei der Bildqualität sieht Ati seit langem besser aus, das ist auch ein bekannter Aspekt, langsamer, aber schöner.
Wärme ist ein Problem beider Kartenreihen, so groß ist der Unterschied zwischen beiden nicht, als daß er wirklich relevant wäre, auch wenn er da ist. Ist aber wie bei Menschen, kannst Du wirklich einen 1,80 großen und einen 1,78 großen Menschen unterscheiden in der Größe wenn beide nicht nebeneinanderstehen? Dasselbe gilt für den Verbrauch.

Microruckler: Hat NV ebenfalls bei SLI, error by design könnte man sagen. Dazu ist die Häufigkeit des Auftretens nur geringfügig höher als der berüchtigte TLB-Bug (und genau das ist ein Grund, warum der Artikel mit dem Satz "nicht zu leugnenden Microrucklern" übertreibt. Ja, da sind sie, nur genauso häufig wie Schnee in Kalifornien (was selten vorkommt aber wenn dann schlimm).

Treiber? Hmm, also beim besten Willen kann ich da keinen Unterschied auf Windowsebene entdecken, bei mir läuft dabei eine x3850 mit aktuellen Treibern und auf einem anderen Rechner eine 8800er Ultra. Der einzige Unterschied liegt in den Linuxtreibern, und da greift man zur Zeit besser zur Ati.
 
Forum-Fraggle schrieb:
ATI Karten kosten die Hälfte bis ein Drittel von gleichwertigen NV Karten.
Dann nenne mal ein Beispiel.

Forum-Fraggle schrieb:
Bei der Bildqualität sieht Ati seit langem besser aus,
Falsch.
Wer hat dir das eingeredet?
Nicht vergessen, die AF Qualität des R600 ist mieser als die des R5xx.
 
Forum-Fraggle schrieb:
Der einzige Unterschied liegt in den Linuxtreibern, und da greift man zur Zeit besser zur Ati.

Kann ich nicht bestätigen. Wir benutzten für die CAE Rechner genau aus diesem Grund KEINE ATI Karten. Komisch, aber wenn ich ehrlich bin haben wir so weit ich mich errinnern kann noch nie ne ATI getestet. Wird wohl nach dem Motto "Never change a running system" laufn.
 
@unyu alias anerkannter NV-Fanboy:

1.) Schau Dir einfach mal die Preise der 8800er Ultra an und vergleiche sie mit den 4850/70ern.
2.) Lies Dir vergleichende Testberichte durch, z.B. Assassins Creed Vergleich bei dem Ati optisch besser abschnitt (nutze Suchfunktion bei gamestar, der Artikel war von denen).

@Freeman_DIY:
Also ich muß genauer werden, NV lohnte sich bei Linux Systemen, momentan hält es sich die Waage aber in Zukunft wird es wohl Ati besser haben. Grund ist schlicht und ergreifend der geöffnete Treiber. Unter der Annahme daß NV nicht nachziehen wird den Quellcode zu veröffentlichen, wird Ati es unter Linux besser haben.
 
1. Warum sollte ich einer Karte, die vor über einem halben Jahr EOL geworden ist mit einer neu releasten Karte vergleichen?

Du willst die 4870 vergleichen?
Kostet 197€ mit 512MiB, die GTX 260 kostet 220€.

Du willst die 4850 vergleichen?
Kostet 128€, die 8800 GTS kostet 125€, die 9800 GTX+ kostet 154€.

So wo hast du da den doppelten oder dreifachen Preis gesehen?

2. Was willst du mit Gamestar und AC?
Ja die Kanten waren auf Kosten der Partikeleffekte hübscher geglättet. Jetzt bleib mal auf dem Teppich und erzähl mir wo die AMD Karten die bessere Bildqualität haben.

3. Den ersten Satz kannst du dir in einer ernsthaften Diskussion, so fern du eine wolltest, den die völlig aus der Luft gegriffenen Worte deuten nicht darauf hin, sparen.
 
Zuletzt bearbeitet:
Wow... da fällt eine Grafikkarte (!) im Preis und gleich geht die Meute aufeinander los :D

BTT:

Die HD 3870x2 ist sicherlich keine schlechte Karte. Bei hohen Auflösungen und Spielen, die CF unterstützen, ist sie sicher eine gute Wahl um den Preis.
Und wer 3DMark benchen will, ist hier ebenfalls gut beraten.


MfG
 
Was 159€ Da tickt ja was falsch. Also Ich hab für meine Gecube Radeon HD 3870 Turbo 3 (XHD3870XTG3-E3(r)) 105 € bezahlt u. das ist schon länger her.Also warum kostet der vorgänger 159?? Bitte um Antwort.



mFG aus Wien
 
@unuy:

1.) vergleicht man leistungsähnliche Karten, egal wie alt sie sind

Vergleiche bitte auch die Kartenpaare, die man vergleichen sollte (wobei ich mit 2-3 fach daneben lag, ist die NV jedoch deutlich teurer):
4870 zu gtx280 200:380

zu 2.) Wo? Im Test, ich les ihn Dir aber jetzt nicht vor, das mußt Du schon selber machen. Mal abgesehen davon, das war nur ein Test. Dieses Resultat ist schon in diversen Hardwarevergleichen festgestellt worden.

zu 3.) Die Worte sind nicht aus der Luft gegriffen, man braucht nur Internet zu Recherche der Preise und Leistungen und dieses Forum für die Gesinnungsausrichtung. Unter Verwendung einer lebenden CPU ergibt sich der Rest selbständig.
4850 zu 8800 Ultra 134:260 wo wir dann bei doppelt wären.

Der Vergleich der Karten ist anhand GraKa Rankings
 
Für den Preis hat man viel viel Leistung. Bildqualität, Features, Lautstärke, Vor.- und Nachteile einer X2 zu einer Singelchipkarte sollte man selbst abwägen und nicht nur wegen FPS-Werten kaufen.

@unyu Ich gebe dir 100% Recht.
Die Bildqualität von nvidia Grafikkarten ist viel besser als bei der Konkurrenz. Ich hatte selbst eine MSI 4850 für kurze zeit und habe jetzt nochmals eine (so meinte der stolze Besitzer) Power Color 4870 High End Karte in Arbeit sehen können. Bildqualität verwaschen, Icons unscharf. Er findet sie top. Ich finde es top das sie ihm gefällt.

@Forum-Fraggle bist du einer der bei Geizhals und Co ständig nvidia schlecht bewerten. :rolleyes: Gibt´s dafür was?
 
Zuletzt bearbeitet:
udoL schrieb:
Bildqualität verwaschen, Icons unscharf.

Willst du mich(/uns) verarschen?

Gerade die Texturschärfe ist bei den neueren Radeons besser als bei den ganzen Nvidia G80+ Chips.
Manche bezeichnen es als Kantenflimmern... ich seh darin schärfere Texturen.

Wer die nicht so scharf haben will, soll halt den LOD-Bias runterstellen, oder AF auf 8x maximal stellen, anstelle von 16x.
gerade das kostet doch leistung, wenn die Texturen schärfer dargestellt werden.

Ich spiel mit meiner 3870 alles sowieso nur auf 1280 mit 4xAA und 8xAF.
Mehr AF lohnt sich net bei 1280 meiner Meinung nach...
 
da muss ich FloW3184 aber recht geben !

bevor ich meine 3870 bekommen habe, hatte ich eine 8800gts 320mb drin und schon allein in crysis und css sehe ich eine verbesste bildqualität gegenüber der 8800gts 320mb.
 
Zuletzt bearbeitet:
Finde ich TOP wenn es euch nicht´s ausmacht.

Man darf ja wohl bereits in der Standardeinstellung davon ausgehen das das Bild "super" ist, oder. Ich verlange doch auch das bei einen Auto in Standardausführung und mit Standardeinstellungen alles bestens funktioniert.
 
Unglaublich dieser preisrutsch. noch vor 2 jahren wäre sowas undenkbar gewesen. wie kann man nur so beschränkt sein und diese karte als krücke bezeichnen? die 3870 ist immer noch eher bei high end als im midrange bereich anzusiedeln, immerhin hat sie mehr als genug power für so ziemlich jedes spiel. klar knackt sie keine 3dmark rekorde mehr, aber der schwa**mark06 oder gar vantage hat eh keine aussagekraft.
würde mir die karte genau wie jede andere aktuelle karte aber trotzdem nicht kaufen, aufgrund des enormen verbrauchs. selbst meine normale 3870 ist da schon hart an der schmerzgrenze.
 
x2 3870 eine Krücke?

Es gibt kaum Games (ausser Crysis) die diesen Karten direkt gefährlich wird.

Ich finde sowieso, die SpieleEntwickler kommen mit dem tech. Fortschritt nicht mehr mit (als. Beispiel: sehr wenige Directx10 Spiele)
 
Stromverbrauch, stromverbrauch, stromverbrauch man liest hier fast nur noch dies..... wenns euch stört wählt die grünen und schmeisst euren PC weg oder kauft euch einen Eeepc und verzichtet auf das spielen!

Ist doch scheiss egal wieviel der pc verbraucht.... bei 20Cent/kWh ist mir das scheiss egal...
 
also ich finds passend, da ich mir gerade einen neuen pc holen möchte. jedoch muss nun dafür meine 3870 weg.
und vergleich normale 3870 zur 3870X2 von ca 20-40 unterschied ist beachtlich.
 
FloW3184 schrieb:
Gerade die Texturschärfe ist bei den neueren Radeons besser als bei den ganzen Nvidia G80+ Chips.
Wo genau?
https://pics.computerbase.de/2/1/8/1/8/124-1080.415317856.jpg / https://pics.computerbase.de/2/1/8/1/8/38-1080.1675276462.jpg vs https://pics.computerbase.de/2/1/8/1/8/65-1080.931311384.jpg
https://pics.computerbase.de/2/0/5/8/3/2-1080.1639350109.jpg vs https://pics.computerbase.de/2/0/5/8/3/48-1080.2629183566.jpg
https://pics.computerbase.de/2/0/5/8/3/49-1080.1662422499.jpg vs https://pics.computerbase.de/2/0/5/8/3/6-1080.2747115048.jpg
https://pics.computerbase.de/2/0/5/8/3/7-1080.3711761156.jpg vs https://pics.computerbase.de/2/0/5/8/3/18-1080.3425442691.jpg
https://pics.computerbase.de/2/0/5/8/3/19-1080.2640196416.jpg vs https://pics.computerbase.de/2/0/5/8/3/14-1080.365475716.jpg
https://pics.computerbase.de/2/0/5/8/3/15-1080.3920271832.jpg vs https://pics.computerbase.de/2/0/5/8/3/16-1080.180716111.jpg
https://pics.computerbase.de/2/0/5/8/3/17-1080.2601312691.jpg vs https://pics.computerbase.de/2/0/5/8/3/22-1080.2729607854.jpg
https://pics.computerbase.de/2/0/5/8/3/23-1080.2707327043.jpg vs https://pics.computerbase.de/2/0/5/8/3/25-1080.3266047023.jpg
https://pics.computerbase.de/2/0/5/8/3/26-1080.3756315377.jpg vs https://pics.computerbase.de/2/0/5/8/3/27-1080.1950593097.jpg
https://pics.computerbase.de/2/0/5/8/3/28-1080.881397213.jpg vs https://pics.computerbase.de/2/0/5/8/3/32-1080.3351387185.jpg
https://pics.computerbase.de/2/0/5/8/3/31-1080.3474602397.jpg vs https://pics.computerbase.de/2/0/5/8/3/3-1080.1640358590.jpg
https://pics.computerbase.de/2/0/5/8/3/4-1080.2039458216.jpg vs https://pics.computerbase.de/2/0/5/8/3/8-1080.374213059.jpg
https://pics.computerbase.de/2/0/5/8/3/9-1080.2699978541.jpg vs https://pics.computerbase.de/2/0/5/8/3/10-1080.1651551188.jpg
https://pics.computerbase.de/2/0/5/8/3/11-1080.3756081772.jpg vs https://pics.computerbase.de/2/0/5/8/3/12-1080.3263763395.jpg
https://pics.computerbase.de/2/0/5/8/3/13-1080.2623385591.jpg vs https://pics.computerbase.de/2/0/5/8/3/20-1080.2927988847.jpg

FloW3184 schrieb:
Manche bezeichnen es als Kantenflimmern... ich seh darin schärfere Texturen.
Was haben jetzt AA mit AF zu tun?

FloW3184 schrieb:
gerade das kostet doch leistung, wenn die Texturen schärfer dargestellt werden.
Gerade das Unterfiltern bei AMD spart massiv Arbeit.
Außerdem sind sie ja gerade nicht schärfer!
Der einzige Unterschied ist halt, das es ab R600 ordentlich flimmert und das AMD nicht die Möglichkeit bereit stellt, auf Wunsch eine ordentliche Filterung zu aktivieren, ohne sehr massiv Leistung zu verballern, AI sei dank.

FloW3184 schrieb:
Wer die nicht so scharf haben will, soll halt den LOD-Bias runterstellen
Gute Idee, noch ein Vorschlag, vielleicht die Auflösung senken, damit der TFT alles weich interpoliert?
Was soll 8xAF bringen? Dann flimmerts halt nur im Vordergrund.
 
Zurück
Oben