News Radeon HD 4870 X2 schlägt GeForce GTX 280?

naja unter last wird das ding nie leise werden
so viel wärme musst du erstmal abführen
im idle könnten sie mit nem funktionierenden powerplay absolut noch was reißen

ich verstehe auch nicht warum welche behaupten bei der 4870x2 könnten die GPUs den speicher gemeinsam nutzen
es gibt da eigentlich keine beweise oder äußerung seitens amd für oder?
und wie das technisch gehen soll ist mir auch schleierhaft, zumal der speicher der linken gpu meilenweit von der rechten gpu weg ist. es hat schon nen grund warum die immer nah um die gpu gesetzt werden...
 
Kayzah schrieb:
Stromverbrauch exorbitant höher als bei gtx280

Naja, also Exorbitant klingt zu Dramatisch.
Klar im Idle sinds gut ca. 70% mehr, das ist nicht ohne, sie sagten ja das kommt mit dem neuen Treiber bei allen 48er reihen, das dort noch gespart wird.
Aber unter Last sinds ca. 30-40% mehr als eine GTX 280, und die Leistung liegt ja auch im schnitt bei ca. 30%, für manch einen bei 10% für manch anderen bei 100% Bonus, jenach spiel,auflsöung etc.
Will das jetzt zwar nicht schön reden was da momentan im Idle los ist, aber bitte nicht so übertrieben :D



Genrell, okay, also die Finnen sagen Mikroruckler gibts nimmer, warten wir lieber noch auf Tests aus deutschen quellen die verlässlich sind.
Aber scheint so als hätte da einer unrecht gehabt als er 4870 cf mit x2 vergleichen wollte ;)


Edit: wenn ich dann noch so nach unten gucke ...
du bist auf einem niveau von derartiger inkompetenz, mir tuen nur die Leute leid die deine Scheiße für bare münze nehmen.
zudem du anscheinend nicht in der lage bist beiträge anderer sinnvoll zu lesen und dabei den inhalt zu verstehen ...
 
Zuletzt bearbeitet:
Wie kann man nur behaupten, das es keine µRuckler mehr gibt?
Wir wissen ja, das Fraps keine relevanten Ergebnisse liefern kann. -> Es gibt keinen Beweiß, das es keine µ Ruckler mehr gibt.

Mich wundert, wie man trotz 300W PCIe Spefizifikation mehr verbrauchen kann. So ganz geheuer wär mir das nicht..... ob da nicht mal ein MB oder NT durchbrennt?

Schon erstaunlich, die GTX 280 zieht 165W, die 4870 X2 ~ 270-3xxW

Unyu schrieb:
Alles deutet bei der X2 auf eine ganz normale 4870 CF Lösung hin.
Vollkommen korrekt.
 
Zuletzt bearbeitet:
Sich selbst zuzustimmen steigert nicht unbedingt die Kompetenz :D
 
Ich persönlich halte nichts von SLI/Crossfire oder Karten mit 2 Chips!

Weswegen?

- Teuer
- 2 Chips nie 100% mehr leistung als ein Chip! ca. 0-80% (je nach anwendung)
- Werden heiß! Nichts für schlechtdurchlüftete gehäuse!
- Wird laut! Logisch... zwei Chips halt! (Bzw. im SLI/CF zwei Grafikkarten)
- Sind Stromhungrig! Die Stromrechnung möchte ich nicht sehen... Strom ist teuer und trotzdem achten die hersteller nicht wirklich auf richtige sparfunktionen/verbesserungen! Die kleineren Fertigungen könnens doch nich sein^^
- Sind Lang! In so manches case passen die meistens nicht^^

ABER ich hab einen super vorschlag zum letztem punkt:

Einfach ein Rechteck in der Größe der Grafikkarte in das Gehäuse schneiden mit einer flex! Anschließend vorsichtig durch das Rechteck einführen in das gehäuse! Dann in dne slot und verschrauben! FERTIG! Und man hat sogar noch einen ofen, der vom gehäuse raussteht :evillol:
 
Sieht ja nach ordentlich Leistung aus! Naja das mit dem "Stromhunger" dürfte die meisten doch eh nicht interessieren! Bezahlt doch eh Muddi & Pappi! Von daher...Wayne!

Desweiteren ist alles noch BETA Stadium! Lassen wir uns bis zum fälligen NDA überraschen, der Rest bleibt reine Spekulation!
 
Unyu schrieb:
Schon erstaunlich, die GTX 280 zieht 165W, die 4870 X2 ~ 270-3xxW


Unyu bitte, die GTX 280 mit 165Watt, mach Dich nich lächerlich, da ist der Wunsch eher Vater des Gedanken und wenn Dich auf den damaligen Test beziehst da wurde nachträglich zugegeben, dass der Test mit einem Benchmark erstellt wurde wo die GTX 280 nur unter Teillast lief :rolleyes:

17191.png


Die 4870x2 zieht genau 30% mehr Strom (wenn es überhaupt 30% sind, kann auch sein, dass hier durch die Auslastung auch noch etwas CPU Mehrverbrauch mit rein streut ) als die GTX 280 und die 30% Mehrleistung hat sie auch von daher ist der Mehrverbrauch durchaus gerechtfertigt.

Dazu kommt, dass die Karte wirklich Dampf ohne Ende hat. Kannst Dir ja mal den kleinen Test von HardOCP anschaun, die testen auch mit den Qualitätseinstellungen die Du immer favorisierst ;)

As you can see, moving up to the Radeon HD 4870 X2 CrossFireX configuration we are now able to set the absolute highest AA setting possible here, 24X CFAA WITH Adaptive AA! Yes, 24X CFAA with Adaptive AA, and getting an average framerate of 51 FPS. Holy cow, what else is there to say really? It blows the doors off of the GTX 280.

Der Ausschnitt stammt aus ihrem Age of Conan Test bei einer Auflösung von 2560x1600 :cool_alt:

Die Jungs ham in ihrem Test festgestellt, dass 8x AA keinerlei FPS kostet sprich es egal ist ob man´s aktiviert oder nicht, ja selbst 12x CFAA läuft noch ohne das es FPS kostet erst bei 24x CFAA gehen die Frames runter aber bleiben nichts desto trotz spielbar ;)

Above we saw that 8X AA was basically free in Conan with the 4870 X2, now we throw 12X CFAA and 24X CFAA into the mix. This graph clearly shows us that we don’t hit a GPU burden until we enable 24X CFAA in Age of Conan on the Radeon HD 4870 X2 at 1920x1200. Just, wow.

Und wer sowas leistet der darf auch seine 250 - 300W Strom vernaschen :D
 
Antimon schrieb:
die testen auch mit den Qualitätseinstellungen die Du immer favorisierst ;)
Ich bin kein Fan von Weichzeichner/Blurfiltern, die fälschlicherweise als AA betitelt werden. ;)
btw warum kein AI-off? Gut ich weiß warum. ;)

HardOCP hat ja immer schöne Diagramme, schade das man sich die µRuckler nicht angesehen hat. ;)
 
Zuletzt bearbeitet:
Bist du jetzt fertig Unyu? Du änderst jede Minute deinen Beitrag und hängst einen dämlichen Satz nach einander ran.

AI-off - klar dann wäre CrossFire deaktiviert und welchen Vorteil hätte dies in der Bildqualität? Ja danke du sagst es - keinen aber wer fragt dich schon. Schließlich hast du keine ATi Karte und wirst ewig dumm bleiben ;)

HardOCP hat ja immer schöne Diagramme, schade das man sich die µRuckler nicht angesehen hat.

Jetzt geht das Gefasel über die Microruckler wieder los. :rolleyes:


Schon klar - die GeForce GTX 2x0 Serie ist der Radeon HD 4800 Serie komplett unterlegen und dir fällt nichts anders mehr ein, als Stuss zu labern.

Ach weiste was :heuldoch: oder geh spielen..
 
ww2warlord schrieb:
AI-off... welchen Vorteil hätte dies in der Bildqualität?
Dann wären ein paar Filter-"Optimierungen" deaktiviert. Das AF, wäre zwar immer noch mieser als das des 19 Monate alten G80, aber das Flimmern wäre gemildert.

ww2warlord schrieb:
Jetzt geht das Gefasel über die Microruckler wieder los. :rolleyes:
Leugnest du deren Existens?
Oder die Existens des Lags?

Auf deinen Flame gehe ich nicht ein. :)
 
Warum geht Ihr nicht alle in den Sandkasten? Da könnt Ihe Euch dann beleidigen, Schippchen an den Kopf werfen, ...
Leider ist immer häufiger keine sinnvolle Diskussion mehr möglich.
Unyu schrieb:
Auf deinen Flame gehe ich nicht ein. :)
Vernünftig.
 
LOL, die Karte erscheint frühestens in einem Monat aber manch einer hier weiss schon genau was sie kann/nicht kann XD

Wie sieht's denn mit der übernächsten Generation aus: gewinnt da ATI oder NVidia? Weil dann würd ich vielleicht doch noch nen halbes Jahr warten XD

Ist es nicht eigentlich egal, ob die X2 oder die gtx280 besser sind? Wenn die X2 rauskommt wird die gtx280 bestimmt wesentlich weniger kosten und daher trotzdem ihre Existenz-Berechtigung haben. Es ist doch vollkommen egal welcher der beiden Hersteller toller/mächtiger/1337er ist, entscheident ist doch, was bekommt man für sein Geld und da sind sowohl ATI als auch NVidia gut aufgestellt... auch wenn es bei NVidia gerade nen bisschen ungünstiger aussieht... (das ändert sich aber wieder bestimmt).
 
Unyu schrieb:
Leugnest du deren Existens?
Oder die Existens des Lags?

Ich kenne nur Microruckler mit zwei Radeon 3870 - mit einer Dritten bin ich immer außer in Crysis über 60-100 Frames bei meinen Settings. Weil ich schon zwei Radeon HD 4870 in CrossFire laufen gesehn habe kann ich dir dort auch versichern so etwas wie µruckler oder Lags nicht empfunden zu haben.

Und ein kleiner Excours für dich: Microruckler treten bei niedrigen Framraten erst auf. Die Lags wird man also folglich garnicht erst mit einer HD 4870x2 wahrnehmen.
 
Lag ist Fakt. Obs dich stört oer nicht. 2 GPUs erzeugen doppelt so viel Lag wie 1 GPU.
µRuckler treten auch bei mehr FPS auf: Bei einer Framerate die mit einer Singlelösung flüssig sind, sind es mit einer Multilösung nicht mehr. Punkt.

Jetzt das Default-Argument: "Aber mit mehr GPUs habe ich auch mehr FPS!" - Ja, aber was hab ich davon?
Weitere GPUs haben lediglich den Zweck die Bildqualität zu erhöhen. Mit einer GPU läuft alles flüssig, sofern man will. Weitere GPUs eröffnen Möglichkeiten die Qualität zu erhöhen, aber eben nicht in dem Masse, wie der Balken anschwillt.
 
unyu, framerates die auf einer singlelösung flüssig sind,können genau so mit einer mutli lösung flüssig sein. Microruckler treten nicht überall auf. auch ist der lag in keiner beziehung doppelt so groß..das ist von so vielen faktoren abhängig...stell dir mal vor, der lag kan bei single gpu größer sein,als bei multi gpu...


gruß
 
Microruckler treten auch bei hohen Frameraten auf. Ich war von meiner 9800GX2 so genervt, dass ich nach 3 Wochen umgestiegen bin. Ich hatte die Microruckler, bei niedriegen Frameraten (z.B Crysis) und bei hohen Frameraten (Grid, UT3, Assassins Creed usw.). Microruckler sind immer da, es wird nur nicht von allen "gesehen" oder "wahrgenommen".

Ich bin da seeeehr empfindlich. Ich empfinde spiele noch als ruckelnd, wenn andere sabbern weil sie es flüssig finden. Wenn mein Fernseher keine 100Herz hätte, würd ich wahnsinnig werden.

Sollte ATI mit den X2 Karten das Problem in den Griff bekommen haben, wäre natürlich fein. Weiss ich aber nicht, hab selbst keine. Soweit ich weiss, is die Anbindung des Speichers der beiden Chips ( Karten) wohl dafür schuld? *halbwissen?*


SPAWNI
 
Unyu schrieb:
Ich bin kein Fan von Weichzeichner/Blurfiltern, die fälschlicherweise als AA betitelt werden. ;)
btw warum kein AI-off? Gut ich weiß warum. ;)

Den Test gelesen oder nur so geantwortet?

HardOCP hat ja immer schöne Diagramme, schade das man sich die µRuckler nicht angesehen hat. ;)

Och für die µRuckler hatte ich Dir doch letztens schon n Test aus´m ATI-Forum gepostet wo zumindest ersichtlich war, dass die µRuckler auf der 48x0 Serie bei weitem weniger vorhanden sind als bei der 38x0 Serie was zumindest heißen würde das sich ATI des Problems angenommen hat und nach ner Lösung sucht ;)
 
Antimon schrieb:
dass die µRuckler auf der 48x0 Serie bei weitem weniger vorhanden sind als bei der 38x0 Serie was zumindest heißen würde das sich ATI des Problems angenommen hat und nach ner Lösung sucht ;)

Das klingt wie " ich bin nur ein bischen Schwanger ". Selbst wenn es "weniger" werden wie du sagst, wären sie vorhanden und stören.. :)


SPAWNI
 
Zuletzt bearbeitet:
frankpr schrieb:
Warum geht Ihr nicht alle in den Sandkasten?

Ich bin Jeden Tag 8,5h im größten "Sandkasten" Deutschlands, da muss ich nicht noch öfter rein. Mir geht es hier aber an mein Soziales Ehrgefühl, was Unyu von sich gibt sind einfach Halt lose Behauptungen und Propaganda.
Und solange die Aussagen alles andere als Bewiesen sind, oder sogar schlichtweg falsch, fühle ich mich angesprochen dem Gegen zu steuern.
Da sollten sich im Übrigen auch CB-Betreiber angesprochen fühlen für eine gewisse Korrektheit zu schauen, sie sind schließlich welche der Ersten die unter google auftauchen.

PS: ich hab kein Problem mit freier Meinung, von mir aus auch ein Offizieller Nvidia Mitarbeiter/Fan , aber diese wirklich gut durchdachte Propaganda ...

edit: ob Mikroruckler existieren weiß man derzeit einfach nicht, zu behaupten sie sind noch da, ist schlichtweg genauso falsch als zu sagne sie wären weg.
 
Zurück
Oben