News ATis Radeon HD 4870 X2 kommt im August

cyrezz schrieb:
Oh man, jetzt verkommt hier echt jeder Thread dazu, dass sich das Maul darüber zerrissen wird, wer angeblich jetzt das Nachsehen hat und damit der ewige Buhmann ist. Es kann doch echt nicht wahr sein, dass hier so viele Deppen rumlaufen und meinen mit jedem Thread diese nervigen Kiddie-"Diskussionen" von neuen beginnen zu müssen. Das nervt echt!

Es ist doch wurscht wer die Nase vorn hat. Mir ist es total egal ob die Karte in meinem Rechner vom roten oder vom grünen Lager stammt, hauptsache genug Leistung für das Geld, was ich bereit bin auszugeben - DAS muss doch jeder für sich selber entscheiden. Warum versuchen viele hier immer das eine Lager so schlecht zu reden und die eigene Meinung anderen aufzudrängen?! Das kann doch wohl echt nicht wahr sein.

Der einzige fundierte und treffende Beitrag hier, wenn auch noch zu moderat formuliert.

Danke cyrezz!
 
oh Mann...der verbraucht ja verdammt viel Leistung! Wenns kein Energiesparmodus gibt, dann is das schon heikel. Ich hab ja den PC 24std./7Tage am Laufen :P, zocke aber nur max. 2-6h (zumindest in den letzten Wochen der Semesterferien nach meinen Prüfungen^^)
 
.Tja, da kann ich nur hoffen, dass diese Entwicklung die Preise der Single-GPU-Kandidaten noch mehr unter Druck setzt.
 
laut ati ist Powerplay noch nicht korrekt integriert bzw. deaktiviert.

wohl ein grund, warum die karte erst in 4 wochen aufn markt kommt.
 
GPU-Takt: 750 MHz
Speichertakt: 1800 MHz (GDDR5, effektiv 3600 MHz)
Speichergröße: je 512 MByte

in optimierten Spielen deutlich schneller als 4870 CF

mehr Details in der Quelle: Anandtech R700 Preview
 
@warworld...hab eigentlich schon vor richtig zu zocken...aber der pc muss ja trotzdem nicht 24h lang die volle leistung haben^^
 
Ihr dürft auch nicht vergessen das diejenigen die sich so eine Karte kaufen, Spielen als Hobby betreiben und Hobbys sind nunmal teuer. Andere stecken ihr Geld ins Pferd, ins Auto oder sonst wohin und die genannten Hobbys sind um längen teuerer als eine Stromrechnung.
 
Na Wunderbar dann darf ich mir schon wieder ein neues NT kaufen:(
Naja mal sehen vielleicht läufts ja mit nem 450 Watt P7 von Be Quiet:evillol:

die Karte wird sicherlich ein Kracher werden nur ist sie halt noch bisschen heißer als die HD 4870 single Karte und halt noch Stromfressender. Macht mir nichts aus da ich ne Wakü Hab:D
Und Laut wird die Karte GANZ SICHERLICH NICHT. Die HD 4870 ist SEHR LEISE und da sind die GTX schon lauter also ich glaub paar hier haben kaputte Ohren.



Mfg OC_Master
 
cosmicparty schrieb:
@ Bohemund:
also erstmal kann nvidia nur mit offenem mund zuguggn und staunen.

@ bloodie: die treiber sind noch nicht fertig, sonst wäre die karte ja schon veröffentlicht.

Du immer mit deinem Fanboy-Gerede, ist ja kaum auszuhalten. Unyu's Kommentare sind mittlerweile wohl ein Witz gegen deine.

Die Leistung der X2 in Crysis hat nichts mit den Treibern zutun - Crysis unterstützt Crossfire (offiziel) einfach nicht.
 
@alle Crysis fanatiker:

Sieht doch Super aus mit ner X2



Mfg OC_Master

Hier AOC




Läuft auch gut



Die Leistung der X2 in Crysis hat nichts mit den Treibern zutun - Crysis unterstützt Crossfire (offiziel) einfach nicht.

Und genau deswegen sind die GTX 280 auch schneller;) In Crysis mein ich natürlich
 
Zuletzt bearbeitet:
ja cool wahnsinn 2GB VRam lustig oder und wann kommt jetzt endlich die singlecore 4870 mit 1GB VRam, auf die warte ich schon lange genug

die x2 kann ich mir aus stromkosten gründen eigendlich gar nicht leisten auch wenn die X2 sicher ne tolle leistung auf dem bildschirm bringen wird (beim dauerbetrieb bekämme ich dann auch noch ein schlechtes gewissen)

MfG König
 
palaber schrieb:
Soll das jetzt heißen, das dass Gerücht über die gemeinsame Nutzung des GDDRs durch die GPUs sich nicht bewahrheitet?
Wäre sehr schade.

Ich glaub irgendwie auch langsam das es trotzdem noch Microruckler etc. gibt.

Und das interessiert wen? Bei welchem Spiel wirst du denn mit einer 4870X2 auf ~20 FPS rumdümpeln?

Bei 50FPS ist es völlig egal, ob die Frames unkonstant innerhalb der Sekunden versendet werden, da man es absolut nicht bemerkt. Ich versteh echt nicht, warum die Leute dieses Problem immer so überbewerten.

Ich hab mit meiner 8800GTS sogar in den meisten SPielen auf 1680x1050 mit 16x AF und 4x AA über 40 FPS, ob nun Mass Effect, Race Driver Grid, oder sonst was.

Wie soll man dann auf einer 4870x2 auf ~20 FPS kommen? ^^
 
drago-museweni schrieb:
4 von den Monstern im Rechner ein NT mit soviel PEG anschlüssen Exestiert ja noch nicht und glaube auch nicht das das noch was bring, skaliert ja CrossfireX nicht so toll, naja aber für die Benschmarkjünger bestimmt wieder was.

Muss ATI ordentliche Software für Boinc und Co bringen :D
 
MaNoFsTeeL schrieb:
Ich hab mit meiner 8800GTS sogar in den meisten SPielen auf 1680x1050 mit 16x AF und 4x AA über 40 FPS, ob nun Mass Effect, Race Driver Grid, oder sonst was.

Wie soll man dann auf einer 4870x2 auf ~20 FPS kommen? ^^

Genau meine Argumentation, wenn Mikroruckler wirklich ein Problem werden, dann hat man eh eine zu schlechte Grafik und sollte aufrüsten. Kann man nicht aufrüsten, weils schon das Beste ist was es gibt, sollte man vielleicht Crysis 2 nicht in Ultra High auf 2500x1600 spielen ;)

Multi-GPU braucht man ja auch nur, wenn es nicht mehr anders geht, also keine Single-Karte auf dem Markt ist die schnell genug für die eignen Ansprüche ist. Das die Kinderkrankheiten erst ausgebügelt werden müssen ist doch klar. Ich tippe mal dass vielleicht nur 2-5% aller PC-Spieler SLI/XF hat, der Rest ist mit ihrer EINEN Karte doch zufrieden. Deswegen ist der Zwang Multi-GPU zu optimieren noch nicht so da, aber es kommt, wie man an den Bemühungen der Hersteller ja sehen kann.
 
Krautmaster schrieb:
um mal die Jungs von hexus.net zu zitieren:

"Dear Lord! The idle load of the AMD R700 engineering sample is higher than a Radeon HD 4870 running at full chat, and the under-load figure is 120W higher than a GeForce GTX 280's - the draw is the highest we've seen. Confirmation, if it was needed, that the engineering sample we've tested is a real power-hungry mutha! "

soviel zu Powerplay 2...

Man stelle sich das ganze auf Hexa oder Octa Crossfire vor xD

Hexus wird ohnehin ordentlich Ärger bekommen. ATI hat klare Regeln ausgegeben was im Preview stehen darf und Hexus hat sich nicht ansatzweise dran gehalten.

z.B. maximal 4 Benchmarks, wobei die Wahl freigestellt war. Hexus hat natürlich sich dadurch nicht bremsen lassen, 8 waren es oder?

Aber ganz wichtig:

ATI hat ausdrücklich betont das Powerplay bei den aktuellen Samples im BIOS deaktiviert ist und deshalb keine Idle Tests durchgeführt werden sollen, da sich das noch bis Release grundlegend ändern wird.

HEXUS machts natürlich trotzdem.
 
Ja und es gibt genug Idioten die sich jetzt schon auf den Verbrauch einschießen und als Tatsache festlegen und überall verbreiten. Ich wette gleich kommt wieder der nächste mit den Mikrorucklern um die Ecke ;) Aber bei Hardware ists halt wie Software, denn die Karte ist NOCH im BETA-Stadium, da geht noch einiges. Es soll nur die Leute bei Laune halten, die nicht mehr abwarten können und so nicht sofort bei Nvidia kaufen.

Ernsthaft diskutieren kann man erst über Karte wenn sie wirklich draußen ist und ATI sagt: So da isse, bitte kaufen ;) Dann kommt Butter bei de Fische und man sieht entgültig was Sache ist.
 
@ redfirediablo

am Last Verbrauch ändert das aber nichts.

Die Argumentation "Power Play tut nicht" leg ich dann einfach mal so aus: Bei den R700 ala X2 Karten tut Power Play nicht - deshalb saugt auch eine HD4870 X2 mehr Strom in Idle als eine HD4870 unter Last!!

Das bedingt jedoch das Powerplay bei den aktuellen 48XX sehr wohl schon aktiviert ist, aber einen Scheißdreck (tschuldigung) taugt.
Sonst würden, wie man bei dem Test sieht, auch aktuelle Singelcore Karten weit mehr (noch mehr) Strom brauchen.

@ bigbee

seit wann gibt AMD Karten im Beta Studium raus? Was hat man den von der HD 4870 gesehen... vor dem Launch so gut wie garnichts. AMD hät sich eig immer sehr bedeckt was die Leistung der Karten angeht. Nuja, aber die X2 scheint ja schneller als Nvidias Flagschiff zu sein, welch Wunder. Und schon kann man an die Tester ordnetlich Samples zukommen lassen und keiner schert sich darum wann Reviews gemacht werden. Wann ist eig der NDA für die X2 gefallen o.O? Noch garnicht? Mit der HD 4870?


Ich mein ich hab nichts gegen die neie AMD Serie. Aber auf ganzer Linie überzeugen tut sie mich auch nicht. Die HD4850 ist die Karte schlechthin, sie bietet einfach mehr fürs Geld. In jeden halbwegs günstigen GamerPC würde ich eine solche Karte im CF einbauen. Dx10.1, Preis/Leistung, leise, jedoch hoher Stromverbrauch.
Mich regt jedoch auf dass 90% der ehemaligen AMD Basher nun übergehen und den G200 schlechter reden als er eigentlich ist. Der X2 wie sie momentan ist würde ich eine SingelGPU Karte mit Dx10 only auf G200b Basis vorziehen. Weil 120 - 140 W Last Unterschied und geschätzte 50 W Idle Unterschied sind für mich auch ein Argument. Bei 140W ist man nach 7 Stunden 20 Cent mehr los als bei einem X2 System. Worst Case ja, aber wieviele lassen ihren PC Tag und Nacht durchlaufen oder schalten ihn Morgens ein und Abends wieder aus...

BTW: Ich frei mich auf die X2, allein weil der Preiskampf dadurch auch im High End wieder angestossen wird. Die GTX 280 hat den richtigen Weg eingeschlagen, die Preise fallen! Wie wärs mit Tripple SLI G200b? ;)
 
Zuletzt bearbeitet:
Ich bin weder Pro-ATI noch Pro-Nvidia, Fanboys regen mich sowieso auf. Aber wenn eine Karte erst in einem Monat rauskommt ist sie für mich noch nicht fertig. Und sie wurde ja auch noch nicht "rausgegeben", sondern es gibt nur erste Previews damit man mal sehen kann was an Leistung dahinter steckt. Wenn sie jetzt schon fertig wäre könnte man sie ja auch schon auf den Markt werfen.

Und wenn die offiziell dabei schreiben, dass Powerplay deaktiviert ist, dann wird das auch so sein und ich sage ja: Diskussion geht erst im August wenn sie raus ist. Wenns Powerplay dann immernoch nicht geht, kann man sich ja gerechtfertigterweise darüber aufregen. Alles andere ist erstmal nur reine Spekulation, was wäre und was könnte alles sein.

Ansonsten bin ich Fan von freiem Wettbewerb und entscheide mich dann für die Hardware, die meinen Kaufparametern am nächsten kommt.
 
Zurück
Oben