News Viele Previews der ATi Radeon HD 4870 X2

Schlimm, dass hier irgendwie immer das gleiche diskutiert wird, ohne das es zu einer Einigung kommt, na ja, aber im Ansatz sieht man schon kleine Verbesserungen. Jetzt nur noch was an der Diskussionskultur arbeiten und es passt :)
 
Lol, Idle-Stromverbrauch doppelt so hoch wie bei einer GTX280. Achja, ATI rüstet das später per Treiber nach, wie immer...

Wobei sie schon an den idle-stromverbrauch einer 4870 rankommen könnte, der aber laut Hexus immer noch höher ist als bei einer GTX280. Achja, aber der wird auch noch später per Treiber gesenkt.

Preisleistungsmäßig scheint derzeit trotzdem nichts an eine 4870 ranzukommen.
 
koenig1988 schrieb:
schaut ja gut aus aber ich find mann kann keine "dual GPU" karte mit einer "singel GPU" karte vergleichen (ich bin kein fanboy von nvidia aber ein realist, das wäre so als würde mann einen pentium mit einem dualcore vergleichen wollen)
ich glaub sowieso das es auch eine gtx2*0 gx2 geben wird die wird dann sicher wieder ganz plötzlich kommen und wenn der preis stimmt auch sicher gut einschlagen

MFG KÖNIG

lol... das kann ja auch nur wieder von Fanboys kommen...

Klar kann man die Karte mit der GTX 280 vergleichen!! Da ist einenm scheiss egal wieviel Cores die Karte da hat wenn sie gleich viel Kostet!! Und da sie auch viel besser ist, hat sie ganz klar gewonnen... (Nein ich bin kein ATi Fanboy!! Ich hab ne Geforce FX 5600 ''lol''.. muss mal aufrüsten^^) ATi bleibt halt bei der Dual-GPU Variante und Nvidia bei seinen Monsterchips... Was ich aber schade finde ist, dass Nvidia nicht schon am Anfang auf 55nm gesetzt hat und auch DX 10.1, GDDR5 usw.... so sind sie leider ne Generation der Technologie hinter ATi... Mal sehen was Nvidia nun macht...
 
Zur Vergleichbarkeit der Karten (also 280 GTX vs. HD 4870 X2):

Ob vergleichbar oder nicht liegt vorallem am Preis.
Details wie Lautstärke etc. sind eher Nebensache (gut, für mich spielt das auch keine Rolle da Wkü).

Wenn die HD 4870 X2 gleich teuer oder billiger als ne 280 GTX ist, MUSS man sie mit ihr Vergleichen. Es ist definitv die Konkurrenzkarte.

Ich finds aber wirklich fraglich warum ATI ganze 2 GPUs braucht.
Klar, vielleicht ist dass unsere Zukunft.

Aber nicht wenn dann Schwerhörigkeit bei PC-Gamer normal ist. Und im Winter mag ne gute Heizung nicht schlecht sein. Man könnte dan Lans im Schnee machen :evillol:

Nein im Ernst, ich hoffe dass AMDs nächste GPU auch einzel ganz mit Nvidia mithalten kann. Denn die 260 GTX ist kacke da eine R770 GPU besser ist. Und die 280 GTX ist teuer.
Die HD 4870 X2 schlägt sie dafür deutlich (war aber klar).

Und kann man die Mikroruckler je beheben? Denn lästig ist es.

Schalgt euch bitte hier nicht die Köpfe ein!!
 
Zuletzt bearbeitet:
sagt mal, wie lang ist das gute Stück? Sieht ja auf den Bildern erschreckend aus ... meine 3870 hat vielleicht noch 2cm Spielraum ... da passt eine 4870x2 eh nicht mehr, oder (=muss ich gar nicht drauf sparen/ warten)?
 
Sieht echt fast nach nem halben Meter aus :D
 
Ganz schön groß die Karte :evillol:

Bin gespannt auf erste Tests
 
Hoppla hier sind wohl ein paar Leutz urlaubsreif ;) oder warum so agressiv^^

@topic:
ich hab mir bei der single-gpu karte schon gedacht "wasn klotz" als sie gerade so in mein shark-case ging... da passt die x2 wohl nit mehr rein.... bin ma gespannt wies da weitergeht... irgendwann tauschen mb und graka die plätze weil das mb plötzlich kleiner ist ald die mörder-karten^^.
will nur hofen, dass ati die sache mit dem stromsparmodus echt noch in den griff kriegt... bis jetz sind das ja alles nur betatreiber für die 70er karten. sonst krieg ich jahresende nen schock bei der stromrechnung
 
ich würde auch mal gerne wissen wie lang die 4870X2 ist,die sieht ganz schön lang aus(zu lang^^) die passt bei mir bestimmt nich rein:(
 
Gott jedesmal dieses rum geflame hier ich komme mir vor wie im Kindergarten ... vielleicht sollten die Mods langsam mal anfangen die kleinen Kinder Mittagsschlaf machen zu lassen :D
@Topic sind super Werte die die Karte hervor bringt bis auf den Stromverbrauch da kann man nur hoffen das Amd den noch in Griff kriegt.Naja scheint ja zumindest auch nicht viel länger als eine 8800Gtx zu sein.
 
Wer hier immer so um die Temperaturen Wind macht, sollte sich mal vor Augen führen das z.B. wie bei uns auf Arbeit bei Raumtemperaturen von 35°C und mehr ettliche CAD Rechner stehen.
Diese Rechner haben zumeist Quadro Karten auf Basis des G80 Chips verbaut und zum großen Teil AMD Opterons mit dem stinknormalen Boxed Kühler.
Seltsam das diese Rechner bei 24/7 Dauerbelastung nicht aussteigen ...

Laut euren Kommentaren müßten die Bauteile ja nur so von den Boards fallen.

Auch die alten Rechner in der Lehrlingswerkstatt laufen zum Teil nun schn seit Jahren 24/7 und das mit ganz erbärmlicher Kühlung, weil total verdreckt und verölt, trotzdem läuft alles einwandfrei.
 
Matze_Pukem schrieb:
das ding braucht zwar 100 watt weniger aber die kühlung issen witz bei 91 grad koennten innerreien des gehaeuses beschaedigt werden und die karte wird bestimmt nicht lange halten von den festplatten in naehe der ati ganz zu schweigen

also. die kühlung ist immer noch besser als die der Konkurenz. Und mit dieser gilt es zu vergleichen, und bezogen auf diese ist sie leiser und unter last nicht heißer. Vergleich mal die TDP der X2 mit der der GTX280, nehm die Temps und die Lautstärke und sag dann nochmal welche gut und welche schlecht ist



Nille1234 schrieb:
ICh hatte sie einmal in AOC erlebt und nie wieder die können einem echt das spielen verderben

naja,i hab bisher immer mit meiner X2 gespielt, die ja microruckler aufweißt und hatte mit meiner X2 immer ein besseres spielerlebnis als mit allen anderen karten, in jeder Einstellung. MIcroruckler waren selbst mit Fraps minimal nachzuweisen. hab hier mal ne frametimes reingestellt. erst mit der GTX serie wurde nvidia schneller. Wenn du die Mircoruckler bei nem SLI system hattest lag das eher an normalen ruckeln.

Matze_Pukem schrieb:
es hat ja nicht jeder ne h2o aber bei 91 grad moecht ich mal sehen wie du deine hand auf die ati packst viel spass wünsche ich dir

ich möchte mal sehn,wie du irgendeine aktuelle Graka direkt am kühlkörper anfasst. nur zur info, unter last wird die GTX280 auch mal gern zu heiß.

Stinker88 schrieb:
schonmal dran gedacht das die 4xxx serie immernoch microruckler haben
beweis mir einfach das es keine mehr gibt
irst du aber nicht können

beweise mir,dass es noch welche gibt. solange du das nicht kannst, kannste sie auch deswegen nicht verdammen..zudem das ganze Thema Microruckler eh schwachsinn ist.

Gohst schrieb:
Nun, aber wenn man die Tatsache betrachtet, dass es gleich 2 GPUs braucht, um Nvidia vom Throm zu stossen ist das ein wenig "arm".

wieso ist das arm? die zwei chips sind immer no kleiner als der eine und leisten gut 50% mehr wie der eine. zudem ist der eine auch wahrscheinlich teuerer als die zwei kleinen. Der RV770 war nie als Ultra high end geplant, im gegensatz zu dem G200. und was ist der unterschied, keine 20%.
Und über 50 dBA?? Hmmm, da mag ich mich noch böse an die 5800 Ultra erinnern.
Hoffe mal schwer dass ATI/AMD noch weiter drann arbeitet, und mit dem R800 eine GPU raus bringt, die Nvidia auf dem Thron konkurrenzieren kann. :king:

nur zur info, die GTX280 ist sowohl im Idle als auch unter last deutlich lauter und im vergleich auf die lüfterdrehzahl deutlich heißer.

xpk7 schrieb:
Die Kühlung arbeitet SCHEIßE! Zwar ist sie noch ausreichend (die x1900 wure auch so heiß), gut ist aber was Anderes!
wie nennst du dann die GTX280 kühlung? bei 100% lüfterdrehzahl 90 grad ist ein unterschied zu 40% mit 91grad.
Die Chiprückseite wird sauheiß und gibt ALLES ins Gehäuse ab, so auch die gesamte Backplate der Karte, die außerdem SO HEIß wird, dass z. B. bei der alten 9800GX2 WARNAUFKLEBER dran sind! Halt mal deinen Schw.... dran, dann gibt das vielelicht einen einprägsamen Lerneffekt!! Und je heißer die Karte nunmal wird, weil die Kühlung so schlecht ist, desto mehr Wärme wird auch noch ins Gehäuse abgegeben.

soweit richtig,aber allerdings wirste in deiner endlosen weisheit uns dummen leuten bestimmt auch den unterschied zwischen warmen luftstrom und ruhender wäremquelle im vergleich zur erwärmung der umgebung verzählen können. luft ist ein sehr schlechter wärmeleiter,vor allem wenn sie ruht. bereits 10cm von der wärmequlle weg, misst du vielleicht noch 2grad unterschied. halt mal deine hand 10cm von der glühbirne weg, und 1cm...ist ein kleiner unterschied. nehm nun einen föhn mit kaltluftfunktion und halte ihn hinter die lampe und fühl dann mal im luftstrom bei 10cm abstand.
Und wenn man dann keine Ahnung hat, wie so viele Labertaschen hier und das Gehäuse dann ebenfalls schlecht belüftet ist, dann raucht einem z. B. ganz schnell mal das Netzteil ab (dreht dann oft sehr hoch) etc etc.

jo,schlechtes netzteil würd ich sagen. wenn es keine 40-50grad aushält. nur zur info, ich hatte mit meiner X2 (3870X2), die auch warnaufkleber hat und mal locker 80 grad warm wird nie eine gehäusetemperatur über 32grad. ich will sehn,wie eine komponente bei dir bei 32grad durchschmort. bei der neuen X2 sinds dann vielleicht 35grad... schon mal die gehäusetemperatur in nem alten bildschrim erlebt, oder in einem netzteil, wo zu teil billigere komponenten verbaut werden erlebt?


Gott lass Hirn regnen!
Zeig mir mal EIN EINZIGES Fraps Diagramm in dem die stark asynchronen Frametimes plötzlich bei kürzeren Abfolgen (=höhere fps) verschwinden!!!!!!!!! Mann ist das doof!!!
Microruckler sind IMMER bei allen fps-Werten vorhanden - IMMER!!!!!!!!

uiuiui, da könnte man meinen du hattest ne harte kindheit und microruckler haben dir deine lollis weg genommen. Erstens, Microruckler existieren in vielen spielen bei gar keine Frametimes, selbst bei 20fps haste total synchrone abfolgen. Beispiel Crysis ab dem 8.5 catalyst. es gibt im prinzip nur wenige populäre fälle,wo microruckler auftreten,aber diese relativieren sich bei hohen frameraten, da die abstände in der tat kürzer werden. oder denkst du,dass bei 100fps avg die abstände zwischen den frames gleich lang sind,wie bei 20fps? sollen dann 80fps in 10ms folgen, wenn davor asynchrone abstände von 20-50ms waren?

GPU berechnet bild 1, gpu 2 wartet, wenn fertig berechnet gpu 2 bild, gpu eins fängt bereits mit bild 3 an.. kann dies aber erst ausgeben,wenn gpu 2 Bild 2 ausgegeben hat, gpu 2 muss dann wieder warten.. und genau dieses warten,was bei gemeinsamen speicher der fall ist,da sie ihre daten nicht getrennt lagern können und die gpu net voraussehen kann,was als nächtses kommt, ist die asynchronität. aber diese nimmt mit höheren FPS ab, bzw wird irrelevant. bei 30fps haste abstände von 20-40ms, bei 60fps sinds dann nur noch 10-20, bei 120 sinds dann 5-10ms...der abstand halbiert sich bei verdoppelter framezahl, wenn mans proportional hochrechnet, wovon du ja ausgehst. aber es ist net mal proportional, es ist sogar no weniger.

somit stimmt die aussage,dass microruckler "immer" vorhanden sind, schwachsinn. wenn mans ganz genau nimmt, haste bei variabler framerate auch microruckler mit einer Single gpu, aber das ist ein anderes thema.
Lediglich die Wahrnehmung für die Ruckler nimmt bei höheren FPS ab, das Problem der geringer wahrgenommenen Framerate (das kennen die meisten gar nicht!), bleibt IMMER bestehen!!!!! 60fps auf ner Dualkarte wirken längst nicht so schnell/flüssig wie 60fps auf ner Single-Karte!!! Und je niedriger die fps werden, desto schlimmer wirds, weil dann die Asynchronitäten auch richtig auffallen!
Leute brennt euch das mal alle ins Hirn!!!!!!


siehe oben.

60fps multi gpu sind nicht zwingend nicht das selbe wie 60fps single gpu..aber das kommt von fall zu fall aufs spiel an,und den multi gpu support an. wer hat angst vorm schwarzem microruckler,was^^

und no zur info, die 4870X2 soll genau so lang sein,wie die 3870X2, sprich so lang wie die 8800GTX bzw die neuen GTX modelle.

gruß
 
Zuletzt bearbeitet:
Hey, mit Mathe darfste hier den Leuten nicht kommen. Rechnet ja eh keine Sau wirklich nach und wers tut versteht die Sache und würde nicht bei jedem zweiten Kommntar schreiben, wie gerne er ja Nvidia kauft, da die heißgeliebten Mikroruckler ja nicht da sind.

Außerdem hat es einen Grund wieso die so heißen ? Ja, weil es eben "Mikro"-Ruckler sind, also gar nicht spürbar in 99% der Fälle ;) Aber hier sitzen wohl einige wie die Prinzessin auf der Erbse am PC und zählen jedes Frame, könnt ja eins verloren gehen.
 
Roughneck_Rico schrieb:
Wer hier immer so um die Temperaturen Wind macht, sollte sich mal vor Augen führen das z.B. wie bei uns auf Arbeit bei Raumtemperaturen von 35°C und mehr ettliche CAD Rechner stehen.
Laut euren Kommentaren müßten die Bauteile ja nur so von den Boards fallen.

Ich bin auch verwundert was Grakas so alles abkönnen mitterweile, die GX 280 wird ja regulär > 100°C und ich gehe mal davon aus, dass die Hersteller die Karten nicht serienmäßig demolieren wollen :freak:
 
Matze_Pukem schrieb:
es hat ja nicht jeder ne h2o aber bei 91 grad moecht ich mal sehen wie du deine hand auf die ati packst viel spass wünsche ich dir .. kauf dir schonmal ne brandsalbe
pack doch spasseshalber mal ne 40 watt birne in dein gehäuse da kannst sehen wie sich ein teil nach dem anderen verabschiedet ..

Nur vergisst du das 91 C für eine Grafikkarte noch ziemlich kühl sind.Wenn deine Finger bei denn temps weh tun ist das dein problem.
 
Geiles Monsterteil. Wenn die nicht mehr als 300€ kostet hat ATI AMD einen Kunden mehr ;)

ich frach mich bloß wofür, gibts aktuell Spiele die sowas brauchen ? :rolleyes: aufm PC ist ja tote Hose was Top Games angeht.
 
Bin mal auf die Performance und den Stromverbrauch im Lastzustand gespannt. Eins kann ich aber jetzt schon sagen: die kaufe ich mir nicht. Der Größe nach zu urteilen bekomme ich die nicht in mein Gehäuse eingebaut ^^
 
Sehr interesant von der Leistung her überzeugt die Grafikkarte auf jeden fall, mit der Tempertaur kann mann leben(auch wenns nicht ideal ist) wenn nicht giebts bestimmt bal einen Wasserkühlungsblock oder alternative Luftkühlung.

Dann der Stromverbrauch unter Last ist okey wenn auch nicht schön aber das im Idle gefällt mir genausowenig wie bei der single 4870 hoffentlich tut sich da bald was.

Auf dem Preis binn ich gespannt unter 400€ währe Top.
 
Zurück
Oben