ATI HD5000 Series (HD5870 & 5870X2) (Sammel & Laberthread)

@datvader: der lastwert dürfte wohl durch deutlich höhere leistung gerechtfertigt sein. ich denke, damit kann man leben...

@Sharangir: bist du dir sicher? ich hab gelesen, dass ati auf 384 bit si setzen will oder evtl doch gleich auf 512 bit geht... 256 bit erscheinen mir etwas unwahrscheinlich, darum hab ichs offen gelassen.
verbrauch würde ich bei der nächsten änderung ergänzen... wobei idle dürften die 5850 und 5870 sich denke ich mal nichts nehmen...
sind eh noch alles reine spekulationen^^
 
Zuletzt bearbeitet:
Ja, die speicheranbindung ist schon länger eigentlich recht sicher 256bit, es gab zwar mal spekulationen über mehr, aber alle wichtigeren quellen sind sich über 256bit einig.
 
Ein AnandTech Artikel zu Eyefinity, Sieht so aus, als hätte sich ATI Mühe gegeben :)
 
Schön in ner Tabelle zusammengetragen:
HD 5870 Specs @hardware-infos.de
HD 5850 Specs @hardware-infos.de

Klingt doch ganz sauber.


stoneeh schrieb:
ich bin kein nvidia fan (wo sind die eigentlich hin? ziemlich ruhig geworden die letzte zeit, hehehe)
Noch haben sie doch Zeit uns User tausend Mal am Tag mit dem "schlechten" AF zu nerven. Diese Gelegenheit sollten sie doch eigentlich nutzen. Als die Specs noch "schlecht" aussahen haben die sich doch ständig über die Karten aufgeregt und die Spekulationen für bare Münze genommen. Wieso sind die Stimmen denn jetzt verschallt? Man kann doch als NV-Jünger immer noch über 256Bit Speicherinterface ablästern.
 
clic me

Der Link ist echt HAMMER :king:

Ein offizieller Leak mit offiziellen Bildern und sogar die NDA werden angesprochen, an die sie sich halten müss(t)en..

zech verstehe ich leider nicht, daher die translation :lol:


Die Tabelle mit den Spezifikationen hat er "einfach so gepostet", kann aber nicht sagen, ob sie stimmen oder nicht, wegen der NDA.
Ich nehme an, die sind korrekt, er hätte ja unter vielen versch. aussuchen können :freak:


HAWX auf 6 Screens..
da hänge ich lieber den Rechner an meinen Projektor und habe dann 100" Diagonale und brauche nur 1920x1080, anstatt unmenschliche hohe Auflösung und somit zu wenig Rechenpower für Crysis und co. :rolleyes:
 
Lonely Shepherd schrieb:
Noch haben sie doch Zeit uns User tausend Mal am Tag mit dem "schlechten" AF zu nerven. Diese Gelegenheit sollten sie doch eigentlich nutzen.
...
Wieso sind die Stimmen denn jetzt verschallt?
Endlich mal einer, der sich als Fanboy outet ;)

Der einzige der mit einfällt ist Unyu. Und ich bin mir sicher, er wird wie viele andere darauf warten, ob die 5870 wie gestern angekündigt "Crysis: Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern darstellen kann oder nicht. Hoffen wir mal, dass sich ATI die Latte nicht selbst zu hoch gesetzt hat, denn für alle Gamer wäre das ein toller Fortschritt.
 
Crysis: Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern darstellen

Wo haste denn das her?
Der Benchmark ergab für 1920x1200
im Mittel 43fps für Crysis auf Ultra hoch mit max AA und AF!


Was die in 5670x2160 gezeigt haben, ist HAWX, und das kann ich mir vorstellen, dass das so sauber läuft ;)


Mich würde übrigens interessieren, ob ATi endlich Downsampling unter Windows 7 hinkriegt!
Würde dann nämlich gerne Bioshock, Crysis, FEAR noch spielen, bevor die Nachfolger kommen :p
(Habe die Spiele noch nicht durch.. Fallout II frass zu viel Zeit und davor noch andere (normale) RPG's.. da sag mal einer, WOW sei Zeitraubend..)
 
Sharangir schrieb:
Wo haste denn das her?
In deutscher Sprache hier:
Wie Crytek-Manager Carl Jones sagte, habe man beim Testen von Eyefinity "Crysis: Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit einer Grafikkarte gespielt. Das gibt auch einen Hinweis auf die Rechenleistung der 5800-Karten, obwohl dieses Versprechen schon sehr vollmundig klingt
http://www.golem.de/0909/69741.html

Finde es zwar auch unglaublich (selbst für eine 5870 X2) aber wenn die das sagen... und ich glaube nicht, dass auf der Hornet irgendein Speaker etwas sagt, das vorher nicht mit AMD freigegeben wurde.
 
die aussage kommt aber nicht von amd/ati sondern von crytek. das sind ja wohl mal zwei paar stiefel ob sich ein hersteller zu so einer aussage hinreißen lässt, oder ob eine engine entwickler/ softwarefirma sich dazu hinreißen lässt. sollte die aussage nicht stimmen ist es ja wohl nicht die schuld von amd/ati, sondern einer der yerli brüder hatte nen feuchten traum.
 
Zuletzt bearbeitet:
OMG,
dann wären die Benchmarks ja ein FAKE und wir haben alle zu wenig erwartet :p

Ich glaube nicht dran!
Das wäre irgendwas von +1000% (mit hohen Zahlen um sich schmeiss!) oder so, gegenüber einer GTX295.. und so viel hat niemand jemals versprochen!




ps: mit meinem 19" und der HD2900XT 1G lief Crysis (erster "lvl", so weit, wie die Demo ging, dann hat's mich schon gelangweilt.. Steelbook SE gekauft.. haha) auch flüssig unter Ultra hohen Einstellungen ohne AA und AF!
Der Benchmark lieferte 29fps avg.. das reichte mir, da ich eh nur "Sneak"-"Headshot"-"Sneak"-"Headshot" spielte.. 2 Stunden bis zum Schiff.. aber auf Elite war das nicht anders möglich, als nOOb :lol:
 
Einhörnchen schrieb:
Endlich mal einer, der sich als Fanboy outet ;)

Wie du aus dem zitierten Satz das herauslesen kannst, weißt wohl nur du selbst. Du scheinst deine eigene Definition der Interpretation zu haben.

Aber ich mache auch keinen Hehl daraus, dass ich bei theoretisch(<--ist ja oft nicht gegeben) gleichem P/L-Verhältnis eher zu AMD/ATI greifen würde.
 
Dass Leute im Netz immer wie kleine Kinder reagieren müssen, bei gewissen Worten?
:rolleyes:

Fan-Boy bedeutet nicht zwingend, dass man mit Fähnchen, Tröte und im Spiderman-Kostüm an eine Comic-Con antritt!
Okay, ich würde jetzt sagen, ich als Fanboy (und dazu stehe ich :cool_alt: ) kaufe ATi, auch wenn ich bei nVidia die bessere Leistung bekommen kann. (siehe meine HD2900XT, obwohl ich für den gleichen Preis die 8800GTX hätte haben können!)
Weil ich ATi sympathischer finde!
Und seit ich mich intensiver mit der Materie befasse, steht für mich auch fest, dass mein aktueller Core 2 Duo der letzte Intel ist, den ich JEMALS verbaue :evillol:

Wer bei mir für nen Rechner anfragt, kriegt AMD, ohne Widerrede..


Darum

<--- Fanboy


Aber AMD- und ATi-Poster, auch nicht von Messebabes, habe ich dennoch keine im Zimmer hängen.

Grüsse
 
Einhörnchen schrieb:
In deutscher Sprache hier:

http://www.golem.de/0909/69741.html

Finde es zwar auch unglaublich (selbst für eine 5870 X2) aber wenn die das sagen... und ich glaube nicht, dass auf der Hornet irgendein Speaker etwas sagt, das vorher nicht mit AMD freigegeben wurde.

Bedeutet doch nichts anderes, als das sie dafür 2 oder mehr Monitore benutzt haben... Die eyefinitiy Technologie schafft es wohl das ganze ohne großen Verlust darzustellen...von daher klingt das jetzt für mich nicht sonderlich übertrieben...

@Sharangir: Sehe ich ähnlich, wobei ich "bei halbwegs vergleichbarer Preis/Leistung" ergänzen würde...
 
Zuletzt bearbeitet:
Bei sechs Displays ist dabei noch nicht einmal Schluss: Es sind sechs Monitore pro GPU vorgesehen. Mit mehreren Karten, oder solchen mit Doppel-GPU, lässt sich die Zahl der Displays weiter steigern. Zwei hypothetische 5800-X2-Karten könnten in einem PC so 24 Monitore ansteuern.


Krank... echt krank! :freak:


Kann ich eigentlich 2 Displays unterschiedlicher Auflösung nutzen?
(mit eyefinity)

jetzt primär, für die Uni, aber vlt auch als "Auslagerungsfenster" fürs Zocken :)
 
Sharangir schrieb:
Dass Leute im Netz immer wie kleine Kinder reagieren müssen, bei gewissen Worten?
:rolleyes:

Fan-Boy bedeutet nicht zwingend, dass man mit Fähnchen, Tröte und im Spiderman-Kostüm an eine Comic-Con antritt!

1) Du schreibst doch selbst "nicht zwingend". Ergo, es kann das trotzdem heißen.

2) Der Begriff Fan-Boy suggeriert fehlende Objektivität.

3) Was man sagt/schreibt und wie man es meint sind zwei paar Schuhe. Es gibt dafür afaik sogar nen Begriff, weiß allerdings nichtmehr, wie er hieß. Ist schon ne Zeit her, seitdem ich das im Deutschunterricht hatte.

4) Es macht mich immer etwas sauer, wenn man mein Geschreibsel (absichtlich) falsch interpretiert, obwohl es das garnicht zulässt.

Sorry, ist off topic, aber man muss Dinge auch mal richtigstellen.
 
Okay, ich würde jetzt sagen, ich als Fanboy (und dazu stehe ich ) kaufe ATi, auch wenn ich bei nVidia die bessere Leistung bekommen kann. (siehe meine HD2900XT, obwohl ich für den gleichen Preis die 8800GTX hätte haben können!)
Weil ich ATi sympathischer finde!

genau das bedeutet fan-boy ;)

deine entscheidungen und beurteilungen sind nicht objektiv nach fakten sondern subjektiv nach sympatien getroffen...
mit postern hat das wenig zu tun^^
 
Zurück
Oben