Test ATi Radeon HD 5870 im Test: Die erste Grafikkarte mit DirectX 11

Noxolos schrieb:
Was Du dabei vergisst ist die Pixelgröße.
Die kann man sich aber ungefähr selbst errechnen:
...

Pixelgrößen:
19" TFT (1280x1024): ~0,294mm
20" TFT (1680x1050): ~0,256mm
22" TFT (1680x1050): ~0,282mm
24" TFT (1920x1200): ~0,269mm
....

Klar das sind nur knapp 7mm Unterschied aber es ist doch deutlich sichtbar.

Deswegen denke ich das macht nur mit Monitoren der gleichen Größe wirklich Spaß.

Es sind 15,05cm zu 14,43 cm also 6,2mm - klar, würde man jetzt ein großes Panel aus verschieden kleinen Panels herstellen, Randlos, dann würde es erheblich auffallen. Aber es ist nicht Randlos - die Monitore stehen ja nicht nur mit jeweils knapp 1cm Rand nebeneinander, sie stehen auch angewinkelt - ich will mich ja nicht 2 Meter weit weg setzen. Eine Leichte verzerrung ist da eh nicht zu vermeiden. Aber mit nem 20er, da sind die fast 2cm sicher nicht mehr so schön.

Ich würde bei dieser Konfiguration aber auch keine Perfektion erwarten. Ich besitze nen Benq FP19G und nen Samsung 226BW, und hätte ein völlig neues Spielgefühl ... für günstige 30-50€ über eBay, oder wenn die hier bei uns ausgemaustert werden.

Günstiger geht es nicht, wenn man die ATI Karte eh schon besitzt.
 
ATi sollte die Schonfrist nutzen. Denke das es wieder so wird, das eine GTX 360 kommt ~10% schneller als die HD5870 sein wird und eine GTX380 die dann satte 40-65% schneller ist.
 
milamber! schrieb:
Es sind 15,05cm zu 14,43 cm also 6,2mm

Mein Fehler, ich hatte vorher auf 1 Stelle hinter dem Komma gerundet und dann die Differenz gebildet. Deswegen mein Ergebnis.


milamber! schrieb:
Ich würde bei dieser Konfiguration aber auch keine Perfektion erwarten. Ich besitze nen Benq FP19G und nen Samsung 226BW, und hätte ein völlig neues Spielgefühl ... für günstige 30-50€ über eBay, oder wenn die hier bei uns ausgemaustert werden.

Günstiger geht es nicht, wenn man die ATI Karte eh schon besitzt.

Da haste natürlich recht. Ich wollte auch nur darauf hinweisen, dass es mit verschiedenen Monitorgrößen zu dem Problem kommen wird.

mfg
Noxolos
 
CF wird unterstützt, die 24 Display Konfiguration die auf verschiedenen Seiten gezeigt wurde, ist ja mit Crossfire aufgebaut worden.

Nein, eben nicht, das ist ja das Problem:

Each card (single GPU) was responsible for rendering one quadrant of the overall display, and they were actually running separate instances of game to do so. This was not a crossfire setup, and I was told that CF support has not yet been integrated with Eyefinity.
(http://www.widescreengamingforum.com/forum/viewtopic.php?t=16780)

Das ist auch der aktuelle Stand der Dinge, kein CF.
Jede Karte (mit 6 DP) bei dem 24 Screen Setup hat je 6 Bildschirme versorgt, also 4x6=24.

Sie haben also nicht all ihre Leistung durch CF gebündelt, um ein großes Bild zu erzeugen,
sondern jede hat einen Teil des gesamten Bildes erzeugt. Diese Einzelteile des Gesamtbildes wurden wie ein Puzzleteil zu einem ganzen zusammengesetz.

Rein logisch könnte man das ja auch auf den kleineren Maßstab übertragen, also so, wie ich es mir gedacht habe. Eine Karte 1/3 des Bildes, die andere 2/3 des Bildes.

Aber das ist jetzt nur eine Herleitung, nichts bestätigtes.
 
ZotaC.T schrieb:
ATi sollte die Schonfrist nutzen. Denke das es wieder so wird, das eine GTX 360 kommt ~10% schneller als die HD5870 sein wird und eine GTX380 die dann satte 40-65% schneller ist.
Wen Nvidia so wies aussieht noch ein halbes Jahr braucht ist der RV900 fertig.
Ati ist im momment weit forne. Meinste die schlafen bis NV aus den Windeln kommt. Jetzt muss von den NV Jüngern schon Seitenlang über das ach so schlechte AF der ATI diskutiert weden weil NV zur Zeit nix auf die reihe kriegt was der 5870 gefährlich werden könnte. Langsam nervt mich das gesülze.
 
Octoboy schrieb:
Nein, eben nicht, das ist ja das Problem:

(http://www.widescreengamingforum.com/forum/viewtopic.php?t=16780)

Das ist auch der aktuelle Stand der Dinge, kein CF.
Jede Karte (mit 6 DP) bei dem 24 Screen Setup hat je 6 Bildschirme versorgt, also 4x6=24.

Ok, das habe ich übersehen, ich bin von Crossfire ausgegangen, da ich nicht damit gerechnet habe, das sie mit mehreren für sich selbst rendernden Karten ein Spiel ansteuern können. Oder war das gar kein Spiel, sondern nur eine Animation? Wenn sie für sich selbst einen Teil errechnen, wäre die Last der Berechnung ja auch aufgeteilt, und irgendwie muß das ja auch synchronisiert sein. Fragen über Fragen.

Aber
has not yet been integrated
lässt ja vermuten, das sie zumindest daran arbeiten.
 
Screemer schrieb:
keiner gibt dir hier kontra was eine optionale aktivierbarkeit von hq-af auch bei ati/amd karten angeht.
Die Reaktionen lassen auf das Gegenteil schliessen.
Wenn einer die Option will, der nächste schreibt es juckt keine Sau, dann ist es vollkommen natürlich, das ich diese Reaktion als Ablehnung der Option werten muss.

nur reitet keiner so darauf rum und besteht darauf.
Was heißt rumreiten?
Ich schreibe einen Post, es gibt einen Gegenpost. Ein dritter schreibt noch einen Post, darauf antworte ich wiederrum. Auf meine Anwort hin geht der Spass auf einmal los, es gibt zig antworten.

Im Artikel wurde dem Thema eine Seite gewidmet, bzw wenn man die 16xAF Diagramme mitzählt widmet sich der Artikel auf fast jeder Seite der Texturfilterung; Mit dem Anspruch auf "hohe Qualität" sonst wär nicht 16xAF eingestellt worden, sonst hätte man nicht 8xMSAA genommen. Kritisiert wurde es im Artikel.

Das hier ist ein Kommentarfred, zum Launchartikel, nicht zu dem 193. HD5 Test. Alles klar, wenn dieser erste Post meinerseits hier zu dem Thema nicht erwünscht ist.

Schinzie schrieb:
mit dem AF der RAdeons kann man auch leben.
Keine Frage, man kann mit vielem leben.
Nur ist man auch bereit auf etwas zu verzichten, um im Gegenzug 300€ ausgeben zu dürfen (mal übertrieben formuliert).

ich trolle auch nciht bei Nvidia artikeln rum,dass man keine 3 bildschirme anschließen kann, kein EDAA nutzten kann, immer probleme mit HDMI Sound hat usw.
Wenns dir wichtig ist, dann bitte ich darum, das du es tust.
Du musst nur aufpassen, deine HD4 versorgt auch keine 3 Bildschirme, EDAA ist nur eine Form des AA.

Wenn dir jemand entgegnet er braucht kein Grafiksoundkarte, weil er eine Soundkarte hat, dann ist das seine Entscheidung.

Seppuku schrieb:
....
Vielleicht spielst du einfach schlechte und langweilige Spiele, wenn du dich dabei noch so stark auf etwaiges Flimmern konzentrieren kannst .
Das wirds sein. So wie andere sich auf die 8xMSAA Kanten konzentrieren.
Genau genommen sticht soetwas ins Auge, so wie Ruckler auch ohne Fraps auch quasi ins Auge stechen. Liegt auch an den Settings, ob Blureffekte rübergejagt werden oder wie böse die Texturen sind.

milamber! schrieb:
Da stellt sich also nun die Henne/Ei Frage, was war zuerst; Du, welcher der ganzen Karte ihrer Berechtigung abzusprechen scheinst, aufgrund eines Nachteils*
Ich habe mehrere Punkte genannt. SGSSAA ist z.b. eine tolle Sache, aber wenn ich dann wieder lese das es für D3D10(+) keine Lösung gibt, nichtmal Downsampling, dann schmälert das die Freude erheblich.

Wie gesagt, wär ich in Aufrüstnot würde ich auf die 5870 warten.
Ansonsten wird lässig abgewartet, vielleicht fällt irgendwann auch SGSSAA geboren aus TSSAA vom Himmel, auch wenns wohl für die Geforce 300 gespart wird.

Wer Fehler sucht, der findet sie auch. Das ist die Mücke.
Nun, der Fehler besteht jetzt seit 4 Generationen.
Wenn ich Fehler suchen würde, würde ich viel mehr Punkte ansprechen.

Motkachler schrieb:
Jetzt muss von den NV Jüngern schon Seitenlang über das ach so schlechte AF der ATI diskutiert weden weil NV zur Zeit nix auf die reihe kriegt was der 5870 gefährlich werden könnte.
Lächerlich. Nur weil AMD jetzt ein Produkt gelauncht hat und Nvidia nicht geht nicht gleich die Welt unter.
AMD wirft irgendwann die 2GiB Versionen raus und irgendwann die X2 mit gesenktem Takt, einen gleichen Takt halte ich für unmöglich.
Nvidia wirft irgendwann ihre GTX 380 raus, im Anschluss gibts eine GTX 390 mit 2 GT300, ebenfalls mit gesenkten Takt.

Du musst nicht gleich unhöfflich werden, nur weil dein Lieblings IHV mit Verfügbarkeit der 5870 die nächsten Monate vorne ist. Nvidia war lange genug vorne. Jetzt das Wort
Windeln zu verwendet sagt viel über deinen Charakter. Du tust so als ob Nvidias Entwickler schlafen würden, nur weil ihr Produktzyklus nicht 1zu1 mit dem der Konkurrenz übereinstimmt.

Im Gegenzug erinner ich mich, wie du im Vorfeld so fröhlich über die runde AF Blume berichtet hast, das jetzt alles besser als je zuvor sei.
 
Zuletzt bearbeitet:
Dieser,Troll Wahnsinn von ATI´lern Fanboys und NVidia´lern Fanboys wird wohl nie enden
Disktuiert doch über AF AA und weis der Geier was in einem Disskusion Thread und nicht in einem Test Thread,es steht immer der gleiche ..... und immer die gleichen Antworten :rolleyes:

Niemand kann hier Topic bleiben:freak:
 
Zum Thema Offtopic fallen mir nur obige Worte ein.
Im Artikel wurde dem Thema eine Seite gewidmet, bzw wenn man die 16xAF Diagramme mitzählt widmet sich der Artikel auf fast jeder Seite der Texturfilterung; Mit dem Anspruch auf "hohe Qualität" sonst wär nicht 16xAF eingestellt worden, sonst hätte man nicht 8xMSAA genommen. Kritisiert wurde es im Artikel.

Das hier ist ein Kommentarfred, zum Launchartikel, nicht zu dem 193. HD5 Test.
Mach doch eine Umfrage auf, was in einem Launchartikelfred genannt werden darf. Jeder hat ein Veto, ich bin gegen Performancevergleiche. :lol:
 
Meint Ihr nicht es ist mal langsam alles gesagt über das Für und Wider ATI bzw. NVIDIA?
Es kann sich doch jeder kaufen was er will.

Was hat man eigentlich für einen persönlichen Vorteil davon, wenn man hier die anderen überzeugt, dass die Karte von Hersteller X besser ist?
Wird "er" dann länger?

Eigentlich ist es doch toll, dass die neue ATI Serie im Moment viele Befürworter hat.
Das erhöht den Konkurrenzdruck auf NVIDIA, die die prestigeträchtige Spitzenposition für die schnellste Single-GPU Karte abgeben müssen. Für uns Kunden zählt doch eigentlich nur, dass wir für möglichst geringe Preise gute und schnelle Produkte bekommen. Der Chip-Hersteller ist mir völlig egal solange das Gesamtpaket stimmt.

mfg
Noxolos
 
@ SpecialUser, Noxolos, Blazin Ryder

Ja, das nervt wirklich ungemein. Man kann ja seine Meinungen mal äußern, und hin und her diskutieren, schön und gut, aber das nimmt ja hier Ausmaße an!

@ Milamber

Fragen über Fragen.

Ja, das finde ich ziemlich ärgerlich!
Gibt schlichtweg nirgends Antworten darauf. Und das, obwohl die Demo schon am 10. stattfand, und inzwischen die Karten schon offiziel vorgestellt wurden!


Aber
Zitat:
has not yet been integrated
lässt ja vermuten, das sie zumindest daran arbeiten.

Ja, spätestens bei der X2 muss CF ja stimmen. Aber die ist ja auch noch nicht vorgestellt.
Was eine Warterei.
 
Zuletzt bearbeitet von einem Moderator:
Unyu schrieb:
Keine Frage, man kann mit vielem leben.
Nur ist man auch bereit auf etwas zu verzichten, um im Gegenzug 300€ ausgeben zu dürfen (mal übertrieben formuliert).
Sehr übertrieben, es ist ja nicht so als würdest du für 300€ Kosten nichts weiter als ein Verzicht auf ein Feature bekommen.
Hier geht es ja nicht zwingend um "kaufen" oder "nicht kaufen", sondern um "dies" oder "jenes kaufen". Gerne auch um "jetzt" oder "später", wobei man dann auch wieder mit anderen Vor- und Nachteilen zu kämpfen haben wird.

Und abgesehen von all den Spekulationen der Leistung, und des Erscheinungstages bezüglich der neuen Nvidia Generation können wir uns über eines doch ziemlich sicher sein; nicht unbedingt jetzt, aber spätestens wenn beide Generationen auf dem Markt sind, wird ATI wieder das bessere Preis/Leistungsverhältnis bieten, vor allem wenn Nvidia mehr Performance abliefert. Und hier rede ich vom Gesamtpaket die Leistung betreffend, nicht NUR von besserer AF Qualität.

Unyu schrieb:
Wenn dir jemand entgegnet er braucht kein Grafiksoundkarte, weil er eine Soundkarte hat, dann ist das seine Entscheidung.

Im Vergleich mit der AF Diskussion würdest du aber widersprechen, das die Soundkarte schlechter ist als die Grafiksoundkarte. :)

Unyu schrieb:
Nun, der Fehler besteht jetzt seit 4 Generationen.
Wenn ich Fehler suchen würde, würde ich viel mehr Punkte ansprechen.

Würdest du, aber vielleicht liegt da ja auch der Hund begraben, warum du nur auf der AF Qualität herum reitest?
 
Zuletzt bearbeitet:
@ Motlacher tu mal nicht so als NV gerade am Anfang ihrer Karriere wäre und noch "schwach" dasteht. Wenn NVidia gute Arbeit leistet und alles was sie bisher public gemacht haben fake wäre und der GT300 gut wie der G80 wäre gerät die HD5870 in Vergessenheit.
 
@ZotaC.T
Wart halt erst mal ab was da kommt bevor Du deine Glaskugel bemühst.
In meiner Glaskugel steht das es ein Flop wird der G300.

28971 3DMark 06 points mir ner Singelkarte da darf sich NV anstrengen.:p
http://www.xtremesystems.org/forums/showthread.php?t=235296

DX11 deutlich schneller
Radeon 5870+ 20 Prozent
Nvidia bietet noch keine DirectX-11-kompatiblen Grafikkarten an – was sich zumindest auch in den nächsten Monaten nicht ändern dürfte.
http://www.heise.de/newsticker/Battleforge-DirectX-11-Modus-deutlich-schneller--/meldung/145928
 
Zuletzt bearbeitet:
y33H@ schrieb:
AMDs "Ziel", sprich deren eigene PR-Benches, wurden in 25x16 mit 8x MSAA und teils mit DX10.1-Titeln gemacht. Extremes Cherry-Picking (haben sie ja von NV gelernt *g*)
Oder vielleicht auch PCGH. :rolleyes:

derMutant schrieb:
Ich glaube das Hauptproblem dieser Diskussion ist dass die HD 5870 zwar ordentlich Rendert, aber eben nicht ausreichend hoch um als "wirkliche" next gen Karte durchzugehen. Ansonsten wäre es völlig egal welche Spiele man raus bzw. reinimmt in den Benchmarkparkour.
Und wie definierst du "next gen"? Der RV870 ist eben ein weiter entwickelter RV770, darüber sollte man sich im Klaren sein. Der G300 wird auch nichts völlig neues werden. G80 und R600 waren seinerzeit etwas völlig neues, weil GPUs zum ersten mal eine Unified Shader Architektur bekamen, die auch in Zukunft das Herzstück sein wird. Wer solche gravierenden Änderungen mit jeder neuen Generation erwartet, hat leider völlig falsche Vorstellungen. Aber gerade diese Generation ist für mich mehr "next gen" als die zwei Generationen zuvor. Stichwort DirectX 11 und DirectCompute.

derMutant schrieb:
Einer 8800 Ultra war das fast 3 Jahre lang egal. Und die Leute hoffen nunmal bei jeder neuen gen auf so eine Karte. Nennen wir sie mal die Mutter aller Karten ;)
Ehrlich gesagt kann ich auf eine solche "Mutter" verzichten. Überteuerte und zu stromhungrige Karte, die völlig am Markt vorbei ging.

Booby schrieb:
Moment mal, die 8800GTX kam Ende 2006, von daher passt es schon...
derMutant sprach aber von der 8800 Ultra. Und die ist tatsächlich erst etwa 2 Jahre alt und schon mehr als ein Jahr outdated.

Nein, inquirer = Charlie = NV-Hasser #1

Auf fudzilla liest es sich wieder ganz anders, tja wem kann man glauben.
Dem halte ich entgegen, dass es kein Geheimnis ist, dass Fudo sehr nVidia affin ist. Um es mal vorsichtig auszudrücken. ;) Die scheinen sich also beide nicht viel zu nehmen. Die Wahrheit liegt wie so oft wohl irgendwo dazwischen.
 
Kann sein, das die Frage schon gestellt wurde, aber den ganzen Thread zu durchforsten ist mir dank der vielen Kommentare wie von Unyu echt too much.

Was ich gerne wissen würde, ob es schon alternative Kühllösungen für beide Karten geben soll.
Wenn ich bei Scythe oder Artic Cooling nachsehe, gibt es zumindest keine offiziellen Freigaben der aktuellen Kühler.

Danke,
superfunky
 
gruffi schrieb:
Oder vielleicht auch PCGH.
Was soll das heißen? :rolleyes: Kannst du dir deine Anti-PCGH-Geflame künftig vll sparen?! So langsam nervt es.

Bei PCGH wird die Karte bis auf das immer noch nicht HQ-würdigee AF übrigens nur gelobt ...
 
@y33H@;


Ich denk er meint eure so sensibel ausgewählten Gamesaves die Ihr bencht.:)
 
Zuletzt bearbeitet:
@y33H@
Die Aussage bezog sich auf das "Cherry-Picking", falls dir das entgangen sein sollte. Und das ist kein Geflame, sondern leider Realität. ;)
 
Zurück
Oben