Test ATi Radeon HD 5870 im Test: Die erste Grafikkarte mit DirectX 11

Schinzie schrieb:

Zukunftssicher!

Hätte immer noch eine X800XT wenn die mir net abgeraucht wäre - jetzt ist es es eine
X1950Pro...

Ich kauf mir immer ein Komplettes System um die 1400€ - 1600€ das dann erst mal hält!

Ich gehe nicht jede Generation mit! - Vor allem sehe ich nicht ein eine 1Jahr alte CPU oder eine GPU rauszuschmeißen. Was soll ich mit der "alten" Hardware? Verkaufen? neeee... viel zu schade.

So hab ich meine Alten Systeme für kleinigkeiten! Nur Internet. Nur Software Tests. Nur Spielen. usw...

Kleines Netzwerk zu Hause usw...
 
Muss bei 3 Monitoren nebeneinander eigentlich die vertikale Auflösung übereinstimmen?
Kann mir das ansonsten schlecht vorstellen, weil das Feature ja eine große Fläche aus allen Monitoren erzeugt und dem System einen entsprechend großen Monitor vorgaukelt.

Auch sollten für einen guten Effekt die physikalischen Pixelgrößen der Panels identisch sein, sonst kommt es ja zwangsläufig zu Verschiebungen zwischen den einzelnen Bildern.

Also so verschieden dürften die Monitore wohl nicht sein, wenn man ein großes Bild mit 3 Monitoren erzeugen will und es nahtlos ineinander übergehen soll.
 
Sicher kann man bei Dual-Monitoring die Displays mit unterschiedliche Auflösungen bedienen, und das funktioniert auch bei Eyefinity:

Heim-Desktop.jpg


Dies wird aber wohl nicht bei Spielen funktionieren, es sei denn das Spiel wird dies explizit unterstützen, das ist aber beides nur eine Vermutung.
Insgesammt muß für Eyefinity in spielen aber eine ?Custom Auflösung? unterstütz werden, und wenn dies der Fall ist, sollte es ja bei 2x 19" und 1x 22" ja kein Problem sein, vertical 1280+1680+1280 Darzustellen, und für die horizontale die Auflösung des 22" Wide Screen Beispielsweise auf 1680x1024 zu begrenzen, und die skalierung zu deaktivieren.
 
y33H@ schrieb:
Du kannst das LOD mit den ATTs ins Negative schieben, dann sieht 4x SGSSAA (noch) besser aus als 2x2 OGSSAA. Die Geometrieglättung ist eh besser.Ay.
Wie gesagt, die LOD Verschiebung ist nicht im selben Maß möglich, weil erst einmal die Filterung gebügelt werden muss.

john carmack schrieb:
Charlie = NV-Hasser #1 ? ? ? - Wer ist Charlie? Versteh ich nicht!
Charlie ist der Autor der Hassartikel.
Als Gegenteil habe ich mal spasseshalber fuad von fudzilla verlinkt.

Screemer schrieb:
kein mensch will auf dir "rumtretten", nur ist das gebetsmühlenartige herunterbeten der lehrsätze von "top-af-qualität" einfach langsam genug. wir haben haben so gut wie alle verstanden, dass die bq von nv besser ist als die von ati/amd.
Die Qualität ist ein wesentlicher Aspekt.
Solange die zig Versionen der HD5, der verschiedensten Hersteller, teils mit minimalsten Unterschieden in extra Artikeln beleuchtet werden, tja da gehe ich auf sowas ein.
Ich habe doch schonmal 8xAF gefordert, wenns nicht interessiert der braucht keine 16xLQAF 8xMSAA kein AAA Benches.

für die die das flimmern als störend empfinden bleibt ja immer noch die möglichkeit sich eine nv-karte zu kaufen und damit glücklich zu sein. allen anderen sollte man auch mal ne pause gönnen.
Mitlerweile hängt mir die Ausrede zum Hals raus.
Es kann doch nicht sein, das der blose Wunsch eines optionalen (es muss nicht mal offiziell im Treibermenü sein) auf derartigen Widerstand stößt.

Der Wunsch diese HQ Filterung defaultmäßig anzubieten besteht auch, aber das ist gar nicht mal unbedingt notwendig, sondern lediglich sehr wünschenswert, nach dem es jetzt zig Jahre 16xAF gibt.

Raucherdackel schrieb:
edit: hat unyu etwa schon Angst um seinen Arbeitsplatz?!? :D
Als Forenbösewicht? ;)

milamber! schrieb:
Daran ändert sich nichts, ich habe nur keine Lust um ne Mücke herum zu tanzen und aus ihr nen Elefanten zu machen, und mich mit Leuten um Themen zu streiten, die - je nach Bedarf - immer andere sind, nur um per se etwas schlecht reden zu können.
Über was soll man sonst diskutieren? Über die Balkenlänge? Viel Spass, das ist deine sogenante Mücke.

Im übrigen; wenn du 'Kritik' an den Hersteller äussern möchtest, weil du etwas ändern willst - sofern es wirklich darum geht - gibt es definitiv bessere Plattformen wie das Computerbase Forum, wo es sich lediglich darauf beschränkt, anderen Leuten gegenüber, Produkte eines Herstellers madig zu machen.
Na klar, ich geh ins AMD Forum, was meinst du wie die sich schieflachen. Ach ein unzufriedener Kunde.
Nein, ich wende mich hier an die Presse, den nur die kann etwas bewirken. Sie hat es mit G70 bewiesen, zahlreiche Artikel und 2 geizhals Links haben für eine drastische Änderung gesorgt.

Madig mache ich nichts, Drachton hat es zu verantworten, das ich mich hier gerechtfertigt habe, warum ich jetzt nicht 300€ ausgebe.

Drachton schrieb:
Was heißt "Umstieg erzwingen". Jeder spendiert seinem System doch updates in andren Zyklen.
Mehrleistung, nette Features oder BQ können zum Umstieg "zwingen".

Du setzt deine Priorität aufs Flimmern & Filterung, ich setze meine Priorität auf den Idle Stromverbrauch und den Preis.
Gut erkannt.
Wobei mir der Stromverbrauch nicht direkt egal ist, auch wenn ich jetzt eine absolute Schleuder im Hauptsystem habe. Letztlich rede ich auch niemandem aus, das ein hoher Stromvebrauch egal ist, während der HQ Schalter kategorisch abgelehnt wird, als sei es eine Ausgeburt der Hölle.

Motkachler schrieb:
Ich versteh auch nicht was Unyu da so als nicht hinnembar beim AF hinnstellen will.
Das AF ist besser geworden und sollte für 90% der Nutzer ausreichen.
8xAF sollte auch für 95% ausreichen, ebenso wie 4xMSAA.
Tolles Argument.

Für Spiele wie Oblivion HL2 The Witcher gibt es ja RGSSAA.
Power haben die neuen Radeons mehr als genug dafür.
Was auch ausdrücklich gut ist.
Bisher war dort eine Geforce Pflicht, was nicht heißt das diese Geforce auf einmal unbrauchbar ist. Mit OGSS-Hybriden und TSSAA und HQAF kann man auch leben.

Traurig ist nur, das es sich auf D3D9 beschränkt und Downsampling soll nur auf XP beschränkt sein, ...
 
@ Screemer

Naja. Es ist ja nicht so, als ob man das mit herkömmlichen Mitteln nicht auch irgendwie hintricksen könnte.
Das ist doch das gleiche wie bei diesem Physix.
Das was ich gesehen habe, könnte man auch ohne Physix so hintricksen, dass es den wenigsten auffallen würde.

@ john carmack

Dir ist aber klar, dass sich Investitionen im PC-Bereich in die Zukunft in den seltensten Fällen gelohnt haben.
Ich war auch längere Zeit der Meinung, einen Rechner zu kaufen, der dann lange halten muss. Seit einigen Jahren wird aber nur noch das gekauft, was ich wirklich zur Zeit und in naher Zukunft brauche und dann wird sukzessive aufgerüstet. Beim achten auf ein gutes P/L fällt auch der Wertverlust am geringsten aus.
Wenn man z.B. eine 5850 für unter 200€ bekommt und eine 5870 mit 2 gig für sagen wir mal 350€, dann kann man getrost nach einem Jahr die 5850 im schlimmsten Fall für 50€ verkaufen und wird zu diesem Zeitpunkt für 200€ dann (hoffentlich) eine bessere Karte bekommen, als es die 5870 mit 2 gig ist. Voraussetzung ist natürlich, dass einem die 5850 zum aktuellen Zeitpunkt reicht.
 
Unyu schrieb:
Mitlerweile hängt mir die Ausrede zum Hals raus.
Es kann doch nicht sein, das der blose Wunsch eines optionalen (es muss nicht mal offiziell im Treibermenü sein) auf derartigen Widerstand stößt.
keiner gibt dir hier kontra was eine optionale aktivierbarkeit von hq-af auch bei ati/amd karten angeht. nur reitet keiner so darauf rum und besteht darauf. ein nettes gimik/feature wäre es durchaus. nur für 95% der user kein argument sich gegen die neuen ati-karten zu stemmen.
Unyu schrieb:
Mehrleistung, nette Features oder BQ können zum Umstieg "zwingen".
bei mir ist es eber anders rum. mich "zwingt" eher die mehrleistung und nicht die bq zum wechsel. so sieht man mal wie sich anforderungen unterscheiden.
Unyu schrieb:
Letztlich rede ich auch niemandem aus, das ein hoher Stromvebrauch egal ist, während der HQ Schalter kategorisch abgelehnt wird, als sei es eine Ausgeburt der Hölle.
siehe oben. niemand lehnt hier ab, nur schreit auch kaum ein anderer so vehement danach.
 
milamber! schrieb:
Sicher kann man bei Dual-Monitoring die Displays mit unterschiedliche Auflösungen bedienen, und das funktioniert auch bei Eyefinity:

Heim-Desktop.jpg


Dies wird aber wohl nicht bei Spielen funktionieren, es sei denn das Spiel wird dies explizit unterstützen, das ist aber beides nur eine Vermutung.
Insgesammt muß für Eyefinity in spielen aber eine ?Custom Auflösung? unterstütz werden, und wenn dies der Fall ist, sollte es ja bei 2x 19" und 1x 22" ja kein Problem sein, vertical 1280+1680+1280 Darzustellen, und für die horizontale die Auflösung des 22" Wide Screen Beispielsweise auf 1680x1024 zu begrenzen, und die skalierung zu deaktivieren.

(Ich dachte immer vertikal hieße die senkrechte Auflösung. 1280 und 1680 sind aber die horizontalen Werte.)

Zumindest im CB Test steht, dass Windows und die anderen Anwendungen nur einen Monitor sehen, weswegen Eyefinity ja auch so gut kompatibel ist. Für eine Auflösung brauche ich immer zwei Werte horizontal x vertikal. Also muss doch ein Rechteck entstehen.

Horizontal sehe ich da auch kein Problem 1280+1680+1280 = 4240. Was macht man aber vertikal? Eine Gesamtauflösung von 4240x1050 wäre wegen der beiden 19" TFTs nicht möglich. Entweder die Gesamtauflösung wäre 4240x1024, dann blieben beim 22" TFT 26 waagerechte Pixel-Reihen dunkel, oder 4240x1050, dann wäre ein Teil des Bildes unsichtbar, weil es von den 19" TFTs nicht dargestellt werden könnte.

Oder aber die Technik arbeitet ganz anders ....

mfg
Noxolos
 
Wurde wahrscheinlich schon erwähnt, aber nur nochmal zur Demonstration der DX11 Performance:

bf1920.png


Schon wirklich beeindruckend, vor allem der Abstand zur GTX285.

Greetz,
superfunky
 
Unyu schrieb:
Bisher war dort eine Geforce Pflicht, was nicht heißt das diese Geforce auf einmal unbrauchbar ist. Mit OGSS-Hybriden und TSSAA und HQAF kann man auch leben.


mit dem AF der RAdeons kann man auch leben. ich trolle auch nciht bei Nvidia artikeln rum,dass man keine 3 bildschirme anschließen kann, kein EDAA nutzten kann, immer probleme mit HDMI Sound hat usw.

das problem ist,dass du es als unspielbar darstellt,was es absolut nicht ist. Nvidia hat ein leicht bessere Filterung, punkt. Und, jetzt jede ati unspielbar?
ati hat besseres AA, ist jetzt ne Nvdia unspielbar? achne,da kann man damit leben, ich vergaß.


gruß
 
@ Unyu

Habe mir die von dir verlinkten Videos angeschaut. Dort ist der Unterschied schon deutlich zu sehen.
Ich habe in dem einen Rechner eine aktuelle Geforce und in dem anderen eine aktuelle ATI. Und so gravierend ist mir das noch in keinem Spiel aufgefallen (was jetzt nicht heißen soll, dass alle andere es auch nicht für gravierend halten). Ich achte aber auch nicht wirklich darauf, weil es zumindest bei den Spielen, die ich spiele so ist, dass mich das Spiel doch noch so stark interessiert, dass man eher wenig Zeit hat auf solche Dinge zu achten. Vielleicht spielst du einfach schlechte und langweilige Spiele, wenn du dich dabei noch so stark auf etwaiges Flimmern konzentrieren kannst ;).
 
Unyu schrieb:
Über was soll man sonst diskutieren? Über die Balkenlänge? Viel Spass, das ist deine sogenante Mücke.

Balken sind mir egal. 5 oder 10% mehr bei dem einen Spiel, und 5 bis 10% weniger bei dem anderen Spiel sind für mich keine Argumente um 30% mehr zu zahlen, oder bei vielen anderen Aspekten abstriche zu machen. Auch sind sie für mich in der höhe keine Gründe für die klare Abgrenzung in den Kategorien Enthusiast oder Performance, solange durch dieses Plus nicht Zustände geschaffen werden, die etwas ermöglichen, was vorer nicht möglich war: Und diese Zustände gibt es weder hier, noch bei den CPUs (von speziellen propritären Featuresabgesehen), wo aber von solche Szenarien geredt werden.

Das gesammt Packet muß stimmen, allen vor die Preis/Leistung, und ja, auch die AF Qualität gehört dazu ... doch muß man auch irgendwo die Verhältnismäßigkeit beibehalten, und die sind bei dir meiner Ansicht nach, einfach nicht gegeben.

Da stellt sich also nun die Henne/Ei Frage, was war zuerst; Du, welcher der ganzen Karte ihrer Berechtigung abzusprechen scheinst, aufgrund eines Nachteils*, oder die anderen, die Aufzeigen das dies Überzogen ist, auch die andere Wiese nicht so grün ist wie behauptet, das dann so aussehen könnte, man würde den Nvidia Karten ihrerseits ihre Leistungen zerreden.

*Es soll Leute geben, die wollen bei 120Hz noch ein Flimmern sehen, und welche, die bei Digital Kabeln unterschiede heraus hören. Wer Fehler sucht, der findet sie auch. Das ist die Mücke.

In diesem Sinne, bring deine Kritik da an, wo sie auch was nützt und gehört wird, und nicht nur so ausschaut, als wollst du ATI Hardware zerreden.
 
Hallo Computerbase

Es wäre interessant zu wissen, wieviel die Grafikkarte alleine immer ausmacht bei der Leistungsaufnahme.

Mein Gesamtsystem sieht ja wieder anders aus, als eures.
 
Hui!
Was ist denn hier passiert, einmal nicht gekuckt, schon zwei Seiten hitzige Diskussion!
Ich erlaube mir daher, nochmal meine Frage aufzugreifen:
Weiß jemand vielleicht, wie es aussieht mit Multi-Card Eyefinity?
CF wird ja nicht unterstützt.
ABER: könnte man zB zwei 5870 einbauen, die eine den mittleren, die andere die äußeren Monitore betreiben lassen?

Milamber, Du scheinst Dich ja ein wenig mit der Multi Screen Materie beschäftigt zu haben,
weißt Du vielleicht was?
 
Noxolos schrieb:
(Ich dachte immer vertikal hieße die senkrechte Auflösung. 1280 und 1680 sind aber die horizontalen Werte.)

Ja habs verdreht.

Noxolos schrieb:
Zumindest im CB Test steht, dass Windows und die anderen Anwendungen nur einen Monitor sehen, weswegen Eyefinity ja auch so gut kompatibel ist. Für eine Auflösung brauche ich immer zwei Werte horizontal x vertikal. Also muss doch ein Rechteck entstehen.

Horizontal sehe ich da auch kein Problem 1280+1680+1280 = 4240. Was macht man aber vertikal? Eine Gesamtauflösung von 4240x1050 wäre wegen der beiden 19" TFTs nicht möglich. Entweder die Gesamtauflösung wäre 4240x1024, dann blieben beim 22" TFT 26 waagerechte Pixel-Reihen dunkel, oder 4240x1050, dann wäre ein Teil des Bildes unsichtbar, weil es von den 19" TFTs nicht dargestellt werden könnte.

Ja, das meinte ich - wenn die Software und entsprechend die Spiele die Monitore nicht einzeln ansteuern, sondern nur eine große, symetrische Auflösung funktioniert, sollte es bei der Kombination 19"(4/3)+22"(16/10) ja immer noch möglich sein, den 22" auf 1680x1024 zu begrenzen. Und auf die 13 Pixel oben und unten kann ich gern verzichten.

Wichtig natürlich, das man die Skalierung deaktiverenkann.
Ergänzung ()

Octoboy schrieb:
Hui!
Was ist denn hier passiert, einmal nicht gekuckt, schon zwei Seiten hitzige Diskussion!
Ich erlaube mir daher, nochmal meine Frage aufzugreifen:

Weiß jemand vielleicht, wie es aussieht mit Multi-Card Eyefinity?
CF wird ja nicht unterstützt.
ABER: könnte man zB zwei 5870 einbauen, die eine den mittleren, die andere die äußeren Monitore betreiben lassen?

Milamber, Du scheinst Dich ja ein wenig mit der Multi Screen Materie beschäftigt zu haben,
weißt Du vielleicht was?

CF wird unterstützt, die 24 Display Konfiguration die auf verschiedenen Seiten gezeigt wurde, ist ja mit Crossfire aufgebaut worden.
Die normalen 5870 haben 2x DVI, HDMI und Display Port. Die X2 Karten haben afaik 6 Display Port, wo man mit ?Doppelpeitschen 12 Displays? ansteuern kann, mindestens aber 6.

Afaik sollen sich die verschiedesten Konfigurationen erstellen lassen, wesegen rein Theoretisch eine Karte einen mittleren, und eine andere äussere Bildschirme ansteuern lassen müssten - wie gesagt, nach dem was ich weiss. Wäre bei 3 Monitoren aber nicht nötig.
Das ist dann alles ne Treibersache.

amd-eyefinity-displaylink.jpg
 
milamber! schrieb:
Ja habs verdreht.



Ja, das meinte ich - wenn die Software und entsprechend die Spiele die Monitore nicht einzeln ansteuern, sondern nur eine große, symetrische Auflösung funktioniert, sollte es bei der Kombination 19"(4/3)+22"(16/10) ja immer noch möglich sein, den 22" auf 1680x1024 zu begrenzen. Und auf die 13 Pixel oben und unten kann ich gern verzichten.

Wichtig natürlich, das man die Skalierung deaktiverenkann.

Was Du dabei vergisst ist die Pixelgröße.
Die kann man sich aber ungefähr selbst errechnen:

Satz des Pythagoras: a² + b² = c²
1 Zoll = 2,54cm = 25,4mm
x: Anzahl der horizontalen Pixel
y: Anzahl der vertikalen Pixel
z: Seitenlänge eines Pixels

a=x*z
b=y*z

(x*z)² + (y*z)² = c²
=> z²*(x²+y²) = c²
=> z² = c²/(x²+y²)
=> z = Wurzel (c²/(x²+y²))

Pixelgrößen:
19" TFT (1280x1024): ~0,294mm
20" TFT (1680x1050): ~0,256mm
22" TFT (1680x1050): ~0,282mm
24" TFT (1920x1200): ~0,269mm
....

(Das sind nur ungefähre Lösungen, weil ich 1. auf 3 Stellen nach dem Komma gerundet habe und 2. noch dieser feine Zwischenraum zwischen den Pixeln abgezogen werden müsste. In Echt sind die Pixel also jeweils etwas kleiner)

Wir gehen also mal davon aus, dass bei einem solchen Setup 19"+22"+19" der 22" TFT auf 1024 Pixel in der Höhe beschränkt würde. Wenn man jetzt auf dem 22" Monitor eine Spielfigur sieht, die den halben Bildschirm in der Höhe einnimmt, also 512 Pixel hoch ist, so sind das ca. 14,43cm. Bewegt man sich dann so, dass die Figur im mittleren und in einem der 19" Monitore gleichzeitig zu sehen ist, entsteht am Übergang eine Kante wegen der Größendifferenz, denn im 19" Monitor ist die gleiche Figur bei 512 Pixel ca. 15,05cm groß. Klar das sind nur 6,2mm Unterschied aber es ist doch deutlich sichtbar.

Deswegen denke ich das macht nur mit Monitoren der gleichen Größe wirklich Spaß.

mfg
Noxolos
 
Zuletzt bearbeitet:
Zurück
Oben