Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
Hast du im Treiber High Quality ein- und alle Optimierungen ausgestellt, die noch an sein könnten? Es gibt übrigens auch Shader, die auf Bodentexturen laufen in manchen Spielen - das flimmert natürlich unabhängig vom AF.
 
@boxleitnerb
Treiberseitig ist alles auf Stock.
Bei HL2 bzw. CSS verwende ich 4xMSAA und 16xAF. Diese "Welle" ist deutlich zu sehen. Das gleiche auch bei Fallout 3 und ARMA 2. Wobei es bei ARMA 2 schon extrem ist, wenn man ohne Terrain spielt.
 
Da HQ bei Nvidia fast kostenlos ist, würde ich die genannten Einstellungen tätigen. Dann solltest du die bestmögliche Bildqualität bekommen.
 
Klasse test, hat meine Vermutungen bestätigt was P/L Betrifft. Sooo viel billiger ist AMD in dem Fall doch nicht. Ich hatte auch mit dem Gedanken gespielt eine HD 6870 zu holen, aber dann doch lieber die GTX 470, wenn sie auch etwas mehr verbraucht, das bekommt mein NT noch hin. Danke.
 
Zuletzt bearbeitet:
Mich stört das Flimmern deutlich!

Aber das problem habe ich jetzt mit meiner GTX480 nicht mehr.Bin nach 7 Monaten von der HD 5870 auf die GTX 480 umgestiegen.
 
Schade, dass MLAA bei GTA IV nicht getestet wurde.
Gerade dort wärs interessant wie es sich auf die Performance auswirkt.
 
boxleitnerb schrieb:
Auf Bildern kann man Flimmern natürlich nicht erkennen. Dazu musst du schon die Videos anschauen ;)

nein ich mein die doppelte Software als Fehler ;)

meine Frage besteht trotzdem, ist es möglich dass AMD noch nachbessert durch verbesserte Treiber?
 
Mal von der vergleichsweise miesen Performance muss ich sagen ist das Bild wirklich furchtbar. Es sieht aus als hätte jemand per Hand die Ränder mit einem weichen Radiergummi nachgezogen - gefällt mir absolut nicht.

Die allgemein Leistung im Verhältnis zum Preis ist Ok, die GTX460 wird hier aber wohl noch eine weile die Referenz in dem Bereich bleiben da nVidia ja preislich nachgezogen hat.

Eigentlich schade, ich hatte gehofft das die schlechtere Bildqualität bei ATI bzw. AMD der Vergangenheit angehört.

@Toxi1965: Jeder hat anders gute Augen, ist wie bei Lüftern die sonst niemand hört und angeblich als lautlos betitelt werden. Ich habe zwar auch eine gewisse Sehschwäche (kA wie schlimm - nie zum Arzt deswegen), sehe den Unterschied und vor allem aber auch die Unschärfe mehr als deutlich.

Wenn man sich das ganze nun noch in Vollbild auf einem 22" Monitor (oder größter) vorstellt solltest auch du das ganze sehen können.
 
Da wir derartige Geschäftspraktiken im Jahre 2010 nicht unterstützen werden, haben wir uns dazu entschlossen, in Zukunft jede Radeon-HD-6000-Karte mit der etwa fünf Prozent langsameren High-Quality-Variante zu testen, sodass das Endergebnis mit der Standardeinstellung von Nvidia in etwa vergleichbar ist.

Damit verlieren für mich zukünftige Tests hier doch sehr an Wert.

Entweder testet man mit den vom Hersteller vorgesehenen Standardeinstellunngen oder man lässt es.

Im Testurteil kann dann meinetwegen stehen, dass die eine Karte zwar schneller, die andere dafür aber die bessere Bildqualität bietet, aber nicht, dass man durch Herumgefrickel an werkseitigen Voreinstellungen eine wie auch immer geartete Gemeinsamkeit erreichen wollte.

Und mal ernsthaft:

Wenn man einmal damit angefangen hat, wo würde man dann aufhören wollen oder müssen?

Um mal wieder eine der allseits beliebten Analogien zur Automobilwelt zu bringen:

Das wäre in etwa so, als würde man bei einem KW-mäßig stärkeren Wagen durch Drosseln des Turboladers die Leistung absenken, um ihn, was die Höchstgeschwindigkeit angeht, mit dem schwächeren Modell der Konkurrenz "besser" vergleichen zu können und diese Vorgehensweise damit begründet, dass das schwächere Auto ja doch erheblich leiser über die Straßen rollt und man dadurch nur eine bessere Vergleichbarkeit des Rollgeräuschs erzielen wollte.
 
proko85 schrieb:
Habe mir grad mal die HQ Videos von NV 400er und ATI 6000er angeschaut. Ein Unterschied ist deutlich zu erkennen, aber wie kommts dazu dass ich mit meiner NV GTS 250 die gleiche schlechte Qalität einer HD60xx habe?

Im Artikel steht doch, dass NV seit 5 Jahren auf einem gleich gutem Neveau verharrt. Meine Karte ist keine 2 Jahre alt...
geh in den treiber und stell auf high quality oder quality
 
Pilstrinker schrieb:
Damit verlieren für mich zukünftige Tests hier doch sehr an Wert.

Entweder testet man mit den vom Hersteller vorgesehenen Standardeinstellunngen oder man lässt es.

Im Testurteil kann dann meinetwegen stehen, dass die eine Karte zwar schneller, die andere dafür aber die bessere Bildqualität bietet, aber nicht, dass man durch Herumgefrickel an werkseitigen Voreinstellungen eine wie auch immer geartete Gemeinsamkeit erreichen wollte.

Warum? Wenn ein Hersteller einen Nutzen (Mehrperformance) aus einer Einstellung zieht, der andere aber kaum bis gar nicht, ist eine Vergleichbarkeit nicht mehr gegeben.

Du bencht ja auch nicht no AA vs. 2xMSAA. Du bencht bei gleicher/vergleichbarer Bildqualität. Weil Leistung = Bildqualität*Performance. Es zählt ja nicht nur, was gerechnet wird, sondern auch, was dabei hinten herauskommt.
 
Ich benche grundsätzlich mit den Standardeinstellungen.

Und wenn als Ergebnis da halt eben herauskommt, dass höhere Performance durch schlechtere Bildqualität erkauft wird, dann ist das eben so.

Aber niemals würde ich versuchen, die werkseitigen Standardeinstellungen auf ein mir genehmes Niveau zu verändern.

PS:
Wenn ein Hersteller einen Nutzen (Mehrperformance) aus einer Einstellung zieht, der andere aber kaum bis gar nicht, ist eine Vergleichbarkeit nicht mehr gegeben.
- daher habe ich die Analogie zu Autotests gebracht.
 
Zuletzt bearbeitet:
Pilstrinker schrieb:
Das wäre in etwa so, als würde man bei einem KW-mäßig stärkeren Wagen durch Drosseln des Turboladers die Leistung absenken, um ihn, was die Höchstgeschwindigkeit angeht, mit dem schwächeren Modell der Konkurrenz "besser" vergleichen zu können und diese Vorgehensweise damit begründet, dass das schwächere Auto ja doch erheblich leiser über die Straßen rollt und man dadurch nur eine bessere Vergleichbarkeit des Rollgeräuschs erzielen wollte.

Was hasn du geraucht?

Quatsch, das ist so als würde man dem lauterem Auto Schalldämmung draufschnallen damit man bei gleichem Geräuschniveau die Höchstgeschwindigkeit bestimmen kann.
Das dabei das gedämmte Auto etwas langsamer fährt als im ungedämmten Zustand ist ja genau der Punkt der Sache.

Ich finde das super von CB.
 
merkt euch meine Worte, im Februar kommt AMD´s 7er Serie raus, die 6er ist nur schnell zusammengewürfelt worden fürs Weihnachtsgeschäft :)
 
Alienate.Me schrieb:
@feuerferkel

wenn man boden beobachtest kann man ein flimmern erkennen. gehörst aber anscheinend auch zu den glücklichen menschen, die es nicht sehen oder es nicht stört. mich juckts auch nicht die bohne. bin von
nvidia zu ati gewechselt und bemerke keinen unterschied, die spiele laufen flüssig und das bei rot sowie grün und das ist das wichtigste für mich :)

Oh ja, aber erst nachdem mich meine Freundin mit der Nase an den Monitor gedrückt hat hab ich das gesehen. Hat mich bisher nie wirklich gestört noch ist es mir als besonders Nachteilig aufgefallen. Vielleicht dachte ich bisher es ist normal ;) Nicht das es mich ab sofort stört... Wehe CB hat da schlafende Hunde geweckt.
 
So jetzt ist es offizell. Die 6800 Serie filtert schlechter als vorher. Traurig
 
Pilstrinker schrieb:
Ich benche grundsätzlich mit den Standardeinstellungen.

Und wenn als Ergebnis da halt eben herauskommt, dass höhere Performance durch schlechtere Bildqualität erkauft wird, dann ist das eben so.

Aber niemals würde ich versuchen, die werkseitigen Standardeinstellungen auf ein mir genehmes Niveau zu verändern.

PS: - daher habe ich die Analogie zu Autotests gebracht.

Was heißt "genehm"? Es geht um Vergleichbarkeit des Ergebnisses. Auf Standard ist es nicht vergleichbar. Bei Karten, die so nahe zusammenliegen die GTX460 in diversen Versionen und Barts, kann das das Zünglein an der Waage sein.

Außerdem:
Wenn man nur in einem Satz am Ende erwähnt, dass die BQ schlechter ist, liest das doch kaum jemand. Die meisten schauen die die Benchmarks bzw. die Ratings. Dort muss man ansetzen.

zum P.S.
Das wäre ja alles egal, wenn die Optimierungen unsichtbar wären. Sind sie aber nicht. Daher muss sowas sanktioniert werden.
 
Eine unglaubliche dreistigkeit von AMD! Kaum steht nicht mehr der qualitätsname ATI drauf wird gemurxt das einem übel wird. Ich kann es nicht verstehen das die sowas nötig haben. Diese Serie ist ein Witz, weder der Name noch die Qualität stimmt, hoffentlich fliegen die sowas von derbe hin damit so dass sie endlich kapieren das es so nicht geht.
 
Also ich will schon wissen, wie sich der Unterschied bei gleicher Qualität, denn das is das einizge Vergleichskriterium, da die Architekturen ja unterschiedlich sind, sich darstellt. Finde das eine mehr als faire Lösung, so könnte AMD einfach gezwungen werden, wenn andre Tester auch nachziehen würden, ihre Qualität schon in den Default-Einstellungen ebenbürtig zu machen, als das sie nur die Balken länger sehen wollen für ihr Ego oder den Verkaufserfolg! Und dann kommt in Foren wie hier, dann das Gejammer, warum die Optik trotzdem nicht so dolle ist oder aber dann doch alles langsamer läuft wenns doch gleich gut Aussehen soll - richtiger Schritt meiner seits den ich begrüße!

MfG
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben