Grafikkartentests?

  • Ersteller Ersteller 4kµHD
  • Erstellt am Erstellt am

Brauchen wir einen Test zur GTX285 mit 2GB

  • Ja ich bin an einem Test interessiert

    Stimmen: 45 47,4%
  • Nein ich bin nicht an einem Test interessiert

    Stimmen: 28 29,5%
  • Ist mir Egal

    Stimmen: 22 23,2%

  • Umfrageteilnehmer
    95
  • Umfrage geschlossen .
rumpel01 schrieb:
Welcher möglichst leistungsfressende und noch praxisrelevante Modus (außer 8xAA/16xAF Q sowie 8xAA/16xAF A.I. standard bzw. das frickeln mit dem nhancer zwecks SSAA ist nicht für 90% der Nutzer praxisrelevant) erlaubt am ehesten noch einen direkten Vergleich zwischen nvidia und ATi, ohne dass man einen Großteil des Spieleparcours opfert und nur noch vier statt zwölf Karten in der gegebenen Zeit aktuell und gewissenhaft bencht?

Keiner :)
Ich finde die Settings OK so. Kaum ein User verändert doch wirklich die Treibersettings, insofern solltet ihr das auch genau so lassen. Die Leute, wo exakt wissen, was CSAA/MSAA/AAA etc ist, die wissen auch exakt, wie Leistungsstark welche Karte ist, ohne das ihr euren Test anpasst. Alle anderen verwenden sowieso Standardeinstellungen, sprich: Maximal 8x MSAA und 16x AF "Q" und "A.I. ON"

AI Off würde KEIN ATI User überhaupt machen, da hier enorm Leistung verschwindet. Das wäre einfach nur dumm. Macht genau deshalb auch keiner, das zu testen wäre vollkommen sinnlos. Bei Nvidia könnte man ja vielleicht irgendwann mal einen extra Test zu den Quallitätsmerkmalen rausbringen, sprich Q vs HQ vs LQ etc. Lasst aber bitte die Standardtests so wie sie sind von den Settings her...
 
rumpel01 schrieb:
Ich wäre ernsthaft wirklich froh darüber, wenn mir jemand mal folgende Frage beantworten kann:

Welcher möglichst leistungsfressende und noch praxisrelevante Modus (außer 8xAA/16xAF Q sowie 8xAA/16xAF A.I. standard bzw. das frickeln mit dem nhancer zwecks SSAA ist nicht für 90% der Nutzer praxisrelevant) erlaubt am ehesten noch einen direkten Vergleich zwischen nvidia und ATi, ohne dass man einen Großteil des Spieleparcours opfert und nur noch vier statt zwölf Karten in der gegebenen Zeit aktuell und gewissenhaft bencht?

8xAA Modi ohne taa, aaa praxisrelevant? Darüber kann man sich streiten. Jeder der etwas ahnung hat würde zuerst taa, aaa anschalten, weil der Bildqualitätsgewinn in vielen spielen deutlich höher ist und in denen wo er kaum da ist es auch praktisch keine leistung kostet. Nur dass das in den artikeln von den standardzeitschriften/inetseiten höchstens mal nebensächlich kurz erwähnt wird und den Leute suggeriert wird 8xAA ist das allheilmittel, mehr braucht man nicht.

Die Vergleichbarkeit ist da aber natürlich das Problem, nen solcher Vergleich wäre in der Tat sehr zeitaufwendig, da man für jedes spiel erst tmsaa, tssaa von beiden mit taa, aaa vergleichen müsste um so halbwegs gleiche Settings in sachen Bildqualität zu erreichen. Es wäre aber schon nen Anfang, wenn man irgendwie mehr Wert auf die Modi legen und sie auch erstmal nicht ins Performancerating reingehen.
 
8xAA Modi ohne taa, aaa praxisrelevant?

Deshalb sprach ich von noch praxisrelevant. Im übrigen kann man die AAA bzw. TMSAA/TSSAA-Modi nicht direkt und auf Augenhöhe miteinander vergleichen, da man bei ATi keine manuelle Möglichkeit hat zu wählen, ob nun Multi- oder Supersampling genutzt wird. Das gibt somit Verzerrungen, die nicht mehr hinnehmbar sind. Demnach fallen entsprechende Modi, so interessant sie sein mögen, für einen Test, der bei möglichst vergleichbarer Last und Bildqualität die Karten gegeneinander antreten lässt, einfach raus.

Die Alternative wäre: den Parcour bei 4xAA + TM/SAA bzw. AAA Q enden zu lassen sowie die AAA und TM/SAA-Modi außer Konkurrenz zu betrachten. Nur wäre dies vor dem Hintergrund, dass 8xAA bei ATi durchaus praktikabel sein kann, unfair den Roten gegenüber. Man kann zudem dann genauso gut fragen: "Warum bencht ihr nicht mit Edge Detect AA? Sieht doch viel besser aus."

Nur dass das in den artikeln von den standardzeitschriften/inetseiten höchstens mal nebensächlich kurz erwähnt wird und den Leute suggeriert wird 8xAA ist das allheilmittel, mehr braucht man nicht.

Suggeriert wird das hier nirgendwo. Im Gegenteil: https://www.computerbase.de/2009-01/bericht-anti-aliasing-bei-ati-und-nvidia/18/#abschnitt_fazit

Anti-Aliasing-Modi gibt es wie Sand am Meer und so ist es – je nach Standpunkt – fast ein bzw. kein Wunder, dass die meisten Spieler, wenn überhaupt, 4xMSAA nutzen. Denn es gibt (zu) viele interessante Alternativen, die – je nach Anwendungsgebiet – teilweise besser aussehen. Leider gilt jedoch: Das optimale Anti-Aliasing gibt es nicht. Stattdessen hängt es vom Spiel beziehungsweise dessen Engine ab, welche Kantenglättung optimal ist.

Multi-Sampling-AA ist und bleibt allerdings die zumeist erfolgsversprechendste Lösung. Ob 4xMSAA oder gleich 8xMSAA hängt dagegen eher vom Nutzer ab. TMSAA/TSSAA beziehungsweise AAA sind in den meisten Spielen ein sinnvoller Zusatz, den wir generell empfehlen zu aktivieren. Bei ATi kann man hier gleich die Quality-Stufe nehmen, bei Nvidia kommt es dagegen auf das Spiel an. SSAA ist ohne Zweifel der empfehlenswertere Modus, manch' eine Engine kann die Grafikkarte mit TSSAA aber zu Boden zwingen.

@eXEC-XTX:

Genau darauf wollte ich hinaus. :)
 
Zuletzt bearbeitet:
Bereits jetzt sind die Settings nicht vergleichbar.
Immer wieder wird mit der Vergleichbarkeit argumentiert. Da stellt sich die Frage in welchen Punkten? Optisch ist 4x oder 8xQ gut mit AMDs 4x oder 8x vergleichbar. 16xAF, TAA und AAA schon nicht mehr.
Das man 8xQ statt 8x oder 16x testet ist somit nur eine faule Ausrede.
Das man Radeons ohne AAA testen soll habe ich nie geschrieben. Nur das AAA nicht mit TAA vergleichbar ist. Selbstverständlich würde ich auf einer AMD Karte AAA nutzen, auch wenn ich mich über die Beschneidung ärgern würde. ich würde auch 8xMSAA öfter nutzen.
Es wird versucht den größten gemeinsamen Nenner zu finden. Jetzt meint man, man habe ihn gefunden, er heißt 8xMSAA, noAAA, 16xLQAF. Fakt ist, das dies falsch ist. Dieses Setting ist nicht gleich, somit gibt es keinen Grund dieses Setting anstelle eines anderen zu fahren.
Es ist mir vollkommen klar, das AI-off manchmal Probleme macht, dafür macht AI-on auch mal Probleme. 8xQ macht Performance mäßig Probleme.
Es mag albern klingen, wenn ich immer AI-off fordere, wenn 8xMSAA zu lesen ist, aber denkt doch mal darüber nach, wie sinnig es ist die z-Füllrate zu fünfteln aber Angst zu haben die 5% für HQ zu opfern.

Es geht vielmehr um vernünftige Settings.
Das selbe kann man auch für AMD Karten verlangen. Wozu HAWX mit 16xLQAF testen? Weil immer 16x an ist reicht nicht als Ausrede.
Wieder zurück zur Geforce wären wir bei Bioshock. Wozu 16xLQAF mit 1xAA kombinieren?
Zurück zur Radeon, wozu zeigen das ein 4Ghz i7 20 FPS in Cryostasis liefert? Das interessiert als Nutzer einer 100€ Grafikkarte nicht.
Nur weil eine Radeon gut mit 8xMSAA zurecht kommt wird die Geforce durch dieses Setting gejagt? Gut, dann sind wir wieder bei AI-off, eine Geforce kommt gut mit Q zurecht, mit HQ auch.


Die Settings mit 8xQ, die ich als ScheinHQ Verurteile werden in Wirklichkeit gemeinsam mit 4x unter "Qualität" gelistet. Dies ist korrekt, aber nach 2 Posts im Forum erkennt es ein Blinder, wie die Leser dies auffassen: "Karte XY ist bei hoher/höchster Qualität besser als bla"

Es ist nicht notwendig gleich jeden Geforce Test mit 32xS, TSSAA und 16xHQAF durchzuführen. Das ist eine Übertreibung um mich schlechter dastehen zu lassen. Klar würden mich solche Tests interessieren. Noch viel mehr würden mich die Settings interessieren, die ich tagtäglich fahre: 16xHQAF + TAA + 4xMSAA + 1x2SS/2xSS/ bzw stattdessen eine sehr hohe Auflösung um dies .

nHancer habe ich dem Zusammenhang gar nicht erwähnt. Man kann im Treibermenü wählen zwischen
- 1x, 2x, 4x, 8x, 16x, 8xQ AA
- 1x, 2x, 4x, 8x, 16x AF
- Ebenfalls zur Auswahl steht "HighQuality", ein Modus der gerade hier in den früheren CB Tests arg bekannt gemacht worden ist.
Defaultmäßig ist "Quality", AA und AF auf "Application controled".
In Spielen wie nehmen wir mal Crysis kann man gewiese Schalter betätigen. Einer davon trägt den Namen AA: Welch Wunder, es gibt mehr als 1x, 4x und 8xQ.

Der 3Dcenter Fred ist seit dem 29.06.2009 existent. Mit ein wenig Nachfoschungen würde es schnell auffallen, das ich diese Punkte deutlich länger kritisere. Richtig ist, das mir der Startpost in vielen Punkten aus der Seele spricht.


Umstellen der Settings für eine 2GiB Karte?
Nein, muss nicht sein, würde lediglich den Testnutzen dahingehend erhöhen, das man weiß was die Karte leisten kann.
Es besteht auch keine Notwendigkeit, nur weil es neue Spiele gibt mit dem erscheinen einer neuen Karten diese zu testen.
Man könnte auch einen Test abseits der Norm machen, so wie https://www.computerbase.de/2008-04/bericht-wieviel-grafikkartenspeicher-muss-sein/ nur eben besser, weil nicht nur die fest gefrorenen Settings, sondern nur teilweise.


Zu den Pfeiftests:
Gerade ich würde mich ärgern, wenn ich wegen der kurzen Randbemerkung die in den bereits vorhanden Test abgelassen wurden meine Kaufentscheidung beeinflusst hätten.
Teils kann man das "hätten" auch durch ein "haben" ersetzen.
Wie Farmer erwähnt hat, wie wärs mit mehreren Karten um ein Mittel zu bilden? Es muss nicht notwendigerweise von CB gemacht werden, gibt nebenbei noch genug andere Magazine, die es ihren zahlenden Lesern schuldig sind. 20 Karten sind zwar kein perfektes Ergebnis, aber warum auf einmal so genau? Es gibt immer Schwankungen, mal bei der Übertaktung die in jedem Review erwähnt wird angefangen.
Unabhängig davon wurde noch nicht einmal Aufklärung betrieben, was es mit dem Pfeifen überhaupt auf sich hat. Dazu hätte man keine konkretten Zahlen oder Diagramme bringen müssen.

Genau das ist das Problem, Treibertests sind zu reinen FPS Vergleichtests verkommen, in Spielen gibts nur noch 2 Settings.


Zu den Treibern:
Es besteht auch Notwenigkeit neue Karten mit neuen Treibern zu testen, bis auf wenige Ausnahmen. Seit dem letzten Test ist meinetwegen 1 neuer Treiber erschienen und promt wird dieser neue Treiber verwendet. Muss das sein? Gibt doch eh alle 3 Wochen einen Treiber FPS Vergleich.
In den Testergebnissen steht eine GTX 275 vor einer GTX 280, wer erkennt das es am Treiber liegt? Niemand, schaut euch mal genauer um, jeder dritte behauptet die GTX 275 wäre nur 5% lahmer als eine GTX 285. Die Mindestlösung dazu wäre eine fette rote Warnmarkierung "Achtung nur 4890 und GTX 275 mit neuem Treiber getestet".
 
Zuletzt bearbeitet:
16xAF, TAA und AAA schon nicht mehr.

Halte ich für falsch. 16xAF @A.I. Standard bzw. 16xAF Q sind aus meiner Sicht noch ehesten vergleichbar, wenn man sich das Gesamtspektrum ansieht. Mal sieht es bei der ATi noch leicht schlechter aus, mal eben nicht. Unterm Strich nimmt sich das aus meiner persönlichen Warte nicht viel.

Das selbe kann man auch für AMD Karten verlangen. Wozu HAWX mit 16xLQAF testen? Weil immer 16x an ist reicht nicht als Ausrede.

Weil AA unter Bioshock DX10 bei den ATis nicht läuft bzw. auf einem gemeinsamen Level die Karten verglichen werden sollen. 4xAA wird mit den Geforces bei Bioshock getestet, also wo liegt das Problem?

Die Settings mit 8xQ, die ich als ScheinHQ Verurteile werden in Wirklichkeit gemeinsam mit 4x unter "Qualität" gelistet. Dies ist korrekt, aber nach 2 Posts im Forum erkennt es ein Blinder, wie die Leser dies auffassen: "Karte XY ist bei hoher/höchster Qualität besser als bla"

Wenn die Leute die Texte nicht lesen und v.a. auch die immer wieder verlinkten Berichte zu den unterschiedlichsten AA-Modi (s.o.), dann kann man ihnen auch nicht helfen. Ich habe eher den Eindruck, dass von Deiner Seite dieser Abschnitt auch einfach gern falsch verstanden werden möchte.

16xHQAF + TAA + 4xMSAA + 1x2SS/2xSS/ bzw stattdessen eine sehr hohe Auflösung um dies .

nHancer habe ich dem Zusammenhang gar nicht erwähnt. Man kann im Treibermenü wählen zwischen (...)

2xSSAA kann man nur im nhancer einstellen. Ich persönlich halte 2xSSAA eher für einen nur bedingt sinnvollen Modus. Geometriekanten weisen noch schöne Treppen auf, je nach Spiel und Engine legt sich zudem noch ein schöner Blureffekt über den Screen. Wenn, dann sind die Hybridmodi die "sinnvollsten", da diese Vorteile beider Techniken kombinieren.

Der 3Dcenter Fred ist seit dem 29.06.2009 existent. Mit ein wenig Nachfoschungen würde es schnell auffallen, das ich diese Punkte deutlich länger kritisere. Richtig ist, das mir der Startpost in vielen Punkten aus der Seele spricht.

Ich weiß. Nur finde ich eben interessant, dass man Dir noch fünfmal die Gegenposition erläutern kann, Du aber nicht auch nur im Entferntesten die Argumente zur Kenntnis nimmst, sondern an anderer Stelle das selbe einfach wiederholst, als gäbe es hier gar keine Kommunikation.

Lies Dir doch den 3dcenter-Thread mal vollständig durch. Spätestens ab der 4. Seite ist mangels möglicher und gangbarer Alternativen das Thema auf einmal ganz woanders und in den üblichen Grabenauseinandersetzungen verendet. Dann kommt noch eine Portion Bashing dazu, that's it -> Thema geschreddert. Das finde ich wirklich schade, zeigt aber, dass die momentane Situation eben so ist wie sie sich uns darbietet.
 
Zuletzt bearbeitet:
ich sehe das genauso wie rumpel. AI Off ist total sinnlos und sollte auf keinen Fall getestet werden, weil es keiner macht und es nicht vergleichbar ist. Und Modis, die mit den normalen NvidiaTreiber nichtmal genutzt werden können, GEHTS NOCH?

nHancer ist Zusatzsoftware eines anderen Herstellers, dass hat in nem Test von ner Grafikkarte NICHTS verloren! Die Software wird von Nvidia nichtmal offiziel unterstützt. Wenn ich ein Navi eines Autos testen will, dann ändere ich hier auch nicht die Firmware um manuel einen Bonus zu verschaffen. Man sollte lediglich in Standardeinstellungen testen und zwar genau so wie es jetzt bereits der Fall ist - AA8x und AF 16x in den Standardsettings, die auch miteinander vergleichbar sind. AAA/TAA sind nicht vergleichbar sollten also auch nicht in einem Standardtest genutzt werden. Dafür könnte man ja eigene Tests mit ausschließlich Nvidia Karten nutzen. Einzig die Spielewahl mit DX10.1 und PhysX find ich ungut. Ich würd nur Spiele ohne diese Features zum benchen nutzen

Außerdem ist Unyu fast der einzige, der sich (imho künstlich) ständig über die Quallitätseinstellungen der Tests beschwert. Und das Unyu grundsätzlich jede Nvidia stark favorisiert ist längst kein Geheimnis mehr, man siehe in die Tausend Posts die er bei Grafikkartentests schrieb.
 
Zuletzt bearbeitet:
rumpel01 schrieb:
Halte ich für falsch. 16xAF @A.I. Standard bzw. 16xAF Q sind aus meiner Sicht noch ehesten vergleichbar, wenn man sich das Gesamtspektrum ansieht.
Im Gesamtspekrtum ist 8x auch mit 8xQ vergleichbar. ;)
Man kann genauso pauschal sagen Q wäre vergleichbarer zu AI-off als zu AI-on. Ich erwarte nicht, das dies getestet wird, auch wenns nötig wär damit AMD seinen Kurs ändert.

auf einem gemeinsamen Level die Karten verglichen werden sollen.
Wenn man etwas in einem Diagramm vergleicht, sollte es ein gemeinsames Level sein, richig.
Nur warum gerade das, was jetzt getestet wird?
16xAF wird seit Ende 2005, 8xAA seit Mitte 2007 getestet. Demnach hat 16xAF eine höhere Priorität.


4xAA wird mit den Geforces bei Bioshock getestet, also wo liegt das Problem?
Eben nicht (mehr).
Außerdem fehlt noch die Erklärung, warum man für die Radeons mit einem 4Ghz i7 in Cryostasis 8 unspielbare und 0 spielbare Settings präsentiert.

HAWX läuft mit einer Radeon und 16xAF. Doch mit 4xAF würde es deutlich besser laufen. Der Leser erfährt dies nicht, selbst wenn er 20mal den Text liest.

Wenn die Leute die Texte nicht lesen und v.a. auch die immer wieder verlinkten Berichte zu den unterschiedlichsten AA-Modi (s.o.), dann kann man ihnen auch nicht helfen. Ich habe eher den Eindruck, dass von Deiner Seite dieser Abschnitt auch einfach gern falsch verstanden werden möchte.
Muss daran liegen das ich bereits unzählige derartige Kommentare gelesen habe. Will mans richtig stellen ist man der Fanboy, will mans ignorieren wächst im Kopf ein Geschwür heran.

Ich kann es den Lesern kaum verübeln, das sie dies denken was sie denken, denn der Test gibt keine weiterführende Informationen, der Leser muss denken, das die getesteten Settings das Maximum sind. Wenn er ganz gewitzt ist, erkennt er das es noch TAA und AAA gibt, nur was damit ist, erfährt er erst durch selbstständige Recherche.
Was soll der Leser den denken, wenn er ganz nach unten scrollt und dort die größten Zahlen übern Diagramm entdeckt?

In welchem der letzten Grafikkartentests wurde dieser AA-Artikel direkt verlinkt, nicht erst unter "verwandte Artikel"? -> Kann man leicht übersehen, diese verwandten Artikel.
Und wo wurde der nicht vorhandene AF-Artikel verlinkt?

2xSSAA kann man nur im nhancer einstellen.
Richtig, ich habe nur kurz erwähnt was ich persöhnlich für mich als wichtig erachte, um dahingehend für Klarheit zu sorgen.
Alleine nutze ich derarte Modi praktisch nicht, allerhöchtens 3x3SS oder 4x4SS.
Das derartige Modi getestet werden sollen habe ich nicht geschrieben.

Ich weiß. Nur finde ich eben interessant, dass man Dir noch fünfmal die Gegenposition erläutern kann, Du aber nicht auch nur im Entferntesten die Argumente zur Kenntnis nimmst, sondern an anderer Stelle das selbe einfach wiederholst, als gäbe es hier gar keine Kommunikation.
HappyMutant wusste es scheinbar nicht, sonst hätte er dies nicht erwähnt.
Was sind die Argumente, nicht das ich einen übersehen habe? Das maximale Vergleichbare mit kleinen Ausnahmen.

Dem bin ich nicht völlig abgeneigt, nur der Vergleichbarkeit auf Teufel komm raus, bis auf eine Ausnahme.

Lies Dir doch den 3dcenter-Thread mal vollständig durch.
Dass mache ich nicht erst seit Gestern.
Der Fred ist etwas aus dem Ruder gelaufen, von einem Aufeinandertreffen bekannter Persöhnlichkeiten bis hin zu einer PCGH hat AMD Benachteiligt Show, ändert aber nichts an meiner Position zum Startpost.

eXEC-XTX schrieb:
Und Modis, die mit den normalen NvidiaTreiber nichtmal genutzt werden können, GEHTS NOCH?
Q, HQ, 1x, 2x, 4x, 8x, 8xQ, 16x, 16xQ, TMSAA, TSSAA, 1xAF, 2xAF, 4xAF, 8xAF, 16xAF sind alles Modi im Treiber.

Und das Unyu grundsätzlich jede Nvidia stark favorisiert ist längst kein Geheimnis mehr, man siehe in die Tausend Posts die er bei Grafikkartentests schrieb.
Dann solltest du auch wissen warum. Ich favorisiere das, was meinen Bedürfnissen gerechter wird.
Da du mich doch so kennst, weißt du das dies nicht 5% FPS oder 5% € sind.
Einzig die Spielewahl mit DX10.1 und PhysX find ich ungut.
Womit man wieder bei der Vergleichbarkeit wären. Die Wirklichkeit so verzerren damits vergleichbar ist.
So werden alle Seiten benachteilgt, zugunsten der Vergleichbarkeit bleibt es ungeklärt wie sich die Karten im "Reallife" verhalten würden.
Man sollte lediglich in Standardeinstellungen testen und zwar genau so wie es jetzt bereits der Fall ist - AA8x und AF 16x in den Standardsettings, die auch miteinander vergleichbar sind.
Standard ist Anwendungsgesteuert.
Warum gerade 8xMSAA und 16xLQAF? Warum nicht 4xMSAA und 8xLQAF? Oder ..... 8xCSAA und 16xLQAF? oder ...

Außerdem ist Unyu fast der einzige, der sich (imho künstlich) ständig über die Quallitätseinstellungen der Tests beschwert.
Nicht nur darüber, auch hier im Fred zu sehen, ist nur leider untergegangen.
 
Zuletzt bearbeitet:
Im Gesamtspekrtum ist 8x auch mit 8xQ vergleichbar.

Eigentlich nicht: https://www.computerbase.de/2009-01/bericht-anti-aliasing-bei-ati-und-nvidia/17/#abschnitt_performancerating

Beim Coverage-Sampling-AA scheiden sich die Geister: In einigen Spielen sieht CSAA bei bedeutend besserer Leistung als bei 8xMSAA besser aus als 4xMSAA, in anderen dagegen weiß CSAA nicht zu überzeugen. Wir raten dazu, CSAA nur in Ausnahmefällen als Zwischenlösung zu nutzen, z.B. wenn 8xMSAA zu langsam ist.

Eben nicht (mehr).

Korrektur: eben nicht im letzten Test, sonst übergreifend.

HAWX läuft mit einer Radeon und 16xAF. Doch mit 4xAF würde es deutlich besser laufen. Der Leser erfährt dies nicht, selbst wenn er 20mal den Text liest.

Man kann auch Warhead statt unter Enthusiast auch mit Gamer-Einstellungen benchen, nur hilft das nichts, um festzuhalten wie man unter bestimmten sehr anspruchsvollen Bedingungen das Verhalten der Karten analysieren möchte. Ich kann auch sagen, dass man bei Crysis Warhead ordentlich Leistung einspart, wenn man die Schatten auf Gamer stellt, und? Darum geht's doch gar nicht. Wenn man bei Hawx zeigen kann, dass die ATis mit 16xAF schon stark hinter die geforces zurückfallen (was die jetzigen Balken gut demonstrieren), dann ist damit schon eine Menge ausgesagt.

Und wo wurde der nicht vorhandene AF-Artikel verlinkt?

In den Haupttests wird dies immer vorangestellt: https://www.computerbase.de/2008-06/test-nvidia-geforce-gtx-280-sli/6/#abschnitt_af_kontrolliert

Ich könnte jetzt auch den ersten G92-Test verlinken, oder den des R600/670, aber das habe ich bei Dir in einigen Diskussionen schon mehrfach getan. Trotzdem wird immer wieder behauptet, BQ würde hier nicht getestet. Wie soll man diese Attitüde denn noch ernst nehmen?

Vgl. zudem https://www.computerbase.de/2009-05/qualitaet-des-anisotropen-filters-bei-ati-geaendert/ sowie https://www.computerbase.de/2009-05/ati-entfernt-mipmap-erkennung-im-cat.-9.5/

Was sind die Argumente, nicht das ich einen übersehen habe? Das maximale Vergleichbare mit kleinen Ausnahmen.

Möchtest Du denn nicht zur Kenntnis nehmen, dass die Vergleichbarkeit unter verschiedenen Szenarien der Schlüssel ist, um Karten in ihren Vor- und Nachteilen zu skizzieren? Du kannst jetzt noch so oft betonen, dass die Settings Dir nicht gefallen, es ändert aber nichts daran, wenn man das Ziel verfolgt "relativ viele Karten mit möglichst vielen Spielen gegeneinander antreten zu lassen", dass es zu den gegenwärtigen Einstellungen keine gangbaren Alternativen gibt. Die meisten Leser möchten eben wissen, wie sich eine ältere Karte gegen eine aktuelle schlägt und sie möchten wissen, wie die karten reagieren, wenn man bildqualitätssteigernde Features hinzuschaltet. Das ist die Grundlage für Kaufentscheidungen, und das sollen die Tests eben leisten. Und ich spreche jetzt auch noch nicht einmal davon, dass sich die meisten Käufer überhaupt nicht für die Feinheiten anisotroper Filterung interessieren. Man darf dazu auch mal zur Kenntnis nehmen, dass der eigene Maßstab nicht immer der ist, der für die Mehrheit von Belang ist. Es ist nicht nur Fanboy-Gehabe, wenn man der Meinung ist, flimmernde Texturen stören viele Leute überhaupt nicht. Es ist eine Frage subjektiver Wahrnehmung, unabhängig davon, dass sich Unterschiede objektiv beobachten und bewerten lassen. Ich mag ebenfalls das ruhigere Bild meiner GTX 280 unter HQ (obgleich auch da manchmal Texturen vor sich hin flimmern), nur gibt es ebensoviele, die das nicht einmal merken würden. Andererseits merke ich, dass ich mich maßlos ärgere, wenn ich ein altes OpenGL-Spiel hervorkrame (CoD 1 und United Offensive) und dort mir der ganze TSSAA/SSAA-Spaß nix nützt, weil es nicht funktioniert, während ich vorher mit meinen Radeons wunderbar EDAA 24x + TAA Q nutzen konnte, mit toller BQ. Die Dinge sind eben ggf. ziemlich komplex und je nach Spiel und Engine unterschiedlich gelagert. Man kann nicht alle Eventualitäten abdecken, da eine generalisierende Aussage dazu schnell im einzelnen falsch werden kann.

Deshalb ist es sinnvoll, solcherlei Tests auf wenige allgemein bei beiden Herstellern einstellbaren Optionen zu belassen und dem User das Feintuning zu überlassen.

Dem bin ich nicht völlig abgeneigt, nur der Vergleichbarkeit auf Teufel komm raus, bis auf eine Ausnahme.

Das ist auch wieder so ein Schlagwort, ändert aber nichts der Problematik, dass es kaum Alternativen gibt.

Warum gerade 8xMSAA und 16xLQAF? Warum nicht 4xMSAA und 8xLQAF? Oder ..... 8xCSAA und 16xLQAF? oder ...

Ich zitiere mich mal selbst:

Welcher möglichst leistungsfressende (...) erlaubt am ehesten noch einen direkten Vergleich zwischen nvidia und ATi, ohne dass man einen Großteil des Spieleparcours opfert und nur noch vier statt zwölf Karten in der gegebenen Zeit aktuell und gewissenhaft bencht?
 
Zuletzt bearbeitet:
Unyu schrieb:
Womit man wieder bei der Vergleichbarkeit wären. Die Wirklichkeit so verzerren damits vergleichbar ist.
So werden alle Seiten benachteilgt, zugunsten der Vergleichbarkeit bleibt es ungeklärt wie sich die Karten im "Reallife" verhalten würden.

FALSCH. Man kann ATI und Nvidia sehr wohl vergleichen, indem man Games OHNE PhysX und DX10 nutzt, weil das auch die allermeisten Games sind! Beide nutzen in diesem Falle den normalen DX10-Renderpfad und gut ists. Es gäbe so viele Spiele, die alle Hardwarefressend sind UND Vergleichbar sind, warum muss man dann mit 4 Spielen Benchen, die man eben nicht auf den Plattformen vergleichen kann? Seitwann ist ne HD4850 in nem Spiel langsamer, als eine 9600 GT? Warum spielt in Battleforge die HD4890 deutlich vor der GTX-285? Man sollte diese Games alle rausschmeißen, weil sie das Gesamtfazit nur täuschen. Man sollte auch nicht die Games ohne PhysX oder DX10.1 testen - Man sollte sie nur rauslassen. Es gibt ne halbe Millionen Games, die ALLE Hardwarefressend sind und ohne sowas auskommen. ArmA2, CoJ Bound in Blood, Anno 1404, Prototype, The last Remnant (!), Damnation, GTA4 usw...
Alles aktuelle Games, die vergleichbar sind und gut Performance ziehen.
 
Damnation und BiB bezeichnest du als HW-fressend? :lol:



55 bzw. 60 Avg-Fps auf ner Sub-100€-Karte sind imo nicht HW-fressend ...

Und warum DX10.1 und PhysX rauslassen? Ich will wissen wie das Spiel auf Karte X performt - das sollte man mir nicht vorenthalten.
 
mhm, ok da gebe ich dir Recht. Bleiben aber immernoch Arma2, Anno 1404, Prototype, The last Remnant und GTA4 aus meiner Liste. Die hätte man locker anstatt den DX10.1 und PhysX titel wählen können.

Das mit PhysX und DX10.1 so wie du es meinst könnte man auch lassen, man sollte es aber dann nicht ins P-Rating aufnehmen, weil es die Ergebnisse einfach maßgeblich verfälscht. Eine HD4850 ist einfach nicht langsamer, als eine 9600GT und eine GTX-285 ist in der Regel auch schneller, als eine HD4890. Diese Tests verfälschen das Gesamtrating nur.
 
eXEC-XTX schrieb:
Es gibt ne halbe Millionen Games, die ALLE Hardwarefressend sind und ohne sowas auskommen.
Kann man gerne alle mittesten, habe ich nichts dagegen.

man sollte es aber dann nicht ins P-Rating aufnehmen
Das P-Rating ist sowieso gefährlich, es verführt dazu, den Rest auszublenden.

rumpel01 schrieb:
Mir ist vollkommen klar, das 8x bedeutend schneller als 8xQ läuft. Andererseits ist es eben nicht so hübsch.
Nachdem das Resultat des 16xAF auch nicht identisch ist, ist das die logische Konsequenz. Leider.

Da du jetzt auch so viel verlinkst mache ich es dir gleich, nur eben von der Konkurrenz:
"Der anisotrope Filter ist mit AI-default (Treiber-Standard) Nvidias "Qualitäts"-Einstellung (Q) samt trilinearer Optimierung (ebenfalls Treiber-Standard) unterlegen."
http://www.pcgameshardware.de/aid,6...te-weitere-Karten/Rollenspiel-Adventure/Test/

Ein Aufwiegen der Ungleichheiten ist nicht möglich, aber eine gezielte Bevorteilung ist nicht richtig.

Korrektur: eben nicht im letzten Test, sonst übergreifend.
Stimmt. Da gabs 3 Diagramme statt 2.
In den älteren Tests ist das 1xAA 16xAF Setting nicht ins Rating geflossen, während das 4xAA 16xAF Rating irgendwie schon eingeflossen ist, wie auch immer.
Jetzt gibts nur noch das Setting, das nicht mehr einfliesst. Genaugenommen kommt man schnell auf die Idee, das diese Vorgehensweise bei zukünftigen Tests ebenfalls angewendet wird.

Wenn man bei Hawx zeigen kann, dass die ATis mit 16xAF schon stark hinter die geforces zurückfallen (was die jetzigen Balken gut demonstrieren), dann ist damit schon eine Menge ausgesagt.
Man könnte wenigstens schreiben warum dies so ist. Beim HAWX Beispiel kein großer Aufwand, beim Crysis Beispiel schon nicht mehr so einfach.

Im 1 Jahr alten Test wurde es erwähnt.
Ich meine, die Verlinkung in aktuellen Tests. Da gibts lediglich auf der letzten Seite etliche "verwandte Artikel". Da kann man lange suchen bis man derartiges findet. Beim 4770 Test wurde der GTX 280 Test noch verlinkt, beim 13 Grafikkartentest nicht mehr.

Ich könnte jetzt auch den ersten G92-Test verlinken, oder den des R600/670, aber das habe ich bei Dir in einigen Diskussionen schon mehrfach getan. Trotzdem wird immer wieder behauptet, BQ würde hier nicht getestet. Wie soll man diese Attitüde denn noch ernst nehmen?
Mit AF Artikeln meine ich soetwas:
https://www.computerbase.de/2005-04/bericht-af-optimierungen-unter-der-lupe/
https://www.computerbase.de/2004-05/bericht-versteckspiele-bei-atis-texturfilter/
https://www.computerbase.de/2004-05/bericht-radeon-x800-und-die-texturen/
https://www.computerbase.de/2005-08/nvidia-g70-texturen/

Ich habe nicht behauptet BQ würde hier nicht getestet werden. Wörtlich steht dort: "In welchem der letzten Grafikkartentests wurde dieser AA-Artikel direkt verlinkt, nicht erst unter "verwandte Artikel"?"

Die meisten Leser möchten eben wissen, wie sich eine ältere Karte gegen eine aktuelle schlägt und sie möchten wissen, wie die karten reagieren, wenn man bildqualitätssteigernde Features hinzuschaltet. Das ist die Grundlage für Kaufentscheidungen, und das sollen die Tests eben leisten.
Das ist doch gerade das Fatale. Da werden Kaufentscheidungen anhand von Ergebnissen getroffen, die den Käufer gar nicht interessieren.
Wenn wir schon bei Kaufentscheidungen sind, können wir wieder zu den Pfeiftest überschwenken...

Und ich spreche jetzt auch noch nicht einmal davon, dass sich die meisten Käufer überhaupt nicht für die Feinheiten anisotroper Filterung interessieren. Man darf dazu auch mal zur Kenntnis nehmen, dass der eigene Maßstab nicht immer der ist, der für die Mehrheit von Belang ist.
Warum sollen dann die 8 Farbsamples so wichtig sein?

Deshalb ist es sinnvoll, solcherlei Tests auf wenige allgemein bei beiden Herstellern einstellbaren Optionen zu belassen und dem User das Feintuning zu überlassen.
Genausogut kann man gleich alles weglassen und nur noch hohe Auflösungen nehmen.

Das ist auch wieder so ein Schlagwort, ändert aber nichts der Problematik, dass es kaum Alternativen gibt.
Demnach gibt es Alternativen?
AMD hat AI verstümmelt und auf der Geforce macht Q keinen Sinn. Das sind nunmal die Gegebenheiten.
Würde Nvidia 8xMSAA verstümmeln gäbs heftige Kritik, vielleicht würde man es nicht mehr testen, vielleicht aber doch, trotz eventueller Probleme.
Ich zitiere mich mal selbst:
Auflösung hoch frisst auch gut Leistung und hat keine geringere Aussagekraft als Modi die keiner nutzt.
8xMSAA ist tatsächlich der Leistungsfressenste Modus, der optisch vergleichbar ist. 16xAF schon nicht mehr, 16xAF ist ein Kompromiss.
 
Mir ist vollkommen klar, das 8x bedeutend schneller als 8xQ läuft. Andererseits ist es eben nicht so hübsch.
Nachdem das Resultat des 16xAF auch nicht identisch ist, ist das die logische Konsequenz. Leider.

Da du jetzt auch so viel verlinkst mache ich es dir gleich, nur eben von der Konkurrenz:
"Der anisotrope Filter ist mit AI-default (Treiber-Standard) Nvidias "Qualitäts"-Einstellung (Q) samt trilinearer Optimierung (ebenfalls Treiber-Standard) unterlegen."

Du wiegst Dinge als gleichwertig gegeneinander auf, die man so nicht gegeneinander 1:1 aufrechnen kann. Dass PCGH ihre Meinung vertritt, wie Du sie zitierst, ist ihr gutes Recht. Nur ist das diesbezüglich nicht zwangsläufig überall so. Ganz abgesehen davon wurde auch hier in dem betreffenden AA-Test ein sehr deutlicher Unterschied zwischen CSAA und MSAA bei nvidia festgestellt. Ein Unterschied, der auch m.E. nicht mit der A.I. standard vs. Q gleichzusetzen ist. Wenn Du diese Meinung nicht teilst, ist das Dein Recht, aber verlange nicht, dass diese absolut zu gelten hat.

Man könnte wenigstens schreiben warum dies so ist.

Warum und wozu? Dass das Spiel mit entsprechenden Einstellungen bei den Radeons einbricht, reicht als Erkenntnis zunächst für den Leser völlig aus. Für sowas gibt es auch einen Diskussionsthread, in dem man sowas diskutieren kann. Es ist nicht immer angebracht, in den Messungen sofort eine eigene Interpretation eines solchen Sachverhaltes, der auch nicht immer monokausal sein muss, einzuwerfen, denn sie könnte unvollständig und/oder falsch sein. Ich bin mir aber im Klaren darüber, dass Dir dabei die geringe ROP-Bestückung der Radeons seit R600 vorschwebt. ;)

Warum sollen dann die 8 Farbsamples so wichtig sein?

Weil es die GPU stärker fordert.

Das ist doch gerade das Fatale. Da werden Kaufentscheidungen anhand von Ergebnissen getroffen, die den Käufer gar nicht interessieren.

Eben nicht. Es geht um das Verhalten der karten unter vergleichbaren Bedingungen. Für Optionen wie AAA bzw. Für AAA vs. TS/MSAA gibt es separate Artikel, die die Vorteile der Techniken aufzeigen. In einem Test, in dem dezidiert ATi gegen nvidia gestellt wird, kann man besagte Optionen nicht gegeneinander aufwiegen. Das funktioniert schlicht nicht.

Auflösung hoch frisst auch gut Leistung und hat keine geringere Aussagekraft als Modi die keiner nutzt.

Öhm, 2560x1600 wird hier auch getestet.

Demnach gibt es Alternativen?
AMD hat AI verstümmelt und auf der Geforce macht Q keinen Sinn. Das sind nunmal die Gegebenheiten.

1. m.E.: Nein. Zumindest keine praktikablen.

2. Q macht für diejenigen Geforce-Nutzer einen Sinn, die keinen optischen Nutzen für sich unter HQ sehen, auch wenn es ca. nur 10% Leistung kostet. Dass A.I. in dieser Form suboptimal ist, bestreite ich nicht, aber die Gegebenheiten sind es nunmal, die die Testbedingungen und Eckpunkte festlegen.

16xAF schon nicht mehr, 16xAF ist ein Kompromiss.

Ersteres ist Deine Meinung, nicht aber die ultimative Wahrheit, der zweite Punkt trifft zu, aber dieser Kompromiss ist m.E. gangbar und ist anders nicht zu lösen. Im übrigen möchte ich Dich oder andere sehen, wenn hier nur noch 8xMSAA/1xAF getestet wird. ist das etwa ein praxisnäherer Weg? Wohl kaum und im Gegenteil.

EDIT: Zum "Fiepen" kann man dann auch auf bereits gebrachte Argumente und Schwierigkeiten eingehen, im Kreise drehen muss man sich hier freilich nicht:

HappyMutant schrieb:
Die du nicht näher erläutert hast und von daher ich einfach davon ausging, das eben diese Umstände nicht zwangsläufig eintreten. Ich will dir nicht sagen, dass keine Karte das Phänomen zeigen würde , wenn man sie in völlig ruhiger Umgebung mit einer völlig lautlosen Kühlung testen würde, denn ich bin nicht für die Grafikkartentests zuständig. Nur warum sollte es Wolfgang anders gehen also dem Großteil der User?


Ist es dann noch ein Kritikpunkt? Also, es ist bei intakten Karten nahezu unhörbar, es ist auf allen Karten vorhanden, welche Auswirkungen hat es dann auf den Test. Nochmal: was soll man dann testen? Und das gleiche Phänomen würde dann auch Mainboard etc. betreffen oder nicht (bzw ist auch kein Geheimnis, dass dies so war und ist)? Sobald man also anfängt das zu kritisieren, wird doch angefangen daran zu zweifeln. Der eine hat das noch nie gehört (moi), der nächste hört es ständig und der dritte meint, das wäre aber bei Nvidia eh viel schlimmer und überhaupt sei das Testsystem viel zu laut und damit eine seriöse Bewertung gar nicht möglich.

Wenn es dann noch so extrem von Karte zu Karte schwankt, wie genau stellst du dir eine Bewertung vor, die dem Phänomen in der Gesamtheit gerecht wird?
 
Zuletzt bearbeitet:
Um mal wieder auf die GTX 285 2 GB zurück zukommen. Interessant wäre wohl Folgendes:

-Performance und µRuckler bei SLI
-wie flüssig ist das Spielverhalten bei hohen Settings 1900er, 2500er Auflösung, AA, AF und jetzt was neues, mit Textur Mods? Ich würde mal sagen wie die max FPS einer 2 GB Karte gegenüber einer 1 GB oder gar 512 sind, ist relativ egal. Ich denke mal wichtiger bei so extremen Settings ist wie "geschmeidig" fühlt sich das Spiel an und nicht welcher Balken bei Karte X am längsten ist.

Ich denke würde man jetzt mit den aktuellen Settings eine 2 GB Karte testen, würde rauskommen, das es sich nicht lohnt. War aber bei den Radeon 1 GB 4800 Series Karten genauso. Und jetzt? Werden nur noch 1 GB 4870 etc empfohlen.
 
Zuletzt bearbeitet:
Du wiegst Dinge als gleichwertig gegeneinander auf, die man so nicht gegeneinander 1:1 aufrechnen kann.
Mache ich gerne, irgendwie muss man die Benachteiligung wieder aufwiegen. Fragt sich wie.
Der Satz "mit leichten Vorteilen für die GeForce-Produkte" unter Testsystem ist jedenfalls doppeldeutig.
Wenn wir schon mal dort sind, wieso ist "Negativer LOD-Bias" auf "Clamp"? Als Default bekomme ich immer "Alllow"

Warum und wozu?.... Für sowas gibt es auch einen Diskussionsthread, in dem man sowas diskutieren kann.
Nun, in dem Diskussionsfred ist diese Bemerkung erst nebenbei zu Tage gefördert worden. Auf den ersten Blick hätte es genausogut am FSAA liegen können
Wär halt schlicht interessant, auch bevor wie diesmal Horden anrennen und behaupten Spiel XY sei so gemein und soll raus aus dem Test, weil Karten XZ nicht weit genug vorne sind.

Ich bin mir aber im Klaren darüber, dass Dir dabei die geringe ROP-Bestückung der Radeons seit R600 vorschwebt.
Eher die TMU Bestückung die hier seltsamerweise durch die Optimierungen kein Stückchen verdeckt wird.

Weil es die GPU stärker fordert.
Zum Glück gibts den 4Ghz Quad, da passieren solche Dinge wie im CPU Test nicht so schnell, das alle "gleichschnell" sind.
Für sich genommen macht das Argument Sinn.

In einem Test, in dem dezidiert ATi gegen nvidia gestellt
Nicht richtig. Es werden Grafikkarten verglichen, nicht IHVs.

Öhm, 2560x1600 wird hier auch getestet.
Richtig, ist aber nicht das Maximum.

2. Q macht für diejenigen Geforce-Nutzer einen Sinn, die keinen optischen Nutzen für sich unter HQ sehen, auch wenn es ca. nur 10% Leistung kostet.
4xMSAA/8x,16xCSAA macht für diejenigen Geforce Nutzer Sinn, die keinen optischen Nutzen für sich unter 8xMSAA sehen, auch wenns 60% Leistung kostet.

dieser Kompromiss ist m.E. gangbar und ist anders nicht zu lösen.
Nicht wenns unbedingt ein Diagramm sein soll.
Lösungen wie ausschließlich 4xAF Tests würden die Benachteiligung nur noch verschlimmern. Deine angesprochen 1xAF 8xMSAA Benches würden es noch perverser machen.

Jedenfalls lernen wir daraus: Nvidia wird alles daran setzen 8xMSAA zu beschleunigen, alles andere wird dabei untern Tisch fallen, sollte es im Weg sein.

EDIT: Zum "Fiepen" kann man dann auch auf bereits gebrachte Argumente und Schwierigkeiten eingehen, im Kreise drehen muss man sich hier freilich nicht:
Dann verstehe ich nicht, das das Fiepen überhaupt mit 2 Zeilen in 2,3 Test erwähnt wurde.
Hätte man es gar nicht erst erwähnt oder immer die 2,3 Zeilen geschrieben, so würde diese Ausrede mehr Sinn ergeben.

Zu dem hätte es unabhängig davon eine Pfeifaufklärung geben müssen, wenigstens bei einem der zig Magazine.

PS: Wenns mal wieder länger dauert... ;)
 
Nun, in dem Diskussionsfred ist diese Bemerkung erst nebenbei zu Tage gefördert worden.

Letztlich bleibt's dabei, dass es eigentlich unerheblich ist. Der grundsätzliche Aspekt, dass in Hawx die Radeons mit qualitätsverbessernden Features stärker einbrechen, wird deutlich, und darauf kommt's an.

Wär halt schlicht interessant, auch bevor wie diesmal Horden anrennen und behaupten Spiel XY sei so gemein und soll raus aus dem Test, weil Karten XZ nicht weit genug vorne sind.

Ohne Frage, wenn Du den Thread richtig in Erinnerung hast, war ich derjenige der auch betont hat, dass die Spieleauswahl mit Direct3D10.1 und Phys-Titeln sehr wohl sinnig ist, um Stärken und Schwächen jeweils zu zeigen. Wenn eine 4890 mit den PhysX-Effekten in Cryostasis nur mit einer dicken CPU zu gebrauchen ist, dann gehört das natürlich gesagt, der Interessent an dem Spiel wird das fraglos wissen wollen. Umgekehrt sieht das bei Battleforge aus.

Nicht richtig. Es werden Grafikkarten verglichen, nicht IHVs.

Letztlich doch, denn die Grafikkarten werden von IHVs konzipiert und lassen sich in zwei Lager scheiden, die jeweils unterschiedliche Philosophien vertreten. Und jedes Lager versucht, einer Karte des Konkurrenten ein Gegenstück gegenüberzustellen. Somit wirbt man beim Kunden in unterschiedlichen Preissegmenten, und der Kunde möchte eben wissen, was er für sein Budget von nvidia und ATi erhalten kann und muss daher abwägen zwischen den IHVs.

Richtig, ist aber nicht das Maximum.

Möchtest Du, dass wir in den Standard-Tests auch so Frickeleien wie Downsampling testen, die für 99,5% der User komplett uninteressant sind? 2560x1600, und dann noch mit 4xAA und 16AF ist etwa schon durchaus ein sinniger Abschluss. An den Benches kann man etwa sehr gut erkennen, wenn der VRAM ausgeht. Ich denke, das passt so. ;)

4xMSAA/8x,16xCSAA macht für diejenigen Geforce Nutzer Sinn, die keinen optischen Nutzen für sich unter 8xMSAA sehen, auch wenns 60% Leistung kostet.

Nur schade, dass man 8x CSAA oder 16xCSAA nicht mit ATis testen kann. Deshalb fällt's raus.

Hätte man es gar nicht erst erwähnt oder immer die 2,3 Zeilen geschrieben, so würde diese Ausrede mehr Sinn ergeben.

Ausrede? Es wäre wirklich sinnig, wenn Du statt eines Schlagwortes auch ein Argument bringst. Wenn es nur schwer empirisch und v.a. übertragbar nachweisbar ist, kann man es nicht "testen", man kann dann eben nur bestenfalls darauf hinweisen, dass Karten ggf. fiepen können. Wo keine gangbare Methode erkennbar ist, kann es keine absolutierende Aussage geben.
 
Zuletzt bearbeitet:
Möchtest Du, dass wir in den Standard-Tests auch so Frickeleien wie Downsampling testen, die für 99,5% der User komplett uninteressant sind?
Nein, das ist doch noch komplexer als Tools wie nHancer.

Nur schade, dass man 8x CSAA oder 16xCSAA nicht mit ATis testen kann. Deshalb fällt's raus.
So wie AI-on nicht mit Geforces getestet werden kann? ;) *scnr*

Ausrede? Es wäre wirklich sinnig, wenn Du statt eines Schlagwortes auch ein Argument bringst.
Da wären zu nennen:
- Was man sich unter Pfiepen vorstellen darf.
- Was besonders gerne Pfiepen erzeugt.

Der aktuelle Stand ist:
In Test über neue GTX 2xx wurde es erwähnt, sonst nie.
In den Tests https://www.computerbase.de/2009-01/test-nvidia-geforce-gtx-285-sli/21/#abschnitt_lautstaerke gabs sogar eine Wertung "bei 30 FPS hörbar" obwohl es doch Schwankungen (nach dir und HappyMutant) geben soll.
 
Nein, das ist doch noch komplexer als Tools wie nHancer.

Eben, dann zeige mir einen handelsüblichen TFT mit einer Auflösung >2560x1600.

So wie AI-on nicht mit Geforces getestet werden kann?

Wir drehen uns im Kreise, aber ich sage es noch einmal: das Äquivalent von A.I. @standard entspricht nach unserer Auffassung am ehesten der Stufe Q. Wenn Du oder jemand anders anderer Meinung ist, schön, aber wir sehen das nun einmal anders.

In den Tests (...) gabs sogar eine Wertung "bei 30 FPS hörbar" obwohl es doch Schwankungen (nach dir und HappyMutant) geben soll.

Lies doch den Abschnitt genau, den Du verlinkt hast, da ist die problematik doch beschrieben:

Bei allen drei Testkandidaten der GeForce GTX 285 konnten wir unter Last durchgehend ein so genanntes „Spulenfiepen“ hören. Dieses gibt es auch schon auf einer GeForce GTX 280, fällt dort aber zumeist nur auf, wenn man sein Ohr an die Grafikkarte hält. Anders dagegen auf der GeForce GTX 285, bei der man das Geräusch selbst aus einem geschlossenen Gehäuse und einem Abstand von etwa zwei Metern ausmachen kann. Je nach Anzahl der aktuellen FPS variiert das Geräusch von „auffällig“ bis hin zu „kaum wahrnehmbar“. Das Spulenfiepen unterscheidet sich von Grafikkarte zu Grafikkarte, scheint auf einer GeForce GTX 285 aber durchweg vorhanden zu sein. Im 2D-Modus können wir dagegen bei allen Testkandidaten kein Fiepen feststellen. Mit dem Spulenfiepen meinen wir übrigens nicht das bekannte, laute Fiepen bei FPS-Werten von mehr als 1.000 Bildern pro Sekunde. Auch bei 30 FPS kann man das Spulenfiepen auf der GeForce GTX 285 hören.

Es wird daraus völlig klar, was hier bereits vorgebracht wurde. Wenn bei den getesteten Samples jeweils ein Fiepen unterschiedlicher Intensität zu beobachten ist, kann man daraus nichts generalisierendes auf alle Karten ableiten, das gebietet bereits die Logik. Es wird der Befund festgestellt: "Die drei GTX285 fiepen unter Last unterschiedlich, nicht vergleichbar mit dem 1000FPS+-Fiepen, die GTX 280 vorher fiepte ebenfalls, aber nicht so deutlich wahrnehmbar".

Damit sind Deine Punkte bereits abgearbeitet, und aus dem Text wird ersichtlich, dass es von Karte zu Karte unterschiedlich ist. Meine GTX 280 etwa nehme ich in bezug auf Spulenfiepen (abseits der 1000FPS-Geschichte) auch nicht wahr.
 
Also ich denke mal das die settings schon OK sind.
Ich seh auch immer die gleichen Treibereinstellungen, und mehrere Spiele die man testet.

OK die 2GiB Karten da hab ich jetzt keine genaue ahnung.
Aber hier wird eh alles getestet, früher oder später.

Wenn ich wirklich wissen will was mir neue Hardware bringt mach ich folgendes.
Alles lassen wie es ist. GraKar raus neue hinein. Den selben Treiber verwenden, aber halt noch mal neu installieren. Die selben Einstellunegn wie bei der alten Karte auch.

Dann mein Lieblingsspiel starten und sehen was sich an den Frames und an der Qualität, des Bildes ändert.
So habe ich ne ungefähre ahnung von der zugenommenen Leistung.

Danach dreh ich die settings im Spiel natürlich auf und zieh mir auch Benchmarks rein.
Wenn ich den alten Wert habe zb 3000 GPU und die neue macht 4750 punkte weiß ich ob ich mein Geld gut anlege.

Wenn ich CB Benchmarks nachsehen kann, ist die Orientierung fast genauso, nur das direkt mit AA und AF getestet wird, den ärger hab ich nicht mehr. Ich kann dann evt abschätzen was ich meiner Hardware zumuten kann oder nicht.

Was mich nur an allen Tests stört egal wo ich auf der Page bin, hier bei CB oder sonst wo, das sind die Frame angaben.
Wenn ich beispielsweise lese das meine Karte bei Crysis angeblich 20 bis 30 FPS maximal schafft, ich aber mit über 60 FPS zocke, dann ist das seltsam.

Man sieht ja auch immer das Testsystem. Was halt auch wichtig ist. Wenn man hier getestete Hardware vorstellt, braucht man zu Hause nur ein anderes Board haben, den Rest Identisch und man hat schon andere Werte.

Mir reichen die Tests hier auf CB eigentlich, um zu sehen was die Zuknft ungefähr bringt.
Deswegen bin ich mir auch sicher, das ich nach meiner 88GTS nen G300 einbaue oder höher, aber nix mehr dazwischen.

Ende vom Lied: Hier auf CB finde ich alle Test OK, auch werden dinge angesprochen wie Fiepen, oder hitze entwicklung. Ich sehe hier bei CB das man alles nachlesen kann.
Die Leute diskutieren über alles egal ob Benchmark oder nicht.

Und was war mit Vorschlägen die Müll sind?
Wenn jemand hilfe bei einer zusammenstellung braucht, und das hier im CB Forum macht, bekommt der von den Leuten nur Müll erzählt?
Auch wenn der Hardware-Markt nicht Fair sein soll, hier erkundigt man sich was das beste fürs Geld ist, durch User erfahrung statt durch Verkäufer die nur Geld sehen wollen.
Dann passt man je nach Geld die Hardware an. Zur not muss man noch was dazu geben oder warten, bis man das passende bekommt. Ohne Fiepen, ohne Hitzeproblem wegen unzureichendem kühler, oder zu hoher Stromverbrauch wie das bei einer XFX schon mal der fall war.

Ich Versteh nicht was an den Tests auszusetzen ist. Außer das jemand mal gerne wissen würde wie sich eine 2GiB Karte im Benchmark macht.
(Momentan bestimmt nicht besser als eine 1 GiB Karte)
 
Zurück
Oben