Bericht Bericht: Die Qualität des anisotropen Filters

Das ist ebenfalls falsch.

Hab jetzt mal nur den einen Satz zitiert(ist mir zuviel Arbeit)!

Die "ATI-Karten" skalieren nicht so hoch mit der "CPU" wie die "NV-Karten"!, das ist nun mal Fakt!, dachte du wüsstest dass als "Experte", anscheinend ist dem nicht so!:lol:

Naja jetzt haste was dazu gelernt! Der Unterschied ist wirklich minimal, sagt selbst CB in seinem "Artikel", und NV ist auch nicht perfekt! Da kannst du dich noch so festbeissen! Das sind nun mal Fakten! Ich geb ja zu dass NV den etwas besseren "AF-Filter!" hat, dass liegt aber an der "Texturleistung" der "ATI-Karten", aber beim "Spielen" fällt das nicht gross auf!

Besonders nicht bei "hektischen Shootern"!, hier muß "ATI" noch nachbessern. Jede Karte hat ihre Vor- und Nachteile, einen klaren Sieger gibt es nicht!


Nein!, das ist nicht falsch, sondern Fakt! ATI-Karten skalieren nicht so hoch mit der CPU als NV-Karten, das kannst du überall nachlesen! Also erst informieren!, dann posten! Ist nicht böse gemeint!;)

MfG! Übersoldier
 
Die "ATI-Karten" skalieren nicht so hoch mit der "CPU" wie die "NV-Karten"!
Das ist korrekt.

Die Aussage "Desweiteren sollte man mal beachten, dass ne HD4870(HD4890), schon bei 3GHz(Dual Core Intel) völlig ausgereitzt ist, und somit keine "mehr FPS" hat, wenn man die CPU auf 4GHz oced!" dagegen ist falsch und nur diese habe ich zitiert. Lies bitte was da steht.

Und keine Angst, in Sachen CPU-VGA-Skalierung kenne ich mich exzellent aus ;)
 
Häää? Was ist überhaupt gemeint mit ATI-Karten skallieren nicht so "hoch" wie NV-Karten mit der CPU.

Ich versteht überhaupt nur schemenhaft, was er überhaupt sagen will.
Vielleicht folgendes?: ATI-GPU's skallieren schlechter mit steigender CPU-Leistung als Nvidia-GPU's?

Wenn ja stellt sich mir die Frage, warum sollte das so sein?
 
Das nenne ich mal eine interessante Erkenntnis. In Fallout ist es jetzt nicht so dramatisch. In Far Cry 2 scheint es heftiger zu sein.

Wäre es ein Treiberproblem, würde ATI das doch schon länger behoben haben und unter Architektur kann ich mir jetzt auch nicht gerade was Vorstellen, dass diese Einbußen verursacht. Rohpower kann gut sein.

Aber ich finde deinen Test nicht wirklich representativ. Da hätte besser 275 gegen HD4890 gebencht werden sollen. So bencht man die schwächere ATI-Karte gegen eine starke Nvidia.
Ich find nicht, dass man aus deinem Diagramm direkt ohne Umwege diesen Schluss ziehen kann. Der 4870 kann auch schlichtweg die Puste ausgehen.
 
Also ich widerspreche dir ja nur ungern, aber vor kurzer Zeit, hier bei CB gab es einen Test, glaub HD4890 gegen GTX275 oder so ähnlich, weiß jetzt nicht mehr so genau, ist schon 6 oder 8 Wochen her, naja auf jeden Fall wurde das übliche Testsystem von CB genommen, glaub auch der Quad9550@4Ghz usw. mit verschiedenen Benchmarks.

So, jetzt halt dich fest! Es wurden ja verschiedene Games und "Grakas" getestet!, unter anderem die "HD4870 1Gig", also diesselbe Karte wie ich habe.

Jetzt hab ich, glaub vier Games von den getesten 10 Games, zu Hause selber gebencht(Sys: E8400@Stock/4GhzSpeicher/Sapphire HD4870 1Gig Design-Version, Vista 64 Buisness), gleiche Treiber und Einstellungen verwendet.

Jetzt halt dich fest: gleiche Ergebnisse wie CB erzielt, teilweise 0,5-1,5 fps mehr, kann aber auch an "Messungenauigkeiten" liegen. Davon gehe ich aus, das bei 3,2Ghz oder höher nicht wirklich "mehr FPS" dabei rauskommen. Naja den Rest kennst du ja!

Deswegen finde ich, dass man den Quad bei 3Ghz lassen sollte, weil NV da immer einen "Vorteil" hat!, ob mit AA und AF, ganz egal, die NV-Karten skalieren bestimmt bis 3,5 oder höher mit "mehr FPS", auch wenn es nur 10-15% sind, trotzdem macht sich das bemerkbar!

MfG!, und Gute Nacht!:n8:
 
Du kennst also alle Benchmarks von CB und kannst diese reproduzieren? Extrem unwahrscheinlich. Zudem, wenn du mit einem E8400 @ 4 GHz benchst, fehlen dir 2 Kerne, was die Messungen ohnehin stark verfälscht.
Rot1990 schrieb:
Der 4870 kann auch schlichtweg die Puste ausgehen.
Dann müsste die Linie sich wie bei der HD3870 verhalten. Rechne halt 14% auf die HD4870-Werte drauf, die GTX285 skaliert mit mehr CPU-Takt trotzdem besser.
Rot1990 schrieb:
Da hätte besser 275 gegen HD4890 gebencht werden sollen.
Zum Zeitpunkt des Tests gabs diese beiden Karten noch nicht (der stammt aus der PCGH Print und wurde einige Wochen später online gestellt).
 
Zuletzt bearbeitet:
@ Übersoldier
Y33H@ denkt es sich vielleicht und ich sage es jetzt. Das klingt nach ziemlichen Mumpits was du hier schreibst.

Du kannst mir doch nicht erzählen, dass du in Assasins Creed zb. die Werte von CB erreichtst. Das Spiel ist einer der wenigen, die wirklich von einem Quad profitieren. Und da hält ein e8400@stock mit einem q9550@4Ghz mit? Teileweise sogar ein paar FPS mehr?
 
Du kennst also alle Benchmarks von CB und kannst diese reproduzieren? Extrem unwahrscheinlich. Zudem, wenn du mit einem E8400 @ 4 GHz benchst, fehlen dir 2 Kerne, was die Messungen ohnehin stark verfälscht.

Du hast mich falsch verstanden, ich kenne nicht alle CB-Benchmarks, nur diesen "besagten" was ich in meinem vorigen Post gepostet habe! Und Nein!, meine Cpu läuft auf "Stock" (kommt glaub ich aus dem englishen KFz), also 3Ghz, (wieder was gelernt)!:D

Und wenn CB in seinem Test die Einstellungen und Treiber "preisgibt", ist es bestimmt nicht schwer so ein "Benchmark!" zu reproduzieren, vorallem weil die Benchmarks meistens den "Spielen" beiliegen! Also verstehe dich nicht so ganz? Was ist daran so schwer?

Was die 4 Kerne angeht, wieviele Spiele profitieren denn davon!, glaub 2 oder 3 von dem Test, und die waren bei mir nicht dabei!;)

Brauchst du erst Beweisbilder oder was?

@Rot1990, von Assasins Creed war nie die Rede, ich sagte 4 von 10 in etwa, nicht alle Spiele, andererseits läuft das Game auch mit 2 Kernen und ner HD3870 flüssig, 4 Kerne brauch kein Mensch zum zocken(noch nicht).

So jetzt genug, muß ins Bett!:n8:
 
Zuletzt bearbeitet:
Und wenn CB in seinem Test die Einstellungen und Treiber "preisgibt", ist es bestimmt nicht schwer so ein "Benchmark!" zu reproduzieren, vorallem weil die Benchmarks meistens den "Spielen" beiliegen!
Tja, dummerweise (bzw. zum Glück) nutzt CB nicht durchgehend die integrierten Benches :rolleyes: Du kannst ergo als Außenstehender die Werte keinesfalls nachstellen.
nur diesen "besagten" was ich in meinem vorigen Post gepostet habe
Du nanntest keine Namen :rolleyes:
Was die 4 Kerne angeht, wieviele Spiele profitieren denn davon!, glaub 2 oder 3 von dem Test, und die waren bei mir nicht dabei!
Alleine die Tatsache, dass die Treiber multicore-optimiert sind, sorgt für Differenzen.

Und es zeigt, dass du vom Benchen keine Ahnung hast!
 
Zuletzt bearbeitet:
Tja, dummerweise (bzw. zum Glück) nutzt CB nicht durchgehend die integrierten Benches Du kannst ergo als Außenstehender die Werte keinesfalls nachstellen.

Es steht ja immer drunter bzw. drüber welche Benches benutzt werden, (gleiche hab ich auch benutzt!) Comprente? Sprech ich "chinesich oder was", man man !

Sonst hätt ich kaum gleiche Ergebnisse, es ist so wie es ist, die Graka limitiert zu 85% bei den Games, da kannst du die CPU auf 10Ghz ocen, und kriegst auch nicht mehr fps.

Was ich damit ausdrücken will, hab ich ja schon in meinen vorigen Posts gesagt!;)

:n8:
 
Und komischerweise hast du vorher gesagt, dass man den CPU nicht OCen soll, da Nvidia-karten zu stark davon profitieren. Jetzt heißt es auf einmal die Games sind doch eh grakalimitiert... :freak:

Irgendwie ergibt das so keinen Sinn.
 
@ Übersoldier75
Es steht ja immer drunter bzw. drüber welche Benches benutzt werden

Immer ist (mal wieder) falsch :rolleyes: Zudem müssen die Benches bis ins kleinste Detail erläutert werden, sonst sind sie nicht reproduzierbar. Ich nehmen mal den aktuellen Test:

* CoD5: Es steht nicht dabei, welche Szene genutzt wird, es gibt kein Save, keine Zeitangabe - ergo kannst du den Bench nicht reproduzieren
* DoW2: "Als Benchmark nutzen wir die ersten 60 Sekunden der Introsequenz des ersten Levels."
* Riddick: "Als Testsequenz nutzen wir eine 60 Sekunden lange Spielszene im ersten Level." Es steht nicht dabei, welche Szene genau genutzt wird, es gibt kein Save, keine Zeitangabe - ergo kannst du den Bench nicht reproduzieren
* Anno 1404: Es steht nicht dabei, welche Szene genutzt wird, es gibt kein Save, keine Zeitangabe - ergo kannst du den Bench nicht reproduzieren
* Battleforge: "Als Benchmark nutzen wir eine integrierte Funktion"
* Bioshock: Es steht nicht dabei, welche Szene genutzt wird, es gibt kein Save, keine Zeitangabe - ergo kannst du den Bench nicht reproduzieren
* Cryostasis: "Als Testsequenz nutzen wir ein kühles, selbsterstelltes Savegame aus dem dritten Abschnitt." Es steht nicht dabei, welche Szene genau genutzt wird, es gibt kein Save, keine Zeitangabe - ergo kannst du den Bench nicht reproduzieren
* Crysis: "Genauere Details zur Testmethode findet man in unserem Spielbericht zu Crysis Warhead"
* HAWX: "Als Testsequenz nutzen wir aus Gründen der Vergleichbarkeit die integrierte Testfunktion"
* Stalker: "Genauere Details zur Testmethode findet man in unserem Spielbericht zu Stalker Clear Sky."
* WiC: "Stattdessen verwenden wir die Introsequenz zur elften Mission, die zur neuen Russen-Kampagne gehört." Keine Zeitangabe - ergo kannst du den Bench nicht reproduzieren

Zusammengefasst kannst du maximal 5 von 11 Benches nachstellen - theoretisch. Weil ein 3,0 GHz DC ist nicht mit einem 4,0 GHz QC vergleichbar.
Sprech ich "chinesich oder was", man man !
Nein, deutsch. Aber inhaltlich kommt eher Müll bei rum.
 
Zuletzt bearbeitet:
Und komischerweise hast du vorher gesagt, dass man den CPU nicht OCen soll, da Nvidia-karten zu stark davon profitieren. Jetzt heißt es auf einmal die Games sind doch eh grakalimitiert...

Du CPU soll nicht oced werden, weil es die "Ergebnisse" verfälscht!

Steigender CPU-Takt= mehr "FPS!" bei NV-Karten

Gleicher CPU-Takt= fast genauso viel "FPS!" mit ATI-Karten!, Comprente?

Setzt dich erst mal mit der Materie auseinander, bevor du solche Fragen stellst!;)

:n8:
 
Steigender CPU-Takt= mehr "FPS!" bei NV-Karten

Gleicher CPU-Takt= fast genauso viel "FPS!" mit ATI-Karten!
Zu pauschal. Ein GTA4 oder ein SupCom skaliert exzellent mit mehr CPU-Takt, egal ob Radeon oder Geforce.
 
Oh Mann ... seit fast zwei Seiten wird hier über Kram diskuttiert der absolut rein garnichts mit dem Thema zu tun hat, und das nur weil AMD-Fanboy seine Komplexe befriedigen muss, um sich selbst davon abzulenken, daß sein Liebling mal nicht den ersten Platz gemacht hat.

Erstens: bin ich kein "Fanboy", ich stelle nur Fakten klar.

Zweitens: brauchst du nicht gleich beleidigdend werden.

Drittens: hättest du von Anfang an gelesen, wüsstest du dass es hier gar nicht darum geht, wer den ersten Platz macht!

Viertens: das hat hier sehr wohl was mit dem Test zu tun. Es geht einfach darum, dass die "NV-Grakas" mit steigender CPU-Mhz weiter nach oben skallieren als die "AtI-Pendants", und somit den ganzen Test verfälscht. Deswegen sollte man die "CPU" auf 3Ghz takten. Dann würde das Ergebnis anders aussehen, denn nicht jeder hat nen Quad auf 4Ghz mit ner Wäku zu Hause. Denn hier limitieren die "NV-Grafikkarten" ganz eindeutig, und nicht die CPU.

Zu pauschal. Ein GTA4 oder ein SupCom skaliert exzellent mit mehr CPU-Takt, egal ob Radeon oder Geforce.

Was willst du jetzt mit GTA4?, dass ist eh CPU limitiert. Ich rede hier von Spiele die nicht Mehrkern optimiert sind, sondern eher grafiklimitiert.

Immer ist (mal wieder) falsch Zudem müssen die Benches bis ins kleinste Detail erläutert werden, sonst sind sie nicht reproduzierbar. Ich nehmen mal den aktuellen Test:

Ich rede von einem ganz anderen Test, und nochmal für dich, er ist sehr wohl reproduzierbar, auch das sagte ich bereits, ich wiederhol doch nicht alles fünfmal für dich.

Nein, deutsch. Aber inhaltlich kommt eher Müll bei rum.

Das ist kein Müll!, das sind Fakten. Wahrscheinlich willst du es nicht kapieren. Hab das Gefühl ich red hier gegen eine Wand. Du mußt auch mal einsehen dass du nicht im Recht bist, aber wahscheinlich geht das nicht. Und das mit deinem FALSCH-Argument zieht bei mir nicht, weil es eben nicht FALSCH ist, sondern Fakten. Ich hör jetzt hier auf, weil es eh keinen Sinn hat, und du immer Recht haben mußt, kannst ja noch ein bisschen weiter diskutieren.:lol:

MfG.
 
Ich rede hier von Spiele die nicht Mehrkern optimiert sind, sondern eher grafiklimitiert.
Davon hast du nichts gesagt. Zudem: Nur weil ein Spiel nicht von mehr Kernen profitiert, heißt das noch lange nicht, dass es nicht von mehr MHz profitiert :rolleyes:
Ich rede von einem ganz anderen Test, und nochmal für dich, er ist sehr wohl reproduzierbar, auch das sagte ich bereits, ich wiederhol doch nicht alles fünfmal für dich.
Davon hast du nichts gesagt :rolleyes:
 
y33H@ schrieb:
Treiber, Architektur, Rohpower usw.Korrekt.
ATI-GPU's skallieren schlechter mit steigender CPU-Leistung als Nvidia-GPU's?
Korrekt.
Du willst doch nicht ernsthaft mit diesen 2 Graphen eine solche pauschale Aussage belegen...
Von daher wäre es sinnvoll, den Post dementsprechend anzupassen oder aussagekräftige Messungen zu zeigen, die dieses Phänomen zeigen. So vermittelt er einen absolut falschen und in der Kombination auch noch unsinnigen Eindruck (denn dass langsamere Karten nicht so stark mit einer schnellen CPU skalieren als schnellere, weiß jeder, der eins und eins zusammenzählen kann...)

Auch wenn das jetzt auch wieder OT war, sollte man so etwas nicht stehen lassen!
 

Ähnliche Themen

Zurück
Oben