Test Test: 10 Grafikkarten für DirectX 11

Also CB hat noch immer nicht dazugelernt , die Verbrauchs und Lautstärke Werte der HD5830 sind nicht ernst zu nehmen , da bei techpowerup eine xfx hd5830 getestet wurde und dort viel bessere werte in den berreichen zu Gesicht bekamen ... CB besorgt euch mal eine 5830 im xfx sapphire etz design denn das ist die referenz , nicht eine 5830 mit nem 5870 pcb ;)
 
So bleibt der bittere Beigeschmack, dass nun auch CB auf den Nvidia Zug aufgesprungen ist und somit nicht mehr als objektiv und neutral anzusehen ist.

Meinst du wirklich, dass der Batman-Test allein als untrügliches Signum einer redakionsseitigen nVidia-Affinität zu werten ist? Ich fände dies als "Beweis" doch recht mager.^^
 
also bezug HD5850 Lautstärke und Hitze hat meine Sapphire ganz andere werte :)
Meine Karte wird bei jetzigem wetter 30°+ max 70°c warm und was Lüfterlautstärke betrifft, höre ich absolut nix. Das bezieht sich auf idle und last :)
Vielleicht liegt daran dass sie anderen Kühler hat.
 
Was hat CB also zu verbessern?

A) Batman Physx test transparenter gestalten
B) Fazits etwas mehr dem Test anpassen und lieber zahlen sprechen lassen als ungenaue Begriffe
C) Bei der HD5830 gehören die Verbrauchswerte und die Lautstärkewerte markiert, da diese nicht mit einer aktuellen Version der Karte getestet wurden.

Wäre schön, wenn Wolfgang das etws berücksichtigen würde.
Derart viel Kritik hab ich persönlich noch nicht bei einem test zu lesne bekommen, auch wenn manche mehr oder weniger stark übertrieben haben und viele Worte auf die Goldwaage legen.

PS: Die Angaben der vewendeten Treiber hab ich nicht finden können, gibtsdie irgendwo?
 
Zuletzt bearbeitet:
@Kasmopaya

Bei Metro ist das Postprocessing verantwortlich, nicht die Tesslationleistung für die Frameraten, ergo kannst du auf very high spielen ohne die erweiterte Tiefenschärfe und das zum 100mal .....


Unigine heaven biete einen guten Anhaltspunkt für die Tesslationspower der Fermi, ob du sie dann irgendwan in Spielen sinnvoll vorfindest ist eine andere Sache.
 
Schaby schrieb:
So bleibt der bittere Beigeschmack, dass nun auch CB auf den Nvidia Zug aufgesprungen ist und somit nicht mehr als objektiv und neutral anzusehen ist.

Sorry, aber dann sage doch dazu, dass du die vorherigen Tests eh nicht gelesen hast.

Ist doch ein Witz, dass du andere Tests, wo dieser Benchmark genau so vorkam, positiv kommentierst, hier aber das Ende der Objektivität beschwörst. Absurd, ehrlich.
 
Zuletzt bearbeitet:
HappyMutant schrieb:
Sorry, aber dann sage doch dazu, dass du die vorherigen Test eh nicht gelesen hast.

Ist doch ein Witz, dass du andere Tests, wo der Test genau so vorkam, positiv kommentierst, hier aber das ende der Objektivität beschwörst. Absurd, ehrlich.


Nene zum ersten mal sehen die Meisten einen guten Test und denken jetzt "oh wieso ist meine geliebte ATI langsamer als ich immer dachte ? Liegt bestimmt an Computerbase, sind alle von nVidia bezahlt"

Also so sehen hier 90% der Kommentare aus :D
Auch das gequatsche über ein Spiel, welches nichtmal im Rating aufgenommen wurde.
Aber trotzdem mal darüber gemeckert :lol:

Zum Test:
Danke für die großartige Leistung und dem ausführlichen Test.
Man sieht nun leichter, wo die Grafikkarten sich einordnen und kann durch die bessere Auswahl an Tests auch seine bedürfnisse besser einschätzen.
Was auf nem 30" läuft, wird auf meinem 22" auch laufen;)
 
@Schaffe89
Treiberversionen
* ATi Catalyst 10.6
* Nvidia GeForce 257.21

Steht bei Testsystem etwa mittig.

@Redaktion:
Naja auf konstruktive Kritik könnte man eingehen und irgendwo Kompromisse treffen. Die Argumentation von rumpel01 hab ich jetzt begriffen und hab nichts dagegen, aber es hat nichts im Fazit einer Karte zu suchen, sondern sollte allgemein beim Fazit als Extrasatz stehen, dass der Verbrauch allgemein zurück gehen sollte.
Es gibt einfach zuviele User die denken werden, dass die Karte zuviel verbraucht, weil es bei ihr und nicht explizit aufgeführt wird. Außerdem ist recht hoher Verbrauch mehr was negatives und nicht weit von zu hohem Verbrauch entfernt. Somit denkt man, dass zwischen der 5870 und 480 nur ein kleiner Unterschied besteht. (der ist hingegen gewaltig)

Das mit Batman kann man ruhig so lassen, aber dann streicht ATI Karten komplett. Es ist dann übersichtlicher und weniger Arbeit für euch.
Ich bin mir sicher, dass PhysX weiterhin auf CPUs pasabel laufen könnte, aber nvidia will Geld verdienen und es ist ok.
 
Zuletzt bearbeitet:
Ich denke mal Physix entlastet die CPU.
Berechnungen, die die CPU eher in die Knie zwingen würden, kann die GeForce (GPU allgemein) deutlich schneller und ohne großartige einbußen bewältigen. Phsixs hat also schon seine berechtigung. Nur leider nicht auf beiden Karten.
 
Um nochmal auf die Unzulänglichkeiten einiger Tests hier einzugehen.

https://www.computerbase.de/2010-06/test-zotac-geforce-gtx-470-amp/4/#abschnitt_sonstige_messungen

Hier ist der Unterschied sogar noch eklatanter, leider ist nicht heraus zu lesen welchen Test die Karten unterzogen wurden bei der Verbrauchsmessung.

5870 relativ hoch, GTX 470 zu hoch, GTX 480 zu hoch.
Zischen den 3 Karten liegen laut GTX 470 AMP Test 147W und 128W beim aktuellen. Vielleicht schafft man es ein bessere Regelung zu finden :rolleyes:
 
Das mit Batman kann man ruhig so lassen, aber dann streicht ATI Karten komplett. Es ist dann übersichtlicher und weniger Arbeit für euch.

Das Gejammer wäre vermutlich genauso groß und schlimmer noch, es würde ja genau das verloren gehen, was der Benchmark gerade jetzt aufzeigt: Es gibt eine Beschränkung, die ist Fakt. Es ist doch Aufgabe des Lesers, daraus auch seine eigenen Schlüsse zu ziehen (dass PhysX für die Gesamtbewertung keine Rolle spielt, wird explizit genannt). Möchte ich, dass ein Hersteller den anderen ausbremst durch Inhalte, die er exklusiv für sich einkauft. Die ganzen Nachteile des PhysX-Programm fürs PC-Gaming kann man mit Worten kaum so gut beschreiben wie dieses Diagramm.

Nur das die Schuld an den Ergebnissen dem Überbringer und nicht dem Verursacher angelastet werden. Lieber möchte einige den Kopf in den Sand stecken und das ganz weg haben, in der Hoffnung, dass das was an GPU-PhysX irgendwas ändern würde. Diese Zahlen sind Fakt, sie spiegeln einen Teil der Spielewelt wieder, die hoffentlich kaum größer wird.

Es muss doch einzusehen sein, dass auch das in einem Test gehören kann, ohne gekauft zu sein. Ob es in einen Test gehören muss, darüber kann man geteilter Meinung sein (ich denke die Standpunkte wurden ausführlich ausgetauscht), aber die Schlüsse die (mal wieder) daraus gezogen werden, sind ungerechtfertigte und teils auch schlicht nur noch beleidigende Behauptungen.
 
Zuletzt bearbeitet:
Die ganzen Nachteile des PhysX-Programm fürs PC-Gaming kann man mit Worten kaum so gut beschreiben wie dieses Diagramm

Ich glaub fast, dass manche darauf hinaus wollen, dass so mancher Leser schlichtweg zu wenig geistige Kapazitäten bzw. Willen diese einzusetzen hat, um sich derart mit der Thematik zu beschäftigen, sodass er das dann versteht.

Ich kann mir gut vorstellen, dass so mancher einfach nur auf die Balken achtet und danch kauft.
 
Es ist nicht Aufgabe des Lesers sich daraus seine Schlüsse zu ziehen, denn ohne mehr transparenz nach außen, denkt dieser ATI Karten haben, eben weil eine Erläuterung fehlt hier ein offensichtliches Manko.
Allerdings kann man mit ein paar Effketen weniger genausogut mit der ATI Batman genießen.
Warum ihr euch degegen so vehement wehrt, obwohl das Problem definitiv schlüssig zu erfassen ist, kann ich nicht verstehen.

Diese Zahlen sind Fakt, sie spiegeln einen Teil der Spielewelt wieder, die hoffentlich kaum größer wird.

Das spiegelt gar nichts wieder. ATI Besitzer deaktivieren Physx und dann zocken sie genauso.
Das eigentliche Problem an der Sache ist, dass der Test der ATIKarten hier gar nichts wiederspiegelt, deswegen auch die Kritik im Forum, welche man warum auch immer nicht einsehen will.
 
Zuletzt bearbeitet:
Und das soll man aus dem Batman Test tatsächlich heraus interpretieren?
Auf die Idee wäre ich ehrlich gesagt bisher nicht gekommen - ich frage mich warum man das nicht einfach schreibt anstatt eine Schnitzeljagd in einem Hardwaretests zu verstecken?

Bisher hatte ich eigentlich immer den Gedanken dass Hardwaretests für Klarheit sorgen und den Raum für Spekulationen verkleinern und nicht neue Spekulationen und Vermutungen verursachen. Offensichtlich muss ich das überdenken und meine Erwartungshaltung verändern.
 
Was spricht dagegen den Batman Physx Test aufgrund der fehlenden Vergleichbarkeit in einen extra Punkt auszulagern damit das ewige Gejammer ein Ende hat?
Als Ergänzung kann man später noch einen Eyefinity Test eines Spiels hinzufuegen.
Beide Kategorien kann man dann als z.B. "GPU Physik" und "Multimonitor bei Spielen" bezeichnen und mit den jeweils kommenden Konkurrenzprodukten erweitern.
 
Entweder drinnen lassen und dazu en Text verfassen und ATI Karten ohen Physx testen und dann nen Senf dazu abgeben und das Feature von Nvidia benennen, oder gleich weglassen.
 
Zuletzt bearbeitet:
Na offensichtlich ist die klare Botschaft, PhysX ist proprietär und läuft nicht auf ATI-Karten ja nicht genehm und gehöre nicht in einen allgemeinen Test. Hier muss doch nichts spekuliert werden, die Zahlen und der Text dazu sind eindeutig. Die ATI-Zahlen wegzulassen, was soll es bringen? Offensichtlich damit etwas besser aussieht.

ATI Besitzer deaktivieren Physx und dann zocken sie genauso.

Verstehe ich nicht, dann sind die Effekte doch weg. Dass man es ohne die auch spielen kann, bestreitet doch niemand. Oder glaubt ihr wirklich, dass dieser Test jetzt sagt, hey Batman geht nur mit PhysX, kauf Nvidia? Und da wo die Leistung vergleichbar ist, fließt es in die Bewertung ein.

Ihr selbst spekuliert doch, da liegt doch das Problem. Wenn ihr das nicht tun würdet, sondern die nackten Zahlen und die Erläuterung dazu ansehen würdet, wäre doch klar, dass dies mit aktivierten PhysX-Effekten so aussieht, dies aber eben nur einen Aspekt aufzeigt, der für die Gesamtbeurteilung derzeit keine entscheidende Rolle spielt. So zu tun, als gäbe es das gar nicht, entzieht doch die Grundlage für eine objektive Beurteilung, ob GPU-PhysX einen Vorteil bringt. Das der eher künstlich erzeugt ist, spielt doch erst mal keine Rolle, denn Fakt ist erst mal, dass es so ist, aber selbst das künstliche könnte man anhand der Zahlen sehen. Muss man nicht, okay.

Was ihr aber wollt ist Politik. Es sollen gar nicht alle Aspekte, so unerfreulich sie sein mögen, zumindest aufgelistet werden, es soll der Eindruck entstehen, alles wäre in Butter, PhysX nicht existent (und nicht nur weitgehend irrelevant, wie der Test ausführt). Es hat aber nun mal Auswirkungen auf die Spieleleistung, egal wie gerechtfertigt das sein mag. Eyefinity hat keine unmittelbare Auswirkung auf die Spieleleistung, die Karte muss halt die Auflösung stemmen.

Davon ab sind sowohl 3D-Gedöns, wie auch Eyefinity nun mal von zusätzlicher Hardware abhängig, mindestens einem zweiten (oder besser dritten) Monitor, um für einen Spieler relevant zu sein. Wenn dies so ist, wird es im Fazit als Feature im übrigen auch erwähnt.
 
Zuletzt bearbeitet:
-=Tommy=- schrieb:
Ich denke mal Physix entlastet die CPU.
Berechnungen, die die CPU eher in die Knie zwingen würden, kann die GeForce (GPU allgemein) deutlich schneller und ohne großartige einbußen bewältigen. Phsixs hat also schon seine berechtigung. Nur leider nicht auf beiden Karten.

Schon bist du drauf reingefallen. Die CPU könnte deutlich schneller, schließlich geht das bei XBOX/PS3 auch. Wird aber absichtlich verlangsamt.

Link

HappyMutant schrieb:
[...]Es ist doch Aufgabe des Lesers, daraus auch seine eigenen Schlüsse zu ziehen [...]. Möchte ich, dass ein Hersteller den anderen ausbremst durch Inhalte, die er exklusiv für sich einkauft. Die ganzen Nachteile des PhysX-Programm fürs PC-Gaming kann man mit Worten kaum so gut beschreiben wie dieses Diagramm.

Ich denke du überschätzt die Intelligenz (bzw. das Interesse an solch einer Thematik) der breiten Masse. Ich sag mal 90% aller Graka-käufer interessiert sich nicht dafür, warum ein Hersteller Feature xy nicht hat, kann oder unterstützt, sondern kauft nach Balkenlänge.

Dieses Diagramm bewirkt in meinen Augen nur, dass sich Leute lieber ne NVIDIA holen, weil die mehr fps hat, mehr nicht. Explizit einer Hersteller zu unterstützen, der unter dieser Marktmanipulation zu leiden hat, wer macht das schon? Viele werden das nicht sein.
Hintergründe werden doch so gut wie nie hinterfragt.

Unyu schrieb:
Das AF auf einer 285 "geschenkt" tut nichts zur Sache, gerade im Shaderlastigeren Crysis kein Wunder.

Warum tut es dann bei der 5870 zur Sache? Dass NVIDIA hier auch "cheatet" ist wohl egal ;)

Unyu schrieb:
Ein Post auf Seite 6. Willst du mich verarschen? Hier gehts seit Seite 1 fast nur darum.
Du musst mehr liefern, bevor diese Kritik glaubwürdig wird.

Liegt mir fern. Du hast eine Frage gestellt, ich hab sie dir beantwortet. Das bei der damals nagelneuen 5870 die Leute erstmal an anderen Sachen interessiert waren, sollte klar sein. Bei diesem Test gab es keine neuen Erkenntnisse und somit ist klar, das hier Korinthen gekackt werden. Und aus der Wissenschaft kennst du es ja vielleicht: Ein Gegenbeweise reicht um eine These zu stürzen ^^

Du bist dran ;)
 
HappyMutant schrieb:
Verstehe ich nicht, dann sind die Effekte doch weg.

Richtig und das war es dann auch - das ist keine Spielleistung die da weg ist - also auch keine Auswirkung darauf. Aber genau das suggeriert ja der Test mit den Balken. Wozu testet ihr dann 1xAA, 1xAF und ohne SSAA?
 
Zurück
Oben