Test Test: 10 Grafikkarten für DirectX 11

Seppuku schrieb:
Werde diese dann zumindest ohne PhysX getestet um den Balken wenigstens einen Hauch an Aussagekraft zu geben? So wie es jetzt gemacht wird, macht es nicht wirklich Sinn. Sonst müsste man auch konsequent DX10-Karten unter DX11 "testen".

Das wäre in meinen Augen absolut sinnlos. Dann würden die Nvidia-Karten mehr Features berechnen, die ATis weniger und trotzdem wären diese schneller. Das macht absolut keinen Sinn.
 
Für mich kommt die GTX 480 in Frage ! Danke für den Test. Mich interessiert der Stromverbrauch recht wenig, was zählt ist die Power und wenns um DX11 geht und z.B um Tessalation, gibts nichts stärkeres im Single GPU Bereich.
 
rumpel01 schrieb:
nur kann die Ati die Berechnung nicht auf der eigenen GPU durchführen
Also können sie es ja nicht nutzen, warum und wieso spielt keine Rolle. Wir müssen hier jetzt nicht mit irgendwelchen Wortklaubereien anfangen...

rumpel01 schrieb:
Sonst könnte man auch andere Titel testen und durchgängig auf niedrigsten Einstellungen benchen.
Man muss ja nicht übertreiben...
Bei Dirt2 wird ja auch auf "niedrigsten Einstellungen" auf Grund der Vergleichbarkeit gebencht und DX11 bekommt dann nochmals einen extra Durchlauf.
Wenn die Vergleichbarkeit nicht gegeben ist, weil dafür einseitig Vorhandene Features benötigt werden, dann muss man eben die Tests auch dementsprechend abwandeln.


@ Wolfgang

Und so macht es mehr Sinn?
Es geht doch dann nicht um einen Nvidia vs. AMD Vergleich (was ja auf Grund des einseitigen Features sowieso nicht möglich ist), sondern darum zu zeigen, wie sich entsprechende Karten in dem Spiel verhalten (ab welcher ATI-Karte ist es z.B. spielbar, bei welcher Einstellung und Auflösung). Diese Informationen bekommt man nicht obwohl (ich kanns nur immer wiederholen) 8 ATI-Karten "getestet" werden.
Wenn man sich die Arbeit macht und testet, dann sollte dieser doch auch das Maximum an Informationen mit sich bringen. Und da würde es reichen mit PhysX eine ATI exemplarisch dagegen zu stellen.
 
Zuletzt bearbeitet:
warum und wieso spielt keine Rolle.

Sorry, aber das ist doch das Entscheidende. Und genau dies wurde jetzt schon mehrfach betont. Der PhysX-Test macht auf die Existenz dieser proprietären Lösung und deren Folgen aufmerksam. Das unter den Tisch zu kehren ist aus meiner Sicht noch viel problematischer. Bildinhalte werden eben in Zukunft stärker auf einzelne Hersteller beschränkt, was soll's, dann kauft man sich pro Spiel eben unterschiedliche Grafikkarten. Testet man Batman ohne PhysX, fallen die Infos "ich verzichte bei diesem und anderen Spielen auf BQ, wenn ich eine ATi habe" sowie "nvidia braut sein eigenes Süppchen und ich als Spieler bekomme das zu spüren, wenn ich nicht deren Karten kaufe" mal eben komplett unter den Tisch, insbesondere in der konkreten Auswirkung der miteinander verknüpften Sachverhalte. Dass dann in dem Diagramm Atis von unterer Mittelklasse bis zu High-End zu finden sind, zeigt es sogar auf den allerersten Blick, überdeutlich, ohne dass man rätseln muss, warum eine HD 5870 gegen eine GTX 260 abstinkt. DX11 ist für alle verfügbar bzw. umsetzbar, PhysX ist es eben nicht, und auf dieses Ungleichgewicht kann man nur hinweisen, wenn dieses Gefälle in Form des Diagramms hier gezeigt wird.
 
Zuletzt bearbeitet:
Ich verstehe es wirklich nicht - über Seiten hinweg wird an dem vorbei diskutiert was tatsächlich gemeint ist. Es wirkt teilweise wie absichtlich falsch verstanden. Dann endlich meldet sich Wolfgang und zeigt dass er versteht was gemeint ist und dies durchaus auch in Erwägung ziehen will und sich das genauer anschaut:
Wolfgang schrieb:
Den Batman-Test wegen PhysX etwas auszulagern ist durchaus eine Überlegung wert und vielleicht auch gar nicht so schlecht. Die ATi-Karten würden in dem Fall aber dennoch drin bleiben ;)
Mehr verlangt doch hier überhaupt niemand, als dass man sich das mal unvoreingenommen nochmals überlegt und auf die Anregungen eingeht wie man es vielleicht auch machen könnte. Auf jeden Fall Danke an Wolfgang der sich damit tatsächlich neutral auseinander setzt und sich nicht persönlich angegriffen fühlt durch diese fachliche Diskussion :)

Um dann anschließend genau die selbe Diskussion durch andere weiter zu führen mit den selben falschen Beispielen und Argumenten wie zuvor.

Es geht doch um nichts anderes als man schon bei allen anderen Spielen macht:
Man testet in 3 Durchläufen mit 1xAA, 4xAA und 8xAA drei verschiedene Qualitätssettings. Was spricht den dagegen das selbe bei Batman zu machen nur dass hier eben 2 Qualitätssettings gezeigt werden - einmal mit und einmal ohne PhysX.
 
@ rumpel01

Das "spielt keine Rolle" war in einem anderen Zusammenhang zu sehen.
Es will bestimmt niemand, dass auf diesen Sachverhalt nicht hingewiesen wird.
Jedoch bin ich der Meinung, dass ein Test auch immer möglichst viel aussagen soll.
Wenn man die Durchläufe ein bisschen sinnvoller verteilen Würde, hätte man bei weniger Arbeit, deutlich mehr Informationen. Mal ein paar Beispiele als Anregung:
Mit Physix:
Ein Durchlauf mit ATi Radeon HD 5870 mit je 1 gb und 2 gb
--> Man sieht wie sich das Topmodell schlägt und was der Speicher ausmacht.
Ein Test mit einer Mittelklasse-Karte (ATi Radeon HD 5670)
--> Man sieht den Unterschied zwischen Mittelklasse und Topmodell (bzw. hier eben keinen)
Ohne Physix:
Ein Durchlauf mit ATi Radeon HD 5870 mit je 1 gb und 2 gb
--> Verhalten des Topmodells, Vergleich zu "mit Physx", Auswirkungen des Speichers
Ein Test mit 2 Mittelklasse-Karten (bzw. sinnvoll ausgewählten)
--> Sollen zeigen, welche Karte benötigt wird, um das Spiel mit entsprechenden Einstellungen halbwegs flüssig zum laufen zu bringen.
Ein Test mit einer Nvidia:
--> Vergleich, wie viel Leistung Physx kostet.

Dann wäre man auch bei 8 Tests und hätte deutlich mehr Informationen (und keine Verloren).
 
Um dann anschließend genau die selbe Diskussion durch andere weiter zu führen mit den selben falschen Beispielen und Argumenten wie zuvor.

Du erlaubst, dass ich mit Seppuku über eine Thema diskutiere? Ja? Zu gütig. Herzlichen Dank. :rolleyes:

@Seppuku: Das Problem daran ist, dass es ja nicht bei den acht Durchläufen bleibt, denn neue Karten müssen bzw. sollen (?) ja ebenfalls in den genannten Szenarien getestet werden. Und da ist die Frage, wofür man den Batman-Bench eben hat, und das ist eben aufgrund der Sonderstellung vornehmlich PhysX. Dass das Spiel mit einer 5870 flüssig spielbar ist, wenn man PhysX deaktiviert, sollte eigentlich klar sein. Ob eine Karte 170 oder 140FPS bei 1680x1050 erreicht, dürfte da fast nebensächlich sein ... da gäbe es womöglich auch andere Spiele, die man stattdessen testen könnte ... Dass es dabei ein interessantes Setting für den Speicherverbauch sein kann bzw. ist, bestreite ich gar nicht, da bin ich ganz Deiner Meinung.
 
Zuletzt bearbeitet:
rumpel01 schrieb:
Die Beschneidung der PhysX-Funktionen durch nvidia für ATi kann man dadurch kaum transparenter machen. ;)
Diese Beschneidung existiert nicht. Es handelt sich um ein extra/optionales Feature. Eines, das man mittels passender Hardware genießen kann. Ohne passende Hardware gibts den Titel in seiner ursprünglichen Optik.

Ohne diese Option hättest du diese Worte nie verfasst, dann wären alle auf dem ursprünglichen Niveau geblieben.

Schinzie schrieb:
das mit den realen titeln, ich habe doch diesbezüglich keine aussage gemacht.
Du hast geschrieben "wäre durchaus in der Lage". Wie gesagt, was nicht ist, ist unreal, nur theoretisch.
Man kann seitenweise darüber disskutieren, was wäre wenn, sicherlich. Aber nicht wenn man das hier und jetzt vergleichen will.

ein HQ schalter bei AMD wäre wünschenswert, ihn aber zu unterstellen, sie cheaten, weil sie so etwas nicht bieten, ist maßlos übertrieben.
In Crysis wird auch nicht gecheatet, es wird lediglich mehr auf leistung optimiert. Auf einer Geforce flimmert Crysis auch sehr stark, habs gestern erst getestet.
In Crysis wird gecheatet, das ist Fakt. Du kannst noch so oft deine persöhnliche Meinung einbringen, die Fakten, die die PCGH im verlinkten Test enhüllt hat sind real.
Du brauchst deine Meinung nicht jedes Mal als Mittel der Verharmlosung nutzen. Wir wissen beide sehr gut, das du trotz 300-400€ Grafikkarten AF nicht als besonders wichtig ansiehst.

Mir gehts im Crysis Fall lediglich darum, das Crysis als Testobjekt untragbar ist, dank dieser Umstände. Es ist weiterhin nicht so, das Crysis, der Vorzeigetitel schlecht hin noch nie vollkommen sauber dargestellt wurde. Das ist für die IHVs so etwas wie 3DMark damals und somit wertlos.
Ich finde es sehr schade, um diese unglaubliche Arbeit von Crytek. Aber die Allgemeingütligkeit hat Crysis dank seiner häufigen Benutzung längst verloren.
 
Ohne passende Hardware gibts den Titel in seiner ursprünglichen Optik.

Die Optik ist da und war sicherlich von Anfang an konzipiert, man hätte ja nicht die Unreal 3-Engine nehmen müssen, die mit PhysX verknüpft ist. Da GPU-PhysX aber nvidia-spezifisch ist, werden die ursprünglich vorgesehenen Bildinhalte aus Perfomance-Gründen faktisch nur nvidia-Kunden zuteil. Ein klassischeres Beispiel für eine noch nicht einmal notwendige "Beschneidung" gibt es daher nicht. Wäre HAVOK ATi-spezifisch, hätte es in Halflife 2 weniger Effekte mit nvidia-Karten gegeben. Dem war aber nicht so.
 
Zuletzt bearbeitet:
@ rumpel01

Eigentlich müsste man dann in Batman keine weiteren ATI-Karten mehr testen (außer es ändert sich etwas um Punkt PhysX), weil sonst ja auch keine Änderungen zu erwarten sind. Im Grunde könnte man den ATI-Teil dann so lassen (man würde sich sogar letztendlich Arbeit sparen)

@ Unyu

Also ich finde schon, dass man von Beschneiden sprechen kann, da insbesondere bei Batman Effekte, die es schon in etlichen Spielen gab, etwas physikalisch korrekter, dargestellt werden.
Anstelle dann auf eine physikalisch minimal exaktere Berechnung zu verzichten und sie auf altmodische Weise für ATI-Karten zu generieren, fehlen diese vollständig.
 
rumpel01
Wenn das vor langer Zeit geplannt wurde gehe ich von ursprünglichen CPU PhysX aus.
Ergo wenige Effekte, dafür für praktisch Jeden nutzbar.

Insofern wären es eine beschnittende Optik, sobald der Modus "etwas PhysX" nicht angeboten worden würde.
Da ein einziger PhysX Modus eh zu wenig wäre ein klarer Kritikpunkt.

Seppuku
Es steht dir frei den Batmanentwickler über die Implementierung zu kritisieren.
Die Konsolenfassung sieht jedenfalls kein FSAA oder PhysX vor.

Das sich in dem Fall Nvidia persöhnlich bewegen musste um seinen Kunden etwas mehr zu bieten, sehe ich das als optionalen Bonus an, der rein gar nichts mit AMD zu tun hat und auch nichts mit dem Entwickler.
 
Zuletzt bearbeitet:
Wenn das vor langer Zeit geplannt wurde gehe ich von ursprünglichen CPU PhysX aus.

Naja, "GPU"-PhysX gibt es seit Ageia-Tagen, und das ist wohl eher die Ursuppe, wo es herkommt. Immerhin wollte Ageia die eigenen Karten mit den Prozessoren darauf verkaufen. Der Punkt ist: es gibt existente Physik-Engines. Und dann muss der Entwickler wählen: nehme ich Havok, PhysX? Grundsätzlich kann auch eine ATi-GPU die Effekte berechnen, nvidia verhindert das aber (ob zu Recht oder nicht sei dahingestellt). Insofern ist das natürlich eine künstliche Beschneidung. Man bekommt als Ati-Nutzer nicht den Bildinhalt, den sich der Hersteller des Spiels vorgestellt hat, obwohl dies nicht notwendig ist. Dies ist eine Beschneidung ... ;) Dass das Spiel für Konsolen nicht den gleichen Imhalt bieten kann, ist auch klar. Doch handelt es sich auch hier um Beschneidungen, allerdings um unvermeidliche (Rechenkapazität einschlägiger Konsolen).
 
Zuletzt bearbeitet:
Meinst du man hat Mafia als Ageia-Vorzeigetitel geplant, mit der frohen Hoffnung das Ageia sich im Markt gut durchsetzt?
Kaum vorstellbar und selbst wenn bezweifel ich, das nur ein "PhysX @ viele Objekte" Modus implementiert worden wäre.
Also, ist es dir bekannt welche PhysX-Teilchenmengen-Einstellungen es in Mafia2 geben wird?
Urprünglich unter Ageias Händen war an GPU PhysX nicht zu denken. Vollkommen verständlich, auch Ageia ist kein Wohlfahrtunternehmen.

Sie hatten die Wahl zwischen Havok und PhysX, haben sich für PhysX entschieden.
Zig Tausend Teile auf CPU Basis haben sie jedoch ganz sicher nicht geplannt. Sieht man an Crysis, es ist möglich aber den Kunden nicht offen geboten worden.

Das man GPU PhysX nicht kostenlos hier gibt ist doch verständlich.
Die Worte "verhindert" wirken so als ob AMD mal wieder die arme Wurst wäre, die es gilt zu verteidigen. Es klingt auf jeden Falls so, als ob AMD ohne zutun von der Arbeit eines anderen profitieren soll.
Alternativ könnte man mal fordern, das auf GPU Havok gesetzt wird, das dies mal vorangetrieben wird. Sicherlich könnte AMD auch seinen Beitrag leisten.

Das ich die Konsolen als Maßstab nehme ist auch klar, den es wird für die Konsolen programmiert und anschließend für den PC portiert. Da bleibt vieles auf der Strecke, von Anfang an. Bestes Beispiel ist doch Crysis, als uralter Titel immer noch vorne dabei in Optikfragen. Heute heißt es nur noch Konsolenoptik auf den PC zu portieren.
 
Zuletzt bearbeitet:
Also, ist es dir bekannt welche PhysX-Teilchenmengen-Einstellungen es in Mafia2 geben wird?

Nö, aber vielleicht wäre der derselbe Bildinhalt nicht evtl. auch mit Havok möglich? Im übrigen: was hat das mit dem Thema zu tun? Es gäbe dieses Thema auch gar nicht, wenn GPU-PhysX auch aktiv auf ATi-GPUs freigeschaltet wäre.

Zig Tausend Teile auf CPU Basis haben sie jedoch ganz sicher nicht geplannt.

Ganz ehrlich: Red Faction 1 hatte seinerzeit schon einiges geboten ... ohne dass ich dafür eine andere Grafikkarte gebraucht hätte ... ;)

Die Worte "verhindert" wirken so als ob AMD mal wieder die arme Wurst wäre, die es gilt zu verteidigen.

Mit AMD hat das nichts zu tun. Es geht um den Kunden, dem etwas vorenthalten wird, weil er die "falsche" Karte besitzt, obwohl sie grundsätzlich dazu in der Lage wäre. ;)

Im übrigen: es wird aktiv "verhindert", dass es bei ATi-Karten läuft. Das ist eine schlichte Tatsache. Ich hatte dazu auch folgendes geschrieben:

Grundsätzlich kann auch eine ATi-GPU die Effekte berechnen, nvidia verhindert das aber (ob zu Recht oder nicht sei dahingestellt).

Insofern redest Du gegen den "Falschen" an. Es geht darum, dass die derzeitige Situation in Sachen "Physik"-Effekten für den Kunden einfach mies ist, weil jeder sein eigenes Süppchen kocht. ;)
 
Zuletzt bearbeitet:
rumpel01 schrieb:
Du erlaubst, dass ich mit Seppuku über eine Thema diskutiere? Ja? Zu gütig. Herzlichen Dank. :rolleyes:
Ich glaube nicht dass du meine Erlaubnis brauchst dafür, so war das auch keineswegs gemeint - ich wundere mich nur dass du in eine andere Richtung argumentierst als derjenige in eurem Team der den Test durchführt. Das wirkt nun mal nicht sonderlich schlüssig wenn der Tester sagt "ja schau ich mir mal an" und damit eine Diskussion beendet. Die selbe dann anschließend von jemand anderem im Team einfach weiter geführt wird als ob das nicht schon vom Tisch wäre - das war alles worauf ich hinweisen wollte.

Aber wer gerne diskutiert, das darf das natürlich auch gerne tun, so wie die Leser dieser Fortführung sich dann über die Logik dieser Argumente wundern dürfen - zumindest hoffe ich dass man in diesem Forum das schreiben darf wenn man der Meinung ist etwas sei unlogisch. Wie gesagt ist das lediglich meine eigenen Wahrnehmung und muss natürlich nicht allgemein gültig sein.
 
Nö, aber vielleicht wäre der derselbe Bildinhalt nicht evtl. auch mit Havok möglich?
Möglich.
Frag doch den Entwickler warum er Havok nicht nutzt. Vielleicht Zufall, vielleicht aus seiner Sicht nicht ganz so geeignet oder weil man seine Kunden verarschen will?

Wie gesagt, auf GPU Havok hat wohl keiner Lust. Schade. Ebensowenig auf mehr nicht Effektphysik.

Mit AMD hat das nichts zu tun. Es geht um den Kunden, dem etwas vorenthalten wird, weil er die "falsche" Karte besitzt, obwohl sie grundsätzlich dazu in der Lage wäre. ;)
Ja theoretisch.
Theoretisch könnte man auch auf GPU Havok setzten.

Ich kann mich nicht erinnern bestritten zu haben, das GPU PhysX auf einer HD2-5 gehen könnte.
Da es nicht geht und ich davon ausgehe das genannte Entwickler nicht völlig abgefahren sind, muss ich davon ausgehen, das sie wissen und gewusst haben, das GPU PhysX ein optionales Feature bleibt.
Oder alternativ haben sie auf CPU PhysX gesetzt und wurden von Nvidia auf die Idee gebraucht die Objektzahl einfach zu erhöhen.

Ganz ehrlich: Red Faction 1 hatte seinerzeit schon einiges geboten ... ohne dass ich dafür eine andere Grafikkarte gebraucht hätte ... ;)
Ich finds auch schade das keiner mehr Lust auf Physik hat.
Es ist einiges möglich.

Insofern redest Du gegen den "Falschen" an. Es geht darum, dass die derzeitige Situation in Sachen "Physik"-Effekten für den Kunden einfach mies ist, weil jeder sein eigenes Süppchen kocht. ;)
So oder so, schade das es bisher keine ernsthafte GPU-PhysX Konkurrenz gibt, den dann könnten wir uns das sparen.
 
Unyu schrieb:
...
In Crysis wird gecheatet, das ist Fakt. Du kannst noch so oft deine persöhnliche Meinung einbringen, die Fakten, die die PCGH im verlinkten Test enhüllt hat sind real.
Du brauchst deine Meinung nicht jedes Mal als Mittel der Verharmlosung nutzen. Wir wissen beide sehr gut, das du trotz 300-400€ Grafikkarten AF nicht als besonders wichtig ansiehst.
....

wo ist es Fakt? Sie filtern nicht ganz so aufwendig wie Nvidia, das ist fakt. Wo ist bewiesen, dass sie "cheaten". Wieso stellst du deine persönliche Meinung, dass eine minderwertigere Filterung "cheaten" ist als Tatsache hin, und belegst sie mit beweisen, die gleiches nicht behaupten? und greifst andere dann an, sie wollen ihre eigene Meinung anderen aufschwätzen?

Zudem kommst du tatsächlich her, und behauptest Falsches, indem du es als Tatsache darstellst, dass AMD Karten keine Physikberechnung könnten, dabei könnten Sie, wenns nicht per Software unterbunden wäre. Es gab sogar mal einen User, der es auf einre 3870 hat laufen lassen ,erschreckenderweise lief es dort sogar relativ gut.

Btw hab ich mir jetzt extra nen Thermi ins System geschnallt und kann sehr wohl gut vergleichen was fürn Mist du hier schwätzt.
 
Das haben wir uns auch gefragt und imo liegt das an der PhysX-Einstellung, die nun nicht mehr auf normal, sondern auf hoch steht. Mag im ersten Augenblick zwar komisch klingen, scheint aber irgendweiso so zu sein.
Wirklich seltsam, kann man das wieder auf normal stellen, wäre echt Schade um das Setup, gibt nicht viel die es so gut aufgezeigt haben und die Grafikkarten so gut in Sachen Vram getestet haben. (bitte sag jetzt nicht das der neue Parcours steht und das nicht mehr geändert werden kann:rolleyes:)


MfG Kasmo
 
Wolfgang schrieb:
Den Batman-Test wegen PhysX etwas auszulagern ist durchaus eine Überlegung wert und vielleicht auch gar nicht so schlecht. Die ATi-Karten würden in dem Fall aber dennoch drin bleiben ;) Wegen den zusätzlichen Eyefinity-Tests: Das würden wir liebend gerne machen. Doch das Problem sind da die Monitore...

Wenn die ATI Karten drin bleiben dann muss in der Grafik aber auch erkennbar sein das die Framerate nicht durch die GPU sondern durch die CPU erreicht wird. ;)
Im Kopf der Grafik beispielsweise reinschreiben das es sich um das GPU PhysX handelt und bei den Karten ohne oder mit deaktivierter GPU Unterstützung ein "Core i7 @ 3,87 GHz" davorsetzen. Um es wirklich unmisverständlich zu machen könnte man noch eine der nvidia Karten ohne GPU Support gegentesten.
Der Aufwand ist minimal, da man lediglich die Beschriftung ändern und den einen Sondertest machen müsste. Wer dann nich schnallt worum es bei dem Test geht, dem ist schlicht nicht mehr zu helfen.

Der Eyefinity Test war auch eher eine Anregung und bei der Monitorauswahl bzw. deren Auflösung könnte man sich an der warscheinlichsten Konfiguration orientieren. Der Zweck wäre auch zu verdeutlichen welche Nachteile sich aus der extrem hohen Auflösung ergeben und wie die Grafikkarten darauf reagieren.
 
Ich würd's so machen: :o



PS: Die "ohne PhysX" Balken sind vom MW2 Benchmark reinkopiert.
 
Zurück
Oben