Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

Tyler654 schrieb:
Nützt nicht viel, da die kleine GPU und das winzige 128-Bit Speicherinterface - komprimierung hin oder her - sowieso einen Flaschenhals darstellen. Da ist die R9 380(X) in allen Belangen (Rohleistung, Speicherbandbreite, P/L-Verhältnis) eherblich besser.
Das höre ich immer wieder.
Und immer wieder ist komischerweise niemand dazu in der Lage, Benchmarks zu posten, die das belegen.
Dazu müsste man doch nur mal mit unterschiedlichen Taktraten des VRAM benchen.

Unterm Strich ist's aber eh wurscht.
Denn was zählt ist die Leistung, die hinten raus kommt.
Nehmen wir mal an, die Speicher-Brandbreite ist bei der GTX 960 tatsächlich ein Flaschenhals. Tja, dann ist sie aber immer noch schneller als die R9 380:
https://www.computerbase.de/artikel...te-2#diagramm-rating-1920-1080-hohe-qualitaet

Wobei zu beachten ist, daß selbst die OC-Varianten der GTX 960 in aller Regel noch einige Reserven haben. Meine Karte arbeitet z.B. 7,7% schneller als das, was im CB-Test mit "OC" gekennzeichnet wird.

Tyler654 schrieb:
Naja, der springende Punkt ist, dass ich nicht behauptet habe, dass 4GB für eine GTX 960 zu viel seien, sondern nichts bringen.
Ja, und das ist halt Unfug.
Es gibt genug Spiele, die man sehr gut mit der GTX 960 spielen kann, die bei vernünftigen 60fps-Settings aber mehr als 2GB benötigen.
Die 4GB bringen, daß man diese Spiele ohne Nachlade-Ruckler spielen kann.

Tyler654 schrieb:
Die Differenz in Sachen Leistungsaufnahme ist übrigens völlig irrelevant, denn sie ist gering und wird durch den Kauf einer übertakteten Variante sowieso vernichtet.
Und auch das ist Unfug. Denn diese Karten haben so hohe Reserven, daß man sehr weit übertakten kann, ohne die Spannung zu erhöhen.
 
Zuletzt bearbeitet:
Bin ich ja gespannt wie die nächsten Games aussehen werden. Am 11 März kommt ja Hitman,. he he... :D

Sehr interessante Wandlung. Bin gespannt wie das weiter geht und was sich die Grünen einfallen lassen. Sollte man sogar mit einer Titan X in Direct X 12 Titeln auch in Zukunft deutlich langsamer sein als die Konkurrenz wäre das echt ein heftiger Schlag.

SLI Systeme beißen sich wahrscheinlich gleich 2 mal in den PO wenn es denn so bleibt. Dafür hat der Mensch glücklicher weise auch 2 Arschbacken :evillol:

Bin jedenfalls gespannt auf Hitman, ob sich so ein Desaster wiederholen wird.... :D
 
Zuletzt bearbeitet:
Wird hier wieder das Märchen von "AMD ist billiger als NVIDIA" erzählt, dass so ja gar nicht stimmt, da vergleichbare Custom-Modelle eigentlich vergleichbar teuer sind und der Unterschied... eigentlich nicht einmal ein Euro beträgt und es sogar Fälle gibt, je nachdem welche Modelle man vergleicht, wo eine GTX 960 billiger ist, als eine R9 380 - auch im Preissegment dadrüber. Aktuell ist AMD nicht das P/L-Wunder...

Und das die 128bit-SI bis FullHD kein Flaschenhals sind, wurde zumindest auf der ein oder anderen HW-Seite bei Release getestet. Und da war das Fazit klar: Es ist kein Flaschenhals. Ab 1440p wird es dann langsam einer - aber dafür sind weder R9 380 noch GTX 960 wirklich ausgelegt (nur das die 380 halt ETWAS besser damit zurecht kommt, wenn man die Auflösung hochschraubt).

@kayD
Genau das ist doch der Punkt. Eigentlich, wenn man sich die Zahlen anschaut, kann und darf AMD es sich gar nicht leisten, auf Langlebigkeit zu setzen oder stark über den Preis zu kommen. Sie müssen Verkaufen - und damit auch möglichst Geld verdienen... Da kann es eben eher ein Nachteil sein, wenn Polaris dann doch nicht so stark gekauft wird, weil dank DX12 ja noch Karten aus 2011 anscheinend gut ausreichen...
 
nabend Van Doom :)

Die TitanX fehlt mir hier zum Vergleich auch noch, vllt kann CB das nachreichen? Interesse an dem Artikel scheint schließlich da zu sein ;)
 
-Ps-Y-cO- schrieb:
@EchoeZ
Ja nur wieso gibt's keine Mitte?
Hab das nochnie verstanden!

Gibts doch, mich ;)

Wenn wir uns alle Hier auf einem Platz treffen würden und Dieses Thema Diskutieren würden... Ohje ohje!... Da würden Fäuste fliegen so nehme Ich an!
Und das muss erstmal einer Verstehen!
Technik die unsere Menschheit Weiterbringt... da wird sich drum gekloppt welche wohl Besser ist!

Oder aber so manches Missverständnis ensteht garnicht erst. Was wissen wir über die Qualifikation unseres Diskussionspartners?
Ich bin Energieelektroniker und habe z.b Transportsysteme bei Opel in den Neunziger für den damals brandbeuen Astra/Zafira in Betrieb genommen. Oder unzählige Windraftanlagen Europaweit. Ich weiß also recht genau, wie man die Leistung und Verbrauch eines elektrischen Gerätes beurteilt. Dann kommt da einer aus nem QM-Büro ohne technische Ausbildung und Erfahrung und will mich belehren.
Das würde auf dem Markt nicht passieren, denn dort würde ich richtig ausm Nähkästchen plaudern, und auch jeder Andere seine Meinung besser vertreten und darlegen kann.

Ich beschränke mich in Foren z.B auf die Basis wie: Leistungsmessung ist NICHT GLEICH Verbrauchsmessung. In einem Benchmark schonmal garnicht!
An den Diskussionen über die Feinheiten einer Architektur, die es aktuell noch garnicht gibt, rede ich garnicht erst mit. Da hab ich keinen Plan von. Habs auch nie gelernt. Interessiert mich auch nicht, denn während der Entwicklung habe ich keinen Einfluß, es bezahlt mich niemand dafür, und wie es am Ende wirklich aussieht weiß man erst, wenn der Drops gelutscht ist.
Bensel32 hat vorhin mal "Schuster bleib bei deinen Leisten" geschrieben das ist die Bauern-Variante meiner Signatur (sollte ich vllt. ergänzen)
Dieses Wannabe verhalten gibts schon seit es Online-Foren gibt. Oder Poltik.

Man kann nur versuchen - auch wenn man derweil als "Moralapostel" tituliert wird - die Leute auf den Teppich zu bringen...
 
Edelhamster schrieb:
nabend Van Doom :)

Die TitanX fehlt mir hier zum Vergleich auch noch, vllt kann CB das nachreichen? Interesse an dem Artikel scheint schließlich da zu sein ;)
Eine Titan fehlt eigentlich immer bei den CB Tests, was wohl darauf schließt, dass sie wohl keine im Testlabor haben. Wahrscheinlich ging das Testmuster von damals wieder zurück und so kann man dann keine neue Werte ermitteln (neue Treiber, andere Spiele usw.)
 
@CCIBS
Denke eher das der Test viel Zeit gekostet hat. Igor von THG hatte auch so seine Schwierigkeiten ;)
Das ist ja erstmal die Spitze des Eisbergs... und definitiv ein Fingerzeig für Spiele ähnlichen Aufbaus.
Auch wenn andere Spiel weniger gut performen, schlechter als unter DX11 wirds wohl kaum.
 
UltraWurst schrieb:
Das höre ich immer wieder.
Und immer wieder ist komischerweise niemand dazu in der Lage, Benchmarks zu posten, die das belegen.
Dazu müsste man doch nur mal mit unterschiedlichen Taktraten des VRAM benchen.

Ohje, schau mal hier rein:

https://www.computerbase.de/artikel...essor.53486/seite-2#diagramm-xcom-2-1920-1080
https://www.computerbase.de/artikel...e-singularity-beta-2-1920-1080-extreme-preset (der hier diskutierte Benchmark^^)
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-960,4038-4.html

Man sieht schön, wie die GTX 960 bei speicherintensiven Spielen einbricht, was nun wirklich keine Überraschung sein sollte. Da u.a hochauflösende Texturen die BQ deutlich verbessern, aber gleichzeitig den Speicher ordentlich belasten kann man sich denken, was in Zukunft passiert: Es wird nur schlimmer.

Mensch jedes mal gibt es Leute die darauf pochen, dass die abgespeckte Hardware doch ausreicht und die Anforderungen schon nicht stark genug steigen werden, aber in der Realität wieder und wieder das selbe passiert: Solche abgespeckten Karten brechen gnadenlos ein und müssen trotz ausreichender GPU-Leistung ausgemustert werden.

UltraWurst schrieb:
Unterm Strich ist's aber eh wurscht.
Denn was zählt ist die Leistung, die hinten raus kommt.
Nehmen wir mal an, die Speicher-Brandbreite ist bei der GTX 960 tatsächlich ein Flaschenhals. Tja, dann ist sie aber immer noch schneller als die R9 380: https://www.computerbase.de/artikel...te-2#diagramm-rating-1920-1080-hohe-qualitaet

Genau dieser Durschnittsranking-Quatsch verfälscht den Eindruck enorm. Es gibt schon zich Spiele, bei denen das winzige SI einbricht und es wird immer mehr. Da hilft dann auch die verhältnismäßig gute Speicherausstattung von 4GB nicht mehr.

UltraWurst schrieb:
Und auch das ist Unfug. Denn diese Karten haben so hohe Reserven, daß man sehr weit übertakten kann, ohne die Spannung zu erhöhen.

http://www.tomshardware.de/geforce-gtx-960-overclocking-efficiency,testberichte-241729-3.html

Nur bringt das keinen Leistungsgewinn, ohne massiv an Takt und Spannung zu schrauben. Das wiederum ruiniert die Effizienz der GTX 960 mit absoluter Sicherheit.

EchoeZ schrieb:

Ich drücke mich genauer aus: Es bringt nicht so viel, wie es sollte. Mit der Zeit werden noch mehr fordernde Games erscheinen, welche das 128-Bit SI einfach immer öfter in die Knie zwingen. Was bringt denn viel Speicher, wenn dieser nicht ohne Verzögerungen gefüllt werden kann? ;)

EchoeZ schrieb:
DAS braucht Du MIR wirklich nicht erzählen. Das ist der häufigste Grund für mich zu posten, wenn der Mist über extreme Verbrauchsunterschiede anhand von haarsträubenden Hochrechnungen der Max und Average Leistungsaufnahme der Benches "bewiesen"werden..Ich glaub so manchen User geh ich schon damit auf den Sack :D

Ja genau, da wird immer von doppelter Effizienz etc. gequatscht, dabei verbraucht eine R9 380 beim zocken nur 50W mehr als eine handelsübliche GTX 960 mit Werks-OC. Wenn der Käufer dann noch mit der R9 380 aufschließen will, muss er soviel Spannung und Takt draufhauen, dass die Effizienz rasch flöten geht.
 
kachiri schrieb:
[...] Genau das ist doch der Punkt. Eigentlich, wenn man sich die Zahlen anschaut, kann und darf AMD es sich gar nicht leisten, auf Langlebigkeit zu setzen oder stark über den Preis zu kommen. Sie müssen Verkaufen - und damit auch möglichst Geld verdienen... Da kann es eben eher ein Nachteil sein, wenn Polaris dann doch nicht so stark gekauft wird, weil dank DX12 ja noch Karten aus 2011 anscheinend gut ausreichen...

Wenn ich so etwas schon wieder lese.. Seid ihr Kunden oder AMD-Anteilhaber? Was interessiert es mich, welche Wege AMD gehen muss um ihre Kunden die eigenen Produkte schneller wieder obsolet zu machen? Sieht doch nicht immer alles aus der Sicht des BWL-Ersties!

Ich als Kunde will genau das Gegenteil. Aktuell kann ich wählen zwischen nVidia und AMD. Während mir nVidia zu meinem Grafikkartenkauf ein kleines Häuflein namens "zweigeteilte Speicheranbindung, geringe Langlebigkeit aufgrund des zumeist wenigen VRams, schlechte DX12-Unterstützung (-> Langlebigkeit?), fehlender Support des Adaptive Sync-Standards sowie einen erschreckend nachlassenden Treibersupport für Vorgängergenerationen" vor die Tür setzt und desweiteren diverse andere Lügen und unschöne Dinge verbreitet besitzen Radeon-Käufer keins dieser Probleme, sie bekommen langfristig gesehen sogar besseren Support und haben einfach mehr Aussicht auf einen längerfristigen Betrieb ihrer Hardware.

Während ich mir als nVidia-Kunde aufgrund dieser Situation beim nächsten Kauf noch einmal stark überlegen würde, ob ich mir noch einmal potenzielle "Probleme" (eigentlich sind es bewusste Entscheidungen nVidias zum Nachteil ihrer Kunden) antun möchte, ist der Radeon-Käufer sehr zufrieden mit seinem Kauf und bleibt bei AMD. Diese Situation wäre übrigens auch für alle (selbst für den verklemmtesten Fanboy) wünschenswert, da man wie man sieht aus Konkurrenz als Kunde nur Vorteile zieht.
 
@Tyler654
Man sieht schön, wie die GTX 960 bei speicherintensiven Spielen einbricht, was nun wirklich keine Überraschung sein sollte. Da u.a hochauflösende Texturen die BQ deutlich verbessern, aber gleichzeitig den Speicher ordentlich belasten kann man sich denken, was in Zukunft passiert: Es wird nur schlimmer.
Wider erwarten kostet eine höhere Texturauflösung idr nur vernachlässigbar wenig Speicherbandbreite. . . .
 
Linmoum schrieb:
Gibt's denn einen Grund, warum der Treiber (obwohl Nvidia seit 6 Monaten von der Geschichte weiß) immer noch nicht erschienen ist?
Ich meine, Nvidia ist ansonsten mit ihren Treibern doch immer recht fix.

Keine Treiber... Bremsen für AMD! Das macht Nvidia! Dieses Studio ließ das aber nicht mit sich machen!
 
nVidia hat einen anderen technischen Ansatz gewählt, um Async-Shader zu realisieren, aber die Funktion ist grundsätzlich verfügbar und nutzbar. Insofern ist es wohl falsch, nVidia vorzuwerfen, sie hätten das Feature nicht implementiert. Auch handelt es sich dabei nicht um eine Software-Emulation des Features.

Allerdings ist davon auszugehen, dass Entwickler unter DX12 wohl für AMD und nVidia Hardware unterschiedliche Implementierungen berücksichtigen müssen. Die Benchmarks sind interessant, aber ohne echte Vergleichsmöglichkeiten und einen technischen Hintergrund wenig Aussagekräftig im Bezug auf künftige Entwicklungen.

Aber aktuelle Grafikkarten entwertet das keinesfalls, die werden ja nicht plötzlich langsamer, weil das erste DX12 Spiel vor dem Release steht. Wenn nVidia in Benchmarks dieses Spiels das nachsehen hat, dann ist das eben so. Solche Spiele gab und gibt es eben. Spielbare Frameraten sind wichtig, und dass man heute eine Grafikkarte hat, die einem zusagt.

Dass nVidia das Thema Async-Shader nur am Rande kommentiert mag vielleicht daran liegen, dass man herbe Kritik im Bezug auf die GTX 970 einstecken musste - diese Diskussion muss aber nicht wieder aufgewärmt werden. Wenn die ersten DX12 Spiele verfügbar sind, wird sich zeigen, wie sich nVidia Hardware unter DX12 verhält. Ein einzelner Benchmark mit einem speziellen Renderpfad hat nur beschränkte Aussagekraft, und in der Vergangenheit gab es immer wieder solche technischen Probleme, die - bei AMD und nVidia - mit speziellen Implementierungen zu lösen waren.

In diesem Benchmark brilliert AMD Hardware und kann unter DX12 deutlich mehr Leistung bieten, was aber im Umkehrschluss auch bedeutet, dass AMD Hardware unterdurchschnittlich unter DX11 arbeitet - worüber man sich als Käufer durchaus ärgern darf, wo doch aktuelle Titel noch mit DX11 zurechtkommen müssen. Wenn man will, kann man beide Seiten schlechtreden wie man's gerade braucht. Aus meiner Sicht wird noch einige Zeit vergehen bis DX12 der "Standard" ist, und nVidia wird bis dahin auch passende Treiber und/oder Hardware anbieten - und wir werden ein anderes Thema dieser Art haben, um uns die Zeit zu vertreiben.

Falls wer weiterlesen mag (Google hilft da aber auch weiter):
https://www.reddit.com/r/nvidia/comments/3j5e9b/analysis_async_compute_is_it_true_nvidia_cant_do/
http://www.extremetech.com/extreme/...ading-amd-nvidia-and-dx12-what-we-know-so-far
http://www.guru3d.com/news-story/nvidia-will-fully-implement-async-compute-via-driver-support.html
http://www.dsogaming.com/news/nvidi...nc-compute-via-driver-support-oxide-confirms/
http://www.extremetech.com/gaming/2...ashes-of-the-singularity-directx-12-benchmark

Anmerkung: Sind Async-Shaders denn im nVidia Treiber bereits aktiviert? Mir scheint, dass das nicht der Fall ist, wenn ich so quer durch die Artikel zum Thema lese. Das schmälert natürlich nicht die Performance von AMD Grafikkarten, macht aber einen Vergleich mit der Konkurrenz vorerst sinnlos.
 
Zuletzt bearbeitet: (Links, Anmerkung)
Also ich war mit AMD immer zufrieden...
X850pro, wenn ich mich richtig erinnere!
X1900 war auch top, ist bei der Schwiegermutter im Einsatz...
HD5870 nutze ich noch immer! Unter 300 Euro für eine Highend-Karte! WarThunder ging gut!
380x momentan (bissl über 200,-)
Ich denke zumindest mit den letzten 3 Amd Karten immer gut bedient gewesen zu sein, vor allem P-L technisch!
 
Nai schrieb:
Sowohl NVIDIA als auch AMD erlauben ja nur direkte Kopiervorgänge von GPU zu GPU auf professionellen Karten wie Quadros oder Firepros. Radeons und Geforces sind in dieser Hinsicht ja verkrüppelt und verwenden bei solchen Kopiervorgängen einen CPU Roundtrip. Es wäre schon zu sehen, wenn diese künstliche Limitierung fällt.

Ich lese hier mehrfach DMA Engine, VRAM liegt IMHO im Adreßbereich der Host-CPU, zwar nicht voll kohärent aber für PCI-Busmaster erreichbar. Die uralten BT8* Chips die in den TV-Karten vor 10-15 Jahren verbaut waren haben davon regen Gebrauch gemacht.

Fehlen da API Calls?
 
BookerDeWitt schrieb:
Während ich mir als nVidia-Kunde aufgrund dieser Situation beim nächsten Kauf noch einmal stark überlegen würde, ob ich mir noch einmal potenzielle "Probleme" (eigentlich sind es bewusste Entscheidungen nVidias zum Nachteil ihrer Kunden) antun möchte, ist der Radeon-Käufer sehr zufrieden mit seinem Kauf und bleibt bei AMD. Diese Situation wäre übrigens auch für alle (selbst für den verklemmtesten Fanboy) wünschenswert, da man wie man sieht aus Konkurrenz als Kunde nur Vorteile zieht.

richtig, oder mich juckt das alles einfach nicht und ich kaufe nach Balkenlänge der letzten Top Spiele die mich interessieren ;)
Ergänzung ()

Winterday schrieb:
In diesem Benchmark brilliert AMD Hardware und kann unter DX12 deutlich mehr Leistung bieten, was aber im Umkehrschluss auch bedeutet, dass AMD Hardware unterdurchschnittlich unter DX11 arbeitet - worüber man sich als Käufer durchaus ärgern darf, wo doch aktuelle Titel noch mit DX11 zurechtkommen müssen. Wenn man will, kann man beide Seiten schlechtreden wie man's gerade braucht. Aus meiner Sicht wird noch einige Zeit vergehen bis DX12 der "Standard" ist, und nVidia wird bis dahin auch passende Treiber und/der Hardware anbieten - und wir werden ein anderes Thema dieser Art haben, um uns die Zeit zu vertreiben.

sehr schöne Zusammenfassung. Danke dafür.
 
Winterday schrieb:
nVidia hat einen anderen technischen Ansatz gewählt, um Async-Shader zu realisieren, aber die Funktion ist grundsätzlich verfügbar und nutzbar. Insofern ist es wohl falsch, nVidia vorzuwerfen, sie hätten das Feature nicht implementiert. Auch handelt es sich dabei nicht um eine Software-Emulation des Features.

Ähm doch. Genau das ist das Problem. Sie können es eben nicht in Hardware. Oder wo hast du deine Quellen her? Wie realisieren die das denn?
 
Nai schrieb:
@Tyler654

Wider erwarten kostet eine höhere Texturauflösung idr nur vernachlässigbar wenig Speicherbandbreite. . . .

Bitte?

Die Texturen und deren Auflösung (aber auch andere Faktoren) sind einer der größten Speicherfresser, neben der Umgebungsverdeckung, Vertex-Shader (Schatten, Spiegelungen), Geometriedaten (Polygone) usw.
 
Nai schrieb:
@ Necareor

Verlustbehaftete Texturkompression spart Speicherplatz ist aber in ihrer Funktionsweise von DX, OGL und Vulkan vorgeschrieben dh überall gleich.
Verlustfreie Texturkompression spart keinen Speicherplatz, kann dafür aber beliebig von den GPUs implementiert werden.

Kompression spart keinen Speicherplatz? Da ist wohl die Formulierung etwas durcheinander gekommen.
 
Zurück
Oben