• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test F1 2017: 4 GB Grafikspeicher erlauben Raserei mit hohen Details

Helios_ocaholic schrieb:
Weil dies ein Technikforum ist und wir nicht bei "Verstehen Sie Spass?" sind.

Und was bringen dir Benchmarkwerte, wenn davon bei Applikationen nichts zu spüren ist? Das macht genauso viel Sinn wie ein AIDA Speicherbenchmark. Von dem doppelten Speicherdurchsatz auf dem Papier, bleiben oft 10% bei Anwendungsleistung übrig.

Es hat schon seinen Sinn, dass Computerbase auf künstliche Benchmarks größtenteils verzichtet.
 
@ chismon

nicht nur das du nvidia eines verbrechens beschuldigst (bestechung), du tust so als ob deine aus der luft gegriffenen (aka: unbewiesen) unterstellungen fakt sind.

und dann regst du dich furchtbar über das von dir erfundene verbrechen auf.

schalt mal nen gang runter, oder zwei. wird deinem herz gut tuen ;-)

p.s.: gabs da für frei erfundene "fakten" seit trump nicht einen griffigen begriff? ;-)
 
tomasvittek schrieb:
... regst du dich furchtbar über das von dir erfundene verbrechen auf. schalt mal nen gang runter, oder zwei. wird deinem herz gut tuen ;-)

Erfunden habe ich diese mitnichten, wie im bereits vorher zitierten, mittlerweile leicht angestaubten Ars Technica Artikel nach zu lesen ;) ...

... asked AMD's chief gaming scientist Richard Huddy, a vocal critic of Nvidia's GameWorks technology, about AMD's involvement with CD Projekt Red."We've been working with CD Projeckt Red from the beginning," said Huddy. "We've been giving them detailed feedback all the way through. Around two months before release, or thereabouts, the GameWorks code arrived with HairWorks, and it completely sabotaged our performance as far as we're concerned. We were running well before that... it's wrecked our performance, almost as if it was put in to achieve that goal."

... sondern nur noch einmal längst vergessenes/verdrängtes zurück ins Bewusstsein gerufen aus aktuellem Anlass (des Tests zum F1 2017 nVidia GameWorks Spiel) ... die "politisch korrekte Fake News-/Trump-Keule" musst Du Dir dann wohl leider für jmd. anderen aufheben und kannst diese wieder einpacken ;).
 
Zuletzt bearbeitet:
Interessante CPU Benchmarks.

Also der 8700k wird der Sweetspot, das wird ähnlich wie in F1 wohl in 90% der Spielen sein.

Interessant ist, dass die neuen Architekturen so viel rohe Power haben, die von Games gänzlich ignoriert wird.

Sky Lake X, zB der 7820x mit seinen hoch taktenden Kernen musste hinter dem 7900x auf Platz 2 landen.
In 8core Games wäre dann Ryzen 7/TR direkt dahinter.

Aber in der Realität ists halt noch der 4 Kerner mit hohem Takt und Ringbus.

Der 7820x oder 7800x @4.7ghz was die CPUs ja oft zulassen wären Traumcpus nur die Games sind eben alle noch auf Sandy Bridge getrimmt ^^

So wirds halt der 8700k und bleibt n Weilchen oben..
 
Chismon schrieb:
Erfunden habe ich diese mitnichten, wie im bereits vorher zitierten, mittlerweile leicht angestaubten Ars Technica Artikel nach zu lesen ;) ...
Jupp, wenn AMD sowas über Nvidia sagt (sic), muss es ja stimmen....

Junge, es ist besser wenn du aufhörst zu posten, bevor du dich noch lächerlicher machst.
 
Zuletzt bearbeitet:
Hat jemand Ansel zum Laufen gebracht? Bei mir steht immer, dass Ansel nicht zur Verfügung steht. Egal wo ich mich gerade aufhalte, selbst im Fotomodus von Codemasters.
Zudem hätte dem Spiel ein vernünftiges AA gut getan, im Sinne von MSAA. TAA ist absolut unbrauchbar, selbst bei WQHD sehe ich abartige Unschärfe.

jk1895 schrieb:
Warum hat das Spiel keine VR-Unterstützung? Was soll der Mist? Warum ist der Hersteller nur so kurzsichtig? Wer kauft heute noch eine Simulation ohne VR-Unterstützung? :freak:

Simulation? :D Das ist eher eine Arcade-Sim und hat nur Minimal etwas mit der Realität zu tun.
 
Zuletzt bearbeitet:
gtx 970 keine 10% hinter 1060. Schön, dass sie Maxwell nicht so brachliegen lassen wie Kepler Karten. Bisher noch.
 
lies mal im duden nach was ein "beweis" ist und was in deinem artikel "bewiesen" ist... leider nix.
 
Danke Wolfgang für das Nachreichen des CPU-Tests.

Bei F1 2015 dominierte noch der 10-Kerner und bei F1 2017 liegt der 4-Kerner plötzlich wieder in Front. Was hat sich Codemasters nur dabei gedacht, wo der Trend doch eher zu immer mehr Kernen geht?
Naja, wahrscheinlich dachten sie bei der Entwicklung an die breite Masse, dass es halt bei so vielen wie möglich gut läuft.
 
Warum werden solche Test´s nicht mal auf nem "alten" PC gemacht ? Nicht jeder kauft sich immer die neuseste Hardware, will aber trotzdem die neuesten Spiele in "Full" spielen. Wundert sich aber warum es ruckelt... Trotzallem ein guter Beitrag...
 
meckswell schrieb:
Bei F1 2015 dominierte noch der 10-Kerner und bei F1 2017 liegt der 4-Kerner plötzlich wieder in Front.

Bei F1 2015 hat Intel mir Codemasters zusammengearbeitet und daraus eine "Demo" für Hochleistungs-PCs gemacht. Viele Effekte und Berechnungen wurden auf die CPU verlagert.

Leider ist der Originalartikel auf der Intel Seite nicht mehr verfügbar. Hier die Patchnotes dazu.

High End PC Enhancements
◦New CPU-driven particle effects to improve visual quality on systems with high-end CPUs. Select “high” or “ultra” particle effects from the options menu.
◦Increased audio voice counts for systems with high-end CPUs. Select the “high” audio quality setting from the option menu.
◦Improved CPU performance for users with 6 and 8+ cores.
◦Improved CPU performance for Intel CPUs with Hyper-Threading Technology.
◦Optimized performance for Intel integrated graphics chips.

Als Demonstration war das zwar anscheinend gut geeignet, nach dem aktuellen Stand ist aber der Markt vermutlich zu klein, als das sich der Aufwand lohnen würde.
 
Chismon schrieb:
Erfunden habe ich diese mitnichten, wie im bereits vorher zitierten, mittlerweile leicht angestaubten Ars Technica Artikel nach zu lesen

Hättest du den Artikel komplett gelesen, hättest du bemerkt dass du dir mit Zitaten daraus eher ein Eigentor schießt. Das zeigt auch das Fazit des Schreibers, welches ich jetzt mal zitiere:

While it's sometimes easy to sympathise with the underdog, at this point we need to see some real innovation from AMD, rather than just bluster over allegedly dodgy business practices from the competition
 
GrazerOne schrieb:
Warum werden solche Test´s nicht mal auf nem "alten" PC gemacht ? Nicht jeder kauft sich immer die neuseste Hardware, will aber trotzdem die neuesten Spiele in "Full" spielen. Wundert sich aber warum es ruckelt... Trotzallem ein guter Beitrag...

Das verstehe ich nicht. Jeder normal denkende Mensch muss doch wissen das neue Spiele auf einer alten Möhre nicht mit maximalen Details laufen können.
 
paunaro schrieb:
Jupp, wenn AMD sowas über Nvidia sagt (sic), muss es ja stimmen....

Junge, es ist besser wenn du aufhörst zu posten, bevor du dich noch lächerlicher machst.

fanboybrille absetzen und anschauen:

http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Grafikkarten-Benchmarks-1159196/


gtx 970

ohne hairworks: 45 fps avg.
mit hairworks: 36 fps avg.

delta: -22%


r9 290x

ohne hairworks: 44 fps avg.
mit hairworks: 28 fps avg.

delta: -60%


https://www.techspot.com/review/1006-the-witcher-3-benchmarks/page6.html

tressFX frisst auf nvidia und amd komischerweise gleich viel leistung? hexerei?

was schließen wir daraus? bin mal gespannt.
 
Zuletzt bearbeitet:
DocWindows schrieb:
... Artikel komplett gelesen, hättest du bemerkt dass du dir mit Zitaten daraus eher ein Eigentor schießt. Das zeigt auch das Fazit des Schreibers, welches ich jetzt mal zitiere:

Habe ich, nur ziehe ich anhand der dort angeführten Kommentare und bzgl. der urplötzlichen Umkehr des Leistungsvorteil durch GameWorks bei F1 2017 gegenüber dem Vorgängers ein anderes Fazit als der Autor, so gesehen sehe ich da kein Eigentor, denn es passt immer noch zu den auffälligen Test-/Benchmarkergebnissen ;).

Es steht aber jedem frei die Meinung nicht zu teilen bzw. zu einem anderen Schluss zu kommen ...

Beweisen wird man es nicht können, wegen des von nVidia unter Verschluß gehaltenen Codes, aber das schrieb ich ja schon vorher und selbst wenn man dort diesen offenlegen und nicht weiter verbergen würde, wäre nVidia bestimmt nicht so dumm diesen nicht nachträglich so zu verändern, dass man ihnen im nachhinein daraus keinen Strick drehen könnte.

Die sind eben mit allen Wassern gewaschen, aber das dürfte ja nichts neues sein für diejenigen, die diesem Unternehmen spätestens seit dem GTX 970/Maxwell Skandal (der auch erst einige Zeit später aufgedeckt wurde und nicht sofort zum Marktstart) kritisch gegenüberstehen und nicht alles für bare Münze nehmen.
 
Zuletzt bearbeitet:
duskstalker schrieb:
was schließen wir daraus? bin mal gespannt.

Das Nvidia die eigene API auf die eigene Hardware optimiert? Ist nicht der Zweck einer herstellereigenen API, gut optimierte und aussehende Effekte zu ermöglichen, ohne diese Arbeit auf die Entwickler der Drittanbietersoftware abzuwälzen?

Anders als AMD setzt NVIDIA zur Berechnung und Darstellung der Haare stark auf die mit DirectX 11 eingeführte Tesselation, in der NVIDIA-Chips traditionell etwas schneller sind als die AMD-Pendants. Trotzdem ist die Technologie, wie einige weitere GameWorks-Effekte, von beiden Chipherstellern nutzbar und öffnete so erst Tür und Tor zu einer breiteren Verfügbarkeit. Zur allgemeinen Berechnung setzt NVIDIA auch nicht auf eine offene Schnittstelle wie OpenCL oder DirectCompute, sondern auf PhysX, welches bei AMD- und Intel-Grafikeinheiten auf der CPU berechnet werden muss. Lediglich Grafikkarten mit NVIDIA-Chips berechnen PhysX auf der GPU
https://www.hardwareluxx.de/index.p...-schoen-tressfx-vs-purehair-vs-hairworks.html
 
Zuletzt bearbeitet:
duskstalker schrieb:
fanboybrille absetzen und anschauen:

gtx 970

ohne hairworks: 45 fps avg.
mit hairworks: 36 fps avg.

delta: -22%


r9 290x

ohne hairworks: 44 fps avg.
mit hairworks: 28 fps avg.

delta: -60%

was schließen wir daraus? bin mal gespannt.

Du wirfst hier also ernsthaft NVidia vor, dass deren eigene API auf dessen eigenen Produkten besser läuft als bei der Konkurrenz?
NVidia hat auch nicht dafür zu sorgen das AMD-Grakas mit GameWorks-Effekten genauso gut Performen müssen wie die eigenen Grakas.

AMD kann genauso gut eine eigene API entwickeln, die schlechter bei NVidia performt. Wollen die nicht? Dann muß man damit leben.
 
Zuletzt bearbeitet:
Zurück
Oben