• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Project Cars: Grafikkarten, Prozessoren und Kantenglättung im Vergleich

Ice-Lord schrieb:
@Mercsen
@Jeppo

Weil die Konsolen von der Hardware recht ähnlich sind
Softwaretechnisch aber komplett anders aufgebaut sind.

Was die AMD Karten auf dem PC killt ist die DX11 API

Wie im Artikel schon beschrieben ist das eigentlich kein Treiber
Problem sondern das Spiel ignoriert komplett sämtliche Limitierungen
der API.

Genau so wie nVidia bei ihren Treibern die Vorgaben der API ignoriert.

EDIT:

Alles in allem ist das wirklich unglaublich.

Ich bin mittlerweile wirklich so weit keine nVidia Hardware mehr zu kaufen
da ich die Firma einfach widerlich finde.

Da wird gelogen betrogen Wahrheiten verbogen und einfach alles getan
um die Konkurrenz in den Dreck zu ziehen.
Dazu noch wie man z.B in diesen Kommentaren sieht mit einer unglaublichen
Wirkung.
Hier werden derartig schwachsinnige Behauptungen aufgestellt, und mit einer
Inbrunst verteidigt, einfach nicht zu glauben.

AMD hat in letzter Zeit wirklich unglaublich viel im Bereich Gaming
vorangetrieben, während nVidia wie immer nur an Selbstdarstellung gearbeitet hat.

Ohne Mantle gäbe es z.B heute kein DX12, zumindest nicht in dieser Form.

Diese ganzen verschandelten Spiele werden einfach auch nicht gekauft.
Wie AssAss>U oder W_D.

Ich wünschte wirklich manche Leute würden sich mehr für die Hintergründe
interessieren anstatt einfach jeden WerbeSlogan als das Wort Gottes
hin zu nehmen.

Noch ein Nachtrag:

Wenn die diesen Scheiß bei Witcher 3 abziehen
verklage ich ohne scheiß beide!
nVidia und CD Projekt!

Wenn durch diesen Irrsinn ein so geniales Spiel auf meinem PC unspielbar
wird nur weil nVidia mal wieder Selbstdarstellungskomplexe hat
platzt mir der Kragen!

Wie hat der Dev von CD-Project noch schnell gesagt
als er zu Details des Physix System gefragt wurde?
"Das hat nVidia noch nicht entschieden...."

Bei solchen Aussagen könnte ich wirklich kotzen!


Man ich gebe dir da zu 100% recht, Nvidia ist ein Kackhaufen . aber wenn man sich sicher sein möchte das etwas läuft muss man sich mit Nvidia anfreunden, oder sich rumärgern.


Was die S. Mad Studios betrifft , sowas geht gar nicht mit Nvidia zusammenarbeiten , und AMD Nutzer und damit Kunden einen mit der Flachen Hand ins Gesicht zu geben, denn die wussten um die Probleme im Bereich der Leistung von AMD Karten ,und um die Probleme die durch diese Game Works Arbeit von Nvidia und den S.Mad Studios überhaupt erst entstanden, oder noch Verstärkt wurden.
 
cunhell schrieb:
Erst nach einigem Suchen fand ich im Netz des Rätsels Lösung: man musste erst eine ini-Datei editieren, damit PhysX im Konfigurationsmenü sichtbar wurde und man es abschalten konnte. Vorher war der Menüpunkt einfach nicht vorhanden und PhysX, wegen der AMD GPU natürlich auf der CPU, aktiv.

Das das Spiel von einem Nvidia-Logo verziert wurde muss man wohl nicht weiters erwähnen. :rolleyes:

Mich würde nicht wundern, wenn bei "Nvidia"-Games mehr solche "Hidden Features" vorhanden wären.

Ich glaube auch, dass es am nicht deaktivierbarem PhysX liegt, weil die CPU schon ordentlich beansprucht wird.
Sollte man vielleicht noch nachreichen. Und genau da ist Nvidia/der Entwickler schuld. An dem Punkt kann man AMD nämlich nichts vorwerfen.
Dafür fehlt aber trotzdem noch der passende Treiber um nochmal ein Stück mehr Leistung rauszuholen. Ich hoffe das reicht AMD schnell mal nach. Würde mich nicht wundern, wenns am Knebelvertrag von Nvidia liegt, dass der Treiber erst nach dem Release veröffentlicht wird, aber das sag ich mal nicht zu laut.

Interessant ist übrigens auch wie langsam ne 780/780Ti ist, obwohl die Rohleistung für ein ähnliches Ergebnis zu 970/980 sorgen sollte.
Aber da will Nvidia einfach weiterhin die ziemlich günstigere Grafikkarten für verdammt viel Geld und damit sehr hohe Margen (970/980) verkaufen, da kann man es sich sogar leisten die eigenen älteren Karten nicht mehr zu optimieren und das nach so kurzer Zeit. Ich sag ja nicht, dass Fermi noch optimiert werden sollte, aber Kepler ist bestimmt nicht schon so alt um die Karten links liegen zu lassen...
 
Jesterfox schrieb:
Sollte tatsächlich PhysX schuld sein würde kein Treiber helfen, sondern nur ein Patch der die PhysX-Effekte deaktiviert.

Ansonsten kann es natürlich auch sein das AMD erst mal auf die Final gewartet hat, nicht das NV noch "gegenoptimiert" und sie die Arbeit nochmal machen müssen...

PhysX läuft auf der CPU, das zustecken einer weiteren Karte hat nichts verändert. PCGH hats getestet. Es ist kein GPU-PhysX.
 
Endlich, nach jahrelangem Warten, Installation läuft noch.
 
Na toll, gestern gekauft, heute mittag runtergeladen und jetzt lese ich den Test hier. Ja, ich habe einen 290x + fx 8350 :mad:
 
Pascal67 schrieb:
aber wenn man sich sicher sein möchte das etwas läuft muss man sich mit Nvidia anfreunden, oder sich rumärgern.

Das ist Blödsinn. Es gibt auch genügend Spiele in denen es mit NVidia Karten Probleme gibt oder gab, während mit AMD Karten alles glatt läuft.
Dass man mit NVidia nie Probleme hätte, ist ein unsinniger Mythos, der nicht wahrer wird, nur weil er immer wieder propagiert wird.
 
nickless_86 schrieb:
Wenn ich sowas lese kommt mir echt fast die Galle hoch... Das Spiel ist ein NVIDIA Gameworks Titel!

Na und? trotzdem hat AMD hier offensichtlich geschlafen. Dann müsste ja Witcher 3 zukünftig auch beschissen auf AMD laufen wenn alles an Gameworks liegt. Immer dieses ewige suchen nach Entschuldigungen...
 
Zuletzt bearbeitet:
Shinigami1 schrieb:
Na und? trotzdem hat AMD hier offensichtlich geschlafen. Dann müsste ja Witcher 3 zukünftig auch beschissen auf AMD laufen wenn alles an Gameworks liegt. Immer dieses ewige suchen nach Entschuldigungen...

Slightly Mad hat das Spiel ganz offensichtlich auf AMD Karten absichtlich gedrosselt (und wurde vermutlich von NVidia dafür bezahlt). Aber klar, das ist natürlich AMDs Schuld ...
 
Sinnfrei schrieb:
Slightly Mad hat das Spiel ganz offensichtlich auf AMD Karten absichtlich gedrosselt (und wurde vermutlich von NVidia dafür bezahlt). Aber klar, das ist natürlich AMDs Schuld ...

Jetzt ergibt dein Name auch einen Sinn
 
Ist denn irgendwas über die API der Linux-Version bekannt? DirectX wird es ja nicht sein, dann bleibt nur noch OpenGL. Bin gespannt, ob dort die gleichen Optimierungsprobleme auftreten, oder ob das ausschließlich bei DirectX der Fall ist.
 
Endlich morgen wird eingekauft :cool_alt:
 
DocWindows schrieb:
Rein intuitiv würde ich sagen, dass der Spieleentwickler sich nicht darum kümmern müssen sollte welche Grafikkarte etwas rendert. Er sollte sich an DirectX halten und der Grafikkartenhersteller sollte sich darum kümmern dass DX auf seiner Hardware ordentlich performt. Denn genau dafür ist DirectX gedacht: Die Grafikhardware für den Spieleentwickler zu abstrahieren.

Und genau das hat der Hersteller nicht getan, indem er bewusst die Anzahl der Drawcalls über das von DX11 übliche Niveau gehoben hat, was jetzt NVidia zugute kommt, die das ganze Problem irgendwie im Treiber umschiffen. DX11 Konform dürfte dies allerdings nicht sein, wodurch wieder der Hersteller in die Verantwortung genommen werden muss.
 
Im Video sind das 20 bis 40(!!) fps unterschied, wtf :freak:
 
Unterm Strich ist es doch völlig egal warum das Spiel auf Nvidia Karten besser läuft.

Nvidia hat einfach bessere Arbeit geleistet, es sei dahin gestellt ob durch besseren Treibersupport oder durch "schmieren" der Entwickler.
Wir leben nicht im Lila-Laune-Land, so läuft halt das Geschäft und das hat Nvidia einfach besser drauf. Deshalb bin ich vor 2 Jahren komplett von AMD auf Nvidia umgestiegen.


so viel zum Thema fairer Wettbewerb...

btw so Bombe sieht das Game jetzt auch nicht aus das sie so lange dran geschraubt haben und mit der Hardware nicht viel gebacken bekommen man nehme EA, ja diese Pfeiffen haben es bei BF3 damals gut geschafft mit der vorhandenen Hardware ne Grafikpracht zu schaffen für die Zeit.
 
DX11-konform? DX11 spezifiert keine Draw-Call Anzahl. Ein Entwickler kann soviel verwenden, wie er will.
Mal davon abgesehen, hier ist CIV:Beyond Earth im DX-Vergleich zwischen AMD und nVidia:
http://pclab.pl/art57717-8.html

Oh, ohne Mantle performt AMD ebenfalls grottig. Aber da war es in Ordnung. Hier war wohl die angebliche vorhandene DX11-Konformität egal. :lol:


Und hier mal ein paar Aussagen von den Entwickeln: http://steamcommunity.com/app/234630/discussions/0/613957600528900678/
Oh, AMD hatte kein Bock auf Optimierungen für pCars. Aber hey, AMD ist niemals Schuld.
 
Gerade das Spiel getestet (Fx 8350, 290x, 16gb ram). Auf full hd zwischen 30 und 34 fps und alles auf ultra gestellt plus msaa an. Zweiter Versuch, alles auf hoch und msaa aus. Ergebnis: 30 - 32 fps.... WTF
 
zeedy schrieb:
Und dass man gewisse "Optimierungen" für AMD Karten vorgenommen hat, kommt dir nicht in den Sinn oder? Dass wir die selbe Kacke mit allen Gameworks haben, blendest du wohl irgendwie aus. Watch Dogs, Lords of the fallen, FC4 am Release, Assassins Creed, generell alle Ubosoft Spiele, Dying Light, Project cars nur in diesen Spielen macht AMD also einen miserablen Job bei der Treiberoptimierung, was? Diese faulen Säcke. Ich mein warum sollte man für AAA Spiele wie FC4 oder ACU überhaupt Treiber optimieren wollen? :rolleyes:

deswegen war es als Frage formuliert :rolleyes: . Nvidia Programmiert bestimmt nicht "If "AMD" dann Auslastung max 70%" in den Code.
Jetzt muss man wohl noch neben VRam Verbrauch, Taktraten, Stromverbrauch und Frametimes wohl noch die GPU Auslastung mit reinnehmen um zu sehen wie gut das Game überhaupt die GPU auslastet.

Ich würde nicht soweit gehen um Nvidia und dem Publisher zu unterstellen dass sie AMD GPUs gezielt schlechter dastehen lassen, zumal der Spieleentwickler genau 0 davon hat. Mir scheint es eher so, als wäre Gameworks generell zunehmend auf Maxwell getrimmt worden - was für sich ja legitim ist. Damit bremst man offensichtlich sogar die eigenen alten Karten aus. Viele her ist es ein (äußerst unschöner) Nebeneffekt einer zunehmenden Gameworks/Hardware Optimierung.

Wundern tut mich die Aussage des Entwicklers die Exe in 3DMark.exe umzubenennen. Spätestens bei dieser Mehrleistung kann es dann nicht mehr an Gameworks liegen sondern wirklich an fehlender Treiber-Optimierung genau für das Spiel. Zumindest sind ja wohl über 30 Sekunden Arbeit 20% mehr drin.

Die Engine ist ja nach wie vor DX11. Im Prinzip kann Nvidia ja nur auf selbe Techniken zurückgreifen wie AMD und wenn man als Nvidia AMD ausbremsen will, muss man genau die Stellen finden, bei denen es AMD weg tut, ergo die langsamsten DX11 API Funktionen oder? Diese müssen wiederum auf eigenen Karten schnell ausgegeben werden können. Stell ich mir unnötig kompliziert vor hier absichtlich Hürden einzubauen. Es ist immer dasselbe, optimiere ich den Code auf eine Hardware, wirds bei der anderen Seite meist schlechter. Vollkommen normal. Eine AMD Techdemo dürfte Nvidia auch nicht sonderlich liegen. Dass das jetzt natürlich in diesem Umfang zu Tragen kommt ist nicht gut.

Edit: Klar kann man wieder mal viele Verschwörungstheorien aufstellen, Nvidia zahlt bla bla usw.... - selbst wenn, AMD kann genauso zahlen. Zahlen kann schon heißen "Hardware zur Verfügung stellen" oder aber "Hardware + fertige Gameworks Snippets" um die Entwicklung zu beschleunigen. Beides für sich absolut legal und AMD kann selbiges genauso tun.

Das ist alles eine Frage des Marktanteils. Je mehr "Underdog" AMD wird, je weniger Anteil, umso eher erlaubt es sich auch ein Publisher diese Randgruppe zu ignorieren, spart sich die Optimierung. Ein Teufelskreis den ich genauso scheiße finde. Man kann es halt nicht direkt verbieten. Zumindest wüsste ich nicht mit welcher Grundlage.
 
Zuletzt bearbeitet:
kenne auch genug Games die am Anfang ne Katatrophe bei Nvidia waren

Beisoiel BF2 damals
Lief fast ein halbes Jahr unter aller Sau auf Nvidias
 
Zurück
Oben