News GeForce 387.92: Nvidia löst Bremse an Pascal in Forza Motorsport 7

Nvidia wird eben mit der Zeit immer besser, während AMD die Leistung so behält wie man sie kauft!

:evillol:
 
lol, ich musste dezent schmunzeln. :lol:

-> mehr Leistung immer gut, egal ob AMD / Nvidia.

Ne aber ernsthaft. Vega wird im Schnitt meh zulegen, da bin ich mir recht sicher. Allerdings war ich mir da auch bei Fiji sicher - aber wer weiß wie schnell die teils gegen eine GTX 980 TI wäre wenn da die 4 GB nicht wären.
 
Iscaran schrieb:
Umso erstaunlicher wie der 7970 rebrand R9 280X nun schon mit der GTX 780 konkurriert anstatt mit der 680/770 - die sind schon um längen abgehängt.

7970 konkurierte preislich die längste Zeit mit der GtX670. Und nicht mit GTX680 oder GTX780. Sind also 2 Preisklassen mehr, aber das reicht vielen ja noch nicht...
 
SKu schrieb:
Nutzt Forza nicht das DX11 Featureset trotz DX12 ab Werk? Also was für DX12-Funktionen sollen da ignoriert werden?

Der Unterschied wenn ich eine DX12 Applikation in DX12 API schreibe und diese dann auf FeatureLevel 11 limitiere ist, ich kann dennoch von den besseren API funktionien wie z.B. der command list und mehreren command list queues nutzen machen (für bessere Parallelisierbarkeit z.B.).
Innerhalb dieser command lists kann man nun einfach auf FL_11 zurückgreifen...dennoch läuft der ganzen Kram eben wesentlich besser "parallelisiert" als mit DX11 API.

In der DX11 API gibt es nur 1 Haupt-Renderthread an den man noch einen als "appendix" anhängen kann.

Forza nutzt also in "hardware" nur DX11 Features - setzt aber dennoch auf die modernere DX12 API zum verwalten/Befehl verteilen.
Ergänzung ()

G3cko schrieb:
7970 konkurierte preislich die längste Zeit mit der GtX670. Und nicht mit GTX680 oder GTX780. Sind also 2 Preisklassen mehr, aber das reicht vielen ja noch nicht...

Ich behaupte ja auch nichts gegenteiliges :-). Ich stelle nur fest eine 7970 (alias 280X kämpft nicht mit einer GTX 680 oder 770 sondern mit einer 780 und schlägt diese auch noch. Obwohl DAMALS zu Releasezeit die 780 noch gute 30% oder mehr vorne lag.

Ganz ähnlich ist es mit den CPUs gegangen....gegen Sandybridge lagen die FX und selbst die Refresh FX massiv zurück. In SingleCore Leistung tun sie das ja immer noch. Aber weil heutzutage eben viel besser "parallelisiert" programmiert wird sind meine 6-Kerne @FX-6300 immer noch gut genug wo der 4Kerner 2500 Sandy heute schon abstinkt.

Ich hatte eigentlich vor mit Ryzen meinen FX-6300 in Rente zu schicken - weil vor 1 Jahr man ab und an CPU-Limits sah...doch mit jedem Monat den ich warte merke ich dass sich das CPU-Limit wie von "zauberhand" immer wieder auflöst weil die Software endlich anfängt zu lernen wie man mehr als 2 Threads nutzt !
 
gut, dabei aber auch nicht vergessen das GCN damals gaaaanz am Anfang war (viel Optimierungsspielraum bot) und auch was Rohleistung angeht deutlich vorn lag. Die Tahiti war vom Chip her auch für damalige Verhältnisse ein Monster. Vergleichen zur GTX 680 ebenso.
Ähnlich wie Vega 56 zu GP104 heute.

Ich mein... wundern würde mich es nicht wenn Vega 56 die GTX 1080 in (5?) Jahren um 20-30% schlägt, müsste sie ja auch von den Daten her. Die Frage ist ob jemand der damals ne Top End Karte kauft diese wirklich 5 Jahre einsetzt? Gerade da ist doch die Spielerklasse die immer das neuste braucht ^^

Edit: Auch da passt die Diskussion mancher an vielen Stellen nicht zusammen. Man sagt sich zb "pfui Intel, Sockel nach 2 Gen out" und "yey, AM4 kann ich noch in 2 Jahren nen Zen 2 draufpappen" - aber jeder weiß dass das weit weniger bringen wird als nen GPU Upgrade, da hier die Leistung schon fast linear mit Fertigung steigt.

Ich denke wer heut einen Ryzen 1600 oder nen 6 Kern Intel hat und auf Zocken aus ist, der ist besser bedient sich diese 5 Jahre zu behalten und 2 mal die GPU aufzurüsten als andersrum.

Möglichkeiten sind immer gut, hätte auch gern nen 14nm 18C jetzt auf meiner X99 Plattfrom. Aber angesichts von GPU und CPU Aufrüstvorgängen über den Zeitraum von zb 5 Jahren ist die Plattform (Mainboard) oft günstiger als selbst den Ram denn ich dann brauch. Bis ich dazu genötigt bin mein 5820k abzulösen werd ich wohl die 3. GPU drin haben und würde eh n neues Board brauchen. Aber gut, das macht wohl jeder für sich aus ;)
 
Zuletzt bearbeitet:
tidus1979 schrieb:
Nvidia wird eben mit der Zeit immer besser, während AMD die Leistung so behält wie man sie kauft!

:evillol:

Genau das war auch meine Beobachtung mit den Radeons. Man steckt fest mit der Leistung und den Bugs zum Kaufzeitpunkt, während Nvidia auch nachträglich immer wieder was rauskitzelt und nachbessert.
 
GrooveXT schrieb:
Das war mir schon klar, deswegen habe ich auch überspitzt drauf hingewiesen. AMD verkauft über Jahre hinweg alten Wein in neuen Schläuchen.

Das Rebrand Spielchen hat nvidia mindestens genau so gut drauf. Schau dir einfach mal die Geschichte von deren Produktpalette an und du wirst ebenfalls auf diverse Rebrands stoßen. Beide hatten ganze Rebrand Serien und bei beiden zogen sich Rebrands bis zu 3 Generationen hin.
Zudem stellt sich die Frage wen der alte Wein in neuen Schläuchen juckt wenn er weiter ist als der neuere Wein der Konkurrenz?
Die erste GCN Generation hatte bereits DX11.1 Support, die zweite DX12 Support (ab Bonaire, alias HD7790).
Bis Kepler hing nvidia auf dem 11.0 Stand rum und erst ab Maxwell rüsteten sie auf den 12.0 Stand auf.
Damit war AMD nvidia technologisch fast 3 Jahre voraus.
https://de.wikipedia.org/wiki/AMD-Radeon-HD-7000-Serie
https://de.wikipedia.org/wiki/Nvidia-Geforce-700-Serie
12.1 Support gab es erst mit Pascal und Vega, wobei Vega dennoch erneut weiter zu sein scheint.
 
Was soll daran ach so interessant sein, zumindest sofern man in der Lage ist auf nen Link zu klicke zu nachzulesen?

Die HD7970 kam am 22. Dez. 2011 raus, nvidias erste Karte mit dem Feature Level 12.0 (z.B. GTX 750) am 18. Feb. 2014. Das sind immerhin über 2 Jahre Rückstand die dich offensichtlich nicht im geringsten stören.
Bei einer Sache gebe ich dir zumindest teilweise recht. Die erste Maxwell Generation unterstützte lediglich das Feature Level 12.0, die zweite Maxwell Generation auf der Geforce 900 Serie kam ein halbes Jahr später mit 12.1 Support. Damit hatten die Maxwell Modelle keinen generellen DX12.1 Support. Schaut man hingegen weiter ins Detail dann fehlen den Geforce Chips auch heute noch eine brauchbare Async Compute Umsetzung (die ein durchaus wichtiger Teil von DX12 ist) die AMD seit wann hat? Der zweiten oder schon der ersten GCN Generation? Wie wäre es wenn ich anhand dessen mal eine kleine Zeitrechnung aufmache?

Bei jemanden der aufgrund dessen immernoch wegen Rebrands bei AMD rumheult ist eine weitere Diskussion aber ohnehin sinnlos.
 
Sinnfrei schrieb:
Und, welche "unwichtigen" Bilddetails fallen dafür unter den Tisch?
Zeig du es uns doch wenn du davon ausgehst, dass es durch den Treiber ein sichtbaren Unterschied gibt. Sollte dann ja kein Problem sein. Wenn du das nicht kannst, sprich es keinen nennenswerten Unterschied bei der Grafik gibt, dann braucht es diesen sarkastischen Kommentar auch nicht.

Wenn es ein Grafikdowngrade gibt bei einem Treiber, dann wird das innerhalb von Stunden überall zu lesen sein. Und wenn nicht, dann sollte man vielleicht einfach akzeptieren, dass es vielleicht doch nur ein Treiberproblem war, wie es zu vermuten war bei einem einzelnen starken Ausreißer nach unten.

Die Kommentare unter Artikeln zu Grafikkarten und Prozessoren sind vor lauter Fanboygebashe kaum noch zu lesen. Anstelle sich einfach mal zu freuen, dass ein Spiel auch auf älteren Rechnern noch problemlos in 4k läuft, wird lieber jede Gelegenheit genutzt um gegen das andere Lager zu schießen.
 
Ich muss sagen, der Treiber ist gut!

Vorher hatte ich in Forza 7 immer sporadische Crash2Desktop, meist so nach 4-5 Rennen. Meine Vermutung war mein VRAM, da der im Spiel bei maximalen Details gerne bei 3,9-4,0 GB lag. Wenns vermutlich zu viel war, stürzte das Spiel ab. Was eigentlich sehr ungewöhnlich ist. Voller VRAM sollte sich höchstens in ruckeln oder generell schlechter Performance äußern und nicht zum Abstürz führen.
Ich hab dann einige der Ultra Optionen reduziert und MSAA auf 4x Reduziert. Dann waren die Abstürze weg.

Mit dem neuen Treiber kann ich allerdings wieder alles auf Maximum stellen, ohne dass das Spiel sporadisch abstürzt. Die Frametimes sind auch nach mehreren Rennen nahezu perfekt.

Ich hätte nicht erwartet, dass Nvidia diejenigen sind, die das Problem beheben...
Hätte da eher auf Turn 10 getippt, zumal Nvidia ja relativ egal sein kann, ob ich mit meiner "alten" 4 GB Karte ein nagelneues Spiel mit maximalen Details spielen kann, welches offensichtlich ein wenig mehr, als 4 GB VRAM nutzen würde (aber anscheinend nicht braucht).
 
@Yumix
Du meinst wie bei Ashes wo groß rumgetönt wurde das die Radeons die Landschaft falsch darstellen würden und letztendlich raus kam das die Darstellung der Geforce falsch war?
 
sagt mal ihr ganzen trolle warum geht ihr nicht in euren eigenen thread .....

diese ganze dumme geschwafel , seit jahren bringen beide hersteller bei neuen großen spielen angepasste treiber die noch mehr raus kitzeln und auf einmal wird das zum dämlichen geflame gegen den jeweiligen anderen genommen

ich geh mal kotzen
 
Ich hab mit meiner 1080TI immer mal so micro ruckler. Noch dazu ab und zu so Streifenbildung meist auf höhe oder unterhalb des Fahrzeugs.
Oft in kurvenfahrten wo der qualm von den reifen erscheint. Weiß nicht wie ich das beschreiben soll.
Woran kann das liegen?
Bin von Konsole auf PC gewechselt und die Grafik ist klar besser ja aber diese ständigen mal hier und da ruckler stören doch extrem.
Wobei ich spiele nicht auf einem PC Monitor sondern am OLED TV in 65 Zoll.
Könnte sowas vielleicht auch an einer langsamen Festplatte liegen? Ich habe die Games nur auf einer 2,5" Festplatte mit 5400rpm.
So das evtl. nicht schnell genug die Daten geschaufelt werden können?
 
ironkrutt schrieb:
Woran kann das liegen?
Bin von Konsole auf PC gewechselt und die Grafik ist klar besser ja aber diese ständigen mal hier und da ruckler stören doch extrem.
Wobei ich spiele nicht auf einem PC Monitor sondern am OLED TV in 65 Zoll.
....

Eine SSD kann hier und da schon vom Vorteil sein. Bei den Datenmengen Heutzutage ist eine träge Festplatte halt nicht ideal.

In welchem Modus ist dein OLED-TV? Gaming? Sind alle Bildverschlimmbesserer deaktiviert. Die sorgen ebenfalls für Artefakte bei bestimmten Bildinhalten. Würde ich deaktivieren falls eingeschaltet.
 
@Experts,
da FM7 ja leider nicht von geforce experience unterstützt wird, folgende Frage:

Was sind die "idealen" - Settings mit einer MSI GeForce GTX 1080 Gaming X+ / 7700K @4K
(native Auflösung TFT = @2560 x 1440)

Grad was die 2 Optionen für Kantenglättung angeht bin ich mir unsicher. Rest. Settings auf Ultra sind gesertzt....
Kennt vlt. jemand ein gutes Tutorial/Test zu diesem Thema in der bereits der Boost aus der v387.92 berücksichtigt wird?

Dank euch!
 
Zuletzt bearbeitet:
Trollmode war an, aber wer untersucht sowas heute noch wirklich ernsthaft... die marginalen änderungen von very high auf ultra sieht man eh schon kaum...
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Die erste GCN Generation hatte bereits DX11.1 Support, die zweite DX12 Support (ab Bonaire, alias HD7790).
Bis Kepler hing nvidia auf dem 11.0 Stand rum und erst ab Maxwell rüsteten sie auf den 12.0 Stand auf.

nVidia unterstützt DirectX 12 seit Fermi, also der 400er Serie aus dem Jahre 2010.
Kannst du gerne bei Wikipedia nachlesen. Also da wo du deine Falschinformation auch her hast.
https://en.wikipedia.org/wiki/GeForce_400_series

Und das was Async Compute angeht, so ist das ein Feature von DirectX 12, dessen Implementierung dem Grafikchiphersteller überlassen ist. Er kann es in Hardware, in Software oder auch gar nicht implementieren. Er muss den API Aufrufen nur korrekt antworten.
 
Zuletzt bearbeitet:
Es geht um das Feature Level und da hing auch der Fermi auf 11.0 rum.
Das die Umsetzung von Async Compute nicht vorgeschrieben ist schrieb ich bereits. Man stelle sich vor wenn dies nicht der Fall gewesen wäre....
 
Zurück
Oben