News Nvidia ab sofort mit „SLI Profile Patches“

ElectricStream schrieb:
@Shio

Wenn du mit Vsync spielst, schau das es im Controlpanel aus ist.

jo klar, das ist ja das erste was man nach ner neuen treiberinstalltion ausstellt :D
 
ElectricStream schrieb:
Fall man einen halbwegs guten Prozessor benutzt ...sind Mirkroruckler fast ausgeschlossen.

diese aussage ist der totale Unsinn hoch 10.

Mikroruckler gibt es höchstens wenn du die cpu zu viel Luft hat und vorarbeitet, demnach also niemals wenn man sich in einem cpu limit befindet.

Falls genauere Infos benötigt werden, siehe dem thread in meiner Signatur, habe das schon zig mal erklärt.
 
ElectricStream schrieb:
...
Wenn du mit Vsync spielst, schau das es im Controlpanel aus ist.
Wozu bitte solchen Quatsch machen? Spielst du um Benchmarkbalken zu erzeugen (nur dafür ist es sinnvoll Vsync zu deaktivieren, wegen der Vergleichbarkeit), oder um ein ansehnliches Bild zu haben? Einige deutsche Seiten hatten bereits 2002/2003 Artikel darüber (das Thema ist aber noch viel älter - Triple Buffering für Vsync ohne sichtbaren Leistungsverlust gabs glaube ich schon auf der Rage pro 1997, gut damals war vielleicht der zusätzliche VRAM-Bedarf mehr als homöopathisch, ist er aber heute nicht mehr), aber weil ich a) keine Lust habe jetzt ewig mit Google oder Ask.com rumzusuchen und b) Anandtech einen hervorragenden neuen Artikel über das uralte Thema geschrieben hat, hier mal für alle Vsync-Ausschalter: Triple Buffering: Why We Love It
 
Zuletzt bearbeitet:
witzig finde ich die installationsanweisungen für den patch bei der nvidia-seite!:D:D
Hinweise zur Installation:

entfernen sie vor der installation neuer treiber unbedingt alle bereits installierten nvidia-grafiktreiber über die windows-systemsteuerung.
•wählen sie dazu start > systemsteuerung > software
•suchen sie den eintrag für die nvidia-grafiktreiber (ggf. "nvidia windows display drivers" oder "nvidia display drivers")
•wählen sie anschließend "entfernen".
 
So habs gerade mal ausprobiert .... resultat Anno flimmert jetzt wie verrückt ... ist unspielbar hat jemand ne Idee wie man das wieder wegbekommt oder kann ich jetzt wirklich den Treiber noch mal komplett neu installieren?

Greetz
Ganzir
 
@Realsmasher
wieso, wenn ein Spiel eben auch CPU Leistung braucht und nicht mehr als um die 30 FPS liefern kann kannste mit den karten auch nix reißen.
In dem sinn ist meine Aussage bestimmt kein Mist.
 
Zuletzt bearbeitet:
ma kurz OT

bei Anno bekomm ich kein Fraps angezeit. Kann mir da einer eine Lösung nennen ?

Zum Thema:
Finde diese kleinen "patches" sehr gut. da braucht man nich den ganzen Treibr neu laden und es funktioniert sofort.

EDIT:
Finde die "ergänzen" funktion nicht... :D

Mit der neuen Version funktioniert es wunderbar. großen Dank :freaky:
 
Zuletzt bearbeitet:
Wozu bitte solchen Quatsch machen? Spielst du um Benchmarkbalken zu erzeugen (nur dafür ist es sinnvoll Vsync zu deaktivieren, wegen der Vergleichbarkeit), oder um ein ansehnliches Bild zu haben? Einige deutsche Seiten hatten bereits 2002/2003 Artikel darüber (das Thema ist aber noch viel älter - Triple Buffering für Vsync ohne sichtbaren Leistungsverlust gabs glaube ich schon auf der Rage pro 1997, gut damals war vielleicht der zusätzliche VRAM-Bedarf mehr als homöopathisch, ist er aber heute nicht mehr), aber weil ich a) keine Lust habe jetzt ewig mit Google oder Ask.com rumzusuchen und b) Anandtech einen hervorragenden neuen Artikel über das uralte Thema geschrieben hat, hier mal für alle Vsync-Ausschalter: Triple Buffering: Why We Love It

Ähmm, das gilt für Anno, hab festgestellt das wenn Vsync über das CP forciert wird + zusätzlich im Spiel an ist, das Profil nicht korrekt greift.

jo klar, das ist ja das erste was man nach ner neuen treiberinstalltion ausstellt

Wie sieht denn der SLI-Balken bei dir aus ?
dümpelt er in der Mitte oder schlägt er voll aus ?
Ergänzung ()

neuste Version installiert ?

bei Anno bekomm ich kein Fraps angezeit. Kann mir da einer eine Lösung nennen ?

Zum Thema:
Finde diese kleinen "patches" sehr gut. da braucht man nich den ganzen Treibr neu laden und es funktioniert sofort.
ganz alte Version können kein D3D10.

wenns unter D3D9 auch nicht läuft treiber runter, fraps de-installieren und nochmals beides installieren.
 
Zuletzt bearbeitet:
ganz alte Version können kein D3D10.

versuch mal neuere version von fraps, sollte dann eigentlich gehen...

finde ich klasse, wobei ich nie die profile erstellt habe, hatte immer genug leistung... ob da sli nun aktiviert war oder nicht kann nicht sagen, denke mal schon^^

zu dem balken, wenn er voll ausschlägt, wird sli richtig genutzt oder? hab das nicht immer kappiert, verhält sich zum teil voll merkwürdig, darum hab ich ihn aus gemacht...

greez
 
ElectricStream schrieb:
@Realsmasher
wieso, wenn ein Spiel eben auch CPU Leistung braucht und nicht mehr als um die 30 FPS liefern kann kannste mit den karten auch nix reißen.


das ist richtig, du sprachst aber davon :

Fall man einen halbwegs guten Prozessor benutzt ...sind Mirkroruckler fast ausgeschlossen.

und das genaue gegenteil ist der Fall.

Ja schneller der Prozessor, umso höher die chance.

inbesondere Konstellationen bei denen die cpu >100fps schafft, die 2 gpus aber nur <30 sind betroffen, aber grundsätzlich jeder Fall indem es sich nicht um ein CPU Limit handelt.
 
Außerdem hast du meinen Satz gekürzt

Fall man einen halbwegs guten Prozessor benutzt und auch für sich einen Kompromiss zwischen Qualität und leistung gefunden hat sind Mirkroruckler fast ausgeschlossen.

mit dem Kompromiss meine ich ein ausgewogenes Verhältnis zwischen Auflösung, Filterung, und AA Modis auf die GPU(S) bezogen. Ein schlechter Prozessor liefert eben nicht genug Leistung für die Karten, somit es es völlig egal welche Auflösung, Qualitätseinstellung gefahren wird.
Die min FPS werden nicht gut sein.

Deswegen wird sobald der GT300 kommt auch der I7/I5 erst so richtig aufblühen.

Und aktulle High End karten sind gewiss nicht schwach, außer man quält sie natürlich mit fetten Qualitätseinstellungen

hier mal ein Interessanter Vergleich aus dem 3DCenter,

3,7Ghz Yorkfield + leicht übertaktete GTX260
640x480 1xAA/1xAF max. Details



1680x1050 4xMSAA/16xAF max. Details




Ein 100% CPU Limit

Und was wäre wenn kein so ein starker Yorkfield oder noch ein alter PentiumD drin gewesen wäre ?
Oder wenn anstatt das Yorkfields sogar ein I7 verwendet worden wäre ?

;)

domidragon schrieb:
versuch mal neuere version von fraps, sollte dann eigentlich gehen...

finde ich klasse, wobei ich nie die profile erstellt habe, hatte immer genug leistung... ob da sli nun aktiviert war oder nicht kann nicht sagen, denke mal schon^^

zu dem balken, wenn er voll ausschlägt, wird sli richtig genutzt oder? hab das nicht immer kappiert, verhält sich zum teil voll merkwürdig, darum hab ich ihn aus gemacht...

greez

Genau. wenn der Balken voll ausschlägt redern die beiden GPUS allgemein mit der höchsten Effizienz.

Balken dümpelt in der Mitte oder schlägt nicht voll aus: Schlechtes Profil, falsche SLI Bits oder ein klassisches CPU Limit,
die GPUS bekommen keine Daten zum rendern.

Normalerweise sind Profile die direkt von Nvidia stammen aber gut konfiguriert, also kann man eher von einem CPU Limit ausgehen

Balken ist voll ausgelastet FPS sind niedrig: Am ehesten ein GPU Limit in manchen Fällen sind auch schlechte AA Kompatiblitäts-Bits gesetzt worden.
 
Zuletzt bearbeitet:
Ein schlechter Prozessor liefert eben nicht genug Leistung für die Karten, somit es es völlig egal welche Auflösung, Qualitätseinstellung gefahren wird.

und ein zu schneller prozessor liefert zu schnell die daten, weshalb die 2te gpu ihr bild schon zu früh fertig gestellt hat und du hast gefühlt viel weniger fps als angezeigt.


alle reden immer davon das eine starke cpu für sli nötig ist, allerdings weiß scheinbar kaum jemand das dies gerade bei harten gpu limits eher zu problem führt.

siehe mein beispiel oben :

2 karten im sli schaffen 30fps und die cpu sagen wir 60.

würde man die cpu jetzt im takt halbieren und sie schafft nurnoch 30fps wäre dies ein deutlich flüssigeres spielgefühl da die frameimtes aufeinander angepasst sind.


Klar schafft man mit schnellerer cpu mehr frames bei sli, aber das heißt nicht das die gefühlten fps dadurch steigen.

Das ist eben die Macke von AFR und lässt sich nicht mal eben beseitigen auch wenn nvidia das z.b. versucht indem man die frames verzögert ausgibt, was das Problem aber nur verschiebt.
(allerdings den objektiven nachweis erschwert, was wohl das primäre ziel war)


Insofern halte ich eine schnelle CPu für sli nicht für notwendig, im gegenteil, sie kann sogar mehr schaden als nützen.
 
Zurück
Oben