News Nvidia Pascal: Berichte über Leistungsverlust bei G‑Sync mit SLI

Ich dachte immer, G-Sync sei das bessere Premium-Sync?
Wahrscheinlich ist es deshalb NVidia-exklusiv, weil AMD-Karten für die Raytracing-Berechnungen zu langsam sind, die für G-Sync offensichtlich verwendet werden. Mal auf RTX probieren, da spiegeln sich die Bilder wahrscheinlich in Echtzeit in den Monitor. Falls jemand nicht mehr weiß, wovon ich rede, das ist so gewollt. ;)

Dass bei FreeSync etwas flackert ist mir bisher noch nicht passiert. CB sollte GPUs demnächst nur mit G-Sync und FreeSync benchmarken (240Hz-Monitore sollten da für die meisten Spiele reichen, 120Hz für UHD, hier dann die Lautstärke des Monitors bitte mit messen), um realistische Bedingungen zu simulieren. :p:D

Nein, ich meine das nicht ernst, ich denke nur an die Leute, die immer sagen, G-Sync sei den Aufpreis wert, bei solchen Meldungen wird das schwerer nachzuvollziehen. Auch wenn SLI immer weniger supported wird, bietet NVidia es immer noch an, sonst hätte auch keiner die Probleme. Man könnte auch andersherum fragen, warum ein Hersteller eine Technologie anbietet, für die Menschen offensichtlich auch Geld bezahlen, und die dann kaum unterstützt? Und ja, das gilt genauso, wenn AMD das macht. Nur funktioniert das AMD-Äquivalent in diesem Fall besser, solange man sich keine Monitore von Samsung oder Acer kauft. ;)
 
Bis zu +200€ Aufpreis für nen "G-Sync Monitor" und dann läufts noch nichtmal richtig - sauber Nvidia. ^^
 
13579 schrieb:
Das SLI oder Crossfire überhaupt noch wer nutzt, grenzt an ein kleines Wunder,
als Wunder würde ich das nicht bezeichnen, ich denke das hängt eher mit der Unwissenheit einiger User zusammen.. es gibt ja auch hier im Forum "laufend" Threads in denen User planen SLI/CF mit alten Karten (970 GTX zb) zu betreiben....

die denken sich die Leistung einer Karte "reicht", mit einer zweiten verdoppelt sich die Leistung....
 
Nvidia bremst ältere Pascal Grafikkarten durch ihre Treiber, damit man neue Grafikkarten kauft.
Besonders GTX 1060 verliert bis zu 20 Fps.
Ich habe wieder ältere Nvidia Treiber 299. installiert.
 
@vedmak
fps loss mit Absicht kann ich nicht nachvollziehen. hab die selben fps wie vorher mit alten treibern...
die neueren treiber sind aber in der tat nicht wirklich gut ...
Ergänzung ()

@PickNick @Smagjus @itsBK201
das deutlich mehr nvda wie amd karten verkauft werden und daher der pool an problemusern einfach größer ist, ist in eurer Rechnung leider nicht enthalten.
"sind einfach lauter" - in Textform ? schreiben die alle nur in caps oder bold?
das hat eher weniger was mit Erwartungen zu tun. je mehr leute, desto höher ist die Chance, dass es welche mitbekommen, die sich dann dazu in foren etc. äußern.
ganz einfach
aber lieber irgendwelche Verschwörungen auspacken ala "amd user sind ja soo liebe jungs, die ja soo clever sind und den sync einfach ausschalten und sich nicht beschweren"
o m g ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FCK-THIS
cruse schrieb:
das deutlich mehr nvda wie amd karten verkauft werden und daher der pool an problemusern einfach größer ist, ist in eurer Rechnung leider nicht enthalten.
Das Argument kam bei mir nicht vor, weil es zu weit off Topic geht und die Zahlen für G-Sync- und FreeSync-Nutzer mir nicht vorliegen.

AMD-Nutzer habe ich nicht kritisiert, weil ich vermeiden wollte, dass mein Beitrag noch mehr Futter für irgendwelche Fanboys liefert und es sowieso nicht wirklich relevant ist. Dass Leute wie du sich darüber künstlich aufregen und anfangen gegen Strohpuppen zu argumentieren, habe ich nicht erwartet.
 
@cruse ich bezweifle allerdings das mehr G-Sync als Free-Sync Monitore verkauft werden, deswegen zieht das Argument nur bedingt. Außer du legst mir jetzt ne konkrete Zahl vor, dann widerrufe ich meine Aussage natürlich.
Ich hatte übrigens seit Anfang meiner aktiven Zeit 2006 insgesamt 5 AMD/ATI und 9 NV Karten in meinen Systemen, unter anderem auch im Crossfire/SLI und ob die AMD Boys cleverer sind als die NV Boys weiß ich nicht, ich kaufe nach Leistung, Preis und Ausstattung und nicht welche Farbe der Hersteller hat. Und deswegen habe ich mich auch eingelesen und solange rumprobiert bis ich mit dem Ergebnis zufrieden und nicht weil ich so clever bin, sondern weil ich im Laufe von 12 Jahren einfach gelernt habe wie man Probleme angeht ohne gleich nen Thread ohne Inhalt aufzumachen.
 
ja sorry, aber so kams halt rüber. ihr habt hier mit Mistgabeln angefangen und Theorien aufgestellt, die einfach unlogisch sind.
"amd user stellen es einfach aus und regen nicht darüber auf" = klares schubladendenken. warum sollten sie sich nicht darüber aufregen ?
hier wurde allein der preis (100-200€ mehr) als Argument aufgeführt - und die Logik dahinter: nvda user müssen sich wegen dem preis mehr aufregen(und weil sie eine höhere Erwartung haben).
bei solchen aussagen rollen sich bei mir die strümpfe hoch.

das beide firmen sich bei dem Thema nicht mit rum bekleckern und gsync jetzt seit mehreren treiberrevisionen nicht bei jedem gut funzt(bei mir z.b. auch nicht!) steht auf einem anderen blatt.
 
  • Gefällt mir
Reaktionen: FCK-THIS
Ich denke, dass das Problem nur die aller wenigsten betrifft, denn SLI ist (trotz NVLink) mausetot.

Dennoch ist es besonders ärgerlich, denn die Betroffenen haben meist richtig viel Geld in die Hand genommen.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: FCK-THIS
Ist wahrscheinlich wieder bei Leuten die nur 8x/8x PCI Lanes auf den Mainboard haben. Gibt etliche Spiele die auch ohne G-Sync schon Probleme mit der Bandbreite in der Config haben.
 
PCIe 3.0 mit 16x ist vorhanden per CPU-Z validierung.
 
Im verlinkten Test wird als Testumgebung ein i7-8086K genannt, also 8/8.
 
SavageSkull schrieb:
Seit Windows 1803 ist G-Sync ziemlich zickig.
Nicht nur G-Sync. Wenn es nicht soviel Aufwand wäre, hätte ich schon 1709 wieder eingespielt. :grr: (Dummerweise habe ich zu früh die Wiederherstellungsdateien über die Bereinigungsfunktion gelöscht.)

Die Zusammenarbeit zwischen Microsoft und den Treiber-Entwicklern (verschiedener Hersteller) ist für das Modell der halbjährlichen Windows-Funktionsupdates schlicht noch nicht effektiv. :mad:
 
@cruse nein, ich bin eher der Meinung das G-Sync Nutzer sich mehr aufregen DÜRFEN weil sie ja für das ganze von NV entwickelte System samt Extraplatine den Aufpreis bezahlt haben und dafür auch was erwarten können.
Ich persönlich nutze nur noch Fast Sync von NV (bei AMD wäre das dann Enhanced Sync) weil ich nur auf UHD 60Hz auf 40" spiele. Da komme ich dann bei z.B. Witcher 3 auf 55-60 FPS, habe aber kein Tearing mehr. Sollte man mal ausprobieren die Softwarelösungen, ich bin jedenfalls davon überzeugt.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
Hatte ne zeitlang Gsync (gtx 1060) und dsnn freesync (rx 480) in Verwendung.

Ich hatte nur Probleme :-/
Gefühlt jedes Game von mir war in irgendwelchen Games von Fehlern betroffen (WoW, Forza Horizon 3, usw).
Bin ich froh, dass ich seitdem drauf pfeife und einfach 144hz verwende und fertig :-)
 
An sich finde ich es schade, daß SLI so vernachlässigt wurde. Es war eine gute Technologie in dem Sinne, weil man einfach GPU-Leistung relativ simpel skalieren konnte. Mal einfach für mehr Leistung 1-3 Karten dazu addieren hat schon was. Leider wurde das Thema Mikroruckler kaum richtig angegangen.
 
PHuV schrieb:
An sich finde ich es schade, daß SLI so vernachlässigt wurde. Es war eine gute Technologie in dem Sinne, weil man einfach GPU-Leistung relativ simpel skalieren konnte.
Dem stimme ich zu. Gerade mit dem Aufkommen von VR-Brillen hatte ich die Hoffnung, dass wenigstens Dual-GPU ein Comeback erlebt, da meines Wissens für jedes Display ein Bild aus einer leicht verschobenen Perspektive gerendert werden muss (korrigiert mich, wenn ich Quatsch erzähle). Aus meiner Laiensicht müsste sich das gut auf zwei GPUs aufteilen lassen.
 
@PHuV und @JackTheRippchen wenn euch das Thema interessiert, ab Minute 1:30 wird da relativ genau drauf eingegangen, auch warum es nicht so klappt wie es klappen sollte.
 
@PickNick, nur mal so, ich ab der 7800 GTX bis zur GTX 580 SLI und T-SLI, und Voodoo3-SLI, ich kenne die Technik praktisch. ;)
JackTheRippchen schrieb:
Gerade mit dem Aufkommen von VR-Brillen hatte ich die Hoffnung, dass wenigstens Dual-GPU ein Comeback erlebt, da meines Wissens für jedes Display ein Bild aus einer leicht verschobenen Perspektive gerendert werden muss (korrigiert mich, wenn ich Quatsch erzähle). Aus meiner Laiensicht müsste sich das gut auf zwei GPUs aufteilen lassen.
Sehe ich auch so. Als ich damals 3D-Vision hatte, war ohne SLI so was wie Metro 2033 und Co. gar nicht spielbar.
 
Zurück
Oben