News G-Sync-Kompatibilität: Nvidia begründet die Durchfallquote von 95 Prozent

kisser schrieb:
Nicht labern! Fakten liefern!

Und welche Fakten hast Du? Endkundenpreise? Selbst bei den Endkundenpreise sieht man, dass da enorm Gewinn gemacht wird durch den Aufpreis... Siehe dein eigener Link.
 
  • Gefällt mir
Reaktionen: Mcr-King, or2k und Volkimann
Es ist scheissegal ob das Modul von Nvidia, Intel oder der Queen aus dem Allerwertesten wandert, nvidia bzw der Monitorehersteller gibt die Kosten an den Kunden weiter.

Natürlich nicht ohne davon finanziell zu profitieren. Es wird weder eine 0 Nummer und erst recht kein Verlustgeschäft sein.

Und natürlich will Nvidia seine Lizenznehmer "schützen" und die G-Sync Konkurrenz entsprechend klein halten. :rolleyes:
 
  • Gefällt mir
Reaktionen: Mcr-King
tek9 schrieb:
Das Gleiche gilt für Freesync.

Wo du nun den Unterschied siehst, bleibt wohl für immer den Geheimnis =)

eben nicht weil die syncranges unterschiedlich ausfallen, wie man ja hier auch aus dem Thread entnehmen kann. Der ganze Mist mit den verschiedenen Syncranges ist einfach quatsch, es kann doch nicht sein, dass ich für jedes Spiel ein eigenes Profil erstellen muss, das eine Spiel läuft ständig über 90 fps und ich mach mir ne Syncrange von 90-144 und das nächste krebst einfach bei 30-60 rum und ich muss wieder was anderes einstellen und dann hat man so Geschichten wie 48- 60 hz bei nem 75 hz tft oder was weiss ich und schon bringt freesync wieder nichts weil man ständig zwischen 30 und 60 fps rum gurkt.

Bei Freesync 2 machts da theoretisch besser, aber dann sieht man sowas wieder hier

https://www.mindfactory.de/product_...arz-silber-2560x1440-2xDisplayPo_1290793.html

Kostet genauso viel wie der Acer Predator aber hat dann wieder nur eine Syncrange von 48-144?! Sollte Freesync 2 nicht sogar von 25-144 gehen?

Es sollte doch eigentlich auch möglich sein einen 8 Bit TN Monitor mit Freesync 2 auszustatten und mal auf das HDR zu pfurzen und dann eine Syncrange von 25-144 zu implementieren. Sollte ja eigentlich mit der Freesync 2 Syncrange machbar sein.

Da nehm ich dann doch lieber einen Gsync Monitor und hab das bessere Produkt. Der Ansatz von Freesync ist ja nicht verkehrt, aber in der Praxis viel zu schlecht umgesetzt und die Mindestsyncranges sind einfach viel zu hoch. Die AMD Karten lahmen ja eh gut hinterher und dann setzt man auch noch die Syncranges zu hoch an.

Wenn ich das ganze jetzt mal auf 4K Gaming projizieren würde, wäre es in genug Spielen dann komplett nutzlos die Syncrange erst ab 48 hz zu starten, dann hab ich ne lahme AMD karte dran und schwupps fall ich wieder unter die 48 fps und hab schlieren. Dann bringt es dann doch auch nichts.

Nehm ich jetzt aber eine (für 4k) genauso lahme 1080 ti und häng da einen der Gsync 2 Monitore dran hab ich keine Probleme weil das Gsync ja wieder bis 30 fps/hz runter geht. 4k wäre dann wenigstens für mich nahezu uneingeschränkt spielbar. So bin ich wunderbar mit der 980 ti zurecht gekommen und freu mich jetzt die Regler noch mehr zu pushen seitdem die 1080 ti verbaut ist :) Gut das Teil hat 2014 700 Tacken gekostet aber es war jeden Cent wert und ich kann auch mal gemütlich eine GPU Generation aussitzen solange ich nicht auf 4k/144hz hoch gehe.
 
kisser schrieb:
Haha. Der FPGA kommt von Intel. Wenn man keine Ahnung hat.....
Und nvidia ist auch ganz bestimmt so barmherzig das keinerlei Lizenzkosten oder dergleichen beim Chip oder dem Modul für sie abfallen, gaaaaanz bestimmt. :rolleyes:
Soviel zum Thema Ahnung haben.
 
  • Gefällt mir
Reaktionen: Mcr-King, or2k und Volkimann
gunmarine schrieb:
Bei Freesync 2 machts da theoretisch besser, aber dann sieht man sowas wieder hier

https://www.mindfactory.de/product_...arz-silber-2560x1440-2xDisplayPo_1290793.html

Kostet genauso viel wie der Acer Predator aber hat dann wieder nur eine Syncrange von 48-144?! Sollte Freesync 2 nicht sogar von 25-144 gehen?
Erstmal solltest du zwischen der Software FreeSync und der Hardware unterscheiden.
Schon FreeSync (1) ging bei 9Hz los - treibersetig. Nur dafür braucht es nunmal ein entsprechendes Panel.

Und was soll an 48-144Hz so schlimm sein? Der Monitor hat LFC.
 
  • Gefällt mir
Reaktionen: Mcr-King
gunmarine schrieb:
eben nicht weil die syncranges unterschiedlich ausfallen, wie man ja hier auch aus dem Thread entnehmen kann. Der ganze Mist mit den verschiedenen Syncranges ist einfach quatsch, es kann doch nicht sein, dass ich für jedes Spiel ein eigenes Profil erstellen muss, das eine Spiel läuft ständig über 90 fps und ich mach mir ne Syncrange von 90-144 und das nächste krebst einfach bei 30-60 rum und ich muss wieder was anderes einstellen und dann hat man so Geschichten wie 48- 60 hz bei nem 75 hz tft oder was weiss ich und schon bringt freesync wieder nichts weil man ständig zwischen 30 und 60 fps rum gurkt.

Keine Ahnung was du hier mit verschiedenen Ranges erzählst. Ober und unterhalb der Freesync Range greift halt vsync oder man stellt einen Framelimiter ein. Fertig. Aber du scheinst dich wohl nicht so gut auszukennen oder plapperst irgendwas nach was du woanders aufgeschnappt und nicht richtig verstanden hast.

Ich habe einen iiyama Red Eagle mit einer Range von 35-144hz. Es gibt genügend bessere Freesync Displays mit solchen Ranges

Von daher gilt wie immer: Augen auf beim Display-Kauf ;)
 
  • Gefällt mir
Reaktionen: Mcr-King, Baal Netbeck und wolve666
ZeroZerp schrieb:
Erster Beitrag und dann schon mit falschen Aussagen. Und auch noch sechs Leute, die den Kommentar liken.
Und ich dachte, wir wären hier in einem Forum für Computerbegeisterte...

Alleine ohne diese Aussage wäre die Debatte schonmal deutlich sachlicher. Verstehe auch nicht wo das Problem sein soll, wenn ein paar Leuten das liken? Ich verstehe es so, dass ich wohl ein paar Leute auch meiner Meinung sind und das ist doch bei einem Forum nichts schlimmes? Noch dazu macht mich das nicht weniger begeistert für das Thema PC's. Was hat das damit zu tun? Wir sehen es alle als Hobby an und die meisten hier sind keine Experten.

Außerdem finde ich sowas als Kommentar auf meinen ersten Beitrag nicht so nett. So habe ich schon wieder direkt keine Lust mehr überhaupt was in einem Forum zu posten. Ich habe hier lediglich meine Meinung vertreten, die wohl nicht mehr ganz aktuell ist.
Da meine Aussage anscheinend falsch ist, hättest du sie wenigstens mit richtigen Fakten und Quellen widerlegen können. Das hätte dann auch eine gute Basis für die Diskussion geschaffen.



ZeroZerp schrieb:
Die Karte schafft mit RT On je nach Spiel auch mal über 100FPS bei 1080P...
Deine Info ist falsch bzw. stammt aus Zeiten, als gerade einemal die ersten Demos lauffähig gemacht wurden.

Kopfschüttel

Wie du schon sagst "Je nach Spiel" und bei manchen auch nur mit DLSS. Nach meinen Recherchen schafft es die Karte aber in Spielen wie Battlefield V oder Shadow of the Tomb Raider noch lang nicht solche FPS-Werte zu erreichen.

Meine Aussage war lediglich darauf bezogen, dass ich es lächerlich finde solche Preise aufzurufen für, sagen wir mal, 80 -100 fps in FullHD. Das macht die Sache nur bedingt besser. Ich bin mir auch komplett bewusst, dass das neu im Consumer Bereich ist. Dennoch macht mir die Preisstruktur von NVIDIA in den letzten paar Jahren sorgen und hier haben sie den Vogel abgeschossen.
 
  • Gefällt mir
Reaktionen: Mcr-King und adius
Wadenbeisser schrieb:
Und nvidia ist auch ganz bestimmt so barmherzig das keinerlei Lizenzkosten oder dergleichen beim Chip

Hast du auch Fakten dazu zu liefern? Oder wieder nur das übliche dämliche Nvidia-Gebashe?
Die Preise für die FPGAs von Intel kann man nachlesen. Fakten! Und diese Preise werden natürlich an den Endkunden weitergereicht.
Ergänzung ()

MaverickM schrieb:
Und welche Fakten hast Du? Endkundenpreise?

Hast du bessere? Und wenn Nvidia in 1000er Stückzahlen nur 250-300$ pro FPGA bezahlt ist das genau der Preis, um den Gsync-Monitore teurer sind als FreeSync.
 
kisser schrieb:
Und wenn Nvidia in 1000er Stückzahlen nur 250-300$ pro FPGA bezahlt ist das genau der Preis, um den Gsync-Monitore teurer sind als FreeSync.

Hast Du eigentlich deinen eigenen Link angeschaut!? Da geht es um das neue Modul für G-Sync Ultimate. Da sind die Aufpreise pro Monitor nicht $250-300 sondern eher $600-800.

Das normale G-Sync-Modul dürfte mittlerweile signifikant günstiger sein.

Und glaubst Du ernsthaft, nVidia würde das mit Verlustgeschäft machen!? Die Spanne ist sicherlich nicht groß, schließlich wird der meiste Umsatz mit Low- und Mid-End generiert. Aber das nVidia ihren High-End Kram "kostenlos" weiter gibt, ist wohl sehr illusorisch...
 
Nö,
auch die Monitore mit dem neuen GSync Modul sind ca. 300€ teuerer als vergleichbare ohne dieses Modul.
(Oder gibt es inzwischen 3 verschiedene Module?)
Atm gibts da aber nur ein Paar:
Acer XV273K
Acer XB273K

Und da hat der XB folgende Vorteile:
- (Viel) höherer Kontrast
  • SyncRange 30-144Hz statt 48-120Hz
  • HDR + GSync funktioniert gleichzeitig

MaverickM schrieb:
Da sind die Aufpreise pro Monitor nicht $250-300 sondern eher $600-800.

Echt? Ausgehend davon, dass du vermutlich den Acer X27 oder das Asus Teil meinst:
Welchen vergleichbaren FreeSync Monitor gibt es da?
 
thuNDa schrieb:
Auch wenn G-sync nur für den vollbildmodus aktiviert ist?

"Nur Vollbildmodus" ist an. Aber im Moment tritt das Problem nicht mehr auf. Scheinbar seit dem neusten Treiber-Update.
 
Pisaro schrieb:
Ich kann nunmal nicht verstehen warum man sich im Jahre 2019 immer noch einen Full HD Monitor kauft.
Bei 24" sehe ich aber auch keinen Grund über FullHD zu gehen, und diese Größe sammt FullHD wird immer noch die am meisten verwendete Auflösung am Desktop sein.

Ich bin in letzter Zeit sogar am überlegen ob ich von meinem 31,5" WQHD auf 27" FHD oder 34" UWFHD(nutzen wir auf der Arbeit) gehe, da ich mir damit einiges bei den GPU Kosten spare.
 
Zuletzt bearbeitet:
Oneplusfan schrieb:
Welchen vergleichbaren FreeSync Monitor gibt es da?

Die Monitore, die derzeit überhaupt DisplayHDR1000 (Was, wenn ich mich recht erinnere, ebenfalls Voraussetzung für G-Sync Ultimate ist) haben, kannst Du an einer Hand abzählen.
 
  • Gefällt mir
Reaktionen: Mcr-King
tek9 schrieb:
Keine Ahnung was du hier mit verschiedenen Ranges erzählst. Ober und unterhalb der Freesync Range greift halt vsync oder man stellt einen Framelimiter ein. Fertig. Aber du scheinst dich wohl nicht so gut auszukennen oder plapperst irgendwas nach was du woanders aufgeschnappt und nicht richtig verstanden hast.

Ich habe einen iiyama Red Eagle mit einer Range von 35-144hz. Es gibt genügend bessere Freesync Displays mit solchen Ranges

Von daher gilt wie immer: Augen auf beim Display-Kauf ;)

jo und du erklärst mir jetzt mal wie du mit dem tft eine DURCHGEHENDE syncrange von 35-144 hz hast ;-)
 
Taxxor schrieb:
Bei 24" sehe ich aber auch keinen Grund über FullHD zu gehen, und diese Größe sammt FullHD wird immer noch die am meisten verwendete Auflösung am Desktop sein.

Das ist korrekt. Mehr als Full HD finde ich dann auch nicht sinnvoll bei 24".

An der GPU sparen ist so ne Sache. Meine 1080Ti war mir schon teilweise für WQHD zu lahm. Jetzt habe ich 3440x1440 und die Ti passt mehr als bei WQHD, weil ich jetzt Freesync nutzen kann. Wo ich sonst bei schon 50 FPS richtig gekotzt habe, läuft alles ab der Freesync Range (bei mir leider nur 44Hz) alles super.
 
gunmarine schrieb:
jo und du erklärst mir jetzt mal wie du mit dem tft eine DURCHGEHENDE syncrange von 35-144 hz hast ;-)

Erkläre du lieber warum du hier ein Problem siehst

Entweder du hast keine Ahnung oder bist Tippfaul :D
 
  • Gefällt mir
Reaktionen: Mcr-King
mar0159 schrieb:
Alleine ohne diese Aussage wäre die Debatte schonmal deutlich sachlicher.
Eine Debatte wird dann Sachlich, wenn man sich zuallererst die Mühe macht, etwas bezüglich der Dinge, über die man schreibt zu recherchieren.

Verstehe auch nicht wo das Problem sein soll, wenn ein paar Leuten das liken? Ich verstehe es so, dass ich wohl ein paar Leute auch meiner Meinung sind und das ist doch bei einem Forum nichts schlimmes?
Weil falsche Informationen weiterverbreitet werden. Wie lang hat es durch dieses Prinzip gedauert, bis das "schneller RAM bringt nichts" mal aus den Köpfen draußen war.

Noch dazu macht mich das nicht weniger begeistert für das Thema PC's. Was hat das damit zu tun? Wir sehen es alle als Hobby an und die meisten hier sind keine Experten.
Dann darfst Du aber nicht Deine Vermutungen als Fakt hinstellen.

Deine Aussage:
Da reichts auf einmal nur noch für FullHD 60fps...

Dann hättest Du statt "die Karte schafft unter FullHD mit Raytracing nur 60FPS" auch schreiben können, dass sie z.B. nach Deinem letzten Wissensstand, oder von dem, was du so in den Foren gelesen hast, bei FullHD nur 60 FPS schafft. Du stellst aber eine Falschaussage auf, die einigen Leuten gefällt, die das also noch für bare Münze nehmen.

Außerdem finde ich sowas als Kommentar auf meinen ersten Beitrag nicht so nett.
Naja- Wenn der erste Kommentar schon aus einem Bashing besteht, dann ist das doch auch nicht Ideal, oder?

Da meine Aussage anscheinend falsch ist, hättest du sie wenigstens mit richtigen Fakten und Quellen widerlegen können. Das hätte dann auch eine gute Basis für die Diskussion geschaffen.

Schau Dich einfach auf Youtube um. Das ist voll von Testern, die die Werte mitlaufen lassen.
Und wieso sollen Werte eines neuen Ultra Settings, welches es in dieser Form noch nie gab, von 80-100FPS in FullHd schlecht sein?

LG
Zero
 
Zuletzt bearbeitet:
Zurück
Oben