News G-Sync-Kompatibilität: Nvidia begründet die Durchfallquote von 95 Prozent

Leute, ich glaube ich habe es raus.
NVidia verdient Geld mit G-Sync, AMD aber keins (oder zumindestens nicht viel) mit Freesync.
Plötzlich funktionieren auch Freesync/Adaptive Sync Monitore mit nVidia Karten.
NVidia hat Angst, dass deren Profit aus dem Monitorsegment verschwindet, da jeder wissen könnte, dass Freesync auch mit nVidia funktioniert, daher wollen sie den eindruck auf der Produktseite machen, dass nur manche Freesync Monitore "compatible" sind. Daduch sind die meisten Monitore, die "G-Sync" können G-Sync Monitore und nicht die Adaptive-Sync Monitore, von denen es ja eigentlich deutlich mehr und günstigere gibt.
Dadurch werden die G-Sync-Verkäufe weiter hoch bleiben, die Erklärung hier bleibt nur als "Begründung" für die Leute, die sich damit auskennen, der Laie im Fachhandel wird davon nichts hören. So in etwa
 
kisser schrieb:
Schon falsch. Dafür sind die Scaler viel zu teuer.
Und der Rest deines Postings hat sich damit erübrigt.
Wenn das wäre, dann würde es nVidia ja nicht jucken, anscheinend tut es aber.
Sonst müsste es ja auch eine Einteilung für die Grafikkarten geben die dann "G-Sync compatible sind", mit einer 650 Ti dürfte ja mittlerweile ein FullHD Monitor unter 60Hz fallen, was ja eine Anforderung für den Monitor ist.
Die wollen den Zusammenhang "adaptive Sync -> kompatibel mit nVidia" brechen.
Außerdem, hast du denn eine Quelle dafür, dass die Scaler so wenig Profit bringen? Den Monitorherstellern kostet das Ding natürlich viel Geld
 
@Mcr-King ist mal der größte AMD-Fanboy den ich je gesehen habe. xD

Er hat immer Argumente gegen nVidia, auch wenn das Fakten sind. Und immer ist alles an AMD besser. :D

Ich persönlich bin mit meinen G-Sync-Monitoren und meiner RTX-Karte zufrieden. Jedes einzelne Spiel läuft super flüssig, ich habe immer ein wunderschönes und flüssiges Bild und kann mich einfach nicht beschweren.

Das sah zu meinen ATI/AMD Zeiten deutlich anders aus, also im Grafikkartenbereich.
 
kisser schrieb:
Schon falsch. Dafür sind die Scaler viel zu teuer.
Und der Rest deines Postings hat sich damit erübrigt.
Ah ja, nvidia verdient an G-Sync nix dran weil ihr erforderlicher Scaler so teuer ist und es nur mit ihren GPUs nutzbar ist.
Interessante Argumentation.....
 
  • Gefällt mir
Reaktionen: MaverickM und Mcr-King
kisser schrieb:
Da kann sich AMD mal noch ein Scheibe abschneiden von Nvidias ausgezeichnetem Kunden-Support.
Nur "Adaptive-Sync" als Label draufzuklatschen auf Monitore, die absolut untauglich sind, einen Vorteil für den Nutzer zu bieten, reicht eben nicht!
Adaptive Sync ist noch immer ein VESA Standard. Deren Mitglieder haben diesen Standard verabschiedet.
Rate mal wer noch VESA Mitglied ist. Nvidia. Hätten ja gleich bei der Standardisierung auf entsprechende "Qualität" bestehen können.

Außerdem ist AMD nicht verantwortlich zu überprüfen ob dritte Hersteller und deren Implementierung eines VESA Standards gut genug sei.

Aber was soll man auch von einem Nvidia Troll erwarten, der sogar nicht davor zurück schreckt dreiste Lügen zu verbreiten das AMD einfach nur DX12 kopiert hätte und unter dem Namen Mantle veröffentlicht hat.
 
  • Gefällt mir
Reaktionen: Mcr-King
Der Grund ist doch ganz einfach.

Nvidia ist natürlich eher daran interessiert, dass G-SYNC-Monitore gekauft werden.
Einfache ökonomische Erklärung.

Ich habe einen Freesync-Moni und da funktioniert G-Sync mal mehr mal weniger gut. Deswegen bin ich am überlegen, ob ich es nicht einfach deaktiviert lasse.
Wenn ich zum Bsp. in der Videoschnittsoftware ein Video schneide, fängt der Monitor an zu flackern, wenn G-Sync aktiv ist.
 
  • Gefällt mir
Reaktionen: Mcr-King
kisser schrieb:
Schon falsch. Dafür sind die Scaler viel zu teuer.

Genau und nVidia betreibt den ganzen Aufwand kostenlos und verkauft die Module unter Produktionskosten. Weil nVidia ja allseits für ihren Altruismus bekannt ist!
 
  • Gefällt mir
Reaktionen: Mcr-King und Volkimann
eLdroZe schrieb:
Das sah zu meinen ATI/AMD Zeiten deutlich anders aus, also im Grafikkartenbereich

Ich kann keinen Unterschied zwischen Nvidia und AMD erkennen.

Seit Ewigkeiten baue ich die Karten ein, installiere den Treiber und zocke ohne Probleme mit der zu erwartenden Performance.

Von daher lass mal gut sein mit deinen Urban Legends.
 
  • Gefällt mir
Reaktionen: wolve666 und Mcr-King
tek9 schrieb:
Von daher lass mal gut sein mit deinen Urban Legends.

Du kennst natürlich meine Geschichte und die Probleme die ich so hatte. ;)

Ich bin seit 2 Generationen bei nVidia, davor war ich 10 Jahre ATI/AMD Kunde und wenn ich sage das ich dort mehr Probleme und eigentlich nie genug Perfomance hatte, dann meine ich das auch so. Natürlich für meine Ansprüche.

Es hat schon seinen Grund weshalb ich nVidia probiert und dann auch dort geblieben bin.

Genauso wie es einen Grund hatte das ich von Intel zu AMD im Prozessorbereich gegangen bin.

Ich bin kein Fanboy, ich kaufe was mich überzeugt und so wird es auch bleiben. Vielleicht kaufe ich ja auch irgendwann wieder eine AMD Karte aber im Moment bin ich sehr zufrieden mit meinem System und mit G-Sync.

Mit G-Sync hatte ich auch schon Probleme, so ist es nicht aber die konnte ich lösen und seitdem ist alles super.

Du hast ne Meinung, ich habe ne Meinung. :)
 
Baxxter schrieb:
Ich habe einen Freesync-Moni und da funktioniert G-Sync mal mehr mal weniger gut. Deswegen bin ich am überlegen, ob ich es nicht einfach deaktiviert lasse.
Wenn ich zum Bsp. in der Videoschnittsoftware ein Video schneide, fängt der Monitor an zu flackern, wenn G-Sync aktiv ist.

Auch wenn G-sync nur für den vollbildmodus aktiviert ist?
 
  • Gefällt mir
Reaktionen: Mcr-King
Gerade bei Multicore Krücken Spielen ist wegen deren Sheduler Spielchen die Warscheinlichkeit hoch das es mit der Geforce besser läuft, einfach weil dadurch mehr Kerne nutzbar sind und bevorzugt man dann auch noch Spiele aus deren Förderungsprogramm erst recht.

Wie gut was performt hängt also vor allem von den genutzten Spielen ab.
 
  • Gefällt mir
Reaktionen: Mcr-King
eLdroZe schrieb:
Ich bin seit 2 Generationen bei nVidia, davor war ich 10 Jahre ATI/AMD Kunde und wenn ich sage das ich dort mehr Probleme und eigentlich nie genug Perfomance hatte, dann meine ich das auch so

Was soll es uns sagen wenn du 10 Jahre lang Hardware kaufst die dir nicht ausreicht :D

Vielleicht hast du heute mehr Geld als damals und kaufst heute einfach nicht mehr die billigsten Karten, was dann auch wieder sehr wenig mit dem Anbieter zu tun hat...
 
  • Gefällt mir
Reaktionen: Mcr-King und Volkimann
Ein kleines Gerüchte-Update bzgl. der angeblich nahenden "Super"-Aktion nVidias besagt nun, dass es einen teilweise RTX Turing-Refresh (die RTX2080Ti soll es demnach nach wie vor als Flaggschiff geben) von schnelleren Versionen der RTX2060, 2070 und 2080 Modelle mit Preisnachlässen geben soll.

Scheinbar will man eher schleppende RTX Turing Verkäufe damit massiv ankurbeln (auch wenn man damit einigen bisherigen RTX Turing Käufern schon vor den Kopf stoßen dürfte) und gleichzeitig im großen Maßstab verhindern, dass sich AMDs Navi GPUs gut verkaufen werden (vielleicht noch mit etwas medialer Knebel-NDA Hilfe dazu :rolleyes: (?), denn zu zu trauen wäre es dem Verein).

Falls so kommen sollte, können nVidia Ihren 12nm RTX Turing Kram von mir aus gerne behalten und bevor da nicht mehr Speicher und kleinere/zeitgemäße 7nm Fertigung ansteht, sehe ich da keinen Handlungsbedarf/Kaufinteresse meinerseits.

Ohne vermutlich relativ starke Mittelklasse Navi GPUs von AMD/RTG wären weder eine Preissenkung noch die aus dem Ärmel geschüttelten schnelleren GPUs bei nVidia als Refresh gekommen (analog zu RyZen im zuvor Intel-beherrschten CPU Segment).

Wer also einen ausgeglicheneren GPU-Markt mit fairen Preise für Grafikkarten in Zukunft will, greift bei mehr oder weniger vergleichbarer GPU-Leistung lieber zu AMD/RTG ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wolve666 und Mcr-King
MaverickM schrieb:
Genau und nVidia betreibt den ganzen Aufwand kostenlos und verkauft die Module unter Produktionskosten. Weil nVidia ja allseits für ihren Altruismus bekannt ist!

Nicht labern! Fakten liefern!
Der auf dem G-Sync Module eingesetzte Arria V GX FPGA kostet (Stückpreis)

https://www.mouser.de/ProductDetail/Intel-Altera/5AGXMA3D4F31C5N?qs=pESyond5mJrnCmNGQYGyeA==

/edit: ups, sind die alten Preise, der neue FPGA ist noch teurer:

https://www.computerbase.de/2018-06/uhd-monitore-144-hz-g-sync-modul-kosten/
 
Nvidia wird das größere Navi Modell sicherlich mit einer 2070ti kontern die vom Preis her 10-15 Prozent über der 2070 liegt. Die 2070 wird dann soweit günstiger das die kleinere Navi Lösung nicht mehr deutlich billiger ist.

Angepinkelt werden die Besitzer von Low Budget 2080er Karten sein weil die 2070ti fast identische performance bieten wird, aber etwas günstiger daher kommt.

Ich bezweifle das es einen Preiskampf geben wird. AMD hat dafür kein Geld und Nvidia wird den Marktanteil mit geschicktem Pricing halten können.
 
  • Gefällt mir
Reaktionen: Chismon
Wadenbeisser schrieb:
Ah ja, nvidia verdient an G-Sync nix dran weil ihr erforderlicher Scaler so teuer ist und es nur mit ihren GPUs nutzbar ist.

Haha. Der FPGA kommt von Intel. Wenn man keine Ahnung hat.....
 
pietcux schrieb:
Aber mir ist schleierhaft warum da nicht alle Hersteller 48-144 Hz nehmen wenn es die Elektronik doch hergibt.

Wobei man mit der höheren Mindestsyncrange ja den größten Vorteil aber wieder hergibt. GSync spielt ja seine stärken vor allen Dingen im Sub 40 Bereich aus, wenn die FPS halt mal bis auf 30 runter gehen damit man kaum einen Unterschied zu den 60/70/100 fps merkt. Klar fühlen sich bei FPS MP Titeln 144 FPS immer noch besser an, aber man muss halt nicht mehr das Dauergeruckel unter 60 hz ertragen. GTA V war auf meiner 980 ti eigentlich das Paradebeispiel wie stark gsync überhaupt ist, da ich mit minimalen Anpassungen an den Reglern nahezu alles auf Ultra hatte und die Drops so gerade auf 30/31 FPS blieben. 29 FPS war einfach nur ekelhaft :)

Gsync ist halt einfach die besser funktionierende Technologie, da kann man auf Nvidia rumreiten wie man will. Die ganzen Variationen von Freesync sind einfach nur Mist und für den Käufer einfach nur frustrierend bei der Auswahl eines Monitors. Bei Gsync muss ich nur auf die HZ achten und weiss sofort, okay meine Syncrange bewegt sich zwischen 30-60 / 30-120 / 30-144 und das wars.

Und das man gerade bei 4K Monitoren eine Syncrange von 30-144 fordert ist eigentlich folgerichtig, was will man denn mit einem Officemonitor der mit 60 hz läuft? Zum Zocken sind min. 120 hz einfach das wichtigste und dementsprechend sollen auch die syncranges ausfallen. Es gibt ja genug Titel die (zumindest für mich) mit 60 hz unspielbar wären. Aber ich gehör auch zu der Fraktion die erst zum TFT gewechselt haben, als der 2233RZ raus kam mit 120 hz :)
 
gunmarine schrieb:
Bei Gsync muss ich nur auf die HZ achten und weiss sofort, okay meine Syncrange bewegt sich zwischen 30-60 / 30-120 / 30-144 und das wars

Das Gleiche gilt für Freesync.

Wo du nun den Unterschied siehst, bleibt wohl für immer den Geheimnis =)
 
kisser schrieb:
Nicht labern! Fakten liefern!
Der auf dem G-Sync Module eingesetzte Arria V GX FPGA kostet (Stückpreis)

https://www.mouser.de/ProductDetail/Intel-Altera/5AGXMA3D4F31C5N?qs=pESyond5mJrnCmNGQYGyeA==

/edit: ups, sind die alten Preise, der neue FPGA ist noch teurer:

https://www.computerbase.de/2018-06/uhd-monitore-144-hz-g-sync-modul-kosten/
Mouser ist ein Versandlager, wo sie einzelne Bauteile für Bastler anbieten, das sind aber kaum die Preise, die die Monitor Hersteller zahlen müssen. Wenn die Monitorhersteller aber viel für das Modul bezahlen müssen, dann ist es nicht nVidia mit dem geringen Verdienst, sondern die Monitorhersteller. Keine Ahnung was die Platine in der Herstellung kostet, aber da wird schon eine Marge drin stecken. Und die möchte nVidia nunmal weiterhin ausmerzen
 
Zurück
Oben