News UHD-Monitore mit 144 Hz: Neues G-Sync-Modul treibt Preise in die Höhe

muihbuih schrieb:
Die Preise welche im Artikel von Mouser für die FPGAs genannt werden gelten auch jeweils für ein Paket, beim alten Modell sind das 27 Stück, beim neuen 24 (Factory Pack Quantity). Macht dann pro einzelnem FPGA:
28€ beim alten GSync
89€ für das 144Hz 4K Modell
wie gesagt nur für den FPGA
@ CB
Das solltet ihr mal bitte direkt im Artikel mit aufnehmen. Ich dachte ein Modul kostet 600 bzw. 1800 Währung.
 
AMD tut auch ALLES aus Geldgier. AMD ist kein Robin Hood. Es kann nur mit seinen Marktanteilen und Ruf nicht alles so durchsetzen wie es Nvidia kann. Wenn es das könnte, würde es das genauso tun. Leute, glaubt doch nicht, dass der rote Konzern ein Deut besser wäre.

Prinzipiell hast du Recht. Aber nur wenn man nicht über den Tellerrand schauen kann. Wenn man Konzernen jeden Scheiß durchgehen lässt mit der Begründung das andere das auch tun würden, dann hast du Recht. Aber wenn man durch Nichtkaufen zeigt das man es NICHT mitmacht, dann tut es eben AM GELD weh. Also wird sich ein zweiter Konzern es sich überlegen.

Wenn man natürlich dumm ist und aus dem Grund TROTZDEM kauf - naja man kann sich gerne selbst ins Knie schießen.
 
  • Gefällt mir
Reaktionen: TheBear1517 und Flaimbot
FirstJune schrieb:
Nein, wir haben es ja in der Vergangenheit gesehen, wo ATI jetzt AMD mit ihren Radeon Nvidia überlegen waren, siehe "GeForce FX 5800 (Ultra) (Im Test vor 15 Jahren) mit nV30 war mit extremer Lautstärke bei schlechter Leistung für Nvidia eine Katastrophe." Und trotzdem haben die Leute Nvidia gekauft.
Marketing und möglicherweise viel Ignoranz der Kunden haben immer Nvidia gerettet.

Die Realität spricht eine andere Sprache:
https://www.3dcenter.org/dateien/ab...uer-Desktop-Grafikkarten-2002-bis-Q4-2014.png

Für ATI ging es von der 9700 Pro bis X800/X850 XT steil bergauf (von 26% auf 58% Marktanteil). Mit der X1800/X1950 war man auch noch gut dabei. Die HD 2900 war aber eine üble Bauchlandung (noch unter ATI entwickelt) und mangels R&D Kapazitäten und Geld (->AMD, nach der Übernahme) war dann über Jahre auch nichts mehr zu machen. Genaugenommen ist AMDs GPU Abteilung nie wieder ganz zurück gekommen. Ein zu Nvidia vollständig konkurrenzfähiges Portfolio hat es sei gut 13 Jahren nicht mehr gegeben. Die Konkurrenzfähigkeit beschränkt sich pro Generation immer auf einzelne Marktsegmente und das reicht halt nicht.
 
Ich lach mich schlapp, lächerlich dieses G-Sync Modul. Besser ganz lassen, als so einen Trash rausbringen!
 
Dark-Silent schrieb:
Was möchtest du uns damit sagen??????

Er will uns sagen der er keine Ahnung hat ...

YforU schrieb:
Für ATI ging es von der 9700 Pro bis X800/X850 XT steil bergauf (von 26% auf 58% Marktanteil). Mit der X1800/X1950 war man auch noch gut dabei. Die HD 2900 war eine üble Bauchlandung (noch unter ATI entwickelt) und mangels R&D Kapazitäten und Geld (->AMD, nach der Übernahme) war dann über Jahre auch nichts mehr zu machen. Genaugenommen ist AMDs GPU Abteilung nie wieder ganz zurück gekommen.

schon mal was von der 5870 gehört?
 
  • Gefällt mir
Reaktionen: Unnu
Ist echt erstaunlich was alles nötig ist um die bildausagabe der GPU mit der des monitores in Einklang zu bringen....
 
Generell bin ich immer für Fortschritt.
Aber ein Lüfter im Monitor? Das ist eher ein Rückschritt, egal wie hübsch die Bilder am Ende sind. Die Preise für G-Sync waren schon immer gesalzen, aber das finde ich nun zusätzlich wirklich etwas arg heftig.
Prinzipiell müsste hier eigentlich ein einheitlicher, halbwegs kostenneutraler, Standard her.

Dennoch: Schön das sich am Monitormarkt, nach gefühlten Jahren des Stillstands, endlich wieder etwas tut.
Die ersten TFTs für den PC waren auch Müll und extrem teuer. Heute hat praktisch niemand mehr ne Röhre.
 
@Dark-Silent

die 5870 war aber nicht nur konkurrenzfähig sondern Nvidia hatte ihr einfach nichts entgegen zu setzten und das in jeder hinsicht
 
  • Gefällt mir
Reaktionen: Unnu
motul300 schrieb:
schon mal was von der 5870 gehört?

Was ist an dem Begriff Portfolio so schwer zu verstehen ? Nvidia hatte Top to Bottom inkl. Mobile dGPUs und war mangels Konkurrenz (auch aufgrund diverser Terminverschiebungen bei AMD) bei den OEMs etabliert. Die Stärke von ATI war ursprünglich das OEM Geschäft und das ging Stück für Stück an Nvidia verloren.

AMD hatte immer mal wieder gute Produkte aber das reicht halt nicht. Die 6770M war beispielsweise richtig gut. Da war man aber schon nahezu raus aus dem Geschäft für mobile dGPUs. Gabs bei HP in ein paar Notebooks welche damals absolute Preis/Leistungsknaller waren (sowie dem MBP).
 
Zuletzt bearbeitet:
Marcus Hax0rway schrieb:
Ich sage nur: "Radeon Rebellion #BETTERRED"
Du machst dich lächerlich. Verglichen mit Nvidia GeForce Partner Program (GPP) ist das eher als eine Aussage zu verstehen. Äpfeln mit Birnen zu vergleichen ist echt arm. Welchen Strohhalm möchtest du noch ziehen?
 
  • Gefällt mir
Reaktionen: Hill Ridge
Warum wird meist von neuem teueren Modul, anstatt von neuem um Klassen besseren Modul gesprochen.

Es duefte wohl klar sein, dass z.B. "teuer" ein Kaugummi-Begriff ist, wies nicht besser/schlechter geht.
Wichtig ist vielmehr die Zielgruppe und Qualitaet (z.B. zum Preis)...
 
Powell schrieb:
lol sagt der der eine GTX1080 hat...die 1080 läuft dann sicher super auf Freesync
Dass sie es nicht tut, ist allein eine treiberseitige Einschränkung von NVidia. Wir erinnern uns: G-Sync auf Laptops nutzt ganz gewöhnliches VESA Adaptive-Sync, ohne extra G-Sync-Modul.
 
  • Gefällt mir
Reaktionen: Flaimbot
FirstJune schrieb:
Du machst dich lächerlich. Verglichen mit Nvidia GeForce Partner Program (GPP) ist das eher als eine Aussage zu verstehen. Äpfeln mit Birnen zu vergleichen ist echt arm. Welchen Strohhalm möchtest du noch ziehen?
Was hat das GPP damit zu tun, dass AMD ständig versuchen, sich als die Guten darzustellen und das nichts weiter als Marketing ist? Gar nichts. Ich will das GPP hier auch gar nicht schönreden, sondern nur darauf hinweisen, dass AMD nur so lange die "Guten" sind, wie das Marketing funktioniert. Am Ende zählt einzig und allein das Geld.

Und um nochmal auf deine Aussage zurückzukommen, dass ich mich lächerlich machen würde: Wenigstens ist nicht mein gesamter Beitrag fettgedruckt.
 
Frage an die Redaktion: Habt ihr den neuen NVIDIA NDA unterschrieben?
 
paul1508 schrieb:
Gibt es eigentlich einen technischen Unterschied zwischen G-Sync und Freesync? Bei beiden Technologien gibt es einiges an Gestaltungsspielraum, wie groß der Bereich ist usw.
Ob es wirklich ein großen Unterschied gibt, ist so klar nicht wirklich erkennbar, da beide Systeme genau das machen was sie sollen.

nVidia behauptet zwar, dass es ein paar technische Unterschiede gibt - siehe Noxons Beitrag - wie zum Beispiel, dass das Modul "vorhersagen" kann, wann das nächste Bild kommt und deswegen Overdrive usw. besser steuern kann. Dass er da zum Teil dem üblichen Marketing-Blub der Hersteller erliegt, erkennt er nicht wirklich.

Es gibt einen Vorteil für GSYCN, den man nicht weg diskutieren kann, was am Ende aber kein Problem von FreeSync ist, sondern eher der Monitorhersteller. GSYNC hat einen recht niedrig definierten minimalen Bereich. Bei FreeSync/AdaptivSync haben die Monitorhersteller wesentlich mehr Freiraum was die Frequenzen angeht und sie können diese frei bestimmen. Die Scaler werden komplexer und auch teurer je größer der Frequenzbereich ist.

Beide Systeme können aber Theoretisch x - y Hz abdecken. Da nVidia das entsprechende Modul anbietet, ist dort jedoch der minimale Frequenzbereich vorgeben. Ob die angeblichen anderen Vorteile wirklich von Bedeutung sind und wirklich spürbare Auswirkungen haben, dass muss jeder selbst für sich testen.


aivazi schrieb:
AMD macht es mit dem Scaler, den gab es in jedem Monitor auch schon nur waren diese nicht für dynamische Frequenzen ausgelegt. Entsprechend kann ein Monitor mit entsprechendem Scaler Chip auch die Frequenzen ansprechen. Das ist nicht einmal eine Änderung am Monitor Design der letzen Jahren und Nvidia braucht dafür einen FPGA Chip für dieselben Resultate ? Das stinkt nach proprietär.
In wie weit der FPGA-Chip da wirklich notwendig wäre, kann man wirklich stark in Zweifel ziehen. Im Endeffekt geht es nVidia aber immer darum die Konkurrenz aus zu sperren und die Nutzer in eine Art Geiselhaft zunehmen. Lustig ist hier, dass manche der nVidia-Verfechter gleichzeitig ärgste Apple-Hasser sind. Manche scheinen echt Schizophren zu sein.


aivazi schrieb:
TW: Bezüglich HDR bin ich mir ziemlich sicher, dass es nicht vom Modul abhängt, sondern wie gut einfach die Schaltzeiten für die Dimming Zonen sind. HDR funktioniert schließlich auch auf der PS4 ohne Zusatzmodul.
Du kannst dir da nicht nur ziemlich sicher sein, sondern es ist so. Ebenso wie GSYNC vermutlich ohne den FPGA auskommen würde. Es gibt zwar vielleicht etwagige "Vorteile" wie sie Noxon sie beschreibt, aber ob sie notwendig sind?


noxon schrieb:
Erstaunlich ist eher, dass du nicht weißt, dass Hertz nichts anderes als 1/s bedeutet und somit die Einheit von Frames/s ist.
Noch viel erstaunlicher ist es, dass du versuchst andere zu belehren und dabei beweist, dass du absolut keine Ahnung von der Materie hast.

Es stimmt zwar, dass Hertz erst mal 1/s bedeutet, aber Hertz ist nicht die Einheit von Frames/s. Es gibt nämlich eine sehr wichtige Einschränkung ab wann Hertz wirklich die Einheit ist. Hertz ist periodisch. Ergo: Die Abstände zwischen den auftretenden Ereignissen pro Sekunde sind gleichmäßig. 60 Hz bedeutet also, dass alle 16 Millisekunden ein "Tock" erfolgt.


noxon schrieb:
Die Framerate lässt sich also sehr wohl in Hertz ausdrücken und wenn jemand die Refresh rate eines Monitors mit fps bezeichnet ist das auch nicht falsch, denn so viele Bilder pro Sekunde stellt er dar.
1. Nein, die Framerate bei einem Computerspiel kann man nicht als Hertz ausdrücken. Sie erfüllen nicht die Anforderung der Periodizität und damit der Gleichmäßigkeit. Die FPS in Spielen schwanken und daher werden Frames auch nicht gleichmäßig an den Monitor gesendet. Wäre die Framerate wirklich periodisch, bräuchten wir solche Späße wie GSYNC, FreeSync, VSYNC und wie man weitere Techniken nennt nicht. 60 FPS wären zum Beispiel auch möglich, wenn 60 Bilder bereits nach 1 Millisekunde beim Monitor ankommen, die restlichen 980 Millisekunden dafür aber nicht mehr.

2. Natürlich könnte man die Hz-Anzahl des Monitores als FPS bezeichnen, unterschlägt dann aber wiederum die Periodizität. Wie unter dem Punkt 1 bereits erwähnt: FPS sagt nur, wie viele Frames die Sekunde angezeigt werden, die Anzeige muss aber nicht periodisch erfolgen.

noxon schrieb:
Das können die GSync Module auch besser, besonders wenn die Frameraten dabei in Bereiche rutscht, die Freesync nicht mehr mitmacht.
Immer dieses Halbwissen … FreeSync unterstützt ähnliche Frequenzbereiche wie Gsync. Problem bei FreeSync ist nur, dass AMD keine Vorschrift macht welcher Frequenzbereich abgedeckt werden muss. Theoretisch kann es der Bereich ab 9Hz bis hinauf zu 240 Hz sein.

Das Problem sind hier die Hersteller der Monitore, da sie entsprechende Scaler nicht verbauen.

noxon schrieb:
Auch dort GSync besser. Es deckt einen viel größeren Bereich ab und die Übergänge zwischen GSync, Vsync und diversen Übergängen in den Bilddopplungen sind nicht spürbar.
Auch hier: Das Problem hat nichts direkt mit FreeSync zu tun, sondern ist einmal den Freiheiten geschuldet, die AMD den Herstellern lässt und ebenso der Tatsache, dass die Hersteller versuchen die Elektronik möglichst günstig zu halten. Wenn die Hersteller wollten, könnten sie auch FreeSync-Monitore mit entsprechenden Eigenschaften ausstatten.

-- Eingefügt 22:10 --
Ein Grund, warum AMD bei FreeSync deutlich schärfere Vorschriften macht und gleichzeitig auch FreeSync 2 um ein paar Techniken erweitert - aktuell noch optional.

https://www.pcper.com/news/Graphics...ings-Latency-LFC-and-Color-Space-Requirements

Wieder einmal wird gefährliches Halbwissen verbreitet. …
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: paul1508, .fF, Recharging und 4 andere
Zurück
Oben