News Kooperation mit MediaTek: Nvidias teures G-Sync-Modul wird überflüssig

Rickmer schrieb:
brauchen wir überhaupt noch G-Sync als separate Marke für VRR
G-Sync ist schon etwas mehr als VRR, was jeder einfach so auf die Verpackung schreiben kann, egal wie es in der Umsetzung aussieht. Im Artikel wurden ja schon Punkte genannt, dazu kommt eben noch das Zertifikat.
  • Variable Bildwiederholraten
  • Variables Overdrive
  • 12 Bit Farben
  • Ultra Low Motion Blur (ULMB)
  • Low Latency HDR
  • Reflex Analyzer
  • Pulsar
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hoebelix, autopilot und Grestorn
Hmm nutzt Nvidia nicht bei ihren Laptops VRR? Vermarktet das aber als g-sync?
Da war doch was.

Aber egal. G-sync ist minimal besser als VRR in manchen Szenarien. So what. Dafür zahlt man dann massiv viel mehr Geld.
Muss man selber entscheiden ob es einem das wert ist.
Mir nicht und 99% der Normal-Kunden sehen es ähnlich.

@Grestorn
Soweit ich weiß gab es VRR vor g-sync. Nvidia ist dann aber aus dem Konsortium aufgestiegen und hat g-sync als erstes vermarktet. Im Laptop haben sie aber VRR genutzt.
So gesehen, haben die kaum Innovation betrieben.
Den Rest deines posts übergehe ich mal, da ist mir zuviel Unsinn dabei.

Ich sage nur "Mantle". Ohne das gäbe es heute kein Vulkan. Und das wurde offen von AMD entwickelt. War eine massive Innovation. Und hat Microsoft untwr Druck gesetzt DX12 rauszubringen.
 
  • Gefällt mir
Reaktionen: cbmik, Redundanz und SweetOhm
edenjung schrieb:
@Grestorn
Soweit ich weiß gab es VRR vor g-sync.
Nein. GSync war bereits lange in der Entwicklung. AMD ist nur aufgesprungen und hat es ins Konsortium getragen, um die drohende Innovation schon zu entwerten, bevor diese auf den Markt kam.

Und wenn Du mir Unsinn vorwirfst, dann wirst Du doch sicher auch Gegenartgumente haben, sonst ist es nur ein persönlicher Angriff ohne Substanz.
 
  • Gefällt mir
Reaktionen: Hoebelix und autopilot
Rickmer schrieb:
Daher wäre meine Frage erstmal - brauchen wir überhaupt noch G-Sync als separate Marke für VRR?
Variables Overdrive ist immer noch immens wichtig. Es gibt kaum Monitore, bei denen eine einzige Overdrive-Stufe für die gesamte VRR-Range optimal ist. Wenn ich bei der Marke "G-Sync" davon ausgehen kann, dass ein Monitor variables Overdrive hat, würde ich deine Frage mit "Ja" beantworten.
 
  • Gefällt mir
Reaktionen: Rickmer
Grestorn schrieb:
Da ist es dann viel sinnvoller angelegt, als bei Firmen, die nur abschauen und versuchen, die Innovation mit angeblicher "Offenheit" (die gar keine ach so tolle Tat für den Kunden ist, da es ja keinen Vorteil für den Nachmacher mehr wäre, die Technik "exklusiv" anzubieten) zu zerstören, statt mal etwas eigenes, innovatives zu entwickeln. Und auch dann trotzdem am Ende immer nur die zweitbesten sind.
VRR (HDMI)/Adaptive-Sync (DisplayPort) ist ein offener Standard.
Weder AMD noch NVIDIA haben da etwas abgeguckt, sondern sind nur unterschiedliche Wege gegangen. Es gibt übrigens auch Qualcomms Q-Sync und Apples ProMotion.

Das "Offenheit" keine tolle Tat für Kunden ist, halte ich für komplett falsch. Ich meine, wir reden hier von einem offenen Standard, verfügbar über HDMI und DisplayPort.
NVIDIA versucht(e) die Monitorhersteller dazu zu zwingen es so zu implementieren, dass es nur mit NVIDIA Grafikkarten funktioniert.
AMD hingegen hat es so implementiert, dass es über den offen verfügbaren HDMI/DisplayPort Standard klappt, der allen zur Verfügung steht.
Wenn du dich lieber beschränken lässt und dafür auch noch extra Geld bezahlen möchtes für angebliche Innovation: Tu das.
Ich habe eine andere Meinung dazu. Der Markt übrigens auch, ist ja kein Zufall, dass NVIDIA über ein Treiberupdate plötzlich auch "FreeSync" (also eigentlich nur VRR/AdaptiveSync) unterstützt, das früher angeblich nicht ging.

Grestorn schrieb:
Dass jetzt das GSync Modul endlich aus dem Schatten tritt, finde ich gut. Mein alter Acer Predator x27 ist einer der letzten Monitore mit GSync Ultimate Modul, und er stellt immer noch die meisten modernen Monitore in vielen Bereichen in den Schatten. Die HDR Darstellung ist Gold, und immer noch besser als mein Samsung trotz aller OLED.
Ich weiß nicht, was AdaptiveSync/VRR mit der HDR Darstellung zu tun hat. Der Acer Monitor ist sehr gut, für das was er ist - das GSync Ultimate Modul aber über die HDR Darstellung zu rechtfertigen, verstehe ich nicht. Magst du das bitte erklären?
 
  • Gefällt mir
Reaktionen: RedVapor, ohman, MiroPoch und 4 andere
Rickmer schrieb:
Andere Gründe für Nichtnutzung von G-Sync waren zweifelsohne auch, dass das Ultimate Modul aktive Belüftung brauchte und nicht zuletzt, dass es mittlerweile auch ohne läuft.

Ich habe mir beim vorletzten Monitor noch genau angeschaut, ob die Freesync-Option auch mit nvidia Karten funktionieren wird. Beim Monitorkauf dieses Jahr war ich einfach davon ausgegangen, dass VRR unabhängig von dem GPU Hersteller funktionieren wird.


Daher wäre meine Frage erstmal - brauchen wir überhaupt noch G-Sync als separate Marke für VRR?
Also für die Oled Monitore wäre interessant zu wissen, ob es VRR Flickering mit den Gsync Module gibt(beim Alienware 34 gab?). Falls das damit verschwindet, wäre es ein Riesen Schritt, denn das ist ein großes Problem
 
  • Gefällt mir
Reaktionen: BlueBringer
Wechhe schrieb:
Das "Offenheit" keine tolle Tat für Kunden ist, halte ich für komplett falsch. Ich meine, wir reden hier von einem offenen Standard, verfügbar über HDMI und DisplayPort.
Offenheit wäre dann bemerkenswert, wenn man eine neue Innovation, die es noch nicht gibt und keiner sonst hat, von Anfang an für alle bereitstellt. In kleineren Dingen gibt es sowas ja durchaus von beiden Herstellern, wie bestimmte Rendering-Technologien.

Aber nicht bei großen Entwicklungen.

Was auch logisch ist, denn eine solche Entwicklung kostet Geld. Und jede Innovation muss sich für den Entwickler rechnen, sonst ist es schlicht rausgeschmissenes Geld.

Z.B. hat NVidia RayTracing "offen" gemacht, in dem man den Standard zusammen mit MS und AMD in DirectX integriert hat, weil sie genau wussten, dass sie mit ihrer Hardware einen so schnell nicht aufholbaren Vorteil haben. Da rentiert sich die Innovation trotz der Umsetzung über einen Standard (anders hätte es sich auch nie durchgesetzt).

Bei GSync / VRR wäre das nicht der Fall gewesen. Also hat man versucht, das Feature exklusiv anzubieten (und das wurde von AMD sehr erfolgreich torpediert).

Wenn AMD mal innovativ ist, dann sind sie ebenso exlusiv, wie bei Mantle z.B. (es gibt nicht viele Beispiele).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: autopilot
@Grestorn
Vergiss es.
Ich will jetzt schon nicht mit dir diskutieren, denn deine Wortwahl alleine und deine verqueren Vorstellungen von "Innovation" und Unterstellungen gegenüber allen anderen außer Nvidia sind mir jetzt schon zu viel.

Aber hier mal die Historie von VRR.
Das gibt's schon ewig. Angefangen mit den crt Bildschirmen.
https://en.m.wikipedia.org/wiki/Variable_refresh_rate
Das ganze in software umzusetzen hatten übrigens viele. Da war Nvidia nicht die ersten. Vielleicht die ersten am Markt. Aber mehr auch nicht.
Und die setzen das anders um. Vesa, dein "innovationsfeindliches" konsortium hat den standard freigegeben für alle. Und das ist gut für den Wettbewerb.

Nvidia hat auch raytracing nicht erfunden. Das gibt's viel länger. Aber sie setzen es anders um bzw. haben eigene Rechenlösungen dafür.
Und mantle war frei. Die Entwickler mussten es nur einbauen. Später wurde daraus Vulkan. Auch frei. Und ohne Vulkan wäre DX12 nie das geworden was es heute ist.

Aber ist eh egal. Deine Meinung ist fest und ich habe eh keine Chance die zu ändern. In dem Sinne, schönen Abend noch.
 
  • Gefällt mir
Reaktionen: RedVapor, peru3232, ohman und 7 andere
blackiwid schrieb:
Ich soll also von nem Monitorhersteller nen Monitor kaufen wo Hardware die darin ist mich am hindern dieser Hardware nutzt wenn ich mich für ne AMD Grafikkarte entscheiden habe...
VRR funktioniert auch mit dem Gsync Modul Monitor und ner AMD GPU problemlos
 
Wechhe schrieb:
Ich weiß nicht, was AdaptiveSync/VRR mit der HDR Darstellung zu tun hat.
Als der Monitor (und GSync Ultimate) rauskam, waren die HDR Features nur über die NVApi vollständig steuerbar und nutzbar. Erst später hat Windows da einiges nachgerüstet.

AMD hat mit Freesync Premium einen ähnlichen Ansatz gehabt.

https://www.displayninja.com/freesync-premium-pro-vs-g-sync-ultimate/
Ergänzung ()

edenjung schrieb:
Vergiss es.
Ich will jetzt schon nicht mit dir diskutieren, denn deine Wortwahl alleine und deine verqueren Vorstellungen von "Innovation" und Unterstellungen gegenüber allen anderen außer Nvidia sind mir jetzt schon zu viel.
Alles klar. Wie immer halt.

VRR gab es schon lange, das stimmt. Aber eben nicht über HDMI / DP. Und es gab keine SW-Infrastruktur, weder im Monitor noch in der GPU.

Ähnlich wie RT, auch das gab es schon lange bevor es NVidia erstmals im Consumer Bereich in Echtzeit nutzbar gemacht hat. Was man ja auch nicht müde geworden ist, zu betonen ("NVidia hat RT nicht erfunden!" - Nein, haben sie aber auch nie behauptet).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: autopilot
Grestorn schrieb:
Offenheit wäre dann bemerkenswert, wenn man eine neue Innovation, die es noch nicht gibt und keiner sonst hat, von Anfang an für alle bereitstellt.
Genau das wurde mit VRR / AdaptiveSync doch getan?

Es wurde als Standard in der Übertragstechnik (HDMI/Displayport) implementiert, den sowieso alle beteiligen Hersteller in der Kette (Monitor, Kabel, Grafikkarte) folgen müssen. Offener geht es ja wohl kaum.

Grestorn schrieb:
Aber nicht bei großen Entwicklungen.

Was auch logisch ist, denn eine solche Entwicklung kostet Geld. Und jede Innovation muss sich für den Entwickler rechnen, sonst ist es schlicht rausgeschmissenes Geld.

Variable Refresh-Rate is keine große Entwicklung, das gab es schon vor zig Jahren. Es wurde nur neu implementiert, damit es auch mit Rastermonitoren funktioniert. Die eigentliche Leistung liegt da eher bei den Monitorherstellern, die eine variable Refreshrate inklusive Synchronisation implementieren mussten. Das war neu bei Rastermonitoren (Flachbildschirmen) und gab es vorher bereits bei CRT Monitoren. Die Grafikkartenherstellern mussten da nicht viel entwickeln.

Grestorn schrieb:
Bei GSync / VRR wäre das nicht der Fall gewesen. Also hat man versucht, das Feature exklusiv anzubieten (und das wurde von AMD sehr erfolgreich torpediert).
Von AMD wurde überhaupt nichts torpediert. Das ist eine Falschaussage. AMD hat sich mit anderen Firmen dafür eingesetzt, einen offenen Kommunikationstandard zwischen Grafikkarte und Monitor zu finden. Die Implementierung in der Grafikkarte und seitens des Monitors müssen die jeweiligen Hersteller trotzdem selbst machen - haben dann aber eben einen Standard und damit die Sicherheit, dass deren Entwicklungskosten auch genutzt werden. (was ja auch dein Argument ist).
 
  • Gefällt mir
Reaktionen: ohman, MiroPoch, cbmik und 3 andere
"Nvidias teures G-Sync-Modul wird überflüssig"

Wäre es das eigentlich nicht schon immer gewesen ?

"zum anderen erfordert es eine aktive Kühlung und unterstützt selbst in jüngster Revision noch nicht einmal HDMI 2.1"

Was somit zum Scheitern verurteilt wurde (bis auf die NV Hardcore Fans "natürlich")
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MiroPoch, Steini1990 und edenjung
gsync ist zwingend ips notwendig und das hat ein leuchten was Farben überstrahlt und texte quasi unlesbar macht je höher die Auflösung wird.
Das stört mich gewaltig am handy ist aber bei 1080p 6,5 zoll noch erträglich aber wehe ich muss kein skalierte Texte lesen.
Deswegen kommt kein ips auf meinen tisch somit ist gsync ausgeschlossen für mich. Das gute ich bekomme tearing nicht mit.
 
@Wechhe

Nochmal: VRR gab es als Prinzip schon lange. Es gab aber keine Monitore und keine GPUs, die das konnten.

Jemand musste also die Idee haben, dass auf den PC zu bringen und in Monitore zu bringen. Gerade letzteres ist nicht so einfach.

NVidia ist in die Vorleistung gegangen und hat einen eigenen Scaler-Chip entwickelt (etwas, wofür sie eigentlich keine Expertise haben, das machen eben solche Firmen wie MediaTek, die aber wohl damals abgewunken haben). Das war der erste GSync Chip, der auch jede Menge Nachteile hatte.

Es war schwer genug, Monitor-Hersteller dazu zu bewegen, diesen Chip in die Monitore einzubauen.

Das ging natürlich nicht an AMD vorbei, die die Gelegenheit genutzt haben, die Idee ins Konsortium zu tragen. Und auf einmal waren die Scaler-Hersteller mit im Boot.

Komische Sache...
 
  • Gefällt mir
Reaktionen: autopilot
Wechhe schrieb:
Hier stimme ich dir aber nicht zu. Wenn ich ein neu installiertes Spiel starte und FreeSync ist nicht aktiviert, dann merke ich das meistens sofort. Ich reagiere super empfindlich auf Tearing und das macht das Spieleerlebnis sehr schnell zunichte. VRR ist für mich sehr wichtig.
Und das sind nicht 1st person du mirkst das bei isometrischen Games oder Strategygames oder sowas?

Idealfall shooter aber beim einen oder andern 1st person z.B. Rollenspiel mag man das auch merken. Die frage ist doch es muss entweder ein sehr schönes game sein das die 60fps man nicht eh schafft und die nativ darstellen kann oder man hat einen 100-250hz monitor und kann diese nicht nativ schaffen.

Also gehts doch um schön aussehende 1st Person spiele, primär shooter (aber nicht nur)? Hab ne steamdeck stell alles fix auf 40fps, kann kein VRR oder VSync hab noch keinen Nachteil gemerkt.
Ergänzung ()

JMP $FCE2 schrieb:
Wo steht denn, dass der Mediatek-Chip nicht auch Freesync und VESA VRR unterstützt ?
Für Freesync brauch ich doch nicht diesen Chip oder doch und selbst wenn sind da noch Schaltkreise drin für Nvidia die ein besseres Erlebnis bieten werden die mir Mediatek als AMD Kunde kein Zugriff gewährt, sonst wäre die Kooperation ja sinnlos wenn sie für Nvidia nur 1:1 die selben features bereit stellen würden.
 
@Grestorn

Du widersprichst dir selbst.

Dein Argument, dass ein Hersteller für seine Innovation auch bezahlt werden soll (dem stimme ich zu) passt nicht damit zusammen, dass es hier eben keine Innovation gab, die kopiert wurde.
Du sagst selbst, dass es VRR schon vorher gab. (das hat NVIDIA also nicht entwickelt und dafür können die auch kein Geld verlangen).

Worum geht es dann also?

Es geht darum, eine Idee/Prinzig (VRR) zu implementieren. Dafür haben verschiedene Hersteller verschiedene Ansätze gewählt:

NVIDIA wollte es mit einem eigenen Scaler Chip machen, der in die Monitore kommt.
AMD (und andere) wollten es offener gestalten und die Implementierung den Monitorherstellern überlassen, die dann auf einen offenen Kommunikationsstandard mit den Grafikkarten zugreifen können.

Hier entstand also Konkurrenz bei der Implementierung. Das ist genau die Innovation durch Konkurrenz, die du dir selbst gewünscht hast. Diesmal hat aber nicht dein geliebtes NVIDIA "gewonnen", sondern der offene Standard hat sich bei den Kunden durchgesetzt. Und da wurde nichts torpediert - es gab ja zu Anfang beides. Die Kunden konnten sich entscheiden, ob sie FreeSync oder Gsync Monitore kaufen.
Und wenn es wirklich stimmt, dass GSync soooo viel besser ist, warum hat sich das dann bei den Kunden nicht durchgesetzt?

Komische Sache...
 
  • Gefällt mir
Reaktionen: MiroPoch, cbmik, SweetOhm und 2 andere
blackiwid schrieb:
Für Freesync brauch ich doch nicht diesen Chip oder doch und selbst wenn sind da noch Schaltkreise drin für Nvidia die ein besseres Erlebnis bieten werden die mir Mediatek als AMD Kunde kein Zugriff gewährt, sonst wäre die Kooperation ja sinnlos wenn sie für Nvidia nur 1:1 die selben features bereit stellen würden.
Es werden einfach Monitore sein, die neben Freesync (Premium) eben auch alle GSync (Ultimate) Features anbieten. Ob Du die mit Deiner GPU nutzen kannst, steht auf einem anderen Blatt.

NVidia GPUs können ja auch keine Freesync Premium Features nutzen.
Ergänzung ()

Wechhe schrieb:
Dein Argument, dass ein Hersteller für seine Innovation auch bezahlt werden soll (dem stimme ich zu) passt nicht damit zusammen, dass es hier eben keine Innovation gab, die kopiert wurde.
Du sagst selbst, dass es VRR schon vorher gab. (das hat NVIDIA also nicht entwickelt und dafür können die auch kein Geld verlangen).
Du verstehst nicht.

Natürlich wurde etwas entwickelt, der Scaler-Chip nämlich. Den gab es nicht. Ebenfalls der Übertragungsstandard und die SW in der GPU fehlte.

Nur weil es das Prinzip VRR vorher schon gab, war dies ja eben so ohne weiteres nicht nutzbar.

AMD ist nicht auf die Idee gekommen, sondern haben die Innovation von NVidia einfach torpediert, weil sie rechtzeitig davon Wind bekamen. So einfach ist das.
 
  • Gefällt mir
Reaktionen: autopilot
Blackfirehawk schrieb:
VRR funktioniert auch mit dem Gsync Modul Monitor und ner AMD GPU problemlos
Das ist so wie wenn ich sage im Winter sicher fahren geht auch mit dem Winterreifen eines jeden Herstellers, aber die tolle Reifendruckanzeige oder oder das spikes ausgefahren werden um es noch rutschsicherer zu machen in situationen wo man ins rutschen gerät die laufen nur mit dem reifen eines bestimmten Herstellers.

Wenn Gsync und Freesync zu absolut identischen Ergebnissen führt wozu ist es dann drin? Will Nvidia Freesync und Hardware unterstütztes Gsync unterstützen um auf 2 wegen zu identischen Ergebnissen zu kommen? Oder gehts nur darum das man nen Nvidia Aufkleber auf alle Monitore oder viele packen darf?

Das kann man aber doch mit dem GSYNC VRR / testen verlangen auch erreichen.
Ergänzung ()

Grestorn schrieb:
Ob Du die mit Deiner GPU nutzen kannst, steht auf einem anderen Blatt.
Und das ist mein Punkt, ich kauf von keinem Monitor Hersteller der mich bestraft das ich zum "falschen" Grafikkartenhersteller greife (oder zumindest nicht ein solches Modell)
 
  • Gefällt mir
Reaktionen: cbmik und SweetOhm
@Wechhe
Vergiss es, dass ist vergebene Liebesmüh und Lebenszeit.

Ich merke hier im Forum immer mehr, dass die Leute so extrem in ihren Meinungen sind und immer mehr nur noch das akzeptieren was ihnen passt.
Vor allem diese Unterstellungen und Polemik nimmt in meinen Augen überhand. Es macht keinen spaß mehr sich hier auszutauschen, weil es immer mehr gibt.

Konstruktive Diskussionen gibt es selten. Und die Gefahr für sowas ist immer dann groß, wenn es um eine der großen Firmen geht. Da habe ich meist schon keinen Bock mehr die Kommentare zu lesen.

In anderen Bereichen geht es da gesitteter zu.
 
  • Gefällt mir
Reaktionen: Corpus Delicti, MiroPoch, cbmik und 5 andere
Zurück
Oben