News Kooperation mit MediaTek: Nvidias teures G-Sync-Modul wird überflüssig

Grestorn schrieb:
Du verstehst nicht.

Natürlich wurde etwas entwickelt, der Scaler-Chip nämlich. Den gab es nicht. Ebenfalls der Übertragungsstandard und die SW in der GPU fehlte.
Doch, ich verstehe sehr gut.
Der Scaler Chip war NVIDIA Ansatz. Wurde auf den Markt gebracht, hat sich nicht durchgesetzt. Passiert und ist ein normaler Prozess. Verschiedene Firmen konkurrieren miteinander und bringen jeder ihre Lösung für eine Idee heraus. Am Ende setzt sich dann im Idealfall die bessere durch. Dass dabei was entwickelt wird, was dann keiner mehr benutzt ist Pech.

Grestorn schrieb:
AMD ist nicht auf die Idee gekommen, sondern haben die Innovation von NVidia einfach torpediert, weil sie rechtzeitig davon Wind bekamen. So einfach ist das.
NVIDIA ist auch nicht auf die Idee gekommen. Wie du selbst sagst - VRR gab es schon vorher.
AMD hat also torpediert, weil sie einen anderen Ansatz gewählt haben, der sich dann am Markt durchgesetzt hat?

Mit dieser Schlussfolgerung gehe ich nicht mit und ich halte das für einseitiges Fanboy/Fangirl Geschwurbel.
 
  • Gefällt mir
Reaktionen: jo0, ohman, MiroPoch und 8 andere
Ich habe es in einigen Monitorn gehabt aber nie wirklich genutzt auf Grund von Problemen bzw wo es mal aktiviert war.

FPS sinkt extrem und stottert wie auch immer. In den Spielen in den es lief natürlich Top, es waren aber auch wohl einige Spiele bedroffen wo es mit aktiviertem G-SYNC unspielbar war.
 
Grestorn schrieb:
Nein. GSync war bereits lange in der Entwicklung. AMD ist nur aufgesprungen und hat es ins Konsortium getragen, um die drohende Innovation schon zu entwerten, bevor diese auf den Markt kam.

Und wenn Du mir Unsinn vorwirfst, dann wirst Du doch sicher auch Gegenartgumente haben, sonst ist es nur ein persönlicher Angriff ohne Substanz.
Die waren in etwa Zeitgleich am Markt.
NV brachte das ganze halt mit einem Chip verdonglet und inkompatibel zu Freesync/Adaptive Sync heraus. Natürlich als "überlegenes Gsync" und proprietär wie immer bei NV.
 
  • Gefällt mir
Reaktionen: SweetOhm
metoer schrieb:
Funktionen dann auch mit GPUs verwenden die nicht von Nvidia kommen?

Hahahaha. :evillol::lol::volllol:

Es ist nVidia. Was erwartest Du? Ehe die irgendwas offenes/Open Source machen, geht eher die Welt unter.
 
  • Gefällt mir
Reaktionen: MiroPoch, cbmik, metoer und eine weitere Person
Also wenn es die Preise senkt ist der Schritt zu begrüßen, ich bin jedes Mal froh Freesync nutzen zu können.
 
War wohl wieder mal Nvidia Software Lock und jetzt darf Mediatek den Code auf ihren Scalern integrieren, gehen würde es wohl prinzipiell überall.

Glaube eher nicht, dass die Hardware jemals zwingend notwendig war.
 
  • Gefällt mir
Reaktionen: MiroPoch, Redundanz und SweetOhm
Grestorn schrieb:
Wenn AMD mal innovativ ist, dann sind sie ebenso exlusiv, wie bei Mantle z.B. (es gibt nicht viele Beispiele).
Dann frag mal @DevPandi (Redakteurin).
Sie hat vor ca. 4 - 6 Monaten einem User aufgelistet (jener die selbe Aussage getätigt hat), wie wer was genau "erfunden" hat und damit aufgezeigt wie breit und lang der "Holzweg" ist, auf dem Du Dich befindest !!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jo0, cbmik und edenjung
syfsyn schrieb:
gsync ist zwingend ips notwendig und das hat ein leuchten was Farben überstrahlt und texte quasi unlesbar macht je höher die Auflösung wird.
Das stört mich gewaltig am handy ist aber bei 1080p 6,5 zoll noch erträglich aber wehe ich muss kein skalierte Texte lesen.
Deswegen kommt kein ips auf meinen tisch somit ist gsync ausgeschlossen für mich. Das gute ich bekomme tearing nicht mit.
Hä?
 
  • Gefällt mir
Reaktionen: Slim.Shady
Ein vergleich nimm ne Taschenlampe strahl dein Gesicht an und versuche nenn Text zu lesen so ist das
ips glow
Und nein es sind nicht Lichthöfe durch unausgeglichen Hintergurndbeleuchtung das kommt von der diode selbst
 
syfsyn schrieb:
Ein vergleich nimm ne Taschenlampe strahl dein Gesicht an und versuche nenn Text zu lesen so ist das
ips glow

Den sieht man nur bei dunklen Bildinhalten, wenn überhaupt. Mein Dell G2724D ist praktisch frei davon, und bei meinem Laptop mit IPS sehe ich die helleren Ecken eigentlich nur beim schwarzen Bootscreen.

Wie das die Leserlichkeit von schwarzem Text auf weißem Grund beeinträchtigen soll, ist mir schleierhaft. Da blendet gar nichts, Text ist eher besser lesbar, als bei dem TN-Monitor vorher.

Vielleicht hast Du einfach nur die Helligkeit zu weit hochgedreht. Das verstärkt Glow natürlich und verschlechtert den Kontrast, wenn man in einem normal beleuchteten Raum die Hintergrundbeleuchtung auf Anschlag hochreißt.
 
Der Preis ist kleiner als meine Seele, aber trotzdem finde ich dieses Geschäftsgebaren mit viel proprietärer Software Mist.
Frei nach Tolkien: "Eine Hardware zum knechten, sie alle zu finden, ins Dunkel zu treiben und ewig zu binden."
Mein Problem ist nur, die Konkurrenz ist auch extra schlecht. Deswegen fristet meine 6900XT als besserer Heißluftfön noch so lange weiter bis es was wirklich besseres gibt. Aber was soll's, ich hab Zeit.
 
  • Gefällt mir
Reaktionen: Ja_Ge und edenjung
Immer wieder so viele News von Nvidia. Dabei warte ich sehnsüchtigst daraf, dass sie endlich eine neue Shield vorstellen mit Hdmi2.1 und all den Features die sie so lautstark vorstellen!
 
  • Gefällt mir
Reaktionen: cbmik
Rickmer schrieb:
Daher wäre meine Frage erstmal - brauchen wir überhaupt noch G-Sync als separate Marke für VRR?
Ein Qualitätsstandard in irgendeiner Form wäre nicht schlecht.

Freesync ist bei manchen Monitoren absoluter Rotz, weil z.B. bei bestimmten Modellen es zu flackern geführt hat weil die Helligkeit je nach Refresh Rate geschwankt hat, und es ja scheinbar keine Checkliste gibt die das verhindert.

Und dann noch die Verwirrung mit VRR + V-Sync oder dass User selbst dann ihren Monitoren irgendwelche "Arbeitswiederholraten" einstellen, weil es sonst zu Bildfehlern führt. Das ist eigentlich eine Funktion, wo man einmal drauf klicken sollte und es die optimale Einstellung hat. Jeder Monitor darf mit Freesync/VRR werben, egal wie verhunzt die Umsetzung ist.

Ist nicht Nvidias Job das zu tun, aber wenn man mit strengeren Regeln etwas eigenes hat (G-Sync), und diesen Standard nun günstiger fortsetzt durch Synergien, hat es schon Vorteile als Konsument.
 
Zuletzt bearbeitet:
Klingt nach eingekaufter Werbung auf der Verpackung. Wird trotzdem mit OLED flackern, sonst hätte man es wohl schon erwähnt. Bahnbrechend...
 
  • Gefällt mir
Reaktionen: Redundanz
edenjung schrieb:
Ich merke hier im Forum immer mehr, dass die Leute so extrem in ihren Meinungen sind und immer mehr nur noch das akzeptieren was ihnen passt.
Genau. Das sagen die selben Leute (nicht Du persönlich), die NVidia "scam" unterstellen und meinen, NVidia würde sie nur über den Tisch ziehen.

Aber mir eine extreme Sprache unterstellen, wo ich eigentlich nur versuche, ganz rationale Entscheidungen von wirtschaftlich agierenden Unternehmen darzulegen (aber klar, AMD macht alles nur aus Nächstenliebe).

Aber egal. Jeder darf seine Meinung haben ... Ich auch meine, ok?
Ergänzung ()

SweetOhm schrieb:
Dann frag mal @DevPandi (Redakteurin).
Sie hat vor ca. 4 - 6 Monaten einem User aufgelistet (jener die selbe Aussage getätigt hat), wie wer was genau "erfunden" hat und damit aufgezeigt wie breit und lang der "Holzweg" ist, auf dem Du Dich befindest !!
Das überlass im Zweifelsfall mal der lieben @DevPandi selbst, Du musst nicht ihr Mundstück spielen :)

Es scheint hier absolut nicht gern gesehen zu sein, nicht der allgemeinen "AMD ist super und NVidia ist scheiße" Meinungseinheit anzugehören :)
 
  • Gefällt mir
Reaktionen: autopilot und Ja_Ge
nr-Thunder schrieb:
Ein Qualitätsstandard in irgendeiner Form wäre nicht schlecht.
Ja, hofentlich war VRR in HDMI 2.1 ein richtiger Schritt dahin.
nr-Thunder schrieb:
Freesync ist bei manchen Monitoren absoluter Rotz, weil z.B. bei bestimmten Modellen es zu flackern geführt hat weil die Helligkeit je nach Refresh Rate geschwankt hat, und es ja scheinbar keine Checkliste gibt die das verhindert.
da fällt mir das zu ein (schön zu sehen an den robo-Armen bei 0,5 Geschwindigkeit):
 
Grestorn schrieb:
@Wechhe

Nochmal: VRR gab es als Prinzip schon lange. Es gab aber keine Monitore und keine GPUs, die das konnten.

Jemand musste also die Idee haben, dass auf den PC zu bringen und in Monitore zu bringen. Gerade letzteres ist nicht so einfach.

NVidia ist in die Vorleistung gegangen und hat einen eigenen Scaler-Chip entwickelt (etwas, wofür sie eigentlich keine Expertise haben, das machen eben solche Firmen wie MediaTek, die aber wohl damals abgewunken haben). Das war der erste GSync Chip, der auch jede Menge Nachteile hatte.

Es war schwer genug, Monitor-Hersteller dazu zu bewegen, diesen Chip in die Monitore einzubauen.

Das ging natürlich nicht an AMD vorbei, die die Gelegenheit genutzt haben, die Idee ins Konsortium zu tragen. Und auf einmal waren die Scaler-Hersteller mit im Boot.

Komische Sache...
Stimmt nicht ganz VBR, war im Notebook, schon vorher. Ganz ohne G-Sync, usw.,. Es war zum stromsparen gedacht. Das es gerade in Games aus Vorteil bringt, wurde dann im Desktop aufgegriffen. Da hat NV gedacht, ach damit kann man wieder Leuten Geld aus der Tasche ziehen und Kunden binden. Nicht mehr, nicht weniger🤷🏻
Der Plan, ging nur nicht so auf, weil NV, die Taschen nicht voll genug bekommen hat. AMD, hat einfach den Standard, vom Notebook, in den Desktop gebracht, anstatt unnötige Kosten zu verursachen 😉. Wäre mit dem ganzen NV, nicht auf die Schnauze gefallen, würde es nicht FreeSync kompertiebel geben. Nicht anderster, wie RBar/ Sam, Mantel/ DX12, uvm.. NV gönnt einem rein gar nix. Die wollen nur Lemminge, was sie leider bisher sehr erfolgreich geschafft haben.
 
  • Gefällt mir
Reaktionen: jo0, Corpus Delicti, MiroPoch und eine weitere Person
Sternengucker80 schrieb:
Nicht mehr, nicht weniger🤷🏻
Ganz so ist es ja nicht. G-Sync nativ war dem ursprünglichem Freesync technisch deutlich überlegen. Zudem hatte Nvidia an das Wiedergabegerät auch Minimalanforderungen die es erfüllen musste. Ist bei Gsync - compatible eigentlich auch noch so, nur dass man das da via „Haken setzten“ ignorieren kann.
Der Aufpreis war halt zu hoch, und ist es erst recht nachdem Freesync – Premium und HDMI VRR qualitativ aufgeholt haben. Leider noch immer abhängig von der Qualität und Umsetzung am Monitor oder TV.
 
Sternengucker80 schrieb:
AMD, hat einfach den Standard, vom Notebook, in den Desktop gebracht, anstatt unnötige Kosten zu verursachen

AMD hat sich damals ewig Zeit gelassen, die eigentlich offensichtliche Verbesserungsmöglichkeit Frame Doubling treiberseitig als "LFC" zu implementieren, und im Prinzip unfertigen Murks auf den Markt geworfen.

Mein G-Sync-Monitor der 1. Generation konnte das von Anfang an, auch wenn offiziell 30 fps Untergrenze angegeben waren. Leichte Flackerer gab es nur bei einstelligen Frameraten (betrraf nur Ladebildschirme).
 
  • Gefällt mir
Reaktionen: Ja_Ge
Es war trotzdem einfach nur Standard im NB Bereich. Sogar Intel, konnte das mit ihrer schimligen IGPU. NV war einfach nur so Klever, es in den Desktop zu bringen, mit der Option, Kunden zu binden, bevor die anderen, das realisiert haben. Im Desktop, ging es noch nie um Stromsparen! Apple, hat auch nie was erfunden! Sie haben nur zur richtigen Zeit, die möglichkeiten, richtig kombiniert! Kann ja gerne jeder nutzen, was er will🤷🏻. Gerne sich an eine Firma binden, oder auch einfach mal über den Tellerrand schauen und sich fragen, warum vieles so ist, wie es ist 😜.
 
  • Gefällt mir
Reaktionen: edenjung
Zurück
Oben