News FreeSync bei Nvidia ist „sehr unwahrscheinlich“

Im Technischen Datenblatt des GSync-Moduls ist weder DVI, VGA noch HDMI Support spezifiziert. Sollte es mal eine spätere Version können ist es nicht bekannt, da nicht angekündigt. Auch weiss man noch nicht ob es ASICs geben wird und was bei denen mit an Board ist. Bei ASync ist alles bekannt und es gibt von Anfang an eine fertig ausgereifte Technik in Massenproduktion, dank VESA-Standard.
 
Wenn tatsächlich in Zukunft der Großteil der Monitore adaptive Sync unterstützt, ggf. Intel noch mit aufspringt auf den Zug, überlegen sie sich das vielleicht nochmal...Hier sind auch die Konsumenten und ihre Stimmen gefragt.
 
Mikey158 schrieb:
Erlebnis oder doch ERGEBNIS??!!


Im Original heißt es "experience", lässt sich immer schlecht übersetzen, aber "Erlebnis" klang besser als Erfahrung(swert). Oder hat jemand eine bessere Idee?


smilefaker schrieb:
@ CB

Wieso stellt Ihr das mit Freesync und Adaptive Sync nicht klarer dar?
Freesync ist doch nur der AMD Treiber.

PiPaPa schrieb:
@computerbase
Verdammt nochmal, gewöhnt euch doch bitte an genauer zu formulieren. FreeSync ist lediglich der Name des AMD Treiber(parts) für die Ansteuerung von Adaptive Sync (VESA).

Da habt ihr ja schon Recht. FreeSync heißt AMDs Umsetzung von Adaptive-Sync mittels Treiber auf Radeon-karten (APUs). Nur wird die Funktion auch von Display-Herstellern als "FreeSync" beworben. Da Nvidia Adaptive-Sync nicht unterstützt, wird es im Endeffekt (vorerst) auch nur FreeSync geben. Von daher halte ich den Namen nicht für verkehrt.
 
teile, die eigene Lösung mit einem speziellen (proprietären) Monitormodul jedoch bessere Resultate liefere: „Wir glauben, dass wir auf den G-Sync-basierten Monitoren immer ein besseres Erlebnis erzielen werden.“

So und mit der Aussage hat er aber nicht beantwortet, wieso man nicht neben G-Sync nicht auch adaptiv Sync unterstützten kann.
Denn wenn ja G-Sync das bessere "Erlebnis" liefert, dann werden doch die vermögenden Kunden (oder jene die das "bessere" Erlebnis schätzen) doch sowieso zu einem G-Sync Monitor kaufen.
Das eine schließt doch das andere nicht aus, wenn man ja sowieso das "bessere Erlebnis" bei der teureren Variante hat.

Oder liegt es eher daran, dass man so Kunden länger und besser binden kann. Denn wer G-Sync Monitor hat, wird auch dann weiter brav eine NV Karte kaufen, sobald man doch adaptive Sync unterstützt.

Gut dass mir das alles völlig Kalt lässt und ich dafür extra auch kein Geld zahlen würde.
 
Zuletzt bearbeitet:
Danke nVidia, dass ich bald nicht mehr erklären muss warum ihr mir so unsympathisch geworden seid. Leider hab ich diese (sorry) Scheiß-Politik und die Position, dass sie sich das anscheinend immer noch leisten können, mit meinem letzten Grafikkartenkauf sogar noch unterstützt :-( Dabei ist diese Einstellung ja beileibe nichts neues.
 
CraIwLeR schrieb:
Amd ...Nvdia..... Wieso nicht zusammen an einem Sync Konzept arbeiten und die Einnahmen teilen ..... neeeeein... Gäbe ja kein Wettbewerb .... und nicht genug Gewinn

Nvidia sitzt ja in der Vesa und könnten den VESA Standard unterstützen. Anstatt dass die was tun, sitzen sie drinnen und drehen Däumchen.
 
Postman schrieb:
Ich würde wegen so einem Marketingrotz nie wechseln.

Die Power entscheidet und da stinkt AMD eben ab.
Wäre AMD an der Spitze wäre ich dort, da ich nicht unbedingt an einer der beiden Firmen hänge.

Ich habe kein FreeSync und ich persönlich nehme kein Ruckeln war - wie die Mikroruckler (hatte auch mal eine Doppelkarte und hatte nie was zu meckern) halte ich das eher für eine "urbane Legende" oder eine Wahrnehmung von Menschen die die Flöhe husten hören.

Ohje, soviel Unsinn von einem altUser, wer hier wohl stinkt ;-)

Du selbst hast eine Jetstream GTX780 und bescheinigst der AMD, als Beispiel nehmen wir mal 290x, eine schlechte Power gegenüber Nvidia? Hast du dir überhaupt irgendwelche Test durchgelesen? Nvidia hat seine Vorteile in niedrigeren Auflösungen, in den hohen Auflösungen steht AMD wieder weiter vorne. Übrigens, alles in einem Bereich wo du mit keinem Hersteller unbedingt schlechter dastehen wirst. Deine Aussagen sind einfach nur bis zum Tellerrand gedacht.
Achja, hier der aktuelle Test, vllt erweitert es deinen Tellerrand ;-)
https://www.computerbase.de/2015-01/nvidia-geforce-gtx-960-im-test/13/

Noch eins, von Spiel zu Spiel unterschiedlich, von Auflösung zu Auflösung unterschiedlich, mit AA&Co oder ohne, all das spielt eine Rolle, aber man kann dennoch sagen, man macht mit keinem Hersteller wenn es um Power geht irgendwas falsch.
Soll jetzt keine Grundsatzdiskussion über "wer ist besser" sein.

Topic:
Meinte Nvidia jetzt explizit Freesync oder generell Adaptive Sync? Das ist irgendwie nicht ganz klar aus dem Artikel herauszulesen.
 
Zuletzt bearbeitet:
CraIwLeR schrieb:
Amd ...Nvdia..... Wieso nicht zusammen an einem Sync Konzept arbeiten und die Einnahmen teilen ..... neeeeein... Gäbe ja kein Wettbewerb .... und nicht genug Gewinn ..... schade schade, müssen wir noch 2-4 Jahre warten bis was vernünftiges auf den Markt kommt, wenn nicht sogar länger.
Was hättest du denn gerne? Keinen Wettbewerb und nur eine Lösung zur Auswahl bei der du kein Mitspracherecht mehr hast? So kannst du als Kunde wenigstens wählen welche Technologie du bevorzugst und wenn alle nur AMD wählen, dann hat der Markt halt gesprochen und FreeSync als die bessere Technologie empfunden. Wählen die Kunden G-Sync, dann hat nVidia gewonnen.
Dass einem die Wahl jetzt so schwierig fällt zeigt nur, dass beide Technologien ihre Vor- und Nachteile zu haben scheinen und es keinen klaren Gewinner gibt und man jetzt zwei Lösungen für ein uns das selbe Problem angeboten bekommt. Das ist nunmal der Preis/Luxus, den man für eine freie Marktwirtschaft zahlt/bekommt.
 
Zuletzt bearbeitet:
Tronx schrieb:
Topic:
Meinte Nvidia jetzt explizit Freesync oder generell Adaptive Sync? Das ist irgendwie nicht ganz klar aus dem Artikel herauszulesen.

In dem Video wird eindeutig von Displayport 1.2a geredet, also Adaptive-Sync.
 
MichaG schrieb:
Da Nvidia Adaptive-Sync nicht unterstützt, wird es im Endeffekt (vorerst) auch nur FreeSync geben. Von daher halte ich den Namen nicht für verkehrt.

Aber das sorgt für Verwirrung hier wie du siehst. Viele denken nun das wäre wieder ein AMD vs. Nvidia Ding.

Dabei geht es um Nvidia vs. den Standard nicht unterstützen zu wollen.
 
MichaG schrieb:
Da habt ihr ja schon Recht. FreeSync heißt AMDs Umsetzung von Adaptive-Sync mittels Treiber auf Radeon-karten (APUs). Nur wird die Funktion auch von Display-Herstellern als "FreeSync" beworben. Da Nvidia Adaptive-Sync nicht unterstützt, wird es im Endeffekt (vorerst) auch nur FreeSync geben. Von daher halte ich den Namen nicht für verkehrt.
#

Trotzdem verwirrt es die Leute, man kann das auch anders formulieren, so dass ein für alle mal klar ist, dass dies ein VESA Standard ist und kein AMD Zeugs.
Dann würden viele auch verstehen wieso die AMD Lösung offen und die Nvidia geschlossen ist.;)
 
Kann ich so nicht stehen lassen, entweder man bezieht sich auf einen Standard der dann festgelegt wurde z.B. in Displayport 1.2a, dann muss Nvidia sich daran halten, tun sie das nicht, dann dürfen sie eben nicht mit Displayport 1.2a werben. (kenne jetzt nicht den Inhalt vom Displayport 1.2a Standard)
 
Leider ist Adaptive-Sync in DisplayPort 1.2a ein optionaler Bestandteil, der nicht unterstützt werden muss, wenn man den Standard unterstützt^^
 
Bin mal gespannt ob es so bleibt...

Irgendwie hätte ich schon Lust, Widerufsansprüche aufgrund des RAM-Fehlers geltend zu machen un nVidia den Rücken zu kehren.
Aber eine R9 290(X) würde ich nicht einbauen da zu alt, somit müsste ich bis zum Release des "King of the Hill" mit ner Krücke auskommen.

Aber ein paar Fehler darf nVidia noch machen um bei mir den "Apple-Status" zu erreichen :lol:
 
Tronx schrieb:
Ohje, soviel Unsinn von einem altUser, wer hier wohl stinkt ;-)

Du selbst hast eine Jetstream GTX780 und bescheinigst der AMD, als Beispiel nehmen wir mal 290x, eine schlechte Power gegenüber Nvidia? Hast du dir überhaupt irgendwelche Test durchgelesen? Nvidia hat seine Vorteile in niedrigeren Auflösungen, in den hohen Auflösungen steht AMD wieder weiter vorne. Übrigens, alles in einem Bereich wo du mit keinem Hersteller unbedingt schlechter dastehen wirst. Deine Aussagen sind einfach nur bis zum Tellerrand gedacht.
Achja, hier der aktuelle Test, vllt erweitert es deinen Tellerrand ;-)
https://www.computerbase.de/2015-01/nvidia-geforce-gtx-960-im-test/13/

Noch eins, von Spiel zu Spiel unterschiedlich, von Auflösung zu Auflösung unterschiedlich, mit AA&Co oder ohne, all das spielt eine Rolle, aber man kann dennoch sagen, man macht mit keinem Hersteller wenn es um Power geht irgendwas falsch.
Soll jetzt keine Grundsatzdiskussion über "wer ist besser" sein.

Ich sehe es ja neutral, weshalb ich auch schon AMD hatte. Der Hersteller der das beste Portfolio hat zu dem gehe ich. Schau dir bei deinem Link nur die Lautstärke an, 10 -15 Dezibel lauter und erst die Abwärme - das krampfhafte Mithalten können wird hart erkauft mit einer Hardware die am Limit betrieben wird.

Nur bei einem relativiere ich.
Ich habe und hatte immer Highendkarten, vielleicht merkt man solche Geschichten wie Freesync oder Mikroruckler (hier ja schon bestätigt) oberhalb von 50 Frames nicht.
 
Zuletzt bearbeitet:
CraIwLeR schrieb:
Amd ...Nvdia..... Wieso nicht zusammen an einem Sync Konzept arbeiten und die Einnahmen teilen ..... neeeeein... Gäbe ja kein Wettbewerb .... und nicht genug Gewinn ..... schade schade, müssen wir noch 2-4 Jahre warten bis was vernünftiges auf den Markt kommt, wenn nicht sogar länger.

Find ich immer zum lachen wenn ich sowas lese. Natürlich geht es um Gewinn. Es geht darum auf den Markt zu überleben. Das ist doch hier nicht der Sozialismus!

Stellen wir uns mal zwei Friseure in einer Straße vor. Der eine Salon stellt einen Friseur ein der besonders gut Glatzen rasieren kann. Der andere Friseur und dessen Stammkunden machen Nase. Soll der neu eingestellte Friseur der gut Glatzen rasieren kann jetzt die Hälfte seines Arbeitstages zu dem anderen Salon gehen und dort Haare schneiden? Beide Friseure teilen sich dann die Lohnkosten und die Einnahmen und alle Kunden sind glücklich! So stellst du dir die Welt vor???

So ziemlich jedes Unternehmen dieser Welt das auf dem freien Markt agiert versucht durch eigene Technologien und Entwicklungen der Konkurrenzlos voraus zu sein. Das ist völlig selbstverständlich.
Du teilst ja deine Freundin auch nicht mit deinem Nachbar damit es euch allen Drei gut geht! :D
 
Zuletzt bearbeitet:
noxon schrieb:
dass beide Technologien ihre Vor- und Nachteile zu haben
Bekannte Infos:

G-Sync Vorteile:
  • auf dem Markt (Funktionsfähigkeit sollte man voraussetzen)
  • Laut Marketing besser - was man davon zu halten hat wird man sehen
G-Sync Nachteile:
  • teuer, aufgrund des FPGA
  • funktioniert ausschließlich mit nvidia Karten (und wird niemals für Dritte geöffnet werden)
  • verbraucht mehr Energie als Adaptive Sync fähige Scaler
  • ca. 7 Geräte auf dem Markt, gerade mal ein neuer Monitor angekündigt
  • Bisher nur TN Panel
  • Nur 1 DP Anschluss verfügbar, HDMI, DVI, VGA etc nicht vorhanden!

Adaptive Sync Vorteile
  • günstiger in der Anschaffung
  • (freiwilliger) VESA Standard, daher jedes VESA Mitglied kann ohne zusätzliche Lizenzgebühren AS verwenden, also auch Konsolen, Fernseher, Beamer usw
  • Schon jetzt mehr Monitore angekündigt als für G-Sync auf dem Markt
  • verwendete Scaler sind Massenware
  • IPS Panel werden unterstützt, vermutlich alle Panel Typen auf dem Markt

Adaptive Sync Nachteile

  • muss sich noch beweisen
  • nvidia unterstützt es aus eigennützigen Gründen nicht, sprich um sich nicht selber Konkurrenz zu machen.

Ich wüßte jetzt nicht wirklich was außer der puren Verfügbarkeit auch nur für nvidia spricht.
 
Postman@ Gut, wenn du auf Lautstärke achtest, dann solltest du aber auch das so angeben und nicht von schlechter Power bei AMD gegenüber Nvidia sprechen. Ich persönlich habe sowieso nur WAKÜ und da spielt Lautstärke keine Rolle.
 
Du guckst keine Tests Postman, ansonsten würdest du wissen dass AMD nicht soviel lauter war, vor allem nicht gegenüber dem GK110.
 
Toms schrieb:
Leider ist Adaptive-Sync in DisplayPort 1.2a ein optionaler Bestandteil, der nicht unterstützt werden muss, wenn man den Standard unterstützt^^

Tronx schrieb:
Kann ich so nicht stehen lassen, entweder man bezieht sich auf einen Standard der dann festgelegt wurde z.B. in Displayport 1.2a, dann muss Nvidia sich daran halten, tun sie das nicht, dann dürfen sie eben nicht mit Displayport 1.2a werben. (kenne jetzt nicht den Inhalt vom Displayport 1.2a Standard)

Die Frage ist doch eher was auf der Scaler-Seite passiert. Was Nvidia auf ihren GPUs macht ist deren Sache.

Doch welcher Scalerhersteller wird denn zwei Scalertypen produzieren einmal mit der Option ASync und einmal ohne?
Also wird die Hardware im Monitor das können. Dann liegt es am Monitorhersteller ob er es in der Firmware aktiviert oder nicht - wie lange wird es wohl dauern ein kostenloses Feature bei allen zu aktivieren wenn die Konkurrenz keine GSync-Monitore baut und nur ASync? Ob Nvidia das dann unterstützt oder nicht wird keiner Fragen.
 
Zurück
Oben