News AMD kündigt FreeSync-Treiber für den 19. März an

Was man so als Erfolg bezeichnet. Es gibt eine kostenlose Alternative die keinen Interessiert, weil 3D Gaming ebenso eine Nische ist wie diejenigen die sagen dass 60 Hz mit AdaptiveSync Müll sei. Sicherlich kann ich verstehen, dass jemand der dafür Extra Geld bezahlt es auch irgendwie sich selber als Erfolg schön redet. Daher sind auch die Nvidia-ist-Toll-Fraktion auch größer, da Kunden die Feature sowieso kostenlos mit dem Kauf der Hardware erhalten eben darum kein großes Gedöns machen wenn sie kein 3D oder Freesync nutzen.

Und soweit ich weiss bringt Nvidia überhaupt keine Bildschirme auf den Markt. Keine für 3DVision und auch keine für GSync, aber die haben ja auch die GPU erfunden, nur leider offensichtlich immer noch nicht das Textverständnis ^^
 
kisser schrieb:

Immer diese Erbsenzählerei ^^^Fake ist deine Wortwahl und entspricht nicht den Tatsachen. Da steht das die neuen Omega Treiber feesync supporten werden, was ja auch stimmt. Da steht aber nicht das das ab dem ersten Omega Treiber der Fall sein wird ( geschweige denn ein Datum ), was sich ja auch in den patch notes widerspiegelt. Ich habe ja auch von den patch notes gesprochen nicht von irgendwelchen Slides.

Wenn Unternehmen irgendwas ankündigen muss man schon sehr genau lesen. Das Wording da ist immer mit Vorsicht zu genießen.

Deine Darstellungen sind immer so geschrieben das dein Gegenüber unrecht hat und das deine Ansicht die einzig richtige ist. Mann könnte ja auch mal versuchen das ganz objektiv zu betrachten ohne für irgendeine Seite Partei zu ergreifen.

Hier wird aus einer Mücke ein Elefant gemacht nur um sich selber zu bestätigen. Irgendwelche Theorien die man sich zurecht gelegt hat und glaubt das die der Wahrheit entsprechen, obwohl man alles falsch gemacht hat um sich wirklich ein objektives Bild zu verschaffen. Gerade bei AMD/Nividia Diskussionen ist es seit Jahren der selbe alte Brei der immer wieder neu gelöffelt wird. Die Leute werden Emotional und versuchen dabei noch ihre eigenen Vorlieben zu rechtfertigen. Am Ende ist das meistens ein riesiger Kindergarten der nichts zum Ziel hat und deshalb auch nie ein Ende findet.

Edit:
zu kisser^^

jo hab nix anderes erwartet, das üblich blabla. Du und objektiv, mit deinen ganzen Mantle / direktx 12 Verschwörungstheorien :freak:
Auch hast du mir immer noch nicht zeigen können, wo der support für freesync in den patch notes steht.
Es ist also seit 3 Monaten klar das Omega (14.12) noch kein freesync unterstützt, du bist der einzige der das behauptet und jetzt total überrascht ist das das jetzt noch nicht funktioniert.
 
Zuletzt bearbeitet:
Achso, dann bin ich also der einzige, der das so gelesen hat? :freak:
Zeig mit irgendeine Website, die daraus gelesen hat, dass Freesync Support erst später kommt.

Man kann sich auch alles schönreden.
Vielleicht solltest DU das mal objektiv betrachten, so wie ich das mache.

Das einzig objektive Fazit ist, das AMD den Freesync Start gründlich vermasselt hat.
 
G-Sync/Freesync gab es vor 6 Jahren nicht. Und Vsync off bei 60 Hz ist Müll, Vsync on ist bei vielen Spielen Müll.
 
Zuletzt bearbeitet:
Und es gibt immer noch keine Nvidia Monitore. Keine alten und keine neuen die sie "gebracht" haben. Nochmal als Hinweis: Textverständnis.
AdaptiveSync hat deine "Müll" Einschätzung obsolet gemacht. Mangelndes technisches Verständnis ist oft die Ursache von mangelndem Textverständnis.
 
Warum sollte ein Monitorhersteller Hardware für ein Nischenprodukt eines Grafikkartenherstellers entwickeln, wenn der ihm nicht mindestens die Entwicklungskosten abnimmt ?

Und 6 Jahre lang gab es eben keine Alternative zu 120/144 Hz. Und vielleicht würde es die bis heute nicht geben, wenn Nvidia die Konkurrenz nicht mit dem selbst gebastelten G-Sync-Modul unter Zugzwang gesetzt hätte.
 
Wie nimmt Nvidia denn Monitorherstellern die Kosten ab, indem Ihnen ein GSync-Modul verkauft wird und noch Lizenzgebühren dafür verlangt?
Logik?
 
Funktioniert Freesync auch mit 60Hz?
 
Natürlich. Es funktioniert genauso wie Gsync innerhalb des kompletten Refreshrate-Bereiches eines Monitors. Bei einem 60Hz Monitor also von 30-60Hz.
 
Freesync kann zwischen 9 und 240 Hz arbeiten im Gegensatz zu Gsync das bei 30 Hz limitiert ist.
 
Daedal schrieb:
Wie nimmt Nvidia denn Monitorherstellern die Kosten ab

Du hast die bereits genannte Spezifikation der Kosten übersehen. Und kein Monitorhersteller wird sich dazu verpflichten, G-Sync-Module abzunehmen, ohne halbwegs sicher zu sein, sie ohne Verlust verkaufen zu können.

Bei dem Umbau-Monitor VG248QE hat Asus übrigens nur Gehäuse, Tastatur, Kabel und (zugekauftes) Panel von einem bereits angebotenen Modell beigesteuert. Die gesamte G-Sync-Monitorelektronik inklusive Netzteil hat Nvidia geliefert.

Daedal schrieb:
Freesync kann zwischen 9 und 240 Hz arbeiten im Gegensatz zu Gsync das bei 30 Hz limitiert ist.

Die feste Limitierung ist nach wie vor eine reine Behauptung von AMD, zumal theoretische Grenzen für die Käufer fertiger Monitore sowieso ohne Belang sind. Praktisch herrscht Gleichstand, keiner der angekündigten Freesync-Monitore bricht bisher die 30-144.
 
Daedal schrieb:
Inwiefern wird das Argument relevanter wenn anders herum verklagt wird? Immer noch irrelevant.
Dass ich es andersherum gesagt habe zeugt lediglich davon, dass du offensichtlich selbst eher ein schlechtes Textverständnis hast, es aber gerne an anderen kritisierst.

Wie kann ich dir ein Beispiel für einen konkreten Fall geben wen ich schreibe dies wäre der Fall wenn alle Unternehmen ausschließlich auf proprietäre Technik setzen würden? AMD macht das nicht und daher ist dies auch nicht der Fall, wofür ich dankbar bin wie ich schrieb. Wie das anders läuft mit Patentrollen siehst du wunderbar im Mobilfunkmarkt und den geschlossenen Biotopen.
Wir sind hier jetzt aber nicht im Mobilfunkmarkt sondern am Grafikmarkt. Und selbst dort gibt es eigentlich nur eine Firma, die wegen jeder Belanglosigkeit andere Leute vor Gericht zerrt. Das liegt nicht an den proprietären Pseudo-Technologien, die es da gibt, sondern daran dass man sich auf jeden kleinen unbedeutenden Dreck, den man gemacht hat, heute ein Patent geben lassen kann, selbst wenn man es nicht selbst erfunden hat.
Laut deiner Aussage bringt NVidia ja schon seit Jahren nur proprietäre Technologien raus und des weiteren behauptest du würden proprietäre Technologien das Patenttroll-Verhalten fördern. Im konkreten Fall bei NVidia fällt mir aber nicht ein, wann sie AMD zuletzt auf Grund einer proprietären Technologie, die von ihnen stammt, verklagt hätten.

Der Rest deines Beitrags ist voller seltsamer Fanboy Argumente die alle schon tausendmal in den Foren durchgekaut wurden und ebenso wenig Relevanz haben...daher Schönen Abend.
Warum habe ich nur das Gefühl, dass ich als angeblicher NVidia Fanboy in meinem Leben schon mehr AMD/ATI Karten besessen habe, als der vermeintlich objektiv argumentierende Deadal Nvidia Karten.
Was an meinem Beitrag stellt denn deiner Meinung nach ein Fanboy Argument dar?
Physx - kein mir bekannter direkter Konkurrent, kostenlos bei jeder NV-Karte dabei, keine Nachteile für AMD Besitzer man kann lediglich die zusätzlichen Features nicht nutzen
Mantle - Konkurrenten DX und OpenGL, Vorteil von Mantle: Software ist auf AMD Hardware optimiert, Nachteil: nicht mit Konkurrenzhardware nutzbar, daher genau wie PhysX eher als Zusatzfeature implementierbar.
3D Vision - HD3D: Nvidias Umsetzung funktioniert nach eigener Erfahrung besser
G-Sync - FreeSync: Freesync ist bis heute nicht funktionstüchtig folglich erübrigt sich momentan jeglicher Vergleich. Vergleichen kann man dann, wenn beide Technologien funktionstüchtig am Markt erhältlich sind und dann daraus eine Schlussfolgerung ziehen welche Technologie welche Vor- und welche Nachteile bietet. Dass du jetzt, bevor Freesync überhaupt jemals funktioniert hat, schon behauptest es wäre die bessere Lösung ist für mich dagegen nicht gerade eine objektive Beobachtung.
Interessant ist auch, dass hier offenbar alle AMD Befürworter so viel Wert auf Offenheit legen, sich aber vor Mantle niemand jemals wirklich über DX beschwert hat, eine der proprietärsten APIs überhaupt.
 
SimsP schrieb:
Dass ich es andersherum gesagt habe zeugt lediglich davon, dass du offensichtlich selbst eher ein schlechtes Textverständnis hast, es aber gerne an anderen kritisierst.
Nein es zeugt davon, dass ich sofort durchschaut habe, dass es irrelevant ist. Die Details spielen hierbei keine Rolle. Mein Textverständnis hat deine Unlogik am Satzanfang erkannt. So fährst du ja auch weiter fohrt....
Ergänzung ()

Zum Rest kann ich mich selber zitieren. Vielleicht verstehst du es ja beim zweiten mal. Bitte langsam und aufmerksam lesen
Daedal schrieb:
Wie kann ich dir ein Beispiel für einen konkreten Fall geben wen ich schreibe dies wäre der Fall wenn alle Unternehmen ausschließlich auf proprietäre Technik setzen würden? AMD macht das nicht und daher ist dies auch nicht der Fall, wofür ich dankbar bin wie ich schrieb. Wie das anders läuft mit Patentrollen siehst du wunderbar im Mobilfunkmarkt und den geschlossenen Biotopen.
 
Daedal schrieb:
Nein es zeugt davon, dass ich sofort durchschaut habe, dass es irrelevant ist. Die Details spielen hierbei keine Rolle. Mein Textverständnis hat deine Unlogik am Satzanfang erkannt. So fährst du ja auch weiter fohrt....
Stimmt du hast meine Unlogik sofort erkannt und deswegen meine Aussage falsch wiedergegeben ... macht Sinn.
Aber, da du ja ein tolles Textverständnis hast, kannst du mir bestimmt auch erklären wo ich unlogisch vorgegangen bin. Du hast behauptet proprietäre Technologien fördern Patenttrolle und dieses Argument gegen NVidia vorgebracht. Ich wollte daraufhin wissen, wann sich NVidia zum letzten mal als Patenttroll aufgeführt hat und AMD auf Basis einer dieser proprietären Technologien verklagt hat.

Ok gehen wir nochmal genauer auf den Mobilfunk-Markt ein, den du ja gerade als Beispiel gewählt hast: Android ist ein mehr oder weniger offenes Betriebssystem. Ähnlich wie dieses ganze AMD Zeugs. Und dennoch werden Hersteller die Android verwenden von proprietären Patenttrollen wie Apple wegen diverser Funktionen in Android verklagt. Du hast eine ähnliche Ausgangsbasis, mit dem feinen Unterschied, dass NVidia sich im Gegensatz zu Apple nicht jeden Dreck patentieren lässt und andere dann mit Klagewellen überhäuft.
Falls dein Argument nur greift wenn alle Unternehmen proprietäre Technik nutzen, was bringt es dir dann im Falle von Nvidia vs AMD, wenn deiner Ansicht nach nur NVidia proprietäre Technik nutzt? Dadurch implizierst du irgendwie gerade, dass dein eigenes Argument gegen NVidia sinnfrei war, oder habe ich dich falsch verstanden? Dass es aber durchaus Sinn macht, habe ich doch gerade oben mit dem Beispiel Apple vs Android dargelegt. Auch wenn nur eine Seite proprietäre Technik nutzt können daraus riesige Patentkriege entstehen. Dass es sich auf dem Grafikmarkt nicht so verhält liegt nur daran, dass NVidia eben nicht das selbe Vorgehen wie Apple hat.
 
Daedal schrieb:
Inwiefern wird das Argument relevanter wenn anders herum verklagt wird? Immer noch irrelevant.

Wie das anders läuft mit Patentrollen siehst du wunderbar im Mobilfunkmarkt und den geschlossenen Biotopen.
Ich weiss nicht was ich hier noch hinzufügen sollte. Verstehen tust du es immer noch nicht wie es scheint.

Dir sollte auch klar sein, dass Patentrolle keine Unternehmen sind die selber an dem Markt teilnehmen mit ihren Produkten. Auch Nvidia ist kein Patentroll. Nur sind alle Unternehmen in der Mobilfunkbranche auf das höchste bedroht, da es keinen freien alternativen Standard gibt der übergreifend gilt. Eine Patentklage kann schnell das aus bedeuten und so werden hauptsächlich Vergleiche geschlossen. Daraus folgt eine Patent-Strategie der Unternehmen um sich zu schützen. Freie Standards bedeuten Planungssicherheit und auch Zukunftssicherheit für alle Unternehmen im Markt und reduziert die Gefahr raus gedrängt zu werden wegen fehlendem Kapital und dadurch fehlendem Zugriff auf Technologien.
 
Zuletzt bearbeitet:
kisser schrieb:
Das einzig objektive Fazit ist, das AMD den Freesync Start gründlich vermasselt hat.

Wie kann es ein Fazit sein, wenn der Freesync start mangels Treiber und EDID Profilen noch gar nicht erfolgt ist.
Das ist nicht objektiv kisser, es ist ein Zerschreiben von AMD´s Feature bevor es überhaupt auf dem Markt ist.

Troll woanders.
Wieso muss man sich immer einer solch einseitigen Betrachtung hingeben.
Es ist halt offenbar nicht ganz so einfach mit allen Monitorherstellern einen Termin festzulegen und dann den Verkauf bis datum X völlig zu blockieren.

Das kann ganz alleine schon aus Qualitätssicherungsgründen passieren. Oder willst du lieber einen Monitor der nicht ordentlich mit Freesync funktioniert, dafür aber frühe Betatests?
Du wünscht dir doch nur, dass AMD dies vermasselt. Das erkennt man alleine schon an deiner Postinghistorie, wo bei jeder sich greifenden Gelegenheit gegen AMD gehetzt wird.

Deadal schrieb:
Freesync kann zwischen 9 und 240 Hz arbeiten im Gegensatz zu Gsync das bei 30 Hz limitiert ist.

Petersen sprach, dass G-sync auch Hertzbereiche von unter 30 Hertz unterstützen kann, es aktuell aber nicht tut, weil kein Monitor dafür konzipiert ist.
Dazu wurde dir auch schon öfters geantwortet und scheinbar rückst du nicht von dieser einseitigen Behauptung ab, wieso eigentlich genau?
G-sync ist prinzipiell nicht bei 30 Hertz limitiert.
 
Zuletzt bearbeitet:
Was habe ich Gegenteiliges Behauptet?
Weder habe ich behauptet es gäbe Monitore am Markt die es nutzen (Ebenso wenig wie 240 HZ Monitore), noch habe ich behauptet Nvidia wird niemals unter 30 Hz unterstützen.

Doch die offiziellen technischen Angaben sind nun mal:
GSync: 30-144 Hz
ASync: 9-240 Hz

Was sollte man mir hier nun erklären?

Wie sich die beiden Techniken mit TV-Paneln schlagen könnten und ob es auch schon TVs gibt die an eine ASync-fähige GPU abgeschlossen werden wird sich in den nächsten Wochen zeigen. Auch wie weit runter die ASync Monitore takten werden um Strom zu sparen im Desktop Modus hängt in erster Linie von den genutzten Kristallen ab und wie lange die ohne Refresh das Bild halten können.
Ergänzung ()

smilefaker schrieb:
Petersen sprach, dass G-sync auch Hertzbereiche von unter 30 Hertz unterstützen kann, es aktuell aber nicht tut, weil kein Monitor dafür konzipiert ist.
Und welches Wort würdest du vorschlagen anstatt "bei 30 Hz limitiert", wenn Nvidia das Limit derzeit auch selber so festlegt?
 
Zuletzt bearbeitet:
"Inoffiziell" kommt laut dieser Quelle schon jetzt eine verbesserte Fallback-Strategie unterhalb von 30 Hz zum Einsatz, die keinen Vsync-Judder zwischen 25 und 30 fps mehr bewirkt.

Nur Totalaussetzer führen noch zu Fehlfunktionen (Flimmern).
 
Ach übrigens, ich hab das jetzt mal selber nach geschaut und was sehe ich beim ersten den ich finde?
Freesync Monitor unterstützt 24Hz:
gaming.benq.com/gaming-monitor/xl2730z/specification/
Sogar der GSync dank BenQs Hybrid-Engine über HDMI/VGA:
gaming.benq.com/gaming-monitor/xl2420g/specification/
Ergänzung ()

smilefaker schrieb:
Dazu wurde dir auch schon öfters geantwortet und scheinbar rückst du nicht von dieser einseitigen Behauptung ab, wieso eigentlich genau?
Nun, wen man nicht selber nach schaut... 20 Sekunden hab ich gebraucht für die zwei Links.
 
Daedal schrieb:
Ich weiss nicht was ich hier noch hinzufügen sollte. Verstehen tust du es immer noch nicht wie es scheint.
Dann frage ich mal so. Was verstehst du unter einem geschlossenen Biotop? Offensichtlich nicht das was der Duden oder wikipedia darunter versteht.

Daedal schrieb:
Ach übrigens, ich hab das jetzt mal selber nach geschaut und was sehe ich beim ersten den ich finde?
Freesync Monitor unterstützt 24Hz:
gaming.benq.com/gaming-monitor/xl2730z/specification/
Sogar der GSync dank BenQs Hybrid-Engine über HDMI/VGA:
gaming.benq.com/gaming-monitor/xl2420g/specification/
Ergänzung ()

Nun, wen man nicht selber nach schaut... 20 Sekunden hab ich gebraucht für die zwei Links.

Mhm und ich habe weitere zwei Sekunden gebraucht um zu sehen, dass der entsprechende Monitor laut diesem Techsheet mit Displayport nicht unter 56Hz ansteuerbar ist. Da Displayport aber Voraussetzung für Freesync ist, kannst du Freesync so wie ich das sehe hier unter 56 Hz gar nicht betreiben. Schön, dass es über HDMI funktioniert, aber das nützt dir für Freesync nichts. Keine Ahnung ob G-Sync mittlerweile auch über HDMI geht, Freesync aber definitiv nicht.
 
Zurück
Oben