News FreeSync-Monitore zum Jahreswechsel im Handel

Ähm, kann man nicht einfach noch die paar Monate warten bis FreeSync Monitore marktreif sind, und es aussagekräftige Reviews gibt, anstatt sich jetzt schon wieder über ungelegte Eier um Kopf und Kragen zu reden?

Mich würd das Thema sehr interessieren, weil eines der beiden Features ein "must have" für meinen nächsten Monitor ist. Daher find ich zum Teil auch die ganzen Fakten rund um das Thema interessant.

Aber wieviel hier über etwas spekuliert wird, was noch gar nicht erhältlich ist, ist schon beachtlich, obwohl ich den Faden bereits verloren hab worum es nocht geht.
 
Herdware schrieb:
Die allermeisten werden bestimmt nicht nur wegen dieses einen Features auf AMD umsteigen.

Doch, klar. Genau wie bei Mantle ;)

Herdware schrieb:
AMDs Hauptargument für FreeSync ist, dass Adaptive Sync im Monitor günstiger zu implementieren ist. Das mag im Augenblick (G-Sync noch als aufwändiges FPGA implementiert, statt als dedizierte Hardware) auch stimmen, aber die technische Weiterentwicklung und große Stückzahlen werden letztlich sowohl Adaptive Sync- als auch G-Sync-Hardware zu "Centartikeln" werden lassen. Vorausgesetzt, sie setzen sich überhaupt durch.

Ich würde davon ausgehen dass sobald es FreeSync-Monitore (tschuldingung: AdaptiveSync Monitore) gibt, billigere G-Sync Monitore angekündigt und verkauft werden. Entweder gibt nVidia jetzt schon günstigere Module an die Hersteller aus und man teilt sie den Gewinn der Enthusiastenkäufer oder man hat die Module zumindest schon in der Schublade liegen.

Andere Möglichkeit ist, dass die neuen Karten von nVidia auch DP1.2a unterstützen werden und nVidia einfach beide Sync-Techniken anbietet. Voraussetzung dafür ist natürlich, dass G-Sync gegenüber FreeSync einen nicht zu kleinen Mehrwert bietet. Das kann man mangels Tests die beide Techniken in ihrer finalen Form gegenüberstellen leider noch nicht sagen.
 
Was man auch festhalten muss. Über ein Jahr nach der Ankündigung von G-Sync waren es mal 6 Monitore, die erst nach immer wieder verschobenen Terminen dann nach und nach auf den Markt tröpfelten - in homöphatischen Dosen.
Inzwischen sind es gar nur noch 5, den/die BenQ Modelle in 24/27" gibt es in Deutschland anscheinend gar nicht mehr zu erwerben / bzw ein Modell gab es eh gar nicht. Und BenQ hat sich bestimmt nicht aufgrund der "Masse an Konkurrenz" zurückgezogen. Da liegt es wohl Nahe das die Hersteller gemerkt haben das sich die G-Sync Modelle nicht profitabel verkaufen und es sich schlicht nicht lohnt.

Auch sind mir keine weiteren Ankündigungen für zukünftige Modelle bekannt. Was bleibt? Ich tippe auf Resterampe..
 
DocWindows schrieb:
Andere Möglichkeit ist, dass die neuen Karten von nVidia auch DP1.2a unterstützen werden und nVidia einfach beide Sync-Techniken anbietet.
Ich denke Nvidia wird auch gar nichts anderes übrig bleiben.
Es bleibt aber immer noch die Frage wozu die Monitor-Hersteller dann noch beides Unterstützen sollten und dazu auch noch 2 Scaler verbauen sollten. Und wenn es keine weiteren Monitore gibt, was soll Nvidia dann noch weiter entwickeln?
 
@Daedal: Der Knackpunkt ist halt die Frage ob G-Sync einen Mehrwert gegenüber FreeSync, bzw. Adaptive Sync bietet um daran festzuhalten und zweigleisig zu fahren. Da man da immer noch nichts konkretes hört oder sieht bleiben nur spekulationen übrig.

Ich würds zu gerne mal gegenübergestellt sehen, aber weil es ein optischer Effekt ist der mit Bildwiederholraten zu tun hat wird es wahrscheinlich nicht einfach werden davon ein Video mit einer normalen Videokamera zu machen und ins Netz zu stellen. Wär schon schade wenn man sich das nur live anschauen könnte.
 
Das es keine G-sync-FPS umsonst gibt ist schon belegt, auch wenn Nvidia was anders behaupte,
ca. 5-10% auf jedenfall verschluckt das G-sync an FPS, aber das ist ja auch egal weil dafür hat uns Nvidia vor 2 Jahren schon FCAT(Nvidia-Tool) vorgestellt, das alle Tester nur noch die "ganzen Bilder" die auch an den Monitor geschickt werden nur noch zählen sollen.
 
Die Frage ist was man denn ominös besser machen kann als ein Bild auf dem Monitor erst dann darzustellen wenn es fertig ist mittels VBLANK. Das ist ein An/Aus Befehl. Alles weitere entscheidet die Reaktionszeit der Flüssigkristalle und wie lange sie ihren Zustand halten können bevor ein Refresh nötig ist - besonders für die niedrigen Frameraten wie 24p ist das eine wichtige Frage. Bei den anderen Features ist der GSync-Scaler ja auch dem VESA-Scaler unterlegen, also ist eher die Frage wann der Nvidia eigene Scaler überhaupt mal die volle Funktionalität der schon etablierten Marken erhält und nicht ob er mehr hat. Erstmal aufholen und überhaupt mal einen ASIC produzieren.
 
kisser schrieb:
Fragt sich doch, wem hier die Sachkenntnis fehlt:

https://www.pgroup.com/resources/cuda-x86.htm
Vielen Dank für diesen Link, das war mir in der Tat bisher nicht bekannt. Es ist in jedem Fall eine tolle Entwicklung was dort mit dem Compiler möglich ist und ein Schritt in die richtige Richtung. Schade nur, dass es bisher eben nicht komplett portabel ist und einige Funktionen auf Nvidia-GPUs beschränkt bleiben. Wäre dieser Pferdefuss nicht schon wieder drin hätte man uneingeschränkt Applaus spenden können. PhysX on CPU lässt grüßen.

Aber das hast du sicher auch gelesen in deiner Quelle.
Q Will all CUDA applications run on x86?

A PGI has no current plans to support the CUDA C Driver API, that would be very difficult to do. All CUDA C applications written using the Runtime API should run on multi-core x64 with the PGI compiler. It will take a few releases to reach a point where all NVIDIA CUDA C for GPU features (e.g. support for texture memeory) are implemented. Some low-level coding strategies that depend on specific features of the device (like warp size) are not be portable.
 
PiPaPa schrieb:
Gut das du dafür die Thematik Cuda Lizenz einfach ignorierst ^^


Ich ignoriere das nicht, kann aber nicht auf mehrere Postings gleichzeitg antworten.

PiPaPa schrieb:
@kisser

http://www.pcgameshardware.de/Wirts...Kepler-und-GPU-IP-Lizenzen-an-Dritte-1075081/

So, also nvidia wird wohl kaum Cuda in Hardware kostenlos lizenzieren, wenn das ein finanzielles Standbein für sie werden soll.

CUDA in Hardware? CUDA ist eine SOFTWARE, die frei zur Verfügung steht. Schon mal was von freien Lizenzen gehört?


smilefaker schrieb:
Der TressFX Code ist freigegeben und läuft auf AMD und Nvidia.

Alle NVidia Code Samples laufen auch auf AMD.

smilefaker schrieb:
Nvidias GPU Physx läuft dagegen nur auf Nvidia.

Und auf CPUs. Aber wieso bringst du jetzt PhysX ins Spiel?

smilefaker schrieb:
Wer sagt es sei eine Entwicklung von AMD? AMD setzt auf diesen offenen Standard für ihre GPu´s.
Nvidia setzt auf das geschlossene CUDA.

Auch Nvidia unterstützt OpenCL und daneben noch das offene CUDA.

smilefaker schrieb:
Wird zum Jahreswechsel veröffentlicht, was soll die Polemik Future will tell?
Dir passt es nur einfach nicht, das ist das Problem.

Das ist keine Polemik. Aber auf Ankündigungen gebe ich nichts. Nur Taten zählen.

smilefaker schrieb:
AMD orientiert sich an offenen Lösungen.
Es ging nicht darum was es leistet, sondern dass es auf einem offenen Standard aufbaut.

Sofern eine offene Lösung schlechter ist als eine geschlossene ist mir die geschlossene lieber.
Es geht also sehr wohl darum, was Adaptive Sync leistet!
 
Zuletzt bearbeitet:
CUDA ist eine Software, welche bestimmte Hardwarevoraussetzungen mitbringen muss... Ähnlich wie bei PhysX gibt es auch dort Unterschiede bzgl CPU und GPU.
Ein anderer Ansatz wäre, dass Nvidia CUDA separat anbietet. So könnten Gerätehersteller ihren Geräten CUDA-Unterstützung verschaffen, um beispielsweise die Vorteile der Laufzeitumgebung mitzunehmen, oder um Portierungen von Nvidia-Systemen auf andere Systeme leichter zu gestalten.
Was will nvidia bei der CUDA Lizenz verkaufen, wenn es eine freie Lizenz ist die auf jeder Hardware uneingeschränkt läuft?
 
kisser schrieb:
Alle NVidia Code Samples laufen auch auf AMD.

Mir ist entgangen wo Nvidia Hairworks ( Hunde ) in Call of Duty Ghosts auf AMD GPU´s lief.

Und auf CPUs. Aber wieso bringst du jetzt PhysX ins Spiel?

Das fragst du dich ernsthaft noch?

Auch Nvidia unterstützt OpenCL und daneben noch das offene CUDA.

Die Software kann jeder nutzen, daher ist die Software frei, aber nur solange man eine Nvidiakarte sein eigenen nennt.
Also proprietär.

Das ist keine Polemik. Aber auf Ankündigungen gebe ich nichts. Nur Taten zählen.

Warum verlinkst du dann die Anspielungen von Nvidia, Cuda könnte auch auf AMD Karten laufen?
Das waren auch nix anderes als Ankündigungen, denn bis heute ist rein gar nichts davon bekannt.
Du misst ergo mit zweierlei Maß. Schäm dich und stell dich in ne Ecke. ;)

Nur Taten zählen.

Bei AMD zählen nur die Taten und bei Nvidia gibt es Vorschusslorbeeren im voraus, ja supi.

ofern eine offene Lösung schlechter ist als eine geschlossene ist mir die geschlossene lieber.

Sofern die offene Lösung noch besser ist wie die geschlossene ist mir das noch lieber.

Es geht also sehr wohl darum, was Adaptive Sync leistet!

Nö in dem Zusammenhang, den du benannt hast, nicht.
Denn das war deine Ausrede, weil du keine Argumente mehr hattest.

Siehe:

TressFX, HD3D, Open CL Support, Mantle legen sie offen, Freesync wird der Treiber zur offenen Lösung von Adaptive Sync.
TressFX: ist nur ein Shader-Programm, davon bekommt man von Nvidia eine ganze Menge:

https://developer.nvidia.com/dx11-samples

HD3D: ist das nicht die Nutzung von Drittanbieter-Software, damit AMD überhaupt zu 3D-Darstellung in der Lage ist, was Nvidia-Karten schon seit Ewigkeiten per Treiber können?

OpenCl Support: haben alle Hersteller und ist keine Entwicklung von AMD

Mantle: future will tell

Freesync: warten wir erstmal ab, was das leistet. Und DANN bilden wir uns ein Urteil darüber!


Das war deine direkte Argumentation gegen mein Argument der Nutzung von Displayport, einem offenen Standard.
Also bitte nicht ablenken.
 
Richthofen schrieb:
Natürlich ist das normal. Ich gehe sogar einen Schritt weiter. Das wird zukünftig in der gesamten Unterhaltungselektronikindustrie, und dazu zähle ich auch PCs - überlebenswichtig sein. Mit reiner Produktion von Hardware wird sich immer weniger Geld verdienen lassen. Man muss seinen Kunden über die Hardware hinaus weitere Mehrwerte liefern und sich am besten ein Ökosystem mit Zusatzleistungen schaffen. Nvidia ist schon ordentlich dabei sich in genau diese Richtung zu bewegen. AMD versucht es hier und da, m.E. aber nur halbherzig. Ich vermute aber auch, dass AMD einfach nicht mehr die Resourcen hat genau so eine Nummer durchzuziehen. Momentan arbeitet AMD operativ im PC Geschäft in den roten Zahlen. Im letzten Quartal (Q3) hat AMD gegenüber Nvidia saftig verloren im GPU Busines und das obwohl Nvidia bereits fast 2/3 des Marktes für AddIn GPUs kontrolliert. Die Quartalszahlen bei AMD waren sehr schlecht und der aktuelle JPR Report zeigt das auch. Q4 wird wahrscheinlich im negativen Sinne nochmal eine Schippe drauf legen.

Schlussendlich laufen AMD die Kunden davon und es fehlt an Geld um das R&D auf hohem Niveau zu halten. Nvidia bastelt derweil munter weiter am eigenen Ökosystem, samt GPUs für PCs, Shield Tablets, Grid Services, G-Synch, GameWorks und vielen anderen kleinen netten Dingen für die Nvidia Kundschaft. Und ganz ehrlich. Als Nvidia Kunde interessiert mich primär auch erstmal nur, was ich für das von mir gekaufte Produkt bekomme. Ob das von AMD Produkten auch genutzt werden kann, ist mir dann doch scheiß egal. Welcher Käufer Apple PCs/Notebooks interessiert sich schon dafür, wie es der Android oder Microsoft Kundschaft geht und umgekehrt. Das ist nunmal der Lauf der Dinge. Die Zukunft ist ganz klar eigene Ökosysteme und auch Cloud und Streaming um Kunden langfristig zu binden und unliebsame Billigkonkurrenz draußen zu halten und um es dem Kunden auch schwerer zu machen zu wechseln. Er muss sich dann im Klaren sein, dass er dann bestimmte Dinge aufgibt.

Das schließt im übrigen Standards nicht aus. Es wird auch weiterhin Standards geben und auch Nvidia wie auch Apple und andere werden bestimmte Standards unterstützen. Aber darüber hinaus wird es eben auch einen signifikanten Teil geben, der eben nicht für alle zugänglich ist, damit man sich eben von der Konkurrenz abheben kann. Das ist nun mal auch ein Teil des Wettbewerbs.

Einer der besten Beiträge den ich hier lesen konnte bisher ;-)
Ergänzung ()

Kartenlehrling schrieb:
Das es keine G-sync-FPS umsonst gibt ist schon belegt, auch wenn Nvidia was anders behaupte,
ca. 5-10% auf jedenfall verschluckt das G-sync an FPS, aber das ist ja auch egal weil dafür hat uns Nvidia vor 2 Jahren schon FCAT(Nvidia-Tool) vorgestellt, das alle Tester nur noch die "ganzen Bilder" die auch an den Monitor geschickt werden nur noch zählen sollen.

5-10%? Wie kommst denn auf den Trichter? 1-2 wohl eher. Ich kann ja mal gern einen Vergleich anstellen.
 
smilefaker schrieb:
Warum verlinkst du dann die Anspielungen von Nvidia, Cuda könnte auch auf AMD Karten laufen?
Das waren auch nix anderes als Ankündigungen, denn bis heute ist rein gar nichts davon bekannt.
Du misst ergo mit zweierlei Maß. Schäm dich und stell dich in ne Ecke. ;)

Keine Ankündigung, sondern Fakt. Es liegt allerdings an AMD, CUDA für sein Produkte umzusetzen. Nur bekommen die den Arsch nicht hoch, das zu tun.
 
Was denn für ein Fakt? CUDA läuft nicht auf AMD GPUs. Oder welche AMD Karten könnten gemeint sein?
Ich weiss sowieso nicht warum wir uns hier über CUDA und x86 unterhalten sollten. Beides hat nichts mit dem Thema hier zu tun.
 
Zuletzt bearbeitet:
Bei AMD's Future of Compute event in Singapur kündigte Samsung an,
das alle ihre Ultra-HD-Monitore die im Jahr 2015 erscheinen auch gleich FreeSync unterstützen.
Die adaptive Bildwiederholfrequenz Technologie ermöglicht dem Spieler, flüssigeres Gameplay bei 4K erreichen,
wenn Frameraten fallen unter nativen Bildwiederholfrequenz des Displays,
so dass 40 FPS Gaming scheinen gerade so glatt wie 60 FPS.


http://www.techspot.com/news/58899-all-samsung-ultra-hd-monitors-2015-support-freesync.html
All Samsung's Ultra HD monitors in 2015 to support FreeSync
 
Das geht ja schneller als gedacht. Ein Gruß an alle Hater hier :D

Mit Samsung haben sie ein echtes Schwergewicht an Bord, ist nur eine Frage der Zeit bis die anderen folgen.
 
Zurück
Oben