News FreeSync-Monitore zum Jahreswechsel im Handel

Ich sage nur ..."Also interessiert GSync Käufer Effizienz nicht. Ein Argument weniger für Maxwell ...."
--> Könntest Du mir mal bitte den Widerspruch nennen? ;-)
Du bist immer noch nicht auf meine Frage (und deinen?^^)"Widerspruch" eingegangen, also wie beim letzten Mal?
 
Ganz ehrlich um was geht es hier eigentlich?
Der Mehrverbrauch der G-sync Monitore steht doch in keinem Verhältnis zu der Einsparung von MAxwell zur R9 290x, insofern kann man auch mit G-sync Monitoren sparsam bleiben.
 
SuddenDeathStgt schrieb:
Du bist immer noch nicht auf meine Frage (und deinen?^^)"Widerspruch" eingegangen, also wie beim letzten Mal?
Doch die ganze letzte Seite lang. Und wenn du es nicht verstehst, kann ich auch nichts dafür. Du behauptest einen Widerspruch zu erkennen wo keiner ist. So wie letztes mal als du mir eine Frage mit falscher Prämisse gestellt hast.

@Smilefaker
Es ging lediglich darum, dass beim Monitorkauf Effizienz und Stromverbrauch durchaus ein Thema ist - bei mir jedesmal und auch bei jeder Beratung die ich zuletzt gemacht habe. Niemand kauft sich eine Maxwell, vor allem wenn er sie aus Effizienzgründen kauft, um dann beim Monitorkauf keinen Wert auf Effizienz zu legen. Ich vergleiche auch nicht die GPU mit dem Monitor, sondern das haben andere getan. Nur wird man ja nicht aufhören auf die Verbrauchswerte eines Monitors zu schauen, nur weil man nun eine Effizientere GPU hat - im Gegenteil, man bezahlt extra mehr Geld dafür und möchte sich sicherlich nicht dann einen Monitor kaufen der einen Teil davon, wie gross der auch immer sein mag, wieder anuliert.

Nicht wenn ich Alternativen habe die effizienter sind, weniger kosten und mehr Features bieten. Es geht lediglich darum, dass beim Kauf von Hardware ein Kaufargument nicht verschwindet oder sich ins Gegenteil umkehrt nur weil ich jetzt statt einer GPU einen Monitor kaufe. Ich werde mir immer die beste Kombination suchen - und das ist eben kein GSync Monitor wenn ich zuvor bei Maxwell die Effizienz als Kauf entscheidendes Kriterium in der Waagschale hatte.

Also wer dieses Spielerlebnis will und dafür keinen Wert auf Effizienz legt, dem fehlt ein Kaufargument für Maxwell, da dies der grösste Vorteil der GPU ist gegenüber der Konkurrenz. Nehme ich das Effizienz Argument raus aus der Gleichung, dann steht Maxwell nicht mehr so "überragend" da gegenüber der Konkurrenz und ich kann mir dann gleich die Kombination neu aussuchen die mir den günstigeren Monitor verschafft+günstigere GPU+VESA-Standard - und somit ist das dann ein Argument weniger Maxwell zu kaufen und dafür vielleicht mit einer R9 290X und einem 4K IPS von einem Tophersteller mit AdaptiveSync das selbe Geld für das besseres Gesamtpaket bezahlt habe wie für eine GTX970+TN Billigschrott Panel lediglich in FHD ohne Alternative VGA/HDMI/DVI Anschlüße
 
Zuletzt bearbeitet:
@kisser
Ja, wie schaut es denn aus?
Letzter nachweisbarer Stand FPGAs!
Dann schreibt ein PCGH Redakteur das ASICs bei Endmodellen wahrscheinlich sein sollen, Quelle dafür? Der Autor selber, der sich ausschweigt woher diese Info stammt? Das ist wohl eher eine Vermutung. Kein Wort von "laut nvidia" o.ä.
Aktuelle Reviews schweigen sich dazu komplett aus. Aber hier wird ja fleißig behauptet es seien ASICs verbaut. Quelle?

@smilefaker
Kann man, muss aber nicht, wenn ich mir bsp das Review vom AOC Monitor angucke und er allein ~ 14W(!) im Standby frisst.

Und um was es geht bei Daedal und JMP $FCE2 usw.
Das es bei der Bewertung eines Produktes mit zweierlei Maß gemessen wird. Es wird immer gerne auf dem Stromverbrauch herumgeritten und als Grund einer Kaufempfehlung genannt, gleichzeitig ist es dann doch wieder nicht so wichtig für die Zielgruppe, und bei OC ist der Verbrauch sofort irrelevant.
Es geht hier nicht um 10% die dann im Endeffekt 2W sind, sondern es geht um die Argumente, welche man sich gerade passend hinlegt.
Erst ist die Effizienz toll, dann ist sie für die Zielgruppe nicht relevant, zum Glück kann man toll übertakten, auch da wieder ist die Verpuffung der Effizienz auch wieder egal, Mehrverbrauch bei G-Sync interessiert nicht/nicht relevant, aber wehe eine AMD Karte hat im Idle 2W mehr :freak:
 
Daedal schrieb:
Also wer dieses Spielerlebnis will und dafür keinen Wert auf Effizienz legt, dem fehlt ein Kaufargument für Maxwell, da dies der grösste Vorteil der GPU ist gegenüber der Konkurrenz.
Sagst du. Das größte Argument könnte genausogut DSR sein. Oder gar eine Kombination verschiedener Gründe. :eek:
Vllt. nutzen G-Sync Nutzer gar Maxwell, weils auf Radeons nicht läuft.

Aber mal zurück, was genau haben versprochene Adaptive Sync Monitore zum Jahreswechsel mit Maxwell zu tun?

dafür vielleicht mit einer R9 290X und einem 4K IPS von einem Tophersteller mit AdaptiveSync das selbe Geld für das besseres Gesamtpaket bezahlt habe wie für eine GTX970+TN Billigschrott Panel lediglich in FHD ohne Alternative VGA/HDMI/DVI Anschlüße
Tja nach deiner "Logik" müssen Maxwell Nutzer mit TNs rumgurken weil IPS zuviel verrbaucht.

Wahrscheinlich glaubst du auch, das Maxwell Nutzer im Dunkeln sitztend frieren um Energie zu sparen, während Hawaii Nutzer die Autobahn unsicher machen dürfen.
 
Zuletzt bearbeitet:
Unyu schrieb:
Sagst du. Das größte Argument könnte genausogut DSR sein. Oder gar eine Kombination verschiedener Gründe. :eek:
Es geht nicht um die Größe des Arguments. Willst du abstreiten, dass der Maxwell Verkaufserfolg in erster Linie der guten Effizienz zu verdanken ist?
Ich bin froh, dass GSync nicht auf Radeons läuft. So gibt es wenigstens eine Alternative die günstiger ist, VESA-Kompatibel ist, weniger Strom verbraucht und mehr als nur DP Anschlüße bietet.
Ergänzung ()

Unyu schrieb:
Tja nach deiner "Logik" müssen Maxwell Nutzer mit TNs rumgurken weil IPS zuviel verrbaucht.

GSync gibts nur mit TN-Panels. Deswegen müssen die Nutzer darauf rumgurken - stimmt ein weiterer fehlender Punkt auf der Featureliste und worauf man verzichten muss zugunsten GSync. Die wird immer länger.
Ergänzung ()

Unyu schrieb:
Wahrscheinlich glaubst du auch, das Maxwell Nutzer im Dunkeln sitztend frieren um Energie zu sparen, während Hawaii Nutzer die Autobahn unsicher machen dürfen.
Nein denke ich nicht - aber "interessante" Denkweise die du zeigst.
 
Daedal schrieb:
Es geht nicht um die Größe des Arguments. Willst du abstreiten, dass der Maxwell Verkaufserfolg in erster Linie der guten Effizienz zu verdanken ist?
Was willst du mit dem Verkaufserfolg?
Es geht hier immer noch um Adaptive Sync, bzw. die Konkurrenz. Aber wenn du willst können wir noch Bulldozer und den A64 hereinbringen.

GSync gibts nur mit TN-Panels. Deswegen müssen die Nutzer darauf rumgurken
Selbst wenn es anders wäre, IPS verbraucht mehr als 2W zusätzlich und ist aus deiner Sicht nicht gestattet, weil "ineffizienter".
Ich gurke übrigens mit einem 60W IPS herum. Zum Glück darf ich das als Nicht Maxwell Nutzer.
 
Unyu schrieb:
Was willst du mit dem Verkaufserfolg?
Was willst du mit der Frage?

und ist aus deiner Sicht nicht gestattet, weil "ineffizienter"
Auch du - könntest du mir mal zitieren wo ich etwas in der Richtung schreibe?

Ist das jetzt normal, dass man mir Dinge in den Mund legt um dann Recht zu behalten? Lesen und VERSTEHEN scheint für genau drei Leute hier im Thread ganz exklusiv ein Problem zu sein.
 
Echt langsam lachhaft diese Diskussion hier. Da werden Seitenlang ein paar Watt mehr bei GSync bemängelt aber obwohl die Kombination Hawaii mit FreeSync insgesammt mehr verbraucht bleibt das Argument mehr Stromverbrauch bei GSync.
Leute wie @Daedal hacken seitenlange auf der selben Sache herum anstatt einfach einmal Testberichte zwischen FreeSync und GSync abzuwarten, damit man eine echte Diskussionsgrundlage hat.

Es gibt nicht nur schwarz und weiß und gerade beim entscheiden zwischen einer AMD oder NVidia GPU spielen noch viele andere Faktoren mit herein.
Meine Prognose ist, dass wir erst Mitte/Ende 2015 wissen werden, wo FreeSync und GSync stehen werden. Bis dahin werde (zumindest ich) mit dem Kauf von einem UHD Monitor abwarten.
Kann ja schon sein, das GSync eine Sackgasse wird aber wer sagt denn, dass NVidia dann nicht auch mit Adaptive Sync weiter macht.
 
Stromverbrauch Vergleich für GSync Monitor:
6581_60_asus_rog_swift_pg278q_144hz_g_sync_gaming_monitor_review.png


Wer mir jetzt noch was von kein Problem oder 2W erzählen möchte. Das ist der Verbrauch beim darstellen eines Dokument und unbewegtem Bild. Windows Desktop/Office.
The ASUS Swift PG278Q consumes a massive amount of power sitting with the blank document open

Schlechteste Helligkeitswert pro Watt
6581_62_asus_rog_swift_pg278q_144hz_g_sync_gaming_monitor_review.png


Die Effizienz ist um den Faktor 2 schlechter (teilweise fast Faktor 3)

As I feared, the PG278Q bombs the efficiency conversion, producing just 8.6 lux-per-watt. It's the first monitor we've seen in the single digits, so we're going to have to assume G-Sync is energy hungry, since we have other 144Hz monitors on there that did quite a bit better.

Selber Monitor anderer Test:
The G-Sync module driving this display is based on an FPGA rather than a custom chip, so I expected it to draw a little more power than the typical monitor's electronics.
5 W Mehrverbrauch im Idle, 20W-40W unter Last - und genau da wo man die Herstellerangaben macht ist es gerade mal 1 Watt bei "typical Powerconsumption"

Das ist ein +30% unter Last und +25% im Idle - und das verglichen mit einem IPS-Panel Selbst das 4K-Panel ist noch sparsamer.
 
Zuletzt bearbeitet:
Daedal schrieb:
Also wenn die jetzigen Geräte mit ASIC sind, wo sind dann die Modelle mit FPGA? Haben sich in Luft aufgelöst...magisch alleine durch Behauptung wurde das Bauteil hier im Forum ersetzt.

Hier. Und der war auch mehrmals bei verschiedenen Händlern ab Lager lieferbar, aber immer ziemlich schnell wieder ausverkauft.

smilefaker schrieb:
Der Mehrverbrauch der G-sync Monitore steht doch in keinem Verhältnis zu der Einsparung von MAxwell zur R9 290x, insofern kann man auch mit G-sync Monitoren sparsam bleiben.

Genau so ist es. Zumal der Mehrverbrauch sich ja jetzt auch noch als nicht existent erwiesen hat. Das Lüfterlärm-Problem fällt bei G-Sync-Monitoren sowieso weg.

Daedal schrieb:
Nehme ich das Effizienz Argument raus aus der Gleichung, dann steht Maxwell nicht mehr so "überragend" da gegenüber der Konkurrenz und ich kann mir dann gleich die Kombination neu aussuchen die mir den günstigeren Monitor verschafft+günstigere GPU+VESA-Standard - und somit ist das dann ein Argument weniger Maxwell zu kaufen und dafür vielleicht mit einer R9 290X und einem 4K IPS von einem Tophersteller mit AdaptiveSync das selbe Geld für das besseres Gesamtpaket bezahlt habe wie für eine GTX970+TN Billigschrott Panel lediglich in FHD ohne Alternative VGA/HDMI/DVI Anschlüße

Bis jetzt existiert noch gar kein A-Sync-Monitor. Und wenn die dann endlich da sind: was hindert Nvidia daran, die A-Sync-kompatible Schnittstelle der neuen Panels mit einem geänderten FPGA/ASIC anzusprechen, und damit die komplette Palette der A-Sync-Panels nutzen zu können - inklusive IPS ?

PiPaPa schrieb:
Kann man, muss aber nicht, wenn ich mir bsp das Review vom AOC Monitor angucke und er allein ~ 14W(!) im Standby frisst.

Wenn er das tun würde, dürfte er überhaupt nicht in der EU verkauft werden. Ich tippe auf User-Review und Billigmessgerät, die haben mit dem Standby-Verbrauch von Schaltnetzteilen so ihre Probleme.

Die c't hat bei allen vier G-Sync-Monitoren 0,4 W im Standby gemessen.
 
Du solltest deinen Beitrag überarbeiten. Und auch deine Argumente überdenken die nicht auf Fakten beruhen.

Ich weiss wo die FPGA Monitore sind, nur der Kollege hat behauptet da wären schon ASICs verbaut.
 
Und wenn die dann endlich da sind: was hindert Nvidia daran, die A-Sync-kompatible Schnittstelle der neuen Panels mit einem geänderten FPGA/ASIC anzusprechen, und damit die komplette Palette der A-Sync-Panels nutzen zu können - inklusive IPS ?
Nichts, und ich hoffe sie machen das früher als später und lassen den GSync-Kram fallen. Beides wird kein Hersteller verbauen aus Kostengründen.
Wir alle können nur davon profitieren. Ihr diskutiert immer noch Markenorientiert, doch das interessiert mich nicht die Bohne. Ich diskutiere technikorientiert.
Ergänzung ()

Ach übrigens verbraucht die R9 290X gerade mal 25W mehr als die Maxwell GPU was noch weniger als 10% sind bei über 300W Gesamtleistung. Laut CB bei Anno.
Der GSync Monitor hat bei 56W Verbrauch im Desktop über den dreifachen Verbrauch des BenQs mit lediglich 16W Verbrauch
 
Zuletzt bearbeitet:
kisser schrieb:
2.) Behauptet Daedal, dass NVida FPGAs verwendet, OHNE eine Quelle für seine Behauptung zu liefern.
JMP $FCE2 schrieb:
Die Quellen (z.B. hier) gibt es schon, aber sie beziehen sich eben alle auf den umgebauten Asus VG248QE, der schon seit einigen Monaten nicht mehr verkauft wird.
Dass auch die aktuellen G-Sync Monitore FPGAs verwenden, ist von keinem Hersteller oder Reviewer ernsthaft bestritten worden. Einige haben sogar G-Sync-Monitore wie den ASUS ROG PG278Q aufgeschraubt und sich davon überzeugt, dass immer noch ein FPGA drin steckt:

HotHardware schrieb:
NVIDIA achieved this feat by developing the G-SYNC module, a version of which is featured in the ASUS ROG Swift PG278Q. The G-SYNC module replaces the scaler and controller boards in current displays and allows for the dynamic refresh rates mentioned earlier.

The module is comprised of an FPGA—programmed by NVIDIA—a bit of DRAM, and a DisplayPort input.
http://hothardware.com/reviews/ASUS-ROG-SWIFT-PG278Q-GSYNC-Monitor-Review?page=4
Gadget-Help.com schrieb:
But, apparently, these models use one and the same charge G-Sync. Module, we extracted from ASUS PG278Q, is based on FPGA-chip Altera Arria V GX, has an integrated LVDS interface for communication with the chip TCON monitor.

It is interesting that NVIDIA used here FPGA, rather than ASIC (ie, chose programmable chip instead of a chip that performs specific functions), but it is understandable if we take into account the small (at least for now) the scale of production.
http://gadget-help.com/technology-overview-nvidia-g-sync-and-monitor-asus-rog-swift-pg278q/
Guru3D schrieb:
The pricing is high though, the Swift PG278Q has an expensive FPGA GSync module
http://www.guru3d.com/articles-pages/asus-rog-swift-pg278q-gsync-gaming-monitor-review,2.html

Übrigens lässt sich damit neben dem hohen Aufpreis und dem messbar höheren Stromverbrauch auch ganz zwanglos erklären, wieso G-Sync-Monitore nur einen DisplayPort-Eingang haben. Das G-Sync-FPGA-Modul hat einfach nur einen solchen Eingang.
 
Auch gerade noch etwas seltsames gefunden:
Small note, during standby initially we measured 12 Watts, which puzzled us. Then 15 minutes lates the power consumtion dropped to 1 Watt. Apparantly it takes the GSYNC module roughly 5 to 15 minutes to turn itself off, after which the monitor drops to a 1 Watt power consumption.
Wahrscheinlich kann man den FPGA nicht einfach so in den Standby versetzen.

@PiPaPa
Dann müssten die Herren ja die Links lesen im Gegensatz zu den letzten 10 Seiten.
 
Zuletzt bearbeitet:
Daedal schrieb:
Selbst das 4K-Panel ist noch sparsamer.

Kaum, und das passt sogar, denn 2560x1440@144 Hz ist ungefähr die gleiche Datenmenge pro Sekunde wie 4k@60 Hz, die der Scaler zu verdauen hat.

Warum nur der AOC mit G-Sync nicht im Testfeld war, aber sein Zwillingsbruder ohne ? Ein Schelm, wer böses dabei denkt...

Und dann noch dieser Quatsch mit 100% Helligkeit - ich will damit spielen/surfen und nicht der Mittagssonne Konkurrenz machen. Aber ich sehe schon, ich muss mein Verbrauchsmessgerät doch herauskramen. Es ist ein Voltcraft Energy Monitor 3000, eins der besseren Billiggeräte, das im Test auch mit Standbyleistungen von Schaltnetzteilen halbwegs klargekommen ist.

Die Ergebnisse meines Acer XB270HA:

12 W Standby (das wird wohl so ein Halb-Standby mit kürzerer Aufwachzeit sein)
0,1 W Standby nach 15 min

Einfluss der Hintergrundbeleuchtung:

19,0 W Desktop 60 Hz (Helligkeit 16/100, meine bevorzugte Einstellung)
26,3 W Desktop 60 Hz (Helligkeit 50/100)
37,0 W Desktop 60 Hz (Helligkeit 100/100)
23,6 W Desktop 120 Hz ULMB (Helligkeit 73/100 - ist so hell wie 16/100 ohne ULMB)

Alle weiteren Messungen bei Helligkeit 16/100:

21,9 W Desktop 144 Hz
19,0-19,6 W G-Sync 40-60 Hz (Pendeldemo)
23,6 W G-Sync 135 Hz (Quake Live)

Die c't hat mich also nicht enttäuscht. Sie sind weder auf den Halb-Standby-Modus hereingefallen, noch haben sie die Hintergrundbeleuchtung unsinnig überdreht. Laut dem inzwischen gefundenen Kleingedruckten messen sie bei 100 cd/m², einer für Büroarbeiten bei Tageslicht empfohlenen Helligkeitseinstellung.
 
Zurück
Oben