Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Also wieder die plumpe & beleidigende Art u. halt dir ruhig den Spiegel vor Augen.^^ Ich finde ja, dein Diskussionspartner bleibt recht sachlich & Du wirkst einfach mal wieder erneut nur patzig. Ich kenne es ja bereits, daher ist es eigentlich auch nichts überraschendes ... ;-)
Mir ist schon klar, dass du es patzig findest auf Widersprüche in Schein-Diskussionen hinzuweisen. Insbesondere, da du ja den selben Widerspruch demonstriert hast 5 Seiten zuvor in diesem Thread. Es zeigt zudem nicht nur, dass keinerlei echte Fakten eurerseits präsentiert werden sondern dass zudem die Argumente der anderen überhaupt nicht gelesen werden. Keine Links, noch nicht mal der Verlauf der Diskussion.
Wenn du meinst es sei patzig darauf hinzuweisen, dass euer Verhalten hier öffentlich jederzeit nachzulesen ist, dann glaube ich eher du fühlst dich einfach Unwohl mit der Tatsache dass dies stimmt.
Einfach mal gefragt: worüber diskutiert ihr eigentlich?
Wo liegen denn seine Argumente zerlegt auf dem Tisch?
Wäre dies so, so hättest du ja eine Quelle nennen können, welche aufführt das die FPGAs durch ASICs ersetzt wurden.
So haben wir hier die Situation das du lediglich die unbelegte Behauptung/Vermutung geäußert hast das nvidia die FPGAs ersetzten würde/könnte und die Preise dadurch purzeln würden.
Status Quo: nvidia verwendet teure FPGAs. Bisher keinerlei Ankündigungen oder Anzeichen das ASICs zum Einsatz kommen oder das ein Preissturz in Aussicht ist. Und das die Auswahl an G-Sync Monitoren geringer wird, keine weiteren Modelle angekündigt.
Dein einziges Argument: Es hat sich noch kein Vorserienmodell eines Adaptive Sync Modells in die Redaktionen verirrt. Wahnsinn, dies ist in den seltensten Fällen der Fall. Außer: Der Hersteller will die Kundschaft schon heiß machen, kann aber nicht genug Stückzahlen liefern. WIe man bei G-Sync perfekt sieht.
1.) Hat niemand behauptet, dass NVidia ASICs verwendet, sondern nur diese Möglichkeit in Betracht gezogen. (#345, #347)
2.) Behauptet Daedal, dass NVida FPGAs verwendet, OHNE eine Quelle für seine Behauptung zu liefern.
(Dass seine Ausführungen zu den Stückzahlen blanker Unsinn sind, brauche ich wohl nicht zu erwähnen, #346)
Also wer äußert hier unbelegte Behauptungen/Vermutungen?
EDIT: Und ich bin der festen Überzeugung das du, bei der Aktivität welche du beim Thema G-Sync an den Tag legst, es auch weißt. Aber du willst lediglich quer schießen.
Ich weiss diese Fotos können auch in Photoshop von mir selber erstellt worden sein und ganz perfide anderen webseiten untergejubelt worden sein über einen meiner anonymen chinesischen email-Accounts. Doch ich verlinke sie mal trotzdem, auch in dem Bewusstsein, dass meine Argumente ja zerlegt auf dem Tisch liegen...dem Tisch der Phantasie womöglich. Ab einem bestimmten Punkt ist echt schwer Sarkasmus und Humor bei dieser Diskussion noch aussen vor zu lassen.
Mir ist schon klar, dass du es patzig findest auf Widersprüche in Schein-Diskussionen hinzuweisen. Insbesondere, da du ja den selben Widerspruch demonstriert hast 5 Seiten zuvor in diesem Thread...
Was denn bitte für einen Widerspruch & ich kann einen solchen auch vor ~5Seiten nicht erkennen ...im Gegenteil!
Dein Argument als auch Kritik des erhöhten Strombedarfs wurde bestätigt, dennoch relativiert & im gleichem Atemzug nennst Du das ineffizient, besonders unter Verwendung einer Maxwell-GPU. Ich habe dir Mittel & Wege genannt, wie man bspw. die Effizienz wieder "steigern könnte", obwohl das wie angesprochen "den Kundenkreis nicht die Bohne interessiert" ... ;-)
Und wie kommst du nun darauf dass dies das selbe sei?
Ich verwies lediglich darauf wie erbittert die Effizienz Diskussion geführt wurde beim Maxwell Release und wie unwichtig das selbe Argument hier plötzlich zu GSync ist, wo Nvidia ein weniger Effizientes Produkt als die Konkurrenz bringt.
Wer also als letztes Ausschlag gebende Argument sich eine Maxwell aus Effizienz-Gründen kauft, der wird die selben Masstäbe anlegen beim Monitorkauf. Es sei denn natürlich, dass Markentreue vor geht und damit das Effizienz-Thema bei dem einen Produkt wichtig ist, weil es besser da steht, und bei dem anderen Produkt völlig unwichtig da es schlechter da steht.
Das musste ich dir nun erklären, während alle anderen genau verstanden haben worüber ich rede. Ich kann nur schwerlich Belege für etwas anbringen, das ich nicht geschrieben habe.
Ich verwies lediglich darauf wie erbittert die Effizienz Diskussion geführt wurde beim Maxwell Release und wie unwichtig das selbe Argument hier plötzlich zu GSync ist, wo Nvidia ein weniger Effizientes Produkt als die Konkurrenz bringt.
Birnen & Äpfel & welchen "Strombedarf" das Produkt von der Konkurrenz benötigen wird, muß sich ja bekanntlich erst mal zeigen, oder etwa nicht?
Wer also als letztes Ausschlag gebende Argument sich eine Maxwell aus Effizienz-Gründen kauft, der wird die selben Masstäbe anlegen beim Monitorkauf...
Das kann man in den Hersteller Angaben nachlesen zwischen identischen Monitoren mit und ohne GSync. Die Links zu den Monitoren findest du dort wo du mein, von dir falsch interpretiertes Zitat, findest auf der selben Seite hier im Thread. Und typischer Verbrauch bezeichnet nicht maximal Verbrauch. Zudem schrieb ich auch, dass man Tests abwarten muss um den vollen Umfang des Mehrverbrauchs zu messen - falls es denn eine Redaktion macht, worauf ich sehr gespannt bin. Zitiere doch bitte den Beitrag.
Effizienz ist Effizienz - entweder es ist zu jeder Zeit ein gültiges Argument oder gar nicht für den Käufer. Das sind keine Äpfel mit Birnen verglichen, sondern das deutlich machen, dass ich nicht bereit bin das selbe Argument als Zweiseitige Münze zu akzeptieren nur um eine Marke zu verteidigen - ich nenne das eine Scheindisskussion.
Wir müssen diese Diskussion aber jetzt nicht nochmal führen, nur weil du dich seitenlang nicht daran beteiligt hast und du nicht verstanden hast worum es geht.
Ich habe dein Vermerk als auch Zitat nicht falsch interpretiert, sondern relativiert & ich sage es dir nochmals bzw. glaube jetzt schon zum 4. Mal ..."Das interessiert den Kundenkreis gar nicht" ....
Daedal schrieb:
Übrigens was auch Stand heute ist und mir aufgefallen ist: Nvidias GSync erhöht den Stromverbrauch des Monitors durch das zusätzliche Modul. Also wird damit auch wieder die Effizienz der Nvidia GPUs reduziert. Bin gespannt ob irgendein Test dieses Thema erwähnt. Beim Acer Predator hat das Gsync Modell 135,- € Aufpreis und über 10% mehr Stromverbrauch laut Herstellerangabe. Das müsste mal gemessen werden.
Dann schau mal in den Maxwell Diskussionsthread wie viele Maxwell Käufer vor allem wegen der Effizienz so begeistert sind von der GPU. Du sagst das stimmt nicht. Sprichst du jetzt für alle die dort das Gegenteil von dir schreiben?
Und dass du mich falsch interpretiert hast steht ja hier von dir geschrieben:
im gleichem Atemzug nennst Du das ineffizient, besonders unter Verwendung einer Maxwell-GPU.
Das steht in keinem Zitat von mir das du hier finden wirst. Ich habe nichts und niemanden ineffizient genannt. Ich habe gesagt, dass Effizeinz ein wichtiges Thema für Maxwell Käufer ist. Lies es im Test-Thread nach. GSync zielt auf eben diese Käufergruppe da ja mindestens DP 1.2 vorhanden sein muss.
Laß doch die Begeisterung diverser Käufer einfach gelten, denn dies ist ja auch Fakt & meine Meinung dazu lautete ..."Features & Gesamtpaket ist dir aber schon ein Begriff? Effizienz ist da mMn nur ein Puzzelteilchen & die nimmt man natürlich dennoch gerne mit."
Und dass du mich falsch interpretiert hast steht ja hier von dir geschrieben: Das steht in keinem Zitat von mir das du hier finden wirst.
Steht doch klar & deutlich da u. da gibt es mMn auch nichts falsch zu interpretieren & daher wurde relativiert. Darauf bist Du ja überhaupt nicht eingegangen & das Gleiche ist auch bei JMP $FCE2/Post#359 der Fall. Hier wurde ebenfalls relativiert als auch auf den c't - Test verwiesen.
Mir wird das Ganze aber langsam zu mühsam & wenn hier halt einer mit den Aussagen "Fanboys; Trollen umsich wirft", zeugt das mMn nicht gerade für neutralität & die kann ich bei dir absolut nicht erkennen, daher auch mein Vermerk ..."Also wieder die plumpe & beleidigende Art u. halt dir ruhig den Spiegel vor Augen.^^ ... ;-)
Die Quellen (z.B. hier) gibt es schon, aber sie beziehen sich eben alle auf den umgebauten Asus VG248QE, der schon seit einigen Monaten nicht mehr verkauft wird. Außerdem steht da noch das:
Spezifisch für G-Sync hergestellte ASICs, bei denen durch die fehlende Universalität der Produktionspreis sinkt, sollen erst bei den finalen Geräten eingesetzt werden, sodass die Kosten für Nvidia noch sinken dürften und der Asus VG248QE G-Sync Edition rentabel für die veranschlagten 529 Euro vertrieben werden kann.
Nun - die finalen Geräte sind da, und der aktuelle 24" (AOC) kostet immerhin 100€ weniger als der VG248QE, dessen Preis nie unter die 529€ gefallen ist. Bis zum Beleg des Gegenteils liegt es also durchaus nahe, in den aktuellen Geräten ASICs zu vermuten.
Daedal schrieb:
Zudem schrieb ich auch, dass man Tests abwarten muss um den vollen Umfang des Mehrverbrauchs zu messen - falls es denn eine Redaktion macht, worauf ich sehr gespannt bin.
Laut c't 24/2014 verbraucht der Acer XB270HA 21,2 W. Von insgesamt 227 bei Geizhals gelisteten 27"-Monitoren bleiben nur 8 übrig, wenn man auf "Leistungsaufnahme bis 20 W" einschränkt. Und der sparsamste von diesen 8 verbraucht 18 W.
Trotz des bösen G-Sync-Moduls ist der Acer sogar ein sehr sparsamer Monitor - wer hätte das gedacht
Daedal schrieb:
Effizienz ist Effizienz - entweder es ist zu jeder Zeit ein gültiges Argument oder gar nicht für den Käufer.
Laut deiner Rechnung verbraucht die 290X 6x21,2W=127,2W mehr ...als was? unter welcher Last?
Du bemerkst, dass deine Zahlen keinerlei Sinn ergeben so isoliert.
Ich würde gerne mal sehen wie du im Idle diese Zahlen darstellst, was 90% der Zeit der PC Nutzung entspricht.
Da der von dir benannte Monitor bei GZ gar keine Watt Angabe hat, und selbst unter 40W nicht gelistet wird, halte ich deine Quelle für irrelevant um die Anzahl der unter 20W Monitore zu bestimmen. Wie viele der dort gelisteten Monitore haben keine Angeben zum Verbrauch? 25.
Und der Vergleich ist mit bisher herkömmlichem Monitoren und nicht mit ASync-Fähigen. Wo die Diferenz noch größer sein wird, da Adaptive Sync ein Stromsparfeature war ursprünglich. Den Spar-Effekt hat GSync aufgebraucht und noch 10% Mehr Verbrauch on Top.
Wenn ich alles, was ich hier schon geschrieben habe, alle 24 Stunden wiederhole, langweilen sich andere Mitleser.
Daedal schrieb:
Da der von dir benannte Monitor bei GZ gar keine Watt Angabe hat, und selbst unter 40W nicht gelistet wird, halte ich deine Quelle für irrelevant um die Anzahl der unter 20W Monitore zu bestimmen. Wie viele der dort gelisteten Monitore haben keine Angeben zum Verbrauch? 25.
Die Mehrzahl der Monitore mit Verbrauchsangaben (109) liegt über 30 Watt, 92 Monitore zwischen 18 und 30 Watt. Das reicht aus, um 21,2 Watt ziemlich gut aussehen zu lassen.
Daedal schrieb:
Und der Vergleich ist mit bisher herkömmlichem Monitoren und nicht mit ASync-Fähigen. Wo die Diferenz noch größer sein wird, da Adaptive Sync ein Stromsparfeature war ursprünglich.
An allen Quellen herummäkeln und dann mit reinen Spekulationen kontern ? Bis jetzt hat noch niemand einen A-Sync-Monitor bei Spielen in Aktion gesehen. Ganz zu schweigen von einem, der nebenbei auch noch Stromsparrekorde aufstellt.
Daedal schrieb:
Wo? Das sind die finalen Geräte? Das sind die ersten Geräte, wie können die final sein?
Ich muss nicht bei heise nachlesen. Es ist deine Quelle die somit nichts belegt. Herstellerangaben mit Testwerten zu vergleichen....muss ich nicht weiter erläutern.
Also wenn die jetzigen Geräte mit ASIC sind, wo sind dann die Modelle mit FPGA? Haben sich in Luft aufgelöst...magisch alleine durch Behauptung wurde das Bauteil hier im Forum ersetzt.