News AMD: Mögliche Antwort auf Nvidias DLSS via DirectML

Volkimann schrieb:
Also funktioniert G-Sync auch nicht immer einfach trotz dieser ach so hochwertigen Bedingungen.

Es gibt Ausnahmen die auch schon unter 30 Hz funktionieren. Und es gibt Ausnahmen wo man auf die Maximalfrequenz per Übertaktung kommt. Es gibt keinen Fall wo man nicht auf die Minimalfrequenz 30Hz runter kommt und keinen Fall wo man nicht irgendwie auf die Maximalfrequenz kommt. Zumindest nicht das ich wüsste.

Volkimann schrieb:
Also dieser Thread zeigt erstmal nur auf wie sich diese Monitore an einer nvidia GPU verhalten.

Nein, Leute berichten auch, dass Monitore die mit G-Sync Compatible nicht richtig funktionieren auch mit z.B. einer Vega die gleichen Probleme haben. Ich habe den Eindruck dass diese Mängel durch nicht vorhandenes Anspruchsdenken und der Freude darüber dass man beim Monitor Geld gespart hat einfach bisher unter den Tisch gefallen sind.
 
Zuletzt bearbeitet:
benneque schrieb:
Jetzt geht dasselbe Spielchen wohl wieder von vorne los... In 3 Jahren gibt's dann auch DirectML von Nvidia ;)
NVIDIA hat zusammen mit Microsoft an DirectML gearbeitet, das solltest du schon noch erwaehnen. Ist ja nicht so als wenn sie davon keine Ahnung haetten und das was voellig neues waere. Anfang 2018 gab es dazu bereits genug Infos - witzig dass es jetzt erst hier auf CB auftaucht.

Wenn es denn jemals bei Spielen zum Einsatz kommt, dann waere es doch fuer alle bestimmt ein nettes Feature. Also abwarten und sehen wie weit es genutzt wird.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
@abcddcba Und davon wird auch kein Wort im Text erwähnt, dass Nvidia da irgendwie beteiligt war.
Aber dann stellt sich trotzdem die Frage: Warum nutzt Nvidia dann ihren eigenen Kram, anstatt auf DirectML zu setzen?

Ich bleibe dabei: In Zukunft wird es diverse Spiele geben, die Nvidias DLSS unterstützen und (fast) keine die etwas ähnliches auf Basis von DirectML bieten. Schließlich muss der Spieleentwickler dafür extrem aufwendig neuronale Netze trainieren. Und ich bin davon überzeugt, dass Nvidia hier entsprechend bessere (finanzielle) Anreize bietet.
 
  • Gefällt mir
Reaktionen: Mcr-King
DocWindows schrieb:
Nein, Leute berichten auch, dass Monitore die mit G-Sync Compatible nicht richtig funktionieren auch mit z.B. einer Vega die gleichen Probleme haben.

ach wie Volkimann schon gesagt hat, das liegt wenig üerraschend an der Qualität des verkauften Produktes sprich guter Monitor od. weniger guter Monitor. Das ein Standard wie Adaptiv Sync ein kostenloses Feature ist das sich Hersteller gerne implementieren (weil Marketingtechnisch besser verkäuflich) und das dann nicht ordentlich implementieren kann weder AMD was dafür noch die Firmen die diesen Standard Entiwckeln (wo übrigens auch NV mitglied ist so wie AMD).

Du kommst also zum schluss das ein Gsync monitor der deutlich teurer ist besser ist? Schonmal darüber nachgedacht das es hier durchaus Qualitätsunterschiede beim Panel gibt?
 
  • Gefällt mir
Reaktionen: katamaran3060, Rockstar85 und Mcr-King
benneque schrieb:
Aber dann stellt sich trotzdem die Frage: Warum nutzt Nvidia dann ihren eigenen Kram, anstatt auf DirectML zu setzen?

Weil sie da den Daumen drauf haben und machen können was sie wollen ohne sich absprechen zu müssen. Allerdings spricht auch nichts dagegen DirectML zu unterstützen, da man darüber ja das eigene DLSS auch ansprechen kann. Es wäre nur noch eine zusätzliche Abstraktionsschicht.

Benji18 schrieb:
Du kommst also zum schluss das ein Gsync monitor der deutlich teurer ist besser ist? Schonmal darüber nachgedacht das es hier durchaus Qualitätsunterschiede beim Panel gibt?

Es ging nicht um die Qualität des Bildschirms sondern um die Qualität der Adaptive Sync Technik.

Ja, ich finde eine Technik besser die mir ein definiertes, garantiertes Ergebnis liefert und wo sich jemand kümmert dass das vernünftig umgesetzt wird. Da zahl ich dann gern 50 Euro mehr.

Die Panelqualität kann man sich unabhängig davon ja immer noch aussuchen. Gibt ja verschiedene Modelle.
 
Zuletzt bearbeitet:
benneque
Ich bin der Ansicht, dass es besser wäre, wenn sich ein offener Standard durchsetzen würde, anstatt dass man es finanziell von einem Partner abhängig macht. Es spricht nichts dagegen, dass im Freien Markt Player etablieren, die das Trainieren neurale Netze umsetzen.
Außerdem halte ich es nicht für abwegig, dass zum Beispiel Microsoft ein Player wäre, die das Feature nützen um mehr Performance aus ihrer Konsole zu holen.

Miner sind ja auch von heut auf morgen eingestiegen und haben sich große GPU Farmen aufgebaut. Wäre ein interessantes neues Hobby für manche Gamer, wenn sie gegen "Entschädigung" in der Cloud helfen, solche Netze zu Supporten. Beispiel müsste es da nicht mal um Geld gehen, sondern vllt diverse Gimmicks, die man den Gamer dann für ein Game ect gibt.
 
  • Gefällt mir
Reaktionen: katamaran3060 und Unnu
benneque schrieb:
@abcddcba Und davon wird auch kein Wort im Text erwähnt, dass Nvidia da irgendwie beteiligt war.
Aber dann stellt sich trotzdem die Frage: Warum nutzt Nvidia dann ihren eigenen Kram, anstatt auf DirectML zu setzen?

Weil sie DLSS jetzt/dieses Jahr bringen können. Win ML/Direct ML kommt in der Testfassung im März, Richtige Enduserversion im Herbst oder erste nächstes Jahr. Guck dir an, wieviele Leute heute schon meckern, dass DLSS erst in 1 Spiel eingesetzt wird. Wenn die Leute erst Lösungen entwickeln, wenn Direct ML fertig ist, dann würde das noch ewig dauern und Nvidia könnte mit DLSS nicht werben.
 
DocWindows schrieb:
Weil sie unter anderem nur 50% so effizient sind wie nVidia. Sie wären konkurenzfähig wenn man nVidia Grafikkartenbesitzer zwingen würde beim Spielen noch ne 100W Glühbirne einzuschalten. Leider gibts keine 100W Glühbirnen mehr. Sind verboten. Zu viel Energieverbrauch.

Es ist erstaunlich dass Stromsparen das Totschlag Argument überhaupt geworden ist. Es hat nie jemanden wirklich interessiert, erst als Maxwell um die Ecke kam.
Ja, die Einstellungen sind von AMD meist nicht gut gewählt oder wohl eher zu großzügig gewählt. Ein wenig Aufklärung würde hier aber gut tun. Vega mal außen vor, jeder redet bei 580 vs 1060 Diskussionen von erheblich besserer Effizienz und wieviel man nicht sparen kann mit der 1060. Und die Lautstärke erst!
OC bei der 1060 wird als riesen Vorteil angesehen, UV bei der 580 als "Muss" und damit als Nachteil.

Ich sitz hier mit meiner 480, zocke mit Freesync und FPS Cap bei 74, wahlweise in 1080p oder 1440p und die Karte zieht gerade mal 70-80 Watt und im absoluten Limit sind es 95 Watt peak. Das alles mit ~5-10% weniger Leistung gegenüber einer 1060. Interessieren mich diese max. 7 FPS mehr auf der 1060? Nö, denn wie gesagt, cap bei 74 und da häng ich fast immer drin. Dafur hatte ich jetzt 2 Jahre kein tearing und könnte Adaptive Sync auch jetzt nicht nutzrn, da kein DP.
Außerdem hat eine UV 1060 kaum weniger verbraucht. Mit beiden lag ich aber immer unter 100Watt und damit weit weg von den Werten die meist bei Diskussionen benutzt werden.

Bei den CPUs ist es andersrum. Wieviel Geschwafel ich bis jetzt gelesen habe nach dem teasing des Ryzen vs 9900k.
"~40% weniger Verbrauch? Gleiche Performance? Uninteressant! Sind trotzdem bestimmt langsamer in Spielen!"
 
  • Gefällt mir
Reaktionen: katamaran3060, Rockstar85, Mcr-King und 5 andere
TheUngrateful schrieb:
Es ist erstaunlich dass Stromsparen das Totschlag Argument überhaupt geworden ist. Es hat nie jemanden wirklich interessiert, erst als Maxwell um die Ecke kam.

Es geht um Effizienz und nicht um Stromsparen. Das ist ein gewaltiger Unterschied den immer noch kaum jemand versteht. Bei der Effizienzbetrachtung ist es quasi egal wie viel ein Gerät verbraucht, solange die gelieferte Leistung stimmt. Das gilt für CPUs, GPUs und jedes andere Gerät welches man einer Effizienzbetrachtung unterzieht.

Wenn eine Grafikkarte 400W verbrauchen will, bitte schön. Solange sie dann auch deutlich ein Konkurrenzmodell schlägt, welches 350W verbraucht soll mir das recht sein.

Und mich hat die Effizienz auch schon vor Maxwell interessiert, weswegen ich eine GTX 460 und keine 480 gekauft habe.

TheUngrateful schrieb:
Ich sitz hier mit meiner 480, zocke mit Freesync und FPS Cap bei 74, wahlweise in 1080p oder 1440p und die Karte zieht gerade mal 70-80 Watt und im absoluten Limit sind es 95 Watt peak. Das alles mit ~5-10% weniger Leistung gegenüber einer 1060

Über diese Karten streitet doch überhaupt keiner. Es geht um die fetten Boliden. Leider färben diese Boliden aber im Kopf der Kunden auf die untergeordneten Karten ab.

Das alles reicht jetzt aber auch zu dem Thema. Hab mal kurz in die Überschrift geguckt und es geht doch tatsächlich um DirectML und nicht um Effizienz. Wurde außerdem schon zu Genüge durchgekaut.
 
Zuletzt bearbeitet:
benneque schrieb:
@abcddcba Und davon wird auch kein Wort im Text erwähnt, dass Nvidia da irgendwie beteiligt war.
Ja, keine Ahnung warum, vermutlich weiß er es nicht oder es ist für den Artikel nicht so wichtig - aber kann man auf diversen Quellen (u.a. auch die DirectX Seite/Blog ) nachlesen.

benneque schrieb:
Aber dann stellt sich trotzdem die Frage: Warum nutzt Nvidia dann ihren eigenen Kram, anstatt auf DirectML zu setzen?
Naja, haben es schon immer so gemacht würde ich jetzt antworten. Vielleicht ist es auch einfacher umzusetzen, keine Ahnung wie Hardware-nah man die Tensor-Cores etc. ansprechen kann/muss. Machen wir uns nix vor, am Ende des Tages wollen alle aber nur GPUs verkaufen.

benneque schrieb:
Ich bleibe dabei: In Zukunft wird es diverse Spiele geben, die Nvidias DLSS unterstützen und (fast) keine die etwas ähnliches auf Basis von DirectML bieten. Schließlich muss der Spieleentwickler dafür extrem aufwendig neuronale Netze trainieren. Und ich bin davon überzeugt, dass Nvidia hier entsprechend bessere (finanzielle) Anreize bietet.
Ja, aberwarten wie sich das Ganze entwickelt. Vor Ende 2020 sollte man da kein Fazit ziehen. Dinge brauchen Zeit.
 
DocWindows schrieb:
Es geht um Effizienz und nicht um Stromsparen. Das ist ein gewaltiger Unterschied den immer noch kaum jemand versteht. Bei der Effizienzbetrachtung ist es quasi egal wie viel ein Gerät verbraucht, solange die gelieferte Leistung stimmt. Das gilt für CPUs, GPUs und jedes andere Gerät welches man einer Effizienzbetrachtung unterzieht.
.

Dass das bei den High End Modellen anderes aussieht ist mit bewusst aber wie du es schon sagst, es wird einfach auf alle Karten übertragen.

Und viele interessiert die Effizienz eben nicht, sondern schlicht der Verbrauch.
Eine 1050ti geht noch immer wie warme Semmel wenn die mal bei Mindfactory in den Mindstar kommt. Kann man gut sehen wie der Balken immer kleiner wird.
570 und 1050ti kosten ähnlich viel, eine Zeit lang war die 570 sogar günstiger. Mit UV auf 0,8v und 1000-1100MHz hat die einen sehr ähnlichen Verbrauch gegenüber die 1050ti bei erheblich mehr Leistung. Und dazu auch noch Freesync was für ein Budget System sehr zum Vorteil ist.
Da schalten dann aber viel auf taub oder sagen, "die 1050ti kann man auch UV". Toll, bleibt noch immer die erhebliche Leistungsdifferenz minus Freesync.
Da mangelt es einfach an Verständniss.
 
  • Gefällt mir
Reaktionen: katamaran3060
Postman schrieb:
Ich prophezeie aber auch die nächsten 18 Monate nichts Bahnbrechendes bei den Grafikkarten womit man NVIDIA überflügeln könnte, so dass man nur erneut am Preis schrauben kann, womit man seit Jahren nur ein Low Budget Clientel binden kann
Interessant. Die Navi Chips sollen auch erst mit den kleinen anfangen. Die sollten wirklich einiges kleiner sein, als eine 14nm Polaris GPU. Selbst Vega 20 ist (bei mehr Transistoren) nur 67% der Größe. Die Produktionskosten müssten aber momentan sogar höher ausfallen. Der Chip ist noch zu groß um im neuen 7nm verfahren eine wirklich gute Ausbeute zu haben.

Die nächsten Chips werden da sicher besser abschneiden. Alleine weil sie kleiner sind. Die Kosten sollten trotzdem noch relativ hoch liegen, weshalb AMD entweder geringere Margen für eine bestimmte Klasse an Chip hat oder eben den Preis erhöht. Die kleinen GPUs teurer machen ist ja momentan Mode, warum also auch nicht da?

Es wird immer teurer und zumindest Nvidia macht immer mehr Gewinn, da die Leute trotzdem kaufen.
 
Richtig zuletzt bei Tomb Raider im Fenster Modus mehr recht als schlecht auf Win10 um mal ein Beispiel zu nennen.

Auch bei GSync gibt es Schrott Displays die nur TN haben. 😉
 
  • Gefällt mir
Reaktionen: katamaran3060 und Benji18
DocWindows schrieb:
Nein, der Hauptvorteil ist, dass G-Sync Monitore "einfach funktionieren". Und das auch so gut wie immer in der gleichen Range. 30 Hz bis Maximafrequenz des Monitors. Die Ausnahmen die es davon gibt sind bei Adaptive Sync die Regel. Kein Flackern, keine gelegentlichen Blackscreens, etc.

Oh, dann hast du wohl die Probleme von den G-Sync Monitoren verschlafen?

Monatelang machte G-Sync Probleme, mit Bild flackern, Blackscreens usw. Mit vielen tollen G-Sync Monitoren konnte man Ewigkeiten gar nichts anfangen, weil der Treiber von nVidia Probleme gemacht hat, dass G-Sync teilweise gar nicht gegriffen hat. Von den Problemen mit Boarderless-Windowed Games mal ganz abgesehen, die gibt es ab und an immer noch.

So viel zu "einfach funktionieren".

Lustigerweise macht mein "billiger AOC FreeSync Monitor", der laut nVidia nicht kompatibel ist mit Adaptive Sync absolut keine Probleme und funktioniert sowohl unter FreeSync mit AMD GPU's als auch als Adaptive Sync über nVidia GPU's. Wiederum die "komplett durchgetesten" 12 Monitore die nVidia empfiehlt, warum haben da plötzlich so viele Leute Probleme?

Von den weiteren Problemen die G-Sync mit Multimonitor-Setups hat, wollen wir dann lieber wohl gar nicht anfangen zu sprechen. Dein erster Satz war ein Schlag ins Gesicht für die Leute die teure G-Sync Monitore gekauft haben und schon seit Beginn immer wieder Probleme haben.
 
  • Gefällt mir
Reaktionen: katamaran3060, Mcr-King, Baal Netbeck und eine weitere Person
DirectML hingegen macht sich die universellen Compute-Einheiten von GPUs zu Nutze, womit auch Radeon-Grafikkarten von AMD eine solche Funktion bieten könnten.
Welche Hardware hier zum Einsatz kommt, darüber entscheidet immer noch der Grafikkarten-Treiber. DirectML ist eine API und hat rein gar nichts mit der darunter liegenden Hardware zu tun. Das ist ja gerade der Sinn einer Plattformunabhängigen API.

Nvidia hat hier außerdem den Vorteil, dass sie dedizierte Kerne für AI-Aufgaben haben, die dazu noch 10 mal schneller sind als normale Grafikshader, während AMD kostbare Grafikresourcen verliert, wenn sie AI-Aufgaben auf ihrer Grafikkarte durchführen.
Von daher sehe ich da jetzt auch keine große Chance für AMD hier Nvidia Paroli bieten zu können, solange sie nicht auch AI Kerne in Hardware implementieren.
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
Monatelang machte G-Sync Probleme, mit Bild flackern, Blackscreens usw. Mit vielen tollen G-Sync Monitoren konnte man Ewigkeiten gar nichts anfangen, weil der Treiber von nVidia Probleme gemacht hat

Was haben Treiberprobleme mit der Definition der Anforderungen zu tun? Softwareprobleme gibts immer mal wieder. AMD wurschtelt auch ständig an ihrem FreeSync rum und trotzdem gibts immer mal wieder Probleme.

Es soll sogar Hardwaredefekte geben die man durch einfaches Umtauschen eines Geräts beheben kann. Bei dir ist aber immer alles gleich ein Prinzipproblem.

Aldaric87 schrieb:
Dein erster Satz war ein Schlag ins Gesicht für die Leute die teure G-Sync Monitore gekauft haben und schon seit Beginn immer wieder Probleme haben.

Auch das hat nichts mit der Definition der Anforderungen zu tun. Warum lenkst du immer von konkreten Aussagen ab? Und wenn das nicht möglich ist kommste mit Themen von vor 10 Jahren oder noch früher. Und vor allem in Themen die gar nichts damit zu tun haben?
Es wurde nach Vorteilen von G-Sync gefragt und die habe ich genannt. Wozu musst du jetzt wieder derailen? Ich wette wenn ich noch 2x antworte sind wir wieder bei Intel und wie böse die AMD benachteiligt haben. Ist immer das Gleiche. Darum darfste dich jetzt gerne weiter mir dir selber unterhalten.
 
Zuletzt bearbeitet:
@ DocWindows

das Problem bei dir ist: Du argumentierst, dann wird von jemanden dagegen argumentiert.. Und dann kommts.
Du brichst deine ursprüngliche Aussage auf in die kleinsten "Fetzen", damit du in deinem Kosmus Recht behällst.

Du schreibst:

DocWindows schrieb:
Nein, der Hauptvorteil ist, dass G-Sync Monitore "einfach funktionieren".

Dann wurde geschrieben:

Aldaric87 schrieb:
Oh, dann hast du wohl die Probleme von den G-Sync Monitoren verschlafen?

Monatelang machte G-Sync Probleme, mit Bild flackern, Blackscreens usw. Mit vielen tollen G-Sync Monitoren konnte man Ewigkeiten gar nichts anfangen, weil der Treiber von nVidia Probleme gemacht hat, dass G-Sync teilweise gar nicht gegriffen hat. Von den Problemen mit Boarderless-Windowed Games mal ganz abgesehen, die gibt es ab und an immer noch.

So viel zu "einfach funktionieren".

Lustigerweise macht mein "billiger AOC FreeSync Monitor", der laut nVidia nicht kompatibel ist mit Adaptive Sync absolut keine Probleme und funktioniert sowohl unter FreeSync mit AMD GPU's als auch als Adaptive Sync über nVidia GPU's. Wiederum die "komplett durchgetesten" 12 Monitore die nVidia empfiehlt, warum haben da plötzlich so viele Leute Probleme?

Von den weiteren Problemen die G-Sync mit Multimonitor-Setups hat, wollen wir dann lieber wohl gar nicht anfangen zu sprechen. Dein erster Satz war ein Schlag ins Gesicht für die Leute die teure G-Sync Monitore gekauft haben und schon seit Beginn immer wieder Probleme haben.

Dann schreibst du:

DocWindows schrieb:
Was haben Treiberprobleme mit der Definition der Anforderungen zu tun? Softwareprobleme gibts immer mal wieder. AMD wurschtelt auch ständig an ihrem FreeSync rum und trotzdem gibts immer mal wieder Probleme.

Es soll sogar Hardwaredefekte geben die man durch einfaches Umtauschen eines Geräts beheben kann. Bei dir ist aber immer alles gleich ein Prinzipproblem.



Auch das hat nichts mit der Definition der Anforderungen zu tun. Warum lenkst du immer von konkreten Aussagen ab? Und wenn das nicht möglich ist kommste mit Themen von vor 10 Jahren oder noch früher. Und vor allem in Themen die gar nichts damit zu tun haben?
Es wurde nach Vorteilen von G-Sync gefragt und die habe ich genannt. Wozu musst du jetzt wieder derailen? Ich wette wenn ich noch 2x antworte sind wir wieder bei Intel und wie böse die AMD benachteiligt haben. Ist immer das Gleiche. Darum darfste dich jetzt gerne weiter mir dir selber unterhalten.


Wo ist denn plötzlich das "G-Sync funktioniert einfach"? Vor allem hackst du dann gleich wieder auf AMD ein. Das tut nichts zur Sache. Es ging um die reine ordnungsgemäße Funktion von G-Sync. Das zeigen auf AMD ist Kindergarten-Verhalten.

2. Bespiel:


DayMoe schrieb:
Ich verstehe nach wie vor nicht, weshalb in diesem Forum sehr oft davon gesprochen wird, dass 'AMD keine Konkurrenz für nVidia' ist ...
Bis vor kurzem war es wie folgt:

- 1030 vs 560
- 1050 vs 570
- 1060 vs 580
- 1070 vs Vega 56
- 1080 vs Vega 64
- 1080ti

Das ganze ist jetzt eine Stufe weiter hoch gerutscht. AMD kann nichts vergleichbares zu einer xx80ti bieten, richtig! Aber wer verbaut schon immer die absoluten High End Karten ? Gerade im mittleren Bereich ist AMD mehr als gleichwertig, und das meist zum besseren Preis.

Die Technik hat beide Seiten ab und an im Stich gelassen. Jüngstes Beispiel bei AMD Primitive Shader, welche eine wirklich gute Idee und feine Technik sind, die aber von Niemandem unterstützt wird. Und auch wenn hier die Argumente angeführt werden, dass PhysX ja genutzt wird, war das dennoch ein Fehlschlag für nVidia, da diese reine PhysX Karten verkaufen wollten! NEBEN den GPUs! Es ging denen nicht um die Software sondern darum Hardware zu verkaufen.

DocWindows schrieb:
Weil sie unter anderem nur 50% so effizient sind wie nVidia.

Dann wurde geschrieben:

TheUngrateful schrieb:
Es ist erstaunlich dass Stromsparen das Totschlag Argument überhaupt geworden ist. Es hat nie jemanden wirklich interessiert, erst als Maxwell um die Ecke kam.
Ja, die Einstellungen sind von AMD meist nicht gut gewählt oder wohl eher zu großzügig gewählt. Ein wenig Aufklärung würde hier aber gut tun. Vega mal außen vor, jeder redet bei 580 vs 1060 Diskussionen von erheblich besserer Effizienz und wieviel man nicht sparen kann mit der 1060. Und die Lautstärke erst!
OC bei der 1060 wird als riesen Vorteil angesehen, UV bei der 580 als "Muss" und damit als Nachteil.

Ich sitz hier mit meiner 480, zocke mit Freesync und FPS Cap bei 74, wahlweise in 1080p oder 1440p und die Karte zieht gerade mal 70-80 Watt und im absoluten Limit sind es 95 Watt peak. Das alles mit ~5-10% weniger Leistung gegenüber einer 1060. Interessieren mich diese max. 7 FPS mehr auf der 1060? Nö, denn wie gesagt, cap bei 74 und da häng ich fast immer drin. Dafur hatte ich jetzt 2 Jahre kein tearing und könnte Adaptive Sync auch jetzt nicht nutzrn, da kein DP.
Außerdem hat eine UV 1060 kaum weniger verbraucht. Mit beiden lag ich aber immer unter 100Watt und damit weit weg von den Werten die meist bei Diskussionen benutzt werden.

Bei den CPUs ist es andersrum. Wieviel Geschwafel ich bis jetzt gelesen habe nach dem teasing des Ryzen vs 9900k.
"~40% weniger Verbrauch? Gleiche Performance? Uninteressant! Sind trotzdem bestimmt langsamer in Spielen!"


DocWindows schrieb:
Über diese Karten streitet doch überhaupt keiner. Es geht um die fetten Boliden. Leider färben diese Boliden aber im Kopf der Kunden auf die untergeordneten Karten ab.


Wie das gleiche. Es ging auch um 1060 vs 480. Dann dein Kommentar mit 50 %. Dann schreibt TheUngrateful wie effektiv er seine 480 betreibt und du schreibst dann: "über diese Karten redet doch keiner".

Sorry, aber das ist lächerlich. Das bekommen nicht mal Politiker so gut hin wie du, sich alles zurecht zu drehen.
 
  • Gefällt mir
Reaktionen: katamaran3060, Rockstar85, Benji18 und 3 andere
DocWindows schrieb:
Es ging nicht um die Qualität des Bildschirms sondern um die Qualität der Adaptive Sync Technik.
Es gibt aber nicht DIE Qualität DER Adaptive Sync Technik.
Es gibt Adaptive Sync und es gibt Hersteller, welche sich entweder mehr Mühe machen, oder eben weniger.
Es ist nicht die Schuld von Adaptive Sync, sondern des jeweiligen Monitorherstellers, welches Panel er mit welchem Scaler kombiniert und wie dieser die Firmware programmiert.

Ja, ich finde eine Technik besser die mir ein definiertes, garantiertes Ergebnis liefert und wo sich jemand kümmert dass das vernünftig umgesetzt wird. Da zahl ich dann gern 50 Euro mehr.
Komisch das es dann oft genug auch G-Sync Modelle gibt, welche eben nicht ohne Probleme waren.
Und du zahlst nicht 50€ mehr, sondern gerne 200-300€ mehr.

Die Panelqualität kann man sich unabhängig davon ja immer noch aussuchen. Gibt ja verschiedene Modelle.
:freak: Genauso wie bei jedem Adaptive Sync Monitor.
 
  • Gefällt mir
Reaktionen: katamaran3060, Benji18 und Mcr-King
Zurück
Oben