Test GeForce GTX 1660 im Test: Nvidia Turing nimmt AMD Polaris ins Visier

Luxmanl525 schrieb:
Hallo zusammen,

bis letztes Jahr März war ich noch mit einer Sapphire Radeon 5850 Xtreme unterwegs, die gerademal 1 Gbyte Ram intus hatte. Und hey, ich lebe noch! Sogar Crysis 3 konnte ich auf Stufe "High" absolvieren.

Wenn ich bis vor kurzem mit einer 5850 mit 1GB unterwegs gewesen wäre, kämen mir 6GB auch absolut ok vor. Dein Fokus dürfte die letzten Jahre ja nicht unbedingt das Gaming gewesen sein. Somit dein Empfinden was "völlig ok" ist mangels Erfahrung ein anderes.
 
estros schrieb:
Guck dir doch Testes an. Allein diesen hier.
Okay, Ti kann ich nachvollziehen. Auch wenn die direkte Gegenüberstellung auf CB nicht gegeben ist.
Nur, was zum Henker haben RAM XMP Settings mit der GPU zu tun?
 
rtx2070 schrieb:

Kuck ganzes video weine später.

Ein Fazit von CB selbst aus dem Test der RTX 2060: "Die meisten aktuellen Spiele haben mit 6 GB statt 8 GB noch kein Problem und kommen auch bei vollen Texturdetails damit aus. Aber es gibt heute bereits einige Titel, die nach mehr verlangen und bei maximalen (Textur-)Details anfangen zu ruckeln, obwohl die GPU schneller rendern könnte. In dem Fall ist die einzige Gegenmaßnahme, die Texturdetails zu reduzieren, was zum Beispiel auf einer Radeon RX 580 nicht nötig ist. "

Es bleibt dabei, 6GB führen in manchen Spielen zu Problemen. Ende der Diskussion.

Übrigends: Hardware-Unboxed, really? Die kann man doch gar nicht Ernst nehmen. Bitte heul später :)

Wie gesagt: Hätte ich nur 6GB Vram könnte ich meine Spiele nicht mehr flüssig spielen, Fakt.
 
  • Gefällt mir
Reaktionen: happylol, evilhunter und DeadEternity
LOl mir egal was für oder sonst was für ein fazit habe es selber oft erlebt geht problemlos. lol hardware unboxed ist besser als CB und unbiased.
 
Mehr als 150€ würde ich für die Dinger aber nicht bezahlen. Sonst sind die eigentlich völlig uninteressant.
 
  • Gefällt mir
Reaktionen: aklaa
KlaraElfer schrieb:
Diese Spiele sind schon immer im Parkour.

nein, sind sie nicht. der parcours wurde zeitlich passend zum turing release (natürlich ein paar wochen vorher) umgestellt - mit spielen, die weder technisch interessant (außer man will gameworks benchen), noch technisch aktuell und ganz besonders nicht spielerisch relevant sind. niemand spielt final fantasy xv und hellblade - letzteres ist jetzt 2 jahre alt. dafür hat man damit schon die rx590 und die radeon 7 niedergebügelt.

wo sind resident evil 2? forza horizon 4? battlefield 5? metro exodus?

ich darf nochmal dran erinnern, dass ein durchschnitt nur eine summe von einzelergebnissen ist. und bei CB wird dann performance / watt und performance / € mit dieser summe an einzelergebnissen bestimmt.

ich fasse nochmal zusammen, falls man nicht verstanden hat, wo die CB klicki-bunti graphen herkommen:

nehmen wir mal zum veranschaulichen 5 spiele, aus denen wir mit jeweils 3 einen durchschnitt bilden:

final fantasy 15, far cry 5, hellblade, battlefront 2, wolfenstein.

zwischen rx590 und gtx1660 in fhd.

gruppe 1:

ffxv, hellblade, far cry 5

gruppe 2:

far cry 5, battlefront 2, wolfenstein

gruppe 1 fps avg rx590:

ffxv: 45
hellblade: 57
far cry 5: 70

gruppe 1 fps avg gtx 1660:

ffxv: 58
hellblade: 67
far cry 5: 74

gruppe 2 fps avg rx590:

far cry 5: 70
battlefront 2: 95
wolfenstein: 92

gruppe 2 fps avg gtx 1660:

far cry 5: 74
battlefront 2: 95
wolfenstein: 95


gruppe 1 avg fps rx590: 57,3

gruppe 1 avg fps gtx 1660: 66,3

gruppe 2 avg fps rx590: 85,6

gruppe 2 avg fps gtx 1660: 88

delta % zwischen rx590 und gtx 1660 in

gruppe 1:

gtx 1660 avg fps % = 100%

rx 590 avg fps % = 86,4%

gruppe 2:

gtx 1660 avg fps % = 100%

rx 590 avg fps % = 97,3%



nachdem wir jetzt festgestellt haben, dass ein 10,9% punkte delta zwischen spiele gruppe 1 und 2 liegt (die rx590 durch die spieleauswahl 11% leistung im verhältnis zur gtx 1660 verliert) schauen wir uns mal den rattenschwanz davon an:

performance / watt und performance / €

die rx590 wird bei CB mit 208w avg angegeben, die gtx 1660 mit 116w.

gruppe 1:

rx 590

57,3 fps / 208w = 0,275 frames pro watt

gtx 1660

66,3 fps / 116w = 0,572 frames pro watt

delta effizienz (fps pro watt)

0,275 / 0,572 = 0,48

gtx 1660 fps/watt in % = 100%

rx590 fps/watt in % = 48%


gruppe 2:


rx 590

85,6 fps / 208w = 0,412 frames pro watt

gtx 1660

88 fps / 116w = 0,759 frames pro watt

delta effizienz (fps pro watt)

0,412 / 0,759 = 0,54

gtx 1660 fps/watt in % = 100%

rx590 fps/watt in % = 54%


wir stellen also fest, dass mit einem wachsenden delta zwischen gtx 1660 und rx590 auch das fps/watt verhältnis und performance pro € im verhältnis zur gtx 1660 schlechter wird. und das delta zwischen gtx 1660 und rx590 wird dann größer, wenn so "spiele" wie final fantasy 15 und hellblade in die avg fps einfließen.

das selbe gilt natürlich auch für performance / €.

preis laut CB test:

rx590: 219€
gtx 1660: 225€


gruppe 1 avg fps rx590: 219 € / 57,3 = 3,82 € pro frame

gruppe 1 avg fps gtx 1660: 225€ / 66,3 = 3,39 € pro frame

Preis/Leistung in %

gtx 1660: 100%

rx590: 88,7%



gruppe 2 avg fps rx590: 219 € / 85,6 = 2,56€ pro frame

gruppe 2 avg fps gtx 1660: 225€ / 88 = 2,56€ pro frame

Preis/Leistung in %

gtx 1660: 100%

rx590: 100%

der parcours nimmt also direkten einfluss auf die metriken effizienz und preis/leistung. für jedes neutrale spiel, das aus dem parcours fliegt und für jedes gameworks spiel, das aufgenommen wird, sinkt der value und die effizienz von radeon karten.



und jetzt will ich noch den mathematischen beweis dafür führen, dass wolfgang den parcours durchschnitt für performance / watt nutzt und nicht die performance in den drei spielen, die er für den leistungsaufnahme-test nimmt:

ich nehme die % angaben aus dem spieledurchschnitt, die gtx 1660 als basis:

rx 590

92 fps / 208w = 0,44 frames pro watt

gtx 1660

100 fps / 116w = 0,86 frames pro watt


0,44 / 0,86 = 0,5116 = 51% - das stimmt mit dem performance / watt graphen überein.

gegentest:

wolfenstein, kingdom come deliverance und far cry 5 avg fps gemittelt über einzelergebnisse:

rx590

70,4 fps / 208w = 0,338

gtx 1660

73,27 fps / 116w = 0,632

0,338 / 0,632 = 0,53

gtx 1660 fps/watt in % = 100%

rx590 fps/watt in % = 53%


würden für die performance / watt angaben die für die leistungsaufnahme herangezogenen titel genutzt werden, würde die rx590 schon von 51% auf 53% effizienz im verhältnis zur gtx 1660 klettern.


weil ich jetzt schon weiß, dass gleich wieder der vorwurf von der grünen fraktion kommt, ich würde die rx590 schön rechnen: darum gehts nicht. hier gehts um die methode und wie man dadurch ergebnisse durch verschiedene basiswerte manipulieren kann, besonders, wenn man die ergebnisse hinter % graphen versteckt.

die % graphen bei CB sind ein nötiges übel und gleichzeitig ziemlich bequem. aber es besteht auch immer die gefahr der überinterpretation der realen zahlen hinter den riesig wirkenden % und der undurchsichtigkeit, wo die zahlen denn genau herkommen.


also nochmal zum hinter die ohren schreiben: je mehr nvidia gameworks / gesponsorte titel im parcours sind, desto schlechter wird neben den fps auch die effizienz und preis/leistung der radeon karten. viele denken, die effizienz wäre unabhängig von den FPS der konkurrenz, das ist aber hier nicht so.

ab einem gewissen punkt an ungleichgewicht (vorallem bei solchen titeln wie FFXV), wird durch die testumgebung von vornherein ausgeschlossen, dass radeonkarten überhaupt an die nvidia karten herankommen können. hier ist eine neutrale betrachtung nicht mehr gegeben und eine bevorzugung von nvidia karten systembedingt.

unter diesen voraussetzungen wird es navi künstlich schwer gemacht, gegen die geforce karten gut abzuschneiden. da navi eine für amd weichenstellende karte wird und darüber entscheiden könnte, inwiefern amd die chancen im consumer markt einschätzt, könnte CB mit diesem testverfahren mit dafür verantwortlich sein, wenn amd durch ein scheitern von navi am markt eben diesen verlässt. gemessen an der derzeitigen schieflage des marktes finde ich das absolut unverantwortlich.



KlaraElfer schrieb:
Und du schreibst oft auch einen Mist zusammen.

wenn du journalistisch und qualitativ mit der arbeit von volker und wolfgang zufrieden bist, ist das dein eigenes problem. auch wenn viele der meinung sind, dass ich nicht "oft" mist schreibe - es gibt einen unterschied. ich bin nur ein community-kommentator - ich darf mir so gesehen eine "mist-quote" von 100% erlauben - die redaktion mit journalistischem auftrag nicht!

und so lange ich etwas an den methoden und ergebnissen auszusetzen habe, werde ich das auch weiterhin hier kundtun.

KlaraElfer schrieb:
Dir steht es frei andere Tests zu lesen, da kommt aber dasselbe heraus.

nein, da kommt eben nicht das selbe raus.

763945


wie man hier sehen kann, hat CB das international schlechteste erfasste ergebnis für die radeon 7. und die wurde genau mit diesem parcours gebencht - und wie ich oben recht ausführlich gezeigt habe, wissen wir jetzt auch alle, wo das herkommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Marflowah, Acedia23, Herr Melone und 10 andere
Preis/Leistung der Karte ist ok, aber der VRAM ist irgendwie nicht mehr Zeitgemäß.

Ich hab ja jetzt ne 8GB Karte und sehe wie oft der VRAM zu mehr als 6GB belegt ist, wenn man nur 6GB hat muss da wieder irgendwas eingespart werden, das ist sicherlich auch nicht optimal.
 
duskstalker schrieb:
also nochmal zum hinter die ohren schreiben: je mehr nvidia gameworks / gesponsorte titel im parcours sind, desto schlechter wird neben den fps auch die effizienz und preis/leistung der radeon karten. viele denken die effizienz wäre unabhängig von den FPS, das ist aber hier nicht so.

You are right man - schöner Tweet - tolle Sache, hast dir eine Arbeit gemacht - du hast es geschafft Dinge die alle anderen nur mit ihren Emotionen sagen, auf eine sachlich korrekte Darstellung zu führen!

Nun zu meinen Fakten:
Ich habe alle Fakten rund um Intel/AMD sowie NVIDIA/AMD in den letzten Jahren mitverfolgt und sah wie jeder andere, dass offensichtlich INTEL+NVIDIA einfach derzeit über Jahre AMD deklassiert haben.

Nun zu meinen Emotionen:
Meine letzte Radeon war noch eine ATI - Hercules ATI Radeon 9800 Pro mit 128MB (2003), danach war ich durchgehend bei Nvidia... war auch CPU technisch nach dem AMD Athlon XP 2000+ (2002) immer nur bei Intel. Und by the way ich hatte auch eine 3DFX Voodoo 2 mit 12MB und eine 3DFX Voodoo 5 5500 mit 64MB. Falls es wer nicht weiß, aber NVIDIA hat sich 3DFX einverleibt, so wie AMD sich damals ATI einverleibt hat - NVIDIA ist ein Urgestein das sich solange der Gründer auch CEO bleibt, sich wohl niemand einverleiben können wird :-)

Nun weiter bei den Emotionen:
Ich kann mich an die guten alten Erfolge von ATI und AMD erinnern... die Teile hatten wirklich Dampf, also so eine richtige konstante gute Rohkraft.... wenn man sich auf die Teile eingelassen hat wurde man nie enttäuscht, auch wenn man zuvor vielleicht skeptisch war... so wie wenn man VW und Opel vergleicht... keine Ahnung warum, aber der Opel hat einfach irgendwie einen eigenen Charakter.... obwohl alle nur mit Wasser kochen... einen anderen "Dampf" als zB die VW Dinger...

Ich merke, dass es seit Ryzen7 1800X im April 2018 aufwärts geht... wir alle hatten schon Intels 4 Kern Konzept satt wo sich seit dem i7-2600K außer der Taktrate nichts mehr geändert hat... habe den heute noch im System mit 16GB DDR 3 Ram und einer GT 1030 2GB GDDR5 :-)

Leute das System ist von 2011 und jetzt haben wir 2019... das läuft noch immer Ratz Fatz wenn ich da eine potente Grafikkarte reingebe... ganz ehrlich, wir können AMD nur dankbar sein, dass sie es jetzt wieder Ernst nehmen mit ihren Mitbewerbern Intel und Nvidia.... und egal was, ich glaube wenn das bei AMD so weiter geht hat mein nächstes System wieder mal einen AMD Prozessor und eine AMD Radeon Grafikkarte (treibermäßig schon immer besser als Nvidia) drinnen, und ich bedanke mich recht herzlich bei Intel und Nvidia (und verdammt ich habe PhysX bisher noch nie verwendet, und auch Hairworks hab ich noch nicht gebraucht... vermutlich ist es mit RTX ähnlich, weil der Standard nun von AMD korrekt für alle Grafikkarten eingeführt wird, und da haben dann AMD Karten definitiv Vorteile, ohne einen Extra Chip zu verbauen, denn der Chip ist schon so gebaut, dass die Computiong Leistung ohne extra Chip einfach schon drinnen ist... das macht nämlich die Graphics Core Next Architektur auch aus -> GCN = NAVI !!!!!) vor allem bei AMD - vielen Dank, ich werde statt meinem VW wieder einmal Opel fahren - DANKE!!!!!!! :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zitterrochen, Smartbomb und TumorTorben
xexex schrieb:
Du vergisst dabei aber, dass diese Karten letztlich nur in einen leicht verbesserten Prozess hergestellt werden. Wocher sollen denn irgendwelche riesigen Sprünge kommen?
Der Fortschritt kommt ja nicht alleine vom neuen Fertigungsprozess. Es ist dennoch eine neue Architektur und zudem ein Wechsel von GDDR5 => GDDR6 (für Turing allgemein bis auf 1660). Außerdem ist der Sprung doch auch vorhanden - er muss lediglich teurer erkauft werden.
Man muss sich nur die 2060 angucken, rein von der Leistung her definitiv ein würdiger Nachfolger für die 1060.
Nur hat man den UVP gleichzeitig um 100 $ angehoben und damit den Fortschritt in der P/L torpediert.

Witzigerweise wurde das bei Turing immer mit der Pioniersarbeit von Nvidia und den Innovationen RT/DLSS gerechtgertigt, die für die beiden Turing GTX-Modelle garnicht vorhanden sind. Wie kann es also sein, dass diese beiden die gleiche P/L haben wie eine 2060?

Ich kann absolut nicht nachvollziehen, wie man hier noch den Fortschritt oder die Entwicklung der P/L gutheißen kann. Dann freut man sich noch, dass die P/L gegenüber der 1060 minimal besser geworden ist, obwohl die 1060 monatelang kaum billiger geworden ist und völlig von der 580 abgehängt wurde.
 
rtx2070 schrieb:
LOl mir egal was für oder sonst was für ein fazit habe es selber oft erlebt geht problemlos. lol hardware unboxed ist besser als CB und unbiased.

Mir auch egal was hier für Videos gepostet werden da ich mein Fazit selber ziehe und es bei mir zu oft erlebt habe das 6/8GB nicht immer reichen ;).
 
  • Gefällt mir
Reaktionen: DeadEternity
TZUI1111 schrieb:
Naja AMD wird die Features nicht umsonst im Treiber eingebaut haben, das ist halt die Frage nach der Käufermentalität, jedem das seine...

entweder die karte kann das standardmäßig (ab bios) oder nicht - wenn es wenigstens undervolting "ab werk" gäbe, könnte man das wie oc-karten ja noch akzeptieren.
dass man eine karte noch undervolten und übertakten kann, dass wissen und machen wir hier in so einem forum, die breite masse der käufer ist auf einem supersturem plug-and-play modus unterwegs. da wird weder übertaktet, noch lüftersteuerung benutzt oder sonstwas...
(das ist worauf ich ursprünglich hinauswollte; wenn jemand erfolgreich uv-chips betriebt: glückwunsch. )
 
Tja, braucht's die GTX 1660 im Portfolio nVidias (aktuell)?

Wie schon zuvor aufgeworfen, ist die RX 580 von AMD/RTG jetzt nicht so viel langsamer, bietet immerhin 8GB und ist ohne Frage dennoch deutlich guenstiger als die RTX 1660 und die RX Vega56 mit 8GB ist deutlich leistungsfaehiger und langlebiger aufgestellt fuer nicht unwesentlich mehr Geld.

Wenn es natuerlich unbedingt eine Karte vom Quasi-Monopolisten sein muss, dann wird es schwieriger, wobei der Aufpreis zu einer "Billig"-Version der RTX 2060 jetzt nicht so heftig ist, aber man bei einer halbwegs noch als langlebig einzustufenden Karte mit 8 GB Speicherausbau, somit einer RTX 2070, preis-leistungstechnisch eher auf verlorenem Posten als Mainstream-Mittelklasse-GPU-Gamer bei nVidia ist.

Die Zeiten in denen eine GTX 1070 mit 8GB noch relativ guenstig abgegriffen werden konnte, sind ja auch durch die Einfuehrung der GTX 1660Ti beendet worden.

Bleiben AMDs/RTGs Navi Grafikkarten als Hoffnungsschimmer fuer preis-leistungsbewusste Gamer, wenn man denn unvoreingenommener Weise kein nVidia-Fan sein sollte ;) ...

... davor duerfte aber noch eine RTX 1650 winken mit 4GB, als neuer Kontrahent der RX 570 (die seit jeher schon heftig den Boden mit einer GTX 1050Ti aufwischt) mit wahlweise 4 oder 8 GB. Dass eine RTX 1650 im Verbrauch weit vor einer RX 570 liegen wird, duerfte von vornherein schon klar sein, aber wie es preis-leistungstechnisch da aussehen wird und ob bei der Leistung (nahe GTX 1060 Niveau?) 4 GB dann noch angemessen sind.

Eine noch darunter liegende RTX 1640 scheint als Einstiegsmodell ja vorerst nicht geplant zu sein.

Irgendwie geht es im GPU-Markt technologisch ueberhaupt nicht vorwaerts, da werden alte Kamellen zu gleichen Preisen wie vor mehr als 2 Jahren mit kaum Mehrleistung und teilweise weniger Speicher angeboten, ein wahres Trauerspiel.

Wenn Navi halbwegs gut gelingen sollte und die kommenden, darauf basierenden Konsolen (von Microsoft und Sony) ebenso (ohne grossartig beim Preis zu zu legen) stehen dem PC-Gaming wohl (sehr) harte Jahre bevor.

Es koennte sein, dass am Montag schon eine Ampere GPU in 7nm von "der Lederjacke" verkuendet wird, wenn man dem WccfTech Geruecht glauben mag ... aber fuer die Gamer hier duerfte die Vorstellung einer neuen HPC GPU wohl kaum relevant sein (ausser vielleicht, dass einige von den Herrschaften dann von nVidia 7nm GPUs anfangen werden zu traeumen, auch weil RTX Turing Grafikkarten bisher relativ gefloppt sind).
 
Zuletzt bearbeitet:
TZUI1111 schrieb:
Jein, keiner den ich kenne betreibt die Vega ohne UV und dann sind es 200W und nicht 300W im Durschnitt.
Kannst dann gerne mal die Vega 56/64 selbst einordnen. die brauchen in der Regel nur 1V statt 1.2V und manche gehen bis 900mV bei 1.6 Ghz


Ich habe da auch nochmal nachgerechnet.
Nehmen wir mal an, eine Karte braucht 100 W/h mehr als eine andere mit vergleichbarer Leistung..
Also Annahme, jemand zockt jeden Abend 2 Stunden. Das sind 14 Stunden in der Woche und ~730 im Jahr.
730 * 100 W/h = 73kw/h. Bei einem Preis von 30 cent pro k/wh sind das 22€ Mehrkosten pro Jahr. Wenn man die Karte 4 Jahre hat sind es 88€ Mehrkosten gegenüber einer die 100W weniger zieht.

edit: Totaler Rechenfehler, ups. Doch spürbarer Unterschied
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lynx007
DeadEternity schrieb:
Mit Final Fantasy hätten wir da ja jetzt genau ein Spiel, das obendrein beschissen optimiert ist. Gehen wir mal an Topseller wie BF V oder PUBG uvm. also Spiele die wirklich viel gekauft und gespielt werden, da läuft unter Full HD bei 6GB nichts voll.

Also muss ich wenn ich ne 6GB Karte habe die Spiele entsprechend auswählen? Das ist auch kein akzeptabler Zustand.
 
@cypeak

Das Argument "der Kunde will aber nicht..." ändert aber nichts daran, dass bei Vega ein gewisses uv/oc Potential vorhanden ist. Ebenfalls ist es egal, dass auch NV-Karten entsprechend angepasst werden können. Das Argument uv+oc wird ja meist erst genannt, wenn die Leute wieder den Heiligen Graal 'Performance pro Watt' hochhalten.

Die Bereitschaft bei Vega mehr zu machen, als die GPU samt Verpackung grob Richtung PC zuwerfen, ist allerdings eher mäßig. Da muss es dann wieder "out of the box" sein.
 
oulay schrieb:
Wenn ich da nichts übersehen habe, muss ich ehrlich sagen, dass ich die Auswirkung deutlich höher eingeschätzt habe. Ich würde schon sagen, dass das quasi keine Rolle spielt.
Ja, fast ins Schwarze getroffen ;)
Bei 100 W Stromverbrauch und der täglichen Nutzung von 2 Stunden entstehen im Jahr Kosten von ~ 22 € ( bei 0,30 Cent / kWh ). 😏
 
Hat schonmal jemand bei dem ganzen Verbrauchsunfug die zusätzliche leistungsaufnahme von einem gsync Monitor bzw Modul berücksichtigt? Das fpga im 4k Asus pg27uq braucht sogar ne aktive Kühlung und der Monitor verbraucht im gsync HDR Modus 160w.

https://www.anandtech.com/show/13060/asus-pg27uq-gsync-hdr-review/10

Wer Strom sparen will duscht kalt, macht das Licht aus und isst rohkost.

Wer sich einmal in der Woche Nudeln kocht oder ne Pizza in den Ofen schiebt, braucht wegen den paar w mehr für ne radeonkarte wirklich nicht so nen aufriss machen.
 
  • Gefällt mir
Reaktionen: Acedia23, Herr Melone, Zitterrochen und 3 andere
E1nweg schrieb:
Die Bereitschaft bei Vega mehr zu machen, als die GPU samt Verpackung grob Richtung PC zuwerfen, ist allerdings eher mäßig. Da muss es dann wieder "out of the box" sein.

Für den Großteil der Kunden muss es nun mal out of the box sein, weil nicht jeder die Kenntnisse oder den Elan hat, da viel mehr zu machen, als die GPU aus der Verpackung zu nehmen und einzubauen.

Als Hersteller sollte man schon ein Produkt für den Markt zuschneiden, wenn man will, dass es gut verkauft wird.

Es ist nicht immer Mining-Boom.



Bzgl. Stromverbauch: Da geht es vielfach auch einfach darum, dass bei vielen das Netzteil für eine Vega 64 knapp werden könnte oder nicht reicht (bzw. das NT einfach nicht gut genug für die teils sehr hohen Lastspitzen ist).

Noch etwas, das sich nicht gerade positiv auf Verkaufszahlen auswirkt.


Auch die Radeon VII ist eher eine Enttäuschung. Die Architektur muss geändert werden, Pascal muss weg.
 
Zuletzt bearbeitet:
duskstalker schrieb:
Hat schonmal jemand bei dem ganzen Verbrauchsunfug die zusätzliche leistungsaufnahme von einem gsync Monitor bzw Modul berücksichtigt? Das fpga im 4k Asus pg27uq braucht sogar ne aktive Kühlung und der Monitor verbraucht im gsync HDR Modus 160w.

https://www.anandtech.com/show/13060/asus-pg27uq-gsync-hdr-review/10

Wer Strom sparen will duscht kalt, macht das Licht aus und isst rohkost.

Wer sich einmal in der Woche Nudeln kocht oder ne Pizza in den Ofen schiebt, braucht wegen den paar w mehr für ne radeonkarte wirklich nicht so nen aufriss machen.
lol warum wenn es die konkurenz besser macht? geht ja ums prinzip. warum 2te klasse....wenn es erste gibt.
 
Zurück
Oben