Test GeForce GTX 1660 im Test: Nvidia Turing nimmt AMD Polaris ins Visier

TZUI1111 schrieb:
Naja AMD wird die Features nicht umsonst im Treiber eingebaut haben, das ist halt die Frage nach der Käufermentalität, jedem das seine...

ABER ^^

Das kommt drauf an, AMD hat ja nicht so nen altbackenen Treiber, kurz den Treiber aufmachen und UV GPU wählen und jeder Leihe hat eine super Erfahrung, ohne technische Ahnung ^^
Naja, AMD wird sich wohl etwas dabei gedacht haben, dass sie die "Stock"-Settings so festgelegt haben, wie sie sind, anstatt bereits ab Werk niedrigere Spannungen und höhere Takte für eine bessere Effizienz und Performance festzulegen. ;-)

Vielleicht kann doch nicht jeder Laie ohne technische Ahnung per UV eine super Erfahrung machen.
 
duskstalker schrieb:
nein, sind sie nicht.

Sie sind sind teilweise seit Frühling/Sommer 2018 im Parkour auch nicht nur zum Turing Launch September 2018, deine Aussage war:
final fantasy, assassins creed und hellblade, die CB zufällig noch schnell in den Parcours gepackt hat, leisten ganze Arbeit. Und dann noch überrascht tun von wegen: "in diesen Spielen ist der Abstand am größten" - wow.

Deine Aussage ist einfach unwahr und unterstellt Computerbase zudem Bevorteilung einer Marke.

duskstalker schrieb:
und so lange ich etwas an den methoden und ergebnissen auszusetzen habe, werde ich das auch weiterhin hier kundtun.

Die Methoden sind völlig in Ordnung und du stellst so ein bisschen den einsamen Rufer im Wald dar.

duskstalker schrieb:
nein, da kommt eben nicht das selbe raus.

Eine Abweichung von 2% Punkten zu einem Mittel aus 1250 Benchmarks.
Jetzt hast du die Computerbase Redaktion aber erwischt, was planst du als nächstes?
Die machen sich eine schönes Wochenende mit dem Geld von Huang.:heul:

duskstalker schrieb:
Wer Strom sparen will duscht kalt, macht das Licht aus und isst rohkost.

Wer richtig stromsparen will, der geht einfach campen oder lebt als Obachloser.:D
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Banned
KlaraElfer schrieb:
Deine Aussage ist einfach unwahr und unterstellt Computerbase zudem Bevorteilung einer Marke

Beim derzeitigen Testparcour hat er Recht, der ist bei CB ziemlich NVIDA affin.
Was bleibt ist die Spekulation ob die Auswahl zufällig, absichtlich oder einfach nur unglücklich ist.

Zur 1660 insgesamt kann ich nur sagen: Statt Revolution nur Stagnation.
Leistung und Effizienz nur knapp über dem mittlerweile drei Jahre alten Vorgänger, am VRAM hat sich gar nichts getan, ich warte noch auf eine 3 GB Version der Karte....
Wo sind die Fanboys die AMD vorgeworfen haben das die RX 590 nur ein billiger Abklatsch der RX 480 und RX 580 ist?
NVIDIA zeigt uns hier sehr schön das sie genau das ebenfalls können.
 
  • Gefällt mir
Reaktionen: Smartbomb und Revan1710
McFly76 schrieb:
Ja, fast ins Schwarze getroffen ;)
Bei 100 W Stromverbrauch und der täglichen Nutzung von 2 Stunden entstehen im Jahr Kosten von ~ 22 € ( bei 0,30 Cent / kWh ). 😏
Korrekt, habs gefixt. Damit sinds in 4 Jahren 88€ und mir persönlich dann doch zu viel.
 
In Endeffekt sollte man einfach danach schauen, welche Spiele man spielen will und welche eher nicht. Und dementsprechend die Benchmarks einschätzen.

Wenn man immer nur auf die Gesamtwertung und den längsten Balken schaut, ist das nur bedingt sinnvoll.


Generell sollte bei der Spieleauswahl hauptsächlich entscheidend sein, wie populär die Spiele sind IMO.

Dass das nicht heißt, dass man nur so unaufwendige Shooter testen soll, sollte klar sein. ;)
 
  • Gefällt mir
Reaktionen: DannyA4 und E1nweg
Dukstalker hat völlig recht. Wer Energie sparen will findet 1000 andere Wege.

Die Energieeffizienz von NV ist ohne Frage besser, der Unterschied aber nicht mehr so groß wie manche meinen und zB 100 Watt aufs Jahr gesehen wenig relevant. Das beste Argument für eine sparsame Karte ist eher noch die Kühlung.

oulay schrieb:
Korrekt, habs gefixt. Damit sinds in 4 Jahren 88€ und mir persönlich dann doch zu viel.

Du zahlst aber nicht 88 Euro mehr in 4 Jahren, da du niemals 365 Tage im Jahr 2h zockst und immer diese 100 Watt mehr anliegen. Wieso ist bei dem Thema eigentlich immer so eine grobe Rechnung ausreichend und keiner misst mal zumindest für einen kleinen Zeitraum nach und hat mal ein paar Daten?

Ich habe über die Jahre Karten in einer range von 130 Watt bis 400 Watt gehabt. Von der HD 6850 über die 270x hin zur 290 und 980. Ohne meine Gewohnheiten zu ändern, also weder mehr noch weniger zu zocken, hat sich mein Stromverbrauch so gut wie nicht verändert.

Außerdem, wo rechnet man bitte mit Verbräuchen über 4 Jahre im Bereich von 100 Watt bzw 20 Euro im Jahr? Das kommt nur wieder bei der Debatte AMD vs NV vor...

"warum 2te klasse....wenn es erste gibt."

Weil es teurer ist und du 1.Klasse Bahn sitzt und nicht 1. Klasse Emirates. Aber wenn es ja ums Prinzip geht...
 
  • Gefällt mir
Reaktionen: Zitterrochen, Horst_Koehler und DannyA4
cookie_dent schrieb:
Beim derzeitigen Testparcour hat er Recht, der ist bei CB ziemlich NVIDA affin.

Hat er nicht, der Textparcour gibt ziemlich genau das von seinem 3D Center Link ermittelte Testergebnis von 2150 Einzelbenchmarks mit einer Abweichung von 2% Punkten wieder und das nächste Problem ist ja, dass das 4K Werte der Radeon VII sind und auch nichts mit diesen Werten in Full HD zu tun haben.
Hier eine Affinität zu sehen, ist in etwa so wie wenn ich glaube die Amerikaner waren nicht auf dem Mond oder Echsenmenschen existieren.

Statistisch gesehen ist das einfach nicht signifikant, zudem unterschlägt er, wenn er die 3D Center Benchmarks verlinkt, dass sein kritisierter Testparkour dort nicht alleine enthalten ist, sondern Leo aus dem 3DC auch die Werte des E-Sports Indexs von CB mit hineinnimmt. Er kann ihn ja mal persönlich fragen wie er seine Rohdaten zusammenbekommt.

Der E-Sports Index bevorteilt die Nvidiakarten nochmal um gut 1%, grob überschlagen mit 3 Messergebnissen die deutlicher zugunsten Nvidia ausfallen. 16% Vorteil aus den 3 Spielen in 4K vs. 9% Vorteil aus den Messergebnissen des Benchmarkparkours.

Zieht man hier noch mal einen Prozentpunkt ab, dann ergibt sich aus der angeblichen bezahlten Computerbasetsts, eine Abweichung von 1 oder allerhöchstens 2% zum Ergebnismittel der aufgeführten Tests aus dem 3DC. Wie kann man hier behaupten der Testparkour sei Nvidia affin?

cookie_dent schrieb:
Was bleibt ist die Spekulation ob die Auswahl zufällig, absichtlich oder einfach nur unglücklich ist.

Das muss man nicht spekulieren, da Wolfgang seine Auswahl nicht pro eines Herstellers trifft.
Wer was anderes behauptet soll seine Unterstellung mal abseits von abstrusen VT´s belegen.

D
 
E1nweg schrieb:
Du zahlst aber nicht 88 Euro mehr in 4 Jahren, da du niemals 365 Tage im Jahr 2h zockst und immer diese 100 Watt mehr anliegen.
[citation needed] ;-)

Nee, ersthaft. Es gibt viele Leute, die lieber jeden Abend 2 - 3 Stunden PC-Spiele zocken anstatt sich passiv vom Fernsehen berieseln lassen... und am Wochenende dann auch mal etwas länger, was Tage ausgleicht, an denen man keine Lust auf PC-Spiele hat oder im Urlaub ist.
 
  • Gefällt mir
Reaktionen: xexex und cookie_dent
cookie_dent schrieb:
Beim derzeitigen Testparcour hat er Recht, der ist bei CB ziemlich NVIDA affin.
Was bleibt ist die Spekulation ob die Auswahl zufällig, absichtlich oder einfach nur unglücklich ist.

Das les ich jetzt schon ne Weile in den Diskussionen hier, das CB sehr Nvidia affin ist. Und wenn mir das auffällt dann merkt CB sicher auch wohin die Meinung im Forum tendiert. Das sich nichts geändert hat kann jetzt jeder selbst auffassen wie er will.

@E1nweg doch. 2h am Tag sind nichts ungewöhnliches. Gibt sicher Tage an denen ich gar nicht zocke aber im Durchschnitt sind die 2h locker drin.
 
  • Gefällt mir
Reaktionen: cookie_dent
E1nweg schrieb:
Außerdem, wo rechnet man bitte mit Verbräuchen über 4 Jahre im Bereich von 100 Watt bzw 20 Euro im Jahr? Das kommt nur wieder bei der Debatte AMD vs NV vor...
Hängt ja von der Situation ab. Bei Leuten, die jetzt vor der Wahl zwischen einer RX 590 und GTX 1660 für den gleichen Preis stehen und planen, diese neue Grafikkarte vier Jahre zu nutzen, ergibt das schon Sinn.
 
Erschreckend finde ich, dass es knapp drei Jahre nach Erscheinen meiner GTX 1060 keine preislich attraktive Alternative gibt, die einen Neukauf lohnen lassen würde. Aber der Quasi-Monopolist Nvidia (80% Marktanteil ?) kann es ja machen.

Gruß,
CTN
 
KlaraElfer schrieb:
Hier eine Affinität zu sehen, ist in etwa so wie wenn ich glaube die Amerikaner waren nicht auf dem Mond oder Echsenmenschen existieren.

Nanana, gibt sogar immer noch Leute die fest davon überzeugt sind das die die Erde eine Scheibe ist :D
 
Bei manchen Pro AMD Befürworter nimmt das schon langsam religiösen Charakter an, regelrecht auf einen Kreuzzug für ihre heilige Kuh AMD....Wird dieser Kreuzzug auch in wirklich wichtigen Dingen wie Lebensmittel, Umwelt usw. auch so in Foren plakatiert und gekämpft?
Letztendlich geht es hier nur um ein Hobby und nicht mal ein wichtiges, wenn Nvidia so ein mieser Laden ist, nun, einfach nicht kaufen und AMD kaufen, so einfach ist das. Diese Anspruchshaltung was Nvidia tun muss ist einfach lächerlich und könnte man auf fast allen Firmen übertragen, siehe Apple oder Samsung zb, oder Bayer und ihren Deal mit Monsanto, da müßte man Front machen, aber doch nicht wegen einer lächerlichen Grafikkarte......
 
  • Gefällt mir
Reaktionen: KlaraElfer
Die GTX 16xx überzeugen mich ja von der Leistung. Ggüber meiner alten wäre das auch ein gutes Upgrade. Leider passt nicht der Preis und nicht der Stromverbrauch (unter Last).
Ich hoffe ja auch auf Navi. Max 75W + 8GB+ Leistung um der 1660ti und ich wäre glücklich.

Ansonsten:
Also was manche hier für ein Zeug zusammen schreiben, unglaublich. Von "der Test ist NV affin" Unterstellungen bis hin zu "ist nicht so schlimm der Mehrverbrauch, weil ich eine AMD Karte habe und das rechtfertigen muss". Mit leichtem Kindergarten Tendenzen. Wie ich selbst vor kurzem feststellen musste.
Mit langen Texten, die sinnlos den Thread aufbauschen... Langeweile?
 
  • Gefällt mir
Reaktionen: tomasvittek und KlaraElfer
TZUI1111 schrieb:
Jein, keiner den ich kenne betreibt die Vega ohne UV und dann sind es 200W und nicht 300W im Durschnitt.
Kannst dann gerne mal die Vega 56/64 selbst einordnen. die brauchen in der Regel nur 1V statt 1.2V und manche gehen bis 900mV bei 1.6 Ghz
Aber manche gehen gar nicht zum uv/ocen. Die Vega 56 meines Bruders ist so ein Exemplar. Von der ASIC her gar nicht mal so schlecht, aber sofort instabil wenn man den Takt anhebt oder die Spannung senkt. Auch ein Vega 64 BIOS und ein 64 LC BIOS ändern daran nichts. Und der HBM geht auch nur 10MHz höher.
 
Man kann es drehen und wenden wie man will, AMD ist in der Energieeffizienz einfach nicht konkurrenzfähig.
Das müssen die endlich ändern. Schönrechnen hilft da gar nicht.
Und das sage ich als Besitzer einer RX 580.
 
  • Gefällt mir
Reaktionen: NIGHTFIL
E1nweg schrieb:
Du zahlst aber nicht 88 Euro mehr in 4 Jahren, da du niemals 365 Tage im Jahr 2h zockst und immer diese 100 Watt mehr anliegen.

Ich komme im Schnitt mindestens auf 2h täglich, vermutlich eher mehr.

Es gibt Tage, sogar Wochen in denen ich nicht oder weniger Zocke (oder gar nicht am PC bin), dafür gibts Tage, da hänge ich 8 Stunden vor irgendeinem Spiel.

2h/Tag wird für viele die Zocken als Hobby haben normal sein. Der Durchschnittsdeutsche hängt ja auch Beispielsweise irgendwas um ~3 Stunden am Tag vorm Fernseher, nur so zum Vergleich.

Die Strom-Geschichte ist was die Ersparnis/Extrakosten angeht ziemlich individuell.
 
Zurück
Oben