Test Pascal, Polaris und Vega im Test: Mit neuen Benchmarks und Treibern in das Jahr 2018

Da verlege ich die Zocker Zeit lieber auf die Abendstunden und genieße tagsüber die Sonne. :D
 
Techspot hat ein Mining Rig gebencht und innerhalb von 24 Stunden ist die Raumtemperatur von 20 auf 29 Grad hoch gegangen.
 
uploader77 schrieb:
Mit einem 140-W-Prozessor merkt man es natürlich noch eher. Das System emittierte dauerhaft um die 400 W in den Raum. Wenn man zockt und schon nackt neben dem PC sitzt bei 30° wird es schnell unerträglich.
Und bei 140 W weniger würdest Du dann nicht nackt bei 30°C sitzen, sondern genauso nackt bei 29,7°C (oder 29,6°C, wenn der Raum ne Ecke kleiner ist)

tek9 schrieb:
Techspot hat ein Mining Rig gebencht und innerhalb von 24 Stunden ist die Raumtemperatur von 20 auf 29 Grad hoch gegangen.
Wir reden hier nicht über Rechner mit 10 GPUs unter Dauerlast, sondern über Spiele-PCs.
Natürlich klar, dass man bei sowas entsprechende Maßnahmen (Klimatisierung z.B.) ergreifen muss, wenn man ein Rack voll mit Servern hinstellt, muss man es auch machen.

Übrigens ist der Begriff "Mining Rig" falsch, denn Mining -> Bergbau und Rig -> Offshoreplattform, widerspricht sich irgendwie...
Zumindest, wenn man die ursprüngliche Bedeutung dieser Begriffe nimmt.:D
 
Zuletzt bearbeitet:
@tek9
Über was reden wir da genau? Je nach Aufbau bzw. der Anzahl der GPUs rutschen wir da ganz schnell in den KW Bereich und können damit die ganze Wohnung beheizen.
 
Das Rig von Techspot hatte genau eine Grafikkarte verbaut.

BTW kann ich beim Zocken die Heizung abstellen und ich bekomme keine kalten Füße. Die addierte TDP meines System liegt bei mehr als 350W. Siehe Signatur.

Ich glaube wir sollten diese lächerliche Diskussion nicht weiterführen ;)
 
Im Sommer genieße ich ganz bestimmt keine Sonne, wenn wieder 30+ ° sind. Da bin ich froh etwas Ablenkung zu haben.

Das mit dem Prozessor war eine Randbemerkung, weil es schon einen Unterschied macht zu jemandem mit einem i3. Ein FX verbraucht noch mehr, zusammen mi einer 390 dürfte es da locker RIchtung 500 W gehen. Systeme heizen. Ich weiß noch als ich meine Plattform wechselte und mitten im Sommer eine Woche auf meinen alten Phenom-DDR2-Build ausweichen musste. Ich habe darauf in 4K gezockt. Die CPU war selbst im Idle voll ausgelastet, beim Spielen wurde es unerträglich. Ich dachte das Gehäuse schmilzt gleich... Wenn man dann noch Max-OC betreibt und Komponenten mit mehreren 100 W betreibt ist es durchaus spürbar.

Und, wie ich sagte, hat nicht jeder ein anständiges Kühlungskonzept. Axiallüfter sind besser, aber sie alleine bringen nichts ohne Luftstrom im Gehäuse der die ganze Hitze rausschafft. Solche Karten sind natürlich schwerer zu kühlen. Das muss man immer einberechnen, mehr TDP bedeutet schwierigere Kühlung und im Zweifelsfall Drosselung der Leistung und extreme Lautstärke.

Meine Grafikkarte zieht etwa 330 W unter 4K-Volllast. Mit einer OC-Karte, erweiterbarem PT und ausreichder Külung ist das kein Problem. Das BIOS geht glaube ich bis 368 W. Das ght mit dem Rest der Hardware konstant in den Raum. Wer es nicht glauben will sollte sich mal eine Kohleheizplatte mit 500 oder 600 W besorgen und schauen wie deren Wärmeemission ist. Nach ein paar Stunden zocken sind locker ein paar Grad mehr drin.
 
Ich könnte jetzt wieder mit Logik kommen aber ich denke ich schenke es mir einfach mal. :D
 
Yay \o/ Extrembeispiel als Standard gebracht. Sehr gut. Und das macht ja auch jeder durchschnittliche PC User. *rolleye*

Was willst du uns jetzt eigentlich die ganze Zeit mitteilen uploader? Das du Systeme hast, die viel Strom verbrauchen? Oder das dir es im Grunde egal ist wie viel dein System schluckt, weil du ein starkes System haben willst?
Weil offensichtlich geht es dir ja hier nicht darum Strom zu sparen. Also ist die Diskussion die du hier führen willst leicht Sinnbefreit.
 
Trotzdem geht Netflix und Amazon 4K erst ab einer GTX1050ti auf denen darunter nicht nur YouTube wird auf die dauer langweilig. Deswegen NV beschneidet hier künstlich nee danke sowas unterstütze ich nicht.
 
tek9 schrieb:
Ich glaube wir sollten diese lächerliche Diskussion nicht weiterführen ;)

:schluck: Ich hab zwar nicht mitdiskutiert, aber manchmal ist es als stiller Leser ein wenig müßig sich durch solche Diskussionen durchzulesen.
Ich bin wirklich gespannt, ob 2018 noch Optimierungen zu erwarten sind und wie sich die VEGA-Karten entwickeln.
Aber 2018 kommen auch Gott sei Dank wieder neue Karten. Ampere (Volta ohne compute-Zeug oder gibt es weitere Verbesserungen?), Vega 20(= Vega 10 Refresh in 12nm??), Vega 11 (urspürnglich als Polarisnachfolger gedacht, aber auf 2018 verschoben. Um evtl. auch auf 12nm zu gehen?) Es bleibt spannend.
 
Vindoriel schrieb:
Und bei 140 W weniger würdest Du dann nicht nackt bei 30°C sitzen, sondern genauso nackt bei 29,7°C (oder 29,6°C, wenn der Raum ne Ecke kleiner ist)

Ob du's nun wahrhaben willst oder nicht: Wenn's draußen wärmer als drinnen ist, dann macht das nunmal einen ordentlichen Unterschied, wenn der Rechner einige Stunden im Spielbetrieb ist. Die Erfahrung zeigt's.
 
Da gab's aber wesentlich krassere GPUs terim und HD2900XT und der gute alte Preschrott CPU, oder den ich hatte den Pentium D965EX.

Die haben wärme gemacht genau wie mein erster Plasma TV.
 
@ Beitrag
Ob du es glaubst oder nicht, wenn es draussen wärmer ist als drinnen dann wird es drinnen von alleine wärmer und um den Zeitraum möglichst weit zu strecken lässt man den Rechner am besten ganz aus. Wer noch bespasst werden will stellt sich am besten den TV an oder schaut nen Film. Das sind wohl nochmal locker 140W weniger als beim Daddeln. Daddeln kann man dann in den Abendstunden wenn man die Bude durchlüftet um sie wieder etwas abzukühlen. Unterm Strich funktioniert das aber eh nur die ersten Tage denn wenn sich die Wände erstmal aufgezheizt haben ist es eh zu spät. Sobald die Fenster wieder zu sind klettert die Temperatur wieder weitestgehend auf das alte Niveau.
Ergänzung ()

@ Mcr-King
Die HD2900XT kam lediglich auf irgendwas zwischen 220 und 250W, die GTX480/580 auf irgendwas zwischen 250 und 300W.
Der Pentium D fing vor allem beim übertakten so richtig an zu fressen.
Die Plasma TV, vor allem mit einer recht großen Bilddiagonale, waren aber definitiv keine Kostverächter was den Strom angeht.
Ältere LCD TV konnten zwar auch gut Strom ziehen (um die 200W max. kam da durchaus vor) aber mit runtergeregelter Bildhelligkeit wurden die auch deutlich sparsamer.
 
Gewöhnliche Plattenheizkörper für kleinere Zimmer haben bei 75° C Wassertemperatur meist 1000 - 2000 W Wärmeleistung. Mit dem Wissen kann man sich leicht denken, dass es gerade im Sommer schon einen großen Unterschied macht, ob das System bspw. 400 oder nur 250 Watt aus der Steckdose zieht und in Wärme verwandelt.
So und jetzt reicht's mir auch dazu. Macht keinen Sinn das mit Leuten wie Wadenbeisser weiter zu diskutieren.
 
Beitrag schrieb:
Gewöhnliche Plattenheizkörper für kleinere Zimmer haben bei 75° C Wassertemperatur meist 1000 - 2000 W Wärmeleistung. Mit dem Wissen kann man sich leicht denken, dass es gerade im Sommer schon einen großen Unterschied macht, ob das System bspw. 400 oder nur 250 Watt aus der Steckdose zieht und in Wärme verwandelt.
Sagen wir mal 1400 W (zumal man die 75° nur bei "extremen" Minustemperaturen hat, Vorlauftemperatur ist oft mit der Außentemperatur gekoppelt), passt gut zum Beispiel (Delta von 140 W). Dann lasse die Heizung 18 Minuten (1/10 der Leistung von der Heizung * 3 Stunden) im unbeheiztem Raum laufen. Dann weißt Du, was es über den Nachmittag und Abend ausmacht...

Und wenn man auch Süd- oder Westseite und keine Außenjalousien hat, dann macht der Mehrverbrauch vom Rechner fast garnichts aus, weil die Sonne erheblich mehr Wärme in die Bude bringt und das nicht nur für 3 Stunden.

Aber wie schon Dark_Knight angedeutet hatte, fürs Forum Niveau-Alarm!
 
Zuletzt bearbeitet:
Vielleicht ist das der Grund, warum C&C Generals nicht läuft (findet kein DirectX oder unterstützte GPU), wobei ich es zuletzt vor nem Jahr mal gespielt hatte (mit der 7970 GHz anstatt der RX480). Kann es nicht explizit auf den Adrenalin-Treiber zurückführen, müsste testen.
NfS Underground 2 läuft hingegen (da M$ nunmal dafür gesorgt hatte, dass man sein Win7 nicht mehr updaten möchte, mit Updates würde auch das nicht mehr gehen).
 
Das ist aber auch schlechter Journalismus...

Die Schlagzeile AMD will Probleme mit Command & Conquer 3 nicht beheben ist ja schon mal eine Unwahrheit.
 
Blueline56 schrieb:
Interessant was da AMD abzieht, hätte ich eher Nvidia zugetraut.

Dass AMD die Ressourcen fehlen alle möglichen Bugs in den Treibern in angemessener Zeit (oder hier: überhaupt) zu fixen ist einerseits verständlich - sind ja viel kleiner als Nvidia oder Intel und müssen sich auch noch um's CPU-Segment kümmern - andererseits aber natürlich ärgernlich und bei mir auch der Grund, weshalb ich meine RX 480 nicht behalten hab.
Allerdings denke ich, dass hier das Hauptproblem die unhöfliche Art von AMD war. Sich freundlich entschuldigen, den Usern erklären, dass man im Moment nicht die Ressourcen hat sich um diese Probleme zu kümmern und das wär lange nicht so übel rübergekommen.
 
Für mich hört sich das eher an, als hätte der Mitarbeiter das Problem noch nicht weitergeleitet gehabt nach seinem ersten Post (er ist sich ja unsicher, ob AMD das Problem fixen wird). Es ist also vermutlich noch nicht diskutiert worden intern bei AMD.
 
Zurück
Oben