News Ashes of the Singularity: Neue DirectX‑12-Benchmarks mit AMD und Nvidia

malte60 schrieb:
Ja, deswegen gibt es ja tests mit einem alten stock 2500k, weil das nie beachtet wird, was für ein Skandal.
Wenn man selbst nicht in der Lage ist, Twitch/Youtube richtig zu streamen, ( was natürlich völloig problemlos mit AMD funktioniert) fragt man sich ob du überhaupt qualifiziert bist, hier Kommentare abzugeben.
Oha ... na da knirscht es aber bei unseren AMD-Fanboys. :rolleyes:

In den meisten Tests wird eben leider nicht noch mit einem schwächeren Prozessor.
Und ohnehin ist auch ein solcher Test nur bedingt aussagekräftig. Viel schlauer wäre es wie gesagt, einfach die CPU-Last mit zu dokumentieren.

Von Streaming scheinst du auch null Peil zu haben. Sonst würdest du hier nicht so ein Blech von dir geben.
Selbst mit einem i7-4790K kommt man hier in einigen Spielen schnell an seine Grenzen, sofern man auf Qualität Wert legt.
Da ist es nur sinnvoll, die CPU-Last nicht unnötig höher als nötig ausfallen zu lassen.

hrafnagaldr schrieb:
Ähm nö, das kann auch eine AMD-Karte nebenbei.
https://en.wikipedia.org/wiki/Video_Coding_Engine
Twitch Streaming ist direkt in die Raptr Software integriert.
Ich hatte leider bislang nicht die Gelegenheit, VCE zu testen.
Aber bislang sollen noch alle diese Techniken (VCE, NVENC, Quicksnyc) lange nicht auf dem Niveau von x264 sein, womit sie für Streaming mit hohem Anspruch leider nicht in Frage kommen.
(Außerdem wäre noch wichtig, in wiefern VCE sich auf die Leistung auswirkt. Quicksync z.B. benötigt doch noch relativ viel CPU, und NVENC beansprucht die GPU [obwohl es ja angeblich auf einem extra Chip stattfinden soll]).

Zehkul schrieb:
Wovon die selbsternannten Fachleute hier reden, ist weniger Overhead, sondern mehr dass Nvidia den DX11 Treiber (bzw. dessen Overhead) schlicht besser gethreadet hat – kann also mit mehr CPU Kernen umgehen als der von AMD.
Danke für den Hinweis.
So oder so würde ich diesen Faktor aber gerne in Tests beleuchtet haben. Letztendlich ist es doch sehr wichtig zu wissen, wie und wie stark die CPU beim Gaming mit den verschiedenen Karten belastet wird.

Mich würde zum Beispiel auch interessieren, ob es selbst bei gleichen Settings und gelockter Framerate eventuell Unterschiede zwischen Karten von einem Hersteller gibt.
Bei solchen Sachen werden wir als Kunden bisher komplett im Dunkeln gelassen, weil's einfach (fast) nie richtig getestet wird.
 
Zuletzt bearbeitet:
m0LN4r schrieb:
OBS hat QuickSync und NV Cuvid unterstützung und kein performance drop.
Mit anderen worten... no AMD HW support.

Mei, da klappt man zur Abwechslung mal wieder jmd. aus der Ignore-Liste auf und schon wieder sieht man nur Mist, natürlich hat OBS support für AMDs VCE, da sschon seit knapp 1,5 Jahren.
https://www.youtube.com/watch?v=G3jcIaovG7I

https://obsproject.com/forum/threads/obs-branch-with-amd-vce-support.13996/

@Ultrawurst: natürlich kann die AMD VCE x264
 
Zuletzt bearbeitet:
UltraWurst schrieb:
Bin auf jeden Fall froh, daß ich mir ne NVidia geholt habe.
Und ich finde es geradezu skandalös, daß dieser Faktor so selten beleuchtet wird.
Gerade wenn man nebenher noch encoden möchte für Twitch/Youtube, ist eine AMD-Karte ja offensichtlich glatter Selbstmord.

Kannste einen Lifestream stellen, wo wir sehen, wie du dich selbst mit einer AMD GPU tötest? :evillol:
Ergänzung ()

m0LN4r schrieb:
Wann werden wir auf CB einen:
MSI 390X vs. MSI 980 sehen ? Inclusive verbrauch und lautstarke stock vs. stock und OC vs. OC
Das wurde viel mehr uber die karten und deren Architektur sagen.

Hoffentlich nie, da der MSI Kühlkörper eher für den Nvidia Chip entwickelt wurde und nicht für den AMD Chip.
 
CyberdyneSystem schrieb:
Richtig aber davon abgesehen wird ein richtiger Twitsch Streamer niemals via Shadowplay oder Raptr streamen sondern z.b. via OBS weil man halt Follower Alert etc anzeigen lassen möchte

Das geht auch wenn man mit Raptr einen Stream zur Verfügung stellt und diesen in OBS auswählt.
Außerdem gibts noch AMD VCE, womit Video Encoding in Realtime fast ohne Auslastung möglich ist - und einen Fork von OBS mit integriertem AMD VCE.

Eben um ohne den herkömmlichen Leistungsverlust zu streamen.
Ich hab 2 Wochen lang ARK damit gestreamt, was anstandslos funktioniert hat. Der Verlust von Leistung In-Game war dabei nicht spürbar.

Kann ja jeder selbst mit einer AMD Karte testen :)

m0LN4r schrieb:
OBS hat QuickSync und NV Cuvid unterstützung und kein performance drop.
Mit anderen worten... no AMD HW support.

Hier du Info-Schleuder ;)
https://obsproject.com/forum/threads/obs-branch-with-amd-vce-support.13996/
OBS ist Open Source, natürlich gibts das mit AMD VCE.

mfg,
Max
 
Zuletzt bearbeitet:
UltraWurst schrieb:
Oha ... na da knirscht es aber bei unseren AMD-Fanboys. :rolleyes:.

Schau mal, du behauptest es wird nie beachtet und findest es skandalös.
Tatsache ist, dass das bei jedem größeren Test mit einem 2500k mitgebencht wird und zudem Skalierungstests mit dem i7 mitgeliefert werden.

Skandalös ist es daher schonmal gar nicht. Man sollte vielleicht vorher mal Infos einholen, bevor man von Skandal spricht und das hat überhaupt nichts mit Fanboy zu tun, ich besitze ein GTX 980 Ti SLI System.:rolleyes:

Von Streaming scheinst du auch null Peil zu haben. Sonst würdest du hier nicht so ein Blech von dir geben.
Selbst mit einem i7-4790K kommt man hier in einigen Spielen schnell an seine Grenzen, sofern man auf Qualität Wert legt.

Solltest halt dein System sauber halten, anstatt hier Bullshit zu erzählen.
Mein Kollege nimmt selbst mit einem i3 und r9 280 problemlos in 60 FPS auf.
 
Zuletzt bearbeitet:
malte60 schrieb:
Tatsache ist, dass das bei jedem größeren Test mit einem 2500k mitgebencht wird und zudem Skalierungstests mit dem i7 mitgeliefert werden.
Tatsache ist, daß nicht bei jedem größeren Test mit dem 2500K gebencht wird.
Und Tatsache ist auch, daß es viel aussagekräftiger wäre, einfach die CPU-Last zu messen.
Mich nervt's einfach, daß so wichtige Dinge kaum beachtet werden.

Selbes gilt übrigens für verschiedene Einstellungen in einigen Spielen. Gibt ja durchaus einzelne Features, die bei AMD/NVidia extrem viel Leistung kosten, während der Rest eigentlich sehr gut läuft. Wenn man dann immer nur alles auf "Ultra" stellt, gibt das ein total verfälschtes Bild der Realität wieder (in der man solche z.T. eh nicht so wichtigen Features dann eher abstellt).
Das Problem hatte ja AMD z.B. mit Tesselation in einigen Spielen, aber auch bei NVidia gibt es das manchmal. Sowas müsste eigentlich mal genauer beleuchtet werden.
Allgemein sollten die Settings auch besser dokumentiert sein. Bei CB weiß ich oft gar nicht, was da eigentlich gebencht wurde.

malte60 schrieb:
Solltest halt dein System sauber halten, anstatt hier Bullshit zu erzählen.
Mein Kollege nimmt selbst mit einem i3 und r9 280 problemlos in 60 FPS auf.
Sorry, aber solche Aussagen kann ich echt nicht ernst nehmen.
Ich sprach von Streaming mit einem gewissen Qualitätsanspruch. Mit seinem i3 wird er in vielen Spielen keine 60fps hinbekommen, wenn er auf der CPU encodet. Wenn er per VCE encodet, leidet die Streaming-Qualität. Zumal die 280 wenn ich mich recht entsinne auch nur VCE 1.0 kann.

hrafnagaldr schrieb:
Mei, da klappt man zur Abwechslung mal wieder jmd. aus der Ignore-Liste auf und schon wieder sieht man nur Mist, natürlich hat OBS support für AMDs VCE, da sschon seit knapp 1,5 Jahren.
Kommt drauf an, von welchem OBS man redet.
Die aktuelle MP Version hat das bislang glaube ich noch nicht (es sei denn, das kam grad mit nem Update).
Gibt ansonsten allerdings gerade einen sich in der Alpha befindenden VFW-Encoder für VCE.
https://github.com/jackun/TestAMFVFW

hrafnagaldr schrieb:
@Ultrawurst: natürlich kann die AMD VCE x264
Natürlich kann AMD VCE nicht x264, da x264 ein eigener H264 Encoder ist.

Was VCE kann ist H264. Aber eben leider nicht so effizient wie x264.
Das heißt: Weniger Qualität bei gleicher Bitrate.

Das selbe gilt allerdings auch für NVENC und Quicksync. Bin mir auch nicht sicher, welches da aktuell am weitesten vorne ist.

Zuckerwatte schrieb:
Kannste einen Lifestream stellen, wo wir sehen, wie du dich selbst mit einer AMD GPU tötest? :evillol:
Na komm ... so heiß werden die Dinger nu auch wieder nicht. ;)
 
Zuletzt bearbeitet:
Liebe leute und wie bitte ist es mit der CPU auslastung und GPU performance drop mit
VCE SW encoding bei 1080p/60, verglichen mit NVENC HW 264 encoder und QS HW encoder?

qualitat ist auf diesem nivoe ja eh egal, so lange YT und twitch enorm niedriges bitrate benutzen, ich habs schon getestet mit software 80mbs und h.264 hardware 30mbs und es gab keinen unterschied, weil youtube es noch einmal auf 13mbs zusammenkwetcht.

All in all ist Shadowplay super user friendly, h.264 qualitat reicht für YT und Twitch mehr als genug, supportet bis zu 4K@60@100mpb auf 9xx, hat built in twitch stream und es kommt noch der youtube stream hinzu.

Fur 99% der menschen ist es das die einfachste und beste lösung für jeden idiotismus zu streamen und fast ohne (sub <2%) performance drop zu machen.

Zuckerwatte schrieb:
Kannste einen Lifestream stellen, wo wir sehen, wie du dich selbst mit einer AMD GPU tötest? :evillol:
Ergänzung ()

Hoffentlich nie, da der MSI Kühlkörper eher für den Nvidia Chip entwickelt wurde und nicht für den AMD Chip.

Na und ? Mich interesiert das "Thermal Dissipation level" oder arhitectur efficiency,
das _leider_ nur mit dem gleichen kühler verglichen werden kann !
 
Zuletzt bearbeitet:
Also Twitch sieht doch schon mal um Welten besser aus als Youtube.
Gibt ja für größere Kanäle auch die "Source"-Option.

Und hast du mal versucht, 4K 60fps per NVENC zu encoden?
Das wird grauenvoll blocky. War auch sehr enttäuscht. Aber diese Funktion ist bislang maximal nutzlos. Sieht deutlich besser aus, wenn man bei 1080p bleibt.
(Hatte es glaube ich mit dem MSI Afterburner getestet.)

Und ich weiß auch nicht, ob mit meiner Karte etwas nicht stimmt, aber bei der GTX 960 4GB habe ich ca. 20% Leistungs-Verschleiß mit NVENC. Das macht dieses Feature irgendwie auch völlig witzlos.



Edit:
Grad noch mal gecheckt. Mit Shadowplay sind's tatsächlich nur so max. 5%.
Muss mal gucken, ob damit auch 4K vernünftig aussieht. Am Ende lag das nur am MSI Afterburner, daß das so grauenvoll blocky wurde.
Edit2:
Ne sorry, Messung für den Popo. Hatte es in CS:GO getestet. Aber das hat so niedrige Anforderungen, daß die Karte nicht mal ganz hochtaktet. Die GPU-Auslastungsanzeige ist daher nicht verlässlich.
Muss das nochmal testen.
Edit3:
Ok, scheinen tatsächlich nur an die 5% zu sein (grad in GTA V getestet). Bin mir allerdings nicht sicher, in wieweit ich den Messungen vom MSI Afterburner noch vertrauen kann.
Seit ich hier das GeForce Experience Teil offen hatte, zeigt der mir an, daß über 4 Millionen MB VRAM belegt wären und daß die GPU nur bis 540MHz takten würde. :freak:
 
Zuletzt bearbeitet:
hmm auch wenn Off topic...
du hast folgendes geschrieben
m0LN4r schrieb:
OBS hat QuickSync und NV Cuvid unterstützung und kein performance drop.
Mit anderen worten... no AMD HW support.
Und genau das ist Falsch.
Es gibt AMD VCE das genau so gut/schlecht funktioniert wie NVENC
qualitat ist auf diesem nivoe ja eh egal, so lange YT und twitch enorm niedriges bitrate benutzen
Dann solltest du dir mal gute Streamer anschauen. Schlechte Qualität=wenig follower und mit Twitch, auch als nicht Partner, kann man mit guter Bildqualität streamen aber dafür ist weder NVENC noch AMD VCE wirklich geeignet

Daher nutze ich auch den Standard x264 Encoder.
Geht zwar mehr auf die CPU aber wenn man OBS richtig einstellt ist auch das überhaupt kein problem
 
Zuletzt bearbeitet:
Womit er aber nicht ganz unrecht hat
Mit AMD VCE oder NVENC musst du die Bitrate erhöhen um die gleiche Qualität zu erreichen wie mit dem Standard Encoder. So zumindest meine Erfahrung die ich all die Jahre gesammelt habe. Das ist für jemand, der zwischendurch mal Streamt sicherlich okay aber für jemanden der es ernster angehen lassen will, ist die Erhöhung der Bitrate ein Problem weil man eben nicht die Breite Masse an Zuschauer erreicht. Ich Streame daher z.b. nur mit maximal 2500Kbit/s (Audiokodierung: 128Bit; Video: 1920x1080 | Skalierung: 1280x720; x264: fast) weil eben der Großteil an Zuschauer keine gute Leitung hat und es schnell zum Buffern kommt.

irgendwie ist das ganze doch schon sehr OT :D
Aber Prinzipiell ist Streamen über AMD VCE oder NVENC kein problem
 
NVENC ist zwar unglaublich schnell, aber in der Praxis vermutlich ähnlich schnell wie x264 auf schnellstem Preset, gute CPU vorausgesetzt … und dabei unglaublich viel schlechter. Selbst bei vierfacher Bitrate sieht es noch schlechter aus als x264. Zum Rest kann ich nichts sagen.

Sofern man nicht auf nem Smartphone encodet, gibt es null Grund, einen Hardwareencoder zu verwenden. Und irrelevant ist es eh, nichts in den Benchmarks sagt, dass die CPU insgesamt mehr ausgelastet ist bei AMD als bei Nvidia.
 
Zuletzt bearbeitet:
UltraWurst schrieb:
Also Twitch sieht doch schon mal um Welten besser aus als Youtube.
Gibt ja für größere Kanäle auch die "Source"-Option.

Und hast du mal versucht, 4K 60fps per NVENC zu encoden?
Das wird grauenvoll blocky. War auch sehr enttäuscht. Aber diese Funktion ist bislang maximal nutzlos.

Sieht deutlich besser aus, wenn man bei 1080p bleibt.
(Hatte es glaube ich mit dem MSI Afterburner getestet.)

Und ich weiß auch nicht, ob mit meiner Karte etwas nicht stimmt, aber bei der GTX 960 4GB habe ich ca. 20% Leistungs-Verschleiß mit NVENC. Das macht dieses Feature irgendwie auch völlig witzlos.



Edit:
Grad noch mal gecheckt. Mit Shadowplay sind's tatsächlich nur so max. 5%.
Muss mal gucken, ob damit auch 4K vernünftig aussieht. Am Ende lag das nur am MSI Afterburner, daß das so grauenvoll blocky wurde.
Edit2:
Ne sorry, Messung für den Popo. Hatte es in CS:GO getestet. Aber das hat so niedrige Anforderungen, daß die Karte nicht mal ganz hochtaktet. Die GPU-Auslastungsanzeige ist daher nicht verlässlich.
Muss das nochmal testen.
Edit3:
Ok, scheinen tatsächlich nur an die 5% zu sein (grad in GTA V getestet). Bin mir allerdings nicht sicher, in wieweit ich den Messungen vom MSI Afterburner noch vertrauen kann.
Seit ich hier das GeForce Experience Teil offen hatte, zeigt der mir an, daß über 4 Millionen MB VRAM belegt wären und daß die GPU nur bis 540MHz takten würde. :freak:
Das macht shadowplay und YT aus einem 2160p/60/80mbps file, mit für mich nur mit <3%, leider last mir youtube die 2160p nicht moglich wegen "bad status"....

https://www.youtube.com/watch?v=ZoVTTZVbKBU

Mit einer 390, kann man so etwas nicht so leicht und einfach und gut machen und das ist Fakt, habe es auch ausprobiert.

Der source file ist crystal clear mit 2160p/60/80mbps und könnte ihn auch auf 120mbps hochdrehen, aber youtubs compression rate ist für solche videos nur max 60 und target 40, variable.

Zuerst testiere mal 30 vs 60fps dinamiches bild und statisches bild um zu sehen wie die afterstream compresierung funktioniert.
Für statiches material ist auch 8mbps für 1080p/60 genug, aber für dinamiches und mit damit meine ich background und farben brauch du mehr als nur 2x mehr für 1080/60

CyberdyneSystem schrieb:
hmm auch wenn Off topic...
du hast folgendes geschrieben

Und genau das ist Falsch.
Es gibt AMD VCE das genau so gut/schlecht funktioniert wie NVENC

Dann solltest du dir mal gute Streamer anschauen. Schlechte Qualität=wenig follower und mit Twitch, auch als nicht Partner, kann man mit guter Bildqualität streamen aber dafür ist weder NVENC noch AMD VCE wirklich geeignet

Daher nutze ich auch den Standard x264 Encoder.
Geht zwar mehr auf die CPU aber wenn man OBS richtig einstellt ist auch das überhaupt kein problem
OMG, und was für eine rolle spielen ein paar pro streamer, wenn es 100x mal mehr amateur streamer gibt?
Die pro streamer haben sowieso eine capture card/box+pro sw und kein OBS free stuff.

Und nein, VCE ist zusammengefast für normalanwender die schlechtere wahl. Habe probiert mit 390 zu streamen und verliere vielzuviel an performance verglichen mit NV shadowplay.... und die qualität ist am ende nach der compresierung gleich...

Wenn du aber den unterscied siehst, musst du auch source files mit dem selben bitrate vergleichen und nicht youtube downcompressirungen. Und nein, twitch ist auch kein beispiel für qualität.

Meine source files mit shadowplay sehen noch immer besser aus als aufgeladene twitch streams.
Ergänzung ()

CyberdyneSystem schrieb:
Womit er aber nicht ganz unrecht hat
Mit AMD VCE oder NVENC musst du die Bitrate erhöhen um die gleiche Qualität zu erreichen wie mit dem Standard Encoder. So zumindest meine Erfahrung die ich all die Jahre gesammelt habe. Das ist für jemand, der zwischendurch mal Streamt sicherlich okay aber für jemanden der es ernster angehen lassen will, ist die Erhöhung der Bitrate ein Problem weil man eben nicht die Breite Masse an Zuschauer erreicht. Ich Streame daher z.b. nur mit maximal 2500Kbit/s (Audiokodierung: 128Bit; Video: 1920x1080 | Skalierung: 1280x720; x264: fast) weil eben der Großteil an Zuschauer keine gute Leitung hat und es schnell zum Buffern kommt.

irgendwie ist das ganze doch schon sehr OT :D
Aber Prinzipiell ist Streamen über AMD VCE oder NVENC kein problem

Zuschauer können die qualitat furs anschauen ja selber wählen, aber wenn du pro streamer sein willst brauchst du sowieso optisches 1:1 netz und richtiges stream equipment und kein VCE homemade plugins.

Die encode qualitat muss man immer zum material anpassen, statisch oder dinamich, viel farbe wenig farbe, große saturation, weniger saturation.

Ein beispiel, für horrorgames die meist aus grayscale specter sind ist der bitrate deutlich weniger als für ein Trine wo 10x mehr farben sich pro sekunder wechseln.

Was glaubt ihr, wie viel bitrate braucht man für ein Schwarz-weis , statiches h.264 1080p/60 footage und wie viel für ein Assetto mit erhöhter color saturation wo jeder wagen eine andere farbe hat??

Aber OK, wir brauchen nicht ins off-topic zu gehen.
Jeder soll sich eine 390X oder eine 980 holen und in 2 Tagen ausprobieren und ich schlage vor auf einem AMD FX cpu und einem 1231v3.
Ergänzung ()

Source (60mbps & 30 mbps) vs. upload (yt/twitch) - dynamic fast scene (NV HW encode)
beforeafteruploadyoutube.jpg

Und das ist noch nicht das schlimmste beispiel.
 
Zuletzt bearbeitet:
Zuckerwatte schrieb:
Hoffentlich nie, da der MSI Kühlkörper eher für den Nvidia Chip entwickelt wurde und nicht für den AMD Chip.

Wie das. Das mag vielleicht bei ASUS DirectCU Kühler so sein (wo 2 Heatpipes völlig an Effizienz verlieren da kein Kontakt herrscht, weil es DirectCU ist anstelle von nem Block, welches helfen sollte die Wärme auf allen Heatpipes zu übergeben), aber doch nicht bei MSI? Gerade die MSI ist die 2. beste Wahl nach Sapphire für ne AMD Grafikkarte, vor allem wenn die Sapphire von der Länge her nicht ins Gehäuse passt.
 
Zuletzt bearbeitet:
tic-tac-toe-x-o schrieb:
Wie das. Das mag vielleicht bei ASUS DirectCU Kühler so sein (wo 2 Heatpipes völlig an Effizienz verlieren da kein Kontakt herrscht, weil es DirectCU ist anstelle von nem Block, welches helfen sollte die Wärme auf allen Heatpipes zu übergeben), aber doch nicht bei MSI? Gerade die MSI ist die 2. beste Wahl nach Sapphire für ne AMD Grafikkarte, vor allem wenn die Sapphire von der Länge her nicht ins Gehäuse passt.


Also sorry da muss ich dir wider sprechen ich hatte die MSI 980 Ti Gaming und jetzt habe ich die Asus 980 Ti Strix .
Die Asus kühl definitiv besser als die MSI . Bei fast jedem Test wir die Kühlung bei der MSI für die 980 Ti und 390X als unter
demissioniert bemängelt . Das kann ich bestätigen das ich die MSI 390X Gaming auf kurz hatte .

LG
Andy
 
Das stimmt so nicht.
Die Asus Karten waren bei AMD noch nie sonderlich gut.
Bei der 390X Strix ist es sogar so, das die ziemlich warm wird und ihr Takt nicht halten kann, wohingegen die MSI 390X Gaming 8G keine Probleme hat und sogar höher getaktet und zudem sogar günstiger ist
 
CyberdyneSystem schrieb:
Das stimmt so nicht.
Die Asus Karten waren bei AMD noch nie sonderlich gut.
Bei der 390X Strix ist es sogar so, das die ziemlich warm wird und ihr Takt nicht halten kann, wohingegen die MSI 390X Gaming 8G keine Probleme hat und sogar höher getaktet und zudem sogar günstiger ist

Also das muss ich dir auch widersprechen ich hatte wie geschrieben auch kurz die MSI 390X Gaming und die konnte nie ihren tackt von 1100mhz halten . Bei Spielen Crysis 3 ging sie immer auf 900mhz runter. Das war auch der Hauptgrund das sie zurück ging . Habe sogar ein beweiß Video davon zwar nur vom Furmark aber egal weil Grafik lastigen Games verhielt sie sich ändlich .

LG
Andy
 
Dann hast du anscheinend ein "Zirkulationsproblem" im Gehäuse, denn in Sämtlichen Tests schneiden die AMD Asus Karten immer schlechter ab
Im Falle der R9 390x Asus vs MSI hier ein Test von vielen
http://www.hardwareluxx.de/index.ph...elle-der-radeon-r9-390x-im-test.html?start=21
Auch die MSI Radeon R9 390X Gaming 8G schaltet im Idle-Betrieb ihre Lüfter ab. Auch unter Last ist sie mit 42,5 dB(A) nur unwesentlich lauter als das Modell von ASUS. Die Idle- und Last-Temperaturen liegen mit 45 und 83 °C ebenfalls leicht unter der Radeon R9 390X Strix. Die GPU bleibt aber kühl genug, um immer ihren vollen Takt von 1.100 MHz halten zu können.

Bei der R9 290X sind die Unterschiede Extremer
 
Zuletzt bearbeitet:
12011235_829924177104829_2376828808617474619_n.jpg

Das ist mein Gehäuse wo soll ich da Zirkulationsproblem haben . Die Lüfter sind auch optimiert das die Luft gut zirkuliert .

LG
Andy
 
Zurück
Oben