News PowerColor Devil 13: Zwei R9 290X als Multi-GPU-Karte

TNB schrieb:
Wer kauft sich sowas und tut sich somit freiwillig Mikroruckler an?

Das Frage ich mich ja auch immer - Wenn ich so ein Monstrum kaufe, dann nicht um einfach nur in FullHD zu spielen - da tut es auch eine einzige GPU vollkommen problemlos. Nein, ich kaufe mir so ein Teil weil ich einen 4k Monitor habe, mehre Monitore verwende, und/oder extrem hohe AntiAliasing Modi und Downsampling verwende. Eben die maximal mögliche Qualität haben will. Und dann kommt man auch mit so einer Karte schnell in den Bereich, wo Mikroruckler bei vielen Titeln nach wie vor ein Thema sind - und sich eine einzelne Karte mit 25fps auch nicht schlechter spielt als diese hier mit 45fps.

Insofern will MultiGPU immer sehr gut überlegt sein.
 
Vor allem für was soll das Monstrum gut sein ? Wobei wenn ichs recht bedenke, ich wollte schon immer mal BF4 auf allen Details mit einem HD Beamer auf einer Hauswand spielen. Nene, spätestens bei den folgenden Stromabrechnungen fängt das Gemotze an wieso die so hoch ausfallen. Was frisst das DualWunder denn im Idle Betrieb ? Schätze mal mehr als eine Otto-Normal Karte oder ?
 
GamingArtsXo schrieb:
@TNB: Solange du keine zu krassen Auflösungen fährst bist du mit dem Teil glaub ich nie in FPS-Bereichen, in dennen du Mikroruckler wahrnehmen würdest ;)

Das heißt man soll sich die Karte für FullHD kaufen? Läuft würde ich sagen :D
 
Bin ja echt kein AMD/Nvidia Fanboy, aber für diese Summe kauf ich mir auch lieber zwei 780 6GB oder 780TI 3GB und habe mit SLI wesentlich weniger Probleme als mit Crossfire.

Ich hab selbst eine 7970 und bin zufrieden. Aber würd ich auf MultiGPU setzen, dann aktuell immer noch auf Nvidia, auch wenn AMD da schon viel nachgebessert hat.
 
Falcon schrieb:
Wayne, für Support ist in den ersten zwei Jahren der Händler zuständig, danach Wayne. Wer Garantie statt Gewährleistung nutzt ist doch selbst Schuld.

Ne. Ist er nicht.

Der Händler ist nur dafür zuständig, dass die Ware bei Übergabe keinen Fehler hat.

Alles andere ist dann Garantie. Vor allem nach 6 Monaten ist die Gewährleistung nicht mehr viel wert.
 
Warum eine 124€ Maus?
völlig normal sich ein Produkt heraus zu greifen, dass im VK-Preis sehr hoch ist, in der Herstellung aber sehr wenig kostet!
Auf diese Weise kann man als VK ein ohnehin hochpreisiges Produkt etwas günstiger aussehen lassen, da die Noobs den VK-Preis der Maus abziehen und schon sieht die Karte dann nicht mehr ganz so teuer aus.......

Sonst, für mich eine eher wenig interessante Karte.
 
Shurkien schrieb:
Das heißt man soll sich die Karte für FullHD kaufen? Läuft würde ich sagen :D
Klar :D Ne, dachte eher an 2k ;)
 
opoderoso schrieb:
Bin ja echt kein AMD/Nvidia Fanboy, aber für diese Summe kauf ich mir auch lieber zwei 780 6GB oder 780TI 3GB und habe mit SLI wesentlich weniger Probleme als mit Crossfire.

Ich hab selbst eine 7970 und bin zufrieden. Aber würd ich auf MultiGPU setzen, dann aktuell immer noch auf Nvidia, auch wenn AMD da schon viel nachgebessert hat.

Dann empfehle ich dir hiermit den CB-Test zu Crossfire vs SLI bei den Highendkarten (denn nur da macht CF/SLI Sinn).

https://www.computerbase.de/2013-12/geforce-gtx-780-ti-sli-vs-radeon-r9-290-x-cf/

Gerade eine 780Ti mit 3GB kann sich nicht von einem 290X CF absetzen aber bekommt Einbrüche durch den VRam in 2K. Da bleibt dann nur der Griff zur Titan Black mit 6GB. (2x1000€)

Und für diese Summe kaufe ICH! mir lieber zwei R9 290x mit Waterblocks und bin kühl, leise und schnell unterwegs. (2x400€ + ne gute Wasserkühlung)

Im direkten Vergleich habe ich dann 1200€ Bugdet für eine Wasserkühlung übrig wenn ich die 290x nutze. Und selbst wenn ich dieses ausreize habe ich immer noch ein leiseres/kühleres CF als ein SLI mit Referenzkühler.
 
Sieht immerhin echt gut aus.
aaber die Lüfter nebeneinander ohne Abgrenzung ist von der Aerodynamik nicht so helle :eek:

edit: wenn dann müssten sie immer gespiegelt zueinander laufen, was aber hier leider nicht der Fall ist.
 
Zuletzt bearbeitet:
Eine "Kostenlose" Maus für 124€ legt der Hersteller also bei damit es Anreiz für Käufer dieses Hochpreisproduktes gibt.
Was ein Witz, lasst das Dreckdings weg und macht es gleich billiger.
Die Maus kann nochj so teuer sein, weder brauche ich diese und was noch viel schlimmer ist, selbst auf dem "gebraucht Markt" wird einem kein Mensch einen annähernden Preis dafür zahlen. Im Endeffekt hätte also eine Maus mit einer UVP von unter 40€ auch gerecht.
Powercolor zahlt zwar nur einen Bruchteil für die Maus aber wenn ich Schrott dazu bekomme der eigentlich noch richtig teuer ist ich aber dieses Geld niemals in Bares tauschen kann hat es auch Null Mehrwert für mich.
 
Falcon schrieb:
Wayne, für Support ist in den ersten zwei Jahren der Händler zuständig, danach Wayne. Wer Garantie statt Gewährleistung nutzt ist doch selbst Schuld.
Mal davon abgesehen, dass es nach 6 Monaten (zumindest auf dem Papier) ganz finster aussieht: Warum sollte ich denn zum Händler eiern, wenn es über den Hersteller schneller geht?

bazooExcalibur schrieb:
was für ein Koffer was wiegt die denn 5KG, hol mal eben den Wagenheber zum halten.
Sowas?
http://www.powercolor.com/de/products_Accessories_features.asp?id=1
;)
Aber durch die große Slotblende sollte das auch so ganz gut halten, denke ich.

@topic: Warum ist es denn so im Trend nur einen Displayport zu verbauen? Kann ich absolut nicht verstehen. Wenn man unbedingt DVI/HDMI nutzen möchte, passiven Adapter hinter und gut und bei 1200€ ist ja Luft für allerhand Adapter.
 
Turbo Timer soll die Grafikkarte nach Ausschalten des PCs kühlen,
:lol: das Ding wird scheinbar ganz schön heiss!


Nightmare25 schrieb:
Was frisst das DualWunder denn im Idle Betrieb ? Schätze mal mehr als eine Otto-Normal Karte oder ?

Das ist eine sehr gute Frage! Im Prinzip ist ja nur ein PCB, zwar die gleichen Komponenten wie auf 2 290X verbaut aber trotzdem nur ein PCB, also dürfte der Stromverbrauch wohl 10-20% geringer ausfallen als 2x 290X
ABER 2x 290X im CF besitzten den Idle Mode wo die 2te GPU ausgeschalten wird und anstatt 15W nur noch 3W verbraucht!
Ich denke nicht das der zweite Core auf dem PCB über den Plex chip sich selbst abschalten kann...
Das kann nur jemand erklären der bereits so eine (oder eine 295X) besitzt.
Wird im MSI Afterburner als 0mhz Takt angezeigt anstatt 300mhz Idle der zweite Core.
 
Hat hier jemand "Fön" gerufen?

Das wird die Karte warscheinlich sein ...
 
Fighter1993 schrieb:
1200€ für eine Grafikkarte die Preise steigen und steigen ....

Ich kann mich erinnern, dass Anno 2001 eine Geforce 2 Ultra noch 1300DM gekostet hat, jetzt ist nur das Zeichen hinter der Zahl ein anderes....

Und die gab es damals ohne Monsterkühler und ohne Maus etc.
 
Falcon schrieb:
Schicke Karte. Sehr schick.
Ergänzung ()

Wayne, für Support ist in den ersten zwei Jahren der Händler zuständig, danach Wayne. Wer Garantie statt Gewährleistung nutzt ist doch selbst Schuld.

'Sprachs als es zur Beweislastumkehr nach 6 Monaten kam:rolleyes:
 
Bin gespannt ob die Lüftung was taugt / ob Sie den Takt halten kann.
 
MikeMüller schrieb:
Der Händler ist nur dafür zuständig, dass die Ware bei Übergabe keinen Fehler hat.

Alles andere ist dann Garantie. Vor allem nach 6 Monaten ist die Gewährleistung nicht mehr viel wert.

Wenn ich so einen Unsinn schon wieder lese... Da krieg ich 'nen dicken Hals.
Aber gut, muss ja auch Leute wie Dich geben. Den Händler wirds freuen. :rolleyes:
Ergänzung ()

Andregee schrieb:
'Sprachs als es zur Beweislastumkehr nach 6 Monaten kam:rolleyes:

Siehe oben. Jede Menge Unsinn.
Ergänzung ()

- Faxe - schrieb:
Hat hier jemand "Fön" gerufen?

Das wird die Karte warscheinlich sein ...

Wieso sollte sie? Entbehrt jeglicher Logik.
 
Große Diskussionen und die wenigsten wissen so ein Ding ordentlich zu nutzen.
Lasst die ersten Tests erstmal kommen und dann sehn wir weiter.
Und ja, es gibt Szenarien und Setups bei denen solche Karten Sinn machen.
 
SchmuseTigger schrieb:
Keiner. Oder glaubst du das Teil hat ernsthaft Mikroruckler?

Also ich glaube mit dem Frame Pacing leisten die gute Arbeit. Habe meine 295x2 mit Crysis 3 in die Knie gezwungen um das Phänomen Mikroruckeln endlich mal live zu erleben. Zum8ndest bei 30 fps hat es sich nicht blicken lassen.
 
Zurück
Oben