News PowerColor stellt „Devil13 HD7990“ mit zwei GPUs vor

Das Gesamtpaket ist augenscheinlich mit viel Liebe gemacht und die Karte wirkt solide.


In diesem Sinne: NERD POWER!!
 
kurtmania schrieb:
Hm :confused_alt: ich dachte GTX 680er wäre der beste single GPU karte, oder irre ich mich.

Ich war ganze Zeit lang AMD fanboy aber ich muss auch annerkennen, dass Nvidia den besten Job macht. Wenn es mir auch schwer fällt, werde ich beim nächsten PC update Nvidia Graka und Intel CPU holen.

Die "Beste" ist jetzt ein starkes Wort
Wenns um schnellste geht gerade noch
kommt auf die Sichtweiße an.
Die 7970 ist ins spielen mal ewas schneller mal etwas langssamer
aber in der Realität geben die sich nicht viel.
Wo die 7970 aber um WELTEN schneller ist in GPGPU wie "Open CL" "Direct Compute"
wie auch in GPU Physik berechnungen.

Aber die 7970 Ghz Edit ist in praktisch allen Bereichen schneller.
dafür brauchen die AMD Karten aber auch durchschnittlich mehr Saft.

Also was jetzt besser ist?
mehr leitung dafür 40Watt mehr??
Das braucht nichtmal ne Glühbirne.
Sogar mein Monitor zieht mehr Strom.

Bleibt am Kunden zu entscheiden.
 
Die Karte ... naja okay ...wer meint das er es unbedingt braucht.

Aber die die Aufmachung ist einfach nur grenzdebil.:freak:
 
GoZx schrieb:
Seit dem ich den Test der 690 gelesen habe käme für mich keine andere multi GUP lösung ins haus.

sign


Mir geht es gleich, auch wenn ich enorme abneigung gegen SLI/CF habe/hatte.
Ich hatte eins drei GTX280 im Triple SLI, und hatte auch schon Quad CF bestehend aus zwei HD3870 X2. Einmal und nie mehr!
Neben der Geldverschwendung ist auch die Geschwindigkeit viel zu viel. Bei 1920 x 1200 (seit sher lange benutze ich das) finde ich, reicht auch eine starke Single GPU Karte.
 
009393884 schrieb:
btw eine single 7970 msi lighning oc 1200mhz stable kommt gut an die gtx690 ran , so what ?
?

Das ist gewagt ;-)...

Laut meine Berechnungen müsste die GTX 690 zirka 10 - 15 % schneller sein.
 
Zuletzt bearbeitet:
Mikroruckler Mikroruckler Mikroruckler Mikroruckler

--> ich nutze z.B. eine HD6990, aber ich sehe keine Mikroruckler..

Meine Sorge: Bin ich nun ein fanboy?

Eine 6990 macht unter Last fjd taub (egal, da headset) aber auch blind?
 
Inwiefern man Mikroruckler sieht ist natürlich eine interessante frage. Diese soll man ja nur sehen, wenn die fps auf ca. 30 fallen.

Ich hatte auch mal die 9800 GX2 und die hat bei Crysis 1 auch nur ca. 30 fps geschaft bei hohen Einstellungen und da hab ich sogesehen auch keine Mikroruckler gesehen.

Wahrscheinlich sieht man es nur, wenn man den direkten Vergleich hat. Das das Bild nicht so einwandfrei ist wie das andere.

Aber ich finde es wirklich schade, dass Nvidia deutlich weiter ist als AMD in dieser Sache. AMD stellt soviele Möglichkeiten da, Trinity APU + GPU usw. Und Nvidia optimiert es ebend fast perfekt für ihre GTX 690. ^^
Obwohl es ja nur ein ein zusätzlichen Chip liegt, bei z.B. 2 GTX 680 hätte man mehr Mikroruckler oder? Auch wenn Nvidia dort auch viel weiter ist.

Aber wir diskutieren hier über etwas, was vielleicht einer von uns wirklich im PC hat. ^^
 
Anhand der single gpus von nv und amd war doch klar wenn so ne Karte kommt dann ist sie:

Stromhungriger
Lauter (ist normal immer so)
aber auch schneller vorallem standard 3gb VRam was in der Leistungsklasse nice ist

Wenn man mal all diese Faktoren berücksichtigt und man davon ausgeht das man einigermassen verdient dannkommen solche Monster eh unter Wakü und Strom ist auch absolut Wumpe.

Das einzige das derzeit für NV spricht ist das sie die MR gut reduziert haben.
Wenn AMD das auch noch in den Griff bekommt führt für high end Freaks kein Weg an der AMD vorbei.Ob nun die 4gb vram gegen die 3gb noch vorteilhaft sind sieht man wohl bei den ersten Test.
@CB.: Hoffe ihr könnt ne 690 gtx in 2gb und 4gb beim Test der 7990 bekommen :D
 
Man sieht das man hier bei den Gamergeschädigten rausgekommen ist , da ist fast jeder Satz und Rechtschreibung krumm und schief ;)
 
Eins vroweg: ich möchte nicht das hier gleich auf mich raufgekloppt wird, weil die Frage evtl. amateurhaft ist, aber: Ich lese hier die ganze Zeit nur Microruckler. als nächstes lese ich Microruckler. und bevor ich es vergess´ - ich hab hier noch was von Microruckler....

Wenn ich mich nicht vollkommen irre, läuft eine Nvidia-Card in Punkto Microruckler wohl etwas geschmeidiger. und wenn ich mich nicht noch mehr irre, sollten Microruckler meistens unter einer Framegrenze spürbar sein. Nehmen wir mal 40-50Fps.

Nun zum Punkt: die karte hat Dampf, sehr viel Dampf , da bin ich mir sicher.
In welchen Konstellationen sollte ich mit dieser Karte diese Grenze unterschreiten. Mal abgesehen von MaxPayne in 4K-Auflösung inkl DX11 und MSAA. da bekommt die vlt 30Fps.

Das ist eine ernstgemeinte Frage!

Ich glaube nicht das die Microruckler in´s Gewicht fallen werden, aber würde gerne einige andere Meinungen hören.

Gruß
Ekkel
 
Holy Mother of Graphicscards :D. Noch ein zweites von diesen Teufelsgerätschaften :3
 
DvP schrieb:
Wusste gar nicht, dass die Mikroruckler bei eingeschaltetem V-Sync nicht auftreten oder kaum zu bemerken sind. Kann man diese Aussage zweifelsfrei bestätigen??

Wenn du willst zeichne ich mit Fraps Frametimes auf.
Mir sind bisher keine Mikroruckler mehr aufgefallen (auch nicht im ach so befallenen Serious Sam 3), und ich war einer der Ersten der diese lautstark bemaengelt hat. (zusammen mit dem Entdecker tombman und blaire im 3dc forum)
Aber sobald man ohne Vsync spielt bekommt man doppelten Augenkrebs. Einmal wegen Tearing und das zweite mal wegen Geruckel und Gestottere.
 
Zuletzt bearbeitet von einem Moderator:
Die Devil 13 is ja ein völliger Witz.....da kann ich für weniger Geld zwei MSI 7970 Lightning verbauen die schneller sind.............würde die Devil 13 auf 1.2Ghz laufen wäre der Hype berechtigt.......aber so.........nur lächerlich das ganze Tam Tam......imo
 
an den microrucklern sind nicht nur die kartenhersteller sondern auch und vorallem die spieleprogrammierer schuld. wer unsinn sabbelt sollte sich mal mit dem thema beschäftigen sonst hätte amd sowie nvidia das thema schon erledigt. soweit ich es verstehe schafft die spielesoftware es nicht die daten so schnell zu liefern also zu berechnen und über die pc plattform zur grafikkarte hin und wieder zurück um das leidige thema zu lösen. es ist also komplizierter als nur auf amd und nvidia zu schimpfen. nvidia scheint einen schritt weiter aber auch noch nicht der entgültigen lösung herre zu werden. wer mehrere gpus will muss halt damit leben

es ist natürlich einfach auf so geile karten die man sich nicht leisten kann abzumeckern aber die meisten sabbeln halt nur unwissenden stuss. wenn ich nen 1000er über hätte ich würde mir eine 690er oder 7990 holen :D
 
Zuletzt bearbeitet:
Zurück
Oben