Test Test: 10 Grafikkarten für DirectX 11

also ich hab eine hd4870x2 und die reicht seit einem jahr vollkommen aus! die besagten mirkroruckler hab ich nur bei selbsterprobten tests gehabt (zB crysis warhead 1900x1200 16x 8x , selbst da blieb es noch spielbar)

warum sollt ich dann nicht wieder eine dual gpu kaufen sollen .. ?! einzig und allein der preis "versalzt die suppe" ....

leider hab ich kein direct x11 -.-
 
Nur weil du die MR nicht wahr nimmst, heißt das nicht, dass sie nicht da sind.

Aber wenn sie dir nicht auffallen ist es ja optimal für dich.


gruß
 
Es kommt immer auf die Frametimes an, denn ab einem gewissen Punkt kann ein menschliches Auge keine Unterschiede in den Frametimes mehr erkennen, deswegen fühlen sich nach meinem Empfinden 60FPS auf ner Dual GPU genauso flüssi an wie auf ne Single GPU.
Bei 30fps vs 30 fps siehts schon anders aus. Hier kennt man nen deutlchen Unterschied zwischen CF und Single GPU.
 
Im Worst-Case entsprechen 60 Fps dann 30 Fps - und da man selbst den Unterschied zwischen 60 und 120 Fps [an einem 120-Hz-LCD] problemlos spüren kann [je nach Typ], sind 60 µRuckelnde Fps ein no go aus meiner Sicht.
 
Schön, dass man dich auch wieder einmal sieht. :)

@ Topic

Generell ist vom Kauf von Duallösungen eher abzuraten, da sie neben dem genannten auch das Problem mit den ewigen Profilfrickeleien haben (je nach Hersteller mehr oder weniger). Außerdem ist ach so unwichtige Idleverbrauch zumeist auch nicht immer ohne.
 
Zuletzt bearbeitet:
DAs Thema wird zuletzt aber echt stramm aufgebauscht, auch bei CB, welcher der HD5970 im fazit keinerlei Beachtng mehr schenken und diese anscheinend für niemanden empfehlenswert sein könnte.
Eventuell will man ja Nvidia und ATI mal etwas stärker unter Druck setzten, damit endlich die AFR Technik verschwindet.
 
Eventuell will man ja Nvidia und ATI mal etwas stärker unter Druck setzten, damit endlich die AFR Technik verschwindet.

Warum auch nicht. Wäre doch zu begrüßen, wie ich meine.
 
y33H@ schrieb:
Im Worst-Case entsprechen 60 Fps dann 30 Fps - ...

näherungsweise 30, 30 geht nicht, da dann zwei frames immer zeitgleich ausgegeben werden müssten, was nicht möglich ist.
 
Hallo zusammen,

vorab möchte ich sagen, dass ich nicht alle Postings gelesen habe!

Meine Frage ist nun, warum kann in einem Grafikkartenvergleich nicht auch die (mindest)Anfordrung des Netzteils mit angegeben werden?

Dergleichen habe ich nicht im Artikel gefunden.

Gruß
 
@Bugs3000

es gibt ne lisste mit dem verbrauch des gesamten testsystems unter vollauslastung ... wie genau brauchst es denn noch? -.^
 
@Neo_Xsendra
Wenn du die Liste "Sonstiges / Leistungsaufnahme" meinst, ja die habe ich gesehen. Nur weis ich nicht wie ich das in Relation zu meinem Netzteil sehen kann/muss. Mein Netzteil hat 450W und ich habe interesse an der GTX470 oder kleiner.
 
mit dem netzteil ist es nicht ganz so einfach. die ampere müssen stimmen. die watt sind fast vernachlässigbar. generell sollte man die finger von billig-netzteilen lassen, egal wie viel watt da angegeben sind 1000 watt noname ist meist schlechter als ein 500 watt enermax oder tagan netzteil...

was für eins hast du denn? also erhsteller und wieviel ampere bei 12 volt?
 
Wie sollte diese Liste funktionieren? Die Grafikkarte ist, speziell im High-End- und Performance-Bereich zwar ein großer Stromverbraucher, letztendlich ist es aber nicht der einzige. Mal abgesehen davon dass die Gesamtleistung eines Netzteils in Watt nicht der springende Punkt ist, sondern wie viel Ampère es auf die 12V-Schiene bringt.

Eine Liste mit Netzteilempfehlungen wäre sicher toll, aber nicht zu realisieren.
 
hi, ich habe ein BQT P7 pro, es kann also keine Rede von einem Billignetzteil sein. XD Als ich den Rechner kaufte war mir das schon bewusst. Nur hatte ich nicht gedacht, dass meine aktuelle Graka bei den Temperaturen den Geist auf gibt. Nur deshalb bin ich am Suchen.
 
Zuletzt bearbeitet:
Zurück
Oben