Wenn nach 3maligem nachfragen + Erklärung der essentiellen Wichtigkeit der Info immer noch nichts kommt, darf man ja wohl energischer nachfragen, warum keine Infos kommen.
Aber gut, 1 Monitor mit einer Auflösung von 1680*1050 ist zB eine essentielle Info, warum nicht gleich?
Keine neuere Karte zickt bei einem Spiel rum, es kann nur sein, dass ein brandneues Spiel bis zum ersten Patch bzw bis zu einer neuen Version des entsprechenden Grafiktreibers mangels Optimierung bzw Abstimmung auf das Spiel, Probleme machen kann.
Also wenn, zickt das Spiel oder der Grafiktreiber rum. Die Karte selbst macht genau nix, es fließt bloß Strom durch die Leiderbahnen, der Chip wird für die Berechnungen verwendet, der Kühlkörper vergrößert die Oberfläche des Chips, von dem durch den oder die Lüfter die Wärme bzw die erwärmte luft abtransportiert wird.
Ich wage mal die Aussage, dass man mit einem 3Ghz Core 2 Duo und einer Auflösung von 1680*1050 nicht mehr als eine HD7850 ins System stecken muss. Allerhöchstens eine HD7870. Die ist so schnell wie NVIDIAs bisheriges Top Modell GTX580, braucht aber sehr viel weniger Strom. KOstet im Moment aber noch 300,- aufwärts. Da gibts genügens leise Custom Modelle, kauf da ja nie eine mit Referenzkühler, nur weil diese eventuell wenige Euro günstiger ist.
Besser: warte bis NVIDIA auch ihr Mainstream Portfolio auf den Markt gebracht hat und dieser flächendeckend verfügbar ist, dann sinken die Preise. Die Frage ist, ob du so viel Zeit hast.
Ich würde erst kurz vor dem Zeitpunkt, wo du die neue Karte wirklich brauchst bestellen. Die Presie können eigentlich nur runter gehen.
Zu den Features:
Mit
Eyefinity kann 1 AMD Karte 3 Monitore gleichzeitig ansteuern. Es gibt sogar Eyefinity 6 Edition Karten, da kann 1 Karte gleich 6 Monitore ansteuern. Diese Karten haben dann 5 oder 6 mini-Displayport Ausgänge hinten am Slotblech.
Mit 2 "normalen" AMD Karten können ebenfalls 6 Monitore angesteuert werden. Will man mit mehreren Monitoren zocken muss aber auch die Vielfache auflösung berechnet werden und man braucht für neuere Spiele sowieso 2 High End Grafikkarten. Sonst nur für die Börse oder sowas brauchbar. Oder du spielst auf dem mittleren Monitor, auf dem oder den anderen läuft zB ein Chatprogramm, Internet oder was weiß ich.
NVIDIA Karten können nur 2 Monitore gleichzeitig ansteuern. Ob sich das mit der neuen GTX680 geändert hat, weiß ich nciht auswendig. Schau dazu hier in dem Computerbase Test.
AMD Karten haben
3D mit Polfilter Brillen (wie im Kino, kein Strom benötigt), NVIDIA Karten haben ihr 3D Vision mit aktiven Shutter Brillen (brauchen Strom). Die verschiedenen Techniken bitte selbst googeln, Fakt jedoch ist, dass es fast keine Spiele gibt, die AMDs Version unterstützen (die investieren darin wohl nicht), NVIDIAs Version funktioniert besser und wird viel häufiger unterstützt. Allerdings braucht man dafür: Eine NVIDIA Grafikkarte, einen 120Hz Monitor (normale sind nur 60Hz) und eben die aktive Shutterbrille, auch genannt 3D Vision Kit. Die Monitore sind selten und teuer (wird aber besser), die Brille kostet auch >100,-.
Zudem ist eine starke NVIDIA Karte zu empfehlen, da die Bilder doppelt berechnet werden müssen - einmal für jedes Auge, wobei die Brille dabei immer das andere Auge verdunkelt. Also es halbieren sich die Frames. Darum auch die 120Hz Schirme, damit für jedes Auge die 60Hz übrig bleiben, sonst würde es unerträglich stark flimmern. Zusätzlich wird durch die halbe verdunkelung das Bild auch viel dunkler, also braucht man auch einen Monitor mit hoher maximlaer Helligkeit.
Und schließlich und endlich ein darauf angepasstes Spiel. Ist also teuer und aufwändig. Bei manchen Menschen funktioniert der 3D Effekt auch nciht, andere bekommen davon Kopfschmerzen.
Alles in allem finde ich den aktuellen 3D Boom (wie auch im Kino) stark überbewertet.
120Hz Monitore haben aber auch Vorteile beim "normalen" Zocken, da das Bild angeblich (konnte es noch nie selbst testen) flüssiger anfühlt.
NVIDIA untertsützt auch die
PhysX Schnittstelle. Das war früher mal die firma Ageia (ist hoffentlich richtig geschrieben) die zusatzkarten auf den markt brachte, die die korrekte Physik Berechnugen übernommen hat.
Diese kostete aber gut 200,- und es gab außer Demos praktisch keine Spiele, die das unterstützt haben. Die hatten also wenig Erfolg, NVIDIA hat die firma dann gekauft und daran gearbeitet, PhysX auf den eigenen Grafikchips bzw kommeneden Grafikchips berechnen zu lassen.
Es gibt aber immer noch wenige Spiele die mit physX Effekten aufgepeppt sind, darunter ist kein einziges entscheidendes "feature". Mal gibts ein bischen mehr Splitter (Glas und holz, zB in Mafia II), mal volumetrischen Rauch, der physikalisch korrekt wirbelt (zB Batman AS und AC). Das wars ach schon. Ein par wenige, optische Spielereien, weiter nichts. Dennoch schwören einige "fanboys" und NVIDIA Sektenanhänger (gekauft?) auf PhysX.
AMD hat immer havok Physik unterstützt, diese wird aber von der CPU berechnet.
Mittlerweile hat NVIDIA auch AMD die PhysX Schnittstelle gratis angeboten, dass auch die sie unterstützen können um für eine weitere Verbreitung zu sorgen. Für die meisten Studios lohnt es nicht, features in die Spiele zu implementieren, die aber nur von einem der beiden Grafikchiphersteller unterstützt werden. NVIDIA nimmt dafür Geld in die Hand und unterstützt die Entwickler, die Grafikengine auf ihre Karten bzw überhaupt zu optimieren. Darum gibts es auch so viele Spiele mit NVIDIAs "It's meant to be played" Logo, und so wenige mit AMD/ATIs Logo.
Vermutlich auch deshalb sind NVIDIA Karten bei gleicher Leistung teuerer als AMD Pendants. Weil sie mehr Kohle für Werbung und freiwillige Unterstützung der Spieleentwickler ausgeben.
Zumal waren deren letzte Grafikchips flächenmäßig viel größer als die AMD Chips, dass sie viel weniger funktionierende Chips pro Wafer (bei Annahme gleicher Yield raten, die aber wohl auch schlechter war) erhalten haben und so auch die produktionskosten im Vergleich zu den AMD chips deutlich höher war.
Mit der neuen GTX680 haben die endlich den Trend gestoppt, mit aller Gewalt die schnellste Karte haben zu wollen. Zwar haben sie dies geschafft (die GTX680 ist ca 10% schneller als AMDs HD7970), aber sie haben nicht mehr ein überzüchtetes Monster geschaffen, welches rieengroß ist und einen skandalösen Stromverbrauch und damit große Hitzeentwicklung (=schwerer einen leisen Kühler zu bauen) hat.
UNd diesmal ist der Chip sogar einige mm^2 kleiner als der AMD Chip. Endlich hat NVIDIA die Wende eingeleitet.
Dafür haben sie eher VRAM am unteren Ende. AMDs HD7900er Serie hat 3GB VRAM (video RAM, also der Speicher auf der Grafikkarte) mit einem 384Bit brieten Speicherinterface, NVIDIA hat nur 2GB mit einem 256Bit breiten Interface. Zwar taktet NVIDIA den Speicher höher, aber die bandbreite ist genau gleich wie bei der GTX580.
In sehr hohen Auflösungen bzw mit SSAA (Super Sampling Anti Aliasing = Vollbildkantenglättung) rückt die HD7970 immer näher zur GTX680 und überholt diese bei manchen Einstellungen sogar deutlich.
Jetzt ist natürlich die Frage berechtigt, wer denn einen Monitor mit 2560*1600er Auflösung besitzt undmit 4*SSAA bzw Downsampling spielt. Die Antwort: genau solche Leutem die sich die schnellsten High End Karten (oder vl sogar 2 davon) kaufen! Denn genau dafür sind sie gedacht! Spiele auch auf höchsten Auflösungen und Einstellungen flüssig darzustellen. Alle anderen, die das nicht brauchen oder können, kaufen sich eine Mittelklasse oder upper Mittelklasse Karte mit gutem Preis/Leistungsverhältnis.
So, jetzt habe ich dich wieder etwas upgedatet.
MfG
PS: Ein Wechsel auf eine HD7770 würde schon einiges bringen:
http://ht4u.net/reviews/2012/amd_radeon_hd_7700_test/index41.php?dummy=&advancedFilter=false&prod[]=NVIDIA+GeForce+9800+GTX%2B+%2F+GTS+250&prod[]=AMD+Radeon+HD+7770&filter[0][]=1680&filter[2][]=1&filter[2][]=4&filter[2][]=8&filter[2][]=MLAA&filter[2][]=SSAA+%282x2%29&filter[3][]=1&filter[3][]=4&filter[3][]=16&aa=all
Da am besten gleich die übertaktete Sapphire nehmen:
Sapphire Radeon HD 7770 GHz Edition OC, 1GB GDDR5, DVI, HDMI, 2x mini DisplayPort (11201-02-20G) ab €118,78
http://geizhals.de/736921
Oder auf eine HD7850 (= gleich schnell wie eine HD6950):
http://geizhals.de/?cat=gra16_512&xf=132_2048~1440_HD+7850&sort=p
Gigabyte Radeon HD 7850 OC, 2GB GDDR5, DVI, HDMI, 2x mini DisplayPort (GV-R785OC-2GD) ab €215,56
Sapphire Radeon HD 7850, 2GB GDDR5, DVI, HDMI, 2x mini DisplayPort, full retail (11200-00-40G) ab €216,88 ODER
Sapphire Radeon HD 7850 OC, 2GB GDDR5, DVI, HDMI, 2x mini DisplayPort, lite retail (11200-01-20G) ab €220,69
die 4 Euro sind auch schon egal für die OC Variante.
Oder gleich eine HD7870:
http://geizhals.de/?cat=gra16_512&sort=p&xf=1440_HD+7870~132_2048#xf_top
XFX Radeon HD 7870 1000M Core Edition, 2GB GDDR5, 2x DVI, HDMI, 2x mini DisplayPort (FX-787A-CNFC) ab €282,75
Sapphire Radeon HD 7870, 2GB GDDR5, DVI, HDMI, 2x mini DisplayPort, lite retail (11199-00-20G) ab €284,85 ODER
HIS Radeon HD 7870 IceQ X Turbo, 2GB GDDR5, DVI, HDMI, 2x mini DisplayPort (H787QNT2G2M) ab €298,20
ODER gleich volles Programm mit einer HD7950:
http://ht4u.net/reviews/2012/amd_radeon_hd_7700_test/index41.php?dummy=&advancedFilter=false&prod[]=NVIDIA+GeForce+9800+GTX%2B+%2F+GTS+250&prod[]=AMD+Radeon+HD+7950&filter[0][]=1680&filter[2][]=1&filter[2][]=4&filter[2][]=8&filter[2][]=MLAA&filter[2][]=SSAA+%282x2%29&filter[3][]=1&filter[3][]=4&filter[3][]=16&aa=all
http://geizhals.de/?cat=gra16_512&sort=p&xf=1440_HD+7950~132_2048#xf_top
Sapphire Radeon HD 7950, 3GB GDDR5, DVI, HDMI, 2x mini DisplayPort, full retail (11196-00-40G) ab €337,37
ACHTUNG: bitte vorher den Platz im Gehäue ausmessen und schauen, wie lang die Grafikkarte sein darf!!
MFG