[Sammelthread] Grafikkarten mit mehr als 1GB Vram

Ja, aber es mangelt an Programmierern. Würde Software leicht zu programmieren sein, würde Dragon Age II kurz mal die doppelte Spielzeit bekommen wie Dragon Age I. An genügend Hardware Power mangelt es eher selten, meistens haben die Publisher extreme Probleme das Projekt in der Zeit und im Budget fertig zu bekommen. Hardware muss hier so gut wie möglich unterstützen und die Programmierer entlasten. Das ist zumindest meine Meinung dazu.

Auf jeden Fall gehts weiter, extremer Preissturz bei der GTX 580 3GB von Gainward, 525€ sind ein Wort, Schnäppchen. :D Jetzt nur noch ein PCGH Test und das Ding ist vom Fleck weg gekauft: http://geizhals.at/deutschland/a609907.html
Es gibt sogar einige auf Lager.

Die GTX 560 TI hat doch gleich 2GB Vram bekommen, wie sollte es auch anders sein vom Vram Gott Gainward. Palit ist natürlich auch dabei.

Gainward GeForce GTX 560 Ti Phantom, 2048MB GDDR5
Chiptakt: 822MHz, Speichertakt: 1002MHz, Shadertakt: 1644MHz
http://geizhals.at/deutschland/a610597.html


Palit/XpertVision GeForce GTX 560 Ti, 2048MB GDDR5
Chiptakt: 822MHz, Speichertakt: 1000MHz, Shadertakt: 1644MHz
http://geizhals.at/deutschland/a610915.html


Leider nicht das Referenzdesign und daher noch unklar ob die Kühlung was taugt. :freak:
 
Meine Phantom GTX 580 3Gb ist bereits für 499,- unterwegs. Leider habe ich nur einen Full HD Monitor und der Dell U2711 kommt erst nach 2 zusätzlichen Gehältern (Ende März) ins Haus.:)
Werde aber ein kleines Review verfassen. Crysis 2 und Eage können kommen.
 
Sehr schön, freue mich über beides, dein Review und der nochmal gesunkene Preis. Also wenn Alternate schon 500€ verlangt, dann könnte der Preis sogar unter 500€ sinken. Ca. 460-480€ liegen im Bereich des Möglichen.

Allerdings wirst du dein blaues Wunder erleben wie eine GTX 580 von der Rohleistung her einbricht mit einer 30" Auflösung. https://www.computerbase.de/2011-01/test-nvidia-geforce-gtx-560-ti-sli/12/#abschnitt_crysis_warhead -> Ruck zuck unter 30FPS
Ich halte solche Auflösungen für Wahnsinn und entscheide mich daher bewusst für einen 1900*1200er.
ZB. Witcher I könnte man gar nicht richtig zocken mit so einer Auflösung. Das Game ist so extrem CPU lastig auf einem Kern das man die Auflösung sehr weit runter drehen muss um wirklich flüssig zocken zu können. Und nur wegen der Auflösung ständig eine neue CPU oder GPU, nein danke da mache ich nicht mit. Sprich wenn ich Glück habe packt mein System dann immer die 1900er Auflösung, sogar bei der bin ich mir nicht sicher ob das immer so reibungslos geht wie aktuell noch der 22CRT, wo ich beliebig skalieren kann mit der Auflösung.

HisN kann dir das bestätigen, er hat schon mit dem Gedanken gespielt eine 2. GTX 480 einzubauen um genug Rohleistung zu haben. https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/

Edit: Grade flattert die neue PCGH rein. Mit dem Test des Phantom Kühlers. Leider nur die GTX 570 Phantom, aber man kann da wohl recht gut auf die GTX 580 folgern. Leider ist der Kühler eher Mittelmaß, zwar ist es die beste GTX 570 auf dem Markt aber nur mit 2,3 Sone. Spannungswandler könnten aber recht gut gekühlt werden, schiebe das alles auf die 3 kleinen Lüfter. Somit kann man ca. mit 2-3 Sone für eine GTX 580 Phantom rechnen. Und somit 2-3 mal so laut wie eine von Edelgrafikkarten(wenn sie denn nicht pleite wären), oder auch eine GTX 480 AMP! ist deutlich leiser. Aber bei der Effizienz ungefähr gleich, eine 480AMP braucht 218Watt die 570 Phantom 210Watt. Für mich sind die Phantoms daher zu laut und ich werd dann mit einer Flotte von 500-800er Slip Streams nachhelfen. Max. 1 Sone ist das Ziel. Die Effizienz einer Spitfire/Accelero Xtreme Kühlung erreicht man nicht.

Der Test der Palit 3GB ist eher stur nach Standards von normalen Karten gemacht worden, einfach die Auflösung nach oben schrauben und schauen was passiert. Da kann dann nicht allzu viel bei raus kommen, obwohl man schon eine gut OC GTX 580 AMP! gebraucht hat um die 3GB Karte zu überholen. Ich versteh auch nicht ganz warum man nicht auf die Eigenschaft der Karte eingeht, man hat doch zb. den SCII PCGH Extreme Video Mode genau für solche Karten selber gemacht. 2GB+ Vram vom Mod + AA= Richtung 3GB Vram Verbrauch, das sind dann so Settings wo normale andere Grafikkarten auf dem Markt nicht mithalten können. Anstatt die Auflösung hoch zu drehen würd ich mal die Vram Mods auspacken... Aber es wurde ja schon ein großer Vram Test für die nächsten Ausgaben angekündigt. :daumen:

Nachteile von 3GB(Palit) sind quasi komplett zu vernachlässigen:
Anschaffungspreis
So schnell wie der Preis aktuell fällt ist der bald nur noch ein paar % entfernt von der billigsten GTX 580 mit nur 1 Jahr Garantie.
Leistungsaufnahme um ein paar Watt höher
Bis es keine 3GB im Refernzdesign gibt kann nicht ausgeschlossen werden dieser Anstieg nicht vom OC, Temp, oder PCB oder sonst was kommt. Bei den alten Refernzdesigns(GT200) mit verdoppelten Vram Versionen bei dem nur die Datendichte verdoppelt wurde war der Anstieg bei 0 Watt. Auch wenn es nur sehr wenige Watt sind, ist es zu vorschnell den Anstieg auf dem Vram zu schieben.

Ich kann euch auch sagen warum, die CL Zeiten sind gestiegen, der Vram läuft mehr am Limit als normaler Vram. Um die höheren CL Zeiten auszugleichen hat man sowieso schon ein wenig OC betrieben, genau so wie es im Ram Bereich üblich ist. Bei DDR 1 hatte ich noch CL 2 T1 Timing. Um die Timings auszugleichen wurde beim Arbeitsspeicher kurzerhand mal der Takt extrem nach oben gefahren bei DDR2, aber auch bei DDR 2 auf DDR3 konnte man das gleiche Spiel beobachten. Also auch hier wieder typisch und nix neues. Noch dazu bringt Vram OC nicht viel, so empfindlich wie der Vram ist würde ich auch keinem empfehlen es zu tun. Um meinen Vram zu schonen und weil es fast nix bringt lass ich meinen Vram immer auf Standard. Belohnt mit einer extrem alten 8800GTX die immer noch wie am 1. Tag läuft. Bei Core und Shader könnt ihr aufdrehen wie ihr wollt, aber die berühmten Vram Streifen der GF 8 Serie kennt ja jeder. Also dahingehend schon mal eine Warnung an alle die meinen bei einer GTX 580 3GB das ganze über Vram OC ausgleichen zu müssen...

MfG Kasmo
 
Zuletzt bearbeitet:
Nach super kaum sind meine 3GB Karten da , gibt es wieder Modes die auch da die Grenze antasten bzw. sprengen.

Wieso nicht einfach eine Karte mal mit fetten 4 oder 6GB Ram und Ruhe ist für 3 Jahre.
 
Kasmopaya schrieb:
Ja, aber es mangelt an Programmierern. Würde Software leicht zu programmieren sein, würde Dragon Age II kurz mal die doppelte Spielzeit bekommen wie Dragon Age I.

Was hat bitte mal die Entwicklungszeit mit der fehlenden Leistung der HW zu tun ?
Man kann es so oder so sehen. Einerseits kann man sagen, dass die Algorithmen noch viel zu komplex sind und es daher lange dauert. Auf der anderen Seite kann man auch sagen, dass die Hardware nicht genug ausführen kann.
 
Nach super kaum sind meine 3GB Karten da , gibt es wieder Modes die auch da die Grenze antasten bzw. sprengen.
? Ich denke wir gehen Richtung 3GB aber gesprengt wird hier noch lange nichts, ruhig Blut, höchstens mit SLI kannst du die 3GB knacken bzw. erreichen.(und dann hast du immer noch ein paar hundert MB Puffer wegen dem Fermi Speichermanagement) Aber jetzt nach 4-6GB Karten schreien macht keinen Sinn, außer man will TRI-SLI bzw. Quad-SLI fahren. Dann hat man tatsächlich ein Recht nach noch mehr zu schreien. Aber das sehe sogar ich ein das man wegen ein paar SLI-Fans hier nicht die 6GB Karten auspacken kann.

Was hat bitte mal die Entwicklungszeit mit der fehlenden Leistung der HW zu tun ?
Die Leistung der Hardware steigt extrem rasant und mit Sicherheit weiter, das schlechte Spiel das aufgrund der extrem hohen Entwicklungskosten(unter anderem wegen CPU Mehrkernoptimierung) nur 5Std. Spielzeit hat, bleibt für alle Zeiten schlecht. Also so gesehen hab ich gerne Spiele die alles in Spielspaß, Umfang, Atmosphäre legen wie Gothic II, man aber erst mit der nächsten Hardwaregeneration so richtig aufdrehen kann. Entwicklungsgeld das verwendet wurde um auf die langsame Hardware zu optimieren wie zb. MW 2; Black Ops ist verschwendetes Geld und hätte in Umfang, Story und/oder sonst was gesteckt werden müssen. Was hilft mir ein Black Ops das auf meiner 8800GTX noch voll aufgedreht läuft, aber der Inhalt zu wünschen übrig lässt. Hardware hat also den Entwicklern so gut wie es nur geht zu unterstützten, damit die wirklich wichtigen Dinge perfekt werden und nicht damit man extrem lang auf irgend welche Hardware optimieren muss damit es läuft. Die GTX 680 kommt bereits in ein paar Monaten, da kann mir keiner erzählen das wir irgend wo zu langsame Hardware hätten. Klar wenn man unbedingt 30" fahren möchte, wirds knapp. Aber das ist eure Entscheidung, es zwingt euch keiner dazu.

Ein Empire: Total War, das in der Spielmechanik irgend welche groben Schnitzer oder zb. keine Seeschlachten gehabt hätte, dafür aber eine perfekte Quad Core Unterstützung gehabt hätte, wäre bei mir durchgefallen. Da warte ich lieber ein paar Jahre auf ein neues System und zocke dann erst ein perfektes Spiel. Aber ich glaub da hat jeder seine eigene Meinung, MWII hat sich ja ua. so gut verkauft weil es auf jeder Gurke läuft und Crysis so schlecht weil man SLI brauchte um voll aufzudrehen.

Oder Witcher I ist auf keinen Fall ein schlechteres Spiel nur weil ich die Auflösung runter drehen muss weil es nur 1 Kern nutzt. Die Entwickler dachten wohl das es auch extrem schnelle 1 Kern CPUs geben wird. Das tut dem Spielspaß aber keinen Abbruch, man spielt es einfach ein paar Jahre später wenn die CPU genug single Thread Power hat. Hauptsache das Spiel an sich ist so geworden wie sich die Entwickler das vorgestellt haben. Bei dem knappen Budget ihres Erstlingswerks wäre eine Mehrkernengine nicht drin gewesen. CPUs haben daher gefälligst einen funktionierenden Turbo zu haben der single Thread Anwendungen pusht.

PS: Wie schauts mit der Lautstärke aus bei deinen beiden Karten? Und erfreue uns doch mal mit einem kleinen Benchmark + GPU-Z Vram Verbrauch + Zwischensequenz, zb. da wo der Kreuzer aus dem Orbit kommt und die ganze Karte bzw. Zerg bombardiert.
Probier mal den Mod hier aus, PCGH EVM: http://www.pcgameshardware.de/aid,7...-Radeon-Probleme-geloest/Strategiespiel/Test/

Bilder vom SLI Gespann wären auch ganz nett, immerhin das hochwertigste/beste SLI Setting das es zur Zeit gibt.
 
Zuletzt bearbeitet:
Hardware hat also den Entwicklern so gut wie es nur geht zu unterstützten, damit die wirklich wichtigen Dinge perfekt werden und nicht damit man extrem lang auf irgend welche Hardware optimieren muss damit es läuft.

Nicht die Hardware hat sich an die Entwickler anzupassen, sondern eher die Entwickler die Software auf gegeben Hardware erstellen .

Aber ich glaub da hat jeder seine eigene Meinung, MWII hat sich ja ua. so gut verkauft weil es auf jeder Gurke läuft und Crysis so schlecht weil man SLI brauchte um voll aufzudrehen.
Das hat aber wie gesagt nichts damit zu tun, dass die Software hinterherhinkt, sondern sind bewusst bereits Monate, eher Jahre, vorher beschlossene Bestandteile des Konzeptes. Und gerade dieser zeitliche Versatz von Jahren ist auch dafür verantwortlich, warum einige Spiele wie MW2 auf dem Markt sind, weil man im Gegensat zu zu Crytek kein Risiko eingehen wiollte und die Perfomanceentwicklung der Hardware konservativer einschätzt. Sprich wenn man mutig implementiert, kann es sein, dass die HW zu langsam ist. Dementsprechend hinkt die HW der SW hinterher-
 
Zuletzt bearbeitet:
Nicht die Hardware hat sich an die Entwickler anzupassen, sondern eher die Entwickler die Software auf gegeben Hardware erstellen .
Das ist leider der aktuelle Status, ich kenn einen professionellen Programmierer der auf mehrkernoptimierte Engines(CPU Guru) spezialisiert ist. Und aus seiner Erfahrung kann ich dir Sagen was das für ein Horror Aufwand ist ein Game, oder komplexes Programm auf mehrere Kerne zu optimieren. Bei zu vielen Kernen steigt der Overhead ins Unendliche, oder die Threads blocken sich gegenseitig etc. etc. Zu wenig und das ganze skaliert nicht richtig. Noch dazu muss man in die Zukunft schauen können und wissen wohin sich die Hardware entwickelt, weil sich die Hardware Industrie nicht darum schert was aus dem aktuellen Projekt wird, das schon Jahre in der Entwicklung ist. (bei der Witcher I Engine schon mal schief gegangen, auch bei SCII mit 2Kern Optimierung hart an der Grenze)
Durch die Anpassung der Software auf zukünftige(also Glücksspiel) Hardware geht dermaßen viel Zeit, Nerven und Geld drauf das ist nicht mehr feierlich. Aber da Server CPUs und Gaming CPU quasi das selbe Produkt sind, wird eher auf Server CPUs entwickelt. Ganz zum Leidwesen unserer Gamingsoftware.
Der Programmierer ist immer heil froh wenn er wieder einen Knochen hingeworfen bekommt und irgend was einfacher umzusetzen ist. Die feiern jede Unterstützung der Hardware feierlich. Das letzte mal als sie feiern konnte war der Core 2 durch die brachiale singel thread Performance.
Seit dem gehts Bergab.
Zitat vom dem CPU Engine Programmierer.
Die geplanten 10-12Kern CPUs sind die reinste Hölle als Programmierer.



Dementsprechend hinkt die HW der SW hinterher-
Nicht wirklich, zur Not kann man bei der Hardware immer alles verdoppeln und vervielfachen. ZB. 2-8CPUs auf ein Mainboard, 2-4GPUs auf ein Mainboard. etc. Bei der Software ist quasi immer alles fix.

Ich geb dir mal wieder ein Beispiel. Gothic 4 bei dem Game wurde auch auf so wenig wie möglich Risiko gefahren. Perfekt auf die aktuelle PC Hardware angepasst, Technisch nach ein paar Patches schon fast perfekt. Das Budget war extrem begrenzt, wie wir heute wissen war Jowood kurz vor der Pleite. Also war es deiner Meinung nach richtig das Game perfekt zum laufen zu bekommen, anstatt es so wie bei Witcher I zu machen und ein nicht fertiges Spiel, quasi als Rohdiamant auf dem Markt los zu lassen.(wie übrigens auch Gothic II) Witcher gibts mittlerweile in der SE Edition, also die Entwickler haben die Bugs beseitigt und die Texturen aufgemöbelt und die Performance verbessert. Somit haben wir heute ein fast perfektes Game das auch in sehr hohen Tönen zurecht von den Fans gelobt wird. Glaubst du das Gothic 4 nach wie vielen Patches auch immer, irgend wann ein gutes Spiel wird? Man hat einfach zu viel Geld und Zeit ins optimieren auf Hardware und Grafik gesteckt. Würde also unsere aktuelle Hardware darauf ausgelegt sein, das Spiele Programmierer so wenig wie möglich Aufwand hätten zb. auf aktuelle CPUs zu programmieren, hätte aus Gothic 4 tatsächlich was werden können. Dann nämlich hätte es gar keine Fehlentscheidung geben können. Und auch Witcher hätte sofort eine gute Performance gezeigt.

Edit: http://www.pcgameshardware.de/aid,8...st-Was-bringen-3-GiByte-RAM/Grafikkarte/Test/
Das bei dem Palit Test das Vram schonende DX 9 zum Einsatz kommt finde ich gelinde gesagt enttäuschend. Aber das bei den doppelten Vram Versionen extrem Vram schonende Settings zum Einsatz kommen ist ja schon länger Thema hier. Am besten auch noch ein Abschnitt der wenig Vram frisst. 4xMSAA max./ 50% Sichtweite und so. Tja Leute so kann das nix werden. Der Vram dreht Däumchen...
 
Zuletzt bearbeitet:
Bei meiner Konfig war das damals zwar fast schon problemlos zu zocken,(außer Performance bei 300% Sichtweite(extra von GF 3 auf GF5) und später dann komplett ohne Nebel also unendliche Sichtweite:D) aber es gab Konfigs die hatten extreme Probleme und es gab vor kurzem in der PCGH eine Forderung nach einem finalen Patch(also so wie bei Witcher SE von Raff glaub ich), weil ein Story Stopper Bug immer noch drin ist. Gothic II galt ganz am Anfang als verbuggt, typisch wie alle Gothic Teile als Tradition sozusagen. Ungefähr gleich wie bei Witcher I, aber viel weniger als Gothic III.

Zum Thema: Die GTX 580 3GB Phantom ist quasi ausverkauft. Alle Lager sind mittlerweile leer.(bis auf VV) Aber was mich an der Sache wirklich stört ist das nur Alternate den UVP 500€ anbieten und die anderen so was wie Preisabsprache gemacht haben, alle um den Dreh den gleich hohen Preis. Was ein Zufall.:rolleyes: Pöse Pöse Händler. Das sieht man nicht gern!

Großes Lob an Alternate das man bei so einer Aktion nicht mitmacht und trotz hoher Nachfrage noch die UVP anbietet. :daumen: http://geizhals.at/deutschland/a609907.html

Edit: Nächster im Bunde der weis wie gute Grafikkarten auszusehen haben:

Sparkle GeForce GTX 560 Ti, 2048MB GDDR5 1,1 Sone PCGH
Chiptakt: 822MHz, Speichertakt: 1000MHz, Shadertakt: 1644MHz
http://geizhals.at/deutschland/a612237.html

Diesmal im verdammt guten Referenzdesign. CB Test: https://www.computerbase.de/2011-01/test-nvidia-geforce-gtx-560-ti-sli/25/#abschnitt_lautstaerke
Keine Ecken, keine Kanten, einfach eine extrem runde Grafikkarte. Oder wie die Engländer sagen -> "A no brainer"

Wer sich eine relativ leise GTX 590 basteln will, hier ist die Karte der Wahl, die das heute schon ermöglicht, durch das + an Vram 2GB v. 1,5GB, sogar deutlich schneller wenn man richtig aufdreht. Durch die TDP Limitierung wird eine GTX 590er obwohl handselektierte GF110 Chips verwendet werden, sowieso nicht schneller sein. Ganz zu schweigen von der Lautstärke.
 
Zuletzt bearbeitet:
Von OC_Burner aus dem 3DC habe ich, dass GTA mit einer 5xxx*2xxx lediglich etwas mehr als 2GiB VRAM adressiert.
 
Mit dem ENB Mod müsste sich das ändern. Downsampling + ENB dürfte die 2GB Marke fallen. Erst recht wenn man die Texturschärfe noch weiter anpassen kann.

Meiner einer dreht die Textur Qualität auf 100%. Nicht wie in den meisten Textur Mods üblich auf lasche 60% Schärfe mit dann nur lächerlichen 2GB Vram Verbrauch.:rolleyes: Nein 100% Schärfe ist das Ziel. Das beste dran ist ja das die Bildqualität extrem steigt, aber es nicht viel Rohleistung benötigt. Genau darum ist die GTX 580 3GB die perfekte Karte für mich. Wenn ich Glück habe ist sie heute oder morgen schon da. :D

Kein Vram Limit, keine Nachladeruckler. Ein Traum...
 
vorallem kein " VRam-Krüppel " ... wer hat das wort eigentlich erfunden ?^^
graaatz zu deiner eierlegenden-wollmilch-sau ... fundierte benches @ fred by HisN Vram ... ist natürlich dicke erwünscht. ;)
 
vorallem kein " VRam-Krüppel " ... wer hat das wort eigentlich erfunden ?^^
Also ich habs glaube ich von y33h@ und er hat es soweit ich weis bei den GF8 zum ersten mal benutzt. zb. bei der 8800 GTS 320MB. Er hats sichs aber nicht patentieren lassen und es triffts einfach voll auf dem Punkt. Man kann einer GPU nichts schlimmeres antun als den Vram zu beschneiden. Das ist so als ob man einem Sportwagen extrem schlechte Reifen aufzieht, nur damit man ein paar € sparen kann.

fundierte benches @ fred by HisN Vram ... ist natürlich dicke erwünscht.
Wirds sobald wie möglich geben. Nur warte ich noch auf eine brauchbare SSD, die dann mit Win7 das neue System bilden wird. Bis dahin hab ich nur ein extrem altes Vista 64 und mit dem auseinander fallenden System will ich noch keine Benches machen. Nichtmal Bilder kann ich euch anbieten, solange ich hier mein 2004er CM Staker habe. PC muss also auch noch umgebaut werden, das dürfte dann irgend wann im März zu schaffen sein. Spätestens. Grafikkarte "testen":evillol: geht eh vor. Weis gar nicht wo ich zuerst anfangen soll.

graaatz zu deiner eierlegenden-wollmilch-sau
Hats leider nicht gegeben, weil Edel tot ist. Wäre wohl eine 700€ Spitfire geworden und somit eine Energieeffizienz auf AMD Niveau.
 
Zuletzt bearbeitet:
Hallo @ all,

denke ich bin hier genau richtig, bzgl Qual der Wahl meiner GraKa. Habe z.Z ein Q35 MB mit E8400 C2D, 4GB RAM und eine Gainward 8800 GT (92) 1 GB GS GLH. Habe die Karte damals deshalb gekauft, weil in den ganzen Online-Magazinen - unter anderem auch Computerbase - die Karte nicht nur als sehr perfomant, sondern als besonders kühl hoch gelobt wurde.

Die Realität sieht allerdings ganz anders aus. In dem zuerst verwendeten Cube-Gehäuse war die Karte nicht verwendbar, Spiele-Abstürze durch Überhitzung waren die Regel, keine Ausnahme.



Die Karte ließ sich in Spielen nur bei offenem Gehäuse + 2 Zusatzlüfter betreiben. Da das Gehäuse allgemein nichts taugte wurde es durch ein Silverstone Grandia GD03B ersetzt.

Doch auch hier ließ sich die Karte nicht im geschlossenen Gehäuse auf Dauer betreiben. Es reicht nicht einmal den Deckel abzunehmen, ich muß sogar ein 120mm Lüfter auf die GraKa legen um stundenlang absturzfrei spielen zu können.



Mein PC soll z.Z fast komplett upgegraded werden. P67 MB (AsRock P67-Extreme6), i7-2600K, 16GB DDR3-1600 RipjawsX RAM. Selbstverständlich muß natürlich auch die GraKa daran glauben - endlich!!!

Für mich ganz klar eine GTX 560 Ti sollte es sein. Doch da ich bezüglich VRAM wie der TE denke (Frei nach Bond: Für Die offene SpieleWelt ist 1GB nicht genug) :cool_alt: , sollte sie also 2GB haben. Da drängt sich die Frage auf ob ich eine HD 6950 die ja bekanntlich als 6970er freischaltbar ist nicht vielleicht doch in Erwägung ziehe, da diese in der von mir favorisierten Ausführung mit TwinFrozr II Kühler von MSI erhältlich ist. Diese hätte den Vorteil der sofortigen Verfügbarkeit. Dann stellt sich natürlich die Frage ob einer der Kanditaten überhaupt im obigen Gehäuse läuft ohne zusätzliche Kühlungsmaßnahmen. Oder vielleicht doch eine MSI GTX 560 Ti mit 1GB? Auf zusätzlichen VRAM verzichten dafür ein besserer Kühler, der es warscheinlicher macht die GraKa in meinem Case zu betreiben?

Fragen über Fragen und ich kann mich einfach nicht entscheiden. Obwohl ich eigentlich in vielen Dingen voreingenommen bin, wie ich zugeben muß, würde ich gerne andere Meinungen zu meinem Problem hören. Was ich aber nicht möchte ist mein Case zu wechseln. Vorerst nicht zumindestens.

Übrigens hatte ich das Glück noch warscheinlich den allerletzten Dell 2709UW ergattert zu haben, weswegen ich "nur" 1920x1200 fahren muß, was die Anforderungen an die GraKa soweit reduziert, daß mir eine GTX 560 / HD 6950 als ausreichend erscheint. Mehr Geld möchte ich auch nicht ausgeben.

Mit digitalen Grüßen

:cool_alt:: Black Widowmaker :cool_alt::
 
weswegen ich "nur" 1920x1200 fahren muß, was die Anforderungen an die GraKa soweit reduziert, daß mir eine GTX 560 / HD 6950 als ausreichend erscheint.
Ich bin quasi auch Fan von der Auflösung, ich find das ist ein guter Kompromiss.


Im allgemeinen hast du Glück. Zur Zeit ist ein sehr guter Zeipunkt für einen neuen PC. Sandy als Basis ist schon mal Top. Deine alte 8800GT 1GB(steht einer 8800GTX in nichts nach) hat ja sehr lange gehalten. Nicht zuletzt wegen dem üppigen Vram als du sie gekauft hast. Nicht zuletzt sollte es daher eine HD 6950 2GB(wobei mir hier keine leisen Designs bekannt sind, die Twin Frozr II hat laut PCGH 3,4 Sone unter Last, das ist ca. 3 mal so laut wie eine GTX 560) sein, oder quasi perfekt für dich die GTX 560 TI 2GB von Sparkle 1,1 Sone(also wenn sie das Bios nicht verhaut haben). Die ist extrem leise im Referenzdesign und überhitzen wird dir hier auch nix. Bei deiner alten 8800GT hättest du einen Accelero S1 gebraucht, der aber dein altes Gehäuse gesprengt hätte.

PS: Bei mir gehts weiter, die Phantom ist eingebaut, genau gleich lang wie die alte 8800 GTX, im Idle unhörbar. :daumen: Unter Last bisher bei Witcher I(die ersten Stunden die 512Kerne erstmal langsam warm fahren:freaky:) mit 8xSGSSAA extremst unterfordert und daher auch unhörbar. :rolleyes: Ich werd mich wohl erstmal ins Downsampling einarbeiten.
 
Zuletzt bearbeitet:
Hallo Kasmopaya,

und vielen Dank für die rasche Antwort. Lautstärke ist für mich unwichtig. Wie man an den Fotos vielleicht erkennt besitze ich ein Concept G THX 7.1 System von Teufel (800W RMS) und selbst nachts ist es oft lauter eingestellt als bei manchen die LS tagsüber. :rolleyes: Wichtig für mich in erster Linie ist, daß ich dieses (eigentlich für HTPC gedachte) Case behalten kann, endlich den Deckel zumachen kann und die verwendete GraKa trotzdem nicht überhitzt. Also Kühlleistung und Strombedarf. Leider spiele ich gerne Spiele wie Oblivion oder Fallout, benutze auch gerne HD-Mods. Deshalb werden 2GB VRAM wohl unumgänglich sein. Das Problem ist das ich mit den bestehenden GTX 560 Ti 2GB Modellen mich nicht wirklich anfreunden kann. Vordergründig betrachtet wäre warscheinlich die Phantom die beste Lösung, aber ich bin halt "Gainward geschädigt". Mit Sparkle oder Palit habe ich keine Erfahrungen sind für mich (rein gefühlsmäßig) "Billig-Schrott". Hast Du vielleicht eine Ahnung wann man mit den 2GB-Modellen auf dem Markt rechnen kann?

Bei AMD tue ich mich generell sehr schwer, meine bisherigen Erfahrungen mit der Firma haben nur negative (Vor-?)Urteile aufgebaut. Außerdem lege ich einen gewissen Wert auf Bildqualität und benütze auch PS CS5. Wobei ich aber diesbezüglich eher der Meinung bin, daß meine Intel-SSD einen weit größeren Perfomance-Schub bietet als es jede GraKa bringen könnte. Zumal das Programm selbst und der Start dieses nicht von der GraKa profitiert sondern nur die Filter (aber auch nur die wenigsten) oder? Da ich wenn überhaupt nur sehr kleine Dateien bearbeite (meist bis 500x500) und Icons brauche ich mir bei einem i7-2600K und 16GB RAM sowieso keine Gedanken machen.

PS: Ein 27" mit 1920x1200 halte ich für den "idealen Monitor" für die meisten Anwendungen. Bei dieser Konfiguration ist die Lesbarkeit am besten weil die Pixel absolut betrachtet am größten sind. Selbst ein 30" zeigt in seiner nativen Auflösung Icons und Schriften kleiner an, was die Lesbarkeit verschlechtert. Zudem hören sich 3" mehr, nicht nach viel an, bedeuten aber fast 78% mehr Fläche. Und das bedeutet wiederum, daß ich dort wo eine GTX 560 reicht um ein Spiel flüssig spielen zu können, ich bei 2560x1600 schon mindestens eine GTX 580 bräuchte und warscheinlich trotzdem weniger FPS hätte, weil eine GTX 580 nicht immer 80% schneller ist als eine GTX 560.

Mit digitalen Grüßen

:cool_alt:: Black Widowmaker :cool_alt::
 
PS: Ein 27" mit 1920x1200 halte ich für den "idealen Monitor" für die meisten Anwendungen. Bei dieser Konfiguration ist die Lesbarkeit am besten weil die Pixel absolut betrachtet am größten sind. Selbst ein 30" zeigt in seiner nativen Auflösung Icons und Schriften kleiner an, was die Lesbarkeit verschlechtert.
100% agree. Gestern Witcher I mit der Wahnsinns Auflösung 2048*1536 Pixel getestet.(22"CRT) 1. sind die Schriften alle zu klein geworden, weil die meisten Spiele gar nicht auf so eine Auflösung ausgelegt sind. Und 2. ist sogar eine GTX 580 bei so einem alten Game am Limit. Ja ok SGSSAA war am Anschlag mit VSync und etc. aber auf 26FPS konnte ich die Karte schon drücken.(satte 10 FPS weniger als mit normaler Auflösung) Das ist wie du sagt komplett inakzeptabel, die Auflösung killt einem jede Grafikkarte ohne mit der Wimper zu zucken. Da schalte ich dann lieber SGSSAA und andere Bildverbesserer zu, bevor ich alles in die Pixel stecke. Ich fürchte ich bin jetzt schon ein SGSSAA Fanatiker. Einmal erlebt will man es nie wieder missen. Echt der Hammer wie ruhig das ganze Bild erscheint.

Vielleicht kennst du ja ein paar gute IPS 27" ohne Wahnsinns Auflösung? Der hier ist aktuell mein Favorit: https://www.computerbase.de/2010-12/benq-bringt-27-tft-mit-va-led-panel/

besitze ich ein Concept G THX 7.1 System von Teufel
Schon wieder etwas das wir teilen.
Mit Sparkle oder Palit habe ich keine Erfahrungen sind für mich (rein gefühlsmäßig) "Billig-Schrott".
Im Prinzip hast du recht, soweit ich weis haben die nur 1 Jahr Garantie bzw. 2 Jahre Gewährleistung über den Händler. AMD kommt für mich wegen diverser Gründe auch nicht in Frage. Bleibt nur noch die Phantom mit 3 Jahren Garantie. Kühlung taugt auf jeden Fall was insofern nichts überhitzen sollte. Wenn man der Karte die Luft zum "atmen" nimmt könnte es allerdings laut werden. Aber das macht ja bei dir nix. Der Preis ist aktuell auch noch extrem hoch, Amazon und gerade VV kassieren da gnadenlos ab. Ich denke ca. 100€ könnten da noch drin sein also ca. 300€.

Bei den GTX 560 2GB bin ich guter Dinge das da noch andere Hersteller folgen, weil ja Sparkle schon gelistet ist. Das könnte aber noch 1-2 Monate dauern bis die dann auch verfügbar sind. Bei den GTX 580 3GB Modellen könnte es sogar ein Alleingang von Gainward/Palit werden. Mit einem nicht unerheblichen Risiko das die 3GB Modelle bald von NV verboten werden. Hat man alles schon erlebt mit der 8800 GTS 1GB GS,GLH die innerhalb kürzester Zeit wieder EOL war, weil die GF9 keine 1GB Modelle bekommen hat. Also zur Zeit ein wenig undurchsichtig die ganze Sache. Da hilft nur abwarten.
 
Kasmopaya schrieb:
Vielleicht kennst du ja ein paar gute IPS 27" ohne Wahnsinns Auflösung? Der hier ist aktuell mein Favorit: https://www.computerbase.de/2010-12/benq-bringt-27-tft-mit-va-led-panel/

Der BenQ hat aber "nur" 1080 Zeilen. Mag für Filme vieleicht ideal sein, aber irgendwie ist mir die "professionelle" 16:10 Auflösung lieber. Allerdings hast Du bei 16:9 auch weniger Pixel (2,07 statt 2,34 Megapixel) daher auch mehr FPS. Andererseits arbeitet man mit PS oder einer Entwicklungsumgebung, kann man nicht genug Höhe für die Darstellung von Menüs & Werkzeuge haben, daß man sich manchmal sogar eine Pivot-Funktion wünscht um z.B. den Eigenschaftsdialog von Access oder VB darstellen zu können. Für reine Gamer dürfte das natürlich nicht ins Gewicht fallen.

Vielleicht den etwas älteren Samsung 275T plus in Betracht ziehen. Leider besitzt er kein Displayport. War lange Zeit mein Traummonitor bis ich vom Dell2709UW hörte aber bei über 900€ einfach zu teuer. Z.Z ist er aber für 639€ sehr günstig zu haben. Vielleicht gibt es den aber bald auch nicht mehr, wenn Samsung sich entschließt ein Nachfolgemodell mit 2560x1600 zu bringen. Diesbezüglich würde ich Dir die Seite Prad.de empfehlen. Die haben tolle Vergleichsmöglichkeiten unter ihrem "Feature Guide".

Ansonsten habe ich keine Vergleichsmöglichkeiten bezüglich VA-Panels. Bisher nur davon gelesen aber noch keinen gesehen. Da es kaum etwas subjektiveres gibt wie die optische Wahrnehmung würde ich Dir empfehlen kein Geld für ein TFT auszugeben, den Du noch nicht wirklich selbst gesehen hast. Vorallem im Schwarzwert trennt sich die Spreu vom Weizen. Aber auch im upscaling also die z.B. Darstellung von Schriften in einer niedrigeren als der nativen Auflösung. Bei einem billigen TN-Panel wie z.B. bei meinem ehemaligen HannsG HG281D mit 28" ist schwarz maximal als dunkelgrau zu bezeichnen. Ändert man nur leicht die Kopfposition kann man schon starke Farb- und Helligkeitsänderungen wahrnehmen. Vorallem in der Vertikalen. Dunkle Farbübergänge (z.B. in Nachtszenen in Filmen) erzeugen in schlechten Displays starke Artefakte in Form von "kantigen" Übergängen wie z.B. bei viel zu starker JPEG-Komprimierung. Drum "Prüfet wer sich ewig bindet".

Bezüglich Phantom 2GB ist es halt so, daß z.Z. niemand auch nur sagen kann, wann sie den lieferbar sein wird! Die Preise sind reine Phantasiepreise, die sich meiner Meinung nach auf max 250-260€, bei ausreichender Verfügbarkeit, einpendeln werden.

Mit digitalen Grüßen

:cool_alt:: Black Widowmaker :cool_alt::
 
Zurück
Oben