News EVGA stellt GeForce GTX 560 Ti mit zwei Herzen vor

Ameisenmann schrieb:
Ich finde das Teil interessant, wobei nur 1GB VRAM ein Problem darstellen könnten. Der Preis ist allerdings viel zu hoch. Der dürfte wenn überhaupt nur knapp unterhalb der günstigsten GTX580 liegen.

Was ich bei der ganzen Sache nicht verstehe ist,wieso da nur 1 Gig Vram zu Verfügung steht.Ich meine zu verstehen,das ein SLI oder Crossfire Verbund dazu da ist das die eine Karte den oberen Bereich des Bildes und die andere Karte den unteren Bereich des Bildes berechnet.Ähnlich wird es sich doch auch bei den x2 Karten verhalten oder?

Nur ist für die Berechnung eines halben Bildes 1 Gig Vram von Nöten? Wieso wird dann groß mit 2 Gig Vram geworben?

Mir schon klar,das 2 GPUs die CPU entlasten sollen,aber angesichts dessen,das die Spiele immer mehr Vram benötigen finde ich diese Karte preislich sowie die Vram Bestückung unatraktiv.Bei 4 Gigabyte Vram wäre das was anderes gewesen,aber da wäre der Preis wohl in unbezahlbare Höhen gerückt,wobei man bei EVGA natürlich auch für den Namen und die ausgezeichnete Qualität bezahlt.

Nach eigener Erfahrung mit 2 Nvidia 8800 GTS Karten im SLI Verbund und der damit auser den paar Frames mehr reslutierenden Spielen hohen Aufpreis war der spielerische Mehrwert zu gering,so das ich nie wieder zu solch einem Gespann greifen würde,egal ob Nvidia oder ATI.Habe auch 2 Atis schon in einem Verbund gesehen,aber auch da waren außer den höheren Frames die spielerischen Zuwächse zu gering.Was bringen mir solche leistungsstarken Zusammenstellungen,wenn die Spiele heutzutage inhaltlich sowie auch technisch anfangs mit derben Bugs zu kämpfen haben??? Klar war das bei vielen Spielen anfangs so,aber ich finde das es in letzter Zeit immer mehr vor kommt,das Spiele unfertig auf den Markt kommen und es dann fast ein viertel Jahr braucht,bis sie einigermaßen laufen.

Die Spieleperlen,die mit leistungsstarker Hardware von Anfang an perfekt laufen muss man doch schon wie die Nadel im Heuhaufen suchen.

Ok ich schweife zu sehr vom eigentlichen Thema ab.Ich denke das eine leistungstarke Single GPU Karte immer noch besser ist als solche Abenteuer :evillol:

Aber wer sich die Karte leisten kann dem wünsche ich viel Spaß und hoffentlich keinen allzugroßen Schock am Jahresende wenn die Nachzahlung der Stromgebühren ansteht :lol:
 
nein

1 karte bearbeitet 1 bild die andere das nächste usw immer abwechseln deshalöb muss auch in bedien speichern der selbe inhalt sein

das was du meinst gibnts theoretisch auch aber ist viel schwerer zu implementieren und gibt eine geringere steigerung dafür gäbe es dort keien mikroruckler
 
wenn man sieht wieviel vram bf3 bei hoch und ultra settings zieht und da es ja nur noch full hd monitore gibt, ist der vram leider zu wenig. verstehe nciht warum man immer irgendwo spart. zu dem preis mit 2x2gb vram wär es nen heisses teil "gewesen" aber so kauft das keiner. sowas ist doch eh nur für spezies und gerade die schaun doch noch genauer hin
 
Zuletzt bearbeitet:
ich denke auch das die vram größe zu wenig ist, weil die karte möchte schon in regionen von HD+ mit texturfiltern spielen und da wird dem ram sicher die puste ausgehen
 
wertewandel schrieb:
bitte nennt settings in denen ihr den vram-verbrauch dokumentiert habt!
1.) hat kaum jemand mehr als 1920*1200-bildschirme
und 2.) vielleicht 5 spiele kommen in 2560*1200 effektiv über 1024mb vram-bedarf hinaus.
(...)

Nö aber man kann sich ja mehrere davon hinstellen, gruppieren, und auf einmal hat man die dreifache full-hd-Auflösung. Aus eigener Erfahrung geht dort beispielsweise einer (bzw. sogar zwei) 5870 mit 1 GByte sehr schnell die Puste aus, sobald man auch nur daran denkt, irgendeine Form von Kantenglättung zu aktivieren. Dagegen eine 6970 mit doppelt so viel Ram aber nicht wirklich mehr Rechenleistung kommt mit solchen Monsterauflösungen und Kantenglättung schon wieder wunderbar zurecht. Und der VRAM Verbrauch wird in Zukunft nicht gerade sinken, von daher jetzt noch ne Karte (oder gleich zwei) mit 1 GByte zu kaufen und drauf zu hoffen, dass diese sonderlich lange hält, naja ich weiß nicht... mal ganz abgesehen von "Spiel X lastet die zweite GPU nicht aus, brauche neue Treiber/SLI-Profil".
 
hill01 schrieb:
Nö aber man kann sich ja mehrere davon hinstellen, gruppieren, und auf einmal hat man die dreifache full-hd-Auflösung. Aus eigener Erfahrung geht dort beispielsweise einer (bzw. sogar zwei) 5870 mit 1 GByte sehr schnell die Puste aus, sobald man auch nur daran denkt, irgendeine Form von Kantenglättung zu aktivieren. Dagegen eine 6970 mit doppelt so viel Ram aber nicht wirklich mehr Rechenleistung kommt mit solchen Monsterauflösungen und Kantenglättung schon wieder wunderbar zurecht. Und der VRAM Verbrauch wird in Zukunft nicht gerade sinken, von daher jetzt noch ne Karte (oder gleich zwei) mit 1 GByte zu kaufen und drauf zu hoffen, dass diese sonderlich lange hält, naja ich weiß nicht... mal ganz abgesehen von "Spiel X lastet die zweite GPU nicht aus, brauche neue Treiber/SLI-Profil".

naja Auflösung an sich verbraucht nicht soviel VRam steigt nicht ansatzweise linear mit der Pixelanzahl, erst AA in hohen Auflösungen haut übel rein

Beispiel Eve Online

1920*1200 600MB
3880*2400 700MB

1920*1200 mit 8xAA 750MB
3880*2400 mit 8xAA 950MB
 
Tja, als Enthusiastenkarte ist der RAM knapp, vgl. alleine Bf3 auf Ultra, die Leistung nicht ausreichend hoch, um auch in neuen games komfortabel über die Mikroruckelgrenze auch bei den Minimumframes zu kommen. Der Preis kanns richten, allerdings nicht bei 520$, das sind 100$ zu viel.
Eine dritte GPU als 560Ti-Einzelkarte dazu und es kann was werden, auch weil die Mikroruckelproblematik dadurch gut eliminiert wird. Triple-GPU mit zwei PCIex-Slots, so wird ein Schuh draus. Als Einzelkarte alleine würde ich eine GTX580 vorziehen.
 
doof,ramsteine bezahlen die nicht genutzt werden können,gute idee aber eine fehlkonstruktion.Wirt sicher keiner nachbauen.
 
@ RIPchen

zwei GTX 560 ti SLI sind etwa 40% schneller als eine GTX 580 bei 1080P in Enthusisten - Settings auch mit nur 1GB VRam.

Wenn diese Karte um die € 400.- kosten würde, und wenn das Kühlsystem gut funktioniert, ist das eine echte Alternative zur GTX 580.
 
Der Preis ist ja mehr als absurd. Außerdem gibt es da immer Probleme, wenn mehr als eine Grafikkarte am werkeln ist. Lieber die Hälfte bezahlen und eine starke GTX580 kaufen.
 
ähm eine GTX 580 kostet kaum weniger ...
 
Ja aber guck dir mal sämtliche Grafikkarten mit Nvidia Chips an. Dass mal DP drauf sittz ist eher selten. Bei AMD ist das wesentlich öfter der Fall

Vielleicht weil man bei AMD 3 Monitore an den aktuellen Karten betreiben kann, der 3te Monitor (oder die Nr 4,5 und 6 bei Eyefinity Karten) über Display Port betrieben werden muss?
 
Wieso müssen sie über Display Port betrieben werden? Was hindert die Hersteller denn daran einfach noch nen 3ten DVI Port zu verbauen?
 
weill bei DP jeder DP anschluss am selben Taktsignal hängt während HDMI und DVI jeder anschluss ein eigenes Signal benötigt
 
naja sofern etwas nicht NV only ist baut es NV eher selten ein ist nunmal so
 
Zurück
Oben