Test GeForce GTX 570 im Test: Nicht optimale Nvidia-Grafikkarte macht vieles besser

Darf ich mal kurz eine Zwischenfrage stellen?

Ich habe eine ATI4870 mit einem ollen Q6600@3.2GHz an einen 30" Monitor (sprich 2560x1600px nativ) in Betrieb.

Was würde wohl ein Upgrade auf die NVidia 570er bringen, falls man die native Auflösung fahren wollte? In den Vergleichen taucht die 4870 Generation ja leider nicht mehr auf... Sind doppelte Frameraten wohl drin?

Danke!
 
_Lukas_ schrieb:
aha

toller Vergleich.

Nur das es bei einem BMW um einer Ersparnis je nach Fahrleistung von mehreren 100Euro gehen kann und bei der Grafikkarte vielleicht 15-30€.
@Amando
Älter als 15 biste wohl auch nicht? Wenn doch bring einen Vergleich der auch Sinn macht.

1. Hast du es wohl nicht verstanden was ich geschrieben habe, für Dich als Übersetzung: es heisst noch lange nicht wenn man es sich leisten kann auch Únterhalten möchte/will
2. Mittlerweile bezahle ich im Monat ca. 50€/Monat für Strom, bei deinen 15-30€ bleibt es bei ca. 80W differenz bestimmt nicht bestehen.
3. Als ich bei meinen Eltern gewohnt habe, hatte ich auch nicht das Gefühl die bezahlen für die Nebenkosten viel, somit wären wir bei Deinen Alter...:D
 
Zuletzt bearbeitet:
Alternate ist aber auch bekannt dafür, dass sie die höchsten Preise am deutschen Markt haben und die letzten sind, die die Preise anpassen!

Wenn der Lagerbestand zu hoch ist, kommt es halt in den zackzack!
 
JA gut und was ist nun mit der Aussage seitens NVidia bezüglich des 384-bit Speicherinterfaces bei der 570? Die scheint ja auch damit kompatibel zu sein,,,
 
_Lukas_ schrieb:
Jetzt haben die AMD Fanboys auch keine Argumente mehr ;-) vielleicht hört jetzt das Spammen hier auf. Die 570 nimmt im idle so wenig wie eine HD6870. D

Bei 50 MHZ :D

Jupp ich Begrüsse es das die GTX 570 weniger Verbrauch als die GTX 480, Nvidia scheint
hier so langsam die Kurve zu kriegen, obwohl es hier noch viel zu tun gibt.

Auch wenn mich die GK nicht besonderes interessiert Daumen hoch für Nvidia.
Die GTX 570 ist eine reine Gamerkarte an der AMD sicherlich ganz schön zu knappern hat.

Bin gespannt auf den Direkten Schlagabtausch mit den neuen AMD High End Grafikkarten MFG:)

Ps mehr Stromverbrauch = mehr Kosten =mehr Abwärme= Schwierigkeiten bei der Wärmeableitung= normaler Weise höhere Lautstärke.
Deshalb ist ein Geringer Verbrauch nicht nur aus Umwelt Gründen schon ganz Sinnvoll;)
 
Zuletzt bearbeitet:
Pumpi schrieb:
Du hast bei 2 570ern im SLI mindestens 50% mehr reale Power als mit einer !

2x570= 700€

1x580= 500€

Du zahlst 40% mehr, hast aber auch über 60% mehr Leistung als mit einer 580.

Bedenke das die Power im letzten Highend die teuerste ist, und Du merkst, Du machst ein Bomben-Geschäft !

So habe ich das ja noch nicht bedacht.Ma schauen,viellicht fällt der Preis ja noch auf 300 €.
 
@ Porky1
viellicht fällt der Preis ja noch auf 300 €.
http://www3.hardwareversand.de/arti...41083&agid=707&pvid=4mxv3vs9s_ghezp1ru&ref=13
......ist er doch schon!

@ olo
JA gut und was ist nun mit der Aussage seitens NVidia bezüglich des 384-bit Speicherinterfaces bei der 570? Die scheint ja auch damit kompatibel zu sein,,,
Hä? 320 Bit laut test!
https://www.computerbase.de/artikel...x-570.1379/seite-2#abschnitt_technische_daten
oder was meinst Du mit "kompatibel"?
 
"• Up to 384-bit GDDR5 memory interface (memory interface width may vary by model)"

Das stand in Nvidias Launchpaper. Bis zu 384-bit. Wenn das eintrifft, hieße es doch, es wird demnächst GTX570 Modelle geben, die die GTX480 dann endgültig den Erdboden gleich macht, oder? Kann es sein, dass Nvidia den Boardpartnern sehr viel Handlungsfreiraum gelassen hat bei der GTX570 und Hersteller auf diese Weise hohe Zuschläge einkassieren könnten, wenn sie solche Sondermodelle der GTX570 anbieten? Davon würde Nvidia doch direkt profitieren, ohne direkt die GTX580 gefährden zu wollen.
 
so,grad fein Hirschwürste essend den Test gelesen,danke CB! :)

Wolllt mir eigentlich die Karte zulegen,doch die Lautstärke geht bei mir nicht durch,und obwohl die Leistungsaufnahme doch biserl gesunken ist,einfach immer noch zu hoch,oje.Nvidia ist wenigstens auf dem richtigen Weg :rolleyes:
Noch die AMD Tests abwarten ,grübeln,abwägen,vergleichen,bestellen.

p.s die Hirschwürste waren echt sensationell :D (aus Lokaler Wildjagd)bin ja schon still...
 
Na ja zum Preis der POV.

Die POV TGT GTX 580 Beast ist meines Wissens eine stark übertaktete Karte und kostet auch unverhältnismäßige 730€+ Da macht das schon Sinn, die GTX570 so teuer anzubieten.

Ich hatte auch gedacht in dem Preis sei auch ein Wasserkühler mit dabei ist, aber aber da habe ich mich wohl geirrt.

Aber 315€ für eine lieferbare GTX570 ist schon ein schöner Anfang. Weiter so! Mal schauen was AMD macht. Hoffentlich auch was gutes!
 
Mit deinen Hirschwürstchen kannste mich nicht beeindrucken, bin Vegetarier. :D
Ergänzung ()

Winnie0601 schrieb:
Na ja zum Preis der POV.

Die POV TGT GTX 580 Beast ist meines Wissens eine stark übertaktete Karte und kostet auch unverhältnismäßige 730€+ Da macht das schon Sinn, die GTX570 so teuer anzubieten.

Ich hatte auch gedacht in dem Preis sei auch ein Wasserkühler mit dabei ist, aber aber da habe ich mich wohl geirrt.

Aber 315€ für eine lieferbare GTX570 ist schon ein schöner Anfang. Weiter so! Mal schauen was AMD macht. Hoffentlich auch was gutes!

Klar, aber ist eine Beat GTX570 besser als eine Standard GTX580? Außerdem hat die 58er dann wieder 512 Cores...
 
so,grad fein Hirschwürste essend den Test gelesen,danke CB!
lol, Du kommst nicht zufällig aus dem Westerwald oder? Da kenne ich jemanden mit 'ner Herde Hirsche, die auch ständig auf den Tischen zum Verzehr angeboten werden - schmecken mir persönlich aber nicht besonders!

Da bleibe ich lieber bei meinem Avatar - bestenfalls noch ne Kuh oder das männliche Pendant auf den Tisch!

@ olo
Nee, das kann ich nicht glauben. Es war schon immer so, dass Taktraten verändert werden, aber nicht das SI.
 
"GPU Interfaces
• Designed for PCI Express 2.0 ×16 for a peak bandwidth (counting both directions) of up to 20 gigabytes (GB) per second (PCIe 2.0 devices are backwards compatible with PCI Express 1.x devices).
• Up to 384-bit GDDR5 memory interface (memory interface width may vary by model)"

Das steht aber original im NVidia Datasheet für die GTX570. Was heißt denn der letzte Satz deiner Meinung nach dann? Ich finds ziemlich verwirrend...

Ich weiß, unter den Specs der GTX570 auf nvidia.com steht 320-bit, aber nicht in der PDF-DAtei, dem Datasheet der 570er... Das kommt so rüber, als könnte sie sowohl mit 320bit als auch 384-bit umgehen. Ist das möglich? Wenn ja, ist Nvidia echt hinterlistig und könnte so die 320bit Varianten günstiger anbieten als die mit 384-bit und könnte so in AMDs Preissegment mithalten?. :D
 
Zuletzt bearbeitet:
Es ist ja wahnsinn wieviel Varianten es schon gibt bei geizhals. Und die SOC liegt sogar preislich ähnlich wie die normale.
Mal sehen was sich da noch entwickelt. Leider ist Zotac ein wenig langsam was die Nicht Referenzdesigns angeht. Die 580er ist da auch noch nicht verfügbar.
Aber vielleicht ist Gigabyte schneller mit einer SOC.
Ich finde den Preis um die 303-321 Euro ganz ok.
 
Zuletzt bearbeitet:
Warum hängt ihr euch daran so auf? Das Nvidia das SI künstlich beschneidet ist nichts neues, woher sollen sonst die einsparungen kommen?
Außerdem steht das selbe Zitat auch beim Datasheet für GTX480/470/465...es beschreibt lediglich womit der Chip, in dem Fall GF110, etwas anfangen kann.
Leute leute leute...
 
Da steht doch, dass das Interface von Model zu Model variieren kann oder nicht?
Ergänzung ()

Na dann ist ja alles okay. Müsste nur ein Hersteller eine 384-bit Variante herausbringen. :D
 
Zurück
Oben