Test GeForce GTX 470 im Test: Zotac AMP! zeigt allen anderen wie es geht

Unyu schrieb:
...
Schinzie
Warum erzählst du dann irgendwelches Zeug über Bugwellen? Zur Stimungsmache oder wozu?

ich widerlegte nur die Aussage einige Seiten zuvor, dass AMD AF durchgehend an Banding und Bugwellen leidet, da diese Aussage schlicht und ergreifend nur falsch ist. Der einzige noch bestehende Unterschied ist ein leicht höherer Flimmeranteil seitens AMD (der bei nvidia aber auch vorhanden ist, nur minimal weniger).


gruß
 
Unyu schrieb:
aber eben kein Freifahrtschein für seine Aussagen.

Seine Aussage ist korrekt. Da gibts nichts zu diskutieren.
Deine ist falsch.

Unyu schrieb:
Bugwellen gibts bei AMD seit immerhin R600 nahezu unverändert, du verwechselt da etwas ganz erheblich

Mehr war nicht drinnen.
Das was du geschrieben hast, hast du dir dazugedichtet.
Keiner bezweifelt das Nvidia HQAF hat, das wars aber auch schon mit der unglaublich besseren Qualität.
 
Schinzie
Du hast Bugwellen ins Spiel gebraucht.
Jemand hat HQ in den Raum geworfen, du hast geschrieben das dafür Bugwellen da wären.
Eine reichlich sinnfreie Entgegnung, das du dich da angeblich auf Q beziehst, wenn du auf HQ anwortest.
Selbst wenn klar wäre das du dich auf Q beziehst macht es keinen Sinn.

Schaffe89
http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php
Verzeih, ich habe mich darauf gestützt, auf Videos.
Schinzies Worte haben in dem Zusammenhang sehr seltsam gewirkt, siehe oben. Aber nachdem geklärt wurde das er sich mit der Anwort auf HQ auf Q bezogen hat, warum auch immer ist das geklärt.

Complication
Warum du 1x mit 16xHQ vergleichst, obwohl gar nicht nötig um zu sehen was du meinst, bleibt wohl dein Geheimnis. Den auch bei 1x der Geforce ist es genauso.
Das ist übrigens ein Grund für TAA und hat mit AF mal gar nichts zu tun. Irgendwas läuft da bei AMD anders ab das ist richtig.
Eins sei dir noch gesagt, erforsche das Forum, AF ist nicht erst seit heute ein Thema, sondern auch vor Oktober 2009.
 
wow Zotac hat eine hervorragende Arbeit geleistet. Natürlich auch n Lob an CB wegen dem Test.

Endlich ein würdiger Nachfolger meiner GTX260. Jetzt muss sie nur im Preis fallen, was so gegen November hoffentlich der Fall sein könnte, dann wird sie mein. :)
 
Bugwellen gibts bei AMD seit R600 unverändert < ich selbst habe noch eine HD 4890 Vapor-X in mein Sys und ich kann keine ständigen Bugwellen oder meinetwegen auch ständiges flimmern in keinsterweise feststellen wenn Jemand also so eine Meinung hat und auch im Inet verbreitet nehme ich an das der jenige der diese Behaubtung aufstellt sehr viel Erfahrung hat mit ATI grakas(kennt sie aus dem ff sozusagen) oder hat diese eben lange genutzt(möglichst viele verschiedene Modelle) in diesem Fall scheint das allerdings nicht so zu sein,das scheint mir eher so zu sein das hier irgendetwas im Inet aufgeschnapt wurde und einfach nur nachgeplappert wird,wenn ich mich täusche " C'est la vie "

ps: alle Games die ich auf meinem Knecht spiele werden grundsätzlich in Auflösung 1680x1050 mit hoch eingestellten Qualitätseinstellungen gespielt
 
Zuletzt bearbeitet:
Unyu schrieb:
Complication
Warum du 1x mit 16xHQ vergleichst, obwohl gar nicht nötig um zu sehen was du meinst, bleibt wohl dein Geheimnis. Den auch bei 1x der Geforce ist es genauso.
Das ist übrigens ein Grund für TAA und hat mit AF mal gar nichts zu tun. Irgendwas läuft da bei AMD anders ab das ist richtig.
Eins sei dir noch gesagt, erforsche das Forum, AF ist nicht erst seit heute ein Thema, sondern auch vor Oktober 2009.
Ich vergleiche das deshalb, weil ich der Meinung bin dass ich solange nicht über AF diskutieren muss solange ich solche grossflächigen Bildfehler beim zocken zu sehen sind die einen völlig kirre machen. Hier sehen manche den Wald vor lauter Bäumen nicht wenn sie über Bildqualität diskutieren im Forum. Da ist mir das matschige 1xAF lieber wenn ich dann nicht das Gefühl habe zu schielen im Spiel.
 
der zaun sieht auf dem nvidia bild schlechter aus, stimmt. das problem ist nur, dass diese bilder nicht 1:1 screenshots sind, die wurden stark verkleinert. um bildqualität zu vergleichen, würde ich sowas nicht mal mit der kneifzange anfassen. ein halbes pixel verschoben und schon sieht der moiré-effekt vom zaun durch die verkleinerung des bildes schon wieder ganz anders aus. glaubst du ernsthaft, dass solche probleme bei nvidia karten nicht schon längst von irgend einer review seite erkannt worden wären? du reimst dir hier einfach nur etwas zusammen aufgrund von schlechtem ausgangsmaterial.
es ist ausserdem nur ein bild und in bewegung sieht so ein zaun auf allen karten bescheiden aus. oder willst du etwas anderes erzählen? dafür gibt es ja transparenz aa, weil zäune/stromleitungen/gräser ansonsten IMMER scheisse aussehen.


rasengert schrieb:
na ja aufs jahr gerechet würd ich schon sagen das sich 50 w Mehrleistung schon berappen....
sind halt nichtmal 10€ bei 2h zocken jeden tag.


Schinzie schrieb:
Dass das HQ von NVidia noch minimal überlegen ist, habe ich nie angezweifelt, doch zu behaupten dass AMD an Bugwellen leidet, die de facto nicht mehr vorhanden sind (außer das spiel erzwingt eine billeneare Filterung, siehe Crysis), ist eine Lüge und falsch.
crysis erzwingt garantiert keine solche filterung. das sind einfach nur "optimierungen" um die letzten paar fps herauszuquetschen. manchmal fällt es nicht auf, manchmal hat man dann so ein ergebnis, was sich einfach per screenshot beweisen läßt (siehe pcgh link). ist auch nicht nur in crysis so, sondern laut pcgh auch in gta4 eflc, doom3 und q3. davon habe ich aber noch keine screenshots gesehen.
 
Zuletzt bearbeitet:
Der Test spricht eigentlich für sich selbst und beweisst wie qualitativ minderwertig die Kühllösungen beim Referenzdesign der Highendkarten von Nividia (und wohl auch ATI) letztlich wirklich sind, wobei das bei den horrenden Preisen, welche die Hersteller dafür verlangen völlig inakzeptabel ist!

Die Karte ist bei fehlendem Displayportausgang und mit "nur" 1280MB V-Ram im Vergleich zu einer 5870/2GB für um die ~460 € dennoch zu teuer! (auch im Hinblick auf die Leistung!)

Danke an die CB-Redaktion für einen weiteren sehr augenöffnenden Testbericht!
 
Du darfst aber auch nicht vergessen, dass die Referenzlösungen alle zwingend auf einem Dual-slot-Design basieren, um maximale Kompatibilität zu sichern. Und da kann die Kühlleistung eben bei weitem nicht so gut sein, zumal die Hersteller auch noch darauf achten müssen, dass es beim Endverbraucher zu keinen Hitzestaus im Gehäuse kommt (daher auch die Radiallüfter-Lösungen, die an ihre Grenzen stoßen).
Der Kühler der GTX480 ist schon sehr aufwendig, glaub mir. Allerdings bekommt man die TDP der Karte eben mit einem recht niedrigen Kühlerprofil nicht gescheit in den Griff.

Mfg
 
Hä und was sollen die komischen Vergleiche.
Die Karte ist 102Euro teurer als eine GTX470.
http://geizhals.at/deutschland/a519538.html

edit:
Außerdem liegt bei der Eyefinityversion kein aktiver Adapter(kostet ja auch noch gut 100euro) bei, also für 30" uninteressant, die du gerne im Kontext mit "viel VRAM ist geil" nennst.
 
Zuletzt bearbeitet:
Aber nicht wie diese Zotac GTX470 AMP! mit der hier verglichen wird. Eine andere ist ja schon wieder zu laut und heiss um überhaupt berücksichtigt zu werden.
Ergänzung ()

Und warum sollte man einen Adapter brauchen für Eyefinity? Ein 30" ohne Displayport ist ja wohl auch ein Fehlkauf.
 
Zuletzt bearbeitet:
Ich bin überrascht wie gut sich der Kühler von Zalman auf der GTX 470 schlägt. Trotzdem wird nVidia nicht daran vorbeikommen die GTX 4xxer Reihe neu auflegen bzw. verbessern zu müssen. Entweder über eine Verkleinerung des Fertigungspozesses, ein verbessertes BIOS mit besseren Power-Management oder ein Redesign des Layouts.
 
Unyu schrieb:
Schinzie
Du hast Bugwellen ins Spiel gebraucht.
Jemand hat HQ in den Raum geworfen, du hast geschrieben das dafür Bugwellen da wären.
Eine reichlich sinnfreie Entgegnung, das du dich da angeblich auf Q beziehst, wenn du auf HQ anwortest.
Selbst wenn klar wäre das du dich auf Q beziehst macht es keinen Sinn.
Der Sinn wurde just von dir aus dem Zusammenhang gerissen, Unyu. Aber rein von der Aussage her hast du recht.

Unyu schrieb:
Eins sei dir noch gesagt, erforsche das Forum, AF ist nicht erst seit heute ein Thema, sondern auch vor Oktober 2009.
Auch bei diesem Thema wurde dir Paroli geboten, und wie du sicherlich noch weisst, gewiss nicht zu unrecht. Da wurde draufgekloppt und verbal verprügelt, die Vergangenheit in Form von GF7 und X1k völlig ignoriert, perönliche Ansprüche an den Eigenen gemessen, dargestellt und aufgeschwätzt was nicht da war usw. Der Bezug auf die Vergangenheit ist diesbezüglich herzlich destruktiv.
 
Na das ist mal ne Geforce GTX470 !

Es gbt nichts schlimmeres als lärmbelästigung beim spielen
, tolle Karte ist mir den aufpreis wert !
Ab wann so ca. wird die Karte den lieferbar sein, weiss das schon jemand ?
 
So gehts dann wohl auch. Die GTX 470 "muss" also nicht immer laut, heiß und stromhungrig sein.

Trotzdem wird nVidia nicht an einer Überarbeitung der GTX-4xx Serie nicht vorbeikommen. Selbst andere Hersteller können nicht darüber hinwegtäuschen das die GTX 470 und GTX 480 viel zu viel Strom verbrauchen und mit dem schlimmsten Kühlsystem der letzen 5 Jahren bestückt sind (FX 5800 Ultra war meiner Meinung nach schlimmer XD ). Die Kohlen (im wahrsten Sinne des Wortes) muss nVidia schon selbst aus dem Feuer holen.
 
Wow, gutes Ergebnis..

Aber..410 Euro?

Bissl übertrieben hm? 5870 ist billiger und besser (Siehe Performance Rating)

Naja abwarten..
 
Amko schrieb:
5870 ist billiger und besser (Siehe Performance Rating)
Ohne AA ja. mit 4x AA liegt die 5870 schon wieder hinten und mit 8x AA erstrecht. Und ohne Anti Aliasing spiele zumindest ich nur sehr ungern. Sollte man vielleicht beachten.. Ansonsten ziehe ich trotzdem die 5870 vor, da sie einfach 60-70€ billiger in der Anschaffung ist.
 
Zurück
Oben