Test GeForce GTX 470 im Test: Zotac AMP! zeigt allen anderen wie es geht

Ist das fein, kaum ist Unyu wieder aus seinem Keller gekrabbelt, wird hier wieder gleich viel heißer diskutiert. Durch die durchaus gelungene AMP! Morgenluft geschnuppert, Unyu? ;)

Ich halte die AMP! (natürlich) auch für deutlich besser als das Referenzdesign; nicht nur gelingt es Zotac die Hitze und Lautstärke einzudämmen, die Karte wird auch noch stromsparender. Pendelt sich der Preis jetzt um die HD5870 im Referenzdesign ein (also bei 340 Euro etwa), ist sie eine echte Alternative. Zwar noch immer langsamer und stromhungriger als die HD5870, aber dafür extrem leise.

Für mich läge die HD5870 immer noch vorne, aber immerhin könnte ich Verständnis für einen GTX 470 - Kauf unter solchen Umständen aufbringen. :D

Hat übrigens wer gesehen, daß im hwluxx-Test die GTX 480 AMP! recht deutlich MEHR Stromaufnahme unter Last hat? Ich frage mich, was da im Vergleich zur GTX 470 anders oder schief gelaufen ist...
 
@FortissimoIV

Das mit Unyu ist mir auch aufgefallen - das erste einigermaßen anständige Produkt mit Nvidia inside - und schon ist er wieder da - na juhu :freak:

Der zweite Punkt - man sollte die Karte wirklich gegen checken - ob es sich hier nicht um ein Wahnsinns-Sample handelt und die im echten Handel doch etwas schlechter sind - es ist eine Karte und direkt von Zotac gesendet...

Endlich schönes Wetter
CU
 
Nun, ich hab ihn gebeten wieder mal bisslwas zu posten.
War zu wenig Pfeffer in den Threads.:D
Jedenfalls filtert Nvidia afaik @ default Einstellungen nicht trilinear und produziert so Bugwellen.
ATI filtert (bis auf Crysis anscheinend) immer trilinear.
Mehr will ich mich aber da gar nicht einmischen, wenn Unyu wieder das unglaubliche Flimmern erwähnt, was mich nur bei Crysis/Half Life mit der HD4890 damals etwas gestört hat und das wars auch schon, da hab ich selbst ganz genau hinsehen müssen.
Vielleicht kannich ja so bald wieder von meiner Signatur gebrauch machen.

Ja warum wohl hat die GTX480AMP! mehr Stromaufnahme?
Weil:
A) die Chips nicht undervoltet und zugleich übertaktet wurden und
B) das Sample das CB hatte anscheinend sehr gut war und auch durch die geringere Temperatur trotz Übertaktung noch deutlich an Stromverbrauch eingespart hat.
DAs Sample der GTX480 war halt etwas schlechter, imho mehr Verbrauch, was bei ner übertakteten Karte auch kein Wunder ist.

Edit//
Unyu schrieb:
Bugwellen gibts bei AMD seit immerhin R600 nahezu unverändert

Falsch. Es gibt sie nicht mehr. PCGH meint zumindest bei Crysis irgendwelche Bugwellen gesehen zu haben, ansonsten scheinen sie aber verschwindibus zu sein.
 
Zuletzt bearbeitet:
oje, da gibts bei 3dcenter zur zeit auch ne heftige diskussion über die filterqualität der atis. da wird aufeinander eingedroschen, da ist das hier ja noch kindergarten :)
 
Lieber Wolfgang, deine Kurztests sind immer schön und toll, aber vielleicht doch etwas zu kurz?
Mir hat es sehr gefallen das du bei der 5870 Lightning mal ne lüftersteuerung gemacht hast, um die karte besser vergleichen zu können...
JETZT wäre es vllt mal interessant gewesen, zu sehen, wie sich die karte verhält, wenn sie genauso laut arbeitet wie die 5870(5850), dessen konkurrent sie ja eigtl ist. Wie würde sich die temperatur und die leistungsaufnahme verändern? wenn man schon bei so einem test ist, dauert das keine halbe stunde länger.
 
Zuletzt bearbeitet:
Wer zur Hölle hat diese Bilder gemacht.

Da wirds im Test 5 mal auf die Höhe von 3 Slots eingegangen, aber mal ein ordentlichen Seitenprofil kann man sich mal nicht anschauen.
Bitte mal nachbessern.
 
Was ich nicht verstehe wie die Zotac Karte jetzt hier hoch gelobt und schon so gehandelt wird wie eine HD5770 hawk, was bei der hawk noch vielleicht berechtig und nachvollziehbar war ... 130€ karte + besser Kühler/Lüfter40€ = 170 € ,
fehlt mir bei der Zotac jegliches Verständnis, 300€ karte + besser Kühler/Lüfter 40€ und man will 415€.

Vorallem wenn man bedenkt das vom Werk aus ganz andere Kosten entstehen, da ja keine Umbau nötig ist.

Und die 3 Slots ist ja auch so eine Sache.
 
Die karte ist noch nicchtmal verfügbar, also regt euch nicht über den Preis auf. Die Referenz-GTX war auch teurer als nicht verfügbar.


mfg
 
Unyu schrieb:
...


Bugwellen gibts bei AMD seit immerhin R600 nahezu unverändert, du verwechselt da etwas ganz erheblich.
...


Iruwen schrieb:
Bugwellen? Du verwechselst ATI und NV. Eyefinity? ...


Bezüglich Bugwellen sind einige immer noch nicht auf dem aktuellen Stand, ich zitiere CB aus dem HD5870 Test:

Zudem existiert auf der Radeon HD 5800 kein brilinearer Filter mehr (per Treiber), weswegen es, anders als bei der Konkurrenz, keine Bugwellen gibt.

https://www.computerbase.de/artikel...d-5870.1085/seite-6#abschnitt_af_kontrolliert


gruß
 
Zuletzt bearbeitet:
^^ ich denke auch das ist klar und deutlich .
Mal zur GTX470 AMP ich finde Zotac hat alles richtig gemacht .
+Leistung
+Gute Kühlung
+Leise
+Weniger Strom Verbrauch als ref GTX470 .

- Immer noch zu hoher Stromverbrauch , aber das liegt an der tollen fermi architektur :).
 
@Quad-core
Für dich zitiere ich mich mal selber, auch wenn das sonst nicht meine Art ist.
cyrezz schrieb:
Der Verbrauch ist nicht viel höher bei der GTX470 AMP!. Es sind nur rund 30W mehr, die diese Karte im Vergleich zur HD4870/4890 (320W/324W) und 14W mehr gegenüber der GTX285 (336W). Somit ist das nicht sonderlich viel mehr Arbeit für den VF-3000 gegenüber der Vorgängergeneration - im Falle dieser AMP! Version!

Die Werte beziehen sich auf das CB Testsystem!

Du findest also lächerliche 14W mehr gegenüber 30% - 40% mehr Leistung schlecht? Der Verbrauch liegt also auf einem Niveau durch die AMP! GTX470 und jetzt sollte der nächste Schritt für nVidia sein, den Verbrauch noch reduzieren. Denn wenn man den Verbrauch nicht steigert, aber die Leistung, dann ist das doch wohl auch ein gutes Ergebnis!
 
Hallo Wolfgang wie kann man so eine GTX470 in den Händen halten und diese nicht übertakten. Da brauchst du wohl nicht nur eine Nespresso Maschine damit du doch noch in den Himmel kommst :evillol:
 
Schaffe89 schrieb:
Jedenfalls filtert Nvidia afaik @ default Einstellungen nicht trilinear und produziert so Bugwellen.
ATI filtert (bis auf Crysis anscheinend) immer trilinear.
16xAF ist nicht Treiberstandard und das AMD in Crysis mehr cheatet wissen wir. (Siehe unten)
Das Schinzie meint irgendwelche falschen Dinge behaupten zu müssen kann ja nun nicht mein Fehler sein.

FortissimoIV schrieb:
Ist das fein, kaum ist Unyu wieder aus seinem Keller gekrabbelt, wird hier wieder gleich viel heißer diskutiert. Durch die durchaus gelungene AMP! Morgenluft geschnuppert, Unyu?
Ich sehe persöhnlich keinen Grund für die AMP!
Sie bietet nicht mehr, dafür das sie teurer sein wird. Sie bietet nur denen etwas, die meinen eine leise Karte ab Werk reicht aus.
Eine 300€ GTX 470 erachte ich als viel sinniger. Eigentlich ein super Angebot, die normale GTX 470, nur dank den Erinnerungen an die Billigzeit vor einem Jahr viel zu teuer.

Schinzie schrieb:
Bezüglich Bugwellen sind einige immer noch nicht auf dem aktuellen Stand, ich zitiere CB aus dem HD5870 Test:
Veralber mich nicht. Erwartest du eigentlich eine ersthafte Antwort darauf?
Les erstmal hier http://alt.3dcenter.org/artikel/grafikfilter/ 2001 war das schon ein Thema, Mensch wie die Zeit vergeht.
Dann lies hier weiter: http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php Den Artikel kennst du ja.
Dann nochmal deinen CB Artikel zu Ende lesen, kurz unter deinem Zitat wirds spannend. "Jedoch haben Nvidia-Kunden die Möglichkeit, auf „High Quality“ zu schalten – und dagegen hat ATi immer noch kein probates Gegenmittel."
Dann geh noch zu PCGH http://www.pcgameshardware.de/aid,7...11-Techdemos-von-AMD/Grafikkarte/Test/?page=3
Relativ weit unten wirds spannend, ab "AF Defizite im Überblick".

Sorry für OT, aber das zieht einem die Latschen aus, was du hier erzählst. AMD cheatet und bietet keine Alternative, Punkt aus.
Soll dir Recht sein oder auch nicht, aber erzähl nicht ständig als ob es nicht so wäre.
 
cyrezz schrieb:
Du findest also lächerliche 14W mehr gegenüber 30% - 40% mehr Leistung schlecht?

Nein finde ich nicht schlecht , man muss aber auch bedenken das die AMP von zotac untervoltet ist , und im vergleich zur HD58XX immer noch alt aussieht , den die kann man auch noch sehr gut untervolten bzw das ref modell . AMD hat es teilweise besser mit der HD58XX serie gemacht , NV eben nicht, das Top modell GTX480 verbraucht viel mehr als die GTX285 so sollte man das ganze betrachten . Also ich kann mir beim besten willen den Fermi nicht schön reden .
 
Zuletzt bearbeitet:
@ Unyu Ist ja schön, dass du wieder da bist, allerdings sehe ich allen grund deine Beiträge als unobjektiven Mist abzustempeln.

Unyu schrieb:
Das Schinzie meint irgendwelche falschen Dinge behaupten zu müssen kann ja nun nicht mein Fehler sein.

Nein das tut er nicht, seine Aussafe ist korrekt @ default Einstellungen. Wenn die von PCGH schon so pingelich sind und das AF als Minuspunkt mit dem Minuspunkt der Leistunsgaufnahme und der Lautheit der Nvidias auf eine Stufe stellen, weiß man ja schon, was man denken soll, da der Unterschied imho sehr sehr gering ist.
Einziger Grund das zu unterstützen ist, dass AMD die Optimierungen evtl mal ganz rauslöscht.
In der ganzen PCGH steht keine Relativierung bezügl. AMD´s AF und wenn einVideo gemacht wird wird das einzige WostCase Szenario Crysis dafür hergenommen. :rolleyes:

Und du betreibst hier das weiterere extrem.

Ansonsten sag ich nichts mehr dazu.
Da dir Lautstärke und Temps anscheinend auch nicht wichtig sind (GTX470) aber du bei Tests HD4890/HD5870 darüber extrem geschimpft hast...etc.. kann man ja nur an deiner Glaubwürdigkeit zweifeln.
 
Bis auf den Preis sehr ansehnlich das Ding :daumen:
 
@Unyu

habe ich ein Wort über irgendwelche High-Quality einstellungen von Nvidia verloren? Es ist Fakt, dass mit der Einführung der HD5000 Serie sich das AF bei AMD deutlich verbessert hat, und es in den default einstellungen, auf dei Qualität bezogen, der von Nvidia ebenbürtig ist, mit dem Vorteil, dass es bei AMD keine Bugwellen @ default gibt.

Dass das HQ von NVidia noch minimal überlegen ist, habe ich nie angezweifelt, doch zu behaupten dass AMD an Bugwellen leidet, die de facto nicht mehr vorhanden sind (außer das spiel erzwingt eine billeneare Filterung, siehe Crysis), ist eine Lüge und falsch.

Ich habe nicht mehr und nicht weniger behauptet.

gruß
 
Schaffe89
Schinzie behaupted alles wäre bestens und Bugwellen gäbs nur noch bei nVidia.
Ich sage er erzählt nicht die Wahrheit.
Ferner behaupte ich, das AMD cheated, was ich gleichzeitig relativire, wenns ihm egal ist es nicht weiter tragisch für ihn, aber eben kein Freifahrtschein für seine Aussagen.

Ich habe extra nicht nur PCGH verlinkt, sondern auch CB (und andere). Exakt auf seiner verlinkten Seite, praktisch hinter dem Zitat das er gebracht hat kommt auch schon die Auflösung.
Crysis ist ein anderes Thema, da wird offensichtlich noch mehr "optimiert", hat einige % gebraucht.

Ansonsten keine Ahnung was du mit der Lautstärke hast, ich erinner mich nur daran bei der 5870: "Lautstärke interessier mich nicht, da muss ein Wasserkühler her."
Temperatur ist mal eine lächerliche Sache, aber ich nehme an du meinst elektrische/thermische Leistung. Das ist in der Tat unschön, aber die 10W mehr als eine GTX 280 würde ich auch überleben, die hohe Idleleistung ist jedoch recht schade.
Du darfst dabei jedoch nicht vergessen, das ich dabei auch auf den Preis gucke. Es ist ein Unterschied ob die 470 teurer oder billiger als die 5870 ist.
Also was willst du mir anhängen, das ich die 470er kaufe und die 5870er nicht wollte? Mit dem Vebrauch hatte das nie etwas zu tun, außerdem musst du mir erstmal zeigen wo steht das ich die 470er kaufe.

Schinzie
Warum erzählst du dann irgendwelches Zeug über Bugwellen? Zur Stimungsmache oder wozu?
 
Zuletzt bearbeitet:
Was für eine Argumentation ist das denn?
Ati hat Bugwellen weil Nvidia mit dem HQ-AF bessere Qualität darstellt?
Könntest du mal diesen Zusammenhang technisch erklären?

Und nur weil ein halbes Jahr später eine GTX4xx Serie auf den Markt kommt, fängt doch die HD5xx Serie nicht an plötzlich Wellen zu schlagen, oder?

Zudem sollten man sich die Fotos mal genau anschauen aus dem verlinkten Test von CB - bei aller liebe zu den totalen Nerds die sich über Qualitätsunterschiede streiten die nur sie sehen können mit der Lupe. Ich habe den Eindruck sie übersehen dabei das was einem normalen Gamer als aller erstes ins Auge sticht und in allen dort gezeigten Bilder unabhängig der Einstellungen sichtbar ist:
https://www.computerbase.de/artikel...d-5870.1085/seite-6#abschnitt_af_kontrolliert
133.jpg
Bitte mal einen Blick auf den Zaun werfen bei den hier höchsten AF Einstellungen 16xHQ-AF

Und mal hier einen Blick
86.jpg
bei den niedrigsten Einstellungen der RV770 mit 1xAF.

Noch nicht einmal da sieht der Zaun so grottenschlecht aus wie bei der GT200 Serie durchgehend, ohne Unterschied zu den Qualitätseinstellungen.

Da kann man sich noch so viel über die kleinsten Details in weiter Ferne und sonst was streiten, doch es gibt keine Einstellung seit der Vorletzten Ati-Generation die eine solche indiskutable Optik bietet wie hier bei der GT200 aufgezeigt. Einfach mal alle Bilder dort durch klicken.
 
Zurück
Oben