Test Test: Nvidia GeForce GTX 470

KAOZNAKE schrieb:
hmmm.... Spawas?

CPUs laufen auch mit irgendwas um 1,2V und verbrauchen 120W...:freaky:

Klar, nur ist das alles schön aufgeteilt, sind dir noch nie die komischen goldenen Füßchen aufgefallen?

Schlaue Leute wüssten jetzt, dass Grafikprozessoren "parallel" aufgebaut sind. Im Prinzip könnte man also einen Großteil des GPU einfach abschalten und dementsprechend die Leistungsaufnahme senken, was bei einem CPU nur begrenzt gehen würde (Einen Kern braucht man nun mal).
 
Whoozy schrieb:
@KAOZNAKE: Falls dieser Bericht z.B drei Jahre alt sein sollte, würde es schwer sein diesen wieder zu finden. Falls es den jemals gegeben haben sollte.

Ist ja nicht jeder wie du, der sich die Links ausm Ärmel schüttelt. :)

Nur dumm, dass so ne Diskussion funktioniert.
Entweder Link oder als persönliches Wahrsagerkugelbefragung kennzeichnen oder Klappe halten...
 
ich freue mich aufrichtig um jedes gute produkt das amd auf den markt werfen kann.wir brauchen einen starken gegner von intel und zwar wir alle.
 
Hallo zusammen,

@ JokerGermany

Also ich habe auch schon öfter Berichte von z. B. heise.de aufgeführt, die ich nicht direkt verlinkt hatte, zum einen weil ich den Link nicht zur Hand hatte als auch der Bericht selbst länger her war.

Man sollte auch schon mal ein wenig Selbstinitiative zeigen und sich den Bericht selbst suchen, wenn z. B. zumindest die Quellenseite genannt ist bzw. wurde, was bei mir normalerweise immer der Fall ist, wenn ich etwas rezitiere.

So long.....
 
Das_W schrieb:
Klar, nur ist das alles schön aufgeteilt, sind dir noch nie die komischen goldenen Füßchen aufgefallen?

Schlaue Leute wüssten jetzt, dass Grafikprozessoren "parallel" aufgebaut sind. Im Prinzip könnte man also einen Großteil des GPU einfach abschalten und dementsprechend die Leistungsaufnahme senken, was bei einem CPU nur begrenzt gehen würde (Einen Kern braucht man nun mal).

Dann erklär mir mal bitte, warum techpowerup unter idle, bluray wiedergabe und 3d load IMMER 1,00V GEMESSEN haben?

Und was jetzt eigentlich nochmal genau dein Problem ist?

:)

ich nix verstehen von Elektronik. Elektrotechnik ist für mich ein Buch mit sieben Siegeln ;)
 
Hallo zusammen,

@ JokerGermany

Ganz einfach, es kommt nunmal vor, daß man dies oder jenes gelesen hat, hier in die Diskussion einfließen läßt, jedoch aber den Link nicht mehr direkt zur Hand hat, da kann man eben Statisch nur Sagen, von wo man das ganze hat.

Und ich Persönlich bin es auch Leid, regelrecht als Persönliche Suchmaschine für manch andere zu fungieren, so denn dazu die Webseite noch genannt wird, was in meinem Fall normalerweise immer der Fall ist.

Ein wenig Eigeninitiative hat noch niemand geschadet und ist meiner Ansicht nach auch nicht zuviel verlangt, solange die Quellenwebseite bzw. Fachzeitschrift genannt wird.

@ Das_W

Im Prinzip könnte man also einen Großteil des GPU einfach abschalten und dementsprechend die Leistungsaufnahme senken, was bei einem CPU nur begrenzt gehen würde (Einen Kern braucht man nun mal).

Meines Wissens nach wird zumindest bei den Neuen Intel i7 Prozessoren der jeweils nicht benötigte Kern völlig abgeschaltet, solange er nicht benötigt wird bzw. keine entsprechende Leistung angefordert wird.

Sollte ich mich irren, lasse ich mich aber gerne eines besseren Belehren in dem Fall. Ich weiß auch jetzt gerade nicht, ob das Feature bei den i5 u. i3 Prozessoren auch implementiert ist.

So long....
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:

So funktioniert aber das gesamte Internet NICHT.
Denn die Leser haben keine Lust die persönliche Suchmaschiene für DICH zu spielen.
Wenn du es Leid bist, schreib es einfach nicht hier rein...

wie gesagt, du möchtest mich überzeugen nicht andersrum.
Solche Posts werde ich dann in Zukunft überlesen.
Ich habe BTW in 90% der Fälle kein Problem sachen die ich mal gelesen habe in Nullkommanix wiederzufinden. Weil ich weiß welches Suchwort usw.
Der Leser aber nicht und stell dir einfach mal vor du hast darfst dir für jeden Post Quellen suchen um zu überprüfen ob er es sich nicht gerade aus den Fingern saugt.
Und dann stell dir mal vor wie lange man suchen muss, falls derjenige es sich tatsächlich aus den Fingern saugt ;)
Siehe z.B. milamber und Complication, was die alles an Quellen posten, welche dann auch zum Diskutieren genutzt werden.

Gewöhn es dir doch einfach an von wichtigen Quellen Lesezeichen zu machen.
Durch die intelligente Suche von Firefox ist es dann kein Problem die wiederzufinden.
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Link Bitte! Danke!

(nicht mehr finden zählt nicht)

Ich kann ja mal schaun ob ich den wiederfinde, ist ja nicht so, dass AMD ATI gestern übernommen hätte :p
 
hm... jetzt bin ich mir noch unsicherer wo ich meine nexte graka kaufen soll :D aber danke für den test :) jetzt weiss ich wenigstens was auf mich zu kommt, FALLS ich mich für ne GTX von Nvidia entscheiden sollte...
 
Kann mich irgendwie mit den neuen Fermis nicht anfreunden.
Leistung um jeden Preis, Stromaufnahme und Laurstärke sehr mies.
Ich warte auf die 6er von ATi. Auf meine Karte läuft bis jetzt noch alles recht gut.
 
Wolfgang schrieb:
Wir haben hier intern schon deutlich mehr Tessellation-Ergebnisse vorliegen als nur metro und Unigine. Einfach noch was gedulden :)

Und wenn ihr euch im Fazit eines Testartikels auf andere Ergebnisse beruft die nicht angeführt werden, kann man kein Verständnis des Lesers erwarten.

gremlinkek schrieb:
Die 2GB version bringt nichts aber auch gar nichts an Frames , die karte wird sogar gebremst egal in welcher einstellung !

Den ganzen Thread lesen oder die Benches der Eyfinity 6 (die an Daten nicht mehr bietet als 2GB) bei Anandtech anzusehen, war wohl zu viel Arbeit. Sonst wüsstest du, dass diese superpauschale Aussage einfach falsch ist.
 
Dank dem Test hier habe ich die 470er abbestellt. Wäre sogar genau die Zotac geworden. Laut Alternate ist sie sowieso noch nicht verfügbar und lt. Heise sollen da auch nicht viele Fermis auf den Markt kommen. Das ganze liest sich wieder wie eine dieser Horrormeldungen. man darf jedoch nicht vergessen, dass sie mit den Vorabmeldungen zum Fermi recht hatten.
 
Mit meiner GTX285 bin ich sehr zufrieden da denkt man die GTX4x0 Reihe wird der Hammer und was ist ?
Fermi ist der letzte Rotz zu heiss,zu laut,zu viel strom das positive die GTX480 geht schon ab aber das ist es mir nicht wert.

Da werde ich mir wohl eine HD5870 bestellen oder noch warten:D

Schade Nvidia ich hatte bis jetzt nur NV Grafikkarten und wurde bis jetzt noch nie enttäuscht:(
 
Zuletzt bearbeitet:
Echt Schade, wäre wohl doch besser für Nvidia gewesen damals mit intel zu fusionieren.
Ich kann zwar Nvidia voll verstehen, doch jetzt sieht man die Kehrseite der Medaille.

Danke Nvidia für den Linux Treiber! Da sieht man wer Qualität nicht nur versteht, sondern auch liebt.
 
DvP schrieb:
Nein, weil wir vom Fazit des Computerbase Tests reden und die beziehen sich schlicht und einfach auf ihre Ergebnisse und da wurde nur Heaven mit Tesselation getestet, bei Stalker war es ausgeschaltet und bei Metro war (wenn du mitgelesen hast) nicht Tesselation die Performance Bremse bei den Radeons

Und wenn ihr euch im Fazit eines Testartikels auf andere Ergebnisse beruft die nicht angeführt werden, kann man kein Verständnis des Lesers erwarten.


Man könnte aber auch einfach ein wenig weiter denken und 1+1 zusammenzählen ;)
Ich denke wir alle wissen, dass die Fermi gut in Tesselation ist oder etwa nicht?
CB ist nunmal ein wenig weiter "intern" jedoch wirklich überraschend sollten die Ergebnisse eigentlich nicht sein.

Außerdem weiß ich garnicht was ihr gegen die Tesselation Leistung habt.
https://www.computerbase.de/2010-03/test-nvidia-geforce-gtx-480/23/#abschnitt_tessellation

CB schrieb:
In Metro 2033 mit allen aktivierten Features inklusive DOF und der Tessellation vermag es die GeForce GTX 480 sich in 1680x1050 ohne Kantenglättung um 32 Prozent von der schnellsten Single-GPU-Karte von ATi abzusetzen. Mit angeschalteter Kantenglättung steigt der Vorsprung auf hohe 72 Prozent. Während dort die GeForce GTX 480 noch ein flüssiges Spielen ermöglicht, ruckelt die Radeon HD 5870 unspielbar vor sich her.

Also ich finde nicht, dass die Leistung bei Tessellation schlecht ist wobei schon gesagt wurde das Metro 2033 aufgrund von DOF so stark einbricht.
 
DvP schrieb:
Und wenn ihr euch im Fazit eines Testartikels auf andere Ergebnisse beruft die nicht angeführt werden, kann man kein Verständnis des Lesers erwarten.



Den ganzen Thread lesen oder die Benches der Eyfinity 6 (die an Daten nicht mehr bietet als 2GB) bei Anandtech anzusehen, war wohl zu viel Arbeit. Sonst wüsstest du, dass diese superpauschale Aussage einfach falsch ist.

hier ein weiterer test : http://www.hardwarecanucks.com/foru...hire-hd-5870-2gb-toxic-edition-review-11.html
....und wer jetzt denkt die 2GB version ist schneller, nein ist sie nicht die Hd5870 Toxic karte ist von haus aus übertaktet
 
Wenn man schon für 280 EUR, die dauerhaft leise PowerColor HD5850 PCS+ bekommt, dann lohnen sich die 70 Euro Aufpreis für ein Minimum an Mehrleistung auf keinen Fall --> Deutlich mehr Strom, deutlich lauter, deutlich zu teuer.

Schade...war wohl die 8800GT, von der ich immer noch absolut begeistert bin (Selbst im 3D unhörbar dank Zilent-Kühlung von MSI) meine letzte nVidia Karte - vorerst...
 
KAOZNAKE schrieb:
Wegen dem Spiel hab ich meine G3Ti500 gegen ne X850 getauscht, vorher halb durcggespielt auf 800x600 und low details, weil damals ATI etwas länger gebraucht hat :D
Bei mir war es die erste 3er und als das Spiel endlich mal rauskam wurde die zwischenzeitlich schon durch eine x800XT ersetzt. :o
Gute 1000DM hatte die GF3 mich wegen leerer Marketingsprüche gekostet, an sonsten wäre ich auch noch weiterhin bei der alten GF2 GTS geblieben.
Es war gleichzeitig auch meine letzte Karte in der Preislage.
 
Abgesehen von einigen Kleinigkeiten bin ich damit von Fermi wohl endgültig enttäuscht. Ich weiß natürlich nicht, wie es zukünftig mit neuen Treibern bei der Performance aussieht, aber derzeit ist die Kombi aus Verfügbarkeit, Leistung, Leistungsaufnahme etc. und vor allem Preis enttäuschend und daran scheint sich so schnell nichts zu ändern.

Wenn es nur die Leistungsaufnahme wäre, ok. Aber aktuell steht die GTX 4x0 einfach mau da.
 
Zurück
Oben