Test GeForce GT 430 im Test: Passiv gekühlte Zotac-Grafikkarte mit wenig Leistung

Wolfgang schrieb:
Eine 5570 mit DDR3 ist schon schneller als ne GT430, da ändert sich bei einer GDDR5-Karte dann auch nicht viel. Davon abgesehen, haben wir solch eine Karte gar nicht hier.

Das ist schade, vor allem da derzeit die Radeon HD 5570 mir GDDR5 von Sapphire die günstigste verfügbare Karte ist. Und da ändert sich schon einiges in den Abständen der Leistung. Aber ok, wenn man was nicht da hat kann man auch nicht testen - was fehlt ist der Hinweis auf die nochmals deutlich höhere Leistung mit GDDR5 zum selben Kaufpreis. Dennoch ist IMHO der Tets nur sinnvoll mit der HD5570 und HD5670 mit GDDR5 als Vergleich.

Im Fazit oder im Preis-Leistungsverhältnis sollte man wenigstens darauf hinweisen dass ein DDR3 Modell nicht die beste Kaufentscheidung ist auch wenn sie immer noch besser ist als die getestete GT430.
 
Dr. MaRV schrieb:
NV hat bereits beim Launch des GF100 gesagt die GPUs sind für hohe Temperaturen ausgelegt und entsprechend entwickelt worden.

Und woher weißt du, dass das kein Marketinggewäsch ist?

Das hört sich eher mal wieder nach ner faulen Ausrede seitens Nvidia an.
Warum sollten die Chips von Nvidia mehr Wärme abkönnen?

Und warum hat Nvidia zum erscheinen der Thermi die Garantie gekürzt?
 
Wolfgang schrieb:
Das Ergebnis war, dass die auf 900 MHz übertaktete karte unter Last sensationelle 1(!) Watt mehr gebraucht hat. Das kann also auch ne Messungenaukgkeit gewesen sein.
.... haben wir davon abgesehen, diese abzubilden.

Eine 5570 mit DDR3 ist schon schneller als ne GT430, da ändert sich bei einer GDDR5-Karte dann auch nicht viel. Davon abgesehen, haben wir solch eine Karte gar nicht hier.

1. Warum schreibt man das nicht einfach hin, wenn die Daten auch vorliegen? Hätte zumindest diese Diskussion erübrigt.

2. Nochmal die Frage: Wenn man 5570 und GT430 vergleicht und positiv anmerkt, dass die getestete Karte passiv ist und das als Vorteil einräumt, warum erwähnt man dann nicht einfach, dass es eine 5570 auch passiv gibt? Ihr wohlt doch nachvollziehbar informieren oder? Genau das gleiche mit der DDR5 Version? Die gibt es, ist preislich interessant und noch ein Stück schneller - wird auch nicht angesprochen.
Nochmal: Es wäre für den Leser NUR wichtig zu wissen, dass diese Karten auch existieren...
 
Schon lustig. Immer wenn die Rohdaten nicht stimmen, kommt man mit so einem Mumpitz wie CUDA, Eyefinity und PhysiX. ^^ Und das bei einer Einsteigergraka! lol
 
Ich finds immer witzig wie y33H@ bei absolut JEDER nv Grafikkarte das nonplusultra Argument bringt. "kann es CUDA, kann es PhysX" .
Das ist einfach nur lächerlich und gerade bei den Karten wirds wohl keinen interessieren, da die Leistung für sowas zu bescheiden ist.

Da brauchst du auch nicht einen vollquarken mit unnötigen Sätzen wo ein Satz reichen würde, wo dann der Sinn runtergeht.
 
@ pool und Euphoria

Ich habt vollkommen Recht, aber gerade in diesem Thread ist es doch einfach nur lustig!

y33H@ schrieb:
... CUDA/PhysX, Double-Precision...

y33H@ schrieb:
...du kannst mit CUDA arbeiten und auch mit Double-Precision...

Das sind meine Highlights. Ich geh mal eben Double-Precision installieren :-D Vor allem da die DP-Rechenleistung ca. 1/7 der GTX470 und weniger als 1/3 der GTX460 ist. Wem es um Rechenleistung geht, fängt mit dem Ding nichts an.
 
Zuletzt bearbeitet:
JokerGermany schrieb:
Und woher weißt du, dass das kein Marketinggewäsch ist?

Das hört sich eher mal wieder nach ner faulen Ausrede seitens Nvidia an.
Warum sollten die Chips von Nvidia mehr Wärme abkönnen?

Und warum hat Nvidia zum erscheinen der Thermi die Garantie gekürzt?

Nun das zeigt mir die Praxis, eine NV GPU ist schon immer etwas besser als eine ATI GPU mit hohen Temperaturen klargekommen. Die GeForce in meinem damaligen Laptop ist in der Wüste Arizonas mit 106°C gelaufen, problemlos. Die GF 100 GPU läuft im Desktopbereich auch mit Temperaturen jenseits der 90°C problemlos. Die GeForce 6800 Ultra in meinem Alten Athlon PC läuft ebenfalls Problemlos mit Temperaturen weit jenseits der 80°C. Bei solchen Temperaturen hatte jede Radeon die ich in der Vergangenheit hatte das Zicken angefangen und dies mit Hängern oder Abstürzen quittiert.
 
@y33H@

Du beschreibst Nvidia Vorteile und bekommst als Kontra ATI Vorteile. Also alles völlig ok. Da gibt es nichts zu rütteln und jeder soll das kaufen was für ihn wichtig ist.
Du hast aber behauptet, dass der eine Vorteil Eyefinity bei ATI nicht möglich sei bei der 55xx und dies ist eine falsche Angabe.
Wie und ob nun die Grafikkartenproduzenten Eyefinity auf den Karten realisieren, muss man eben erfragen. Grundsätzlich ist es möglich und deine Angabe ist einfach falsch.
 
Dr. MaRV schrieb:
Nun das zeigt mir die Praxis, eine NV GPU ist schon immer etwas besser als eine ATI GPU mit hohen Temperaturen klargekommen. Die GeForce in meinem damaligen Laptop ist in der Wüste Arizonas mit 106°C gelaufen, problemlos. Die GF 100 GPU läuft im Desktopbereich auch mit Temperaturen jenseits der 90°C problemlos. Die GeForce 6800 Ultra in meinem Alten Athlon PC läuft ebenfalls Problemlos mit Temperaturen weit jenseits der 80°C. Bei solchen Temperaturen hatte jede Radeon die ich in der Vergangenheit hatte das Zicken angefangen und dies mit Hängern oder Abstürzen quittiert.

Tja das war dein Beispiel.

Jetzt kommt meins:
Die Geforce Go 6150 in meinem HP tx2000 hat sich dank der Wärmeunverträglichkeit nach knapp zwei Jahren vom Mainboard gelößt. Und das schöne ist, dass mein Beispiel kein privates Einzellbeispiel ist, sondern nVidia es geschaft hat, im Jahr 2006/2007 Millionen von GPUs/IGPs zu produzieren, die derart fehlerhaft waren, dass die Gerätehersteller ganze Modellserien zurückgerufen haben oder per BIOS Update Lüfter auf schnellen Dauerbetrieb gestellt haben.

Und nu?
 
@Canopus
Das hat er ja auf der letzten Seite schon geschrieben und auch gesehen dass er die Info zuvor "falsch abgespeichert" hatte bei sich - ist doch durch das Thema.
y33H@ schrieb:
Ich sehe, VGA als Triple geht [halt via Adapter und schlechterer Bildqualität]. Mea culpa.

Eyefinity geht auch mit VGA und alle sind sich darüber einig. ;)
 
pool schrieb:
Tja das war dein Beispiel.

Jetzt kommt meins:
Die Geforce Go 6150 in meinem HP tx2000 hat sich dank der Wärmeunverträglichkeit nach knapp zwei Jahren vom Mainboard gelößt. Und das schöne ist, dass mein Beispiel kein privates Einzellbeispiel ist, sondern nVidia es geschaft hat, im Jahr 2006/2007 Millionen von GPUs/IGPs zu produzieren, die derart fehlerhaft waren, dass die Gerätehersteller ganze Modellserien zurückgerufen haben oder per BIOS Update Lüfter auf schnellen Dauerbetrieb gestellt haben.

Und nu?

Mir egal was du nun machst, du nennst ein Beispiel ich hab 3 genannt und könnte noch 3 nennen, ich bin nicht um zu trollen hier oder um mich mit Fanboys zu streiten welcher Hersteller der bessere ist. Das hätte bei einer nicht objektiven Diskussion wie sie hier ständig zu finden ist, wenn es um ATI oder nVidia, geht keinen Sinn. ATI hat vorteile, nVidia hat Vorteile, es entscheidet der Kunde ob ihm der Vorteil eines anderen Herstellers mehr Stromverbrauch wert ist. Denn er allein Zahlt seine Stromrechnung.
 
Zuletzt bearbeitet:
Dr. MaRV schrieb:
Mir egal was du nun machst, du nennst ein Beispiel ich hab 3 genannt und könnte noch 3 nennen, ich bin nicht um zu trollen hier oder um mich mit Fanboys zu streiten welcher Hersteller der bessere ist. Das hätte bei einer nicht objektiven Diskussion wie sie hier ständig zu finden ist, wenn es um ATI oder nVidia, geht keinen Sinn. ATI hat vorteile, nVidia hat Vorteile, es entscheidet der Kunde ob ihm der Vorteil eines anderen Herstellers mehr Stromverbrauch wert ist. Denn er allein Zahlt seine Stromrechnung.

Wie schon gesagt. Meines ist kein privates Einzellbeispiel sondern Versagen auf technischer und großindustrieller Ebene. Womit ich dein "nVidia GPUs vertragen ja sowieso höhere Temperaturen" Argument wiederlegt habe.

Wenn du eine sachliche Diskussion willst, frage ich mich, warum du mit deinen einzel-PCs ankommst und somit wie ein Fanboy erster Güte wirkst...
 
Du sagst aufgrund der Wärme hat sich die GPU vom Mainboard den Laptops gelöst. Nun Lötzinn schmilzt erst bei deutlich über 200°C, soviel Wärme hält auch die Beste GPU nicht aus. Ob der Fehler dann wirklich bei nVidia zu suchen ist und nicht evtl. doch beim Laptophersteller bleibt Spekulation. Widerlegt hast du damit jedoch überhaupt nichts. Wird die GPU zu warm und es lösen sich dadurch die Kupferbahnen von der Leiterplatte oder selbige löst sich auf, hat eindeutig der Hersteller des Gerätes geschlampt und nicht der Hersteller der GPU.Es muss ja einen Grund haben warum da so hohe Temperaturen auftreten, das sich eine verlötete GPU vom Mainboard löst und die Kühlung der Laptop GPU ist nicht nVidias Aufgabe, das ist Aufgabe des Laptopherstellers.
 
@ Dr. MaRV

Ist zwar ziemlich Offtopic, aber dann sags wenigstens so ehrlich, dass Apple, Dell, HP und wie sie alles heißen selbst die Trottel sind und keine Laptops bauen können. Sie haben zu unrecht nVidia den schwarzen Peter zugeschoben. Dann musst du es aber auch so sehen, dass NV gelogen hat, als sie dann die Fehler gestanden haben und Rechenschaft ablegen mussten:

http://news.cnet.com/8301-13554_3-10020782-33.html
http://www.heise.de/newsticker/meld...s-mit-Lebensdauerproblemen-Update-185737.html
http://www.engadget.com/2008/07/02/nvidia-says-significant-quantities-of-laptop-gpus-are-defectiv/

Was kann man sich eigentlich für nen Schmarrn einreden :freak: Gegen das Einzelbeispiel zu argumentieren macht nicht so viel Sinn bei der dokumentierten Sachlage in dem Fall.

Zum Glück waren ja auch fast keine Modelle betroffen *gg* http://www.nvidiasettlement.com/affectedmodels.html
Die Sache ist übrigens noch nicht erledigt und es wird noch viele Reparaturen bzw. Austausche geben. Final Hearing ist am 20. Dezember 2010
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Mich wundert es, dass viele jetzt immernoch auf der Effizienz rumhacken und daher die Karte als Fail darstellen.
Wie gesagt im Idle ist die GT430 wohl durchweg besser, siehe PCGH.
Unter Last spielt das Netzteil rein.
Wenn man sich die Werte von PCGH ansieht, siehts da deutlich besser für Nvidia aus.

Die Wahrheit liegt also wieder in der Mitte. CB vs. PCGH


Die PCGH Verbrauchswerte

a) wurden mit einer ASUS GT 430 Karte ermittelt die hochwertige, effiziente Komponenten besitzt, wie z.B. Ferritkern-Drosseln und LowRDS(on) Transistoren. Das Referenzdesign hat weder die einen noch die anderen.

b) sind im Falle der HD5570 nicht nachvollziehbar, da HT4U für eine HD5570 im Referenzdesign 8,6W im Leerlauf ermittelt hat: http://ht4u.net/reviews/2010/amd_radeon_hd_5570/index13.php

c) wurde evtl. bei der GT 430 noch zusätzlich abgerundet und bei der HD5570 aufgerundet was einen gewissen "Effekt" u. U. verstärkt. Gerundet wurde in jedem Fall.


Bei PCGH wurde lediglich ein worst (HD5570) vs. best (GT430) - case Szenario gezeichnet, das zwar eindrucksvoll aber nicht repräsentativ ist. Im Schnitt dürften sich die beiden Karten im Leerlauf nichts geben, unter 3D Last ist die HD5570 allerdings klar schneller und sparsamer.
 
DvP schrieb:
@ Dr. MaRV

Ist zwar ziemlich Offtopic, aber dann sags wenigstens so ehrlich, dass Apple, Dell, HP und wie sie alles heißen selbst die Trottel sind und keine Laptops bauen können. Sie haben zu unrecht nVidia den schwarzen Peter zugeschoben. Dann musst du es aber auch so sehen, dass NV gelogen hat, als sie dann die Fehler gestanden haben und Rechenschaft ablegen mussten:

http://news.cnet.com/8301-13554_3-10020782-33.html
http://www.heise.de/newsticker/meld...s-mit-Lebensdauerproblemen-Update-185737.html
http://www.engadget.com/2008/07/02/nvidia-says-significant-quantities-of-laptop-gpus-are-defectiv/

Was kann man sich eigentlich für nen Schmarrn einreden :freak:

Zum Glück waren ja auch fast keine Modelle betroffen *gg* http://www.nvidiasettlement.com/affectedmodels.html
Die Sache ist übrigens noch nicht erledigt und es wird noch viele Reparaturen bzw. Austausche geben.

Steht doch da, das nicht die GPU selbst, sondern das Gehäuse dieser fehlerhaft ist. Da ist dann natürlich nVidia Schuld. Ich red mir überhaupt nichts ein, vor einer Fehlkonstruktion oder einer Fehlerhaften Charge ist niemand sicher, das passiert auch anderen Herstellern. Bei mir hat die Praxis aber gezeigt das NV GPUs bei hohen Temperaturen, sei es durch starke Übertaktung oder hoher Raumtemperatur stabiler laufen und damit besser zurechtkommen. Was ist daran Schmarn? :freak:
 
@ Euphoria

Was soll der Quatsch? Die Geforces können CUDA/PhysX. Ein Vorteil, Punkt.

Ich nutze es nicht und benenne es ergo auch nicht als "nonplusultra Argument" - du legst mir Worte in den Mund :mad:
Euphoria schrieb:
Das ist einfach nur lächerlich und gerade bei den Karten wirds wohl keinen interessieren, da die Leistung für sowas zu bescheiden ist.
Die GT 430 eignet sich als dedizierte PhysX-Karte exzellent.
@ DvP
DvP schrieb:
Wem es um Rechenleistung geht, fängt mit dem Ding nichts an.
Immerhin geht es, kleiner aber feiner Unterschied.
 
Zuletzt bearbeitet:
Euphoria schrieb:
Ich finds immer witzig wie y33H@ bei absolut JEDER nv Grafikkarte das nonplusultra Argument bringt. "kann es CUDA, kann es PhysX" .
Das ist einfach nur lächerlich und gerade bei den Karten wirds wohl keinen interessieren, da die Leistung für sowas zu bescheiden ist.

Da brauchst du auch nicht einen vollquarken mit unnötigen Sätzen wo ein Satz reichen würde, wo dann der Sinn runtergeht.

Also mich als ATIkartenbesitzer würde zb. Interessieren wie gut sie sich auch als PhysX-Karte schlägt gegen eine gt240, gts260 und einer gtx460, weil erste Test belegen das die gtx460 moment alle karte schlägt selbst eine gtx480 und eine gtx480 als physX wird von einem gtx480 und gtx460 Gespann geschlagen.
 
y33H@ schrieb:
Mit einem DVI, einem HDMI und einem VGA (Röhre!) Eyefinity? Viel Erfolg :rolleyes: Lies mal die Fußnote ...

Zwei Bildschirme kriege ich auch an die GT 430. Oh man ...

:rolleyes:


Kasmopaya schrieb:
Ist es aber nicht, SC II freut sich über den Vram und bricht dadurch nicht in unspielbare ein.

Ich habe SC II mit ner 88GT 512 MB Problemlos auf 1680x1024 spielen können.
Auch in Tests brechen 512 MB Karten nicht auffällig ein bei dem Spiel. (1 - 2)
Das Problem bei deinem Notebook muß irgendwo anders liegen.


Dr. MaRV schrieb:
Die ATI macht vielleicht schon bei 80°C schlapp die NV erst vielleicht erst bei 110°C.

Wie kommstn auf sowas?

Dr. MaRV schrieb:
..., fakt ist seit NV mit Konkurrenz GPUs auf den Markt gekommen ist, fallen bei ATI die Preise ins Bodenlose, man fühlt sich also offensichtlich stark unter Druck gesetzt.

Die Preise fallen erst seit der GTX 460, hinzu kommt der immer stärker werdende Euro gegenüber dem Dollar.
Aber vom Preisverfall ins Bodenlose kann überhaupt nicht die Rede sein, schon gar nicht wenn man die Preissenkung seit Release insgesamt betrachtet; seit Release mit Schwankungen sind die Preise jetzt auf maximal 20% ihrer Start bzw. Höchstpreise gefallen. Im gleichen Zeitraum hat die 4870 Beispielsweise um 50% an Wert verloren.

Wolfgang schrieb:
Wir haben die Karte in den sonstigen Messungen explizit "Zotac GeForce GT 430 Zone Edition" und nicht "Nvidia GeForce GT 430" genannt, damit jetzt zum Beispiel nicht jeder glaubt, alle Karten wären so leise.

Ja, mir ist das auch aufgefallen, aber selbst mir ist es passiert, das ich für mich die GT 430 bei der Leistung auf die Stock Karte eingeschätzt habe, beim Verbrauch jedoch den der Zotac Karte hinzu addiert habe - eine andere Möglichkeit habe ich ja überhaupt nicht, um diesse Karte einzuschätzen.
Und da ich mich diese Karte tatsächlich interessiert(e), war sie natürlich auch gleich Attraktiver.
Es verzerrt halt tatsächlich den Gesamteindruck, wenn die Leistung mit 5550, 5570, und 2x GT 430 präsentiert wird, Leistungsaufnahme und Co. Jedoch mit 5570, GT 430, GT 450 und 5670.

Wolfgang schrieb:
Wäre interessant zu wissen was für Feedback gekommen wäre, hätten wir Mischmasch-Treiber mit mehr Karten ;)

Das ist ja nun nichts gänzlich unbekanntes; bei der GTX 465 waren 7 verschiedene Treiber im Spiel.
Bei der GTX 470 5830, 5770 und alle darunter mit alten Treibern im Rennen, bei der GTX 480 alle bis auf die 5870.
Und die Werte der Lautstärke der 5770 sind immer noch vom V1 Referenzdesign das schon seit November/Dezember 2009 nimmer aktuell ist.

Mir ist klar, du machst das nebenbei, die Zeit ist knapp und man kann nur Karten testen die man da hat. Man sollte sich eh an mehreren Stellen informieren. Aber die fehlende Konsistenz ist nun mal da.

Wolfgang schrieb:
Da gibt es verschiedene Gründe. Zuerst wollen wir die Übersicht gewährleisten. Mit gefühlten 100 Partnerkarten wird das ganze alles etwas wirr. Darüber hinaus soll ein Partnerkartentests sich nur auf die Partnerkarten konzentrieren um die es geht. Und nicht um irgendwelche andere. Darum haben wir in solch einem Test nur entsprechende Karten mit drin. Zumal wir andere oft gar nicht hätten. Wenn es dann lohnenswertere Alternatien von einer anderen Karte gint und wir die schonmal im Test hatten, erwähnen wir das im Fazit.

Ich meinte nicht sämtliche Partnerkarten die es gibt, oder alle die ihr getestet habt. Vielleicht die Referenz, die beste die ihr da hattet, als Vertreter zusammen mit der Referenzkarte.
Ein Vermerk im Fazit das es Karte X auch mit Übertaktet gibt, oder mit Leiserem Kühler ist halt eben nur ein Satz im Fazit. Dem gegenüber stehen mehre Seiten Zahlen und Balken.
Im letzten Kurztest der GTS 450 sehen doch insbesondere die 5770 und 5750 aus wie Krüppel. Auch weil eben das alte Referenzdesign mit eingebracht ist.

Wäre es nicht fair, zumindest eine Hawk oder PCS+ mit aufzuführen?

Wolfgang schrieb:
Eine 5570 mit DDR3 ist schon schneller als ne GT430, da ändert sich bei einer GDDR5-Karte dann auch nicht viel. Davon abgesehen, haben wir solch eine Karte gar nicht hier.

Laut Tests sind die DDR5 5570er deutlich schneller, sind sie ja wie eine niedriger getaktete 5670. Spätestens wenn sie über einer DDR3 5570 getaktet sind. Aber das sind auch keine Referenzkarten, daher ist der Vergleich eh schwierig, und nicht gegeben.

/typo
 
Zuletzt bearbeitet:
Zurück
Oben