Test Test: Nvidia GeForce GT 430

Euphoria schrieb:
Das ist einfach nur lächerlich und gerade bei den Karten wirds wohl keinen interessieren, da die Leistung für sowas zu bescheiden ist.

soso aber es interessiert ob eine karte in dieser leistungsklasse 10% schneller ist? da hat man anstelle 30FPS halt 33FPS :evillol:

in dieser Grafikkarten klasse zählt nur eins und das ist die Check-Liste und da sieht nunmal die GT430 doch recht gut aus, gerade im HTPC Markt und wer das widerspricht tut mir leid = Fanboy


und was jammern hier einige wegen der 5570 GDDR5 rum, erstens kann der GF108 sicher auch mit GDDR5 umgehen, wäre damit sicher auch etwas schneller und zweitens für alle die es noch nicht befriffen haben, in dieser Preisklasse ist die leistung doch völlig nebensächlich da es keine gamer karten sind, ist das so schwer zu verstehen?!?

Es wird in diesem Preis-Bereich immer schnellere Karten geben, zb. durch ältere Modelle die runter geschriben wurden...

Ich finde es völlig lächerlich da 0% vorsprung bei AA/AF und 15% ohne AA/AF als das nonplusultra hinzustellen, wenn es eine Gamer Karte wäre OK, aber in diesem bereich ist das doch blödsinn!!! da es schlicht komplett egal ist...

aber Cuda / PhysX runter reden weil sie zu wenig leistung hat, ihr widerspricht euch selber damit! Da alle Karten in diesem bereich zuwenig Leistung haben...

zudem ist die GT430 mit AA/AF und unter DX11 exakt gleich schnell wie eine 5570 :rolleyes:
 
Zuletzt bearbeitet:
GT430-42.jpg
 
marvelmaster schrieb:
Bringt es was die Graka als Dedicated Physx Karte neben ner gtx 470 zu nutzen???

Das kommt auf das Spiel an; für die einen GPU PhysX Spiele ist sie viel zu langsam, für andere ist sie neben einer GTX 470 unnötig oder gar störend. Dazwischen gibt es vielleicht eine kleine Handvoll wo es die FPS erhöht.
Aber ob das was "bringt"?!

Dural schrieb:
und was jammern hier einige wegen der 5570 GDDR5 rum, erstens kann der GF108 sicher auch mit GDDR5 umgehen, wäre damit sicher auch etwas schneller und zweitens für alle die es noch nicht befriffen haben, in dieser Preisklasse ist die leistung doch völlig nebensächlich da es keine gamer karten sind, ist das so schwer zu verstehen?!?

Was ist es denn? Ne Office Karte für Solitär und Farmville?
Es gibt durchaus Leute, die haben nen Media Center und nen HD Ready Fernseher, und die brauchen dort kein AA Aufgrund der 5 Meter Sitzabstand.
 
Zuletzt bearbeitet:
Warum wird hier ständig versucht diese Karte mit den 55xx entweder in die Kategorie Office, oder in die Kategorie Hardcore-Gamer einzusortieren? Fürs erste reicht jede Onboard-Lösung, fürs Zweite sind High-End-Karten gedacht.

Die hier verglichenen Karten stellen doch Kompromisslösungen dar, die auf das weite Feld zwischen den genannten Extremen zielen. Das Wort Kompromiss trifft es auch ganz gut. Hier muss jeder für sich das passende Produkt finden. Der Großteil der potentiellen Kunden wird wohl nur sehr selten Videos bearbeiten, aktuelle Shooter auf Full-HD spielen wollen oder die 40-milliardste Stelle von Pi ausrechenen.

Die wohl wesentlichste Frage neben der Features bleiben wohl Overall-Performance und Energiebedarf (ggf. Lautstärke). Der Preis als Kaufkriterium kommt natürlich noch dazu.

Nach diesen Kriterien ist die GT430 für mich persönlich keine Sensation. Eher das, was ich Ende 2010 als akzeptabel erachte. Könnte besser sein.
 
Dr. MaRV schrieb:
Du sagst aufgrund der Wärme hat sich die GPU vom Mainboard den Laptops gelöst. Nun Lötzinn schmilzt erst bei deutlich über 200°C, soviel Wärme hält auch die Beste GPU nicht aus. Ob der Fehler dann wirklich bei nVidia zu suchen ist und nicht evtl. doch beim Laptophersteller bleibt Spekulation. Widerlegt hast du damit jedoch überhaupt nichts. Wird die GPU zu warm und es lösen sich dadurch die Kupferbahnen von der Leiterplatte oder selbige löst sich auf, hat eindeutig der Hersteller des Gerätes geschlampt und nicht der Hersteller der GPU.Es muss ja einen Grund haben warum da so hohe Temperaturen auftreten, das sich eine verlötete GPU vom Mainboard löst und die Kühlung der Laptop GPU ist nicht nVidias Aufgabe, das ist Aufgabe des Laptopherstellers.

Ja sicher. Alles Spekulation. Man sieht, wie sehr es dir um eine sachliche Diskussion geht.

Einer meiner Vorposter hatte ja schon ein paar Links gebracht. Ergänzend noch folgender:

http://www.golem.de/0807/60811.html

Ein fünftel Wertverlust der Aktien. Scheint ja doch was mit nVidia und nicht mit den Notebookherstellern zu tun zu haben. Ich zitiere mal aus dem Link:

Schuld sei die gewählte Kombination von Die und dem Material des Chipgehäuses bei Grafikchips für Notebooks.
Natürlich entscheidet nVidia nicht über die Die-Produktion und das Packaging. :rolleyes:


Achso: und ich korrigiere meine Aussage. Der Chip hat sich nicht vom Mainboard gelößt, sondern ist intern durch die Dauerhitze kaputtgegangen.
http://www.logichp.com/2010/01/26/hp-tx2000-having-hardware-problems-nvidia-to-blame/

Kenne schon andere Leute die Notebooks mit dem gleichen Chipsatz haben und bei denen der Lüfter mitlerweile auch ununterbrochen heult und die W-LAN Verbindung sporadisch abbricht. Kann dir ja bescheid sagen, wenn dann auch diese 2007er Maschinen endgültig tot sind.

Kurzum: Die Behauptung, nVidia-Karten hätten weniger Temperaturprobleme, war ein sauberer Schuss ins Knie.
 
Also ich hätte keinen Bock mit 22FPS durch die Landschaft zu kriechen,
und jedem hier sollte klar das sie als Physx-Karte neben einer GTX480 dann langsam sinnfrei wird,
müsste aber ein Test zeigen, ich glaub das wurde mal mit der GT240 probiert,
hast du den Test gerade parat ?
 
also bei meinem laptop habe ich in der zwischenzeit leider staendig probleme.
auch wenn ich ihn extra "aufbocke", damit die kuehlung etwas besser ist... luefter foehnt auch im "idle" wie verrueckt und die temps sind oben
ratet mal was verbaut ist -.-

unnoetig zu erwaehnen, das die gratantie quasi punktgenau abgelaufen ist, als es damit anfing.
NV hat bei mir erstmal verschissen. da helfen auch geschoente tests nichts.
kann allen mal empfehlen auf anandtech nachzulesen. die sind sicher keine ATI-fans, aber ich frage mich, warum deren fazits teilweise drastisch anders sind als bei CB hier...

und zum thema: wenn man bedenkt, dass es eine 5570 natuerilch auch passiv gekuehlt gibt, sehe ich persoenlich ausser dem 3D feature kaum einen grund die 430 zu nehmen.
die bildqualitaet der 5570 ist besser und genau das will ich doch bei so einer karte haben.
von 3D am PC halte ich gar nichts, CUDA bzw physx brauche ich bisher ebenfalls nicht. vielleicht aendert sich das mal irgendwann, aber da ich momentan keine entsprechenden anwendungen habe -> wayne.
 
Ich habe ich mich weiter vorn schon korrigiert. Es sind auch nicht die GPUs defekt sondern wie du selbst bemerkt hast, die Materialauswahl für's GPU Gehäuse wurde falsch getroffen und das Gehäuse nicht optimal konstruiert, ein Fehler den andere schon vor NV gemacht haben. Ändert aber nichts daran das bei dieser Serie was nicht ganz korrekt war.

Wenn deine GPU durch zu hohe Temperaturen durchgebrannt ist, wurde sie wohl zu schlecht gekühlt, da beißt die Maus kein Faden ab, irgendwann ist auch bei einer NV GPU schluss. Langsam solltest du dich für eine Aussage entscheiden. Erst löst sich der DIE-Träger vom Mainboard, dann brennt die GPU durch, was kommt als nächstes? Langsam wird's albern.

Statler_Waldorf schrieb:
also bei meinem laptop habe ich in der zwischenzeit leider staendig probleme.
auch wenn ich ihn extra "aufbocke", damit die kuehlung etwas besser ist... luefter foehnt auch im "idle" wie verrueckt und die temps sind oben
ratet mal was verbaut ist -.-
Ich tippe mal auf einen NV Chip, meine Eltern haben das gleiche Problem mit ihrem NB, rate mal was die drin haben, richtig, einen ATI Chip. Das scheint kein generelles NV Problem zu sein.

Schonmal die Bodenplatte aufgemacht und den Kühlkörper gereinigt?

Mir ist egal was drin ist, Hauptsache es Funktioniert. Spielen mit dem NB geht mehr schlecht als recht und für CUDA oder PhysX sind die NB Chips einfach zu schwach.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Ich nutze es nicht und benenne es ergo auch nicht als "nonplusultra Argument" - du legst mir Worte in den Mund

Die Art und Weise wie du Features benennst und die Art und weise wie du das bennante in Foren präsentierst entwickelt fürsich selbst eine Dynamik, indem du anderes komplett fallen lässt, nicht erwähnst etc..
Dass viele das nicht mögen ist logisch.
Dass man dir aber trotzdem genau das vorwerfen kann, ist eben nunmal so, auch wenn du nur "benennst".

MarV schrieb:
Erst löst sich der DIE-Träger vom Mainboard, dann brennt die GPU durch, was kommt als nächstes? Langsam wird's albern.

Du wünscht selbst eine sachliche Diskussion, bist aber nicht in der Lage selbst eine zu führen, indem du deine Beispiele als Fakten darstellst und andere unwichtig sind.
Warum diskutierst du dann überhaupt?
 
Zuletzt bearbeitet:
Flare schrieb:
Also ich hätte keinen Bock mit 22FPS durch die Landschaft zu kriechen,
und jedem hier sollte klar das sie als Physx-Karte neben einer GTX480 dann langsam sinnfrei wird,
müsste aber ein Test zeigen, ich glaub das wurde mal mit der GT240 probiert,
hast du den Test gerade parat ?


Du weiss aber schon das wir hier von min.FPS reden?!
Für Ati besitzer die eine passive Lösung suchen sind ca.35FPS für 2-3 Spiele vollkommen ausreichend,
vielleicht siehst du das anders, du setzt ja auch min.fps mit durchschnitts.fps gleich.
 
Weil meine Beispiele nun mal Fakten sind, Ich habe die von mir genannten Karten lange besessen und besitze sie teilweise noch immer, arbeite auch noch mit ihnen. Tut mir leid das mein Notebook nicht zur Ausfallserie gehört hat, das meine GPU in der Wüste mit 106°C durchgelaufen ist... aber das ist nunmal fakt und damit sind es Fakten, die muss niemand anerkennen, ich zwinge keinen dazu und wenn jemand meint es ist Blödsinn was ich schreibe, ist es mir auch egal. :freak:

Macht euch selbst mal die Mühe und benutzt die Suchfunktion. Hier wurde schon häufiger die Frage gestellt ob bei einer Geforce eine GPU Temperatur von über 90°C eine Gefahr für die GPU darstellt , dann werdet ihr sehen das NV GPUs sehr häufig deutlich wärmer werden als ATI GPUs und dies nicht erst seit Thermi der Fall ist, das die Grafikkarten nicht frühzeitig kaputt gegangen sind sondern teiweise sehr lange halten oder gehalten haben. Die 8800er Serie macht da eine Ausnahme, da geht gern der VRAM kaputt (nach 2-3 Jahren), bei mir selbst so gewesen (nach 2,5 Jahren). NV ist nicht Gott, aber ATI genausowenig und NV als Schrottmarke abzustempeln weil nun eine GPU Serie draussen ist die Wärmer wird und mehr Strom verbraucht als ATIs Serie ist mehr als unterbemittelt. Auch ATI hat in der Vergangenheit schon häufiger sehr erfolgreich weniger gute Karten produziert, denkt mal an die HD4000er...

Wenn NV es schaffen würde im nächsten Jahr einen überarbeiteten Fermi vorzustellen der besser wäre als AMDs HD6000er Serie, würde jeder ATI Fanboy gleich nach NV Schreien und seine einst so geliebte Marke AMD Radeon niedermachen. Ist doch immer das gleiche...
 
Zuletzt bearbeitet:
Thema "neue Tonformate" ausgeben über HDMI!
ist das mit dieser karte nun endlich möglich? ATI kann das ja seit der 5xxxer serie.

m0bbed
 
y33H@ schrieb:
@ Euphoria

Was soll der Quatsch? Die Geforces können CUDA/PhysX. Ein Vorteil, Punkt.

Ich nutze es nicht und benenne es ergo auch nicht als "nonplusultra Argument" - du legst mir Worte in den Mund :mad:

Aber die Art und Weise wie du die "Vorteile" benennst wirkt eben wie "nonplusultra Argument".
Ich sag ja nicht, dass es keine Vorteile sind, nur wie du es benennst und zwar bei jeder Karte.
Klar man kann die Karte als dedizierte PhysX Karte nutzen, aber ganz ehrlich wieviele Leute tun sowas? Ich würde behaupten es sind weniger als 1%.

PS: Diese Aussagen sind nicht nur auf die Karte, sondern allgemein auf die Art und Weise wie du PhysX/CUDA überall erwähnst.

@Dural
Siehe oben. Mir gings nie um die Features selbst, sondern um Art und Weise wie der bestimmte Benutzer diese argummentiert.
Deswegen jemanden direkt als Fanboy zu bezeichnen ist recht arm.


Am Ende muss jeder selbst entscheiden ob ihm Leistung/Verbrauch oder Zusatzfeatures wichtiger sind. Für die einen wird die Karte perfekt sein, für die anderen nicht. Meiner Ansicht nach sind in der Preis/Leistungsklasse eben Leistung/Verbrauch + Kosten wichtiger. Und da schneiden die ATI Karten etwas besser ab. Ist meine Meinung, die muss keiner teilen ;)
Hingegen ist z.B. eine GTX460 in ihrem Bereich besser als Konkurrenzprodukte aus dem Hause ATi und das ist zur Zeit einzige Karte im Portfolio von nvidia die besser ist. (nur meine Meinung und nach meinen Kriterien)
 
Dr. MaRV schrieb:
Wenn deine GPU durch zu hohe Temperaturen durchgebrannt ist, wurde sie wohl zu schlecht gekühlt, da beißt die Maus kein Faden ab, irgendwann ist auch bei einer NV GPU schluss. Langsam solltest du dich für eine Aussage entscheiden. Erst löst sich der DIE-Träger vom Mainboard, dann brennt die GPU durch, was kommt als nächstes? Langsam wird's albern.

Also zusammengefasst:
Wenn Nvidia GPUs kaputt gehen, war die Kühlung schuld.
Wenn AMD GPUs kaputt gehen, war AMD schuld, weil der GPUs keine Temperaturen aushalten.

Mit dir kann man echt keine Diskussion führen...
 
Euphoria schrieb:
Ich sag ja nicht, dass es keine Vorteile sind, nur wie du es benennst und zwar bei jeder Karte.
Ich sag doch nur "die Karte kann GPU-PhysX". Nicht mehr und nicht weniger. Was bewirkt daran bitte, es wie das "nonplusultra Argument" aussehen zu lassen? Noch wertungsfreier als "sie kann's" kann ich es ja wohl nicht ausdrücken. Mir scheint, manch einer versucht mir immer wieder etwas anhängen zu wollen.
 
@MaRV; Es interessiert doch keine Sau ob eine Nvidia GPU über 100° aushalten können, schade ist, das sie es gelegentlich müssen. Denn die Temperaturen die vor allem auch aufgrund höherer Last Werte im Gehäuse entstehen, müssen eben auch aus dem Gehäuse transportiert werden, was die gesamte Systemkühlung beeinflusst. Und das ist eine Sache, die man zusäztlich zu dem Stromverbrauch zumindest im Hinterkopf behalten sollte, statt es als "ihr öko futzis labert doch eh nur rum" abzutun.
 
JokerGermany schrieb:
Also zusammengefasst:
Wenn Nvidia GPUs kaputt gehen, war die Kühlung schuld.
Wenn AMD GPUs kaputt gehen, war AMD schuld, weil der GPUs keine Temperaturen aushalten.

Mit dir kann man echt keine Diskussion führen...

Es liegt nahe das die GPU zu wenig Gekühlt wurde, da sie ja 2 Jahre ohne Probleme funktionierte, jedenfalls entnehme ich das der Aussage. Das gleiche kann auch einer AMD GPU passieren, man sollte eben hin und wieder mal die Lamellen des Kühlkörpers säubern. Das bei einer durchgebrannten AMD GPU AMD die Schuld hat hab ich nicht behauptet. Lies den kompletten Thread und nicht nur das was dir gefällt um andere zu trollen. Ich habe bereits vor einigen Seiten meine Aussage korrigiert und eingestanden das bei dieser GPU Serie der Fehler bei nVidia lag.

mailaber!, Sicher ist es Ärgerlich wenn eine GPU extrem Warm wird. Mein damaliges Notebook konnte ich mir nicht auf den Schoß stellen es wurde wirklich unangenehm heiß. Es waren sogar Warnschilder an der Unterseite die vor heißen Oberflächen gewarnt haben. Aber die NV GPU hat das ohne Probleme weggesteckt, ebenso die Intel CPU. Ich weiß es nur aus eigener Erfahrung das die NV GPU etwas besser mit hohen Temperaturen klarkommt und dies nicht sofort mit einem Absturz oder Freeze quittiert. Mir persönlich scheinen AMD CPUs und GPUs generell etwas Hitzeanfälliger zu sein. Ein freund hatte damals einen Athlon 1333 sobald es Sommer war und die CPU 60°C erreicht hatte quittierte sie ihm dies mit einem Systemabsturz. Alle anderen mit Intel CPUs konnten die LAN Party ohne Probleme fortsetzen. Das gleiche damals bei meinem Athlon XP 2000+, mit meinem jetzigen X4 955 habe ich keinerlei solcher Probleme mehr, allerdings erreicht man heute dank wirklich guter und moderner Kühler nur noch selten die 60°C Marke, bei mir ist bei 53°C Schluss. Da hat sich wirklich viel getan. Was haben wir damals alles gebaut, vollkupfer und 60mm und Lüfter mit 8000U/min, Adabter von 60 auf 80mm nur um die CPU kühl zu halten, Wasserkühlung und und und :D

Zum Stromverbrauch kann ich nur sagen das mir dieser völlig Egal ist, der PC ist eines meiner Hobbies, Hobbies kosten Geld, mein anderes Hobby ist Modellflug, das kostet auch Geld und ist nicht gerade umweltfreundlich. Für mein Hobby bin ich aber gern bereit etwas Geld auszugeben. Es nervt einfach nur das heute nur noch anhand des Stromverbrauchs einer Grafikkarte oder CPU über diese und den Hersteller geurteilt wird. Das hat vor 10 Jahre keine Sau interessiert, ebenso wie die Lautstärke eines Lüfters oder die Wärmeentwicklung einer Grafikkarte. Intel CPUs haben auch mehr Leistung bei 30W weniger Verbrauch, interessiert aber keinen, bei Grafikkarten wird teilweise über 5°C Temperaturunterschied und 6W mehr Stromverbrauch diskutiert...

Damals hat man sich die erste GeForce mit Doppel Slot Kühler angeschaut und hat das sabbern nach dem Ding angefangen, war von der brachialen Optik, dem Gewicht und der schieren Leistung dieser Karte angetan. Heute ist eine GTX 480 gleich scheisse, weil sie 100W mehr verbrauchen soll, warm wird und dadurch die Kühlung etwas lauter ausgefallen ist, statt sich an dem zu erfreuen wofür eine GTX 480 steht, nämlich der enormen Rechenleistung und dem was damit alles möglich ist. Es muss sich ja niemand so ein stromfressendes und lautes Ungetüm in seinen PC einbauen, aber ich finde es unfair anderen die Freude zu nehmen indem man es schlecht redet und niedertrampelt oder gar als Umweltsünder bezichtigt.

Bei Großrechnern interessiert der Verbrauch von mehreren hundert Kilowatt doch auch niemanden, alle sehen sich die Leistungsdaten an und denken, geil, so ein teil zu Hause haben, das wär's.
 
Zuletzt bearbeitet:
Ich habe SC II mit ner 88GT 512 MB Problemlos auf 1680x1024 spielen können.
Auch in Tests brechen 512 MB Karten nicht auffällig ein bei dem Spiel. (1 - 2)
Das Problem bei deinem Notebook muß irgendwo anders liegen.
Die Kampagne ist das, die Zwischensequenzen vorallem. Gugg mal da nochmal nach. SC II will mehr als 512MB haben. Es sei denn man stellt weniger Details ein, aber bei mir ging es mit hoch noch sehr gut, bis auf die Einbrüche.

Und wenn du mit einer 8800GT 512MB nix merkst, dann hast du einfach keinen Vergleich. Mit meiner 8800GTX kann ich hier gut vergleichen, bei solchen Kalibern bringt der Vram sogar im Multiplayer Vorteile, auch wenn der andere eine schnellere CPU hat ala Core i7...
Es nervt einfach nur das heute nur noch über den Stromverbrauch einer Grafikkarte oder CPU geurteilt wird. Das hat vor 10 Jahre keine Sau interessiert, ebenso wie die Lautstärke eines Lüfters oder die Wärmeentwicklung einer Grafikkarte.
Dann währen wir hier ja fertig, du lebst noch in den 90ern und die anderen im 21. Jahrhundert. :D
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Die Kampagne ist das, die Zwischensequenzen vorallem. Gugg mal da nochmal nach. SC II will mehr als 512MB haben. Es sei denn man stellt weniger Details ein, aber bei mir ging es mit hoch noch sehr gut, bis auf die Einbrüche.

Und wenn du mit einer 8800GT 512MB nix merkst, dann hast du einfach keinen Vergleich. Mit meiner 8800GTX kann ich hier gut vergleichen, bei solchen Kalibern bringt der Vram sogar im Multiplayer Vorteile, auch wenn der andere eine schnellere CPU hat ala Core i7...

Dann währen wir hier ja fertig, du lebst noch in den 90ern und die anderen im 21. Jahrhundert. :D

Ganz sicher nicht, aber ich erinnere mich gern an die 90er und Anfänge der 2000er, als nicht jeder über 20W mehr Stromverbrauch gejammert hat zurück.
 
Zurück
Oben