Test Test: Nvidia GeForce GT 430

Verstehe ich nicht. Zuerst wird behauptet Eyefinity geht nicht mit der 55xx Karte. Dann wird Behauptet viel Spaß mit DVI HDMI und VGA Röhre. Wobei ich nicht verstehe, was Röhre soll, gibt ja auch TFT mit VGA.
Dann wird behauptet DP gibt es nicht.

Nun wurden alle 3 Behauptungen widerlegt.

Ich verstehe so ein Verhalten jetzt mal überhaupt nicht. Egal, wer Wissen erlangen will, muss sich eh vorher informieren um sich das passende zu kaufen. Selbst langjährige User hier im Forum wissen es anscheinend nicht besser.
 
Zuletzt bearbeitet:
Kommt aber auch immer auf das HTPC-Case an. --> edit:Okay hast deinen Post überarbeitet. Von daher relativiert sich wieder alles.

@Canopus

Mit DVi, HDMI und VGA es geht gerade nicht. Da hast du Ironie in seinem Post nicht verstanden. ;)
 
Zuletzt bearbeitet:
@ Canopus

Es geht nur mit DVI, HMDI und DP oder noch mehr DP. Nicht mit VGA! Bitte informieren, dann "widerlegen". Und LP-HD5570 mit Eyefinity gibt's auch nicht. Du hast nichts widerlegt. Aber Hauptsache mich versuchen als blöd hinzustellen *Kopf schüttel*
Canopus schrieb:
Egal, wer Wissen erlangen will, muss sich eh vorher informieren um sich das passende zu kaufen.
Das habe ich in bereits zwei Posts schon gesagt :(
 
Dein Ton klang mit dem "Für mich schon sehr fraglich bei beiden Produkten diese Features in die Waagschale zu werfen um eines der Produkte besser dastehen zu lassen!" klang eben sehr vorwurfsvoll - selbst wenn du es vielleicht nicht so gemeint hast. Mir kommt's halt so vor, als ob manche nicht akzeptieren können, dass die GT 430 viele gute Seiten hat - dafür aber in Spielen lahm ist. Und wer das an den Tag legt, wird direkt oder indirekt attackiert und die Fanboi-Ecke geschoben. Das ist unnötig.
 
Ist mir auch neu, dass Eyefinity nicht mit der Kombi VGA, DVI, DP funktionieren soll!

Wenn ich die englischsprachige Wiki lese, sollte es funktionieren - lasse mich aber gerne eines bessern belehren, falls ich einem Denkfehler unterliege!
 
Ich sehe, VGA als Triple geht [halt via Adapter und schlechterer Bildqualität]. Mea culpa.
 
Ich habe auch nichts gegen die Features der GT430 geschrieben oder ihr (wie manch anderer) die Daseinsberechtigung am Markt abgesprochen.

Ich fand es nur etwas befremdlich Features aufzuzählen, die wohl momentan in der Praxis schlicht nicht genutzt werden (können) - seis aus performancegründen oder weil entsprechende Endgeräte noch nicht am Markt vertreten sind!
 
Gleiches galt damals aber auch für Eyefinity, aufgrund der sehr wenigen und gleichzeitig noch bezahlbaren Monitore mit DP. Dennoch wurde es damals in den Himmel gelobt und als ultimatives Feature von einigen verkauft. Gleiches mit Gleichem. Von daher ist es durchaus ein Argument.
 
Ja den Aktiven gabs, der aber damals nur günstige 180Euro gekostet hat. Bei einer High End Karte relativ gesehen annehmbar, aber bei einer Lowendkarte ? Immerhin wären dann zwei Low Endkarten +Mehrstromverbrauch deutlich billiger als einen aktiven DPadapter zu nehmen.
 
So ist der Post auch gemeint ;)
Wie gesagt ist für den Officebereich Eyefinity kein wirkliches nützliches Feature gewesen, weil man mit zwei Low -Endkarten ohne aktiven DP günstiger gefahren ist und dann auch noch einen Monitor mehr anschliessen kann.
 
Das man die Karten mit der Konkurenz vergleicht ist schön, kann aber genauso wenig damit anfangen wie mit den Modellnummern der ATi Karten. Was ist das jetzt? Ein Nachfolger der 9500GT?

Man braucht nur die Kunden irritieren. Was ist eine 8600GT oder GTS250 gegenüber diesem GT430 Leistungsmäßig wert? Frag CB, da weiss mans auch nicht. Danke.
 
@y33H@

Mit NV-freundlich bezog ich mich auf die ATI Leistungsaufnahme, die aus unerklärlichen Gründen gestiegen ist mit dem neuen Testsystem. Daher stehen die NV Karten sowieso noch recht gut da obwohl sie mehr Strom brauchen und weniger Leistung haben.

ATi bietet mehr Leistung, verbraucht weniger Strom und kostet weniger Geld. Was gibt's da noch schön zu reden?
Die meisten hier hatten eh noch kein passives System, sonst würden sie solche Aussagen wie Lastverbrauch ist ja egal auf die paar 10-20Watt kommt es nicht an. Mit einem Accelero S1 sind 10Watt mehr kein Problem, oder man klatscht sich extra ein paar Lüfter mehr ins Gehäuse.

Das der Stromverbrauch auch den Kaufpreis in die Höhe treibt durch aufwändigere Kühlung kommt hier auch keinen in den Sinn. ATI hats da gut, kühler, leiser, einfacher passiv zu kühlen, günstiger, alles eine Folge der höheren Effizienz. Grad bei den low-End Karten wo jeder Cent zählt wirkt sich das enorm aus.

Eigentlich müsste im Fazit stehen. 1GB VRAM sind eher bedeutungslos in dieser Klasse
Ist es aber nicht, SC II freut sich über den Vram und bricht dadurch nicht in unspielbare ein. Aber für die meisten zählt hier wohl Preis/Leistung und daher wäre eine 512MB Version auch sinnvoll...
 
Zuletzt bearbeitet:
mh am anfang wird eine gt240 beschrieben in denn spezifikationen, ist ja auch logisch ist der gt430 wohl am ähnlichsten. aber in denn benches steht dann aufeinmal nur noch eine gt430 zone und normal. die unterscheiden sich zwar aber der vergleich zur alten karte fehlt komplett. nur der vergleich zu aktuellen ati karten ist gegeben. ka ahnung ob es nun ne normale gt430 ist oder ne gt240 die sollten sich in der praxis ja kaum unterscheiden.

aber sonst ist die karte echt nicht schlecht. die leute die was anderes sagen haben leider keine ahnung. es gibt auch leute die karten nicht nur zum zocken nehmen. die im low profil ist perfekt für nen htpc besonders wenn sich der preis mit der weile setzt.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
[...]Das der Stromverbrauch auch den Kaufpreis in die Höhe treibt durch aufwändigere Kühlung kommt hier auch keinen in den Sinn. ATI hats da gut, kühler, leiser, einfacher passiv zu kühlen, günstiger, alles eine Folge der höheren Effizienz. Grad bei den low-End Karten wo jeder Cent zählt wirkt sich das enorm aus. [...]

Die NV Karten müssen weder besser noch teurer gekühlt werden, NV hat bereits beim Launch des GF100 gesagt die GPUs sind für hohe Temperaturen ausgelegt und entsprechend entwickelt worden. Also wo muss eine NV GPU aufwendiger als eine ATI GPU gekühlt werden? Die ATI macht vielleicht schon bei 80°C schlapp die NV erst vielleicht erst bei 110°C. Der Mehrpreis wird möglicherweise daraus resultieren, dass die NV GPUs einfach teurer in der Produktion sind. Oder AMD mit Gewalt seine Lager leer haben will zum Start der 6000er Serie und deswegen so billig Verkauft, fakt ist seit NV mit Konkurrenz GPUs auf den Markt gekommen ist, fallen bei ATI die Preise ins Bodenlose, man fühlt sich also offensichtlich stark unter Druck gesetzt. Möglichkeiten gibt es genug.
 
P.S.: War es nicht bisher so, dass entweder der Name der GPU/Grafikkarte (ohne Hersteller) im Titel angeführt wurde, wenn das Referenzdesign zum Einsatz kam und bei veränderten Modellen sowohl Hersteller und Bezeichnung im Titel standen? Oder hab ich das fälschlicherweise nur so angenommen?
Das hast du dann falsch im Kopf. Das haben wir schon immer so gemacht wie dieses mal :)

Was ist daran unfair, @Wolfgang? Grafikkarten in dieser Leistungsregion dürften von mehr als 512MB kaum profitieren; warum darf man dann keine 512MB-Karte mit 1GB-Karten vergleichen?
Das es einer Grafikkarte in der Preisklasse egal ist, ob diese 256 MB, 512 MB oder 1.024 MB hat, da sind wir uns wohl beide einig. Nur ist das ganze, denke ich, nicht so einfach. Hätten wir jetzt die HD 5670 mit rein genommen, würden manche wieder meckern, da die Karte eigentlich absolut nichts gemeinsam mit der GT430 hat. Das ist eine ganz andere Käuferschicht. Und uns überrascht es auch, unabhängig vom Preis, dass so viele eine HD 5670 in den Tests sehen wollen. Hätten wir ehrlich nicht gedacht, werde das aber beim nächsten mal bedenken. Hätten wir nicht alle Karten mit aktuellen Treiber getestet, könnte man die HD 5670 einfach noch mit reinnehmen. Geht jetzt so aber leider nicht.

Genau das ist die Frage; warum werden die Zahlen einer im Speicher niedriger getakteten Zotac im Verbrauch, mit den besseren Leistungswerten einer Stock vermischt? Klar, ihr hattet keine Referenz Karte, verständlich, aber diese Mischung vor allem bezüglich Lautstärke geben ein völlig anderen Eindruck.
Wir haben die Karte in den sonstigen Messungen explizit "Zotac GeForce GT 430 Zone Edition" und nicht "Nvidia GeForce GT 430" genannt, damit jetzt zum Beispiel nicht jeder glaubt, alle Karten wären so leise.

Zumal ihr bei der 5570 als Beispiel auch 12 Karten im gesamten Test hattet, selbst Karten die doppelt so schnell und teuer waren.
Damals hatten wir für einen anderen Test noch zahlreiche Low-End-Karten getestet, darum waren die langsamen Karten mit dabei. Die Ergebnisse gab es einfach. Und dann hatte es sich auch angeboten, schnellere Karten mit reinzubringen. Nun standen wir vor der Wahl, das selbe zu tun, bzw. nur schnellere Karten mit reinzunehmen. Die alternative war, weniger Karten, dafür aber generell identische und neue Treiber (was sonst ja immer gefordert wird). Wäre interessant zu wissen was für Feedback gekommen wäre, hätten wir Mischmasch-Treiber mit mehr Karten ;)

Und allgemein gefragt, ähnlich wie hier, immer wieder bei den Partner Karten der Fall;
warum werden Übertaktete Karten, mit oft besseren Kühlsystemen immer nur dem Referenzmodell gegenüber gestellt? Warum nicht einer (oder mehrer) ähnlichen Karten der deren Partner, die ihr auch schon getestet habt?
Da gibt es verschiedene Gründe. Zuerst wollen wir die Übersicht gewährleisten. Mit gefühlten 100 Partnerkarten wird das ganze alles etwas wirr. Darüber hinaus soll ein Partnerkartentests sich nur auf die Partnerkarten konzentrieren um die es geht. Und nicht um irgendwelche andere. Darum haben wir in solch einem Test nur entsprechende Karten mit drin. Zumal wir andere oft gar nicht hätten. Wenn es dann lohnenswertere Alternatien von einer anderen Karte gint und wir die schonmal im Test hatten, erwähnen wir das im Fazit.

Es war zu diesem Test keine 430 im Referenzdesign vorhanden, deswegen konnte Computerbase auch keine Daten zur Leistungsaufnahme bringen, sondern nur die Daten von der Leistungsaufnahme der Zotac. Somit hat man einfach bei der Zotac den Speichertakt um 100MHz angehoben und praktisch ein Referenzdesign simuliert. Allerdings frage ich mich, warum man dies dann nicht auch bei der Leistungsaufnahme gemacht hat?
Das haben wir durchaus gemacht, nur nicht Online abgebildet. Das Ergebnis war, dass die auf 900 MHz übertaktete karte unter Last sensationelle 1(!) Watt mehr gebraucht hat. Das kann also auch ne Messungenaukgkeit gewesen sein. Und da wir schon oft erlebt haben, dass Herstellerkarten mit einer gewissen Frequenz oft andere Ergebnisse abliefern wie eine übertaktete Karte mit denselben Frequenzen, haben wir davon abgesehen, diese abzubilden.

Ja seit Juni werden die mit GDDR5 ausgeliefert - warum hier DDR3 Karten getestet wurde ist wirklich unklar. Da war bei mir der Test schon unten durch auf der ersten Seite
Eine 5570 mit DDR3 ist schon schneller als ne GT430, da ändert sich bei einer GDDR5-Karte dann auch nicht viel. Davon abgesehen, haben wir solch eine Karte gar nicht hier.
 
Zurück
Oben