News Auch Radeon HD 4750 benötigt Stromanschluss

Den vorhandenen Stromanschluß, so günstig er sein mag, sehe ich als Nachteil an. Solche Karten sind wie geschaffen für Gelegenheitsspieler und Leute, die ihre alte Hardware ein letztes Mal aufrüsten wollen.
Dazu gehört, dass man sein altes Netzteil möglw. übernehmen kann. In diesem Fall muss man aber extra einen 6-7 Euro teuren Molex auf PCI-Express Adapter dazu kaufen und hat zusätzlichen Kabelsalat im Gehäuse.
R.I.P. Hd4670 :p
 
Biste verrückt,
die 4870 gibt es ja schon ab 130 Euro (512 MB GddR5)
Wie teuer wird dann erst die 4750/70 sein?
 
In diesem Fall muss man aber extra einen 6-7 Euro teuren Molex auf PCI-Express Adapter dazu kaufen und hat zusätzlichen Kabelsalat im Gehäuse.

Hmm, normalerweise sollte ein solcher Adapter doch auch bei der Grafikkarte mitgeliefert sein. Jedenfalls ist das gängige Praxis bei den Hestellern.

Von daher würde ich eher davon ausgehen, dass der RV790 entweder auf beiden verbaut wird (bzw. einfach untertaktete Versionen der HD4890 als HD4870 verkauft werden) oder die 70er ausläuft.

Ich weiß ehrlich gesagt nicht, inwiefern der RV790 tatsächlich ein komplett neuer Chip oder eher einfach ein "hochgelabelter" RV770 im neueren Stepping mit höherer Spannung ist. Dass mit der RV740 die womöglich teure Resteverwertung des RV770 auch bei der 4850 eine Ende haben könnte, ist auch wahrscheinlich, aber auf die preisliche "Zwischenlösung" 4870 als Modell wird man wohl kaum verzichten wollen. Dafür ist sie für viele Kunden eigentlich zu attraktiv. Dass der RV790 aber letztlich auf beiden Modellen landen könnte, kann ich mir aber auch vorstellen.
 
Zuletzt bearbeitet:
Eben, der Adapter liegt in der Regel ohnehin bei.

Fakt ist leider, dass immer mal wieder Boardhersteller negativ dadurch aufgefallen sind, dass Karten, deren Leistungsaufnahme nah am Limit der maximal vom PCIe Slot zur Verfügung zu stellenden Leistung liegt, schlicht nicht sauber gelaufen sind. Damit hatten wir schon oft Ärger in der Vergangenheit, letztlich beschwert sich der Kunde ja beim Händler und nicht beim Hersteller. Sehe das sehr positiv, dass AMD sich hier nicht auf die Boardhersteller verlässt, sondern auf Nummer sicher geht. :)
 
rumpel01 schrieb:
Hmm, normalerweise sollte ein solcher Adapter doch auch bei der Grafikkarte mitgeliefert sein. Jedenfalls ist das gängige Praxis bei den Hestellern.

MatzTeCow schrieb:
Eben, der Adapter liegt in der Regel ohnehin bei.

Hoffentlich :) Dennoch wäre es ohne eleganter, ohne auszukommen ;) Leider reicht mir diese Leistungsklasse ohnehin nicht aus.
 
Rebranding vs Innovation :D

aber das mit der 8800gt/9800gt ist nun mal echt schwach
 
Fakt ist leider, dass immer mal wieder Boardhersteller negativ dadurch aufgefallen sind, dass Karten, deren Leistungsaufnahme nah am Limit der maximal vom PCIe Slot zur Verfügung zu stellenden Leistung liegt, schlicht nicht sauber gelaufen sind. Damit hatten wir schon oft Ärger in der Vergangenheit,...

Spontan fällt mir dazu nur die Gigabyte 8600GTS Silent-Pipe 3 ein. Das war damals die einzige 8600GTS ohne Externen-Stromanschluss. Bei welchen Karten bzw. Board-Herstellern sollen denn ähnliche Probleme aufgetreten sein ? Mir ist dazu nur diese Ausnahme bekannt.
 
aber das mit der 8800gt/9800gt ist nun mal echt schwach

würd ich nicht grad behaupten. durch immer wieder kleine verbesserungen kann der g92 nach wie vor mit atis performance-klasse mithalten. erst im highend wird die luft dünn, aber wohl in erster linie, weil nv selbst den g92 durch bandbreitenbeschränkung einbremst (256bit statt 320/384bit bei den alten g80, um nicht die eigene gtx260 ad absurdum zu führen ;)

die 9800ge wird, wies aussieht, der kommenden 4750 sowohl in sachen verbrauch als auch in sachen leistung das wasser reichen können. und das obwohl beim g92 der shrink auf 40nm noch aussteht. gegen eine so gelungene karte wie die 4750 finde ich das schon beeindruckend.

nach meiner einschätzung würde ein g92 in 40nm mit gddr5 speicherkontroller eine gtx285 vom sockel stoßen können, was die reine geschwindigkeit angeht. und laut nv roadmap steht ein g92 in 40nm tatsächlich auf dem plan.

imho ist der g92 der erfolgreichste und vielseitigste chip der letzten jahre. er wird wohl bis zur einführung von dx11 weiterhin die gehobene mittelklasse bei nv beherschen.
die namensgebung der fertigen karten allerdings ist imho weit weniger genial^^
 
Zuletzt bearbeitet:
Der externe Stromanschluss geht vollkommen in Ordnung. Ist zwar nicht allzuwahrscheinlich, aber Mainboardhersteller waren/sind ja auch nicht darauf vorbereitet, dass der Verbraucher plötzlich eine Grafikkarte ohne ext. Stromanschluss in den PCIe-Slot steckt. Einfach darum, weil es eben kaum solche Karten gibt. Und wenn, dann im Low-End-Segment, also "Verbrauch" < 60 W.
Von daher erscheint es mir durchaus möglich, dass da manche "geschlampt" haben, einfach um Herstellungskosten zu senken.

Außerdem sollte man wie schon gesagt "Die Umweltverträglichkeit nicht am externen Stromanschluss" messen. Ist halt mal (leider?) im Moment "in", einen auf Green-Power zu machen. Und solche Produkte dann mit bis zu 50%-igem Preisaufschlag zu verkaufen. Sieht man ja an Intels Core 2 Quad xxxx-s CPUs. Man könnte ja auch alternativ den Fertigungsprozess verfeinern, um so die Streuung zu verringern. Nicht immer selektieren. :)


Achja, noch was zu der Folie und nVidias "Umbennenungsstrategie": Es ist ja nun mal so, das nVidia mit der 88er Reihe einen großen Wurf gelandet hat. Sicher, man sollte sich nicht auf seinem Erfolg ausruhen, aber sollte es nicht zu denken geben, dass der G80 bzw. G92 3 Jahre nach dem Release und 3 neuen Kartengenerationen seitens AMD/ATi immer noch mit diesen mithalten kann?
Ich will jetzt ja nicht sagen: "Armutszeugnis" seitens ATi, aber wieso Unmengen in Neuentwicklungen verschwenden (-> AMD), wenn ein einfaches Update/Shrink (-> nVidia) immer noch ausreicht.


Edit: Verdammt, ich tipp nicht schnell genug. Oder der Browser aktuallisiert nicht. :D
 
Zuletzt bearbeitet:
Aber die 9800GT gauckelt dem Käufer eine High-End Karte vor, die sie leider nicht mehr ist. Eine Umlabelung in 9600GT/9700GT wäre angemessener gewesen, da sie ja in seit der neuen Gen "nur" noch Mid-Range ist (was Ansichtssache ist, da die Leistung ziemlich hoch ist)
 
naja bei der namensgebung muss man n bissel differenziert schauen. die namen sind eher für die kunden, die sich nicht so gut auskennen und nicht wissen, was hinter den bezeichnungen steckt. die 8800 hatte nunmal ihr debüt irgendwo zwischen der 1900 und 2900 von ati und inzwischen ist ati bei der 4000er reihe angelangt. die kunden wollen ja keine "alten" karten kaufen, sondern was aktuelles. dass eine 8800gt noch top aktuell ist, muss man dem unwissenden käufer klarmachen. da macht ein neuer name schon sinn, auch wenn sich am produkt selbst nur wenig geändert hat.
 
Zwirbelkatz schrieb:
Dazu gehört, dass man sein altes Netzteil möglw. übernehmen kann. In diesem Fall muss man aber extra einen 6-7 Euro teuren Molex auf PCI-Express Adapter dazu kaufen

Das kommt davon, wenn man des Geldes wegen nur bulk kauft. Das ist sparen am falschen Ende...
 
Das ist für die Typen, die mit dem Ram Protzern verdandt sind ... *höhö* ich hab ein 6Pin anschluss, *hihi* ich auch *hehe* ich hab 6+8 ...

ein 6Pin anschluss heißt ja nicht das mehr als 75W verbraten werden, nur das mehr bereitsteht ... und seis damit bei OC auch 76W drin sind -.-
 
noskill schrieb:
Hat den 6Pin Stecker nicht jedes neue Netzteil?

Darum geht es bei dieser Frage nicht. Es ist einfach eine Prinzipfrage. In Zeiten von jährlichen Strompreiserhöhungen um 30% und Energieeinsparungen bei so ziemlich jeder Technik schaffen es die Grafikkarten-Hersteller, dieses Thema VÖLLIG zu ignorieren.

Als die ersten richtigen "Gamer-PCs" mit der 3dfx Voodoo (1996) zusammengeschraubt wurden, war deren Mehrverbrauch gegenüber einem Office-PC völlig bedeutungslos und blieb für die nächsten 7 Jahre (bis 2003) eher unbedeutend. In den nächsten 3 Jahren (bis 2006) sorgten dann gegenläufige Entwicklungen bei CPUs und GPUs dafür, dass der Anteil der Grafikkarte auf 30 bis 50% des Gesamtverbrauchs stieg. Tja, und inzwischen hat eine von vielen hier als "Lowend" verspottete Radeon 4670 einen Verbrauchsanteil von fast 50% und Monster wie eine Radeon HD 4890 X2 gar einen von 65-75%.

Noch schlimmer sind allerdings die peinlichen Idle-Werten von oftmals 30-50W. Der "Energy Star" erlaubt ab Juni noch ganze 65W Idle-Verbrauch für den gesamten PC. Für einen Rechner ohne dedizierte Grafikkarten überhaupt kein Problem, hier gehören inzwischen unter 50W zum guten Ton und so manche Grafikkarte verdoppelt diesen Wert.

Ähnlich wie in lange Zeit in der Autoindustrie wird hier die Leistung nicht gesteigert, indem man die vorhandenen Ressourcen besser nutzt, sondern indem man einfach immer mehr von diesen verbraucht. Was dies beim Auto heute für Folgen hat, ist allgemein bekannt - und die Grafikkarten-Hersteller arbeiten tatkräftig daran, dass sie das gleiche Problem bekommen.
 
TheK schrieb:
Als die ersten richtigen "Gamer-PCs" mit der 3dfx Voodoo (1996) zusammengeschraubt wurden, war deren Mehrverbrauch gegenüber einem Office-PC völlig bedeutungslos und blieb für die nächsten 7 Jahre (bis 2003) eher unbedeutend. In den nächsten 3 Jahren (bis 2006) sorgten dann gegenläufige Entwicklungen bei CPUs und GPUs dafür, dass der Anteil der Grafikkarte auf 30 bis 50% des Gesamtverbrauchs stieg. Tja, und inzwischen hat eine von vielen hier als "Lowend" verspottete Radeon 4670 einen Verbrauchsanteil von fast 50% und Monster wie eine Radeon HD 4890 X2 gar einen von 65-75%.

So würde ich das nicht sagen. Sonst könnte man der Automobilbranche auch sagen, warum gibt es einen Ford Fokus mit 305PS? Warum schaffen die es nicht einen kleineren Fokus RS zu verkaufen?

Ganz einfach, die Spieler wollen nun mal schnelle Grafikkarten haben und die verbrauchen mehr Energie. Man kann auch eine 8500GT oder 4550 mit 25Watt kaufen.
 
eben. das wettrennen um die "performancekrone" ist nunmal mit doppel-gpu karten ausgeartet, weil sich immer noch käufer für sowas finden. da geht es nur um den "längsten". verbrauch und andere nachteile sind diesem kundenkreis vollkommen egal.

aber mit der 47x0 und der 9x00ge gehts imho wieder in die richtige richtung. moderater verbrauch und daraus die maximale leistung ziehn. so kanns von mir aus weitergehn :)

aber das sind unterschiedliche entwicklungen für unterscheidliche interessenkreise. wir werden sehn, was sich auf dauer behaupten kann. imho werden die leistungsmonster aber auf jeden fall auch in zukunft die schlagzeilen bestimmen.
 
Die 75W des Slots teilen sich aber in 12V-Leistung und 5V-Leistung auf - braucht die Karte aber nun z.B. die 5V kaum (gar nicht), dann bringen einem diese runden 12W gar nichts (glaube der Wert müssten hinhauen).

Die restlichen 62W über den Slot sind dann zu wenig, also muss der extra Anschluss her.

So würde ich mir das ganze erklären.
 
brabe schrieb:
Ganz einfach, die Spieler wollen nun mal schnelle Grafikkarten haben und die verbrauchen mehr Energie.

Richtig. Schwanzverlängerung oder -ersatz als Verkaufsargument :(


RubyRhod schrieb:
Die 75W des Slots teilen sich aber in 12V-Leistung und 5V-Leistung auf - braucht die Karte aber nun z.B. die 5V kaum (gar nicht), dann bringen einem diese runden 12W gar nichts (glaube der Wert müssten hinhauen).

Die restlichen 62W über den Slot sind dann zu wenig, also muss der extra Anschluss her.

Man könnte natürlich auch einfach auf diese 12W verzichten - wesentlich schneller als die 4670 ist das Ergebnis allemal...
 
Zurück
Oben