News ATi Radeon HD 4890 schon im April?

SamSemilia schrieb:
Alle 60W gegen 18 W Birnen tauschen macht einen riesenunterschied und ich behaupte mal, dass der Computer schon sehr effizient ist im Vergleich zu Sachen wie Beleuchtung, Heizung Kühlschranken und Backöfen.
Du solltest 60-Watt-Lampen gegen eine kleinere ESL tauschen als eine mit 18 Watt :D
Und dann denke ich die Effizienz von verschiedenen Geräteklassen im Einsatz zu bestimmen dürfte schwierig sein, aufgrund des Problems passende Methoden zur Bestimmung der Werte zu finden. Bin mir aber ziemlich sicher dass unsere Transistoranhäufungen nicht besonders effizient sind, weil der Entwicklungsdruck zu hoch ist, als dass sich wirklich jemand um das Thema Gedanken machen könnte. Allerdings wurden in den letzten Jahren immerhin gewisse Fortschritte erzielt.

Unyu schrieb:
Was ist, wenn schon alle Glühbirnen gegen Neoröhren mit ätzendem grellweißem Flimmerlicht getauscht wurden?
Dann hättest du besser richtige ESL nehmen sollen...die "halten" auch länger als Highend-Grafikkarten :hammer_alt:

@topic
Derzeit existieren meiner Meinung nach noch nicht genug Informationen um Aussagen über die Leistungsfähigkeit zu machen. Die Änderung der technischen Bezeichnung auf RV790 lässt jedoch vermuten, dass es Änderungen am Chip gab und nicht nur einfach ein Shrink gefahren und die Taktraten hochgedreht wurden. Ob wirklich ein paar neue Ausführungseinheiten oder andere vergleichbare Modifikationen kommen, oder vielleicht (ähnlich wie beim RV670) ein bisschen qualitativ am Chip gefeilt wurde oder einfach nur Hotspots bekämpft wurden um die Taktraten besser hochdrehen zu können lässt sich schlicht noch nicht sagen.
Der neue Fertigungsprozess ist fast noch entscheidender, da es um diesen Spekulationen bezüglich angeblicher Probleme mit Leckströmen gibt, lässt sich da gerade über den Energiebedarf absolut keine Aussage machen, finde ich.
3D-Center weiß auch noch nix, aber über den auch sehr interessanten RV740 weiß man schon einiges mehr.
 
Wenn AMD seinen Partnern einen Leistungsvorteil von durchschnittlich 20% verspricht, die Taktraten aber laut geleakten Dokumenten nur um 13% (Chiptakt) bzw. 8% (Speichertakt) angehoben werden, dann spricht das doch stark für zusätzliche Recheneinheiten.
12 statt 10 SIMD-Prozessoren (d.h. 960 SPs und 48 TMUs) würden sehr gut passen.
 
ich vermute, dass neben dem shrink auf 40nm auch pp2 gefixt wurde. weitere veränderungen halte ich aber eher für unwahrscheinlich. bisher hat ati bei verhältnismäßig kleinen veränderungen ziemlich große sprünge in der namensgebung gemacht. darum vermute ich, dass die angegebenen 20% wenn nur unter idealbedingungen erreicht werden. solche aussagen werden vom hersteller selbst immer gern ein wenig geschönt ;)
 
Lübke schrieb:
darum vermute ich, dass die angegebenen 20% wenn nur unter idealbedingungen erreicht werden. solche aussagen werden vom hersteller selbst immer gern ein wenig geschönt ;)
Eine 20%-ige Leistungssteigerung ist bei einer Taktsteigerung von 13% unmöglich. Und die Informationen für die Partner sind normalerweise nie geschönt, sondern werden ordentlich erbencht mit typischen Benchmarks und Settings.
 
Eine Performancesteigerung um bis zu 20% ist durchaus möglich und wird auch so eintreten - warum auch nicht ?!
Wahrscheinlich wird es so sein, dass dieses Leistungsplus unter bestimmten Bedingungen erreicht wird, aber dies ist absolut nichts neues und wurde erst kürzlich mit der Vorstellung der GTX285 in
ähnlicher Weise gegenüber der GTX280 vollzogen. Ich denke, dass ATI auch bei den Speichertimings nachgebessert hat und somit noch mehr Leistung aus dem Chip herausquetscht. Was mich aber am meisten interessiert ist, ob
denen eine wirklich verbesserte Modellpflege gelingt: Gesenkter Strombedarf, kühlere Platine und eine deutlich verbesserte Lüftersteuerung. Diesbezüglich wird sich ATI schon einen Vergleich mit Nvidia gefallen lassen müssen. Wie auch immer, im Prinzip fiebert man doch ohnehin dem bereits kommenden DX11 Next-Gen Chip entgegen ;-)
 
MoZ schrieb:
War das Ironie? Wenn nicht, nein, relative Differenzen kann man nicht einfach akkumulieren. Nicht mal in der Theorie.

Man sollte erstmal abwarten, was am Chip überhaupt gemacht wurde. Wenn es wirklich ein RV790 ist, spricht ja einiges für Änderungen und nicht nur Anhebung des Taktes. Ansonsten hätte man es auch beim RV770 belassen können. Durchaus möglich, dass noch einige Optimierungen durchgeführt wurden. Auch im Hinblick auf den Entwicklungsfortschritt beim RV870. Bei linearer Skalierung der Performance nur anhand des Kerntaktes sind 20% jedenfalls nicht möglich. Und der Speichertakt hat nicht den entscheidenden Einfluss.
Daher sehe ich auch wenig Probleme, was Leistungsaufnahme und Abwärme betrifft. Bei einer neuen Revision kann man da noch so einiges rausholen. Und nein, ich gehe davon aus, man wird weiterhin den 55 nm Prozess verwenden. Vermutlich wird die 4890 diesbezüglich trotzdem nicht viel hungriger wie die 4870 unter Last sein. Dann hoffentlich mit besser funktionierendem Powerplay wie zB bei der 4670. Also insgesamt effizienter als die GTX 280/285 bei vermutlich vergleichbarer Performance.

mabosa92 schrieb:
Ati steigt ja sowieso auch bald auf CUDA um und vllt auch PhysX
AMD wird weder auf CUDA noch PhysX umsteigen. Beides hat keine Zukunft, weil proprietäre nVidia Technologien. AMD setzt verständlicherweise auf OpenCL, Havok und DirectX.

die.foenfrisur schrieb:
lesen bildet:
https://www.computerbase.de/2009-01/test-nvidia-geforce-gtx-295/24/#abschnitt_leistungsaufnahme

eine 280er verbraucht im idle weniger wie man hier schön sehen kann. die 285er noch weniger. unter last wendet sich das blatt etwas, aber eine 280er ist auch etwas schneller.
Nur hilft dir das überhaupt nicht weiter, da eben das gesamte System gemessen wird und hier noch andere Faktoren zum tragen kommen, die das Ergebnis beeinflussen. Verwende zB andere Karten und schon kann es ganz anders ausschauen. Den bisher einzigen brauchbaren Vergleich zwischen RV770 und G200 habe ich bei xbitlabs gesehen. Die haben wirklich nur den Chip gemessen. Den Test dazu findest du hier. Fazit, GTX 260 braucht etwas mehr und GTX 280 deutlich mehr Saft unter Vollast als die HD 4870. Was auch relativ plausibel ist. Der G200 hat immerhin fast 50% mehr Transistoren.
 
SamSemilia schrieb:
warum mehr sparen? Schonmal nachgedacht was fürn unterschied es macht alle Glühbirnen auszutauschen?
nehmen wir mal 4 Glühbirnen pro Raum in einer 4 Zimmer wohnung als grundidee... Alle 60W gegen 18 W Birnen tauschen macht einen riesenunterschied und ich behaupte mal, dass der Computer schon sehr effizient ist im Vergleich zu Sachen wie Beleuchtung, Heizung Kühlschranken und Backöfen.

Naja effizient nenn ich was anderes, weißt du wieviel watt bei einer CPU/GPU in reine leistung umgewandelt wird? Ich schätze mal ca. 0,00001W der rest ist einfach nur abwärme, bei beleuchtung, gibt es auch 8W lampen die ihren zweck erfüllen :D, aber sehr effizient der rechner, muss ich doch sagen, fast schon ein Perpetuum Mobile ^^, einen Kühlschrank könnte man z.b noch gegen ein neueres Modell austauschen, falls man ein sehr sehr altes hat, das spart dann auch nochmal strom, was das ding ja eh, rund um die Uhr läuft läuft ^^.

Bitte verzeit meine schreibweise :(

Mfg KA1234 ^^, und gute nacht
 
Zuletzt bearbeitet:
Also ich versteh die ganze Energie spar Flamerei hier sowieso nicht.

Wenn sich jemand ein Auto kauft mit 350 PS dann denkt der doch auch ned dran das die Kiste vielleicht 20 liter im Stadverkehr braucht, nein der will Leistung haben wenn er sie braucht und dann ausreichen da ist es ihm auch egal wenn das teil dann lauter wird.
Warum? Ganz einfach, weil es ein Hochleistungsgerät ist.
Vorteil überdimensionierte Leistung bei bedarf, Nachteil meist hoher verbrauch gepaart mit sehr lautem auftreten.

Leute das ist High End, das ist so wie Maserati, Königsegg, und Co. da fragt auch keiner ob die jetzt nen lieter mehr brauchen oder ned.
Wer damit ned klar kommt der muss Fahrrad fahren und wer Strom sparen will der muss halt zu einer Midrange Karte wechseln.

@topic: Bin schon gespannt was die karte wirklich leistet und ob man damit den 280er Modellen die Stirn bieten kann. Von den tackten hört sich das ganze ja schon recht gut an dann noch ein bischen OC und man hat Rohleitung ohne ende. :evillol:

Mfg ZeRo
 
Ich mach einfach im Zimmer das Licht aus, wenn ich die neue HD4890 hab dann passts schon^^.
Ne ich denke so kleinlich sollte man nicht werden.
Ich denk die haben auf jeden Fall ne Weg gefunden n bissl Strom zu sparen.
4890x2 wär schon n Schmankerl, glaub aber nich dass die kommen wird. Die alte X2 hat ja eigentlich genug Leistung und kann sich mit der GTX295 messen. Lieber noch n paar schöne Treiber.
 
gruffi schrieb:
Nur hilft dir das überhaupt nicht weiter, da eben das gesamte System gemessen wird und hier noch andere Faktoren zum tragen kommen, die das Ergebnis beeinflussen. Verwende zB andere Karten und schon kann es ganz anders ausschauen. Den bisher einzigen brauchbaren Vergleich zwischen RV770 und G200 habe ich bei xbitlabs gesehen. Die haben wirklich nur den Chip gemessen. Den Test dazu findest du hier. Fazit, GTX 260 braucht etwas mehr und GTX 280 deutlich mehr Saft unter Vollast als die HD 4870. Was auch relativ plausibel ist. Der G200 hat immerhin fast 50% mehr Transistoren.

wenn es immer das gleiche system ist, dann sollte es nur geringe unterschiede geben ;)

bei ht4u gibt es auch eine schöne übersicht.

http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index13.php

eine 280er gtx ist 10-20% schneller im schnitt und zudem noch in 65nm und verbraucht nur 13% mehr. das ist also mehr als gut und nicht "deutlich mehr" ;)
vielleicht sind ja von den (50% mehr) transitoren auch ein paar ungenutzt. (cuda, physx & co.)

ati hat halt das problem mit dem scheinbar energiefressenden gddr5-speicher.
wobei die 4850 auch kein stromsparwunder ist.

zum thema energiesparende hardware:
ihr solltet mal nicht immer so egoistisch nur an euren geldbeutel denken.
es geht hier sicher auch um umweltschutz.
selbst wenn energie kostenlos wäre, sollte es für uns nicht gleich bedeuten, dass wir atom- & kohlekraftwerke ohne ende bauen dürfen ;)
da zählt quasi jedes watt, was wir einsparen können ;)

mfg
 
Zuletzt bearbeitet:
Die Lösung ist doch ganz einfach wenn man Strom sparen will. Die Arbeit, das Surfen und alles was kaum Rechenleistung benötigt wird am Laptop, oder dem 2.Rechner gemacht.
Wenn man Spielen will, haut man seine Höllenmaschine an und los gehst. Ist wie mitm Polo durch die Stadtfahren und den Sonntagsausflug mit dem Sportwagen.


Cu
Lasyx
 
@ Lasyx

Toller Tipp :rolleyes:
Nur weil Hersteller es nicht hinbekommen, Komponenten zu entwickeln, die wenig Strom im idle brauchen, soll ich mir einen 2. Rechner holen oder am Notebook arbeiten...


@ x-zero2006

Was heißt hier Energiesparflamerei? Was hat Kritik mit flamen zu tun?
Wenn ein 350PS Motor während er nichts tut auch enorm viel Benzin verbraucht, dann läuft definitiv etwas falsch!
Und wenn manche Grafikkarten im idle so viel verbrauchen, wie ein kompletter Office-Rechner, dann darf man das auch kritisieren!
 
Ich mach das so. Und jeder der sich ein wenig länger mit PCs befasst hat wohl ein paar Komponenten über um sich einen leisen sparsamen Rechner zusammenzubasteln. Und wenn nicht, ist das keine so große Anschaffung, z.B. bei den heutigen Laptoppreisen.
Man kann immer den Hauptmonitor dazuschalten und ne ext Tastatur und Maus sollten auch kein Problem darstellen. Schon hast du eine Officemaschine, die Stromsparend ist, und sogar mit 2 Monitoren betrieben wird.

Und den Herstellern das in die Schuhe zu schieben ist schon recht einfach. Wenn der Konsument auf Stromsparen aus ist, wird er das auch vom Anbieter -mit Verzögerung- bekommen.

Cu
Lasyx
 
Das ist ja schön und gut, wenn du das machst. Ich will nicht 2 Produktivsysteme, mit denen ich arbeite, gleichzeitig Pflegen müssen...
Und für den Preis eines 2. Systems kann ich auch eine stromhungrige Grafikkarte für die nächsten Jahre verbauen...
Der Konsument ist schon seit Jahren auf Stromsparen aus. Warum denkst du, sind die Prozessorhersteller dahin über gegangen, die Leistung pro Watt anzugeben?
Im Grunde sind es nur die Grafikkartenhersteller, die dem Ruf in den meisten Fällen nicht gefolgt sind. Dass es auch anders geht sieht man ja an einer Hand voll "Ausnahmekarten".
 
Mit dem 2.Sys hast du natürlich recht. Auch wenn ein Laptop mehr vorteile mit sich bringt als nur Stromsparen.
Mir taugts, und ich kann leise und stromsparend meine Officearbeiten erledigen.
Ich weiß schon, dass der Ruf nach Stromsparen immer lauter wird, aber solange sich die Absatzzahlen solcher Ausnahmekarten nicht drastisch erhöhen, werden die Hersteller auch nichts ändern.

Cu
Lasyx
 
die.foenfrisur schrieb:
wenn es immer das gleiche system ist, dann sollte es nur geringe unterschiede geben ;)
Och, da können sich auch recht schnell ordentliche Unterschiede aufgrund von minderwertigen Komponenten oder Verlustleistung ergeben. Das Problem ist, dass viele Leute in solche Übersichten Allgemeingültigkeit interpretieren. Das kann von Exemplar zu Exemplar aber ganz unterschiedlich sein. Und wie gesagt, ich rede nicht nur von 5 W oder ähnlichem.

die.foenfrisur schrieb:
Ja, nur wurden dort wohl entgegen den Herstellervorgaben die Wandler überbelastet. Das ist eigentlich wenig aussagekräftig und sagt dir nicht viel über die GPU.

die.foenfrisur schrieb:
zum thema energiesparende hardware:
ihr solltet mal nicht immer so egoistisch nur an euren geldbeutel denken.
es geht hier sicher auch um umweltschutz.
selbst wenn energie kostenlos wäre, sollte es für uns nicht gleich bedeuten, dass wir atom- & kohlekraftwerke ohne ende bauen dürfen ;)
da zählt quasi jedes watt, was wir einsparen können ;)
Dann solltest du solche Tests wie bei HT4U aber auch nicht beachten. Furmark ist graue Theorie und hat mit der Praxis nicht viel zu tun.
 
Die 4890 ist total schwachsinn. Einen neuen Chip zu entwickeln der NUR auf einer einzigen Karte und dann nur im High End Bereich verkauft wird ist 1.) unlogich und 2.) wiederspricht ATIs Prinzipien.

Ich bin immer noch der Meinung das ATI ein komplettes Refresh bringt. Mit 4950, 4970 und 4970 X2 (RV790) und 4750 und 4770 (RV740). Jeweils alles auf 40nm. Die Gründe dafür sind total offensichtlich und ATI wäre dumm es anders zu machen. 1) der 40nm ist verfügbar 2) die Verkaufsraten der akutellen Generation nehmen ab (die 55nm GT200) 3) GDDR5 is billiger und verfügbarer & schneller 4) man bringt erst im Herbst die neue 5XXXer DX11 Generation bis dahin nur eine neue Karte?
 
Zurück
Oben