News ATi Radeon HD 4890 schon im April?

ey sonst gehts euch gut? ihr wollt 20% mehr leistung bei 20% geringerem stromverbrauch? ok. dann will ich auch einen ferrari, der bitte soviel sprit verbraucht wie ein golf.

also entweder man hat viel leistung mit entsprechendem verbrauch oder eben weniger leistung mit geringerem verbrauch. wenn man eben die spiele auch geniesen will, dann muss man eben auch etwas tiefer in die tasche greifen.

und klar kann man bei neuen herstellungsverfahren den stromverbrauch senken aber das ist eben nur eine aufgebohrte karte und keine komplett neue -.-

und die, die hier nach stromverbrauch schreien sind dann die ersten, die die karte ewig übertakten, aber da ist dann ja der verbrauch egal
 
an alle die meinen eine 4870 braucht zu viel stom oder wird zu heiss

man könnte im ccc ja mal ein profil anlegen für idle betreib in dem man dir taktraten auf minimum reduziert und lüfter bei 25%

habe ich so auch und mein sys verbraucht idle 125-133w und mein 4870 wird dann ca 46° warm

wenn das amd gpu clock tool bei mir wieder funzen würde hätte ich nochma ca 10 watt weniger

zur 4890 hört sich ja interessant an aber abwarten und tee trinken wenn se da is weiss man mehr

mfg: dertoki
 
gerade die 4870 skaliert wunderbar mit gesteigertem gpu Takt. Der Speicher hat halt einen unglaublichen Durchsatz und der wird von der gpu @750 nicht Annaherend ausgenutzt.

Aber ich gebe vielen Kritikern recht 20%ist hochgegriffen. 15% sollte aber drin sein womit ein Schlagabtausch mit der 285 möglich werden würde. Bleibt nurnoch abzuwarten wie se denn wirklich wird.

Aber einen Punkt habsch noch. Der Kern ist der gleiche es bleibt bei den 160 5D shadern denn es wird nochimmer der rv770 verwendet der effektiv maximal 800shader hat(+100 zur redundanz)
 
noplan724 schrieb:
Ersetzt halt eine Glühbirne im Haus gegen eine Energiesparlampe und schon hat man die 5-30 Watt, die ein 4870 im bestfall mehr verbrauchtwieder drin (und zwar deutlich).

Aber eine Glühbirne ist nur nachts an - der PC läuft rund um die Uhr ;-p

Im Ernst: ATI sagt ja nicht, daß die Karte 20% schneller sein wird, sondern bis zu 20%. Ein himmelweiter Unterschied.
Und einfach zu erklären: Wenn man die verschiedenen Kartentypen vergleicht, sieht man ja immer wieder, daß, je nach Spiel, die Karten verschiedene Stärken und Schwächen haben.
Wenn also die Karte nun auf ein Spiel trifft, daß ihre spezifischen Stärken besonders anspricht, wird sie überpropotional von ihrer Leistungserhöhung profitieren (eben vielleicht die 20%), trifft sie auf eines der anderen Spiele, dann wird sie nur unterproportional profitieren.

Im Durchschnitt werdens sicher keine 20% sein - denn dann hätte ATI sicher mit dem dann noch höheren Maximalzuwachs geworben. ;)
 
@buuge

was für ein milchmädchenvergleich...

es geht hier hauptsächlich erstmal um den idle-verbrauch.
da kommt ferrari sicher auch an einen golf ran im leerlauf.
wenn dann noch zusätzlich zylinder (wie mercedes es teilweise macht) abschaltet.
verbrauchen sie vielleicht sogar wirklich gleich viel ;)

und dennoch...bei grakas kann man den chip in kleineren strukturen fertigen. das geht bei motoren wohl kaum ;) also ein schlechter vergleich in dem fall.


die überlegung mit der glühbirne ist genauso hohl.
denn ich könnte ja noch mehr sparen, wenn die graka sparsamer wäre ;)

mfg
 
warum mehr sparen? Schonmal nachgedacht was fürn unterschied es macht alle Glühbirnen auszutauschen?
nehmen wir mal 4 Glühbirnen pro Raum in einer 4 Zimmer wohnung als grundidee... Alle 60W gegen 18 W Birnen tauschen macht einen riesenunterschied und ich behaupte mal, dass der Computer schon sehr effizient ist im Vergleich zu Sachen wie Beleuchtung, Heizung Kühlschranken und Backöfen.
 
Schonmal dran gedacht, das dies hier Verlustleistung ist?
Jedes Watt, das gespart wird, muss nicht aufwändig aus dem Gehäuse raus geschoben werden.
Jedes Watt, das gespart wird, könnte auch gewiese Bauteile entlasten, die heutzutage schon an der Kotzgrenze laufen.

Was ist, wenn schon alle Glühbirnen gegen Neoröhren mit ätzendem grellweißem Flimmerlicht getauscht wurden?
Was ist, wenn der Kühlschrank schon auf kleinster Stufe in der kaum beheizten Küche steht? 1000€ ausgeben, um zu sparen?

Das tolle, ein niedrigerer Idle Verbrauch würde geschätze 1€ im Kartenpreis ausmachen. Mensch, wie viele Leuchtkörper man dafür tauschen könnte!

Diese immer wieder kehrende Verlustleistungsdiskussion ist super. Ist es so verwerflich, das es Leute gibt die sparen wollen? Naja geiz ist immer noch geil und FPS das einzige was zählt. Auf gehts, die 300W müssen nicht nur die 3D Grenze sein.
 
Was sollen denn bitte diese völlig sinnlosen diskussionen darüber wie hoch der Leistungszuwachs oder Stromverbrauch sind? Hat schon irgend einer die Karte getestet? Nein? Warum urteilen wir dann nicht erst dann über die Karte wenn wir WISSEN wie sie sich in der praxis schlägt und verzichten auf diese stupiden Diskussionen beruhend auf Schätzungen?

"bis zu 20%" ist bei weitem nicht das selbe wie "20%" und nur aus ein paar taktraten lässt sich ohne weitere Infos nicht die reale Leistung und schon gar nicht der Stromverbrauch ableiten.
 
@samsemilia

und was machste, wenn du schon alle glühbirnen getauscht hättest ;)
eine sparsamere karte, spart eben mehr als eine, die mehr verbraucht. was ist daran nicht zu verstehen??

nvidia macht das im moment einfach besser im highend-bereich. denk doch mal einfach nach.

deshalb kann man ja wohl hoffen, das sie es bei dieser karte besser machen. man man man.

mfg
 
Wobei natürlich für Leute, die sparen wollen - was überhaupt nicht verwerlich ist - high-end-karten vielleicht auch nicht die karte der wahl sein sollten. die 4670 bspw. hat akzeptable leistung bei geringem verbrauch.

es ist insofern schon fraglich, warum bei einer karte, die die performance-krone bei den enthusiasten übernehmen soll, so breit über die verlustleistung diskutiert werden sollte. man greift ja auch stromspar-komponenten nicht an, weil sie leistungsmäßig nurim mittelfeld spielen.

dem einen so - dem anderen so - und am besten jedem so, wie er es möchte :)
 
wo und mit was lest ihr denn ab wieviel watt euere pc-komponenten brauchen?

zur karte...nice...ca 220euro wird die hier dann bei uns kosten;)
also wenn sie verspricht was sie hält würde man diese bevorzugen als eine nVida karte;)
 
Zuletzt bearbeitet:
SamSemilia schrieb:
warum mehr sparen? Schonmal nachgedacht was fürn unterschied es macht alle Glühbirnen auszutauschen?
nehmen wir mal 4 Glühbirnen pro Raum in einer 4 Zimmer wohnung als grundidee... Alle 60W gegen 18 W Birnen tauschen macht einen riesenunterschied und ich behaupte mal, dass der Computer schon sehr effizient ist im Vergleich zu Sachen wie Beleuchtung, Heizung Kühlschranken und Backöfen.

Schonmal drüber nachgedacht, dass es auch wieder Geld kostet, eine Glühlampe gegen Energiesparlampe zu tauschen?
Wenn man eine 50Watt Lampe gegen eine 6Watt Sparlampe tauscht, spart man effektiv einiges an Leistung, aber ab wann haben sich diese 5€ überhaupt erst bezahlt gemacht?

Und ich muss Unyu mal recht geben, ein höherer/gesenkter Verbauch hat nicht nur was mit (Strom-)kosten zu tun, schonmal drüber nachgedacht, dass der hoher Stromverbrauch im Grunde für die hohe Geräuschkullisse mancher Karten Schuld ist?

mfg
 
Unyu schrieb:
Pickebuh
Es gibt keine Einheiten zum freischalten. Es gibt nur Redundanz, haben andere Chips wie GT200 auch.

Das einzig vorstellbare wäre, das AMD mal eben tatsächlich einen 10% breiteren RV770 aus dem Hut zaubert. Alleine der Gedanke ist jedoch recht abwegig. Wer macht so einen Aufwand für 10%.

Zustimm.
Aber da gibts halt dochnoch etwas was einen stutzig macht.
ATI nennt den neuen GPU nichtmehr RV770 sondern RV790.
Ob es sich dabei nur um eine verbesserte Version des RV770 handelt die halt einfach mehr Spannung verträgt und dadurch mehr Takt mitmacht oder ob wirklich noch etwas verbessert worden ist bleibt dabei offen.
Ich glaube es ist bei weitem nicht so schwer aus einem bestehend Tape einfach ein paar Standart-Shaders zusätlich zu integrieren.Schließlich muß dabei nicht die ganze Architektur verändert werden sondern es werden einfach ein paar Einheiten mehr parallel geschaltet.
Und es ist doch kaum der Rede wert wenn das Die etwas größer wird.
Manche behaupten sogar das dieser RV790 sogar 1000 SP haben soll was eine steigerung der Shaders um 25% ergeben würde und somit sind dann die 20% gut möglich.

Wann nun ein RV870 das Licht der Welt erblicken mag und ob dieser auch RV870 heißt steht in den Sternen.
Unter Umständen muß dieser RV790 eine länger Kluft überbrücken und könnte dadurch dochnoch etwas mehr Aufwand genossen haben als üblich.
Aber das ist mal wieder nur reine Spekulation und man wird sehen was der April/Mai so zu bieten hat.
 
Zuletzt bearbeitet:
4875 wäre noch sinnvoller gewesen, da hier nur eine OC Karte offeriert wird; der Sprung von 4850 auf 4870 ist da wesentlich deutlicher.
 
Ähm wir wissen doch garnicht was kommt ......WEn sich was an der Karte Ändert also Bautechnich ists angebracht
Bei nur Takt denke ich die hätten n XT oder so angehängt
 
also quasi nur eine übertaktete 4870 :(
Mit ihren 160W+ ein absolutes no-go!
Bevor ati nur sinnlos den takt anhebt sollten sie erstmal den core shrinken um den verbrauch bei max. 100W zu deckeln.

@xcom: xt und son kram gibts nicht mehr, schon länger.
 
Also ich kenne eigentlich keine Karte die sich nur durch den Takt unterscheidet bei ATI imo eher durch deaktivierte Shader etc.
Das es XT nicht mehr gibt ist mit schon klar
 
4850 und 4870 unterschieden sich nur durch den Takt (wenn man davon absieht, daß die eine GDDR3 und die andere GDDR5 benutzt).
 
Gut das da noch nichts zu einer neuen X2 steht binn aber mal gespannt wie das powerplay bei den 4890 Modellen arbeiten wird.
 
Zurück
Oben