Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Gestern ist meine Auktion zum Verkauft meiner HD2xxx - Karte ausgelaufen weil ich mir eine aus der 3000er Reihe holen wollte und nun wird die 4000er angekündigt. Unschönes Timing
Man kauft sich eine neue Grafikkarte (oder andere Komponenten) wenn man sie braucht. Es wird immer so sein, dass was neues angekündigt wird, das besser ist. Wenn du auf die 4000er Serie wartest, wird wieder was neues vorgestellt usw...
Durch das 256bit Interfache bleiben die Chipausbeuten einiges effiizienter als bei einem 512bit Interface, aber AMD gleicht das wiederum mit GDDR5 Speicher aus, um Highend Brandbreiten zur Verfügung zu stellen. Keine schlechte Idee. Dazu weitere Stromspartechniken, was der Geldbeutel gerne sieht.
Ich bin gespannt.
Für den Mainstream-Bereich ist der RV740 vorgesehen, auf dem die Radeon HD 4670 und Radeon HD 4650 basieren. Diese Modelle bekommen nur noch 48 (5D) Shadereinheiten spendiert, hinzu kommen 12 ROPs und 24 Textureinheiten, dafür wird erstmals in dieser Preisklasse von etwa 100 Euro das Speicherinterface auf 256 Bit vergrößert.
@Berberjesus:
Nur Taktrate zu sehen ohne Anzahl der ROPs Shaderunits und TMUs ist absolut daneben. Die aktuellen Low End Karten haben einfach viel zu wenig Shaderleistung und Füllrate, da wäre mit mehr Datendurchsatz beim RAM auch nicht viel mehr drin.
Und wenn die 1,8 GHz beim RAM Realtakt sind statt effektiver Takt käme man auf 115,2 GB/s Datendurchsatz wie bei McBain schon geschrieben.
Wenn du dir dann noch anschaust, dass die 2900XT so gut wie nie schneller als eine 3870 ist, sondern meistens sogar langsamer müsste eigentlich klar werden, dass gigantischer Datendurchsatz heute nicht mehr so wichtig ist wie vor ein paar Jahren.
@topic:
Weiter so AMD, auch wenn meine 3850 dann demnächst schon zum alten Eisen gehört. Zumindest wenn die Werte stimmen wird die neue Generation je nach Preissegment etwa doppelt so schnell wie bisher. Hatte aber auch damit gerechnet, dass vor dem Sommer keine wirklich neuen Karten mehr kommen.
Wahrscheinlich sieht das Referenzdesign der X2 keinen Kühler vor, wie bei den Athlon Black Editions. Wäre für mich kein Wunder, wenn AMD die Hersteller anweist, 3rd Party Lösungen zu verbauen, denn schließlich kann wohl kein normal denkender Mensch die Verantwortung für 250W Wärme übernehmen *lol*
wenn der GDDR5 wirklich soviel Takt von Beginn an ab kann... dann ist das mt den 256 Bit wirklich kein Problem mehr. Zumindest wenn man die Shaderleistung im Verhältnis zum Speicher nimmt. Heute ist ersteres eh von weit mehr Bedeutung.
Solangsam wird es auch zeit das 1 Gb ram auch bei High End Kommt. Bei Midrange einfach unsinn. Was aber mögen 2 Gb GDDR5 kosten? Muss die X2 auch alles doppelt in den Vram packen oder kann sie die vollen 2 Gb auch sinnvoll nutzen?
Unter 20Watt im Idle, Chiptakt über 1000MHz und Speichertakt über 2000MHz.
Das hört sich für mich erstmal sehr innovativ und schnell an, ich bin echt gespannt, was der Leistungsvergleich zwischen der neuen Nvidia-Generation und ATI's 4000er hervorbringt.
Was mich aber abschreckt, sind lediglich die Zahlen der Leistungsaufnahme. Die Anschaffungspreise der ATI's sind nach meiner Auffassung sehr moderat gehalten. Nvidia's Karten werden da wohl noch ein bisschen mehr kosten.
man man man....die sollen doch erst mal den schrott verbessern, den die schon raus gebracht haben, und nicht den markt mit neuem schrott bombardieren....
Also der Satz mit dem Stromverbrauch ist eindeutig die beste Nachricht. Mal abwarten was sich tut, und in wie weit sich diese Spezifikationen noch ändern werden. Ich bin auf jeden Fall gespannt, was sich bei ATi/AMD tut ...
Naja ein paar Shader mehr würden wohl nicht schaden oder? =/ scheint keine grosse Leistungsrevolution zu werden... mal schauen was sie danach bringen (oder nVidia so rausbringt... naja da bin ich auch eher skeptisch)
Die Radeon HD 4850 rendert mit einem Chiptakt von 800 MHz, der GDDR5-Speicher ist dagegen auf 512 MB reduziert und taktet mit 1.100 MHz. Zudem soll der Stromverbrauch um 30 Watt unterhalb des großen Bruders liegen.
Immer diese Dual-Chip Lösungen, diese finde ich echt unpassend für die Next Gen. Technologisch gesehen. Einen Multi-Core GPU sollte es mal bald geben und nicht immer diese Übergangslösungen.
Seint ein heisser Sommer zu werden !!!!!!
Aber in Ernst bin mit meinen 2900ern schon gut bedient-und der Gesamtverbrauch bei
Vollast ist immernoch knapp unter 400 W