News Details zur Radeon-HD-4000-Serie von AMD

Also bei ATi sieht es bei weitem nicht so schlecht aus wie bei AMD...
ATi hat durch die 3000er-Serie viel aufgeholt!

@kisser
Es fehlt vielleicht ein bisschen an Entwicklungsgeldern, aber man ist doch schon ziemlich weit entwickelt!
Intel steigt jetzt auch auf HyperTransport um, das bestätigt die "Technik" von AMD...
ATi produziert in 55nm und wird auch GDDR5 einsetzen, der ja anscheinend einen höheren Leistungssprung als von GDDR3 zu GDDR4 bringen soll!

So weit ist AMD/ATi nicht entfernt!
 
was hat der fertigungsprozess bzw. der verfügbare speicher mit einem etwaigen "entwicklungsrückstand" zu tun?
auf diese hat nvidia genauso zugriff wie ati
 
ich definiere gar nichts, deswegen die anführungsstriche und der zusatz "etwaige"

nur der speicher und die fertigung ist kein argument für oder gegen einen hersteller da diese von dritten firmen kommen und beide drauf zugriff haben
 
@bensen
Das ist zwar nur meine persönliche Meinung, aber nach dem, was ich bei der letzten GPU-Generation von AMD und Nvidia gesehen habe, kriegt AMD einen kleineren Herstellungsprozess bei den Chipherstellern (55nm <-> 65nm) als Nvidia - keine Ahnung warum, vielleicht braucht oder will Nvidia den kleineren Prozess auch gar nicht.

Die Situation in Sachen AMD vs. Nvidia ist zurzeit imo sehr nervig, weil beide Hersteller fast keine neuen Informationen veröffentlichen. Kann sein, dass beide Firmen in zwei bis drei Monaten neue Generationen auf den Markt werfen, aber es könnte auch noch bis zum Herbst oder gar Winter dauern (was Nvidia derzeit neu veröffentlicht ist ja kein großer Architekturwechsel).

Gerade die AMD-Infos über die Zukunft der Radeon-Karten sind noch spärlicher als früher unter ATI.
 
ich würde mal behaupten sie wollen kein risiko mehr eingehen
seit dem nv30 desaster war nvidia immer vorsichtig und hat für die highend-karten immer nen konservativen herstellungsprozess gewählt

ati sah mit der agressiveren wahl ja auch nicht immer sehr glücklich aus
da musste dann auch mal ein produkt nach hinten verschoben werden
 
nVidia taktet die Shader mit doppelter Geschwindigkeit wie die anderen Bausteine auf dem Chip. Um das machen zu können, müssen diese Bausteine für die Shader speziell für und mit nVidia angepasst werden, weswegen nVidia auch länger für eine Umrüstung eigentlich brauchen müsste als AMD/ATI.

Abgesehen davon kostet jede Umrüstung Geld. nVidia versucht einen Chip mindestens ein Jahr lang Herstellen zu lassen. November 2006 kam der G80 und im November 2007 kam der G92 und genau deswegen wird der G92 auch noch eine Weile weiterlaufen...

Der R600 war einfach eine Katastrophe und musste so schnell wie möglich ausgewechselt werden. Und bevor man da großartig versucht an der Architektur was zu ändern, schrumpft man halt einfach die Fertigung, ändert das Speicherinterface und schon kommt ein RV670 raus, der auch noch günstiger in der Fertigung ist...
 
Zykon schrieb:
unnötiges Zitat entfernt:evillol:


Das ist überhaupt keine Bestätigung, weil es einfach mal zu 100% auf die gleichen Daten zurückgreift, die bereits Mitte Februar gepostet wurden. Nur weil eine englische Seite gepennt hat und es jetzt erst geschrieben hat, denken einige andere englische aber auch deutsche Seiten, dass es neu ist^^ Deshalb gab es auch keine News von uns dazu.
 
Zuletzt bearbeitet von einem Moderator:
Laut Nordichardware ist der RV770 in Produktion und die Highend-Karte soll wie geplant im Juni kommen.

Wer weiß, wenn Nvidia erst im November kommt kauf ich mir doch noch eine ATI :).
 
noch 2 monate und der Juni ist da...mal schaun wies dann aussieht mit der neuen generation. bin schon sehr gespannt auf einen CB-TEST, worin schon alle neuen Karten enthalten sind. Hoffentlich bekommt ihr die karten auch schön pünktlich.

mfg
 
Zuletzt bearbeitet:
Ich schu mal was Gamestar und CB sagen. Vil hol ich mir die X2 wenn das Geld reicht.
 
Hallo zusammen

Ich interessiere mich sehr für die kommende Radeon HD 4870 und HD 4850... :D

Die bisherigen Technischen Daten sehen vielversprechend aus, aber zwei Dinge sind noch fragwürdig:


1. SPEICHERBANDBREITE BEI DER HD 4870 UND HD 4850

Die errechnete Speicherbandbreite bei der folgenden News ist falsch:

http://www.hardware-infos.com/news.php?news=1829

2200 MHz Speichertakt x 256-Bit ergibt bei mir 70.40 GB/Sek. und nicht 140.8 GB/Sek!

Wenn es tatsächlich 140.8 GB/Sek. sein sollte, dann würde das Speicherinterface 512-Bit breit sein wie bei der HD 2900 XT.

Und auch dann ergibt sich folgende Speicherbandbreite: 140.8 GB/Sek. bei 2200 MHz Speichertakt oder 128.0 GB/Sek. bei 2000 MHz Speichertakt.

Aber gemäss der letzten News mit den Technischen Daten ( http://www.tweakpc.de/news/13618/ati-radeon-hd-4000-spezifikationen/ ) haben die HD 4870 und HD 4850 ein 256-Bit-Speicherinterface.

Was ist nun korrekt? 256-Bit oder doch 512-Bit?


2. SPEICHERBANDBREITE BEIM EINSATZ VON GDDR3 GEGENÜBER GDDR5

Bei der letzten News bei Computerbase ( https://www.computerbase.de/2008-04/erste-rv770-grafikkarte-mit-gddr3-speicher/ ) wurde folgendes gemeldet:

Nun soll jene Version aber noch nicht fertig sein, da es derzeit an passenden GDDR5-Speicher fehlt, weswegen die ersten RV770-Grafikkarten mit dem altgedienten GDDR3-Speicher, und somit einer deutlich niedrigeren Speicherbandbreite, an den Start gehen wird.

Ich dachte, GDDR3-Speicher taktet mit bis zu 2160 MHz. Also sollten doch 2200 MHz kein Problem sein (1.85 % über dem vorgegebenen Wert).

Die übertakteten Karten der verschiedenen Hersteller, die es bestimmt auch hier geben wird, liegen zum Teil viel mehr über der Vorgabe.

Wenn man die HD 4870 z.B. "nur" mit 2000 MHz taktet (anstatt 2200 MHz bei GDDR5), bei einem Speicherinterface von 256-Bit, würde die Bandbreite 64.00 GB/Sek. (anstatt 70.40 GB/Sek.).

Was wisst ihr darüber?

Gruss

Matthias
 
du wirfst die reale taktrate mit dem marketingschwachsinn, den viele "effektiven takt" nennen, durcheinander
der gddr5 in der news taktet mit 2200mhz, ergibt also 140gb/s
gddr3 gibts mit maximal 1200mhz also 76,8 gb/s
 
bensen schrieb:
du wirfst die reale taktrate mit dem marketingschwachsinn, den viele "effektiven takt" nennen, durcheinander
der gddr5 in der news taktet mit 2200mhz, ergibt also 140gb/s
gddr3 gibts mit maximal 1200mhz also 76,8 gb/s

Ein Speichertakt von 4400 MHz (2 x 2200 MHz)?!? :freak:

Das finde ich viel zu hoch zum derzeitigen Zeitpunkt.

Ich glaube eher, dass es sich um einen Schreibfehler handelt: 2200 MHz = 2 x 1100 MHz sind momentan eher realistisch, wenn man bedenkt, dass die NVIDIA-Boliden zwischen 1800 (2 x 900 MHz) und 2160 (2 x 1080 MHz) takten... :rolleyes:

Gruss

Matthias
 
Nein GDDR5 taktet tatsächlich mit 1,8-3Ghz, frag mal google oder wiki. ;)
Auch wenn die HD4000 anfangs mangels GDDR5 mit GDDR3 bestückt wird....
Diese Nvidia Boliden, die die meinst sind mit GDDR3 bestückt, ja da gehts nur bis 1,2Ghz.
 
Da der Speicher definitiv von Samsung kommt, dürften die offiziellen Mitteilungen von Samsung maßgeblich sein. Demnach wurden Speicherbausteine mit 1600 MHz nominellem Takt als Muster zur Verfügung gestellt, an denen sich die Entwickler orientiert haben.

Da bisher nie Speicherbausteine mit der theoretischen Maximaltaktung der entsprechenden Norm verbaut wurden, erscheint mir ein realer Takt von maximal 1600 MHz realistisch.

Meines Wissens sind höhere Frequenzen nur theoretisch erreichbar. Eine Fertigung entsprechender Chips liegt ebenso jenseits der technischen Möglichkeiten, wie die Stabilisierung gegen Übersprechen und andere Störeffekte.

Da der RV670 bereits eins zu eins auf den Speichertakt skalierte, würde ich darauf wetten, daß eine neue Karte mit grundsätzlich gleicher Architektur, mehr Shadern und vor allem mehr Texturier-Einheiten in etwa mit 857 MHz GPU-Takt und 1521 MHz Speichertakt (keinesfalls 1520 MHz, und auch nicht 1522 MHz) für 349 USD in den Handel kommt, die im 3dmark06 etwa 16575 Punkte liefern wird.

All das ist doch jetzt schon so sicher wie das Amen in der Kirche. Die Proleten werden sich weiter mit ihren Schulhof-Herumtön-Karten überlegen dünken, die Ordnung bleibt gewahrt, Tester müssen ihre Tabellen kaum überarbeiten, einige Uneinsichtige werden ihre Utras zerschiessen, um die fehlenden neun Frames bei Crysis (es werden neun sein!) herauszuholen, und alles geht weiter wie gehabt. Glaubt mir!

PS Ich kann mich in allem irren, aber die genannten Taktfrequenzen und Benchmarkergebnisse sind bis auf die zwote Nachkommastelle sicher. Mein Wort drauf!

PPS Es gibt keinen effektiven Takt. Das ist einfach nur Dummheit und Unbildung gewisser Kreise, die ständig den Takt mit der Übertragungsrate verwechseln. Ein Takt besteht immer aus zwei Flanken, d. h. es wird zwischen high und low gewechselt, wobei es eine aufsteigende und eine absteigende Flanke gibt. Früher wurde mit jeder absteigenden Flanke geschaltet, weswegen man vor DDR (Double Data Rate) auf jeder Leitung ein Bit pro Takt übertragen hat, wärend man heute mit jeder Flanke ein Bit überrägt, weswegen die Übertragungsrate doppelt so hoch in Bit pro Sekunde ist, wie Taktzyklen pro Sekunde durchlaufen werden.
 
Zuletzt bearbeitet:
2,2ghz werden zu 100% kommen, wenn auch noch nicht in diesem jahr
laut quimonda wird man 2,5ghz und mehr erreichen

PS: hast du nen link zur PM? wär mal interessant
 
Zurück
Oben