Die Leistungaufnahme wird steigen gegenüber der 38xx-Serie. Es ist eigentlich nur die Frage, ob das Topmodell die 150W-Marke sprengt. Aber falls sich die Gerüchte bezüglich Shaderzahl, verbesserte Tapeten-Leistung und GDDR5 bestätigen und auch noch in Q2 realisiert werden, könnte AMD-ATi mal wieder seit langem den 3D-Thron besteigen. Und AMD die Bilanz der nächsten Quartale verbessern...
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News ATis RV770-GPU taktet mit über einem GHz?
- Ersteller Wolfgang
- Erstellt am
- Zur News: ATis RV770-GPU taktet mit über einem GHz?
iron_monkey schrieb:Immer her damit, ich warte schon auf die 4xxx Reihe... mal schauen was sie Leistungstechnisch so bringt, ich hoffe ja auf gleichbleibenden Verbrauch und 20% mehr 3D Leistung.
Bei 50% mehr Shader und über 100% mehr Tex. Leistung, Plus 25-30% mehr Core Takt sollte doch etwas mehr als 20% 3D Performance rausspringen ggü der HD3870 .
Pat
Commander
- Registriert
- Jan. 2003
- Beiträge
- 2.252
Es wäre mal wieder Zeit, für eine neue und bessere Architektur, die im Stande ist mehr zu leisten, anstatt immer nur an den Taktfrequenzen zu drehen. So wie es Intel mit der Core Architektur gemacht hat. Denn was selbst mittelklasse-Grakas schon verbrauchen ist recht krass.
BrOokLyN R!ot ³
Vice Admiral
- Registriert
- Dez. 2006
- Beiträge
- 6.606
Hmm egal wie es ausgeht ich hoffe dir Treiber sind gut ausgereift und das es weniger wie eine Woche nach Breiterverfügbarkeit auch gute leistungsfähige Treiber gibt. Denn das war öfters mal ne leichte Qual.
Aber ich freue mich schon richtig. Denn meine HD2600 brauch mal ne Ablösung durch ne HD4870.
Gruss Jens
Aber ich freue mich schon richtig. Denn meine HD2600 brauch mal ne Ablösung durch ne HD4870.
Gruss Jens
L
ltkrass
Gast
Die HD 4870 wäre ein idealer nachfolger für meine X800XT, nur fraglich welche CPU man dafür brauchen wird mein jetziger E4700 wird wohl nicht reichen.
Spirou
Banned
- Registriert
- März 2008
- Beiträge
- 53
GDDR5 wird mit 1,5V betrieben. Das sind 20% weniger Spannung, also theoretisch 40% weniger Leistungsaufnahme als GDDR4 bei 1,8V. Folglich darf die GPU rund 20-30% mehr Transistoren haben, und trotzdem dürfte die Karte sparsamer als eine 3870 sein.
An den höheren GPU-Takt glaube ich nicht, weil das technisch gar keinen Sinn macht. Mit mehr Shadern und mehr Texturierern wird der Bus zum Flaschenhals, und dem hülfe mehr GPU-Takt nur, wenn zugleich das Speicherinterface schneller würde, was aber wiederum nichts brächte, wenn nicht auch die Speicherbandbreite dementsprechend höher ausfiele.
Da die Speicherbandbreite nicht weit über 100GB/s liegen wird, dürften GPU-Takte oberhalb 900 MHz kaum noch skalieren, wenn man Vergleichswerte vom R600 oder RV670 zum Masstab nimmt.
Man kommt ja auch damit schon auf 40% mehr Leistung.
An den höheren GPU-Takt glaube ich nicht, weil das technisch gar keinen Sinn macht. Mit mehr Shadern und mehr Texturierern wird der Bus zum Flaschenhals, und dem hülfe mehr GPU-Takt nur, wenn zugleich das Speicherinterface schneller würde, was aber wiederum nichts brächte, wenn nicht auch die Speicherbandbreite dementsprechend höher ausfiele.
Da die Speicherbandbreite nicht weit über 100GB/s liegen wird, dürften GPU-Takte oberhalb 900 MHz kaum noch skalieren, wenn man Vergleichswerte vom R600 oder RV670 zum Masstab nimmt.
Man kommt ja auch damit schon auf 40% mehr Leistung.
Turbostaat
Banned
- Registriert
- Apr. 2006
- Beiträge
- 6.240
Wenn ich solche Sätze wie von Pat lesen darf, dann denke ich mir immer wieder was so in manchen Köpfen vorgeht. Als ob man einfach hier und da ein paar Striche auf dem Papier macht und
----------------------------------
- -
- hier geschieht ein Wunder -
- -
----------------------------------
tada haben wir einen neuen Grafikchip der 200% mehr leistet, dabei nur 10W verbraucht und dabei schon in 22nm gebaut wird. Einfach so.
Im Vergleich zudem was Grafikkarten an Transistoren haben, sind die CPUs wahre Stromfresser.
----------------------------------
- -
- hier geschieht ein Wunder -
- -
----------------------------------
tada haben wir einen neuen Grafikchip der 200% mehr leistet, dabei nur 10W verbraucht und dabei schon in 22nm gebaut wird. Einfach so.
Im Vergleich zudem was Grafikkarten an Transistoren haben, sind die CPUs wahre Stromfresser.
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
@f1delity
Könntest du mir erklären, was am G92 oder GT200 Müll ist?
Weißt du überhaupt, das RV770 ein Refresh eines völlig vergurkten Design, des R600, ist?
Naja wie auch immer wie es aussieht schafft es AMD die 50% Mehrleistung zum RV670 einzuhalten. Also AMD hat es geschafft, wir haben jetzt nach fast 2 Jahren einen Gegner zur 8800GTX.
@Spirou
Nur das der VRAM insgesamt gesehen nicht der einzige Verbraucher ist, als Ersparnis bleiben eher 20% übrig, im Vergleich zu GDDR4 sogar weniger.
Könntest du mir erklären, was am G92 oder GT200 Müll ist?
Weißt du überhaupt, das RV770 ein Refresh eines völlig vergurkten Design, des R600, ist?
Naja wie auch immer wie es aussieht schafft es AMD die 50% Mehrleistung zum RV670 einzuhalten. Also AMD hat es geschafft, wir haben jetzt nach fast 2 Jahren einen Gegner zur 8800GTX.
@Spirou
Nur das der VRAM insgesamt gesehen nicht der einzige Verbraucher ist, als Ersparnis bleiben eher 20% übrig, im Vergleich zu GDDR4 sogar weniger.
illegalz
Lt. Commander
- Registriert
- März 2008
- Beiträge
- 1.419
@ icebreaker
ja da stimm ich dir voll und ganz zu, auch mit der HD 3000 serie scheint AMD nichts falsch gemacht haben, wenn die HD 4000 serie auch so ein Coup wird, sollte sich Nvidia auf einiges gefasst machen, laut der News von ich glauber letzter Woche, hier auf CB, konnte AMD mehr Notebook-Chips als Nvidia verkaufen. Dann wird es in diesem bitteren Kampf ja noch schwieriger werden für Intel :-)
ja da stimm ich dir voll und ganz zu, auch mit der HD 3000 serie scheint AMD nichts falsch gemacht haben, wenn die HD 4000 serie auch so ein Coup wird, sollte sich Nvidia auf einiges gefasst machen, laut der News von ich glauber letzter Woche, hier auf CB, konnte AMD mehr Notebook-Chips als Nvidia verkaufen. Dann wird es in diesem bitteren Kampf ja noch schwieriger werden für Intel :-)
Bezüglich Abwärme würde ich darauf wetten dass AMD/Ati versuchen werden mit kleineren Fertigungsprozessen (65nm oder sogar 55nm) das Problem in den Griff zu bekommen.
Dass man leistungsstarke Grafikkarten auch in Low Profile und ohne dicken Lüfter rausbringen kann zeigen die Ati und Nvidia Refreshs aus dem Herbst 2007.
Vorallem was die kleineren Fertigungsprozesse angeht wird sich Ati ein wenig an AMD anlehnen können da sie damit sicher genug erfahrung gesammelt haben.
Dass man leistungsstarke Grafikkarten auch in Low Profile und ohne dicken Lüfter rausbringen kann zeigen die Ati und Nvidia Refreshs aus dem Herbst 2007.
Vorallem was die kleineren Fertigungsprozesse angeht wird sich Ati ein wenig an AMD anlehnen können da sie damit sicher genug erfahrung gesammelt haben.
Turbostaat
Banned
- Registriert
- Apr. 2006
- Beiträge
- 6.240
@Duskolo
Die ATI 3000er Serie ist bereits in 55nm gebaut, da musst du nicht wetten.
Die ATI 3000er Serie ist bereits in 55nm gebaut, da musst du nicht wetten.
ATi hat noch nie selbst die Chips gefertigt, macht alles TSMC. Da die dresdener AMD-Werke ausgelastet sind, wird sich das so schnell nicht ändern. Allerdings sind die Taiwanesen mit 55nm derzeit "besser" als AMD.
GDDR5 soll tatsächlich physisch um die 2GHz, also 4 Gigahertzen nach DDR, takten. 256 Bit GDDR5 entsprächen von der Übertragungsrate her also 512 Bit GDDR3...
GDDR5 soll tatsächlich physisch um die 2GHz, also 4 Gigahertzen nach DDR, takten. 256 Bit GDDR5 entsprächen von der Übertragungsrate her also 512 Bit GDDR3...
Bei ATI aber schon, da schliesslich die Shader daran gekoppelt sind. Das wird beim R700 vermutlich genauso sein.cyrezz schrieb:Das mit dem 1GHz Coretakt hört sich echt im ersten Moment nach viel Leistung an, aber eigentlich ist mittlerweile (zumindest bei nVidia sehr deutlich), der Coretakt nicht mehr so entscheident.
Das kann man nicht vergleichen. Es sind einfach zwei unterschiedliche Ansätze. nVidia hat skalare Shader, ATI superskalare. ATI hat pro Takt also deutlich mehr Shaderleistung. Um das auszugleichen, muss nVidia höhere Taktraten fahren. Wohl auch deshalb wurde dieser Takt entkoppelt. Dafür scheint es eben auch mehr thermische Probleme als bei ATI zu geben.cyrezz schrieb:Die Shaderleistung ist da sehr viel ausschlaggebender und das ist leider bei ADM/ATi das Problem bisher. Dieser konnte nicht seperat angehoben werden und war im Vergleich zu den nVidia Karten doch sehr gering gehalten.
Nope. Das bisherige Problem bei ATI war vor allem die Texturleistung. Ansonsten ist die Architektur mindestens gleichwertig zu nVidia. Aufgrund der Shader würde ich sogar sagen, überlegen. Ich denke, nVidia wird früher oder später ebenfalls auf eine superskalare Pipeline setzen, wenn nicht sogar müssen.cyrezz schrieb:Die nVidia Karten haben alle durch die Bank weg einen niedrigeren Coretakt und beim RAM sind sie recht gleich auf. Aber dennoch ist nVidia meist schneller, das kann also nur an den Schadereinheiten und derer Geschwindigkeit zusammenhängen.
C
captain carot
Gast
96 5D Shader wären schon schön. Das wäre dann bei ca 30% mehr Takt knapp die doppelte Leistung der 3870. Und mit den Deutlich erhöhten TMUs dürften auch die Füllratenprobs bei ATI Schnee von gestern sein. Da wären also je Anwendung bis zu 150% Mehrleistung drin. Und die zweieinhalbfache Leistung einer 3870 als Single Chip Lösung wäre schon Klasse.
Allerings wollte ATI ab nächstem Jahr doch glaube ich echte Multicore GPU´s fertigen, zumindest lt. Gerüchteküche.
Noch mal nebenbei: Was die Differenzen zwichen NV mit dem separaten takt für die Shaderdomain und dem einheitlichen Chiptakt bei ATI angeht, Leute, ihr könnt die Technik nicht einfach so vergleichen und dann sagen, ATI müsste die Shaderdomain auch höher takten, dafür sind die Funktionsweisen der GPU´s viel zu unterschiedlich.
Was den Stromverbrauch angeht, ich denke mal das er deutlich über einer 38X0 liegt, zumindest unter Last. Aber dank Powerplay wahrscheinlich im IDLE wieder sehr genügsam und hoffentlich auch im Load nicht gefrässiger als die 2900XT.
Allerings wollte ATI ab nächstem Jahr doch glaube ich echte Multicore GPU´s fertigen, zumindest lt. Gerüchteküche.
Noch mal nebenbei: Was die Differenzen zwichen NV mit dem separaten takt für die Shaderdomain und dem einheitlichen Chiptakt bei ATI angeht, Leute, ihr könnt die Technik nicht einfach so vergleichen und dann sagen, ATI müsste die Shaderdomain auch höher takten, dafür sind die Funktionsweisen der GPU´s viel zu unterschiedlich.
Was den Stromverbrauch angeht, ich denke mal das er deutlich über einer 38X0 liegt, zumindest unter Last. Aber dank Powerplay wahrscheinlich im IDLE wieder sehr genügsam und hoffentlich auch im Load nicht gefrässiger als die 2900XT.
general-of-omega
Lt. Commander
- Registriert
- Juli 2004
- Beiträge
- 1.860
naja ATI hat ja schon von HD2000 zu HD3000 einen performance-anstieg von genau 0 % gehabt, wenn se sowas ähnliches wieder bringen können die doch kein geld mehr verdienen wenn die jetzigen schon fast nur noch 100 € kosten
LeChris schrieb:Es ist eigentlich nur die Frage, ob das Topmodell die 150W-Marke sprengt.
Das kannst du als sicher annehmen.
ATIs einzige Strategie kann derzeit sein, soviel Leistung wie moeglich rauszuholen, egal wie hoch der Verbrauch ist.
Claus1221
Lt. Junior Grade
- Registriert
- Jan. 2006
- Beiträge
- 506
Ob aufgebohrt, oder nicht, wenn die Leistung stimmt, und sie günstiger als ein leistungsgleicher Konkurrent (nVidia) wird, dann wird sie meine nächste. Die Politik von nVidia mit dem 5 % mehr Leistung pro neue Serie find ich bescheuert, ATI scheint da schneller vorran zu gehen.
Ähnliche Themen
- Antworten
- 124
- Aufrufe
- 9.408