News Alle Details zu ATis Radeon 5000er Serie

Der GT200 hat(te) ordentlich Potential, meine Karte läuft problemlos mit nur 1V bei 680MHz und verbrät keine 200W (das weiß ich weil die Karte bei 1V bei Furmark über 50W weniger braucht) und auch wenn das nicht jede GPU erreicht, kann man den GT200 bzw. GT200b prima übertakten/untervolten und schlägt so jede 4890 ATI Karte. Da der Chip schon mehr als 1,5 Jahre auf dem Markt ist glaube ich nicht, dass Nvidia geschlafen hat. Da wird schon was Gutes kommen, war ja bisher kein Anlass dazu.
Der 5870 erzeugt natürlich den Bedarf dafür, wir werden es sehen.
 
theorist schrieb:
Die GTX 295 war doch auch kein Problem. Der GT300 wird ungefähr gleich groß wie der GT200b und wird 512 Streamprozessoren, 128 TMUs, 32 ROPs (wahrscheinlich aufgebohrt gegenüber dem GT200) und ein 512-Bit-GDDR5-Speicherinterface haben.

Der GT300 wird aber aller Voraussicht größer, als der GT200b. Nämlich ziemlich genau mittig zwischen GT200b (484mm²) und GT200 (576mm²). Also 529mm². Quelle: Charlie, wer sonst ;)

Bleibt die Frage, ob man ne GX2 mit den Abmessungen hinbekommt, was vermutlich nicht ein rein platzmäßiges Problem ist, sondern eher eins der Leistungsaufnahme. Bei mehr als doppelt so viel Shadern seh ich da eher schwarz. Und wenns doch geht, braucht man dann auch wieder zwei PCBs? (Wär natürlich nur ein Kostenfaktor, die Performance ist ja davon unbeeinflusst)

Bei den restlichen Leistungsdaten hätt ich gern deine Glaskugel ;)

Und jetzt bitte nicht mit BSN, ATI-Forum oder Hardware-Infos kommen (die schreiben nämlich nur von denen ab, siehe 1200 Shader RV870 oder 384bit SI RV870).

Laut Charlie sind sämtliche Angaben zum GT300 weit ab vom Schuss. Das hat er zu den Infos zum Cypress (siehe oben) auch schon gesagt. Ist die Frage: Weicht die Realität jetzt nach oben oder nach unten ab?

Da ich mir ne Abweichung nach oben nicht vorstellen kann, (hört sich eh schon utopisch an), kanns ja nur weniger werden. Was die Sache nicht besser macht für NVIDIA.

Aber ich lass mich gern positiv überraschen...
 
Schinzie schrieb:
des hat nur eine Auslastung von 85%.


gruß
http://www.nvidia.com/object/cuda_home.html#
Such dir eins aus mit 100%, aber beschwer dich nicht bei mir wenn du kein CUDA hast. In der Liste sind eher CUDA Anwendungen. :D
Bedenke aber das ATI mit Compute Shaders viel vor hat und jetzt auch mit durchstartet.


Hab grad gelesen bei der 5870 wurde der L2 cache verdoppelt und neue kompressionsverfahren wurden auch verwendet. Das Speichermanagmend ist ja auch viel besser als bei NV. Da sollte 1GB VRAM der Karte locker flockig reichen.
Wenn die Karte bei max. Einstellungen nicht einbricht mit 1GB, ziehe ich offiziell meinen Hut! Aber mal auf die Schnelle 500MB Vram kompensieren, das will ich erstmal sehen...



Lasst euch nicht von solchen Marketing Floskeln blenden. MIMD, speziell in Form von MADD ALUs, gibt es schon sehr lange in GPUs.
Quelle, Beispiele?


Der Chip von ATI ist wesendlich kleiner als das Monstrum G94 und somit auch wesentlich günstiger zu produzieren. Also wirds am Gewinn nicht fehlen eher bei NVIDIA wenn sie das Monster mal auf die Reihe kriegen sieht ja im Momment nicht danach aus das das so bald passiert.
https://www.computerbase.de/forum/t...rce-gt-220-bekannt.627639/page-3#post-6532650
Wurde bei der letzten Generation aus gesagt und heute schauts ganz anders aus. Der Chip der HD 4890 ist genauso teuer wie der von der GTX 275. Chipkosten allein sind nicht alles.


zu zeiten der radeon x-reihe lag das spitzenmodel noch bei 550,- €! und da hatte ati keinen technologischen vorsprung, wie sie ihn jetzt mit der ersten dx11-karte haben...
von daher können wir mit dem preis wohl durchaus zufrieden sein
Mehr als zufrieden, fast zu niedrig, auf jeden Fall Preis/Leistung. Und diesmal sogar Preis/Leistung im Gesamtpaket wie zb. Idle Stromsparen oder bessere Bildqualität mit AA,AF. Nur noch das Treiberteam komplett auswechseln und man könnte tatsächlich schwach werden. ;)


32nm SRAM Zellen sind aber auch keine Kunst, damit kommt in Kürze jeder um die Ecke.
Äh -> Rofl in der IT Branche sind das Jahrzehnte bis AMD 32nm bringt. Es zählt jeder Tag und jedes Monat ist ein gewaltiger Rückstand, "in Kürze" musst du nochmal überdenken...


Ich habs dir nochmal fett gemacht, nur so als Tipp: Der schnellste Supercomputer etwa 1985 hat auch soviel geschafft
Da sieht man mal wie die Zeit vergeht. ;)

IMO sind die Folding-Programmierer einfach nur zu blöd/faul, auf ATI zu optimieren. Denn die theoretische Leistung, als auch die (daraus resultierende) Leistung bei Computerspielen zeigt, das die ATI-Grakas prinzipell gleich schnell sind wie die NVIDIA-Grakas. Mir erschließt sich deshalb nicht, warum das beim Folding anders sein sollte, außer die Programmierer sind zu blöd/faul es richtig zu machen.
Es waren bestimmt wieder wie fast immer NV Mitarbeiter vor Ort und haben die Software perfekt auf die Hardware abgestimmt um das letzte aus der möglichen Rechenleistung zu holen. ATI Karten haben sie natürlich nicht ausgebremst, nur fallen hald die ATI Karten automatisch zurück wenn sie nicht auch "optimiert" werden
Folding-Software-->Fail

Wirst du das in Zukunft bei allen GPGPU Anwendungen sagen die auf ATI Karten langsamer laufen?

Aber sag niemals nie, wenns um die Chipfläche geht. Vielleicht ist einer der beiden Hersteller verrückt genug, das noch überbieten zu wollen...
Auf jeden Fall schon mal ein enormer Verlust für NV, nichts in der Hand zu haben, bei 55nm hätte man wenigsten was verkaufen können. Ein schlechter 40nm Prozess + neue Architektur= Supergau

Schon langsam setzt sich auch das Puzzle zusammen: NV Chef verkauft Aktien -> die Meldung kommt das 40nm nicht klappt mit GT300 -> Tipp an alle mit NV Aktien JETZT VERKAUFEN

GT300 schneller als 5870 (so weit klar)

Zudem solls noch ne GX2 Variante geben.

Interessante Formulierung von Fuad allerdings:

Since GT300 has its GX2 brother they should not fear much against Radeon 5870 X2 whenever that comes out,



Bis jetzt is noch nich mal klar, wann der GT300 nun kommt, aber der Release der 5870 X2 wird angezweifelt...
Danke für die Infos, genau sowas will man nach der Arbeit lesen! Fuzi bzw. NV traue ich aber nicht(gezielte Falsch Infos). ;) Also erstmal auf den 23. warten und sich überraschen lassen. Aber für Spekulationen bin ich immer offen, dann fangen wir mal an:
We can only confirm that GT300 is not a GT200 in 40nm with DirectX 11 support. It’s a brand new chip that was designed almost entirely from the ground up. Industry sources believe that this is the biggest change since G80 was launched and that you can expect such level of innovation and change.

The launch as far as we know is still slated for late November and hasn’t been confirmed.
Fazit: Komplett neue Architektur mit gewaltiger Leistungssteigerung, jeder der sich nicht zumindest den GT300 mal anschaut ist selber schuld :p

aber in der heutige Zeit wird fast keiner 500,-€ und mehr auf den Tisch legen wegen unwichtigen Dingen wie ne Graka!
:wattunwichtig?

@Romsky: Dafür gibt es noch keine Anhaltspunkte. Großer Die? Ja. Zu spät? Vermutlich. Flop? Kaum.

Das wird erst n Flop, wenn NVIDIA so spät dran ist, das ATI schon wieder den Refresh (mit noch mehr Shadern) bringt. 32nm steht für Q2/Q3 2010 aufm Plan. AFAIK
:daumen:
Gegenüber der GeForce FX 5900 konnte eine GeForce 6800 dank vervierfachter Shaderleistung aber natürlich glänzen, zumal man auch andere Flaschenhälse entfernt hat (3DCenter.de hat dazu interessante Artikel).
Und später ist sie dann umso stärker eingebrochen wegen DX 9c

Ihr seit ja echt verrückt! Da geht man mal kurz in die Arbeit und ihr schreibt den ganzen Tag was das Zeug hält-> die armen Moderatoren :rolleyes:
 
Zuletzt bearbeitet:
Motkachler schrieb:
Bei der fläche gehts um die dies pro wafer und da hat Nvidia im momment die wesentlich schlechteren Karten als ATI. Und somit können die RV770 Chips auch günstiger produziert werden. Darum gings um nichts anderes.
ATI RV 870 338 mm²
NVIDIA GT 300 um 500 mm²
Das du statt RV870 "der Chip von ATI" schreibst ist noch halbwegs nachvollziehbar bei einem HD5 Fred.
Aber warum schreibst du G94 wenn du G(T)300 meinst?

milamber! schrieb:
Die 3000er bzw. 4000er hatten auch nur die hälfte bzw. zwei drittel an Transistoren gegenüber dem G200. Und von Architektur oder Taktmodi war doch nicht die Rede.
G92b hat 13% mehr Transistoren als RV670, ist aber 44% größer.
RV770 hat 44% mehr Transistoren als G92b, ist aber 33% größer.
GT200b hat 86% mehr Transistoren als G92b, ist aber 70% größer.
GT200b hat 46% mehr Transistoren als RV770, ist aber 84% größer.
GT200b hat 46% mehr Transistoren als RV790, ist aber 67% größer.

Damit wollte ich nur klar machen das man es sich nicht so einfach machen darf.

Edit: Und der GT300 soll angeblich 2,4 Mio. Transistoren haben, was wieder 800.000 mehr sind als der RV870.
Absolute Zahlen bringen nichts, relativ gesehen ist es ein gutes Stück mehr.

Also .. packt nun der eine gut zusammen - was ja auch nichts negatives ist - oder stopft der andere nur so viel möglich rein? Ich deute zweiteres.
Was du mit zweiterem meinst verstehe ich nicht.

AMD hat die bessere Packungsdichte der Transistoren gegenüber Nvidia weiter verbessert, was RV6xx nach RV7xx, beides 55nm GPUs, beweisst.

KAOZNAKE schrieb:
Der GT300 wird aber aller Voraussicht größer, als der GT200b. Nämlich ziemlich genau mittig zwischen GT200b (484mm²) und GT200 (576mm²). Also 529mm². Quelle: Charlie, wer sonst ;)
Mit der Zeit wächst die Chipgröße, noch nicht gemerkt?
Das Charlie nicht Vertrauensperson Nummer1 sollte langsam mal klar werden, ich habe z.b. knapp unter 500mm² gehört. Und nun?

Bleibt die Frage, ob man ne GX2 mit den Abmessungen hinbekommt, was vermutlich nicht ein rein platzmäßiges Problem ist, sondern eher eins der Leistungsaufnahme. Bei mehr als doppelt so viel Shadern seh ich da eher schwarz. Und wenns doch geht, braucht man dann auch wieder zwei PCBs? (Wär natürlich nur ein Kostenfaktor, die Performance ist ja davon unbeeinflusst)
Platz ist tatsächlich kein Thema.
Der IHS des GT200 und GT200b ist recht ähnlich groß, der Chip an sich ist ein gutes Stück kleiner.

Es bleibt die Thermik. Bekannte Karten zeigen, das 300-400W drin sind. Kein Thema mit spannungs und taktreduzierten Versionen. Siehe sämtliche GX2.
Die aktuelle GTX 295 zeigt sogar, das der ganze Spass auf einem durchschnittlich langem PCB möglich ist.
 
Zuletzt bearbeitet:
Romsky schrieb:
Wer sagt denn das der G300 doppelt so schnell sein soll wie die GTX285? Bisher alles nur Spekulationen. Übrigens Leistungsmäßig war die FX5 Serie wirklich ein lacher.... und Laut (ich sag nur Föhn)

Die GeForce 6 Serie war gut, die GeForce 7 Serie war enttäuschend (ich war selber ein Opfer welches für die GeForce 7800GTX 500,-€ gezahlt hat). ^^

War ab und inkl. der 5er nicht jede krumme Nvidia Generation nicht so der hit? Wer weiss, vielleicht wirds ja mit der 300er das selbe, was ich ehrlich gesagt nicht hoffe.
Was die 6er betrifft, gut war sie, die 6600GT als AGP wahr mit dem verbauten Lüfter jedoch ne Frechheit. :(

Unyu schrieb:
I. G92b(231/334mm²) hat 13% mehr Transistoren als RV670 (192mm²), ist aber 44% größer.
II. RV770 hat 44% mehr Transistoren als G92b, ist aber 33% größer.
III. GT200b hat 86% mehr Transistoren als G92b, ist aber 70% größer.
IV. GT200b hat 46% mehr Transistoren als RV770, ist aber 84% größer.
V. GT200b hat 46% mehr Transistoren als RV790, ist aber 67% größer.

I. 231mm² (G92b) sind doch ~20% mehr als 192mm² (RV670)? Ausserdem hat der G92b mehr Stream Prozessoren und TMUs, oder verbrauchen die keinen Platz?
II. Ich bin kein Mathe Genie, aber sind 256mm² nicht 110% von 231mm², und nicht 33%? Und sinds nicht 27% mehr Transistoren (965 zu 754 mio)? Und wieder, weniger TMUs, weniger Stream Prozessoren.
III. 86%, das sind die ersten Zahlen die ich nachvollziehen kann, wobei er nach den Zahlen die ich gelesen habe (GT200b irgendwob bei 410 und 470mm² groß) zwischen 77 und 100% größer ist. Ausserdem hat er doppelt so viel ROPs, TMUs und Shader wie der G200b.
IV. Nach dieser Rechnung gehst du ja von der deppelten größe des G92b aus, also 470mm² ja was denn nun? Ausserdem hat der GT200b 2x (oder 3,5 mal?) so viele ROPs, 1/3 mehr Shader und mind. 2x so viele TMUs.
V. Das selbe Spiel, doppelte Rops, mehr shader, mehr TMUs.

Ich mag ja in Dingen der Grafikkarten nicht besonders belesen sein, und hab in Mathe auch nie aufgepasst, aber fürn Dreisatz hats eigentlich immer gereicht. Kann es vielleicht sein, das du bei deinen Posts immer davon ausgehst, das die Leute sich nicht die mühe machen, das nachzuprüfen?

Unyu schrieb:
Damit wollte ich nur klar machen das man es sich nicht so einfach machen darf.

Jetzt wird mir einiges klarer ;)

Unyu schrieb:
Absolute Zahlen bringen nichts, relativ gesehen ist es ein gutes Stück mehr.

Also ein drittel mehr Transistoren sind ein drittel mehr Transistoren .. die wollen untergebracht werden. Im Grunde ging es doch nur um die Aussage, der GT300 wird groß, net mehr, nicht weniger.
 
ist doch wurstegal wie groß das ding wird, hauptsache es wird schneller als die konkurrenz

ps: ich finds lustig wie hier immer 2,4 mio transitoren in den raum geworfen werden, es sind sehr viel mehr... ungefähr tausend mal mehr ;-)
 
@GodCast
Wenns Dir auch wurstegal ist was so ein Monstechip dann kosten wird der schneller ist hast Du schon recht.
Ob das so sein wird das er soviel schneller ist steht in den Sternen. Und wenn er erst kommt wenn ATI schon bald den 970 launchen wird schauts wohl wieder nicht rosig aus für NV. Und auch das steht in den Sternen.
 
Ich finde es ja langsam lustig hier wie Sinnfrei man über am Ende völlig unwichtiges derart Diskutieren kann zumal es noch keine festen Spezifikationen zum neuen nVidia gibt.
 

Anhänge

  • Sapphire 5870.jpg
    Sapphire 5870.jpg
    50,1 KB · Aufrufe: 521
Zuletzt bearbeitet:
milamber! schrieb:
I. 231mm² (G92b) sind doch ~20% mehr als 192mm² (RV670)? Ausserdem hat der G92b mehr Stream Prozessoren und TMUs, oder verbrauchen die keinen Platz?
II. Ich bin kein Mathe Genie, aber sind 256mm² nicht 110% von 231mm², und nicht 33%? Und sinds nicht 27% mehr Transistoren (965 zu 754 mio)? Und wieder, weniger TMUs, weniger Stream Prozessoren.
III. 86%, das sind die ersten Zahlen die ich nachvollziehen kann, wobei er nach den Zahlen die ich gelesen habe (GT200b irgendwob bei 410 und 470mm² groß) zwischen 77 und 100% größer ist. Ausserdem hat er doppelt so viel ROPs, TMUs und Shader wie der G200b.
IV. Nach dieser Rechnung gehst du ja von der deppelten größe des G92b aus, also 470mm² ja was denn nun? Ausserdem hat der GT200b 2x (oder 3,5 mal?) so viele ROPs, 1/3 mehr Shader und mind. 2x so viele TMUs.
V. Das selbe Spiel, doppelte Rops, mehr shader, mehr TMUs.
I. Nach meinen Informationen ist G92b 276mm² groß, rechnerisch komme ich auf minimal 240mm².
II. Siehe I.
III. Nach meinen Informationen ist G200b 470mm² groß.
IV. Ich habe Transistoren und Diegröße verglichen, nicht mehr. Du willst auf einmal Einheiten vergleichen, ein Vergleich der ohne Hintergrund eh wertlos ist?
V. RV790 zeigt eindrucksvoll, das ein größerer Die nicht automatisch entsprechend mehr Transistoren bedeutet. Es ist kein Zufall das ich ihn genannt habe, sollte ein Denkanstoß sein.

Also ein drittel mehr Transistoren sind ein drittel mehr Transistoren .. die wollen untergebracht werden. Im Grunde ging es doch nur um die Aussage, der GT300 wird groß, net mehr, nicht weniger.
Das Drittel ist vorher nicht in den Bemerkungen aufgetaucht.
Ich wollte zudem nur schreiben, das er nicht ein Drittel größer ist.
In der Aussage ging es um G94, das war das eigentlich seltsame.
 
Unyu schrieb:
I. Nach meinen Informationen ist G92b 276mm² groß, rechnerisch komme ich auf minimal 240mm².
II. Siehe I.
III. Nach meinen Informationen ist G200b 470mm² groß.
IV. Ich habe Transistoren und Diegröße verglichen, nicht mehr. Du willst auf einmal Einheiten vergleichen, ein Vergleich der ohne Hintergrund eh wertlos ist?
V. RV790 zeigt eindrucksvoll, das ein größerer Die nicht automatisch entsprechend mehr Transistoren bedeutet. Es ist kein Zufall das ich ihn genannt habe, sollte ein Denkanstoß sein.
I. Da scheint sich die Welt wohl nicht ganz einig zu sein, es ist von 231 bis ~270 einiges zu finden. Die jeweils doppelte TMU, TAU und Shaderanzahl bleibt weiterhin, und muß untergebracht werden.
II. siehe I:
III. hab ich ja bestätigt
IV. Eben, du hast NUR den prozentualen Unterschied zu Transistoren und Die Größe verglichen, um die Behauptung zu untermauern ATI würde ihre Transistoren besser verpacken, hast und willst aber weiterhin dabei nicht mit einbeziehen, das die G92b bzw. G200b vielfach mehr Shader, TMUs und zum Teil ROPs und TAUs unterbringen müssen.
V. Das hat doch auch niemand gesagt, im Gegenteil, du hast ja vorher anscheinend selbst völlig ignoriert das auch weniger Transistoren größere Dies bedeuten können Aufgrund anderer Einheiten.
Umgekehrt bedeuten viele Transistoren im Regelfall jedoch einen großen Die, und obwohl der GT300 in 40nm gefertigt werden soll, wird eine Die in größe des GT200b (also 470mm²) vermutet, was mit Sicherheit an den 70% mehr Transistoren, doppelter Shader Anzahl, mehr TAUs und möglicherweise auch mehr ROPs liegen wird.

Und was die RV790 eindrucksvoll zeigen soll versteh ich nicht, ich sehe jetzt keine deiner Aussagen dadurch bestätigt. Zumal es "nur" 10% mehr Fläche sind, und 3mio mehr Transistoren hat er auch.

Unyu schrieb:
Das Drittel ist vorher nicht in den Bemerkungen aufgetaucht.
Ich wollte zudem nur schreiben, das er nicht ein Drittel größer ist.
In der Aussage ging es um G94, das war das eigentlich seltsame.
Welcher Benchmark? Und wo fehlt das drittel? Und warum sind absolute Zahlen nicht korrekt, relative aber schon? Wenn ich alle Zahlen kenne, weiss ich auch den reltiven bezug. 1,4mio GT200(b) zu 1,600 mio RV870 zu 2,4mio im GT300, und da hat der GT300 - enben anderen Dingen - ein drittel (33%) bzw. mehr als zwei drittel (70%) mehr Transistoren und um die kurve zum Ursprungs des ganzen wieder zu nehmen ...
... deswegen wird der GT300 trotz Shrink wohl recht groß.
 
Zitat:
unwichtig?@kasmopaya

Du kannst mir nicht sagen dass eine Graka überlebenwichtig ist;)
Wir PC Fanatiker sehen dass natürlich anders weil wir viel mehr Geld reinstecken als ein "Otto normal Verbraucher"

mfg
 
milamber! schrieb:
Und was die RV790 eindrucksvoll zeigen soll versteh ich nicht, ich sehe jetzt keine deiner Aussagen dadurch bestätigt. Zumal es "nur" 10% mehr Fläche sind, und 3mio mehr Transistoren hat er auch.
Transistorenanstieg des RV790 entspricht nicht dem Flächenanstieg.

Ist vielleicht ein noch besseres Beispiel als GT200b -> RV770/RV790
Der Transistoranstieg des RV770 im Vergleich zum RV670 ist bei weitem größer als der Flächenanstieg, die einzige Erklärung dafür ist, das die Packdichte erhöht wurde. Stimmst du dem zu oder nicht?


IV. Mehr TMUs, ROPs stimmt. Mehr Shader stimmt nicht, aber die einzelnen vorhandenen Shader sind dafür größer. Aber worauf willst du damit hinaus?
V. Natürlich, man baut keine Spasstransistoren ein, sondern Einheiten die aus Transistoren aufgebaut sind.

Welcher Benchmark? Und wo fehlt das drittel? Und warum sind absolute Zahlen nicht korrekt, relative aber schon?
Benchmark steht nicht in meinem Beitrag.
Er hat ein Drittel mehr Transistoren, ist aber nicht ein Drittel größer, was gibts da für ein Problem?
Relative Zahlen sind xmal besser, siehe unten.

Wenn ich alle Zahlen kenne, weiss ich auch den reltiven bezug. 1,4mio GT200(b) zu 1,600 mio RV870 zu 2,4mio im GT300, und da hat der GT300 - enben anderen Dingen - ein drittel (33%) bzw. mehr als zwei drittel (70%) mehr Transistoren und um die kurve zum Ursprungs des ganzen wieder zu nehmen ...
... deswegen wird der GT300 trotz Shrink wohl recht groß.
Um die Zahlen zu kennen muss man sie nennen, wie du mir eindrucksvoll bewiesen hast.
Ich habe hier http://www.3dcenter.org/artikel/ati-radeon-hd-58505870-spezifikationen 2150 Millionen Transistoren bei 338mm² für RV870 gelesen.

2400 Millionen sind nicht so viel weniger wie 338mm² zu 500mm².
 
Kasmopaya schrieb:
https://www.computerbase.de/forum/t...rce-gt-220-bekannt.627639/page-3#post-6532650
Wurde bei der letzten Generation aus gesagt und heute schauts ganz anders aus. Der Chip der HD 4890 ist genauso teuer wie der von der GTX 275. Chipkosten allein sind nicht alles.

Die Tabelle kauf ich immer noch nicht.
Ein GTX275 GPU ist ein restverwerteter 285 GPU, bei der GTX 260 genauso.

Also kosten alle Dies (für genannte Grakas) prinzipiell das gleiche, nur das NVIDIA für einen "kaputten" Die nicht so viel verlangen kann (als Graka dann).

Auf einen Wafer (4000$) kommen 113 GPUs (GT200b). Macht 35$ pro GPU. Ob 285 oder 216.

Beim RV790 haben wir 282mm², macht bei nem ebenfalls 4000$ Wafer 185 GPUs und ca. 22$ pro Die.

Nix Kostengleichheit ;)

Kasmopaya schrieb:
Äh -> Rofl in der IT Branche sind das Jahrzehnte bis AMD 32nm bringt. Es zählt jeder Tag und jedes Monat ist ein gewaltiger Rückstand, "in Kürze" musst du nochmal überdenken...

Sorry, ich meinte die 34nm SRAM Zellen, die kann jeder (bald) ;)

Und INTEL hat noch keine 32nm CPU released, AMD wird wie immer ein Jahr später nachziehen, keine Jahrzehnte.

Kasmopaya schrieb:
Da sieht man mal wie die Zeit vergeht. ;)

Du siehst immer noch nicht worauf ich hinaus will.

"3-4GFLOP"

So, wenn dus jetzt noch nicht checkst, kann ich dir auch nicht mehr helfen XD

Kleiner Tipp: Schau mal nach, was dein CPU schafft.

Kasmopaya schrieb:
Wirst du das in Zukunft bei allen GPGPU Anwendungen sagen die auf ATI Karten langsamer laufen?

Jup! Scheiße programmiert ist und bleibt scheiße programmiert. (Natürlich nur bei den ATI-Grakas). Du würdest doch auch sagen, wenn WinRAR nur auf AMD Quads auf 4 Kernen läuft, bei INTEL aber nur auf zwei, das es scheiße programmiert ist? Oder nicht?

Unyu schrieb:
Mit der Zeit wächst die Chipgröße, noch nicht gemerkt?
Das Charlie nicht Vertrauensperson Nummer1 sollte langsam mal klar werden, ich habe z.b. knapp unter 500mm² gehört.

Bin ja nicht blöd. Solltest auch lesen, worauf ich geantwortet habe. Nämlich das der GT300 angeblich gleich groß/kleiner sein soll wie/als der GT200b. Ich halte das für Quatsch, außer NVIDIA macht auf einmal nen Riesensprung bei der Packungsdichte, wie du so schön sagst. Und knapp unter 500 ist jetzt auch nicht viel weniger, beim bloßen draufschauen sieht man da vermutlich keinen Unterschied.

Unyu schrieb:

Warten wir ab ;)

Unyu schrieb:
Es bleibt die Thermik. Bekannte Karten zeigen, das 300-400W drin sind. Kein Thema mit spannungs und taktreduzierten Versionen. Siehe sämtliche GX2.
Die aktuelle GTX 295 zeigt sogar, das der ganze Spass auf einem durchschnittlich langem PCB möglich ist.

Haste Recht. Wird halt zunehmend schwieriger mit immer mehr Abwärme, aber das Problem hat AMD ja auch.
 
Zuletzt bearbeitet:
Wieso redet ihr alle von einen RV870?
es gibt diesen Chip nicht und es wird ihn anscheinend nie geben (zumindest nicht mit den Daten die zu der Hd58XX Serie gehören), der Chip der dort verbaut wird trägt den Namen "Cypress"!
 
Zuletzt bearbeitet:
Nein es ist die Bezeichnung der verwendeten Maske (Also des Chips allgemein), genauso wie RV770 bei der ATI Radeon HD4870, Hd4850 und HD4830.
AMD hat einfach das alte Namensschema aufgelöst und eins eingeführt welches auch bei den Prozessoren Verwendung findet.
 
Toxicity schrieb:
Wieso redet ihr alle von einen RV870?
es gibt diesen Chip nicht und es wird ihn anscheinend nie geben (zumindest nicht mit den Daten die zu der Hd58XX Serie gehören), der Chip der dort verbaut wird trägt den Namen "Cypress"!

Cypress ist der Codename , RV870 ist der Chip name .....
 

Ähnliche Themen

Zurück
Oben