Schinzie schrieb:
des hat nur eine Auslastung von 85%.
gruß
http://www.nvidia.com/object/cuda_home.html#
Such dir eins aus mit 100%, aber beschwer dich nicht bei mir wenn du kein CUDA hast. In der Liste sind eher CUDA Anwendungen.
Bedenke aber das ATI mit Compute Shaders viel vor hat und jetzt auch mit durchstartet.
Hab grad gelesen bei der 5870 wurde der L2 cache verdoppelt und neue kompressionsverfahren wurden auch verwendet. Das Speichermanagmend ist ja auch viel besser als bei NV. Da sollte 1GB VRAM der Karte locker flockig reichen.
Wenn die Karte bei max. Einstellungen nicht einbricht mit 1GB, ziehe ich offiziell meinen Hut! Aber mal auf die Schnelle 500MB Vram kompensieren, das will ich erstmal sehen...
Lasst euch nicht von solchen Marketing Floskeln blenden. MIMD, speziell in Form von MADD ALUs, gibt es schon sehr lange in GPUs.
Quelle, Beispiele?
Der Chip von ATI ist wesendlich kleiner als das Monstrum G94 und somit auch wesentlich günstiger zu produzieren. Also wirds am Gewinn nicht fehlen eher bei NVIDIA wenn sie das Monster mal auf die Reihe kriegen sieht ja im Momment nicht danach aus das das so bald passiert.
https://www.computerbase.de/forum/t...rce-gt-220-bekannt.627639/page-3#post-6532650
Wurde bei der letzten Generation aus gesagt und heute schauts ganz anders aus. Der Chip der HD 4890 ist genauso teuer wie der von der GTX 275. Chipkosten allein sind nicht alles.
zu zeiten der radeon x-reihe lag das spitzenmodel noch bei 550,- €! und da hatte ati keinen technologischen vorsprung, wie sie ihn jetzt mit der ersten dx11-karte haben...
von daher können wir mit dem preis wohl durchaus zufrieden sein
Mehr als zufrieden, fast zu niedrig, auf jeden Fall Preis/Leistung.
Und diesmal sogar Preis/Leistung im Gesamtpaket wie zb. Idle Stromsparen oder bessere Bildqualität mit AA,AF. Nur noch das Treiberteam komplett auswechseln und man könnte tatsächlich schwach werden.
32nm SRAM Zellen sind aber auch keine Kunst, damit kommt in Kürze jeder um die Ecke.
Äh -> Rofl in der IT Branche sind das Jahrzehnte bis AMD 32nm bringt. Es zählt jeder Tag und jedes Monat ist ein gewaltiger Rückstand, "in Kürze" musst du nochmal überdenken...
Ich habs dir nochmal fett gemacht, nur so als Tipp: Der schnellste Supercomputer etwa 1985 hat auch soviel geschafft
Da sieht man mal wie die Zeit vergeht.
IMO sind die Folding-Programmierer einfach nur zu blöd/faul, auf ATI zu optimieren. Denn die theoretische Leistung, als auch die (daraus resultierende) Leistung bei Computerspielen zeigt, das die ATI-Grakas prinzipell gleich schnell sind wie die NVIDIA-Grakas. Mir erschließt sich deshalb nicht, warum das beim Folding anders sein sollte, außer die Programmierer sind zu blöd/faul es richtig zu machen.
Es waren bestimmt wieder wie fast immer NV Mitarbeiter vor Ort und haben die Software perfekt auf die Hardware abgestimmt um das letzte aus der möglichen Rechenleistung zu holen. ATI Karten haben sie natürlich nicht ausgebremst, nur fallen hald die ATI Karten automatisch zurück wenn sie nicht auch "optimiert" werden
Wirst du das in Zukunft bei allen GPGPU Anwendungen sagen die auf ATI Karten langsamer laufen?
Aber sag niemals nie, wenns um die Chipfläche geht. Vielleicht ist einer der beiden Hersteller verrückt genug, das noch überbieten zu wollen...
Auf jeden Fall schon mal ein enormer Verlust für NV, nichts in der Hand zu haben, bei 55nm hätte man wenigsten was verkaufen können. Ein schlechter 40nm Prozess + neue Architektur= Supergau
Schon langsam setzt sich auch das Puzzle zusammen: NV Chef verkauft Aktien -> die Meldung kommt das 40nm nicht klappt mit GT300 -> Tipp an alle mit NV Aktien
JETZT VERKAUFEN
GT300 schneller als 5870 (so weit klar)
Zudem solls noch ne GX2 Variante geben.
Interessante Formulierung von Fuad allerdings:
Since GT300 has its GX2 brother they should not fear much against Radeon 5870 X2 whenever that comes out,
Bis jetzt is noch nich mal klar, wann der GT300 nun kommt, aber der Release der 5870 X2 wird angezweifelt...
Danke für die Infos, genau sowas will man nach der Arbeit lesen! Fuzi bzw. NV traue ich aber nicht(gezielte Falsch Infos).
Also erstmal auf den 23. warten und sich überraschen lassen. Aber für Spekulationen bin ich immer offen, dann fangen wir mal an:
We can only confirm that GT300 is not a GT200 in 40nm with DirectX 11 support. It’s a brand new chip that was designed almost entirely from the ground up. Industry sources believe that this is the biggest change since G80 was launched and that you can expect such level of innovation and change.
The launch as far as we know is still slated for late November and hasn’t been confirmed.
Fazit: Komplett neue Architektur mit gewaltiger Leistungssteigerung, jeder der sich nicht zumindest den GT300 mal anschaut ist selber schuld
aber in der heutige Zeit wird fast keiner 500,-€ und mehr auf den Tisch legen wegen unwichtigen Dingen wie ne Graka!
:wattunwichtig?
@Romsky: Dafür gibt es noch keine Anhaltspunkte. Großer Die? Ja. Zu spät? Vermutlich. Flop? Kaum.
Das wird erst n Flop, wenn NVIDIA so spät dran ist, das ATI schon wieder den Refresh (mit noch mehr Shadern) bringt. 32nm steht für Q2/Q3 2010 aufm Plan. AFAIK
Gegenüber der GeForce FX 5900 konnte eine GeForce 6800 dank vervierfachter Shaderleistung aber natürlich glänzen, zumal man auch andere Flaschenhälse entfernt hat (3DCenter.de hat dazu interessante Artikel).
Und später ist sie dann umso stärker eingebrochen wegen DX 9c
Ihr seit ja echt verrückt! Da geht man mal kurz in die Arbeit und ihr schreibt den ganzen Tag was das Zeug hält-> die armen Moderatoren