Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Gibt es eigentlich einen Unterschied, zwischen Cuda Core und den uns bekannten Alu's ? Oder hat Nvidia es einfach in Cuda Core umbenannt, wegen dem Marketing Effekt ?
@y33H@: Den merk ich mir, mal sehen was es wird, Junge oder Mädchen
Sinn machts jedenfalls keinen, das würde bedeuten, das man zwei verschiedene Chips entwickelt (-->Chance =0)
Gleiche Leistung bei weniger Strom würde man IMMER mitnehmen, gerade im (Super)computingbereich, wo bei 1000en Karten schnell mehrere KW zusammen kommen....
Aha, ok alles klar, also hat man zwecks Marketing, einfach die Shader Prozessoren in Cuda Coreumbenannt ( das kann Nvidia gut ). Hab ich das jetzt richtig verstanden ?
Pfff, ich fühl mich verarscht. Btw ist Sabotuer auf dauer genauso öde wie GTA4, Assasins Creed oder Far Cry 2 :-/
Aber es läuft auf Max Details in 1680 mit ner 88gt, (wobei ih fast vermute das game tut selbst teilweise an den Details schrauben, oder die Enginge ist schlecht).
klingt verurteilend negativ . Jedoch absolut nachvollziehbare Umbenennung, unter den gegebenen Umständen (GPGPU-Design der Einheiten, gekoppelt mit Nvidias CUDA) Nvidia darf ihre Einheiten doch nennen, wie sie wollen?!
Wieso nachvollziehbar ? Wenn es das selbe ist nur in grün ?
EDIT: Ja natürlich, das dürfen sie umbenennen wie sie wollen. Für mich ist das aber reines Marketing mehr nicht. Und danach habe ich schließlich gefragt, ob es nun Marketing ist oder was dahinter steckt .
Es steckt ja was dahinter: der offensichtliche GPGPU-Gedanke der Units. CUDA-Core ist sehr passend. (btw: seit HD5k nennt ATI ihre Skalareinheiten "Stream Cores", die 5D-Vektoreinheiten "Stream processing units, ATi Stream lässt grüssen, aber da ist die Umbenennung natürlich legitim)
Ja ok, davon habe ich jetzt nichts mitbekommen, das Amd nun die Shader Einheit in Stream Core umbenannt haben. Ich bleibe aber trotzdem dabei, reines Marketing geblubber. Denn die Shadereinheiten der Vorgänger ( beider Unternehmen ) können im prinzip das gleiche. Oder hat das auch was mit DX11 und Compute Shader zu tun ?
EDIT: Du brauchts jetzt nicht damit ankommen: " ATi Stream lässt grüssen, aber da ist die Umbenennung natürlich legitim) " Mir ist es sowas von egal ob es AMD oder Nvida ist. Ich bin nicht jemand der sich verpflichtet fühlt, für ein Unternehemn in den Fanboykrieg zu gehen
Was hat eine Tesla C2050 mit der kommenden GTX380 zu tun ?
Das sind Datenblätter für eine Karte für ein völlig anderes Anwendungskonzeptes.
Das da die Taktraten gesengt werden und mit weniger Shader gefahren wird ist absolut richtig.
Die Karte muss 100% Auslastung vertragen für 100 % fehlerlose Berechnungen auf mehrere Tage !
Das geht nur zuverlässig wenn die Karte weit unter ihren Möglichkeiten agiert.
Man stelle sich vor die teure Fermi macht nach 3 Tagen Dauerrechnen kurz vor Beenden plötzlich einen Absturz weil eben doch irgendwo ein Bit verrutscht ist oder das Ergebnis ist wegen Fehlberechnung unbrauchbar. Dann heißt es mal wieder "Die Fermis sind teure Taschenrechner mit eingebauten Pentiumfließkommafehler".
So etwas kann man sich bei einer 2-4 TEURO-Karte nicht leisten !
Bei einer Gamerkarte ist es nicht so tragisch wenn es mal doch irgendwo hängt zumal die Auslastung nie so hoch ist und man daher mehr Shader mit höheren Takt benutzen kann.
Ja also es ist nur möglich durch die DX11 Api( laut deinem Zitat ) , könnte also durchaus sein, das man deshalb Vorteile gegenüber der DX10 Api hat und deshalb die Umbennenung gerechtfertigt ist ( Warscheinlich ). Aber solange das für mich nicht ersichtlich und geklärt ist, ist es für mich einfach nur Marketing von Amd und Nvidia.
@Whoozy
DX10 (die API) bietet keine Unterstützung bzw. enthält keine Anweisungen, einen compute shader auszuführen. Dies kann nur DX11 (die API). Diese DX11 compute shader Instruktionen können aber auch von DX10(.1)-Hardware verarbeitet und ausgeführt werden, solange die Instruktionen auf das 4.0 Instruction Set beschränkt ist.
Major differences compared to CS5.0
Max number of threads is 768 total
Dispatch Zn==1 & no DispatchIndirect() support
TLS size is 16 KB
Thread can only write to its own offset in TLS
Atomic operations not supported
Only one UAV can be bound
Only writable resource is Buffer type
Die ganzen Vorteile von CS5.0 kriegst du nur durch DX11-API inkl. DX11-Hardware. Die Umbenennung in CUDA-Core ist gerechtfertigt, weil Nvidia CUDA hat Hat überhaupt nichts mit Compute Shader zu tun.
EDIT: Jetzt ists richtig Verschreiber ftl...
Boah, anstatt 11 eine 10 geschrieben, wie schlimm Erst an neue Tastatur gewöhnen. Du hast natürlich noch nie einen Schreibfehler gemacht
Für dich nochmal:
CS4.0 (CS4.1): DX11-API, Direct3D10(.1) Hardware
CS5.0: DX11-API, Direct3D11 Hardware
Und Cuda-Core heissen die ganz sicher nicht wegen DX11, sondern (wie kommts) wegen CUDA. (Die Streamprocessors des GT200 heissen mittlerweile auch CUDA-Cores, das DX11-Argument zieht also nicht!)
Ja nur das ich nie DX11 als Argument genommen habe. Ich habe danach gefragt ob es daran liegen könnte, das ist ein Unterschied . Keine Sorge ich habe es mittlerweile verstanden was es mit DX11 und DX10 und Compute Shader auf sich hat.
Wenn jetzt auch die Streamprozessoren des GT200 Cuda Core heissen, bestärkt mich das nur in meiner Meinung, das nur dem Marketing dient.
Das Ding ist, wärend unserer ganzen Unterhaltung hast du deine falschen Aussagen, im Nachhinein korrigiert, als ich schon längst darauf geantwortet habe. Das nervt halt. Ist jetzt aber auch egal, das Thema ist für mich gegessen