News GeForce GF100 Fermi in „Volume Production“

Status
Für weitere Antworten geschlossen.
Whoozy schrieb:
Gibt es eigentlich einen Unterschied, zwischen Cuda Core und den uns bekannten Alu's ? Oder hat Nvidia es einfach in Cuda Core umbenannt, wegen dem Marketing Effekt ?

Nein, ein Cuda-Core ist keine ALU, er beinhält eine ALU.

Each CUDA processor has a fully pipelined integer arithmetic logic unit (ALU) and floatingpoint unit (FPU).

Ein Cuda-Core ist das, was sich früher Stream Processor oder Shader (-Unit) nannte.
 

Anhänge

  • cuda core.PNG
    cuda core.PNG
    11,2 KB · Aufrufe: 496
Zuletzt bearbeitet:
@y33H@: Den merk ich mir, mal sehen was es wird, Junge oder Mädchen ;)

Sinn machts jedenfalls keinen, das würde bedeuten, das man zwei verschiedene Chips entwickelt (-->Chance =0)

Gleiche Leistung bei weniger Strom würde man IMMER mitnehmen, gerade im (Super)computingbereich, wo bei 1000en Karten schnell mehrere KW zusammen kommen....

Tesla offiziell anfang Q2 (Fiskalisches Jahr)-->Mai.

448 Shader

milamber!: OK ;)

Für die anderen ;)
 
klingt verurteilend negativ ;). Jedoch absolut nachvollziehbare Umbenennung, unter den gegebenen Umständen (GPGPU-Design der Einheiten, gekoppelt mit Nvidias CUDA) Nvidia darf ihre Einheiten doch nennen, wie sie wollen?!
 
Zuletzt bearbeitet:
Wieso nachvollziehbar ? Wenn es das selbe ist nur in grün ?

EDIT: Ja natürlich, das dürfen sie umbenennen wie sie wollen. Für mich ist das aber reines Marketing mehr nicht. Und danach habe ich schließlich gefragt, ob es nun Marketing ist oder was dahinter steckt ;).
 
Zuletzt bearbeitet:
Es steckt ja was dahinter: der offensichtliche GPGPU-Gedanke der Units. CUDA-Core ist sehr passend. (btw: seit HD5k nennt ATI ihre Skalareinheiten "Stream Cores", die 5D-Vektoreinheiten "Stream processing units, ATi Stream lässt grüssen, aber da ist die Umbenennung natürlich legitim)
 
Zuletzt bearbeitet:
Ja ok, davon habe ich jetzt nichts mitbekommen, das Amd nun die Shader Einheit in Stream Core umbenannt haben. Ich bleibe aber trotzdem dabei, reines Marketing geblubber. Denn die Shadereinheiten der Vorgänger ( beider Unternehmen ) können im prinzip das gleiche. Oder hat das auch was mit DX11 und Compute Shader zu tun ?

EDIT: Du brauchts jetzt nicht damit ankommen: " ATi Stream lässt grüssen, aber da ist die Umbenennung natürlich legitim) " Mir ist es sowas von egal ob es AMD oder Nvida ist. Ich bin nicht jemand der sich verpflichtet fühlt, für ein Unternehemn in den Fanboykrieg zu gehen ;)
 
Zuletzt bearbeitet:
Compute shader (4.0) können auch unter DX10 ausgeführt werden:
Compute Shaders can work on DirectX10 hardware (CS4.0), but only through the DirectX11 API.
Compute shader 5.0 geht nur mit DX11-Hardware...

Dass sich Nvidia vom Wortteil "stream" distanziert, ist naheliegend (wegen besagtem ATI Stream).
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:

Was hat eine Tesla C2050 mit der kommenden GTX380 zu tun ?
Das sind Datenblätter für eine Karte für ein völlig anderes Anwendungskonzeptes.

Das da die Taktraten gesengt werden und mit weniger Shader gefahren wird ist absolut richtig.
Die Karte muss 100% Auslastung vertragen für 100 % fehlerlose Berechnungen auf mehrere Tage !
Das geht nur zuverlässig wenn die Karte weit unter ihren Möglichkeiten agiert.

Man stelle sich vor die teure Fermi macht nach 3 Tagen Dauerrechnen kurz vor Beenden plötzlich einen Absturz weil eben doch irgendwo ein Bit verrutscht ist oder das Ergebnis ist wegen Fehlberechnung unbrauchbar. Dann heißt es mal wieder "Die Fermis sind teure Taschenrechner mit eingebauten Pentiumfließkommafehler".

So etwas kann man sich bei einer 2-4 TEURO-Karte nicht leisten !

Bei einer Gamerkarte ist es nicht so tragisch wenn es mal doch irgendwo hängt zumal die Auslastung nie so hoch ist und man daher mehr Shader mit höheren Takt benutzen kann.
 
Zuletzt bearbeitet:
Und btw sind die Daten von Mitte November und basieren auf der A2. Die A3 sollte die Tage durch sein und Infos zu Clocks usw. sickern.

*waiting 4 Tape out*
 
Ja also es ist nur möglich durch die DX11 Api( laut deinem Zitat ) , könnte also durchaus sein, das man deshalb Vorteile gegenüber der DX10 Api hat und deshalb die Umbennenung gerechtfertigt ist ( Warscheinlich ). Aber solange das für mich nicht ersichtlich und geklärt ist, ist es für mich einfach nur Marketing von Amd und Nvidia.
 
die bisher verkauften top teslas hatten gleichen shadercount wie die verkauften geforce gtx285 (240)...
 
Zuletzt bearbeitet:
@Whoozy
DX10 (die API) bietet keine Unterstützung bzw. enthält keine Anweisungen, einen compute shader auszuführen. Dies kann nur DX11 (die API). Diese DX11 compute shader Instruktionen können aber auch von DX10(.1)-Hardware verarbeitet und ausgeführt werden, solange die Instruktionen auf das 4.0 Instruction Set beschränkt ist.

Major differences compared to CS5.0
Max number of threads is 768 total
Dispatch Zn==1 & no DispatchIndirect() support
TLS size is 16 KB
Thread can only write to its own offset in TLS
Atomic operations not supported
Only one UAV can be bound
Only writable resource is Buffer type

Quelle: AMD-PPS GDC 09

Die ganzen Vorteile von CS5.0 kriegst du nur durch DX11-API inkl. DX11-Hardware. Die Umbenennung in CUDA-Core ist gerechtfertigt, weil Nvidia CUDA hat;) Hat überhaupt nichts mit Compute Shader zu tun.
EDIT: Jetzt ists richtig ;) Verschreiber ftl...
 
Zuletzt bearbeitet:
Hallo was habe ich denn grade geschrieben ? ich zitiere mich mal selber damit du es checkst ;)

Ja also es ist nur möglich durch die DX11 Api( laut deinem Zitat )

AwesomeSauce schrieb:
Die ganzen Vorteile von CS5.0 kriegst du nur durch DX10-API inkl. DX11-Hardware.

Nee umgekehrt (laut deinem Zitat ).
Compute Shaders can work on DirectX10 hardware (CS4.0), but only through the DirectX11 API.

EDIT: Mir geht dein ständiges editieren auf die Nerven. Erst schreibst du was falsches und dann änderst du es, willst du mich verarschen ?
 
Zuletzt bearbeitet:
Boah, anstatt 11 eine 10 geschrieben, wie schlimm:rolleyes: Erst an neue Tastatur gewöhnen. Du hast natürlich noch nie einen Schreibfehler gemacht:rolleyes:
Für dich nochmal:
CS4.0 (CS4.1): DX11-API, Direct3D10(.1) Hardware
CS5.0: DX11-API, Direct3D11 Hardware

Und Cuda-Core heissen die ganz sicher nicht wegen DX11, sondern (wie kommts) wegen CUDA. (Die Streamprocessors des GT200 heissen mittlerweile auch CUDA-Cores, das DX11-Argument zieht also nicht!)
 
Zuletzt bearbeitet:
AwesomeSauce schrieb:
Komplettzitat entfernt, bitte die Regeln beachten!

Ja nur das ich nie DX11 als Argument genommen habe. Ich habe danach gefragt ob es daran liegen könnte, das ist ein Unterschied ;). Keine Sorge ich habe es mittlerweile verstanden was es mit DX11 und DX10 und Compute Shader auf sich hat.

Wenn jetzt auch die Streamprozessoren des GT200 Cuda Core heissen, bestärkt mich das nur in meiner Meinung, das nur dem Marketing dient.
 
Zuletzt bearbeitet von einem Moderator:
Natürlich ist das Marketing, jedoch ist der Grund ersichtlich. Marketing klingt immer negativ...
 
Ja, der Grund des Umbenennens ist ersichtlich. Nur ein Mehrwert durch die Namensänderung hat der Kunde nicht :rolleyes:

EDIT: Egal ob Nvidia oder AMD

EDIT 2:
AwesomeSauce schrieb:
Boah, anstatt 11 eine 10 geschrieben, wie schlimm

Das Ding ist, wärend unserer ganzen Unterhaltung hast du deine falschen Aussagen, im Nachhinein korrigiert, als ich schon längst darauf geantwortet habe. Das nervt halt. Ist jetzt aber auch egal, das Thema ist für mich gegessen ;)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben