Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
die Theoretischen Werte sind wenig aussagekräftig. Wichtiger ist ob ich diese auch umsetzen kann, und da bietet NV zur Zeit eben die bessere Plattform. Noch.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Bin persönlich ja grundlegend Nvidia gegenüber eher geneigt,Krautmaster schrieb:die Theoretischen Werte sind wenig aussagekräftig. Wichtiger ist ob ich diese auch umsetzen kann, und da bietet NV zur Zeit eben die bessere Plattform. Noch.
Eventuell ist dabei interessant anzumerken, dass ein SMX 7 Issue-Slots für Befehle pro Takt hat. 2 Davon können maximal DP-Befehle sein, 6 davon maximal SP-Befehle. Dadurch hat er, wenn er die maximalen 2 DP-Befehle pro Takt herausgibt, immer noch 5 Issue Slots für 5-SP Befehle übrig. Bei AMD-Architektur ist das wegen den gemeinsamen Rechenwerken für SP und DP Befehle nicht der Fall. Gerade da man meist nicht bei allen Berechnungen in einem Programm DP braucht, kann man so bei NVIDIA-GPUs etwas mehr Rechenleistung ausnutzen als bei AMD-GPUs. Allerdings fordert das etwas numerisches "Finetuning", da man sich nun um die numerische Genauigkeit beim Programmieren Gedanken machen muss.AMD nutzt 2 Shadereinheiten für DP Berechnungen. Eine CU mit 64 Shadereinheiten entspricht bei DP-Berechnung 32 Einheiten->2:1. Bei Nvidia sind extra FP64-Units verbaut. Auf 192 Cuda-Cores pro SMX-Block kommen 64 FP64-Units bei den großen Chips->3:1. Beim GK104 und kleiner kommen auf 192 Cuda-Cores nur noch 8 FP64-Units->24:1.
GK210 hat womöglich doppelt so viel Cache wie GK110.
Nur auf die GFlops zu achten reicht nun wirklich nicht.
Sind m.E. stark unterschiedliche Architekturen, die beide ihre Vorteile und Nachteile besitzen. Guter Beispiel ist der Registersatz, welcher bei der R290X 11 MB groß ist, während er bei der Titan nur 4 MB groß ist (Mehr Register heißt mehr Platz für Zwischenergebnisse und bessere Möglichkeit Latenzen zu überbrücken). Wenn man sich mal Benchmarksammlungen anschaut, so erkennt man die Architekturunterschiede an starken Schwankungen. Siehe zum Beispiel:Bin persönlich ja grundlegend Nvidia gegenüber eher geneigt,
aber kannst du mir das kurz erklären
OpenCL ist m.E. mehr oder weniger tot. NVIDIA unterstützt es ja nicht mal mehr wirklich.Aber auch die Unterstützung von vorhandenen offen Standards (OpenCL) ist/wird zunehmend wichtiger...
Dann meinen wir wohl dasselbe. Ist noch nicht ganz offiziell. http://www.anandtech.com/show/8729/nvidia-launches-tesla-k80-gk210-gpuNai schrieb:Hmm wo steht das? Habe bisher nur vom verdoppeltem Shared-Memory und den Registersatz gelesen, was ich bereits sehr lecker finde . Wäre schön, wenn sie soetwas auch als Consumer-Karte herausbringen.
Cardhu schrieb:Bin persönlich ja grundlegend Nvidia gegenüber eher geneigt,
aber kannst du mir das kurz erklären
Sehe in den News jetzt erstmal, dass die AMD FirePro S9150 irgendwie besser zu sein scheint bei GFLOPS je Watt. Zudem soll laut dem Thread hier der Wert von Nvidia, der hier genannt wird, "geschönt" sein? Die AMD hängt nicht wirklich viel der Nvidia hinterher bei DP. Davon hau ich mir dann 2 rein, die wohl nicht mehr kosten als eine K80 (vorraussichtlich 7000€ stand hier im Thread).
Strom wäre, wenn ich mir sowas kaufen würde, vollkommen egal, da ich bei 24/7/365 nichtmal 30€ bezahlen würde.
Liegt das an den Treibern bzw dass einige Programme eher auf Nvidia getrimmt ist oder warum wäre hier das grüne Lager zu bevorzugen?
Ist rein für mein Verständnis
Hört sich nicht gut an. Probleme beim 20nm Verfahren? Auf jeden Fall wirds Zeit für Big Maxwell, die Zahlen sind wirklich nicht sonderlich prickelnd im Vergleich mit AMD.Wenn man der Gerüchteküche glauben möchte, hat Nvidia anscheinend in letzter Minute den großen Maxwell gecancelt,
domidragon schrieb:
domidragon schrieb:Und solange selbst Programme wie Blender, welches Gratis ist, nur auf Nvidia Karten rechnen kann, wird es noch eine weile dauern, bis AMD Karten in den einzelnen Programmen auch besser optimiert werden.
domidragon schrieb:Viele Programme fangen nun endlich mit OpenCl an, was auch von AMD Karten berechnet werden kann. Aber wie gesagt, die Optimierung ist noch weit weg von gut.
Du schiebst den schwarzen Peter AMD zu, weil der Softwareentwickler meint nur Cuda zu unterstützen? Selten so ein schwachsinn gelesen.
Und genau da steht AMD deutlich besser da wie Nvidia. Ist ja schön wenn hier eine proprietäre Schnittstelle von Nvidia mit einer offenen verglichen wird. Aber man sollte halt nicht Äpfel mit Birnen vergleichen, sondern Äpfel mit Äpfel.
Nai schrieb:Wieso entscheiden sich viele Softwareentwickler für CUDA? Wohl einfach aus dem Grund, da OpenCL und Alternativen doch nicht ssoo toll sind, wenn es um die Programmierbarkeit geht.
Nai schrieb:Da ist ein Vergleich von NVIDIA-GPUs, sofern es nur um ihre reine Leistung geht, m.E. mit OpenCL nicht wirklich fair. . . . .
An den zwei Jahren Entwicklungsvorsprung täte ich es nicht fest machen. Denn diesen kann man prinzipiell relativ leicht aufholen. Bei OpenCL spielen zwei Faktoren rein: Das grundlegend verkorkste Design der API, welches das Programmieren mit OpenCL zur Hölle macht, und die Tatsache das Khronos schon immer extrem träge war (OpenGL an sich kennt zum Beispiel nun 20 Jahre seit den ersten 3D-Beschleunigern immer noch keine GPUs . . . . ), und somit unfähig ist schnelle Entwicklungen zu machen.Das ist aber nur einer der Gründe von vielen. Cuda gab es nun mal schon vor OpenCL (um genau zu sein 2 Jahre vorher) und somit hat hier Nvidia auch einen deutlichen Entwicklungsvorsprung.
Immer das beste Totschlagargument. Etwas an AMD kann gar nicht schlecht sein, sondern es verkauft seine Produkte immer nur wegen diesen Bestechungen so schlecht.Aber nicht nur das, es wird mit Sicherheit auch der ein oder andere Dollar an gewisse Softwareentwickler geflossen sein.
Wenn mich interessiert, was bei einem Problem mit einer gegebenen GPU *maximal* möglich ist, wäre es relativ verfälschend eine API zu verwenden, mit der ich gar nicht alles aus der GPU herausholen könnte, oder nicht?Ach aber andersrum ist es fair?
Nai schrieb:Immer das beste Totschlagargument. Etwas an AMD kann gar nicht schlecht sein, sondern es verkauft seine Produkte immer nur wegen diesen Bestechungen so schlecht.
Nai schrieb:Siehe http://de.wikipedia.org/wiki/Prozessorkühler unter semi-passiv.