News Wenig Bewegung beim Markt für diskrete Grafiklösungen

Athlonscout schrieb:
Es könnte ja ein Kratzer vom Einbau auf der Slotblende sein.^^

Jetzt mal im Ernst, wie soll ein Hersteller überhaupt mitbekommen, dass du einen Costumkühler verbaut hast?
In der Praxis sieht es doch so aus, dass man die Grafikkarte wieder in den Auslieferungszustand zurückrüstet und beim Einschicken eine Fehlerbeschreibung beilegt. Du wirst da nirgends gefragt, ob du den Kühler gewechselt hast.
Zudem ist ein gerichtliches Einklagen einer (freiwilligen) Garantieleistung ohnehin nicht erfolgversprechend.

Sapphire benutzt Loctite für die Schrauben. Die sehen also sofort ob die Schrauben draußen waren oder nicht.
Da müsste man vorab wieder selbst die Schrauben sichern
 
Gerade beim Software Support schlägt NVidia AMD meiner Erfahrung nach um Längen. Wer sich schonmal mit GPGPU Computing außeinandergesetzt hat wird zB die Vorteile von Cuda sehr zu schätzen Wissen.

Dann war Apple ein Unternehmen, das anscheinend nicht so überzeugt war von der Cuda-Lösung, denn die verbauen spezielle eine FirePro-Serie und die Mac Pros werden nur für GPGPU-Aufgaben genutzt. Zusätzlich sieht Nvidia kein Land bei Bitcoin und LiteCoin-Minen und darüber hinaus ist es schon lange nicht mehr wirklich möglich mit Grafikkarten zu Minen, denn ein 3x Raspberry PI und Mining Sticks kosten weniger als eine Grafikkarte mit der selben Hash/Rate und brauchen nicht annähernd 50 Watt und selbst, da ist es mit der vorherrschenden Berechnungsschwierigkeit kaum mehr möglich. Nur spezielle SoCs wie die ASICs machen Sinn und die daraus resultierende Weiterentwicklung und der Rest schrottet nur die Grafikkarte ein, um 2 Euro im Monat zu verdienen.

Sozusagen kann es egal sein ob Maxwell, da noch etwas drehen kann...
 
Zuletzt bearbeitet von einem Moderator: (Beitrag wiederhergestellt)
Man muss sich das mal Vorstellen. Jetzt hat Nvidia so einen großen Marktanteil, trotz ihrer hohen preise. Sollten die wirklich mal unter die 50% Marke fallen, schrauben die den preis einfach runter und das Blatt wendet sich wieder sofern der Preis wirklich künstlich hoch gehalten wird. Andernfalls würde der Fall von Nvidia dann nicht mehr zu stoppen sein.

Generell finde ich es immer wieder Lustig solche Statistiken zu sehen. Wird doch überall rumgeheult wie teuer die sind und was für unnütze Features diese besitzen (Physix). Offensichtlich haben sie aber alles richtig gemacht, auch wenn nicht unbedingt m Sinne des Käufers der eben nicht so viel Geld hat.

Ganz ehrlich, ich habe so ein Ergebnis nicht erwartet. Ich dachte schon das es Knapper ausgeht. Habe aber auch den Markt nicht wirklich beobachtet.

@Kaiserjäger

Evtl. liegts daran das Nvidia vom Support evtl. teurer ist, und Apple die Ersparnis durch die Nutzung von AMD den Mehrpreis einfach beim Kunden wieder drauf schlägt. Schlicht einfach mehr Gewinn für apple.
 
Zuletzt bearbeitet:
Evtl. liegts daran das Nvidia vom Support evtl. teurer ist, und Apple die Ersparnis durch die Nutzung von AMD den Mehrpreis einfach beim Kunden wieder drauf schlägt. Schlicht einfach mehr Gewinn für apple.

Wie sollte das gehen, wenn sie zuvor immer Tesla oder Quadro benutzt haben, auf einen Schlag sind irgendwann die Supportkosten beim anderen in den Keller gerutscht oder wie sollte man das verstehen? Übrigens wie man sieht, hast du keine Ahnung, denn wenn es um Preise geht, dann weil AMD extra fast passiv gekühlte Module zur Verfügung stellen kann, sprich da bewährte sich Modularität gleicher Fall auch bei den Spielekonsolen und darüber hinaus stellt die FirePro für den Preis die stärkste SuperComputing Karte dar, denn die AMD FirePro S10000 ist leistungsstärker als eine Tesla K10 und kostet einen Tausender weniger und auch die K20, K20X und M2090 haben keine Chance gegen die S10000.

Zusätzlich braucht es um an die DoublePrecision-Leistung der S-Serie heran zu kommen schon die besten Xeon Phis, da schaut es bei Nvidia schlecht aus.
 
Zuletzt bearbeitet von einem Moderator: (Beitrag wiederhergestellt)
Ich hab geschrieben evtl. mein Freund. Also Fahr mal ganz schnell wieder nen Gang runter. Ich hab evtl. geschrieben und nicht das es so ist. War halt n Gedankengang von mir. Hätt ja auch sein können. Das ich davon Ahnung habe, habe ich nirgends erzählt.

Ich find ja toll das AMD günstig ist und viel leistet, Aber bitte les noch 5 mal den Beitrag bevor du gleich wieder so patzig wirst.

Bein Gedankengang den ich dort geschrieben habe würde sehr gut auf Apples Firmenpolitik passen, daher der Gedanke ;-) Wir alle wissen was ein Iphone wert ist und was es wirklich kostet. Das trifft auf so ziemlich alles zu was apple im Sortiment hat.

Wenn AMD und nvidia fast gleich viel im Support kosten ists ja ok. Dann war halt mein Gedanke falsch. Bricht da jetzt irgendwo ne Traumwelt zusammen? -NEIN


By the way scheint ja das Toll-Sein von AMD Karten absolut nix zu bringen damit die mal ihren Marktanteil hoch schrauben könnten. Das wäre in jeder Hinsicht zu begrüßen. Dann müsste Nvidia endlich mal die Preise runter drehen um wieder an Anteile gewinnen zu können. Aber das bleibt wohl Wunschdenken. Ich wünsche mir da schon Lange eine ausgeglichenere Statistik.
Aber, irgendwo muss der Wurm drinnen sein, sonst würde es eben Faktisch anders aussehen. Das kann alleine nicht nur auf Marketing zurückzuführen sein, nicht bei so einem Vorsprung und nicht bei deren Preisen.
 
Zuletzt bearbeitet:
black90 schrieb:
PhysiX wird öfter genutzt als du denkst, vor allem in den wichtigeren Spielen wie Borderlands 2.
Sieh dir Videos zu Physix an und du bereust als Gamer AMD gekauft zu haben !

In BL2 hast du dank PhysiX tausende kleiner Partikel die überall rumliegen wenn du etwas befeuerst, sowie korrekt fließende Flüssigkeiten und wehende Flaggen. Das ist als ob man von Minimum auf Ultra Grafik stellt.
Bei AMD kannst erst mal 10 FPS abziehen weil die CPU das machen muss, nur weil AMD Fanboys meinen sie müssten 30€ sparen ;)

Ich kaufe mir lieber das Komplettpaket, auch wenn es teurer ist. Da hat man keine Sorgen mit, alles wichtige dabei, besserer Treiber Support usw. AMD ist nur ein Kompromiss zwischen Preis/Leistung und fehlenden Features, den ich persönlich wegen 50€ Preisunterschied nicht eingehen werde.
Fanboy-Gelaber: Nvidia hatte in letzter Zeit mehr Treiberprobleme als AMD. Das unterschlagen die Nvidia-Fanboys aber immer gerne. In wie vielen Spielen wird Physiks genutzt? Borderlands als "wichtigeres Spiel" zu bezeichnen ist auch schon wieder Fanboygelaber. Wichtige Spiele sind solche,die von vielen Spielern gespielt werden wie z. B. Battlefield,CoD,WoT usw.
Hatte schon Karten beider Hersteller. Bin aber wegen dem besseren P/L Verhältnis derzeit bei AMD. Und bei mir läuft alles (BF,WoT...) in hoher Auflösung ohne Probleme.
 
Weder AMD noch Nvidia stehen unter Zugzwang.
Die Leistung für 1080P hat man bereits 2011 zur Verfügung gestellt.
Aktuelle Spiele lassen sich bereits auf einer ~150€ GPU ohne Probleme in 1080P flüssig darstellen.

Im Bereich des PC-Gamings muss man eben warten bis 1440P und UltraHD weiter verbreitet ist; dann wird sich auch wieder etwas bei den dedizierten GPUs tun!
 
Kaiserjäger schrieb:
Dann war Apple ein Unternehmen, das anscheinend nicht so überzeugt war von der Cuda-Lösung, denn die verbauen spezielle eine FirePro-Serie und die Mac Pros werden nur für GPGPU-Aufgaben genutzt. Zusätzlich sieht Nvidia kein Land bei Bitcoin und LiteCoin-Minen und darüber hinaus ist es schon lange nicht mehr wirklich möglich mit Grafikkarten zu Minen, denn ein 3x Raspberry PI und Mining Sticks kosten weniger als eine Grafikkarte mit der selben Hash/Rate und brauchen nicht annähernd 50 Watt und selbst, da ist es mit der vorherrschenden Berechnungsschwierigkeit kaum mehr möglich. Nur spezielle SoCs wie die ASICs machen Sinn und die daraus resultierende Weiterentwicklung und der Rest schrottet nur die Grafikkarte ein, um 2 Euro im Monat zu verdienen.

Sozusagen kann es egal sein ob Maxwell, da noch etwas drehen kann...

Apple als Unternehmen ist es herzlich egal, ob Software letztlich über Cuda oder OpenCL beschleunigt wird.
Die sehen hauptsächlich den Gewinn, den sie dabei machen können. Und da AMD momentan die günstigeren Karten im Angebot hat ist es nur logisch, dass man die verwendet. Gerade Apple als sehr stark gewinnorienitiertes Unternehmn wechselt deswegen gerne mal seine Partner.

GPGPU Performance an Hand von Bitcoin Mining festzumachen ist so ein bisschen wie den Wert von Unternehmen an deren Börsenkurs abzulesen. Über die eigentlich Leistung sagt das so gut wie nichts aus. Gerade bei Bitcoin Mining schneiden ASICs naturgemäß hervorragend ab. Aber der Begriff GPGPU sagt es eigentlich schon: General Purpose ist das Ziel und da kannst du ASICs einfach vergessen. Ist eben immer die Frage was du haben willst. Klar wenn es nur darum geht einen Spezialfall abzuhandeln werden General Purpose Prozessoren immer den Kürzeren ziehen, sowohl bei der Leistung als auch der Energieeffizienz.

Von daher entschuldige, aber wenn du unter GPGPU Computing hauptsächlich Mining verstehst, dann hast du das Konzept dahinter wohl nicht ganz verstanden.

Rechenleistung bieten die Tesla Karten auch genug. Die Tesla K40 kann es durchaus mit einer FirePro aufnehmen. Die theoretische Rechenleistung erreicht sie zwar nicht ganz, aber durch das bessere Speicherinterface und die energieeffizienteren Architektur muss sie sich wahrlich nicht verstecken. Dazu kommt noch, dass dank Cuda eine effizientere Nutzung der Grafikkarte möglich ist (je nach Situation/Kernel ca. 10-70%).

@katamaran3060: Nenn mir mal ein paar Treiberprobleme die "NVidia in letzter Zeit mehr hatte als AMD".
Behaupten kann das jeder. Hast du dafür einen Beweis? Sonst läuft deine Aussage nämlich wirklich genau auf "Fanboy-Gelaber" hinaus.
 
Zuletzt bearbeitet:
Naja, hab seit Anfang an AMD genutzt und erst die jetzige also ne GTX 570 is wieder die erste nvidia. Aber das Ding mit den Treibern, klar, beide haben ihre macken, aber bisher hatte ich keine unter nvidia und damals unter AMD 4k und 5. Serie, viel zu viele. Werd deshalb wohl bei Nvidia vorerst bleiben.
 
Nenn mir mal ein paar Treiberprobleme die "NVidia in letzter Zeit mehr hatte als AMD".
Behaupten kann das jeder. Hast du dafür einen Beweis? Sonst läuft deine Aussage nämlich wirklich genau auf "Fanboy-Gelaber" hinaus.

Ich denke dass er darauf anspricht:

https://www.computerbase.de/2013-06/nvidia-treiber-geforce-320.18-macht-probleme/

Und diese Problem wurden wochenlang nicht behoben. Aber man scheint das Nvidia eher zu verzeihen als AMD zumindest wenn ich hier lese dass man sich daran erinnert mal Probleme bei der hd 4xxx Reihe gehabt zu haben. Das wäre dann also der Beleg den du gefordert hast, ob das noch den Gesichtspunkt "in letzter Zeit" trifft darf jeder für sich entscheiden. Ein Glanzpunkt für Nvidias hochgelobte Treiber war es sicherlich nicht.
 
Zuletzt bearbeitet:
@Dai6oro
Dann macht man halt ein Downgrade. Oder wird man gezwungen den Treiber wochenlang zu nutzen? Und wie viele Karten wirklich davon kaputt gegangen sind ist ebenfalls fraglich. Nur weil es ein paar Leute angeblich berichten kann man das nicht hochrechnen.

Die letzten wirklichen Treiberprobleme hatte ich Ende 2007 mit der frisch releasten 8800 GT. Da haben einige Spiele nicht richtig funktioniert. Das ganze wurde einen Monat später aber komplett behoben.
Bei der HD2600 hatte ich die ganze Zeit derartige Probleme mit Flashvideos, dass ich das Notebook wieder verkauft habe. Bei der 9800 Pro hab ich Anfang 2006 keine Treiber mehr bekommen.
 
Rechenleistung bieten die Tesla Karten auch genug. Die Tesla K40 kann es durchaus mit einer FirePro aufnehmen. Die theoretische Rechenleistung erreicht sie zwar nicht ganz, aber durch das bessere Speicherinterface und die energieeffizienteren Architektur muss sie sich wahrlich nicht verstecken. Dazu kommt noch, dass dank Cuda eine effizientere Nutzung der Grafikkarte möglich ist (je nach Situation/Kernel ca. 10-70%).

Die Tesla K40 steht erst in den Startlöchern die Daten der Karten übertreffen, aber immer noch die S10000 nicht, denn das Speicherinterface bei der K40 liegt bei 288 GB/s und die FirePro liegt bei 480 GB/s also ein klein wenig großer Unterschied oder sehe ich etwas falsch, darüber hinaus wird die einfache und doppelte Genauigkeit auch nicht von AMD erreicht.

K40: 4,29 TFlops/1,43 TFlops (Preis weit über 5000$)
S10000: 5.91 TFlops/1.48 TFLOPS (Preis 3500$)

Übrigens die Energieeffizienz kann man bei wahrscheinlich 1800€ Preisunterschied vernachlässigen, da man dafür über 8000 Kilowatt Stunden bekommt.

GPGPU Performance an Hand von Bitcoin Mining festzumachen ist so ein bisschen wie den Wert von Unternehmen an deren Börsenkurs abzulesen. Über die eigentlich Leistung sagt das so gut wie nichts aus. Gerade bei Bitcoin Mining schneiden ASICs naturgemäß hervorragend ab. Aber der Begriff GPGPU sagt es eigentlich schon: General Purpose ist das Ziel und da kannst du ASICs einfach vergessen. Ist eben immer die Frage was du haben willst. Klar wenn es nur darum geht einen Spezialfall abzuhandeln werden General Purpose Prozessoren immer den Kürzeren ziehen, sowohl bei der Leistung als auch der Energieeffizienz.

Übrigens die Bitcoins habe ich nur als Beispiel hergenommen, da einer im Thread dies in Verbindung mit Maxwell angesprochen hat und Cuda angeblich in kommen sei. Darüber hinaus fallen bei GPGPU extrem viele Anwendungen darunter, aber beide Unternehmen sind hier mit OpenGL/CL und Cuda softwaremäßig auf dem selben Stand, einzig und allein die GPU-Power und Treiber sind ausschlaggebend und die Business - Treiber sind auch bei beiden identisch, hier ist einzig und allein Matrox allen voraus.
 
Zuletzt bearbeitet von einem Moderator: (Beitrag wiederhergestellt)
Ich bin überrascht wie wenig einige User sich über AMD eigentlich informieren. Die Probleme sind hausgemacht und der Kurs im Markttrend ist voraussehbar!
Man darf nicht vergessen, dass AMD Ende 2011 fast die gesamte Marketingabteilung entlassen hatte:

Quellen:
http://winfuture.de/news,67126.html


Massive Entlassungen zur selben Zeit:
https://www.computerbase.de/2011-11/amd-entlaesst-1.400-mitarbeiter/

Da fehlen auf einmal über 3000 Mitarbeiter. Jedem dürfte klar sein, dass da auch viele Leute aus dem Treiber-Team und dem Support gehen mussten. Genau das sind die wunden Punkte, an denen AMD immer noch krankt. Das rächt sich mit der Zeit. Während Nvidia sich stetig um Kunden und Partner gekümmert hat oder zumindest den Anschein erweckt hat, wurde geanu dies von AMD sträflichst vernachlässigt.


MikelMolto schrieb:
Ich kaufe doch nicht von einer Firma, nur weil die in der Krise steckt und ich der jetzt helfen will. Solche komischen Meinungen lese ich immer wieder hier in dem Forum.

Genau so sehe ich das auch! Man hat ja anhand von 3dfx gesehen wieviel das bringt, wenn ein Grafik-Unternehmen in Schieflage gerät. Ich werde diese Ideologie nie verstehen. Unter dem Gesichtspunkt, dass AMD immer noch nach Intel die größere Konzern gegenüber Nvidia ist, muss man schon von Idiotie sprechen. Die Jungs hatten einmal Umsätze von 1,6 bis 1,9 Milliarden Quartalsumsatz während Nvidia bei 700-900 war. Jetzt ist AMD umsatztechnisch deutlich schlechter und Nvidia knapp über der Milliarde.

Das zeugt von massivem Missmanagement!


katamaran3060 schrieb:
Fanboy-Gelaber: Nvidia hatte in letzter Zeit mehr Treiberprobleme als AMD. Das unterschlagen die Nvidia-Fanboys aber immer gerne.

Es spricht niemand davon, dass Nvidia-Treiber unfehlbar sind. Auch sie haben Probleme, Bugs und Fehlerchen. Doch im Gegensatz zu AMD werden diese relativ zeitnah behoben, weil dort auch wirklich ausreichend Personen sitzen, die sich auch um das Problem kümmern. Bei AMD wird das Problem "irgendwann" einmal gelöst - wenn überhaupt. Ich weiß definitiv von Bugs aus 2010, die bis heute nicht gefixt wurden.

Wenn das für dich als Betroffener passiert, fühlst du dich alleine gelassen und sogar "verarscht". AMD hat zu viele kleinere Mängel und kann das nicht alles mit leicht günstigeren Preisen ausgleichen. Da geben die Leute lieber etwas mehr für ihre Grafikkarten aus....
 
Zuletzt bearbeitet:
AMD Grafikkarten sind schon echt gut, vor allem wenn man an "Mantle" denkt mit dem Spiele deutlich besser laufen als mit DirectX. Und das Preis/Leistungsverhältnis schlägt die entsprechenden Nvidia Karten schon seit etlichen Jahren. AMD bei selber Leistung immer deutlich günstiger.

ABER das alles nutzt nix, wenn die Karten nicht lieferbar sind ! Die R9 290(X) sind jetzt seit fast 3 Monaten angekündigt, aber kaum lieferbar. Logisch dass die Kunden die jetzt z.B. für BF4 ihren Rechner aufrüsten wollen sich dann doch ne Nvidia GTX 780(ti) zulegen, wenn die von der Leistung her in etwa identische R9 290(x) einfach nicht lieferbar ist.

Mit diesen Paperlaunches tut AMD sich echt keinen Gefallen. Wenn die was neues ankündigen soll es es auch gefälligst verfügbar sein und nicht erst paar Monate später. Nvidia ist da deutlich cleverer. Die kündigen was an und kurz darauf ists auch verfügbar.
 
Man darf bei der ganzen Sache nicht vergessen, dass es noch andere Faktoren gibt, als nur Preis, Leistung, Qualität usw. Die meisten dedizierten Grafikkarten gehen nicht einzeln über den Ladentisch, sondern in Komplettrechnern. Und auch damit eine einzelne Karte in einem bestimmten Supermarkt oder Onlineshop in den Regalen/Listen landet, muss der Hersteller erstmal entsprechende Kontakte zu den Händlern aufbauen und pflegen.

Gute, langfristige Beziehungen zu OEM-Herstellern und Händlern aufzubauen und zu pflegen hat Nvidia in der Vergangenheit offensichtlich wesentlich besser hinbekommen, als AMD.

Klar spielen da manchmal auch illegale oder grenzwertige Methoden eine Rolle (siehe Intel) aber vor allem ist es eine Frage von kompetenten, engagierten Vertrieblern und dass das Unternehmen da wirklich Prioritäten setzt, mit seinen Großkunden und Händlern ein gutes, dauerhaftes Verhältnis zu pflegen.

Ich kenne da Geschichten aus alten Zeiten über die alten Homecomputer-Hersteller, die genau da teilweise haarsträubende Fehler gemacht haben. Commodore, Atari und Co. sind damals auch deshalb zu Grunde gegangen, weil sie es sich immer wieder mit den Händlern verdorben hatten. Da kann man die besten Produkte zu den günstigsten Preisen haben und trotzdem lassen sie sich nicht verkaufen, wenn der Verkäufer nur mit den Schultern zuckt, wenn der Kunde (der vielleicht etwas darüber in einem Computermagazin gelesen hat) nach diesem neuen Produkt fragt.
 
Kaiserjäger schrieb:
Die Tesla K40 steht erst in den Startlöchern die Daten der Karten übertreffen, aber immer noch die S10000 nicht, denn das Speicherinterface bei der K40 liegt bei 288 GB/s und die FirePro liegt bei 480 GB/s also ein klein wenig großer Unterschied oder sehe ich etwas falsch, darüber hinaus wird die einfache und doppelte Genauigkeit auch nicht von AMD erreicht.

K40: 4,29 TFlops/1,43 TFlops (Preis weit über 5000$)
S10000: 5.91 TFlops/1.48 TFLOPS (Preis 3500$)
Nur dass die maximalen Werte die diese Karten erreichen können nicht unbedingt aussagekräftig sind, gerade weil bei der FirePro zwei GPUs auf einem PCB sitzen und sich deswegen auch ein PCIe Interface teilen müssen. Und das ist ein nicht unbeachtliches Problem, wenn man sich überlegt, dass GPUs ihre Daten immer noch von der CPU zugeteilt bekommen und dadurch erst mal alles über den PCIe läuft dürfte NVidia hier schon mal den riesen Vorteil haben nur eine GPU pro PCB zu haben, die sich mit niemandem die PCIe Bandbreite teilen muss. Im Idealfall bräuchte die FirePro den zwar ca. 70% der Zeit um die selben Berechnugen durchzuführen (und das auch nur wenn der entsprechende Kernel Compute-Bound ist) wie die Tesla, aber dafür hat sich die Tesla Karte die Daten im Idealfall 100% schneller aus dem Hauptspeicher geholt. Wenn Daten jetzt aus dem Hauptspeicher geholt und wieder zurückgeschrieben werden müssen kann man sich dadurch sehr viel Zeit sparen.
Die Speicherbandbreite ist bei der NVidia wirklich größer, da AMD nicht die Datenrate für eine sondern beide GPUs angegeben hat. NVidia nur für eine (da sich nur eine GPU auf dem PCB befindet). Bedeutet AMD hat pro GPU 240GB/s und NVidia 288GB/s. Bedeutet wenn der zu bearbeitende Kernel jetzt noch Memory Bound ist (zB bei Stencil oder FFT Berechnungen), dann zieht die AMD Karte eindeutig den Kürzeren.

Eigentlich kann man das ganze so zusammen fassen, dass je mehr Speicherzugriffe erfolgen müssen, umso schlechter wird eine FirePro S10000 gegenüber der Tesla Karte abschneiden. Und bei GPGPU hast du ziemlich oft große Mengen an Daten. Kann aber natürlich auch sein, dass NVidia langsamer ist, weil die zugehörige PCIe Infrastruktur die Bandbreite limitiert sodass die Grafikkarte nicht das volle Potential ausschöpfen kann. Dann wäre die FirePro bei entsprechenden Kerneln wieder im Vorteil durch ihre höhere Rohrechenleistung.


Übrigens die Energieeffizienz kann man bei wahrscheinlich 1800€ Preisunterschied vernachlässigen, da man dafür über 8000 Kilowatt Stunden bekommt.
Es geht mir dabei weniger um den geringeren Betrag auf der Stromrechnung sondern eher um die Dimensionierung der Stromversorgung.
Gerade Supercomputer wie Titan die auf etlichen Tausend dieser Karten basieren würden dadurch doch ein paar MW mehr benötigen, was sich dann für den Betreiber auch wieder in der Anschaffung teurerer und aufwändigerer Stromversorgung bzw. USV bemerkbar macht. Und gerade in der Größenordnung kommt das unter Umständen wesentlich teurer als der Preisunterschied zwischen den Grafikkarten.

@Dai6oro: Ah stimmt der 320 Treiber. Das aber schon n bisschen länger her. Gut sagen wirs mal so. Das war der erste und einzige NVidia Treiber mit dem ich genau so viele Probleme hatte wie mit allen AMD Treibern davor und danach. Das waren ein paar Wochen wo ich NVidia etliche male verflucht habe ;)
Mittlerweile läuft die Karte aber wieder so wie sie soll, wohingegen sich das Verhalten meiner AMD Karte immer noch nicht gebessert hat und ich bezweifle stark, dass es das jemals tun wird. Aber die Hoffnung stirbt zuletzt.
 
Nur dass die maximalen Werte die diese Karten erreichen können nicht unbedingt aussagekräftig sind, gerade weil bei der FirePro zwei GPUs auf einem PCB sitzen und sich deswegen auch ein PCIe Interface teilen müssen. Und das ist ein nicht unbeachtliches Problem, wenn man sich überlegt, dass GPUs ihre Daten immer noch von der CPU zugeteilt bekommen und dadurch erst mal alles über den PCIe läuft dürfte NVidia hier schon mal den riesen Vorteil haben nur eine GPU pro PCB zu haben, die sich mit niemandem die PCIe Bandbreite teilen muss. Im Idealfall bräuchte die FirePro den zwar ca. 70% der Zeit um die selben Berechnugen durchzuführen (und das auch nur wenn der entsprechende Kernel Compute-Bound ist) wie die Tesla, aber dafür hat sich die Tesla Karte die Daten im Idealfall 100% schneller aus dem Hauptspeicher geholt. Wenn Daten jetzt aus dem Hauptspeicher geholt und wieder zurückgeschrieben werden müssen kann man sich dadurch sehr viel Zeit sparen.
Die Speicherbandbreite ist bei der NVidia wirklich größer, da AMD nicht die Datenrate für eine sondern beide GPUs angegeben hat. NVidia nur für eine (da sich nur eine GPU auf dem PCB befindet). Bedeutet AMD hat pro GPU 240GB/s und NVidia 288GB/s. Bedeutet wenn der zu bearbeitende Kernel jetzt noch Memory Bound ist (zB bei Stencil oder FFT Berechnungen), dann zieht die AMD Karte eindeutig den Kürzeren.

Die Speicherbandbreite ist sicherlich kein Krüppel bei diesen Karten, da es darum geht nur die GPU mit genügend Daten zu versorgen, aber ich denke kaum eine Grafikkarte ist fähig so viele Daten zu verarbeiten. Das Speicherinterface ist großzügig angelegt worden und die Karten benützen nicht mal die volle Bandbreite oder sind dazu nicht fähig und übrigens auch die Tesla K10 ist eine Dual-GPU Grafikkarte dieses teilt sich noch weniger Speicherbandbreite auf 2 SoCs auf und wird dadurch keines Wegs beschnitten oder gedrosselt.

Zusätzlich sind die Server alle mit DDR3 Ram ausgestattet die im Symmetric QuadChannel laufen und so kann die Speicherbandbreite des internen Interfaces und des PCIe genutzt werden.

Dimensionierung der Stromversorgung.
Bei Anlagen ab einen MegaWatt und zuvor werden so ausgestattet das ein einziges USV das mit starken Doppelschicht-Kondensatoren ausgestattet ist und nur für Sekunden die Spannung aufrechterhält und dann ein Notfall Dieselgenerator, je nach Dimension auch mehrere einschalten. Denn wer IT-Systemplanung kennt, weiß, dass USV extremst teuer sind und nach 5 Jahren ausgetauscht werden müssen, ein Dieselgenerator muss nicht mal nach 30 Jahren ausgetauscht werden. Darüber hinaus gibt es bei solchen Generatoren nur große Varianten, somit macht es, denn Generator nichts aus oder besser die Anlage, wenn 20% oder 30% mehr verbraucht werden, da man diese Anlagen nicht zielgerecht realisieren kann und sie zumeist immer überdimensioniert sind und trotz allem sicherer, wartungsfreundlicher und darüber hinaus billiger als eine USV - Lösung.
 
Zuletzt bearbeitet von einem Moderator: (Beitrag wiederhergestellt)
Ob die Speicherbandbreite außreichend ist liegt nicht nur daran, wie viel die GPU weghauen kann sondern auch daran welche Berechnungen durchgeführt werden sollen. Bei einem FFT Kernel der klassischerweise eher memory-bound ist bringt es dir gar nicht, wenn deine GPU 20 TFLOPs durchführen kann, dein Speicherinterface aber auf 200 GB/s beschränkt ist. Du wirst mit dieser Karte langsamer sein, als mit einer anderen die nur 10 TFLOPs kann, dafür aber ihren Speicher mit 300 GB/s angebunden hat.
Schau dir zB mal diesen Benchmark an:
fft21.png
Hier wurde ein FFT Kernel sowohl mit einer K20 (Kepler) wie auch mit einer C2070 (Fermi) durchgeführt.
Wie man sieht ist die Kepler Karte grob abgelesen ca. 1,5 mal schneller. Ihre Rechenleistung ist aber 3,4 (SP) bzw. 2,2 (DP) so hoch. Wieso also nur 1,5 facher Leistungszuwachs?
Schauen wir uns das Speicherinterface an, sehen wird dass die eine Karte 208 GB/s und die andere 144 GB/s schafft. Entspricht also einem Zuwachs von etwa 44% also fast genau dem, was die Kepler-karte schneller geworden ist.
Anhand dieses Beispiels kann man eigentlich ganz gut zeigen, dass heutige GPUs sehr wohl durch ihr Speicherinterface begrenzt werden können.

Und bezüglich Dual GPU hast du mich vllt. falsch verstanden. Die Bandbreite des internen Speichers ist da nicht so entscheidend für den Flaschenhals, weil der sowieso doppelt für beide GPUs ausgelegt wurde. Aber irgendwie musst du die Daten auch erst mal auf die GPU bekommen und über PCIe 3 bekommst du maximal 15,3 GB/s rüber, die sich beide GPUs dann teilen müssen. Wenn du jetzt große Datenmengen zu verschieben hast, dann wartest du einfach mal ein paar 100 ms ohne dass überhaupt irgendwas berechnet wurde. Und bei einer Dual GPU im Extremfall eben doppelt so lange.

Jetzt stellt sich die Frage hat man überhaupt so viele Daten. Die Antwort lautet: Ja
Gerade dann wenn viele Berechnungen anstehen lohnt sich der Einsatz einer GPU. Bei wenigen Berechnungen lohnt es sich meist nicht, da die CPU schneller mit den Berechnungen fertig ist als es überhaupt dauert die Daten auf den Grafik-RAM zu schieben. Ergo haben wir gerade dann wenn es günstig ist eine Grafikkarte einzusetzen auch ein erhöhtes Datenaufkommen und hier kann der PCIe durchaus zum limitierenden Faktor werden, gerade wenn zwei GPUs auf einem PCB sitzen.

Bei der USV hab ich einfach den Dieselgenerator dazugezählt ... ja is eigentlich nicht korrekt, aber was solls ;)
 
Zurück
Oben