Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsFirePro S9300 X2: Radeon Pro Duo ohne Video-Ausgänge für HPC-Systeme
Während sich AMD mit der Radeon Pro Duo vornehmlich an Entwickler von VR-Spielen richtet, ist die technisch verwandte FirePro S9300 X2 explizit für den Bereich High Performance Computing (HPC) bestimmt. Als reiner Rechenbeschleuniger verfügt die Karte über keine Videoausgänge. Die Leistung liegt unterhalb der Radeon Pro Duo.
Wenn die Karte über keinen Ausgang verfügt, muss das entsprechende Bild ja über einen anderen Ausgang ausgegeben werden(CPU-GPU) oder 2. GPU-PCIx .
Das die Bilder viel Rechenaufwand beinhalten ok, aber das Bild an sich bei der Wiedergabe braucht es dann doch auch. Oder schafft das DANN jede einfache interne?
die Karte berechnet keine Videodaten, ergo gibt sie auch kein Bild aus. Die stecken in 19" Racks und die Daten werden über eine SSH Verbindung von einem Remote- oder Steuerrechner abgerufen. Darstellung interessiert da niemanden.
Ich verstehe diese Karte nicht so ganz. Wurde nicht bei der Maxwell Karte gejammert, dass 12Gb zu wenig wären. Jetzt hat diese Graka ihre Stärke bei den neuen Codes, die aber auch vermehrt auf mehr Speicher setzten. Die alte Generation ist bei dem "alten" Scheiß sogar schneller. Also muss man doch jetzt speziell für diese Hardware programmieren, oder schon spezielle Software, die viel Leistung, neuen Code und wenig Speicher braucht, besitzen. Um es nochmal zu sagen, bei Maxwell war es ein Riesen Problem "nur" 12GB zu bekommen.
Wie dem Artikel zu entnehmen ist: "Die SX9300 X2 ist somit auf Gleitkommaberechnungen mit einfacher Präzision und Applikationen, die nicht Unmengen von Videospeicher benötigen, zugeschnitten."
Hilft halt nicht, AMD sind da einfach noch die Hände gebunden. Dennoch massive Rechenleistung. Findet bestimmt genug Abnehmer.
Wenn die Karte über keinen Ausgang verfügt, muss das entsprechende Bild ja über einen anderen Ausgang ausgegeben werden(CPU-GPU) oder 2. GPU-PCIx .
Das die Bilder viel Rechenaufwand beinhalten ok, aber das Bild an sich bei der Wiedergabe braucht es dann doch auch. Oder schafft das DANN jede einfache interne?
Tendenziell schafft das jede Interne. Den einfach nur ein Video in 4K mit 60Hz rauszuhauen bekommt jede neuere interne GPU hin.
Ergänzung ()
r4yn3 schrieb:
Wie dem Artikel zu entnehmen ist: "Die SX9300 X2 ist somit auf Gleitkommaberechnungen mit einfacher Präzision und Applikationen, die nicht Unmengen von Videospeicher benötigen, zugeschnitten."
.
Die Frage ist, gibt es viele Anwendungen, die von Rohleistung profitieren und wenig Speicher brauchen, denn meiner Erfahrung nach, wer viel rechnet, braucht nen großen Cache/Speicher.
Puh...mit dem Markt kenn ich mich nicht aus., aber auf dem ersten Slide werden ja Beispiele genannt. Nur weil ich sie nicht kenne, heißt das ja noch lange nicht dass es sie nicht gibt.
Immer wieder der wahnsinn zu sehen was für eine angepasste firmware und support, und besonders die steuerliche Abschreibbarkeit da ein Pro Gerät, am Endpreis aufgeschlagen wird. Ich bin mir sehr sicher dass die teile viel billiger wären, wenn man sie steuerlich nicht abschreiben könnte :-)
Immer wieder der wahnsinn zu sehen was für eine angepasste firmware und support, und besonders die steuerliche Abschreibbarkeit da ein Pro Gerät, am Endpreis aufgeschlagen wird. Ich bin mir sehr sicher dass die teile viel billiger wären, wenn man sie steuerlich nicht abschreiben könnte :-)
Mit die Karte berechnet Bilder, war alles gemeint. Ich weiß die berechnen von mathematischen Gleichungen über Sonnenwindberechnungen bis Aktienkursen alles.
Mir ging es jetzt aber wirklich speziell um Berechnungen von Grafikanwendungen.
Nehmen wir an hier werden Tsunamiberechnungen angestellt im 19" Rack. Reicht dann die Leistung der Remoteschnittstelle aus?
Ich denke man kann sich dass einfach wie Bitcoinmining vorstellen. Hier hast du auch an sich kein Bild, die Karte rechnet einfach nur. Auch bei Tsnumaiberechenungen, werden keine Bilder berechnet sondern einfach nur Daten.
Und selbst wenn sie Bilder berechnet, dann nicht für ne Live-Anzeige, die werden eher für spätere Analysen gespeichert. Aber unabhängig davon würde ein billiger OnBoard Grafikchip für ne Live-Anzeige ausreichen.
Bei der Visualisierung einer Graphikszene im Cluster gibt es idr. zwei Möglichkeiten:
1. Man kopiert die Daten der Szene, die verteilt auf allen GPUs vorrätig liegt, zu einer einzigen GPU und zeichnet sie dann dort.
2. Jede GPU zeichnet nur diejenigen Daten, die sich gerade in ihrem DRAM befinden, in ein Teilbild. Anschließend werden die Teilbilder zu einer einzigen GPU kopiert und dann dort kombiniert.
In beiden Fällen ist das Kopieren idr. viel viel aufwändiger als eine einfache Graphikausgabe über eine Remote-Schnittstelle.
Bei Compute muss nicht alles 2x vorgehalten werden, genauso wie das auch bei DX12 kommt. 2x4GB sind also 8GB hier.
So leicht ist es auch nicht. Der Speicher addiert sich in verteilten Systemen bei vielen Algorithmen nur eingeschränkt, unabhängig davon ob es jetzt DX-11 (es war bereits unter DX 11 möglich, für jede GPU ein eigenes Speichermanagement zu programmieren), DX-12 oder irgendeine GPGPU-API wie CUDA oder OpenCL verwendet.
wär mal interessant zu sehen, wie sich solche HPC Karten beim Mining schlagen. Ich hab das vor längerer Zeit mal mit GraKa Clustern gemacht und konnte nicht mal ansatzweise die Stromkosten decken.