Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia stellt zweite Maximus-Generation mit „Kepler“ vor
- Ersteller MichaG
- Erstellt am
- Zur News: Nvidia stellt zweite Maximus-Generation mit „Kepler“ vor
G
Genscher
Gast
Das schafft auch nur Nvidia: Erst die GPUs beschneiden, so das die 600er Serie in CUDA/OpenCL langsamer ist als der Vorgänger und dann die Quadro rausbringen und sagen "3 mal so schnell wie GTX 680".
Achne. Für 3 x schneller reicht aber auch eine gtx580... spart ungefähr 2000$?
Mal schauen, wie gut die Quadros wirklich sind. Übel ist die Strategie so-oder-so.
@ F_GXdx: Und von wegen "LW10 hat seit 2011 nodes". Ziemlich früh. Blender war schon 2009 mit Nodes dran Insgesamt bleibt aber Houdini der Node-Master
Achne. Für 3 x schneller reicht aber auch eine gtx580... spart ungefähr 2000$?
Mal schauen, wie gut die Quadros wirklich sind. Übel ist die Strategie so-oder-so.
@ F_GXdx: Und von wegen "LW10 hat seit 2011 nodes". Ziemlich früh. Blender war schon 2009 mit Nodes dran Insgesamt bleibt aber Houdini der Node-Master
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
@ Genscher
Das „dreimal so hohe Double-Precision-Leistung“ der GK110-Tesla bezieht sich doch auf die bisherige Fermi-Tesla-Karte (also die selbe GF110 oder GF100-GPU, wie in der GTX580/480).
Worüber genau regst du dich also auf? Darüber, dass Quadros und Tesla mehr kosten, als Consumer-Karten?
Hoffentlich schaust du dann nicht mal auf die Preise der Profi-Software, die auf solchen Karten läuft, im Vergleich mit Spielen. Dann bekommst du wahrscheinlich einen Herzinfarkt.
Im Profi-Segment sind halt die verkauften Stückzahlen viel kleiner, aber der Entwicklungsaufwand mindestens genauso hoch. Deshalb sind auch die Preise viel höher. Aber für die Leute, die mit diesen Werkzeugen ihr täglich Brot verdienen, sind sie das Geld locker wert.
Das „dreimal so hohe Double-Precision-Leistung“ der GK110-Tesla bezieht sich doch auf die bisherige Fermi-Tesla-Karte (also die selbe GF110 oder GF100-GPU, wie in der GTX580/480).
Worüber genau regst du dich also auf? Darüber, dass Quadros und Tesla mehr kosten, als Consumer-Karten?
Hoffentlich schaust du dann nicht mal auf die Preise der Profi-Software, die auf solchen Karten läuft, im Vergleich mit Spielen. Dann bekommst du wahrscheinlich einen Herzinfarkt.
Im Profi-Segment sind halt die verkauften Stückzahlen viel kleiner, aber der Entwicklungsaufwand mindestens genauso hoch. Deshalb sind auch die Preise viel höher. Aber für die Leute, die mit diesen Werkzeugen ihr täglich Brot verdienen, sind sie das Geld locker wert.
K
Kinkaku-ji
Gast
Richtig. Wenn einige hier wüssten, dass so manche CAD-Software 10.000,- Euro kostet, dann wäre ihnen auch klar, in welchem Verhältnis dazu die Preise der Quadro- & FirePro-Grafikkarten stehen.Herdware schrieb:Hoffentlich schaust du dann nicht mal auf die Preise der Profi-Software, die auf solchen Karten läuft, im Vergleich mit Spielen. Dann bekommst du wahrscheinlich einen Herzinfarkt.
Darüber hinaus sollte auch mal an dieser Stelle angemerkt werden, dass Grafikkarten à la Quadro K5000 nur bei sehr großen bzw. komplexen Konstruktionen benötigt werden. Zum Beispiel im Bereich der Luftfahrtindustrie/Maschinenbau. Somit muss man in diesem Bereich die Preise für Soft- & Hardware auch mal ein bisschen in Relation zu dem sehen, was damit konstruiert wird (Z.B. Flugzeuge, Diesel-Motoren für Schiffe etc.).
Ich möchte an dieser Stelle auch zu einem interessanten Test verweisen, den Thg vor kurzem mit einer AMD FirePro V3900 (= Desktop Radeon HD 6570) durchgeführt hat. Nur um für manche hier zu veranschaulichen, wie performant schon eine FirePro für 100,- Euro sein kann. Natürlich entsprechende Software vorausgesetzt.
Im Test: AMD FirePro V3900 - Workstation Light zum Kampfpreis
Zuletzt bearbeitet:
(Typo)
Mr.Seymour Buds
Commodore
- Registriert
- Feb. 2012
- Beiträge
- 4.338
Danke für die Technik News, endlich mal wieder Hardware auf dem professionellen Bereich.
Project-X
Commodore
- Registriert
- Okt. 2003
- Beiträge
- 5.014
In der Schule arbeiten wir mit eine ältere Version des Power Designers, hab mal gefragt warum Sie hier nicht Updaten.
Als Antwort wurde mir genannt dass die Preise zu hoch sind, also forschte ich mal nach.
PowerDesigner
(Aktuelle Version 16.1) Listenpreis
DataArchitect/DM (standalone seat) 2.439,80 €
DataArchitect/RE (standalone seat) 4.065,60 €
InformationArchitect (standalone seat) 6.107,20 €
EnterpriseArchitect (standalone seat) 6.921,20 €
DataArchitect/DM (floating license) 3.661,90 €
DataArchitect/RE (floating license) 6.098,40 €
InformationArchitect (floating license) 9.161,90 €
EnterpriseArchitect (floating license) 10.388,40 €
Bei ca. 200 Schulrechnern hmm... 2 Klassen in richtung Wirtschaftsinformatiker/Software Engineering mit je 20 Schülern und dementsprechend Rechnern kommt man auf eine stolze Summe.
Deswegen finde auch ich dass die Grafikkarten nicht gerade die Welt kosten. Und für die Firmen ist den Support sehr wichtig, und die Quadros bieten auch einen um Welten besseren Support an als für uns 0815 Usern.
Als Antwort wurde mir genannt dass die Preise zu hoch sind, also forschte ich mal nach.
PowerDesigner
(Aktuelle Version 16.1) Listenpreis
DataArchitect/DM (standalone seat) 2.439,80 €
DataArchitect/RE (standalone seat) 4.065,60 €
InformationArchitect (standalone seat) 6.107,20 €
EnterpriseArchitect (standalone seat) 6.921,20 €
DataArchitect/DM (floating license) 3.661,90 €
DataArchitect/RE (floating license) 6.098,40 €
InformationArchitect (floating license) 9.161,90 €
EnterpriseArchitect (floating license) 10.388,40 €
Bei ca. 200 Schulrechnern hmm... 2 Klassen in richtung Wirtschaftsinformatiker/Software Engineering mit je 20 Schülern und dementsprechend Rechnern kommt man auf eine stolze Summe.
Deswegen finde auch ich dass die Grafikkarten nicht gerade die Welt kosten. Und für die Firmen ist den Support sehr wichtig, und die Quadros bieten auch einen um Welten besseren Support an als für uns 0815 Usern.
ich_nicht
Captain
- Registriert
- Nov. 2009
- Beiträge
- 3.151
http://andrewprice.tumblr.com/post/28956186367/an-awesome-method-for-eliminating-noise-in-cycles
Auch eine seht gute Idee um ein bisschen Renderzeit zu sparen.
Auch eine seht gute Idee um ein bisschen Renderzeit zu sparen.
Eisenfaust
Banned
- Registriert
- Feb. 2007
- Beiträge
- 1.212
Fishlike schrieb:Aber nicht in dieser Geschwindigkeit
[...]
Nirgendwo zeigt irgendjemand etwas über die verwendete Hardware! Unsere Graphik- und Numbercruncher-Maschinen, die mit einer TESLA bestückt sind, sind auch unter Blender rasant schnell! Es kommt darauf an, was und wie man demonstriert.
F_GXdx schrieb:[...]
Der Lightwave Viewport Renderer / Live Renderer läuft allerdings momentan nur auf der CPU (allerdings extrem schnell), da laut Angabe der Entwickler, die heutigen Grakas zu wenig Speicher haben (Bottleneck). [...]
4 GB sind zu wenig, wenn man große Frames berechnen will. Wenn man dann die GPU auch noch für die Berechnung von Problemstellungen - wie etwas Partikeldynamik, Hydrodynamik et cetera nutzen will, können die Speicherengpässe schnell nervig werden.
Genscher schrieb:Das schafft auch nur Nvidia: Erst die GPUs beschneiden, so das die 600er Serie in CUDA/OpenCL langsamer ist als der Vorgänger und dann die Quadro rausbringen und sagen "3 mal so schnell wie GTX 680".
Achne. Für 3 x schneller reicht aber auch eine gtx580... spart ungefähr 2000$?
Mal schauen, wie gut die Quadros wirklich sind. Übel ist die Strategie so-oder-so.
[...]
nVidia spielt hier mit Worten und man sollte schon sehr genau lesen, was nVidia vor allen Dingen NICHT sagt. Eine auf dem GK110 basierende K20 rechnet also drei Mal schneller als eine Fermi. Da diese Aussage von nVidia gemacht wurde, als es gerade noch so KEINE TESLA C2095 gab, also alle TESLA ce C20XX Serie mit 448 Shader Kernen arbeiten (die C2095 hat dann 512), ist die Leistungssteigerung dann doch etwas geringer, vergleicht man sie mit einem Fermi mit 512 Kernen (nVidia spricht ja stets von CUDA Kernen).
Für die wirklich rechenintensiven Aufgaben sind die doppelt genauen Arithmetikeinheiten wichtig. Theoretisch ist die DP Leistung 1/2 der SP Leistung, da nVidia mit Fermi erstmalig von dedizierten DP-Rechenwerken in den Kernen abgesehen hat - meines Wissens - und je zwei SP-Einheiten (bzw. die Registerbreiten von je 64 Bit) nun zusammenführt.
Wenn mich aber nicht alles täuscht, ist die gesamte Arbiterlogik der CUDA kerne, also Caches, Prefetcher, Pipelines und so weiter auf SP-Durchsatz getrimmt, weil das immer noch in der Bildbearbeitung die maßgebliche Genauigkeit ist (Filter zum Beispiel). Aus diesem Grunde wird dann auch die DP Leistung weniger als 1/2 der SP Leistung betragen - zumindest bei Fermi ist das so.
Kepler 110 soll ja nun über neue architektonische Elemente verfügen, die jetzt konkurrierende Kernel erlauben - bisher konnte nur ein Kernel zur selben Zeit arbeiten (mir ist die Terminologie nicht ganz geläufig, CUDA und OpenCL benutzen differente Terminologien). Zudem kann ein GPU Thread in Kepler 110 nun 255 Register verwenden - anstelle der bisherigen 63. Das ist eine Steigerung, die man nicht mißachten sollte.
Nun ist die Frage, wie nVidia die "dreifach höhere DP Leistung" nun ermittelt.
Wir haben für eine original nVidia TESLA C2075 ca. 2500 Euro bezahlt - derweil bietet PNY dasselbe Produkt auch für 2000 Euro an. Wenn man nur kurzfristig laufende kernel auf die GPU schickt und ECC keine dominante Rolle spielt (alles, was mehrere Minuten nonstop auf der GPU rechnet, sollte ECC geschützt sein - man braucht es!), dann ist eine AMD GCN HD7970 in etwa bei DP genauso schnell wie eine TESLA 2075 - kostet aber nur 1/4 bis 1/5. Leider ist die OpenCL Entwicklungsumegbung Umgebung auf der AMD Plattform nicht so ausgereift wie unter nVidias CUDA SDK 4.2. Zudem plagen (zumindest uns) Treiberprobleme unter LinSux. Im Moment würde ich, wenn sich die Treibersituation sowie eine breitere Opensource-Verträglichkeit hinsichtlich OpenCL 1.2 einstellen würde, eher zur AMD HD7970 greifen als zu einer nVidia - einfach, weil AMD scheinbar derzeit noch keine Kastrationen am Chip durchgeführt hat, wohl um sich den Einstieg in eine professionelle Domäne zu erleichtern, die derzeit von nVidia dominiert wird.
Herdware schrieb:@ Genscher
Das „dreimal so hohe Double-Precision-Leistung“ der GK110-Tesla bezieht sich doch auf die bisherige Fermi-Tesla-Karte (also die selbe GF110 oder GF100-GPU, wie in der GTX580/480).
[...].
... eine GTX580 darf aber mit 512 Shader kernen werkeln, wovon aber dann nur 1/4 als DP Einheiten nutzbar sind, effektiv also nur 1/8 der SP Leistung. Eine GTX570 nutzt dann auch nur 1/8, allerdings von nur 448 Shader Kernen.
Bei den GK104-GPUs ist die SP-DP Relation dann bei 1/24. Das ist das, was bislang bei Lowend Karten unterhalb einer GTX560Ti üblich ist. Selbst die GTX560Ti "darf" mit FP64 = 1/12 * FP32 arbeiten. Es ist also gar kein Wunder, daß die GTX680 in vielen numerischen Benchmarks, die DP voraussetzen, so schrecklich einknickt. Für mich sind solche Karten völlig wertlos. Anwendungen können zunehmend via OpenCL 1.1 oder 1.2 Prozesse auf der GPU rechnen lassen - das macht vor allem mit DP (double) viel freude, weil es doch schneller geht als auf der CPU - vor allem beherrschen die nVidia und AMD GPUs FMA und einige besonders genaue Additionsschemata sowie schnelle Sinus und Cosinus Entwicklungen, die zum Teil sogar genauer sind als viel Intel-x86 Implementationen, die ich bislang gesehen habe.
nVidia hat wohl die letzte Chance genutzt, den Markt nochmals nach eigenem Gusto zu kneten und zu formen. Wenn AMD nun verstärkt mit der GCN auch in die professionelle Domäne eindringt bzw. deren APUs mit GCN kern für OpenCL-Backends attraktiv werden, kann nVidia jetzt von einem höheren Preisniveau aus starten! Mit dem GK104 wird GPGPU-Müll erster Sahne verkauft. In puncto Graphik mögen die GTX6XX ja schick sein, aber sie sind schnekcenhaft lahm, wenn man sie zum Beispiel als DP GPGPU verwenden will und hier ziehen die GTX570 und GTX580 locker vorbei.
NVidia muss eher in einem höheren Preissegment starten. AMD beschneided ihre Consumer GPUs nicht, sodass die mit den günstigen Quadros teilweise mithalten. Dazu werde die günstigen Quadros von den FirePro APU vielleicht verdrängt. Für die Quadros im low end Bereich seh ich keine guten Aussichten.
Im High End Bereich wird NVidia wohl wieder die Nase vorne haben. Ein 7Mrd Transistoren Monster wird wohl nicht zu schlagen sein ^^
Im High End Bereich wird NVidia wohl wieder die Nase vorne haben. Ein 7Mrd Transistoren Monster wird wohl nicht zu schlagen sein ^^
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
Ich denke ich werd mir auch dieses 7Mrd Monster ala GK110 holen. Also die Desktopkarte dann @ Wakü.
TXAA macht sich wohl auch sehr gut und kommt auch in vielen aktuellen Titeln:
http://www.geforce.com/whats-new/articles/the-secret-world-txaa/
Die Glättung bei hoher Auflösung ist gut, wichtiger ist aber, dass das Flimmerverhalten praktisch ausgelöscht wurde.
http://www.pcgameshardware.de/aid,1...l-Approximate-Anti-Aliasing/Grafikkarte/Test/
aus dem Forum:
TXAA macht sich wohl auch sehr gut und kommt auch in vielen aktuellen Titeln:
http://www.geforce.com/whats-new/articles/the-secret-world-txaa/
Bisher gesichert ist die Unterstützung für MechWarrior Online, The Secret World, Eve Online, Borderlands 2, Unreal Engine 4, BitSquid, Slant Six Games und Crysis 3.
Die Glättung bei hoher Auflösung ist gut, wichtiger ist aber, dass das Flimmerverhalten praktisch ausgelöscht wurde.
http://www.pcgameshardware.de/aid,1...l-Approximate-Anti-Aliasing/Grafikkarte/Test/
aus dem Forum:
http://www.abload.de/img/thesecretworlddx11201disrh.png Ohne
http://www.abload.de/img/thesecretworlddx11201n2sbr.png TXAA
http://www.abload.de/img/thesecretworlddx1120148u43.png Ohne
http://www.abload.de/img/thesecretworlddx112012dune.png TXAA
http://www.abload.de/img/thesecretworlddx11201cxu3y.png Ohne
http://www.abload.de/img/thesecretworlddx112019eut9.png TXAA
http://www.abload.de/img/thesecretworlddx11201ryufr.png Ohne
http://www.abload.de/img/thesecretworlddx11201x4uyq.png TXAA
http://www.abload.de/img/thesecretworlddx11201gvua6.png Ohne
http://www.abload.de/img/thesecretworlddx11201dfuit.png TXAA
(Großer Dank an Atma )
http://www.abload.de/img/thesecretworlddx11201hauwr.png Ohne
http://www.abload.de/img/thesecretworlddx11txa74uh8.png 4xTXAA
(Dank an Lurelein aus dem 3D-Center Forum)
Zuletzt bearbeitet:
B
boxleitnerb
Gast
"Macht sich sehr gut"? Du meintest wohl "Matscht sehr gut".
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
@boxleitnerb
trifft auch etwas zu, ich denke jedoch dass bei nem ausreichend hochauflösenden Display das ruhigere Bild vom Vorteil her überwiegt.
Mit Downsampling hält es nicht mit. Hatte ich aber auch nicht erwartet.
Zudem sieht man das wohl eher in Bewegung.
trifft auch etwas zu, ich denke jedoch dass bei nem ausreichend hochauflösenden Display das ruhigere Bild vom Vorteil her überwiegt.
Mit Downsampling hält es nicht mit. Hatte ich aber auch nicht erwartet.
Zudem sieht man das wohl eher in Bewegung.
B
boxleitnerb
Gast
Das Video hab ich mir natürlich angeschaut. Ruhig aber matschig. Mit SGSSAA kann es nicht mithalten und der Performancehit scheint laut ersten Userberichten auch ziemlich heftig zu sein.
Mir wäre es lieber, Nvidia würde SGSSAA offiziell machen.
Mir wäre es lieber, Nvidia würde SGSSAA offiziell machen.
Ähnliche Themen
- Antworten
- 107
- Aufrufe
- 19.101
- Antworten
- 17
- Aufrufe
- 5.343
- Antworten
- 2.600
- Aufrufe
- 446.187
- Antworten
- 21
- Aufrufe
- 5.653
- Antworten
- 65
- Aufrufe
- 10.872