News Maxwell-Architektur der GeForce GTX 750 (Ti) enthüllt

aber wer kauft schon vor Release einer neuen Gen?
Ich habe mir erst was neues gegönnt - Einen MK-26, der dürfte auch auf kommende Modelle passen, da er ja jetzt schon auf alle passt.
Da habe ich jetzt schon was davon und ich brauche nach erscheinen nicht auf Modelle mit guter Kühlung warten.
War aber auch ein aufrüst Plan :p
 
Cool Master schrieb:
Vorteil von DX 11.2? Richtig keiner. Da würde ich mir weniger Sorgen machen. Es ist eh fraglich wie lange DX noch existiert, wenn Mantle und OpenCL mal weiter entwickelt werden.

Zu der Graka kann man sagen nett! Eigentlich so das Optimale für ein Mini-ITX System. Sollte sogar Passiv Kühlbar sein.


OpenCl? Das bringt hier nichts. Das wird nicht DX ersetzen (können).
Zielt auf was ganz anderes ab.
 
Novasun schrieb:
OpenCl? Das bringt hier nichts. Das wird nicht DX ersetzen (können).

Er meinte wohl OpenGL. :)

OpenCL ist die Schnittstelle für Berechnungen mit der GPU fürs Rendern, Bildbearbeitung, etc.

Mit DX hat das mal gar nichts zu tun.
 
Regenwürmer schrieb:
Er meinte wohl OpenGL. :)

OpenCL ist die Schnittstelle für Berechnungen mit der GPU fürs Rendern, Bildbearbeitung, etc.

Mit DX hat das mal gar nichts zu tun.

Mag sein, deswegen auch mein Einwand. OpenCL ist erst mal eine Schnittstelle für uneinheitliche Parallelrechner.
Sprich das Ziel hier, war es Programmieren ein Werkzeug an die Hand zu geben um parallel zu berechnende Probleme einfacher auf entsprechender (im Kern durchaus unterschiedliche) Hardware zu berechnen/verteilen.
 
Weiss man was ueber diese CUDA cores ... sind dass dieselbe, wie in Kepler, so dass die Anzahl vergleichbar ist? Die letzte wirklich spannende single GPU Gaming/CUDA Karte war ja leider die 580 :/ Leider bin ich rendermaessig an CUDA gebunden.
 
rudl schrieb:
mich interessiert eigentlich NUR die OpenCL bzw Gpgpu Leistung allgemein.
Und die ist halt seit kepler extrem schlecht, weit weg von konkurenzfähig, unter jeder Kritik.

Kann ich so nicht nachvollziehen. Die CUDA-Leistung (single precision) von GTX-680 (CC 3.0) ist ok, von GTX-780 (GK110, CC 3.5) verdammt hoch (etwa wie bei Titan, CC 3.5). Um OpenCL kümmert sich nVidia nicht, im Gesamtbild ist OpenCL unbedeutend, für nVidia ein "Hobbyprojekt".

Ist halt traurig wenn Fermi in der Hinsicht nach wie vor schneller ist.:freak::freak::freak::freak::freak:
meine gtx460 kommt bei der geschwindigkeit mit blender/cuda oder slg/opencl an eine gtx 670 heran.:freak:

nVidia rechnet grundsätzlich in Performance/Watt. Mach das mal bei GTX460 vs GTX-670. Performance geteilt durch Stromverbrauch.

Ich hoffe für nvidia dass sie da was ändern ...die amd linux treiber werden auch schon langsam gut...

AMD Linux Treiber? Glaubst Du da noch dran? Oh je!
 
Zuletzt bearbeitet:
Abhaengig vom renderer, aber:

19-CUDA-3ds-Max-iRay.png


Man mag das hoch nennen. Gemessen am alter der 580 ist es einfach nur traurig :)
 

Anhänge

  • 19-CUDA-3ds-Max-iRay.png
    19-CUDA-3ds-Max-iRay.png
    24,9 KB · Aufrufe: 511
voon schrieb:
Abhaengig vom renderer, aber:
Man mag das hoch nennen. Gemessen am alter der 580 ist es einfach nur traurig :)

Das ist klar. bei der 580 sind die Shader "hot clocked", also 2 x Core-Frequenz, ab 6xx nicht mehr. Mit dem selben CUDA-Programm wird ab der 580 ein seltsames Bild auftreten, da die 680 ca. doppelt soviele Shader bei einfacher Core-Frequenz aufweist. Das erfordert völlig andere/neue CUDA-Optimierungen. Interessanterweise "kompensiert" die 780 (CC 3.5, Titan-Architektur) das wieder (weil sie so brutal schnell ist).
 
Nvidia hat die Kepler (besonders die kleineren GPUs) nunmal in erster Linie auf Spiele optimiert und nicht auf Render-Leistung.
Wenn man sich anschaut, wie sich der sehr viel kleinere und sparsamere GK104 der GTX680 gegenüber dem GF110-Big-Chip der GTX580 in Spielen schlägt, hatten sie auch vollen Erfolg damit. Da schlägt eine in Sachen technischen Daten eigentlich in fast jeder Hinsicht klar unterlegene Performance GPU klar den alten High-End-Chip.

Ich denke auch, dass sie damit den Anforderungen der meisten potentiellen Kunden entgegen gekommen sind.

Optimal wäre wohl, wenn es jeweils spezialisierte GPUs für Spiele und für professionelle Anwendungen gäbe. Aber das lohnt sich scheinbar nicht.
 
Eben nicht :-) Ich hoff auf ein 580er Revival .... da draussen sind viele Gamer, die Hobbymaessig auch rendern... aber ich mach mir da auch bei den 880ern keine Hoffnung, auf die ich trotzdem warte. Schlechter als meine 670er wird sie kaum sein.
 
Herdware schrieb:
Optimal wäre wohl, wenn es jeweils spezialisierte GPUs für Spiele und für professionelle Anwendungen gäbe. Aber das lohnt sich scheinbar nicht.

Genau das gibt es. Die Server-GPUs haben mehr DP (double precision)-Einheiten freigeschaltet (afaik) sowie zusätzliche Funktionalitäten in Hardware (FP64, ECC etc.) Siehe K20/K40 vs. GTX-780.
 
rudl schrieb:
Ich hoffe für nvidia dass sie da was ändern ...die amd linux treiber werden auch schon langsam gut...

Ich finde sie immernoch grauenhaft. Das ist schon echt eine Frechheit was da abgeliefert wird.

Zu Maxwell: Wann kann man denn schätzungsweise mit dem GK-104-Nachfolger rechnen? Ich würde äußerst ungerne zur GTX 770 greifen...
 
Wieviel Mehrleistung (in Prozent) wird die neue Graka-Generation denn haben können im Vgl. zu einer aktuellen GTX780Ti oder Titan Black?
 
blöderidiot schrieb:
Genau das gibt es. Die Server-GPUs haben mehr DP (double precision)-Einheiten freigeschaltet (afaik) sowie zusätzliche Funktionalitäten in Hardware (FP64, ECC etc.) Siehe K20/K40 vs. GTX-780.

DP braeuchte ich ned mal ... mein renderer nutzt SP. Daher brauch ich keinen Titan ... einfach irgendwas, das fuer gaming und rendering taugt ... wie halt damals die 580. Ich moechte den spirituellen Nachfolger davon :)
 
@blöderidiot
Die GK110 ist somit eben kein Spezial-Chip für Profis, sondern ein Kompromiss.
Die selbe GPU wird für beides benutzt. Bei den für Consumer-Karten eingesetzten GK110 werden nur einige Funktionen künstlich per Software beschnitten, aber die machen die GPU trotzdem groß und teuer. Eine rein auf Spiele optimierte GK110 könnte wahrscheinlich um einiges kleiner sein und vielleicht auch sparsamer (je nach dem wie effektiv sich die ungenutzten Funktionseinheiten abschalten lassen).
(Andersherum brauchen Profis vielleicht andere Features nicht, wie z.B. Hardware-Video-En-/Decoder, viele Textureinheiten usw.)

Die kleinere GK104 hingegen ist schon ziemlich stark auf Gaming spezialisiert. Die wird zwar auch auch in Quadros genutzt, aber wie erwähnt schlägt sie sich da im Vergleich mit den großen Fermis längst nicht so gut, wie bei Spielen.
Aber dafür lässt sie in Spielen z.B. auch AMDs universaler aufgestellte Tahiti-GPUs ziemlich alt aussehen. Jedenfalls wenn man Größe, Transistorenzahl, Verbrauch usw. in Betracht zieht. Tatsächlich ist die GK104 wohl die erste Nvidia-GPU in der jüngeren Geschichte, die kleiner und effizienter ist als die AMD-Konkkurrenz. Und das eben wegen dem Fokus auf Gaming.

@voon
Ich denke, dass die Zahl der Spieler doch relativ klein ist, die auf dem selben PC auch nebenbei rendern oder z.B. professionell CAD betreiben oder komplexe wissenschaftliche Berechnungen anstellen usw. und sich deshalb einen Universal-Chip wünschen.
Meistens hat man dafür zwei verschiedenen PCs. Zuhause eine Gaming-Kiste (z.B. mit i5/i7 und einer GeForce) und bei der Arbeit eine Workstation (mit Xeon und Quadro).

Dass Nvidia und AMD trotzdem für Consumer und Profis die selben GPUs nutzen (und nur über die Treiber und das BIOS differenzieren) hat sicher rein wirtschaftliche Gründe.
 
Zuletzt bearbeitet:
AMD waer die Alternative ... wuerde ich ned CUDA abhaengig sein und haette AMD sinnvolle Treiber. Die AMD GPUs blasen die Nvidia was das angeht dermassen aus den Schuhen :/
 
Jep ... mein Renderer nutzt nur CUDA (Hersteller findet AMD zu chaotisch atm). Ist kommerziell, also recht teuer und ich moechte auch bei dem bleiben. Das mit dem Laemr stimmt nur begrenzt .. R9 mit Customlueftern erreichen konstante 1 GHz bei vernuenftigen Lautstaerkegraden (fressen aber natuerlich weiterhin viel Strom). Dennoch ... AMD kastriert seine Karten nicht wie NVidia.
 
feris schrieb:
Ist das Absicht oder soll nur ein symbolisches Bild sein?

Das Bild vom ersten Artikel sieht irgendwie brutal nach Photoshop aus:

PiPaPa schrieb:
Wo wurden hier Gerüchte entkräftet?
Es wurden lediglich neue unbestätigte Zahlen und Werte eingeworfen.

Erste Tests und off Datenblatt abwarten :rolleyes:

dito - ich bleibe dabei die 750 wird ein Kepler Refresh
 
Zurück
Oben