News Kommt Nvidias GK110-GPU als „GeForce Titan“ in den Handel?

Hallo? Das sind lediglich Gerüchte! Und SweClockers lag mit der 680er auch falsch. Also immer mal locker bleiben...
 
steve127 schrieb:
Na wunderbar, nennen wir das ding titan und verlangen statt 599 für eine gtx780 einfach mal 899. Danke nvidia.
Das Ding hat schließlich auch doppelt so viele Transistoren an Bord (über 7 Milliarden) und da wird die Ausbeute auch um einiges geringer ausfallen als beim GK10x (3,5 Milliarden Transistoren).

Da ist es schon gerechtfertigt, dass der mehr kostet.
 
Ball_Lightning schrieb:
Ich finde es traurig, dass diese schon immer und noch immer falsche Aussage noch als "Ergänzung" unter die News gepackt wird.

Och, das steigert bestimmt das Wohlgefühl der GTX 680-Käufer, die sich für sehr viel Geld eine Mittelklassekarte haben andrehen lassen. :D
 
Wie ergibt sich denn dieser Preis - das Gewicht der Karte mit Titan aufgewogen?!?
Da bleib ich vorerst bei AMD in der Hoffnung, dass die es nicht so schnell nachmachen.
Ich möchte - auch wenn ich es mir denken kann - nicht wissen was eine Dual-GPU-Karte kostet. Dafür bekomm ich ja einen ganzen PC!
 
Genau Leute bleibt mal ruhig nvidia ist nicht dämlich die wollen nicht nur das Geld der Superreichen. An das Geld des kleinen Mannes wollen die auch. Und deswegen wird es so wie immer auch Mainstream Karten geben. Macht euch doch nichts vor als wenn die darauf verzichten.
 
Ich hoffe mal die haben das dynamic parallelism; also das Starten von Kernels von einem Kernel aus in CUDA; nicht bei den Desktop karten verkrüppelt. Denn das wäre ein Feature mit dem ich gerne herumalbern würde. . . . .
 
Lassen wir uns doch mal überraschen!

Allerdings hege ich so meinen Verdacht, daß nVidia bezüglich der Preisgestaltung "ernst" macht. Das Preisniveau mit Einführung des KEPLER Chips wurde ja ebenso synthetisch in unverschämte Höhen gehoben und sicherlich wird sich nVidia denken, daß, solange AMD nicht mit einem schnelleren Produkt den Markt betritt, in Ermangelung eines Konkurrenten eben auch exorbitante "Enthusiastenpreise" verlangt werden können.

Eventuell wird aber auch die mit 15 SMX Einheiten bestückte KEPLER GK110 so feilgeboten, anzunehmen wäre, daß die "kleineren", sprich kastrierten GK110 mit jeweils 14 (oder noch weniger SMX EInheiten) sodann die GTX 780 und kleiner mimen werden - für 500 oder 600 stolze (T)Euro.

Leider ist der GTX 6X0-Müll auf KEPLER GK100 Basis kaum für anspruchsvollere Arbeiten zu gebrauchen, da die GPU langsamer DP rechnet als der FERMI Vorgänger - Dank Massenkastrationen und Designalterationen. Die Karte taugt nur zum Spielen, mehr nicht. Und ich wette, daß nicht jeder, der halbwegs "professionell", also abseits der normalen X11 Anzeige, mit der Karte arbeiten will (GPGPU ist bereits in vielen prof. Disziplinen Standard) nicht(!) zu einer um den Faktor 10 bei gleichem Leistungsniveau teureren Quadro Karte greifen wird. nVidia hätte das gerne so, aber deren Vorstand glaubt ja auch an Märchen, in denen Golddukaten scheißende Esel zuhauf vorkommen.

Na, mal sehen, ob sich AMD endlich erbarmt auch mal abseits des LiSux und Windoof Gedöns ordentliche treiber produziert und endlich plattformübergreifend OpenCL anbietet. Wenn nVidia jetzt einen geldgeilen (statt geldwerten) Fehler macht, wäre das die Chance für AMD, einen Füß in die Tür zu setzen - meine ich jedenfalls.
 
Ich habe das Gefühl, dass die Nachricht von einigen irgendwie falsch verstanden wird. So wie ich das verstehe, handelt es sich bei der Titan nicht um die GTX 780, 760 usw., sondern um eine neue High End Karte, die ganz einfach zwischen den Generationen veröffentlicht wird. Die Titan kommt, wenn man den Spekulationen glauben schenken mag, Ende Februar und soll 899 Dollar kosten, aufgrund dieser Informationen ist davon auszugehen, dass die Karte in einer Liga mit der GTX 690 und der Readon 7990 spielen soll oder knapp darunter positioniert wird. Die nächste Grafikkarten Generation von Nvidia ist nach wie vor die GTX 700er Reihe und die wird wahrscheinlich erst im Mai, frühestens im April erscheinen.

Natürlich sind das bisher alles nur Spekulationen, trotzdem hoffe ich, ist der eine oder andere Punkt nochmal etwas klarer geworden.
 
Nai schrieb:
Ich hoffe mal die haben das dynamic parallelism; also das Starten von Kernels von einem Kernel aus in CUDA; nicht bei den Desktop karten verkrüppelt. Denn das wäre ein Feature mit dem ich gerne herumalbern würde. . . . .

Hehe, genau diese Eigenschaften waren in meinem ersten Gedanken darüber, was nVidia in den Konsummassenprodukten wegstreichen werden wird. Diese Rekursionen sind bei den K20-Modellen ausschließlich über CUDA 5.0 verfügbar. OpenCL geht leer aus. Die Treiber bieten keine Chance, diese Optionen außerhalb der CUDA Domäne anzusprechen. Soweit ich weiß, ist nVidias Exklusivbestreben für Quadro und professionelle TESLA/K20 Karten sehr bestimmend.

Aus dem grunde wird Warten der beste Freund des sauer verdienten Geldes sein. Da AMD mit der GCN Architektur ohnehin den jetzt schon leistungsfähigeren Boliden im Programm hat, der leider nur stiefmütterlich als solcher vermarktet wird, wird man sich vielleicht mit dem "Refresh" oder gar einer neuen GCN Architektur im Somme anfreunden können ...
 
Na, mal sehen, ob sich AMD endlich erbarmt auch mal abseits des LiSux und Windoof Gedöns ordentliche treiber produziert und endlich plattformübergreifend OpenCL anbietet. Wenn nVidia jetzt einen geldgeilen (statt geldwerten) Fehler macht, wäre das die Chance für AMD, einen Füß in die Tür zu setzen - meine ich jedenfalls.

Das Problem ist immer noch dass OpenCL, obwohl es defacto eine GPGPU-API ist, nicht als GPGPU-API sondern als API für das Programmieren heterogener Systeme designed ist. Deshalb eignet es sich auch nicht sehr für GPGPU.

So lange sich dies nicht ändert, werden seriöse Projekte bei GPGPU weiterhin auf CUDA setzen, und NVIDIA Geld in die Taschen spielen.

Hehe, genau diese Eigenschaften waren in meinem ersten Gedanken darüber, was nVidia in den Konsummassenprodukten wegstreichen werden wird. Diese Rekursionen sind bei den K20-Modellen ausschließlich über CUDA 5.0 verfügbar. OpenCL geht leer aus. Die Treiber bieten keine Chance, diese Optionen außerhalb der CUDA Domäne anzusprechen. Soweit ich weiß, ist nVidias Exklusivbestreben für Quadro und professionelle TESLA/K20 Karten sehr bestimmend.

Es gibt bei GPGPU gerade bei NVIDIA so unzählig viele Features, wo man einfach sagen muss, ich werde bei OpenCL limitiert und ich MUSS Cuda verwenden.
 
seas888 schrieb:
Und deswegen wird es so wie immer auch Mainstream Karten geben. Macht euch doch nichts vor als wenn die darauf verzichten.

Die Mainstream Karten sind doch schon längst raus. Der GK110 kommt halt nur deutlich später als die kleinen GK106/GK104 Ableger. Grund: 550mm² in 28nm war vorher wirtschaftlich nicht wirklich sinnvoll.
 
Nai schrieb:
Ich hoffe mal die haben das dynamic parallelism; also das Starten von Kernels von einem Kernel aus in CUDA; nicht bei den Desktop karten verkrüppelt. Denn das wäre ein Feature mit dem ich gerne herumalbern würde. . . . .
Das werden sie ganz sicher haben, aber was ich sehr schade finde ist, dass wir noch sehr lange warten müssen, bis Spiele von dieser Technik gebrauch machen können. Zuerst einmal muss ATi etwas ähnliches implementieren und dann müssen sich genügend dieser Karten auf dem Markt befinden, bevor es sich für die Entwickler lohnt speziell dafür Algorithmen zu schreiben.
Von dem was ich so höre sind die Entwickler jedenfalls ganz heißt darauf und freuen sich wahnsinning über das Feature. Ich hoffe ATi zieht bald nach mit etwas ähnlichem.
 
Das werden sie ganz sicher haben, aber was ich sehr schade finde ist, dass wir noch sehr lange warten müssen, bis Spiele von dieser Technik gebrauch machen können.
Ich bezweifle einfach, dass man dieses Feature in Spielen irgendwie sinnvoll nutzen kann, so dass man viel Performance gewinnt. Denn dieses Feature ist eher für wissenschaftliche Simulationen gedacht. Ich lasse mich allerdings gerne vom Gegenteil überzeugen.

Zuerst einmal muss ATi etwas ähnliches implementieren und dann müssen sich genügend dieser Karten auf dem Markt befinden, bevor es sich für die Entwickler lohnt speziell dafür Algorithmen zu schreiben.
Von dem was ich so höre sind die Entwickler jedenfalls ganz heißt darauf und freuen sich wahnsinning über das Feature. Ich hoffe ATi zieht bald nach mit etwas ähnlichem.

ATI ist, abgesehen von brachialer Rohleistung, in Sachen GPGPU im Vergleich mit NVIDIA weit zurück.
So gehen in OpenCL bzw mit ATI diverse Sachen nicht, welche bei NVIDIA bereits seit Jahren funktionieren zB:
-Das allokieren von Speicher innerhalb eines Kernels
-Warp Vote Functions
-Warp Shuffle Functions

NVIDIA kann diese Funktionalität bei jeder Generation mit seinem CUDA-Standard weiter ausbauen, während sich AMD auf die blosse unterstützung des OpenCL Standards verlässt.
 
ich mach das wie bisher, ich lass mir von freunden und bekannten deren defekte hardware schenken und durch das murmeln einer geheimen formel und cineastisches Handauflegen und zwei Blicke in meine Glaskugel werden die Grakas, MBs und CPUs wieder funktionstüchtig (bzw. sie waren irgendwie nie futsch). ^^

das MPech
 
Naesh schrieb:
Sind sie es nicht ? Wo hat AMD noch gleich CUDA und PhysX? :D 2% mehr Speed aber dafür geniale Features nicht.

Zumal AMD bei DX9 Titeln Probleme macht wenn man mal so im "Probleme mit AMD" Bereich schaut.

Na, aber Nvidia macht sogar Zusagen die gar nicht existieren:

Bei CB: "Nvidias „Kepler“-GPUs unterstützen DirectX 11.1 nur zum Teil!"
 
Zuletzt bearbeitet:
Ich pfeife auf die etwas bessere performance in fünf spielen.
Ich will meine DX9c spiele ohne grafikfehler zocken und das ist bei AMD nicht möglich seit 14 Monaten.

HD7970 ist mit dem BUG keine 250.- Wert.
Ich hatte ständig das gefühl das die karten im a... sind als ich die schwarzen dreiecke etc. sah.

...zocke doch nicht nur DX11 titel ala MOH und BF3 :freak:

80% ist nunmal DX9

http://forums.guru3d.com/showthread.php?t=368290&page=34
 
Zuletzt bearbeitet:
Zurück
Oben