News GeForce GTX Titan Black und GTX 790 gelistet

Nvidias Marketing ist "genial": Mit Kepler lassen sich die Kunden Melken bis der Arzt kommt.
Mit der Titan Black ed. käme die fünfte Stufe nach der GTX 680, GTX 780, Titan, GTX 780 TI

Und warum tun sie das ... weil sie es können (OHNE Konkurrenzdruck von AMD).

Ich frage mich gerade welche der beiden Firmen ich mehr verachten soll.
 
Zuletzt bearbeitet:
Grafikkarten Hersteller machen nur das Geld mit Mittel klasse Grafikkarten.
An High-End Grafikkarten verdienen sie kaum.

die Enthusiasten wollten eine dual gk110 gpu, und eine titan im Vollausbau.

nvidia hat diesen Wunsch erfühlt

wo ist das Problem?
niemand wird gezwungen 1000€ für eine Grafikkarte auszugeben.

AMD kann auch druck ausüben, nur ist dieses unternehmen fast pleite.
Auch wenn sie jetzt mir ihren Konsolen chips etwas Geld gemolken haben.
 
Zuletzt bearbeitet:
turbocharged255 schrieb:
Um dann in UHD mit 200 FPS+ in Ultra zu spielen? Wo liegt da der Sinn? Flüssig ist flüssig. Dazu reicht dann auch eine 780 TI.

Vielleicht die Leistung in Bildqualität investieren anstatt mit 400fps rumlaufen?! ^^
Ich kann dir selbst 2 Titan in die Knie zwingen und je mehr power ich habe desto mehr kann ich in IQ investieren.
 
Vitec schrieb:
Ich kann mir einfach nicht vorstellen das NV so ne Mischbestückung wie bei der 660 macht.
Das mag im Mainstream durchgehen, aber für wie doof hält NV den die Enthusiasten Kundschaft das sie wirklich ein 320bit si machen mit 3GB Vram.
Das wär ja wirklich mal der oberfail.

Yep, deswegen glaube ich auch kaum, dass das mit 320Bit und 3GB stimmen kann. Die Info stammt ja auch nur daher, dass irgend ein russischer Shop den Titel der Ware geändert hat. Von 320Bit steht da ja nix, die wurden nur vorher angenommen, weil es ja auch Teslas mit 320Bit und 5GB gibt und dann einfach beibehalten.

Aufgrund so einer dürftigen Quelle (das kann auch einfach ein Vertipper sein) werden da auf videocardz.com die unsinnigsten Schlussfolgerungen gezogen. Und in der Vergangenheit haben die mit ihrer Raterei sehr oft daneben gelegen.

Das hindert aber CB, hardwareluxx etc. nicht daran, sich darauf zu stürzen. Eine andere Quelle gibt es nämlich nicht. Das Internet und Gerüchte...
 
Banger schrieb:
Pleite gehen sollte AMD nicht, sonst kann Nvidia mangels Konkurrenz Mondpreise machen. :kotz:

Gibt's denn z.Zt wirkliche Konkurrenz? Das was da von roter Seite kommt ,kann doch derzeit nur bestehen weil sie ihre Preise attraktiv halten, bis runter zur minimum Gewinn Kalkulation.

Auswahl nur zwischen Heißluftfön u Baugebläse, u einem einzigen Custom design Erlkönig von Saphire, der mal so die Fahne der neuen Architektur nicht restlos ins bodenlose sinken lässt.

Nvidia hat das Feld von oben bis unten im Griff u das mit zig mal aufgewärmter Architektur

Man hat jede Zeit der Welt, um den Maxwell Prozess bei TSMC weiter zu optimieren, u braucht keine Risikoproduktion fahren

Und so wie es derzeit von der Performance aussieht, tritt wohl wieder Midrange Maxwell gegen Highend Vukan an, so wie das schon bei Kepler der Fall war.

Die hohen Preise werden so oder so aufgerufen, wenn man dazu in der Lage ist,denn letzendlich ist das ja kein Streichelzoo, sondern knallhartes Business
 
für gewöhnlich steht doch noch irgendwo "Wir danken unserem Community-Mitglied ... für den Hinweis zu dieser News" ?!

[Ironie]

und mit einem Mal ... hatte bisher noch nirgends anders gelesen, dass die VRAM Größe von 2x5GB nicht stimmt. Ich selber hatte mir jedoch schon ein paar Gedanken hierzu gemacht: (habt ihr daraus evtl. den Grundbaustein für diese News?)

MahatmaPech schrieb:
...
Ergänzung ()

Laut videocardz.com wird die Titan Black Edition mit einem 'normalen' titan kühler versehen, welcher lediglich schwarz bzw antrazit gestaltet wird
Ergänzung ()

Titan Black Edition & GTX 790 --->>> videocardz.com/48533/nvidia-launch-geforce-gtx-titan-black-edition-geforce-gtx-790
Ergänzung ()

Wobei ich bei den 2x 5gb vram der gtx 790 vorsichtig wäre. Da es ja nie eine 780er mit 6gb geben soll, scheint mir eine beim speicherbus auf 5/6 kastrierte gpu nur mit 5/6 von 3gb vram plausibel. DAS allerdings würde wiederum die 790er als vramkrüppel dastehen lassen ... Warten wir es ab.

[/Ironie]

Ich finde es schon ein wenig dreist vom Redakteur, sich so offensichtlich mit fremden Lorbeeren zu schmücken. Der Redakteur hätte hierzu ruhig ehrlicher schreiben dürfen. Selbst die Tabelle ist aus meiner Verlinkung abgekupfert.

und nochmal für alle Mathematiker: wie bitteschön soll es eine GTX790 geben, welche mit 6GB ausgestattet sein wird, WENN man sich darüber einig ist, dass die Chips nur ein 320bit Interface haben werden??? Oder werden neuartige Speicherbausteine verbaut, welche mit jeweils 1,2facher Kapazität ausgestattet sind?

eine 780er hat 3GB bei 384bit. wenn diese Busbreite auf 5/6 beschnitten wird, dann sind nur noch 2,5GB möglich. bei eine Bestückung mit Speicherbasuteinen mit doppelter Kapazität auch 5GB je Chip, ergo GTX790 mit 2x2,5GB oder mit 2x5GB.

jetzt das große ABER: da von Videocardz (siehe meine Verlinkung) korrekt beschrieben wird, dass es ja wohl laut nVidia niemals eine 6GB 780er geben wird (es sei denn, man betrachtet die Titan Black als solche), wird auch eine 790er mit 2x5GB wohl nach heutigem Wissensstand nie auf dem Markt erscheinen.

und die Darstellung einer 790er mit 6GB neben einer Tabelle mit 2x320bit bringt mich wiederholt zum Schmunzeln. Wie kann man da nicht stutzig werden?

Wenn es eine 790er mit 6GB iwann mal geben wird, dann hat sie entweder ein 384bittiges Interface oder es gibt wieder solche merkwürdigen Speicherbestückungen, wie sie schon einmal bei den Karten mit 192bit und 2GB da waren. *Grusel* 128bit mit 1GB PLUS 64bit mit 1GB = 2GB *Schauder*Doppelgrusel*

Das wäre dann echter Pfusch am nicht gerade billigen Pixelbeschleuniger.

Leider sind Plagiate meist sehr einfach aufgrund solch offensichtlicher Fehler erkennbar! Guter Journalismus mit entsprechender Sachkenntnis gepaart ist leider auch immer seltener. ^^
 
Zuletzt bearbeitet:
Und der nächste VRAM-Krüppel wurde geboren...
Alles andere wäre auch ein Wunder gewesen, wäre die 1. dual-GPU Karte von NV mit ausreichend Vram geworden. Irgend wie hatte ich das schon geahnt das die wieder nur eine Bauernfänger Karte bringen wollen. Technisch möglich wäre das ganz einfach gegangen, auch wenn es keine 780 TI 6GB gibt, die 790 muss von PCB eh komplett neu entworfen werden, da hätte man sich dann neue Vram Chips aussuchen können, oder es so wie bei der Titan lösen können.

Und zum Thema GTX 780 TI 6GB, es gab keine wegen der Titan 6GB und jetzt wird es keine geben wegen der neuen Titan BE, die diesen Platz einnehmen wird. Aber Hauptsache man verlangt horrende Summen von kastrierten Karten, die wievielte Version der Karte ist das jetzt?

Titan 6GB (Chip kastriert)
GTX 780 3GB (Chip und Vram kastriert)
GTX 780 TI 3GB (Vram kastriert)
Titan BE 6GB (Vollausbau endlich, so hätte eigentlich die GTX 680 aussehen sollen)

Schon langsam nähern wir uns G92 Gefilden was die Anzahl der Modelle und Kastraten Versionen angeht.
 
Zuletzt bearbeitet:
Higgs Boson schrieb:
Du hast nun gar keine Ahnung vom Wechselkurs DM / EUR.

2000 DM = 1022,58 Euro

wenn du klugscheissen willst, dann rechne ma die infaltion der DM rein, die übersteigt den euro um einiges
 
xyz- schrieb:
wenn du klugscheissen willst, dann rechne ma die infaltion der DM rein, die übersteigt den euro um einiges

Hast du was schleches geraucht oder wie ?
Wenn du nicht richtig rechnen kannst ist das dein Problem und nicht meines, dann kannst du dir auch den Blödsinn verkneifen den du hier überall verbreitest.
 
Zuletzt bearbeitet:
MahatmaPech schrieb:
und die Darstellung einer 790er mit 6GB neben einer Tabelle mit 2x320bit bringt mich wiederholt zum Schmunzeln. Wie kann man da nicht stutzig werden?

Genau das hatte mich auch sofort gewundert, da das überhaupt keinen Sinn machen kann. Aber vielleicht bringt NVIDIA ja wirklich so einen Unsinn auf den Markt, es scheint ja ein paar potentielle Käufer zu geben, denen man auch so einen Unsinn für viel Geld andrehen könnte :D
 
Salem30 schrieb:
Du kannst nicht von dir auf andere schließen. Hier lesen auch Leute die nicht das hintergrundwissen haben warum behauptet wird, dass eine Grafikkarte die ja eigentlich 6GB hat nur 3GB nutzen kann.

Desweiteren, wenn ich auf einer 1TB HDD zwei Partitionen a 500GB anlegen und in beiden Partionen die gleichen Daten speichere, bleibt es trotzdem dabei, dass die HDD 1TB Speicher zur Verfügung hat. Wie du nun verwendet werden, ist eine ganz andere Sache.


Die Karte hat nicht 6GB sondern 2x3GB. Wenn du eine CPU mit 2 Kernen a 3GHz hast, hast du auch keine 6GHz.
Dein Festplattenvergleich hinkt, da du diese wenn du wölltest auch als 1TB Partition betreiben könntest.
 
Zuletzt bearbeitet:
Ich bin so jmd. der alle 4 Jahre ein komplettes Neu-System für 800-1000 € neu ran ordert.. zwischendurch vll mal die Grafikkarte austauschen auf ein neueres Mid-Range Model und ich kann einfach nicht 1000 € für "ein" Teil ausgeben, in Höhe des Preises eines für mich jahrelang ausreichenden Komplett-Systems..

Natürlich kann ich das nur auf meine Ansprüche beziehen. Jmd. der jetzt nun zwei Bildschirme nutzt und zwei Millionen Skyrim-Mods ist vll. bei so hochpreisigen Grafikkarten genau an der richtigen Stelle!

Ich bestaune solche Grafikkarten immer von der Ferne und finde es Klasse, dass sich hier der Markt auch für Enthusiasten öffnet!

Die Gesellschaft fernab von uns PC-Typen muss halt nur noch akzeptieren, dass die Ausgaben für unsere Kisten genau die gleiche Kohle verschlingen wie Modelbau, Angeln etc.

Verständnis allein in meiner Familie konnte ich bisher nicht aufbringen.. Ich wohne in einer Mietwohnung und hab mir u.g. Headset gekauft vor kurzem und habe es freudig berichtet. KEINER konnte nachvollziehen warum ich mir "Kopfhörer" für 150 € gekauft hab.. Onkel kauft sich ne Angel für 300 €.. da wird dann gefanboyt :D
 
nVVater schrieb:
Bei zwei GPUs ist der Speicher verbrauch identisch wie bei einer Single GPU

Man schafft sich doch so ein SLI-Gespann gewöhnlich an, damit man damit höhere Auflösungen und Qualitätseinstellungen fahren kann, als mit einer einzelnen Singel-GPU-Karte möglich wären. Aber damit steigen nicht nur die Anforderungen an die GPU(s), sondern auch an den VRAM.

Mit SLI und Crossfire verdoppelt man (nahezu) die GPU-Leistung, aber das VRAM bleibt praktisch gesehen gleich groß. Deshalb sollte man für SLI/Crossfire Karten auswählen, die besonders viel VRAM haben, damit das nicht so schnell zum limitierenden Faktor wird und ein sinnvolles Verhältnis eingehalten wird.

Dwyane schrieb:
Wieso soll das mit den 320 Bit und 3GB VRAM nicht stimmen?

Es gibt ja auch die GeForce GTX660 Ti welche ein 192 Bit SI und trotzdem 2GB VRAM hat.
1GB hängt an 128 Bit, das andere an 64 Bit.

Das war aber der genau umgekehrte Fall. Da hatte man eine GPU mit 192Bit-SI (GK106), das man nicht auf 128Bit beschneiden wollte/konnte, damit die Karte leistungsmäßig vor der GTX660 (ohne Ti) liegt. Der symetrische Speicherausbau bei 192Bit wären entweder 1,5GB oder 3GB gewesen. Aber 3GB waren (nach Nvidias Meinung) für diese GPU-Klasse zu viel (das wäre mehr als die GTX680) und 1,5GB zu wenig (das wäre weniger als die GTX660). Also wendete Nvidia diesen Trick an, um auf marktstrategisch passende 2GB zu kommen.

Bei der GTX790 ergibt sich dieses Problem aber bei einem 3GB-Speicherausbau (pro GPU) nicht. Die GK110-GPU hat ja schon von Haus aus ein 384Bit-SI, das symetrische 3GB erlaubt. Es wäre wenig sinnvoll das künstlich zu beschneiden, nur um dann per unsymetrischer Speicheranbingung doch wieder mehr VRAM draufzupacken.
Die 320Bit ergaben sich aus der Spekulation über (2x) 5GB (was aus oben genannten Gründen bei SLI eine technisch sinnvolle Größe im Verhältnis mit der GPU-Leistung gewesen wäre). Wenn aber die (2x)3GB aus der Listung stimmen, dann ist das hinfällig. Ich wäre jedenfalls sehr überrascht, wenn es jetzt noch so käme.

Wenn die Gerüchte über die Shaderanzahl der GPUs in der GTX790 ungefähr stimmen, dann hätte jede einzelne GPU der 790 etwas mehr Leistung als eine GTX780. Es wäre ziemlich unlogisch, das SI gegenüber der GTX780 zu beschneiden wenn man nicht auch entsprechend mehr (oder weniger) VRAM nutzen will.
Es sei denn, um einen künstlichen Flaschenhals zu erzeugen (durch die unsymtrische Anbingung würde der eher noch etwas schlimmer) und die GPU-Shader auf diese Weise abzuwürgen. Dadurch könnte man vielleicht etwas Strom sparen.
Aber den selben Effekt würde man auch einfach durch weniger aktive Shader erzielen.
 
Alle die meinen dass die Karte 2x3GB und nicht 1x6GB haben muss, weil das bei nVidia schon immer so war, sollten sich mal updaten.
Auch bei nVidia bleibt die Welt nicht stehen. Mit CUDA 6 wird "Unified Memory" eingeführt mit denen ein Programmierer GPU-RAM und CPU-RAM ansprechen kann. Wüsste nicht warum man da nicht auch zwischen den 2x3GB Speicher jeweils wechseln können soll ohne hin- und herkopiererei.
 
@DocWindows
Für klassische Grafikausgabe wird es sicher auch zukünftig eine Rolle spielen, an welchem Speichercontroller der Speicher hängt, auch dann, wenn der dank "Unified Memory" einheitlich adressiert werden könnte.
Wenn eine GPU auf den Speicherbereich der anderen GPU zugreifen will, wird das immer noch (auch bei Dual-GPU-Karten) über das vergleichsweise lahme PCIe gehen müssen. Dass das nicht wirklich schnell genug ist, um darüber VRAM anzusprechen, merkt man eben dann, wenn das VRAM einer Karte/GPU zuende geht und aus dem normalen Arbeitsspeicher nachgeladen werden muss.
 
Kasmopaya schrieb:
...

Titan 6GB (Chip kastriert)
GTX 780 3GB (Chip und Vram kastriert)
GTX 780 TI 3GB (Vram kastriert)
Titan BE 6GB (Vollausbau endlich, so hätte eigentlich die GTX 680 aussehen sollen)

Schon langsam nähern wir uns G92 Gefilden was die Anzahl der Modelle und Kastraten Versionen angeht.

Genau das war das "Problem" der 8800 GTX damals.
Nvidia hätte diese locker ein Jahr später bringen und bis dahin die Zeit mit kastrierten Chips überbrücken können.
Somit hätten sie deutlich mehr "Highend" Generationen aus der Architektur pressen können und folglich auch mehr Gewinn.
 
Banger schrieb:
Pleite gehen sollte AMD nicht, sonst kann Nvidia mangels Konkurrenz Mondpreise machen. :kotz:

Finde jetzt schon das Nvidia sehr sehr Nahe an Mondpreisen dran ist,... Hat man an der Titan gesehen und die 780TI ist auch um einiges teurer,... Die Kunden juckt das anscheinend nicht und lassen sich weiterhin gerne von Nvidia verarschen,...

Solange es AMD richtig macht und einigermaßen aufm Teppich bleibt bleibe ich dabei,... Bin jetzt noch mit meiner 7970er rundum glücklich und kann jedes Game ganz gut zocken auch mit nem 144 Hertz Monitor... FPS schafft sie immer noch genügend,...

Mal gucken was dieses Jahr noch so kommt in Sachen Preise und Grafikkarten,...
 
Die Preise sind doch keine Verarsche. Die Luxusprodukte kosten eben auch dementsprechend. Die TITAN war das Beste, das man bekommen konnte. Wenn man also das Beste möchte muss man auch dafür Zahlen. Und der Hersteller, der die schnellste Karte auf den Markt bringt kann es sich eben erlauben solche Preise zu verlangen.

Es kommt auch hier immer drauf an, was man persönlich benötigt. Ich habe zum Beispiel ein Surround System und durch Mini ITX nur einen PCIe Steckplatz frei. Also ist eine Dual-GPU Karte fast schon Pflicht, wenn man halbwegs aktuelle Spiele anschaubar spielen möchte!

Und auch diese Aussage von "in 2-3 Jahren gibts die gleiche Leistung in einem Chip für 300€" find ich Irreführend. Das mag definitiv stimmen, wenn man seine Games schön in FullHD zockt und das dann auch auf die dortigen FPS bezieht. Jedoch haben die Dual-GPU Karten in hohen Auflösungen die Nase vorne! Und seit der 690 sollte auch jedem klar sein, dass Nvidia die Mikroruckler doch ganz ordentlich in den Griff bekommen hat!
 
Zurück
Oben