News Kommt Nvidias GK110-GPU als „GeForce Titan“ in den Handel?

ich mag CB schrieb:
Ergänzung ()

sind das wirklich die angaben dann siehts aus wie damals bei der 8800gtx! unbezahlbar auber auch sauschnell!

Hmm laut gh.de wurde die 8800 GT für ca: 260€ auf den Markt geworfen. Vielleicht war die Meldung auch nur ein Kommunikationsfehler und der Chip kostet in der Herstellung $89,99 oder es ist wirklich die Supercomputerkarte mit gemeint :D
 
caryaner schrieb:
Ich pfeife auf die etwas bessere performance in fünf spielen.
Ich will meine DX9c spiele ohne grafikfehler zocken und das ist bei AMD nicht möglich seit 14 Monaten.

HD7970 ist mit dem BUG keine 250.- Wert.
Ich hatte ständig das gefühl das die karten im a... sind als ich die schwarzen dreiecke etc. sah.

...zocke doch nicht nur DX11 titel ala MOH und BF3 :freak:

80% ist nunmal DX9

http://forums.guru3d.com/showthread.php?t=368290&page=34

Ich bin neugierig. Auf welche dX9-Anwendungen beziehst du dich?
 
Auf sehr viele, leider.

Ich muss dir jetzt hoffentlich nicht jeden titel auflisten wo ich geflacker sah, oder ?
 
Zuletzt bearbeitet:
caryaner schrieb:
Auf sehr viele, leider.:mad:

Ich muss dir jetzt hoffentlich nicht jeden titel auflisten wo ich geflacker sah, oder ?

Natürlich nicht. Meine Anfrage sollte auch kein Affront sein. Aber zwei, drei Titel würden mir schon reichen, um es mit meinen Erfahrungen zu vergleichen.
 
Prince of Persia (2009), Euro Truck Simulator 2, NFS HP, NFS MW (Original), COD BO1, GTA4 usw. usw. usw.

Der fehler tritt sporadisch auf.

Manchmal dauerts sekunden bis was aufblitzt, manchmal stunden.
 
Zuletzt bearbeitet:
NeoGeo schrieb:
Freut die Playstation 4 und Xbox 720.
??? Eine highend Grafikkarte für Enthusiasten, die nicht einmal die Mehrheit der PC-Gamer je kaufen wird, hat mit der Zielgruppe der Konsolen jetzt was zu tun?
 
??? Eine highend Grafikkarte für Enthusiasten, die nicht einmal die Mehrheit der PC-Gamer je kaufen wird, hat mit der Zielgruppe der Konsolen jetzt was zu tun?

Die kommenden Konsolen werden für längere Zeit etliche exklusive Spiele mit sich bringen.
Die HIGH END GPU hat keinen Sinn wenn es "kaum" Spiele gibt die sie benötigen.

Ist ja nicht so wie bei 3DFX das heute stetig PC Spiele mit 1A Grafik daherkommen.
 
Zuletzt bearbeitet:
NeoGeo schrieb:
Die kommenden Konsolen werden für längere Zeit etliche exklusive Spiele mit sich bringen.
Die HIGH END GPU hat keinen Sinn wenn es "kaum" Spiele gibt die sie benötigen.

Ist ja nicht so wie bei 3DFX das heute stetig PC Spiele mit 1A Grafik daherkommen.
Dass diese GPU viele Käufer findet, bezweifel ich ebenso, wenn das P/L-Verhältnis so schlecht ist wie es auf den ersten Blick wirkt. Wie gesagt eine Karte für Enthusiasten, aber warum das die Konsolen freuen soll, verstehe ich immer noch nicht. Nur weils vielleicht eine überteuerte Karte auf dem Markt gibt, werden PC-Spieler sicher nicht auf Konsolen wechseln, sondern sich einfach ein anderes Modell kaufen, das ihrem Budget entspricht.

(Und auch wenn das OT ist: Mit den Exklusivtiteln wirds auch nicht anders sein als zuvor und der PC bietet im Übrigen ebenso davon mehr als genug: Massig Indietitel, Star Citizen, Elite plus weitere KS-Projekte, die den PC im Fokus haben plus Multifunktionalität des PCs im Officebereich.)
 
Zuletzt bearbeitet:
NeoGeo schrieb:
Die kommenden Konsolen werden für längere Zeit etliche exklusive Spiele mit sich bringen.
Die HIGH END GPU hat keinen Sinn wenn es "kaum" Spiele gibt die sie benötigen.
Abwarten.
Den Sinn von High-End-GPUs kann ich mir bei einem Ultra-HD-Trend schon vorstellen.

Herdware schrieb:
Das Problem ist, dass Nvidia derzeit eine GPU der Performance-Klasse zu High-End-Preisen verkauft und die Kundschaft das geschluckt hat.
Das ist falsch, weil 400 Euro für 350mm²-Dies ist jetzt überteuert, sondern war früher sogar Standard.
Ich sehe den Preis berechtigt, weil es nicht genug Wafer gibt. D.h. man muss weniger High-End-Dies verkaufen, um die OEM mit Low-End-&-Mainstream-Dies gut versorgen zu können. Und wenn Nvidia & AMD nur wenige High-End-Dies zu verfügung hat, dann ist der Die-Entwicklungs-Kosten-Enteil entsprechend höher.

Da wäre Nvidia ja mit dem Klammerbeute gepudert, wenn sie an diesem für sie wundervollen Zustand etwas ändern würden, indem sie die echte High-End-GPU nachschieben und zu auch zu High-End-Preisen verkaufen und die GTX680 (die technsich eher eine GTX660 ist) damit in den Performace-Preisbereich runter drücken. Also kommt der Big-Chip diesmal zu happigen Enthusiasten-Preisen.
Grundsätzlich muss es einen Sinn haben, GK110 um 900$ (bwz. 900 Euro?) zu verkaufen.

Momentan spricht für den Preis eine Mega-Performance (so 70-80% schneller als GTX680) und gegen diesen Preis eine Mega-Stromaufnahme (300-350W-Spiele) und/oder schlechte Yield (die 2000 bis 4000$-Tesla & Quadros kamen auch erst vor 3 Monaten).

Gegen eine Mega-Performance spricht eben, dass damals in der Pre-RV770-vs-GT200-Zeit, die GT200 damals auch so 70-80% schneller als RV770 vermutet wurde. Denn GT200 hätte wegen benahe +100% Shaders eben so 100% Performance zulegen sollen.
Hingegen glaubten damals die meisten, dass RV770 wegen der nur +25%-Die-Vergrößerung eben nur +25%-Mehr-Shaders bekommen soll. [Jupp, damals wurde man als Hardcore-Fanboy bezeichnet, wenn man +50%-Mehr Shader (=480Shader beim RV770) spekulierte.]

Was ich damit sagen will.
Selbst damals, als Nvidia dachte mit GTX280 so 70-80% Mehrperformance sogar gegenüber der Konkurrenz !!!!!!!! zu haben , haben sie GTX280 am Anfang "nur" um 550-600 Euro verkauft. Ach wenn GK110 so 70-80% schneller als GTX680 sein mag, wäre ein GK110 trotzdem nur 20-30% schneller als die Konkurrenz, falls HD 8970 @ Ghz mit +25% Einheiten dahertanzt. Also, im Bezug zu früher (siehe GT200-Preis), im Bezug auf die GTX680 und im Bezug auf die HD 8970 kann ich keinen logischen sinnvollen Roten Faden zu diesen hohen Preis erkennen.
Und beliebig kann Nvidia die Preise auch nicht erhöhen, da selbst bei einem Monopol noch immer noch Angebot & Nachfrage gilt
Und wer will schon 900 Euro für eine GPU zahlen?

Daher deuten eher die negative Eigentschafften (Stromverbrauch und/oder Yield) auf den hohen Preis hin.

Grundsätzlich hatte eine verspätete Grafikkarten in den letzten vielen Jahren immer negativ überrascht. Desto später desto mehr. Wenn GK110 positiv überraschen würde, dann wäre das nach vielen vielen Jahren wieder ein "neuer Einführungs-Weg/-Art".
 
Zuletzt bearbeitet:
Der Preis ist natürlich unverschämt, aber wenn man nicht mehr fehlerfreie Chips herstellen (lassen) kann, muss das wenige Vorhandene teuerst verkauft werden. Für die zu erwartende Mehrleistung wird die Karte sicher nicht zum Verkaufsschlager, aber um ein paar Freaks abzuzocken reichts. Es wird ja niemand gezwungen, eine davon zu kaufen... Das ist freie Marktwirtschaft!
 
Darüber, wie teuer die Herstellung von 28nm-Chips bei TSMC ist und wie viele Schwierigkeiten Nvidia hat, fehlerfreie GK110 zu bekommen, können wir nur spekulieren.

Fakt ist, dass Nvidia unabhängig davon praktisch jeden Preis für die Titan-Karten verlangen kann, denn niemand bietet etwas Vergleichbares oder gar Besseres billiger an. Nvidia kann sich frei von äußeren Zwängen (Konkurrenz) den für sie optimalen Preispunkt aussuchen. Auch für über 800 Euro würden sich sicher noch einige Kunden finden.
Wenn die Titan eine ähnliche Leistung bietet, wie eine GTX690, wären viele bereit, sogar einen höheren Preis zu bezahlen. Eine einzelne starke GPU wird immer unproblematischer sein und besser ihre Leistung abrufen können, als ein SLI- oder Crossfire-Gespann.

Dass niemand so viel GPU-Leistung braucht, stimmt definitiv auch nicht. Wer jemals auf 2560x1440 oder 2560x1600 oder einem Multimonitorsetup mit hohen Qualitätseinstellungen gespielt hat weiß, wie sehr die Grafikkarte(n) limitieren kann. Da ist man schnell deutlich unter 60 fps, selbst bei schon etwas älteren Spielen.
Sogar der Dinosaurier WoW hat keine Probleme damit, meine GTX580 in vielen Situationen zu überfordern.
Um in meinem Rechner den GPU-Flaschenhals zu entfernen, wäre eine gut doppelt so schnelle Karte schon nicht verkehrt. :)
Aber ich denke, ich werde eher noch eine weitere Generation abwarten, bis man diese Leistung für weniger Geld bekommt.
 
Okay der Preis ist mir egal :) von Mir aus kann die auch 1500€ kosten, Muss jeder für sich selber Wissen....wie weit man bereit ist für so eine Graka Geld auszugeben.
:D "Ich Tanke immer nur für 50€ der Sprit Preis ist mir egal" Wenn man sich persönlich eine Grenze gesetzt hat zb. 500€ für Grakas höchstes Auszugeben, sieht es mit dem Preis von 900€ schlecht aus die Graka kaufen zu können.
Es gibt bestimmt auch ein Paar Gamer die nicht auf Ultra zocken brauchen/Möchten.
Die stört dann der Preis auch nicht von 900€

Jetzt müsste man zb. nur wissen wie genau die Leistungsaufnahme von einer Titan im System ist, im Vergleich zur Leistungsaufnahme eines SLI System.
Preisstand 21.01.2013 für eine GTX 680 4GB Ram 492€ macht 2 x zusammen 984€ wenn man dann noch auf Wasserkühlung Umbau sind es 1184€ mit einem ich sag jetzt mal viel höheren Stromverbrauch wenn man mit Drei 24" Zoll 16:10 Zocken möchte.


Ich habe jetzt mal Quer gelesen, die Titan ist der Nachfolger von der GTX 680 und sollte nach der Reihenfolge GTX 780 heißen.
Die GPU Leistung soll wie eine Dual GPU sein.
Für @User die ein SLI System aufbauen wollten kommt die Karte doch genau richtig.
Wenn ich dann noch an die Mikroruckler denke die ein SLI System hat ist doch alles Perfekt.
 
caryaner schrieb:
Auf sehr viele, leider.

Ich muss dir jetzt hoffentlich nicht jeden titel auflisten wo ich geflacker sah, oder ?

Leider ist eine solche Aussage nichtig. Wenn Du behauptest in "sehr viele[n] leider ...", solltest Du eine angemessene quantitative Nummer liefern, so daß es möglich ist, Deine Aussage zu überprüfen. Mich interessiert es nämlich auch - gerade weil ich diese von Dir beschriebenen Probleme so ganz offenbar NICHT wahrnehme.

Die Möglichkeit, daß es sich bei dem von Dir beschriebenen "Geflacker" nicht um einen Treiberfehler bzw. ein Treiberproblem handelt, das AMD spezifisch ist, sondern schlichtweg um einen Anwenderfehler oder Nutzung grenzwertiger, nicht offiziell empfohlener Funktionen, ist doch gegeben. Übertaktungen, Frickeleien an der GPU Firmware, Nutzung von Werkzeugen zur "Leistungssteigerung", die unschöne Seiteneffekte nach sich ziehen - all das ist im Parameterraum möglich und wird von Dir nicht ausgeschlossen!

Ansonsten ist die Aussage wischiwaschi.
Ergänzung ()

Herdware schrieb:
Darüber, wie teuer die Herstellung von 28nm-Chips bei TSMC ist und wie viele Schwierigkeiten Nvidia hat, fehlerfreie GK110 zu bekommen, können wir nur spekulieren.
[...]

Das ist eigentlich gleich und interessiert, wenn man es genau nimmt, niemanden. Nun, es interessiert schon das Konsumvolk, aber wenn objektiv ist, dann spielt es keine Rolle, ob nVidia Probleme mit TMSC hat, oder nicht. Das aus rationaler Sicht. Aber was ist rational?

Mich verwundert es stets, daß wir trotz Energiewende, Energiedebatte, einem angeblich sensibleren Umweltbewußtsein dennoch für einen lächerlichen Zeitraum von 6 Monaten (Halbwertzeit der "Angebervalidität" eines solchen Stück Siliziums) eine Diskussion über ein Spielzeug entbrennen kann, dessen realer Mehrwert jenseits von Gut und Böse liegt. Die aktuellen GTX 6XX Karten sind ausschließlich zur Nutzung als Spielzeug gut, der Mehrwert als CUDA/OpenCL Entsatz für anspruchsvolle Aufgaben in einer Mittelklasse Arbeitsstation unterhalb einer Lächerlichkeitsbarriere - das Vorgängermodell ist zuweilen doppelt so schnell, wenn es um DP Anwendungen mit GPGPU Nutzung geht und die SP Leistung einer AMD, sowohl der aktuellen GCN als auch des VLIW4-Vorläufers sind deutlich besser als jene der KEPLER GK100. Und zum Zocken reichen selbst kleinere Karten.

Nun, diese Diskussion ist müig, setzt sie Verstand voraus und das ist, wie Demoskopen und die Verkaufszahlen energiehungriger Spielsachen scheinbar beweisen, leider eine falsche Voraussetzung. Also nach welchem höchsten Ideal sollte man dann bemessen? Die Frage belasse ich einmal offen.

Leider drosselt nVidia bereits mit der K20 den Nutzen, indem für die wirklich innovativen Techniken CUDA Voraussetzung ist. Wer plattformübergreifend in OpenCL entwickelt, ist leider ausgegrenzt. Nun, nVidia kann sicher tun und lassen was sie wollen, aber dieses Privileg habe ich als Kunde auch. Der Leistungsumsatz dieser Energiefresser ist aus meiner Sicht so ungeheuer, daß es wahrlich an der Zeit wäre, staatlich gegen solche Schluckspechte vorzugehen. Dann wäre es an der Zeit, daß sich Berlin über den Brüsseler Moloch hinwegsetzt und endlicheinmal eine Kappung veranlaßt. Leider ist das in unserer von "brillanten Köpfen" besetzten Res publica schon lange eine Illusion ...
 
caryaner schrieb:
Prince of Persia (2009), Euro Truck Simulator 2, NFS HP, NFS MW (Original), COD BO1, GTA4 usw. usw. usw.

Der fehler tritt sporadisch auf.

Manchmal dauerts sekunden bis was aufblitzt, manchmal stunden.


Das Phänomen tritt allerdings nicht bei jeden auf, ergo ist es kein allgemeines Problem.
AMD hat ja auch Offiziell geschrieben, jeder der das hat soll die Hardware Konfig, Treiber und sonstige Programme posten die zum Einsatz kommen.
 
Zuletzt bearbeitet:
Amusens schrieb:
Ich habe jetzt mal Quer gelesen, die Titan ist der Nachfolger von der GTX 680 und sollte nach der Reihenfolge GTX 780 heißen.

Nicht ganz. Die GK110-GPU in der Titan ist der Nachfolger der GK100, die es aber nie gegeben hat, bzw. wurde diese GPU zumindest nicht vermarktet. Diese nicht existierende GK100 wäre der Nachfolger der GF110 (GTX580) und Karten mit dieser GPU wären dementsprechend "echte" GTX680 gewesen.
Die Karte mit Namen GTX680, die derzeit mit einer kleineren GK104-Performance-GPU verkauft wird, hätte eigentlich nur GTX660 heißen dürfen.

Die Titan hätte also durchaus zurecht den Namen GTX780 tragen können. Allerdings sähe der legitime Stammbaum so aus:
GTX780 - nichts - GTX580 - GTX480 - nichts (die GTX 380 hat es auch nie gegeben) - GTX280/285 usw. ...

Ich vermute, dass es auch eine GTX780 geben wird, die aber, wie die GTX680, nur mit einer Performance-GPU ausgestattet ist. Wahrscheinlich eine GK114 oder vielleicht sogar nochmal die selbe GK104. Umbennenen ist ja gerade wieder mal schwer in Mode.

Diese ganze verdrehte Namensproblematik wäre nicht so schlimm, wenn Nvidia die GTX680 mit ihrer Performance-GPU nicht zu High-End-Preisen verkaufen würde. Aus diesem Grund wird die echte High-End-Liga darüber (Titan) nochmals teuerer. Schade für uns Kunden, gut für Nvidia.
 
60-70% lol von was träumt ihr Nachts? :lol:

Die Karte wird vielleicht noch gut was drauflegen, aber man wird wohl kaum wieder solche Stromfresser bauen. Und da man in der gleichen Fertigung bleibt und der ganze GPGPU-Kram dazukommt kann da einfach nicht soviel mehr kommen.

Sie wird auch mit nichten so langlebig sein wie eine 8800GTX. Der Leistungssprung war damals bestimmt 4x so groß wie GK110 bieten wird. Alte Midrangekarten haben mehr geboten als es GK110 bieten wird. Und die Nextgenkonsolen werden die Karte schnell alt aussehn lassen wenn die Hardware dort ausgereizt wird. Da ist man bei Grafikkarten schon wieder im nächsten Fertigungsprozess und GK110 schon wieder Schnee von gestern.

Was bleibt ist wie bei der GTX690 eine nette Karte mit schönem Kühler zu extremen Preisen. Nach dem GTX260/4870 fight mit Kartenpreisen von 120€ guckt Nvidia nun wie weit die Jünger bereit sind zu gehen. ;)

Ernüchternd wenn man sich vor Augen führt was eine 5870 2009 gekostet hat und noch heute leistet.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9233743&postcount=30

Das einzige was brutall ist ist der Preis. :lol:
 
Nai schrieb:
Ich bezweifle einfach, dass man dieses Feature in Spielen irgendwie sinnvoll nutzen kann, so dass man viel Performance gewinnt. Denn dieses Feature ist eher für wissenschaftliche Simulationen gedacht. Ich lasse mich allerdings gerne vom Gegenteil überzeugen.
Das stimmt schon, aber Spiele nutzen die GPU ja mittlerweile auch für weit mehr als nur für Grafikberechnungen. Dort werden ja ebenfalls Simulationen durchgeführt.
DICE hat auf der letzten Siggraph dieses Feature jedenfalls als eine notwendige Technologie der Zukunft bezeichnet.

Ab Seite 31 fängt die Liste der Innovationen an, die DICE sich für die Zukunft wünscht.
5 Major Challenges in Real-time Rendering

Aber auch auf Twitter habe ich von sehr vielen GameDevs sehr viel Begeisterung über das Dynamic Parallism gehört. Es scheint also auch in Spielen Anwendung zu finden.
 
Heißt die deshalb so, weil man dann am Desktop Markt nur ein paar Karten verkaufen kann, weil man mit der aktuellen Fertigung nicht soviele vollwertigen zusammenbekommt und verkauft dann die schlechteren Die als 780 Gtx und 770 GTX und 760 GTX ?
 
Zurück
Oben