News Der Handel wartet auf Nvidias Ansage zur Titan Z

Gibt ja alleine hier im Thread scheinbar schon 2-3 Interessenten für dieses Stück (völlig) überteuerte Hardware.

Wie man im Gegenzug, "nichts von der 295x2 halten kann", bleibt zwar ein Rätsel, bzw absolutes FanBoy getue, aber nVidia kann seine Preisspirenzchen scheinbar auf ewig durchziehen.

Aus deren Sicht, machen Sie alles richtig. Sie melken die Kuh.

Nicht falsch verstehen, auch die 295x2 ist überteuert, aber eben die schnellste Karte, die man kaufen kann.

Das harte an der Sache ist ... nVidia kann, durch bloße Treiberoptimierungen, das Niveau der 295x2 wahrscheinlich nicht mal erreichen, aber lässt den Preis wahrscheinlich trotzdem oben.

Ich fände es richtig stark, wenn die Titan Z kommt, für 2800 € ... auf Niveau der 295x2 bei 80% Stromverbrauch ... und AMD den Preis der 295x2 dann nach unten korrigiert.

Sorry nVidia, aber aus dieser Sache kommt ihr, ausser bei den Eingefleischten, nicht mehr "grün" heraus.

Zum Thema 5000er Serie von AMD damals.
Den Fehler den AMD damals machte war wirklich der Preis.
Sie haben sich damals selbst keinen Gefallen getan, weil kein - kaum Gewinn raussprang und zudem die Lieferbarkeit nicht gegeben war.
Später dann, als viele schon zu nV griffen, waren die Karten Ladenhüter.

Für uns Kunden war es damals trotzdem besser ...

Man wünsche sich solche Preise heute ...
aber der grüne Preistreiber, kommt wohl nie von seinem hohen Ross herunter..
 
[eTP]AcCiDeNt schrieb:
Nicht falsch verstehen, auch die 295x2 ist überteuert, aber eben die schnellste Karte, die man kaufen kann.
So überteuert ist die Karte nun auch nicht mehr, die ersten 290X gibt es ab knapp 400 Euro, davon 2 macht rund 800 euro für die Chips, und sicher weitere 100-150 für die Kühllösung der AiO.

Der gute Preis läge also irgendwo um 900-1000 herum (die karte ist schneller als 2 ref 290X).
Allerdings gibt es bei den Stärksten Karten auch jeweils einen Premium aufschlag, dafür das die Karte die Stärkste auf weiter Flur ist (die 690 und die 780 Ti kommt bei den Benchmarkbalken sehr viel später), erscheint mir der aktuelle Strassenpreis von ca 1250 Euro sogar billig, verglichen mit den übrigen Karten der aktuellen Generation und dem Premium aufschlag welcher der einie Hersteller so gerne verlangt.
 
Ob die Händler auch die Karten selbst vorfinanzieren mussten um diese am Lager zu haben aber nicht verkaufen zu dürfen? ;-)
 
[eTP]AcCiDeNt schrieb:
Wie man im Gegenzug, "nichts von der 295x2 halten kann", bleibt zwar ein Rätsel, bzw absolutes FanBoy getue, aber nVidia kann seine Preisspirenzchen scheinbar auf ewig durchziehen.

Da du damit auf meine Aussage Bezug nimmst, erkläre ich es dir gerne:
Dual-GPU Karten waren primär immer schon eine Art Machbarkeitsstudie, allerdings irgendwo haben die Hersteller noch versucht diese Praxistauglich zu machen indem sie Performance zu Gunsten einer geringeren Leistungsaufnahme geopfert haben. AMD hat bei der 295X2 genau dass nicht getan, die Stromversorgung aber immer noch für die "Praxisnahen" Karten ausgelegt. Das Ergebnis ist eine Karte die zwar Leistung Satt liefert, aber mal eben einen Kabelbrand verursachen kann. Und nebenbei bemerkt leidet sie noch unter massiven Spulenfiepen, was bei einer 1000€+ Karte für mich ein absolutes No-Go ist.

Auch wenn ich bei dieser Leistungsklasse nicht auf 20 Watt gucke, so verlange ich für 1000€ als Kunde ein ausgereiftes Produkt. Dass man so viel Leistung nicht ohne weiteres weggekühlt bekommt ist mir klar, aber z.B. die unzureichende Stromversorgung oberhalb mancher Kabelspezifikation, das Spulenfiepen und die für eine WaKü hoch drehenden Lüfter lassen die Karte für mich gnadenlos durchfallen. Die X2 ist der Centurion als Grafikkarte, nur dass AMD damit im Gegensatz zum FX die Leistungskrone damit bekommen konnte. Nur ist das schnellste Produkt nicht zwangsweise das beste.

Die Z wäre bei planmäßigen Release den vergangen Prinzipien treu geblieben und hätte immer noch brachiale Leistung, bei mehr oder weniger humanen Verbrauch gehabt. Allerdings erwarte ich da für 3 Scheine auch wesentlich mehr als Kunde als ich es für 1000 oder 1500 Tacken erwarten würde. Die Leistungskrone gehört sowieso dazu, der Refkühler sollte dann noch "leise" sein, die Karte selbst nur mit den besten Komponenten zugepflastert und am besten noch einige Features für Leute die mit WaKü OC'en wollen (z.B. fast freies PT). Selbst ohne Konkurrenz würde die Z ihren Preis nicht rechtfertigen können, durch die Konkurrenz und dadurch erzwungene Anpassungen macht NV sich die Karte im Grunde selbst kaputt. Das Ding wird erneut ein "Centurion", nur dieses mal eben in Grün.
 
Die 295X2 verletzt eben keine Kabelspezifikation.
Siehe CB / THW / Anandtech Test.
 
Nur in "Max" Konfiguration, also beim OC.

Gegen deine persönliche Einschätzung, inwieweit das Kabel ausgereizt sein sollte, habe ich nichts gesagt.

Jedoch verletzt die 295x2 Stock halt keine Kabelspezifikation.
 
Thanok schrieb:
AMD hat bei der 295X2 genau dass nicht getan, die Stromversorgung aber immer noch für die "Praxisnahen" Karten ausgelegt. Das Ergebnis ist eine Karte die zwar Leistung Satt liefert, aber mal eben einen Kabelbrand verursachen kann.

Das mit dem Kabelbrand müsstest Du mir mal erklären.
Bei einer Leistungsaufnahme von 500 W nur über die zwei PCI-E Stecker fliest ein Strom von ca. 42 A bei 12V.
Bei drei Pluskabeln pro PCI-E Stecker ergibt sich daraus ein Stromfluss von ca. 7 A pro Kabel.
Bei einer Kabellänge von 50 cm und einem Spannungsabfall von 0,2 V würde ein Kabel mit einem Querschnitt von ca. 0,63 mm² benötigt.
Ein Spannungsabfall von 0,2 V ist absolut unbedenklich in Hinsicht auf die Kabelerwärmung.
Die Verlustleistung pro Kabel liegt bei ca. 1,5 W.
Mein Netzteil hat aber Kabel mit der Bezeichnung 18 AWG verbaut, dies entspricht 0,82 mm².
Wie soll dadurch bitte ein Kabelbrand entstehen?
 
Zuletzt bearbeitet von einem Moderator:
Also ein reines Softwareproblem.
Das zufälligerweise 99,9% der Käufer betrifft. Die Karte wird fürs Zocken beworben. Der Profi Markt hat ja Tesla und Quadro. Das wegen den paar GPGPU Leuten kein Vergleich hergestellt werden kann hat mich mal wieder amüsiert, war aber nicht überraschend.

Einzig sinnvoll Alternative wäre die Bezeichnung 2x6GiB.
Genau so ist es. Wobei ich 2x6GB auch noch durchgehen lassen würde. ;)

Der Preis aus Sicht von AMD wurde ja schon gesagt und natürlich der Vram. Seit der HD 6000 gibts von AMD keine GPU mehr mit zu wenig Vram im Standard Design. Erst 2GB dann 3GB dann 4GB zum neuen Standard gemacht. Die Titan lassen wir jetzt mal außen vor.

Die hätten mit einer 2GB HD 5870 Haar genau so viele Karten verkauft, weil die Nachfrage sowieso viel zu hoch war. Man hätte mehr Umsatz machen können und später dann immer noch die Vram Krüppel Versionen nach schieben können. Aber das hat man dann bei der 6970 sogar weg gelassen. 2GB only, dafür muss ich AMD in höchsten Tönen loben. :daumen:

Ein weiterer Fehler war den Strick nicht zu zu machen und eine HD 5890 2GB zu bringen. Dann wäre Fermi definitiv die Luft ausgegangen. Den Fehler haben sie bei Kepler v. 1Ghz Edition HD 7970 nicht mehr gemacht. Immer weiter Druck machen, nicht nach lassen...

Hätte es eine 5890 2GB gegeben, hätte ich mit großer Wahrscheinlichkeit eine ATI im Rechner und nicht eine später erschienene 580 3GB, auf die ich dann warten musste weil mir Fermi 1.0 und HD 5870 2GB nicht schmeckten.
 
Zuletzt bearbeitet:
Ich würde ja gern eine neue GraKa kaufen, aber erst wenn eine gewisse Preisschwelle unterschritten ist:
  • GTX 780 < 350 EUR
  • GTX 780 Ti < 450 EUR
  • Titan Black < 550 EUR
  • Titan Z < 950 EUR
Und nein, ich bin nicht auf Drogen und weiß, dass das bei nVidia so schnell nicht passieren wird... gut für meinen Geldbeutel.

Kasmopaya schrieb:
Seit der HD 6000 gibts von AMD keine GPU mehr mit zu wenig Vram im Standard Design.
99 % Zustimmung - 1 % Frage: Hatte die 7850 standardmäßig 1 GiB oder 2 GiB an Board?
 
Zuletzt bearbeitet:
@cobra38
Durch schlechten Kontakt Stecker -> Buchse werden mit Pech weniger Leitungen genutzt. Bei den tollen modularen Netzteilen gibts gleich zweimal dieses Problem.

Genau darum gibt es normalerweise großzügige Sicherheitsreservern. Und Genau darum wurde nvidia von einem Über 500W Hammer bei 2x8pin überrascht und hat die Titan Z hoffentlich begraben. Wenn nicht gilt dort bei Annahme einer 2x8pin Versorgung natürlich dasselbe ...

Kasmopaya schrieb:
Das zufälligerweise 99,9% der Käufer betrifft.
Tja die Welt ist schon gemein. Genutzt werden die 12GiB trotzdem. Steht auf der Packung auch etwas von Mikrorucklern?
Egal, die 2x Angabe wäre tatsächlich sinnvoll um auch Verwechslungen in die andere Richtung vorzubeugen.

Interessant ist auch der Blick auf den Rest. Cores, Rechenleistung, Bandbreite werden addiert...
Einzig der Speicher wird zumindest hochoffiziell http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-690/specifications einmal Gesamt und einmal je GPU angegeben.

Guck dir mal die ESL an, soll xxW Glühbirnen entsprechen, tatsächlich leuchtets erheblich dunkler (+Nebenwirkungen). Das ist Beschiss!

Die Karte wird fürs Zocken beworben.
Da habe ich bei der Titan Classic anderes gehört. Kann aber auch sein, das die Werbung rein durch Fanboys gesehen ist und nichts mit nvidia zu tun hat.
 
Zuletzt bearbeitet:
[eTP]AcCiDeNt schrieb:
Zum Thema 5000er Serie von AMD damals.
Den Fehler den AMD damals machte war wirklich der Preis.
Sie haben sich damals selbst keinen Gefallen getan, weil kein - kaum Gewinn raussprang und zudem die Lieferbarkeit nicht gegeben war.
Später dann, als viele schon zu nV griffen, waren die Karten Ladenhüter.

Um mal dein Gedächtnis nachzuhelfen die HD5870 kam 6 Monate früher als die GTX480. Mit der HD5000er Reihe war AMD im Notebooksektor am besten vertreten, davor und danach gab es bei weitem nicht das Angebot an Gpu Chips im Notebooksektor. So wie bei AMD's HD5000er Reihe. Das hatte mich damals gewundert. Ihr haltet euch für so schlau, wieso arbeitest du nicht bei AMD und bringst die Firma auf Intel-Niveau? Ich glaube AMD hat das richtige getan (Preislich). Das Image von AMD GPU's war damals nicht so gut wie heute. Man hatte immernoch das R600 Desaster im Kopf und die Treiber nicht vergessen (obwohl das damals schon quatsch war), dann hatte AMD ja noch die angeblich schlechtere Bildqualität (wovon 95% der Kunden den Unterschied ohnehin nicht erkennt so gering war der).

Kasmopaya schrieb:
Der Preis aus Sicht von AMD wurde ja schon gesagt und natürlich der Vram. Seit der HD 6000 gibts von AMD keine GPU mehr mit zu wenig Vram im Standard Design. Erst 2GB dan 3GB dann 4GB zum neuen Standard gemacht. Die Titan lassen wir jetzt mal außen vor.

Die hätten mit einer 2GB HD 5870 Haar genau so viele Karten verkauft, weil die Nachfrage sowieso viel zu hoch war. Man hätte mehr Umsatz machen können und später dann immer noch die Vram Krüppel Versionen nach schieben können. Aber das hat man dann bei der 6970 sogar weg gelassen. 2GB only, dafür muss ich AMD in höchsten Tönen loben.

Ein weiterer Fehler war den Strick nicht zu zu machen und eine HD 5890 2GB zu bringen. Dann wäre Fermi definitiv die Luft ausgegangen. Den Fehler haben sie bei Kepler v. 1Ghz Edition HD 7970 nicht mehr gemacht. Immer weiter Druck machen, nicht nach lassen...

Hätte es eine 5890 2GB gegeben, hätte ich mit großer Wahrscheinlichkeit eine ATI im Rechner und nicht eine später erschienen 580 3GB, auf die ich dann warten musste weil mir Fermi 1.0 und HD 5870 2GB nicht schmeckten.

Ein Typischer Kasmopaya Beitrag, der da Aussagt das AMD mit 1GB einen Fehler gemacht hat (Jahr 2009). Aber der Konkurrent hat doch nicht wesentlich mehr geboten und kam noch dazu 6 Monate später. BTW. kamen knapp 2 Monate nach Fermi (1,5 GB), bereits HD5000 Modelle mit 2GB auf dem Markt. Wie zum Geier kann man da von Fehler sprechen ? AMD hat garnichts bei der HD5000 Reihe falsch gemacht. Erst die HD5000er Reihe hat AMD das gute Image zurück gegeben !

btw. Dieses gute Image haben die sich Teilweise mit der R9 kaputt gemacht. Laute heisse Staubsauger.
 
Zuletzt bearbeitet:
Aber der Konkurrent hat doch nicht wesentlich mehr geboten
% Rechnen? 50% mehr Vram gab es bei NV im Standard Ausführung. Das war damals der Unterschied zwischen Vram Überlauf und knapp ausreichend. Aber das knapp ausrechend war mir zu wenig so ging es zwischen 5870 2GB v. 480 1,5GB. Wobei mir dann die 5870 zu wenig Rohleistung hatte und da es keine 5890 2GB gab -> kein Kauf.

Das AMD einen großen Fehler gemacht hat ist offensichtlich in Sachen Vram bei der 5870 1GB. Kein Unternehmen der Welt verbaut aus Spaß dann anschließend üppig Vram der die Herstellungskosten erhöht bei annähernd gleicher Rohleistung zum Vorgänger. Das war zwingend notwendig. Fehler eingesehen und korrigiert, AMD ist somit lernfähig. Einige User nicht und auch NV mit ihren lächerlichen Karten ala 680 2GB extrem teuer verkaufen...

Wie schon angemerkt wurde, sogar die kleinen Versionen hab dann 2GB im Standard bekommen, sogar da wurde nicht gegleckert sondern geklotzt.
 
Zuletzt bearbeitet:
Whoozy schrieb:
Um mal dein Gedächtnis nachzuhelfen die HD5870 kam 6 Monate früher als die GTX480. Mit der HD5000er Reihe war AMD im Notebooksektor am besten vertreten, davor und danach gab es bei weitem nicht das Angebot an Gpu Chips im Notebooksektor. So wie bei AMD's HD5000er Reihe. Das hatte mich damals gewundert. Ihr haltet euch für so schlau, wieso arbeitest du nicht bei AMD und bringst die Firma auf Intel-Niveau? Ich glaube AMD hat das richtige getan (Preislich). Das Image von AMD GPU's war damals nicht so gut wie heute. Man hatte immernoch das R600 Desaster im Kopf und die Treiber nicht vergessen (obwohl das damals schon quatsch war), dann hatte AMD ja noch die angeblich schlechtere Bildqualität (wovon 95% der Kunden den Unterschied ohnehin nicht erkennt so gering war der).

Verstehe ich jetzt nicht direkt was dann an meiner Aussage, im Widerspruch mit deiner steht?

Das AMD das Image aufpolieren wollte mit der 5000er Serie ist klar, allerdings ging der Schuss doch nach hinten los.
Einzig der Preis war für das Gebotene echt Top ...
Aber es wird nun mal schnell kritisiert wenn die Teile nicht lieferbar sind.

Mit der Konkurrenz Situation war das damals dann passé ... Warum nur?

Und ich will hier AMD keinesfalls schlecht reden, nur damals war es eben so.

Was folgend geschah, find ich allerdings super.

6000er, 7000er und die R Serie sind genial.

Btw ... ich verbaue seit der Voodoo Generation nur ATI/AMD Karten und hatte bisher noch nie Probleme.
Auch verbaue ich weiterhin AMD CPUs ... weil deren Speed einfach ausreichend ist.

Störend ist der Energieverbrauch, ... was bei mir aber nicht so krass wiegt wie der EK von nV und Intel...
 
Weil du den Preis als Fehler dargestellt hast. Aber AMD musste Marktanteile zurückgewinnen, man musste agressiv sein und das ging dann halt auch über den Preis. Denn als die HD5870 erschienen ist, wollten viele auf die Fermis warten. Fermi wurde ja wieder Gehyped bis zum geht nicht mehr. Am Ende kam wie erwartet weniger als erzählt wurde.
Ergänzung ()

Off Topic: Wieso kann ich meine Beiträge nicht mehr Bearbeiten ?
 
Es gab wie bereits gesagt HD5870 Modelle mit 2Gb, also wo ist das Problem ?
In den Tests und Foren wurde dann spekuliert, woher kommt der Nachteil der 5870 1GB gegenüber Fermi, Tesselation, Speicherinterface etc. etc. Nur den Vram, den testete keiner, war ja nicht der Standard. Und so gabs massenweise negative Presse für ansonsten Grund solide Karte weil AMD nur 1GB Speicher verbaut hat. Ich wusste schon nach Sekunden als ich den ersten Test der Karte sah auf CB. die Karte ist schon am Release Tag am Vram Limit und somit Klasse: Vram Krüppel. Der Rest spielt nur in Benchmarks eine Rolle, aber nicht in Spielen.

AMD wollte diese negative Presse nie wieder sehen, ergo gabs dann unter anderem deswegen dann nie wieder einen Vram Krüppel von AMD. Wie gesagt zum Spaß macht AMD nichts, das hat alles Hand und Fuß.
 
Zuletzt bearbeitet:
Zurück
Oben