News Nvidia zeigt GeForce GTX 780 in Asien

15 x 192 = 2880 Shader im theoretischen GK 110 Vollausbau
14 x 192 = 2688 Shader in der Titan
12 x 192 = 2304 Shader in der GTX 780

Der Chip einer GTX 780 ist also zu 20% bzw. 25% "hirntot".

Man kann also sagen:

GTX Titan = "kastriert"
GTX 780 = "lobotomisiert"
 
quotenkiller schrieb:
amd hatte kurz vor dem letzten jahreswechsel etwa gesagt, dass sie erst ende 2013 eine neue gpu rausbringen werden, da es aufgrund der schwächelnden wirtschaftslage und weiterhin sinkenden pc absatzzahlen (wie sich kürzlich auch erst bestätigt hat) nicht lohnt, jetzt mit einer neuen gpu auf den markt zu treten.
Was AMD sagt interessiert uns nicht, wie oft wurden Produkte angekündigt oder verschoben?
Das Unternehmen ist erledigt, Ressourcen werden eingespart, der Marktanteil schrumpft gewaltig, die Kassen sind leer, die Architektur im Desktop & Server Markt "Bulldozer" ist nicht wirklich zu gebrauchen, mit den APUs kann sich AMD langfristig nicht halten, da hilft auch kein Konsolenmarkt, in kommende Konsolen kann sich das Blatt wieder drehen, statt AMD könnte dann wieder Intel Hardware zum Einsatz kommen, derzeit macht Intel bei der iGPU dank Fertigungsvorteil größere Sprünge als AMD, dazu kommt noch das der Verbrauch um Welten effizienter ist als AMD APUs, also welchen Vorteil haben AMD APUs in Konsolen? Die CPU Kerne von AMD sind viel zu schwach & ziehen zuviel Strom aus der Dose.

Es gibt Spekulationen bzgl. der Next Gen GPU indem es heißt, das AMD den Tahiti Refresh (2560 Shader) gecancelt hat und mitte 2014 auf 20nm setzen wird.
 
Zuletzt bearbeitet:
Higgs Boson schrieb:
Was mich brennend Interessiert sind dann die Tests für die GTX 870 /770 und was die Karten schlussendlich wirklich kosten werden und wie sich die Preise nach einigen Wochen einpendeln, von Spekulationen vieler User halte ich garnichts, auch was AMD irgendwann abliefert ist mir völlig egal.

Genau so wie immer 600€UVP und 550€ im handel...wartet man 3 Monate gibts sie auch für 500€ so war es schon immer und so bleibt es auch, ka wwie manche auf 800 kamen...totaler quatsch.
ICh werde sie mir evtl im October kaufen, AMD ist für mich kein Thema, auch wenn man 100 euro weniger zahlt, dafür muss man hoffen das man eine bekommt die auch läuft und wenn ja, hoffen länger als 12 monate . (Alternate Bewertungen) ^^
 
Zuletzt bearbeitet:
Pilstrinker schrieb:
Und an das Märchen glaubst du immer noch?

Mangels besseres Wissen glaube ich das genauso, wie die offizielle Aussage zur Ausbeute der GK110, die schon Monate vor der Markteinführung der Titan "großartig" war.

Nvidia muss sich halt an dem messen lassen, was sie sagen und tun, nicht an dem was Laien und Außenstehende wie wir nur wild spekulieren können und unterstellen.

rico007 schrieb:
@Herdware
Du glaubst ja wohl nicht ernsthaft das Nvidia den GK110 als Konkurrenz für die 7970 gebracht und dann 500€ verlangt hätte?

Warum denn nicht? Die HD5870 wurde auch mit der GF100 gekontert. Trotz massiver Fertigungs-Probleme bei dieser GPU.
Wenn Nvidia gekonnt hätte, hätten sie wahrscheinlich viel lieber die kleine GF104 in die GTX480 gesteckt, ging aber nicht, weil AMD so stark vorgelegt hatte.
Trotzdem hat das NVidia nicht ruiniert. Die konnten schon seit je her ihre Big-Chips in 500€-Karten vermarkten. Die GK110 ist nichts besonderes. Die ist eine ganz normale NV-Big-Chip-GPU, wie sie seit der G80 üblich sind. Sie ist dabei auch keineswegs die größte ihrer Art. Die GT200 war wesentlich größer und wurde trotzdem in der GTX280 für 550Euro (und später wesentlich weniger) vermarktet.

Wer behauptet, die GK110 wäre plötzlich die große Aussnahme und nicht mehr wirtschaftlich als normale High-End-GPU zu vermarkten, der soll das bitte erstmal irgendwie belegen.
Ich halte das genauso für ein Gerücht, wie die jede Generation seit der G80 immer wieder aufkommende Behauptung, dass Nvidias nächste Big-Chip-GPUs reine GP-GPUs für Tesla-Karten sein werden. Bisher hat sich jedesmal Nvidias offizielle Aussage bestätigt, dass das auch erstklassige Gamer-GPUs ohne Kompromisse sind und auch als solche entwickelt wurden.

Wenn der 28nm-Prozess irgendwas damit zu tun hätte, dass solche großen GPUs plötzlich zu teuer werden, dann müssten auch AMDs Tahiti-Karten mehr kosten, als Nvidias Kepler-Karten mit GK104, denn Tahiti ist wesentlich größer und komplexer als diese kleine Perfomance-GPU.
 
Zuletzt bearbeitet:
Herdware schrieb:
Zunächstmal wundert es mich kein bisschen, wenn der Absatzmarkt schrumpft, angesichts von technischer Stagnation und hohen Preisen.
willst du damit tatsächlich aussagen, dass der mangel an neuen hochleistung gpus dafür verantwortlich ist, dass der pc absatzmarkt weltweit um 2stellige prozentwerte absackt, während solche gpus in gerade mal einer hand voll aller rechner weltweit verbaut werden (maximal ein ein-stelliger prozentwert. bezogen auf die gpus, auf die sich der artikel bezieht, eher eine nachkomma stelle!)?
Wenn die Absatzzahlen runter gehen, reagiert man darauf normalerweise entweder mit interessanten neuen Produkten oder man senkt die Preise, um die alten Produkte wieder attraktiver zu machen.
amd sitzt es aus, während die alten gpus weiterhin abgesetzt werden. teils zu freundlichen preisen, teils zu nicht ganz so freundlichen, dafür gibt es dort dreingaben -> never settle gedöns.


Die Titan und die GTX780 wären in den Zeiten vor Kepler (und Tahiti) ein Jahr früher als GTX680 und GTX670 zu den üblichen Preisen auf den Markt gekommen. Dass es nicht so kam, lag zum Teil auch an AMDs Tahiti. Nvidia selbst ließ verlauten, dass sie von Tahiti deutlich mehr erwartet hätten. Statt dessen konnten sie die HD7970 (die anfangs mit 500€ für AMD-Verhältnisse ungewöhnlich viel kostete) bequem mit einer Karte auf Basis der kleinen Performance-GPU kontern, die sonst wohl als GTX660(Ti) vermarktet worden wäre. Und seit dem wurde es immer verrückter mit der Preistreiberei und die Weiterentwicklung kam komplett zum Stehen.
- heute ist amd schuld, dass die 780/770 so teuer ist, weil amd keine konkurrenz hat
- bei release der 7970/7950, als diese kurzzeitig für amd verhältnisse teuer waren, aber immer noch günstiger als die astbach alte gtx580, die performanceseitig aber erheblich schlechter war, war auch amd schuld, weil,... weil, ... weil nvidia keine konkurrenz hatte?
davon abgesehen ist es mehr als fraglich, ob nvidia damals die titan hätte bringen können. und dass der spruch "wir hätten mehr erwartet" spätestens bei der kaum vorhandenen mehrleistung der gtx680 / 670 gegenüber 7970/7950, bei typischen überzogenen nvidia preisen, zum lacher des jahres wurde, dessen pointe dann die amd ghz versionen bildeten, die erheblich günstiger waren.

Vielleicht ist es auch keine böse Absicht und es liegt an massiven technischen Schwierigkeiten mit beiden aktuellen Architekturen und/oder TSMCs 28nm-Prozess, dass der Fortschritt seit über einem Jahr stagniert und die Preise nicht wie gewohnt sinken. Aber mich als Kunde interessiert halt in erster Linie das Ergebnis und das ist schon ziemlich traurig. :(
wenn du einzig und alleine am ergebnis interessiert wärst, dann würdest du dich freuen, dass der gpu markt mal wieder für längere ruht. das bedeutet nämlich, dass du spätestens mit einer aktuellen grafikkarte aus dem 150euro und mehr bereich lange zeit deine ruhe hast.
daher glaube ich deiner aussage nicht wirklich
 
Nvidia muss sich halt an dem messen lassen, was sie sagen und tun, nicht an dem was Laien und Außenstehende wie wir nur wild spekulieren können und unterstellen.

In dem Zusammenhang erinnere ich mich immer wieder gerne an die "Fermi"-Publikumstäuschung, pardon, Vorstellung, als Jen-Hsun Huang diesen von Holzschrauben zusammengehaltenen Hardware-Fake triumphierend in den Himmer reckte.

Entsprechend sieht sie für mich aus, die Glaubwürdigkeit nVidias. ;)
 
Nvidia muss sich halt an dem messen lassen, was sie sagen und tun, nicht an dem was Laien und Außenstehende wie wir nur wild spekulieren können und unterstellen.

Genau und Nvidia hat gelabert, sie hätten doch mehr erwartet, aber was haben sie gemacht? Nach der GHZ Edition hatte AMD wieder einmal die Single GPU Krone wie schon vor dem Start der GTX680. Und du glaubst Nvidia war das kein Dorn im Auge? Reichlich naiv wenn du mich fragst. Den Preis für die Titan hätten Sie schon seit einem Jahr verlangen können aber Nvidia verzichtet freiwillig aufs Geschäft? Im Leben nicht.

Hätte Nvidia Titan schon zuvor bringen können, hätten Sie es gemacht.

Nividia hat nix neues und da sie wohl nicht wieder ein Jahr hinter AMD sein wollten hat man auf den "Refresh" gesetzt, hat damit nun ein 1/2 - 3/4 Jahr in Sachen Performance Vorsprung, bis AMD wohl gleich eine neue Strukturbreite einsetzt.

Und der Nvidianer wird das mitmachen ohne mit der Wimper zu zucken. Ihr seit es doch gewohnt höhere Preise für eure Supperdupper Karten zu zahlen. Dann greift doch mal in den Geldbeutel wenn ihr schnellere Karten wollt.
 
Zuletzt bearbeitet:
LHC schrieb:
Was AMD sagt interessiert uns nicht, wie oft wurden Produkte angekündigt oder verschoben?
....
na du kleiner rosienenpicker, wie ist das wetter?
schliesslich hatte ich auch folgendes geschrieben, welches dein zitat aber nicht schmückt
es mag sein, dass diese erklärung von amd einfach nur eine notlüge war, aus gründen die uns unbekannt sind. allerdings wäre trotz allem ein sinnvolles vorgehen, wenn der absatzmarkt für computer schwach ist. vor allem, wenn die aktuellen gpus leistungstechnisch gut dabei sind und preislich noch im rahmen liegen.
ja, amd hat einen schweren stand, finanziel wie auch in der entwicklung. und eben dann ist es gerade richtig und wichtig, ein produkt welches sich gut hält, wie es bei der aktuellen gpu reihe der fall ist, lange im portfolio zu führen. laufend was neues auf den markt zu werfen, kostet nur geld im bereich forschung und entwicklung, während man kaum die chance hat, diese kosten einzuspielen.

abgesehen davon, dass amd weiterhin einen schweren stand hat, ist mir der rest zu spekulativ, vor allem wenn es um die "nächste" (also die übernächste-> ps5 und xbox1440) konsolengeneration, geht. bis dahin könnte auch die erde schon platt gemacht worden sein, um eine umgehungsstrasse zu häkeln.
 
Jungs, bleibt doch mal cool! :)

Ich persönlich finde die aktuelle Preispolitik von NV, aber auch von Intel und Co., auch nicht gut. Lasst uns doch bitte mal berücksichtigen, dass es sich hier um Unternehmen handelt die am "MARKT" teilnehmen. Die versuchen aus jedem Produkt den letzten Cent heraus zuholen. Das muss man nicht gut heißen, aber das macht halt leider JEDER.

Solange die Kunden, als wir, dieses Treiben unterstützen, können bzw. sollten wir uns darüber nicht aufregen.
Ich sage nur: "Angebot und Nachfrage!!!"

BTW: Warum erwartet ihr immer nur "Monstersprünge" bei der Entwicklung? - Hoffe ihr bekommt nur eine Gehaltserhöhung von <2%, wenn ihr einen Dr. Titel oben drauf legt...
-------------------------------------------------

Dreht den Spieß doch einmal rum:

Welche Spiele gibt es bzw. welche Spiele kommen die ein Aufrüsten von GPU bzw. CPU benötigen???
GTA V, BF4, Skyrim, Crysis3 (und bestimmt ein paar mehr) ???

Leute die diese Spiele in Vollauflösung (ab 1920x...) und höhsten Einstellungen mit moderaten FPS spielen wollen, sollen sich doch die Hardware kaufen. Das die Hersteller dafür gutes Geld verlangen ist aus meiner Sicht ok!
Ich für mich habe beschlossen meiner 580 AMP² und meinem i7-920 noch paar nette Abende zu spendieren. Die Hardware erlaubt mir aktuell alles, für mich akzeptable FPS, zu spielen.


Higgs Boson schrieb:
@Flatan,
was denkst denn du wie viele sich z.B. Autos leisten die weit über ihrem Budget liegen und die dann nur Sonntags gefahren werden.

Ein wahres Wort! :)
 
Dr.Schiwago schrieb:
Bin ja mal auf den GPU-Boost 2.0 gespannt, da ja das Power-Target durch ein Temperatur-Target ersetzt werden soll. Wenn dann noch ein besserer Kühler drauf kommt, dann ist das durchaus eine nette Sache. Immer vorausgesetzt dass... :)

Das kann ich ich dir von der Titan schon berichten. Spielt bei aktuellen Spielen soviel wie keine Rolle. Bis auf Tombraider hat es bis jetzt kein Spiel geschafft die Graka zu 100% zu belasten. Habe allerdings Crisis 3 nicht und spiele nur mit 1080p aber dort mit allem Drum-Herum Stabil zwischen 50 - 60fps.
Bei 3D(720p) und auch allen Einstellungen auf max. inkl. SSAA bei 38 - 50fps.

Des Weiteren gibt es ein Tool(z.B. EVGA Precision X) mit dem du die Temperatur und den jeweiligen Boost justieren kannst.
 
Zuletzt bearbeitet: (Ergänzung...)
quotenkiller schrieb:
willst du damit tatsächlich aussagen, dass der mangel an neuen hochleistung gpus dafür verantwortlich ist, dass der pc absatzmarkt weltweit um 2stellige prozentwerte absackt, während solche gpus in gerade mal einer hand voll aller rechner weltweit verbaut werden (maximal ein ein-stelliger prozentwert. bezogen auf die gpus, auf die sich der artikel bezieht, eher eine nachkomma stelle!)?

Das zieht sich doch durch den ganzen PC-Markt. Nciht nur im High-End-Segement tut sich nichts mehr. Wer sich Anfang 2010 einen der ersten i3 gekauft hat, braucht sich noch für lange Zeit keinen Gedanken um ein Upgrade machen. Tatsächlich werden viele mit fast 7 Jahre alten C2D immer noch gut zurecht kommen.
Früher wäre sowas undenkbar gewesen. Da war selbt bei anspruchlosen Bürorechnern gewöhnlich nach ca. 3 Jahren ein Upgrade nötig.

Natürlich liegt es nicht nur an der Hardware. Es fehlt auch neue Software, die leistungsfähigere Hardware überhaupt erst nötig machen würde. Aber in so einem Fall müssen dann halt die Preise radikal runter, um die Leute noch zu einer Neuanschaffung zu bewegen.
Technisch Stagnieren und die Preise hoch halten, führt zu sinkenden Verkaufszahlen. Da braucht es gar keine tablets für. (Die sind einfach nur das, wo rein die Leute ihr an neuen PCs eingespartes Geld stecken.)

- heute ist amd schuld, dass die 780/770 so teuer ist, weil amd keine konkurrenz hat
- bei release der 7970/7950, als diese kurzzeitig für amd verhältnisse teuer waren, aber immer noch günstiger als die astbach alte gtx580, die performanceseitig aber erheblich schlechter war, war auch amd schuld, weil,... weil, ... weil nvidia keine konkurrenz hatte?

Die HD7970 war im Vergleich zur GTX580 in Ordnung, aber ca. 15% mehr Leistung sind bei Weitem kein Meilenstein, angesichts dessen, dass Tahiti eine ganz neue Architektur war.
So einen Leistungssprung ist man gewöhnlich von einem Refresh gewohnt, der im Jahrestakt und ohne Aufpreis kommt.

davon abgesehen ist es mehr als fraglich, ob nvidia damals die titan hätte bringen können. und dass der spruch "wir hätten mehr erwartet" spätestens bei der kaum vorhandenen mehrleistung der gtx680 / 670 gegenüber 7970/7950, bei typischen überzogenen nvidia preisen, zum lacher des jahres wurde, dessen pointe dann die amd ghz versionen bildeten, die erheblich günstiger waren.

Ich denke, du hast diesen Spruch irgendwie falsch interpretiert. Das war keine Verhöhnung von AMd. Das war eher ein tiefer Seufzer der Erleichtung, denn wäre Tahiti so stark geworden, wie offenbar von Nvidia erwartet, dann hätten sie ihn unweigerlich mit einer GK100-Karte kontern müssen.
Man kann wohl davon ausgehen, dass diese niemals vermarktete GPU in einem ähnlichen Zustand war, wie seinerzeit die ersten Fermis. Nvidia hätte eine zweite GTX480 auf den Markt bringen müssen.
Aber auch wenn das eine hitzköpfige, stromfressende Monsterkarte mit niedrig getakteter und teildeaktiverter GPU geworden wäre, die von der Fachpresse in der Luft zertrissen wird, wäre das aus Konsumentensicht halt immer noch besser gewesen, als Nvidias Plan B, die kleine GK104 zum High-End zu befördern.
Dieser Plan B wurde halt nur dadurch möglich, dass die Tahiti schwächer ausfiel, als Nvidia erwartet hätte.

Ist doch auch offensichtlich,d ass es so war. Hätte Nvidia von Anfang an geplant, Tahiti mit der GK104 zu kontern udn darüber gar keine klassische Big-Chip-GPU zu vermarkten, wäre das ein absolutes Glücksspiel gewesen. Das Risiko, dass sie von einer Tahiti, die auf dem Papier ja auch wesentlich beeindruckender aussieht, als eine GK104, total deklassiert werden, wäre viel zu groß gewesen.

wenn du einzig und alleine am ergebnis interessiert wärst, dann würdest du dich freuen, dass der gpu markt mal wieder für längere ruht. das bedeutet nämlich, dass du spätestens mit einer aktuellen grafikkarte aus dem 150euro und mehr bereich lange zeit deine ruhe hast.
daher glaube ich deiner aussage nicht wirklich

Warum sollte mich das freuen? Ich brauche jetzt eine neue, leistungsfähigere Grafikkarte, weil meine alte GTX580 (selbst mit 3GB und auf 850MHz überatktet) zu schwach ist, für meinen neuen 1440p-Monitor und höhere Qualitätseinstellungen.
Ich hätte nicht im traum damit gerechnet, dass ich bis 2014 warten muss, bis vielelicht mal eine High-End-Karte rauskommt, die wesentlich mehr Leistung bietet und als Upgrade interessant ist und nicht an die 1000 Euro kostet.

Pilstrinker schrieb:
In dem Zusammenhang erinnere ich mich immer wieder gerne an die "Fermi"-Publikumstäuschung, pardon, Vorstellung, als Jen-Hsun Huang diesen von Holzschrauben zusammengehaltenen Hardware-Fake triumphierend in den Himmer reckte.

Entsprechend sieht sie für mich aus, die Glaubwürdigkeit nVidias. ;)

Und in wie fern hat diese "Täuschung" den Kunden geschadet? Es ist doch völlig wurscht, ob die eine funktionierende Karte oder eine Attrappe in die Kamera halten.
Es kommt einzig darauf an, dass die GTX480 mit GF100 (zwar verspätet aber doch) wirklich auf den Markt kam und zwar sogar für weniger als 500 Euro Startpreis. Und auch wenn die GTX480 eine realtiv stromhungrige, laute Karte war, war sie immerhin fast doppelt so schnell wie die Big-Chip-Karte der Vorgängergeneration und auch recht deutlich vor der HD5870. Sie brachte den Leistungssprung, den man von einer brandneuen Architektur erwarten konnte.
Hätte Nvidia damals schon so gedacht wie heute, hätten sie der GTX480 angesichts dessen wohl einen blumigen Namen gegeben und wie für die Titan über 950 Euro dafür verlangt. ;)
 
Zuletzt bearbeitet:
Dai6oro schrieb:
Genau und Nvidia hat gelabert, sie hätten doch mehr erwartet, aber was haben sie gemacht?
Das war eine Aussage eines Entwicklers. Jemand der sich selbst verständlich freut gute Arbeit geleistet zu habem. Die Arbeit ist zweifelsfrei gut, wenn man mit weniger Materialaufwand als die Konkurrenz auskommt.
Oder auch Freude, das die Konkurrenz eben nicht davon zieht, nachdem sie einen ungewöhnlich großen Chip aufs Topmodell schnallen.

aylano schrieb:
Natürlich gibt es Kunden, aber nicht zu Fertigungs-Einführungs-Preisen.
Ein Titan hätte sich vor 1,5 Jahren um diesen Preis sicher gut verkauft.
Vor 1,5 Jahren gab es nur 28nm Papierprodukte. Du weißt genau, das die üblichen Big Chips erst Monate nach dem neuen Prozess aufgeschlagen sind.

Das kann man nicht nachvollziehen. Denn AMD hat im Gegensatz zu Nvidia im Umsatz zulegen können. Es muss sich erst zeigen, ob Nvidia im Grafikkarten-Gewinn überhaupt zulegen konnte. Denn im Gegensatz zu AMD haben sie ein neues sehr teures Produkt am Markt gebracht, was bei diesen Preise einen ordentlichen Schub bringen hätte müssen. Ich war schon erstaunt, wie viele trotzdem dem Titan kauften. Nur sollten sie sich diese Leute abgedeckt haben, sodass der Verkauf eher düster als euphorisch aussieht.
Mir geht es nicht um zulegen, sondern um Gewinn gegenüber keinem Gewinn. Die Leute, die jetzt im gehobenen Preissegmenten schauen werden nvidia nehmen. Die Leute, die jetzt Testberichte lesen, werden nvidia in der Topposition finden, selbst wenn die Leute eigentlich nur eine 7770 wollten, wird darum zu nvidia gegriffen.

Und vielleicht haben sie auch paar Leute gefeuert, um Kosten zu sparen. Geld verdienen tut man nicht nur im Umsatz, sondern beim Zusammenzählen von Umsatz & Kosten.
AMD hat viele entlassen. In der Branche ist es sehr problematisch ohne Entwicklungsabteilung dazustehen.

Die HD 7970-Verkäufe waren ja auch deshalb nicht überragend, weil a) Preisleistungs-mäßig HD 7970 kaum besser ware als HD 6970 und b) es noch viele "GPU-Experten" gab, die von einem GK100 "Spekulierten" der HD 7970 im Boden stampfen wird und den HD 7970-Preis auf so 300 Euro stampfen wird.
Verfolgungswahn? Die GK100 im Frühjahr wäre nie gekommen, und die paar Experten in Foren bestimmen ganz sicher nicht den Gewinn.
Im übrigen, welches Produkt ist eher auf 300€ gesunken, die 7970 oder die GTX 680? Letztere ist ehrheblich preisstabiler, trotz günstigerer Herstellung.

Beim 20nm-Wechsel werden dann einige Nvidia-treuen Kunden lange Gesichter machen. Denn der Glauben, dass Nvidia paar Monate bzw. einige Quartale eine Hammer-Karte zum Mega-Preis-Leistungs-Verhältnissen ausbringe, dürfte seit Titan bzw GTX 780 wohl entgültig verloren gegangen sein.
Genau genommen ist es seit 28nm klar, das die Preise steigen werden. Mit 20nm wird es nicht besser und im Endeffekt ist damit der Desktop GPU Markt tot.
 
Zuletzt bearbeitet:
Herdware schrieb:
Die HD7970 war im Vergleich zur GTX580 in Ordnung, aber ca. 15% mehr Leistung sind bei Weitem kein Meilenstein, angesichts dessen, dass Tahiti eine ganz neue Architektur war.
So einen Leistungssprung ist man gewöhnlich von einem Refresh gewohnt, der im Jahrestakt und ohne Aufpreis kommt.
deine 15% sind mutwillig niedrig angesetzt. wozu soll das gut sein?

bei erscheinen war die 7970 36% schneller als die 6970, 21% schneller als gtx580.
https://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/10/

im laufe des jahres mit optimierten treibern dann 42% auf 6970 und 27% auf 580.
https://www.computerbase.de/2012-12/test-vtx3d-hd-7870-black-tahiti-le/4/

immer noch zu wenig? dann nimm die ghz hinzu:
58% auf 6970 bzw 40% auf 580.

ich finde, das ist eine erhebliche steigerung.

edit:
werte full hd mit aa/af
 
Zuletzt bearbeitet:
Unyu schrieb:
Vor 1,5 Jahren gab es nur 28nm Papierprodukte. Du weißt genau, das die üblichen Big Chips erst Monate nach dem neuen Prozess aufgeschlagen sind.

Bis vor Kepler/28nm war das aber nicht so. Da startete Nvidia eigentlich immer gleich mit dem Big Chip und brachte die kleineren Varianten ein paar Monate danach.

Tatsächlich würde es perfekt in die vorher veröffentlichten Roadmaps passen, die Kepler für Ende 2011 ankündigten, wenn GK100 kurzfristig gecancelt und die GTX660(Ti) kurzerhand zur GTX680 befördert wurde. Zwischen dem ursprünglich geplanten Kepler-Start (mit Big Chip) und den kleineren Karten mit Performance-GPU liegt genau diese üblich Zeitspanne von 3-4 Monaten.

Verfolgungswahn? Die GK100 im Frühjahr wäre nie gekommen, und die paar Experten in Foren bestimmen ganz sicher nicht den Gewinn.

Warum nicht? Sogar Ende 2011 wäre ein plausibler Termin für eine GK100-Karte gewesen. Das wäre doch einfach der Normalfall gewesen. So, wie es in den Jahren zuvor gelaufen ist und hätte in den üblichen Zeitraum zwischen den Generationen gepasst.

Spekulation ist viel mehr, dass es irgendwelche besonderen technischen Gründe gab, die Nvidia daran hinderten, eine GK100-High-End-Karte pünktlich für die üblichen ca. 500 Euro zu bringen.
Ich halte es für viel wahrscheinlicher, dass Nvidia diese Karte deshalb nicht brachte, weil sie es nicht mussten. Und aus dem selben Grund sinken auch die GTX680-Preise kaum.

Genau genommen ist es seit 28nm klar, das die Preise steigen werden. Mit 20nm wird es nicht besser und im Endeffekt ist damit der Desktop GPU Markt tot.

Mir war/ist das jedenfalls nicht klar.

Ich habe keine Berichte darüber gelesen, dass man bei den Fertigungsprozessen für GPUs schon am Ende der Fahnenstange angekommen ist.

Ich habe von TSMC nichts in diese Richtung gehört, weder vorher noch nachträglich und auch nicht von AMD oder Nvidia. Klar gab es im Vorfeld diverse Gerüchte über Schwierigkeiten und Verzögerungen des neuen Fertigungsprozesses, aber die gab es auch früher schon immer und hatten nie bedeutet, dass man wirklich technisch am Anschlag war.

Tatsächlich war ich sogar überrascht, dass AMD das Risiko eingegangen ist und in 28nm direkt mit der für ihre Verhältnisse sehr großen und kompexen Tahiti-GPU und damit auch in eine grundlegen neue Architektur eingstiegen sind und vor allem damit auch wirklich gut gefahren sind.
Das war ja genau das, worüber Nvidia bei 40nm und Fermi gestolpert ist und was Intel bei seinen CPUs seit je her bewusst vermeidet.

Entweder hatte AMD einfach nur großes Glück, oder 28nm ist sogar unkritischer als 40nm.

@hongkongfui
Ok. Dann waren es halt 18% und nicht 15% und gegenüber der HD6970 immerhin 25%.
Ich bleibe dabei, dass Tahiti damit für eine neue Architektur + neuer Prozess ganz in Ordnung war, aber eben kein Meilenstein.

Die HD5870 war 33% schneller als ihr Vorgänger. Die GTX480 39% schneller als die GTX285 und von der 8800GTX wollen wir mal erst gar nicht reden. Auch die Titan ist 44% schneller als eine GTX580.

Edit:
Ich sehe grad meinen Fehler. Ich habe es verkehrt formuliert. Die jeweiligen Vorgänger waren um diesen Prozentwert langsamer. (Also z.B. die Titan 77% schneller als eine GTX580.) Aber der Inhalt meiner Aussage bleibt bestehen.
 
Zuletzt bearbeitet:
Und in wie fern hat diese "Täuschung" den Kunden geschadet? Es ist doch völlig wurscht, ob die eine funktionierende Karte oder eine Attrappe in die Kamera halten

Völlig Banane, ob's dem Kunden geschadet hat oder nicht: Es war Täuschung. Die Aussage war: "Das ist Fermi", und Fermi war's eben nicht.

Es ist diese gewisse Tendenz zur Unwahrhaftigkeit, die mir bei nVidia besonders auffällt.

Vom viel von nVidia beworbenen DX 11.1 bzw. dessen tatsächlichem Nichtvorhandensein bei Kepler will ich da ja gar nicht erst anfangen... ;)
 
@Pilstrinker
Selbst wenn man annimmt, dass Nvidia mit jedem Wort lügt, ist alles andere doch auch nur wilde Spekulation.

Ich habe nirgendwo Beweise oder auch nur handfeste Hinweise dafür gesehen, dass es eine GK100-basierte GTX680 Ende 2011 technisch unmöglich gewesen wäre oder dass GK110 so teuer in der Herstellung sind, dass man sie nur in 1000-Euro-Karten gewinnbringend vermarkten kann?

Ich beziehe mich da (neben den besagten offiziellen Angaben von Nvidia) lieber auf die Erfahrungswerte der letzten Jahre, in denen Nvidida immer wieder gezeigt hat, dass sie solche Big Chips halbwegs fristgerecht entwickeln und produzieren lassen und zu normalen Preisen an Konsumer verkaufen können, ohne daran pleite zu gehen.

Und wie gesagt, wenn der 28nm-Prozess da was ganz spezielles wäre und große/kompexe Chips darauf ein Problem, dann müssten Tahiti-Karten deutlich mehr kosten als GK104-Karten.

Viel mehr denke ich, dass Nvidia sich die Kepler-Karten so teuer bezahlen lässt, einfach weil sie es können.

@hongkongfui
Die Grafik kannte ich noch nicht. Aber da drin steht doch auch, dass das durch größere Wafer kompensiert werden soll.
Das ist natürlich auch wieder eine Investition in neue Fertigungsstraßen, die erstmal wieder eingespielt werden muss, aber ja auch nichts Neues. Die Wafer wurden schon immer immer wieder mal vergrößert. Angefangen hat man ursprünglich mal mit 25mm. ;)
 
Zuletzt bearbeitet:
Dann verrate mir doch und allen anderen warum Nvidia nicht schon vor einem Jahr den Big Kepler rausgebracht hat für 700€ (auch die 900 hätten viel bezahlt) und sich seit einem Jahr eine göttliche Marge mit dem Chip entgehen lässt? Warum ist Titan immer noch kein Vollausbau?

Dafür gibts eben keine logische Erklärung außer es war technisch nicht möglich zu dem Zeitpunkt, gerade im Hinblick darauf, dass beide Hersteller mit dem neuen Prozess anfangs zu kämpfen hatten.
 
Dai6oro schrieb:
Dann verrate mir doch und allen anderen warum Nvidia nicht schon vor einem Jahr den Big Kepler rausgebracht hat für 700€ (auch die 900 hätten viel bezahlt) und sich seit einem Jahr eine göttliche Marge mit dem Chip entgehen lässt? Warum ist Titan immer noch kein Vollausbau?

Vielleicht weil die GK100-Karte für 700-900Euro uninteressant gewesen wäre, gegenüber den nur ca. 20% langsameren GK104-Karten für weniger als 500Euro?
So uninteressant, wie die Titan. (Und auch wenn es wohl einge gibt, die sie trotzdem kaufen, sie ist für Nvidia garantiert eher ein Prestigeobjekt als ein echter Umsatzbringer.)

Aber das Ganze in den altgewohnten Kategorien, also die GK100-Karten nicht abgehoben in einer Mondpreisliga über High-End für sich allein, sondern als normale 500Euro-High-End-Modelle, wären durchaus interessant gewesen. Und die GK104-Karten entsprechend auf GTXx60-Niveau darunter usw.

Ich denke, die Situation, in der Nvidia sich Ende 2011 befunden hat, war ganz ähnlich wie Anfang 2010. Wäre damals die GF104 stark genug gewesen, AMDs HD5800er zu kontern, hätten sie die GF100-Karten sicher auch erst gar nicht für Konsumer vermarktet, sondern die GTX460 zur GTX480 befördert und 500Euro dafür genommen.
Dann hätten sie mehr Geld verdient und sich die "Thermi"-Witze erspart. ;)

Aber ich bin verdammt froh, dass es die GTX480 mit GF100 gab, trotz all ihrer Schwächen, weil AMDs starke Vorlange es nötig machte. Ohne die, sähe es heute noch viel düsterer aus, in der Grafikkartenwelt.
 
TrixXor schrieb:
Ich persönlich finde die aktuelle Preispolitik von NV, aber auch von Intel und Co., auch nicht gut.

Vergleich mal die Leistung die du heute bekommst mit dem P/L von vor 10 oder gar 15 Jahren. Da sind wir heute richtig richtig billig dran. EIn Quad Core der "Oberliga" (zumindest auf S1155 Basis) kostet 260 €.

Einfach mal aus spaß an der sache machen wir das mal zwei für den DM Preis also ~520 DM. Sagen wir mal noch 10% Inflation wären 572 DM.

Das hat damals auch ein guter Prozessor gekostet.

Gleiches gilt für Grafikkarten, RAM, Mainboards usw.

In der IT ist alles billiger geworden. Ich kenne noch Preise von 1,2 GB HDD für rund 1000 DM...
 
Zurück
Oben