News Nvidia Kepler: Produziert 2011, verkauft 2012

FAT B schrieb:
maxwell, ich warte auf dich :D hoffe meine 88gt hält noch nen bissel durch und die nächste konsolengeneration kommt erst 2015....

Ich hoffe das war ein Scherz von Dir! Wenn Du glaubst diese Folie entspräche nur zu o,ooooo1 Promille der Warheit dann........ gute Nacht!
Ergänzung ()

twilight schrieb:
Die Probleme des R600 (HD2900) lagen auch zu einem Teil an TSMC, Microsoft und NVidia:
  • R600 wurde für 65nm designed und musste dann auf 80nm backported werden, weil TSMC mal wieder einen Prozess nicht (rechtzeitig) auf die Reihe bekommen hat. Dies führte dann zu den schlechten Eigenschaften too big, too hot and Underperforming.
  • R600 hat die ursprüngliche DX10 Spezifikation implementiert, die unter Anderem fast alle DX10.1 Features sowie Tesselation vorgesehen hat. Damit wäre es abgesehen von DirectCompute und einigen Abstrichen bei der Programmierbarkeit und MultiCore Support nahe an das herangekommen, was wir heute als DX11 kennen. Für das neue DX10.0 waren einige Features, wie z.B. der gewaltige 512bit Ringbus oder die Tesselationsunits schlicht überflüssig und haben nur unnötig Energie verbraten.
  • Wäre der R600 nun ohne TSMCs Screwup 6 Monate früher auf den Markt gekommen und das Featureset von Microsoift nicht auf eine Light Version zusammangestrichen worden, die genau das beinhaltet, was vom G80 implementiert wurde, hätte NVidia mit dem G80 nur einen DX9.0c+ Chip gehabt und die GTX8800 wäre böse geflopt.

Da hat es einer erkannt! Und solange wir nicht wie in Star Trek das Geld abschaffen, werden Firmen wie nVidia (und Google und Intel und und...) schwächere Firmen gnadenlos zu Boden reissen mit hinterlistigen Attacken

***NVIDIA: The means to be cheat;)***
Ergänzung ()

techneck schrieb:
Dann können wir ja grafisch höchst anspruchsvolle Konsolenumsetzungen endlich (wie schon seit fünf Jahren) flüssig spielen!

Das ist toll!

Oder Du spielst auf einem Monitorverbund;) die 6048x1200 bringen meine 6990 arg zum schwitzen!
 
Zuletzt bearbeitet:
Da es ein neuer Prozess rechne ich mit ersten Karten im Handel nicht vor Q2/Q3 2012 insofern sind diese Wunschvorstellung zwar schön und auch durchaus realistisch wenn ein rebungsloser ablauf gewährleistet ist aber das ist er bei nem neuen Prozess nie.
 
Ganz ehrlich?
Weil das einfach eine dümmliche Vermischung deutscher und englischer Grammatik/Abkürzung/Wörter war, die sich dazu noch verdammt beknackt anhört.
 
@ boxleitnerb
Kepler wird wie alle vergangenen Generationen 50-70% Leistung drauflegen
Habe ich Dich richtig verstanden, dass Du denkst, das Spitzenmodell einer neuen Serie hätte 50-70% Leistung auf das Spitzenmodell der Vorserie draufgelegt? Du meinst jetzt nicht GTX480 zu GTX580 - oder?
 
Lars_SHG schrieb:
@ boxleitnerb

Habe ich Dich richtig verstanden, dass Du denkst, das Spitzenmodell einer neuen Serie hätte 50-70% Leistung auf das Spitzenmodell der Vorserie draufgelegt? Du meinst jetzt nicht GTX480 zu GTX580 - oder?

Ich meine natürlich bei einem Shrink. Hätte ich dazuschreiben sollen. Refreshes bringen natürlich nur 10 bis max. 20%.
 
LinuxMcBook schrieb:
Ganz ehrlich?
Weil das einfach eine dümmliche Vermischung deutscher und englischer Grammatik/Abkürzung/Wörter war, die sich dazu noch verdammt beknackt anhört.

ach gott.. sind wir hier im deutschkurs oder wie ? xD geoced ist kürzer, passender udn treffender als wenn mans komplett eindeutschen würde und schreiben würde "übertaktet". wenns dir nicht gefällt, ok. aber ich mach mir nichtmal gedanken um solche winzigen kleinigkeiten. unwichtiger und pingeliger gehts ja net :)

Kepler wird wie alle vergangenen Generationen 50-70% Leistung drauflegen

sorry, aber das ist unmöglich :) wenn sie 30% mehr leistung draufpacken ist das schon mehr als ordentlich.. 50-70% ist absolut utopisch. wenn die gtx660ti oder wie auch immer sie heißen mag zwischen der 570 und 580 liegt leistungsmäßig, dann kann man schon seeehr zufrieden sein. die 560ti liegt ja auch grad mal nen bissl über 470er niveau. in manchen games sogar gleichauf soweit ich weis. also nur so als beispiel jetzt xD
 
sorry, aber das ist unmöglich wenn sie 30% mehr leistung draufpacken ist das schon mehr als ordentlich.. 50-70% ist absolut utopisch. wenn die gtx660ti oder wie auch immer sie heißen mag zwischen der 570 und 580 liegt leistungsmäßig, dann kann man schon seeehr zufrieden sein. die 560ti liegt ja auch grad mal nen bissl über 470er niveau. in manchen games sogar gleichauf soweit ich weis. also nur so als beispiel jetzt xD

Du vergleichst hier jetzt ernsthaft die 4xx und 5xx Serie und schliesst daraus, dass die 6xx nicht einen grösseren Sprung hinlegen?

die 5xx war nur eine verbesserte 4xx Serie, mit gleicher Anzahl Einheiten usw.. Die 6xx wird zu 99% mehr Einheiten bekommen. Möglicherweise sogar doppelt so viele wie jetzt (1024).
 
nein, ich habe lediglich ein praxisnahes beispiel geliefert ;) das heißt noch lange nicht das es genauso laufen wird bei der 600er generation. aber praxisnah deshalb, WEIL es bei sogut wie jeder generation das gleiche war. sowas wie 70% mehr leistung von einer generation zur anderen gibts niemals ! gleichgültig obs ne neue architektur ist oder net :)

mir ist klar das die 500er nur nen midlife kicker war für den fermi :) ich erhoffe mir ja auch das der kepler soviel mehr leistung bringt wie nr möglich. jedoch schließe ich persönlich aus das sagen wir die 680er 70% schneller wird als die 580er.. ich sage vorraus das das niemals drin ist :) (das ist übrigens nur meine persönliche einschätzung die auch nur auf meiner persönlichen erfahrung beruht. dennoch wirds so kommen ^^ wäre ja das gleich als wenn man sagen würde der bulldozer bringt 50-70% mehr leistung als der phenom.. is ja ne neue architektur.. rofl (jaja mir is klar das man cpus nich mit gpus vergleichen kann.. war nur nen witz der vergleich also nich direkt wieder zitieren :P))
 
Test GTX 480
Durchschnittlich 60-80% mehr Leistung als GTX 285

Test GTX 280
Durchschnittlich 50-60% mehr Leistung als 8800 Ultra

Edit: Mir geht es darum, dass man durchschnittlich mit einer neuen Architektur/grössere Änderungen/Vermehrfachen der Einheiten du durchaus 70% erreichen kannst. Es ist kein Ding der unmöglichkeit und auch in der Vergangenheit wurden meisten 60-70% erreicht. (Neue Architektur)
 
Zuletzt bearbeitet:
hm die graphen bzw tests sind aber auch komisch.. geh mal mit der maus über die 480er ;) dann ist die 480er nur noch 39% schneller als die 285er o_O bzw. wenn die 480er 100% ist, ist die 285er 61%

naja aber gut.. wenn du allgemein schreibst dann hast du recht. selbstverständlich kriegt man mt einer neuen architektur größere leistungssprünge hin als mit nem refresh :)
 
Prozentrechnen funktioniert nunmal so. Die 285 hat 69% der Leistung von einer 480. Wenn du wissen willst, um wieviel Prozent die 480 schneller ist als die 285, fungiert die 285 in dem szenario als Ausgangswert, und diesen musst du auf 100% hoch Rechnen.

Beispiel: Karte A hat 5000 Punkte, Karte B hat 2500 Punkte. Karte A ist somit exakt doppelt so schnell.
Gehst du mit der Maus auf Karte A, zeigt Karte B 50% an.
Gehst du mit der Maus auf Karte B, zeigt Karte A 200% an (und nicht 150%, karte A ist somit nicht 50% schneller, weil 100% - 50% eben 50% sind :P Man müsste hier die 50% der Karte B (wenn die maus auf der karte A) verdoppeln, da der ausgangswert auf 100% sein muss, dabei wird der wert der karte A ebenfalls verdoppelt --> auf 200%, also doppelte Leistung. Karte A hat somit 200% der Leistung, die die karte B hat)

Hoffe dasw war nicht zu kompliziert erklärt :P
 
achja gott.. ist auch logisch. sorry, bin nich der beste in mathe *g* (daher hab ich auch jura studiert lol)
 
twilight schrieb:
Die Probleme des R600 (HD2900) lagen auch zu einem Teil an TSMC, Microsoft und NVidia:
[*]R600 wurde für 65nm designed und musste dann auf 80nm backported werden, weil TSMC mal wieder einen Prozess nicht (rechtzeitig) auf die Reihe bekommen hat. Dies führte dann zu den schlechten Eigenschaften too big, too hot and Underperforming.

Das ist wohl kaum richtig. Die ersten 65nm Produkte kamen in Juni 2007 auf den Markt. r600 war regulär für Q4 2006 geplant. Ein Jahr früher hat AMD gerade die ersten 90nm Produkte vorgestellt. nVidia war zu dem Zeitpunkt ca. 6 Monate hinter AMD: 80mn in April, 65nm in November, 55nm in Juli.

[*]R600 hat die ursprüngliche DX10 Spezifikation implementiert, die unter Anderem fast alle DX10.1 Features sowie Tesselation vorgesehen hat. Damit wäre es abgesehen von DirectCompute und einigen Abstrichen bei der Programmierbarkeit und MultiCore Support nahe an das herangekommen, was wir heute als DX11 kennen. Für das neue DX10.0 waren einige Features, wie z.B. der gewaltige 512bit Ringbus oder die Tesselationsunits schlicht überflüssig und haben nur unnötig Energie verbraten.

Das ist kompletter nonsens. Tessellation war nie für DX10 vorgesehen. Das AMD eine Tessellation-Unit hat, war ein Resultat aus dem Xenos Design für die x360, das als Grundlage für r600 diente. Außerdem ist Tessellation ohne Hull und Domain-Shader deutlich unflexibler und uninteressanter für die Entwickler. 512bit war einfach eine Fehlentscheidung, vorallem wenn man bedenkt, dass r600 nur 16 TMUs hatte und FP überhaupt keine Rolle bei der Filterung spielt.

[*]Wäre der R600 nun ohne TSMCs Screwup 6 Monate früher auf den Markt gekommen und das Featureset von Microsoift nicht auf eine Light Version zusammangestrichen worden, die genau das beinhaltet, was vom G80 implementiert wurde, hätte NVidia mit dem G80 nur einen DX9.0c+ Chip gehabt und die GTX8800 wäre böse geflopt.

Hätte, wäre, wenn. Am Ende war r600 einer der größten Flops in der Geschichte und G80 in Form der 8800GTX die wohl beste Grafikkarte der Neuzeit, vor der selbst die Nachfolgegenerationen sich kaum abheben konnten.
 
Das ist wohl kaum richtig. Die ersten 65nm Produkte kamen in Juni 2007 auf den Markt. r600 war regulär für Q4 2006 geplant. Ein Jahr früher hat AMD gerade die ersten 90nm Produkte vorgestellt. nVidia war zu dem Zeitpunkt ca. 6 Monate hinter AMD: 80mn in April, 65nm in November, 55nm in Juli.
Eine GPU Architektur zu entwickeln dauert mehrere Jahre und wenn man sich z.B. das aus dem Archiv von TSMC anschaut, macht es durchaus Sinn, dass R600 für 65nm designed wurde. Wenn alles glatt gelaufen wäre, hätte ein Tape-Out im April/Mai zu einem Launch im Oktober/November führen können und TSMC hatte den 65nm Ramp für Q2 2006 geplant. Heute wissen wir, das R600 in 80nm erschienen ist und vom Tape-Out bis zum Release ca. 1 Jahr benötigt hat, was für eine GPU extrem lang ist und schon nahe an für CPUs übliche Werte herankommt. Interessant zu wissen wäre das Lauchstepping der 2900XT, um nachzuvollziehen wie viele Metall-Layer und/oder Base-Layer Respins nun tatsächlich benötigt wurden.
Das ist kompletter nonsens. Tessellation war nie für DX10 vorgesehen. Das AMD eine Tessellation-Unit hat, war ein Resultat aus dem Xenos Design für die x360, das als Grundlage für r600 diente. Außerdem ist Tessellation ohne Hull und Domain-Shader deutlich unflexibler und uninteressanter für die Entwickler. 512bit war einfach eine Fehlentscheidung, vorallem wenn man bedenkt, dass r600 nur 16 TMUs hatte und FP überhaupt keine Rolle bei der Filterung spielt.
Sei so gut informiere dich zuerst selbst, bevor Fakten anderer Leute als kompletten Nonsens bezeichnest. Für DX10 war sehr wohl zuerst eine mandatory Fixed Function Tessellationunit vorgesehen, die in späteren Revisionen zunächst optional wurde und im finalen Standard dann ganz fehlte. Diese kam zwar nicht an die flexible Tessellation von DX11 mit Hull- und Domainshader heran, war aber nichtsdestoweniger Tessellation.
Es geht mir nicht darum den R600 hier als die Über-GPU darzustellen, sondern lediglich darum aufzuzeigen, das die Rollen von G80 und R600 und etwas anderen Umständen durchaus vertauscht ausfallen können hätten.
 
Und zu welchem Zeitpunkt hat AMD ihren r600 Chip auf 80nm "zurück" portiert? :rolleyes:
r600 war nie für 65nm geplant. Dafür war Prozessbeginn für 65nm viel zu spät, wenn selbst Anfang 2006 nur Kleinchipprototypen zum Tape-Out gingen.
GF100 benötigte ca. 10 Monate von Tape-Out zu den Reviews. SI wurde nachgesagt, man hätte das Tape-Out schon in Februar durchgeführt. Jetzt - Mitte September - sind es fast schon 7 Monate. r600 verzögerte sich, weil es Probleme mit dem 80nm Prozeß gab, der zu diesem Zeitpunkt für Grafikchips ebenfalls neu war.

Und die Quellen für Tessellation in DX10 sind genau wo? Selbst per Google findet man nur Forumseinträge. Außerdem ist die Implementierung kaum erwähnenswert, weil man nur eine Fix-Function-Unit zwischen Vertex- und Geometry-Stage implementieren muss. Das ist ein Klacks und kaum bemerkbar im Transistorenbudget.
 
Zurück
Oben