ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Natürlich verstehst du es nicht, da du offensichtlich diesen Beitrag nicht gelesen oder verstanden hast:
https://www.computerbase.de/forum/t...-geruechtekueche.633836/page-241#post-8174842
Ich Frag mich wo dein Offtopic Hinweis zu PhysX bleibt :rolleyes:

@Topic:
deine einschätzung dass ein cypress in der herstellung gleich 10 mal mehr kosten soll als ein redwood müsstest du mir auch bitte mal erläutern.
Das habe ich auch schon zweimal gepostet - lies doch den Thread bitte zuerst:
https://www.computerbase.de/forum/t...-geruechtekueche.633836/page-240#post-8170460
:mad:
 
Complication schrieb:
Und das schlimmste ist dass die mit PhysX erstellten Effekte teilweise optisch so schlecht sind, dass z.B. hier die Glassplitter aussehen als wären es zusammen geknüllte Papierkugeln. Sie mögen sich mit dem Fuss bewegen, doch die Optik ist sehr unrealistisch finde ich. Die zerstörten Glasbausteine hingegen sind völlig flach texturiert ohne die geringste Tiefe in den Löschern.

Das ist mir aber schon bei vielen Umsetzungen aufgefallen - da muss nun mal der Programmierer auch wissen was er damit macht. Oft kommt es mir sehr lieblos verwendet vor, nach dem Motto einfach mal irgendwo eingebaut, auch wenn keine Notwendigkeit besteht.

Eine Kritik könnte man evtl daraus schließen.
Nämlich das Nvidia mit dem Aktenkoffer gekommen ist und die entwickler jetzt notgedrungen Physx auch versuchen zu verwenden^^
 
Zuletzt bearbeitet:
@Complication: genau wegen dem beitrag ist es ja nicht zu verstehn :freak:
in einer diskussion über physx mukierst du dich über die darstellung der mit physx gezeigten objekte. nach dem geklärt wurde, dass die darstellung gar nichts mit physx zu tun hat, sagst du, dass dir das klar ist. also nochmal: wo ist dann der zusammenhang zwischen deinem post und der diskussion?

zum zweiten: das habe ich gelesen und genau darum frag ich ja. du machst nicht die geringsten angaben zu yields etc. du könntest auch 20 mal billiger oder 100 mal billiger mit der gleichen begründung schreiben. aber fassen wir deine aussagen mal zusammen:
die preisdifferenz macht deiner meinung nach 100,- € marge wett und der cypress kostet so viel wie 10 redwood nach deiner einschätzung (was ich mal in frage stelle). wieviel kostet also ein cypress deiner meinung nach und wieviel ein redwood?
 
Ok dann etwas neutraler formuliert:

Ich "mukiere" mich nicht über die Diskussion zu PhysX, sondern mokiere mich in keiner weise - ich habe versucht etwas dazu zu schreiben: meine Meinung die ich mit Bildern belegt habe.

Es tut mir auch Leid dass du mit relativen Bezügen nichts anfangen kannst und mich nach absoluten Zahlen fragst die kein Mensch kennt . Es steht alles in meinen Beiträgen, die du auch gerne ignorieren kannst.

@Joker
Ja das kann man rein interpretieren wenn man das will, war mir aber nicht im Kopf herum gegangen als ich das geschrieben habe - nur diese Kritik geht dann auch an die Adresse des Entwicklers der sich sein eigenen Geschäft kaputt macht auf Dauer.
 
da sich volker ja bereits in der news zur gtx450 darüber beschwert hat, dass die gerüchteküche keine angaben zum gf106 hergibt, möchte ich diesem umstand mal abhilfe schaffen und hier eine entsprechende diskussion anzetteln ;)

zitat volker:
...ein „GF106“ getaufter Ableger verwendet. Dessen Eckdaten werden noch nicht einmal in der
Gerüchteküche behandel;,...

also hier mal ein paar eckdaten zum gf106:
mutmaßlich wird der gf106 ähnlich dem gf104 um diverse gpgpu-eigenschafften abgespeckt werden, was eine orientierung in sachen verbrauchswerte am gf104 ermöglichen sollte.

von den einheiten her kann man wohl von einem "halbfermi" ausgehen (gf104 ist ja ein 3/4 fermi)
das würde für den vollausbau des gf104 bedeuten:
- 256 shader
- 24 rops
- 32 tmus/taus
- 128 bit si
diese eckdaten wären wie gesagt für den vollausbau, als der gtx455. die gtx450 wäre nochmals beschnitten und verfügt entsprechen über weniger einheiten.
beide karten sollen im august den markt erreichen.
jemand andere vorschläge?^^
 
Zuletzt bearbeitet:
eindeutig ein 192bit SI. Die Diesize liegt um 250 mm2 (hab kurz nachgemessen). PCB Bilder gibt es auch schon



EDIT: Ich brauchte halt ein bisschen Zeit, bis ich wusste ich das Bild verlinken muss. :D

Das Bild hat übrigens ein Gast im 3D-Center-Forum gepostet.
 
Zuletzt bearbeitet:
Mit den 256 Shadern wäre ich mir nicht so sicher. nVidia hat sicher nicht alles im GF104 umgebaut (48 Shader pro SM) um beim GF106 wieder zurück zum GF100 zu gehen (32 Shader pro SM).

Mit 288 Shadern hätte man dann 6 von 8 SM's vom GF104. Wäre allerdings Leistungstechnisch zu nahe an der GTX460.

EDIT: Im anderen Thread sind es demnach 192 Shader. Also 4 SM à 48 Shader.

Und der GF108 dann 2 SM.

Die Taktraten des GF108 sind aber arg niedrig. 560 mhz sind doch ein bisschen wenig.

Und Charlie hat in diesem Fall nicht recht, vonwegen SI kommt vor GF106 und GF108. Die kleinen Karten kommen sicher schon im August und es wurden lauffähige karten gesehen. Von SI aber noch keine Informationen oder ein lauffähiges System auf einer grösseren Ausstellung.
 
Zuletzt bearbeitet:
stimmt, denke auch, dass eher die gf104-architektur weiterverwendet wird bei den kleineren chips.

288 shader wären nicht zu nah am gf104, da dieser ja 384 shader hat. die gtx460 ist dann zwar nicht mehr so ganz weit weg, aber wenn man die 5770 angreifen will, hat man auch nicht so viel spielraum, denn die kommt ja auch schon recht nah an die 5830 ran.

allerdings ist 288 nicht grad ein gängiger wert.
 
Laut dem Bilder im anderen Thread sind es wohl 4 SM à 48 Shader = 192 Shader. Welcher gegner die Karte hat wissen wohl nur die nVidia-leute

EDIT:

Ich habe mir mal den Finanzbericht angeschaut von nVidia im letzen Quartal.
Da ist mir was aufgefallen.
The increasewas largely due to higher-than-expected yields of 40nm products. In particular, good yields of GTX470 and GTX 480 meant we had insufficient back end capacity to assemble, test and ship these products before the end of the quarter.

Und vonwegen Pleite gehen.
soviel haben die auf der Seite^^

Und nochwas zu den verkauften Einheiten.
shipped a few hundred thousand units by quarter end
Und das war am 2. Mai.

nVidia wird wahrscheinlich bis jetzt über eine Million DX11 Graka's verkauft haben
 
Zuletzt bearbeitet:
192 shader erscheinen mir auch weitaus logischer als 288. allerdings ist die differenz dann zum gf104 doch relativ groß. ggf kommt die gtx455 doch noch mit einem gf104 und die gtx450 wird dann der vollausbau des gf106? anders halte ich die 5770 für unerreichbar, außer eben über wahnwitzige taktraten, die aber den verbrauch übermäßig hochtreiben würden...

also was meinst du, gtx455 mit gf104 mit 256 aktiven shadern, wäre das realistisch? und gtx450 als gf106 "flagschiff" gegen die 5750?
 
GF104 mit 256 Shadern geht wie gesagt nicht. Ich erwarte eher 288 Shader, also 6 SM's und ein 192-Bit Interface.

Das ist dann der absolute Abfallchip. Ähnlich HD5830 und GTX465.

So kann man den Abfall, den man sonst noch wegwerfen würde, noch seeeeeehr billig gegen die HD5770 stellen. Genau das was es braucht um der erfolgreichen HD5770 Wasser abzugraben.

Under der GF106 in diesem Fall dann gegen die HD5750.

Ausserdem werden die sicher nicht GTX heissen sondern GTS.

Auf Wikipedia ist eine passende Auflistung vorhanden.
G oder kein Suffix – Low-Budget
GT – Mainstream
GTS – Performance
GTX – High-End

So wie es aussieht macht nVidia wieder alles Richtig. P/L besser als die Konkurrenz. (Leistung meine ich die Reine Spieleleistung)
 
Zuletzt bearbeitet:
ja sry 288, jedenfalls eben noch der gf104...^^

die auflistung aus wikipedia galt bei der g200-reihe, aber bei g400 haben wir ja schon gtx bis runter zur gtx460, der auf dem performance-chip beruht. bei gtx465 könnte man ja noch mit dem gf100 argumentieren, aber imho hätte auch schon da ein gts vor gehört, da die karte in meinen augen kein highend mehr ist.

aber nvidia und namensgebung is ja sowieso n fall für sich ;)

bin mal gespannt, ab wann das gts kommt, oder ob nvidia diesmal konsequent das gtx für alle karten beibehält und nur die nummern als leistungsindex stehen lässt.
 
Die namen werden uns sicher wieder überraschen. Aber die Hoffnung stirbt zuletzt. Deshalb hoffe ich, dass die die 400-Serie mal aus einer Generation machen können. Und laut dem Namesschema wären dann halt GTS fällig.

EDIT: Ouh. NEEEEEIIIIIIIINNN.

GTX460 OEM

Grafikkarte GTX460
Speichertakt 1700
Speicher 1gb oder 2gb
TDP 160W
Zusätzliche Stromanschlüsse 1x6pin

Ausserdem noch um 25 Mhz reduzierter Takt

Wenigstens ist es diemal ein Fermi-Chip und nicht einer der Vorgänger-Generation :lol:

Also normalerweise haben die GTX460 Karten 2x6pin. Wieder mal :“Die Karte hat riesige 2gb Speicher“. :(
Ob das gut kommt mit den Chinaböllern-netzteilen? 1x6pin der mehr als 75W liefert mein ich^^
 
*g* oh welche überraschung ^-^ 28 nm erste ende 2011? da werden wir wohl einen gf100b sehen der nach vorbild des gf104 überarbeitet sein wird ;D
 
es wird keinen gf100b geben denke ich. ich hatte ja schon die vermutung geäußert, dass die gtx485 einfach aufgrund der besser werdenden qualität mit weniger volt und mehr takt betrieben werden kann (und 512 shadern). ich hab gestern im gespräch mit einem hersteller mal nachgefragt, ob sich an der qualität der chips was getan hat und der hat mir bestätigt, dass die gf100 sich qualitativ spürbar gesteigert haben. die quote der geeigneten chips für oc-modelle hat sich spürbar verbessert wie auch das oc-potential selbst.

von daher gehe ich einfach davon aus, dass nvidia nur darauf wartet, dass tsmc die fertigung so weit verbessert hat, dass ausreichende stückzahlen mit entsprechend hoher qualität gefertigt werden können. die gtx485 wäre dann dementsprechend aber auch nicht so viel schneller als die gtx480 und würde etwa das gleiche verbrauchen.
erwartungen, dass sie die 5970 toppen könnte, halte ich für unrealistisch.
 
Aber dagegen spricht, dass sich nVidia, besonders wegen der 40nm-Probleme, sich nicht auf den Fertiger verlassen DARF! Das wäre wohl der grösste Fehler der Firmengeschichte.

O-Ton
TSMC:"Die Yields werden immer besser und sind auf dem Level des vorhergehenden prozesses".
nVidia:"Oh Toll. Ihr habt das schon 10mal gesagt und jetzt glauben wir euch. Ich glaube wir machen keinen GF100b."

An einem Chip auf GF100 niveau werden sie sicher gearbeitet haben. Nur Stellt sich die Frage, an was für einem Chip. GF100b mit verringerter Leistungsaufnahme oder einem GF102 nach dem Vorbild von GF104.
Aber dass nVidia nur darauf hofft, dass die Chips besser werden, das ist Schwachfug^4.

Wenn nVidia an einem GF102 arbeitet, der dann auch den zukünftigen Ati's Paroli bieten kann, dann wäre das wohl ein Chip mit 576 Shadern (also 12SM à 48 Shader) und ein 320bit-SI. Der dürfte dann ungefähr so gross oder gar kleiner sein als GF100, bei gleichzeitiger höherer Leistung.

nVidia hat sicher daran gearbeitet und
 
LuXon schrieb:
nVidia hat sicher daran gearbeitet und..

..und es kam nach 7 Monatigem Release der 5870 immernoch nicht das erwartete Konkurenzprodukt. Normalerweise müssten sie arbeiten. Überspitzt gesagt denke ich aber nicht, dass sie es wirklich tun.
 
Aber dass nVidia nur darauf hofft, dass die Chips besser werden, das ist Schwachfug^4.

es geht darum, dass der fermi in seiner jetzigen form nicht dem geplanten fermi entspricht, da die qualität noch zu schlecht ist und die gtx480 auch noch gar nicht der fermi-vollausbau ist. tatsache ist, dass bei zunehmender qualität 512 shader zur verfügung stehen werden und 64 statt bisher 60 tmus.
tatsache ist auch, dass die vcore aufgrund der stark schwankenden, bzw niedrigen qualität höher angesetzt werden musste, wodurch der verbrauch expondentiell stärker im vergleich zur leistung ansteigt. das bedeutet, aus dem gf100 kann man auf jeden fall eine schnellere karte mit mehr ausführungseinheiten und gleichzeitig besseren verbrauchwerten und niedrigerer abwärme produzieren, wenn die 40nm fertigung so weit ist.

meine einschätzung zu so einer karte: +10% bis 20% leistung und ca 30 watt niedrigerer verbrauch als die gtx480.

die entwicklung eines neuen chips wo der aktuelle nichtmal ausgereizt wird, halte ich für wirtschaftlich unklug. ich bin sicher, dass die "gtx380" noch kommen wird. und ich gehe ganz stark davon aus, dass der name gtx485 lauten wird.
ein gf102 ist zwar ebenfalls denkbar, aber angesichts der performancekrone und der leistungsreserven imho weniger wahrscheinlich.

@conehead7: der gf104 wurde noch nicht im vollausbau rausgebracht und die kleineren modelle sind auch noch nicht fertig.
und dass ati noch dieses jahr den si bringen will, weis nvidia sicher auch. glaub mal nicht, dass sie sich jetzt auf den lorbeeren der gtx460 ausruhen werden ;)
 
Zuletzt bearbeitet:
Geht man nach diversen Seiten, dürfte lediglich ein optmierter GF100 kommen, eben in Form der GTX 485.

http://www.hardware-infos.com/news.php?news=3587

Ich glaube in kürzester Zeit nicht an einen GF102 im High End Segment. Zudem schätze ich, dass NVIDIA damals massive Probleme hatten und einfach kein anständiges Produkt bringen konnten, was diese Theorie stützen würde. Alleine wegen des späten launches der Fermikarten.

Schließlich hätten sie ja gleich eine effizientere Version des GF100 bringen können aber offensichtlich haben und hatten sie nie was besseres im Petto aber mussten solangsam was bringen. Es wurde soviel Zeit und Energie in den Fermi hineingesteckt, dass es schließlich keinen Weg mehr zurück gab, als sie feststellten, dass diese Architektur auch Probleme mit sich bringt.

Jetzt versuchen sie krampfhaft das was noch übrig ist zu verbessern und anzupassen. Das wird in der kurzen Zeit allerdings nicht funktionieren, wenn es schon in 6-12 Monaten nicht wollte. Um das erneut zu richten, muss also ein komplett neuer Chip her und das brauch wieder Zeit.

Ich sags´s heute und ich sag´s wieder. Ein Produkt das ohne jede Vernunft, mit der Brechstange und unter Zeitdruck entstanden ist. Normalerweise ist die Karte auf dem Stand von vor knapp einem Jahr, das sagt doch alles aus.

Der einzige Unterschied ist, dass ATI damals released hat, NVIDIA jetzt. Denn wie bekannt ist, hätte ATI auch damals die Leistung für die Tesselatoren derartig hoch ansetzen können, um konkurenzfähig zu sein. Dann wäre vom Verbrauch aber etwas ähnliches, wohlmöglich nichtmal ganz so schlimmes dabei herausgekommen.

Nur bestand damals auch noch keine Notwendigkeit dazu, NVIDIA war und ist bis heute im Zugwang.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben