ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
@Schaffe89, veränderungen im uncore werden den chip zwangsläufig größer machen. Du kannst nicht Tesselationleistung , Erhöhung der Shadereffizienz etc. ohne Vergrößerung schaffen. Die bis jetzt angegebenen Diegrößen kommen mir zwar schon ziemlich groß vor, aber mit 380mm² hätte ich schon gerechnet.

@grueni
vor allem bessere ausnutzung der Shader, rv870 hat rohleistung en masse die aber zu großen teilen einfach verpufft.
 
Nur mal so, die aktuellen Ati chips sind so dermaßen klein gehalten das man grade noch die leiterbahnen dranbekommt. wären die seiten noch schmaler würde das alles nicht mehr hinhauen.

Statt einfach mehr reinzustecken kann man ja auch versuchen die Shader in anderen anordnungen besser zu nutzen.
 
Aus dem Interview von Anand mit Amd geht aber hervor das sie so lange die Diegröße reduziert haben bis eben genau das passiert ist, die Fläche war schon zu klein.
 
Bonding Drähte kann man in mehreren Reihen Hintereinander Anordnen, ergo kann man auch einen Chip Entwickeln welcher nur aus 500 Bonding Drähten besteht.

aber wenn man eine Fixgröße von 20mm² durch die Bondingdrähte hat, macht es keinen sinn einen 5mm² Chip zu entwickeln.
 
bernd n schrieb:
Neo_Xsendra schrieb:
@KAOZNAKE
Und was das "nur 27 watt TROTZ doppelter vias und leckströmen" angeht ... er das müsste heissten "danke doppelter vias" diese dienen dazu, die leckströme zu verringern.
Nein, die Vias sind ein Prozessproblem bei TSMC. Diese sind ausfallbehaftet, und zwar direkt als Prozeßfehler bei der Wafer/Chipherstellung als Yieldproblem und später im Betrieb als Ausfall des Chips. AMD hat die Vias doppelt ausgelegt wegen der Prozeßfehler und um den Betrieb sicherzustellen. NVIDIA hat die VIAS einfach ausgelegt, hat deshalb ne volle Bauchlandung hingelegt, viel schlechtere Yields.
Deshalb gibt es fast nur Ausschusschips bei den Grünen(ca. ein Chip pro Wafer hat 512 funktionierende Shader), daher auch "nur 480 Shadereinheiten statt 512" bei der '480. Und daher auch nur ein Jahr Garantie bei NVIDIA. Und hohe Temps sind der VIAS-Haltbarkeit nicht gerade zuträglich. Das wird noch spassig..........

also nochmal: amd hat die via doppelt angelegt WEGEN dem fehler im prozess von TSMC. das hat zur folge, das sie defekte vias nicht nutzen müssen. damit sind die leckströme DANK der doppelten vias niedriger als bei nv, welche sie einfach ausgelegt haben und die "defekten" vias daher nutzen müssen. technisch gesehen sagen wir also das gleiche, das wollt ich nur mal klarstellen ;)

KAOZNAKE schrieb:
Die doppelten vias bedeuten eher ne größere Die-Size, was wiederum eher zu mehr Leckage führt (und im Prinzip zu einer schlechteren yield, was aber in diesem Fall quasi bedeutungslos ist)

Nein, die doppelten vias sorgen für WENIGER leckströme und BESSEREN Yields ;)

und mit dem vergleich gf200/hd4k und gf100/hd5k ist der gedankenfehler, das die kleineren chips tatsächlich gaming chips sind. dh weniger shader verbrauch für "unnötige" dinge verschwendet. ausserdem dürften sie gelernt haben und ebenfalls verschiedene vias doppelt ausgelegt haben um eben mit den kleineren chips bessere yield und weniger leckströme (damit auch einhergehen weniger verbrauch und weniger abwärme) zu erzielen. (persönliche vermutung)

Was die 5d architektur von amd angeht ... naja ich bin nicht alzu überzeugt davon. da geht extrem viel der theoretischen rechenleistung einfach verloren, weil man sie nicht nutzen KANN. wobei ich begeistert wäre NV auf 2d wechseln zu sehen. bei der aktuellen nutzungsstruktur wäre das ein enormer fortschritt. (wobei wenn meine theorie sich bewahrheitet das wir 2012 raytracing spiele sehen werden sich amd's 5d shader als echter vorteil erweisen könnte) naja so oder so: ja nv sollte endlich von den 1d shadern wegkommen, allerdings sollten sie nicht derart übers ziel schießen wie amd :3
 
Zuletzt bearbeitet:
Bin ziemlich unschlüssig.Sorry.Hatte eine 5850 und habe mir ne GTX470 geholt.Ja in ein paar games ist sie schneller.Wird die GTX besser für die zukunft gerüstet sein
 
Neo_Xsendra schrieb:
Nein, die doppelten vias sorgen für WENIGER leckströme und BESSEREN Yields ;)

Du und deine Lecksträme .. kennst du überhaupt noch etwas anderes?
Mein System verbraucht unter Furmark Last mit 75° GPU Temperatur tendenziell genausoviel wie bei 89°. Wie war das noch mit dem neuen Bios, das Verbrauch UND Lautstärke verringert? Die wundersame Kettenreaktion, eine früher ansetzende Lüftersteuerung verringert die Temperatur, daraufhin werden die Leckströme verringert, was am Ende zu nem kühleren, weniger verbrauchenden Chip führt? Das ist dein Ernst? Zumal Wolfgang der Meinung ist, das sich nichts geändert hat mit dem aktuellen Bios.

Doch wer weiß, wenn man das Bios noch weiter tuned, vielleicht schafft man es, das der Fermi statt Strom zu verbrauchen, Strom produziert?

Ist ja nicht verkehrt das Leckströme den Verbrauch beeinflussen, aber was erwartest du denn da für eine Auswirkung?

Sorry, aber das ist als würde man behaupten, ein Escord mit Front- und Heckspoiler könnte fliegen, weil es ja die Aerodynamik gibt.
 
@milamber!

gott lies dir doch mal alles durch und überlies nicht immer die hälfte ... was du zitiert hast, bezieht sich auf die doppelten vias, welche dafür sorgen, das bei amd das problem mit den leckströmen deutlich besser gelöst wurde. da ist nv nichtmal erwähnt.

Und was das mit der lüftersteuerung angeht: sollte wie wolfgang sagt nichts geändert worden sein, ändert sich (natürlich) nix.

Wenn wie Y33h@ sagt der lüfter früher hochdreht, steigen die temperaturen natürlich WENIGER an (und für den moment ist die karte lauter im vergleich) dafür steigen die temperaturen im weiteren lastverlauf geringer an und man kann die temperaturen besser kontrollieren und läuft ihnen nicht mit der kühlung hinterher. das große problem von nv gegenüber amd ist ja, das mit höheren temperaturen aufgrund schlechterem handling des 40nm prozesses überproportional ansteigen. Somit ist das stärkere reagieren auf steigenede temperaturen bei ihnen eine möglichkeit um den teufelskreis von anfang an zu unterbinden und somit spitzenwerte in den temperaturen frühzeitig abzufangen.

damit ist die karte im schnitt theoretisch leiser als zuvor und der stromverbrauch theoretisch niedriger. das hat nichts mit einem pepetuum mobile erster ordnung zu tun, da du damit nur verlustleistung senken kannst (also nicht mal den verbrauch an sich, sondern nur was "nebenbei" mal so eben verpufft.

wie gesagt geht es dabei um eine eventuelle möglichkeit diesen patzer einigermaßen in den griff zu bekommen. es gibt keine chance auf diese weise den extremen abstand zur 5870 ernsthaft zu verringern. was das angeht hat amd schlicht den besseren job gemacht.
wobei die frage ist, ob man bei nv daraus gelernt hat für die kleineren chips

EDIT: um den autovergleich mal noch dazu zu verwenden:

das ist die behauptung, das ein escort der dir beim anfahren immer ausgeht, weil er schwer beladen ist, dir evtl nimmer absäuft, wenn du im verhältniss zum gasgeben die kupplung später kommen lässt ;)
 
Zuletzt bearbeitet:
Es gibt bestimmte Faktoren, damit die neue Lüftersteuerung aufgeht, nämlich ein Wechsel zwischen starker Last und weniger starker, ist der nicht gegeben ird die Karte genauso heiß wie vorher und auch genauso laut.
Die GTX470 ist sogar 100%ig preproduzierbar lauter geworden.
 
Dei GTX470 die hartware getestet hat ist doch fast durchgeknallt. Vielleicht setzt da die neue Steuerung an und behebt einfach nur solche Bugs und sorgt für bessere Kühlung damit sowas nicht mehr passiert.
 
@Schaffe89

das würde dann definitiv gegen y33h@ s aussage und für wolfgangs sprechen. wobei ich persönlich zu beidem noch keinerlei fakten gesehen hab^^
 
Nö es ist lediglich Logik und widerspricht auch nicht dem was y33H@ gesagt hat.
Wenn ich in einem Game den Chip eher kühle, dann braucht er auch länger bis er heiß wird.
Den Vorteil versucht Nvidia zu nutzen, weils im Spiel häufig so der Fall ist, dass verschiedene Lastzustände herrschen.
Imho kann die GTX480 in einigen Fällen leiser sein, sowie auch in einigen Fällen lauter, weil sie ja eher hochdreht.
Kommt wohl ganz auf den Messzeitpunkt an.
Die absolute Lautstärke bleibt wohl gleich, wenn die Karte länger unter starkes Last rendern muss.
 
ah dann hab ich dich falsch verstanden. hatte dich jetzt so verstanden, das die karte generell lauter geworden sei XD
 
Schaffe89 schrieb:
Wer sagt denn, dass der Chip größer werden muss?
AMD will nur veränderungen im Uncore Bereich vornehmen.

Laut einer gut unterrichteten Quelle soll der Chip sogar bei weniger Shadern größer werden. Macht auch einigermaßen Sinn, da ATI laut anandtech einiges streichen musste, um die Diesize kleiner zu bekommen um infolgedessen wiederum die yield in den Griff zu bekommen. Das größte Problem das ATI hat ist, dass sie die Rohleistung nicht auf den Boden bkommen.

Da der 40nm P. jetzt läuft, können sie was an der Effizienz drehen, auch wenn das mehr Diesize bedeutet.

Neo_Xsendra schrieb:
Nein, die doppelten vias sorgen für WENIGER leckströme und BESSEREN Yields ;)

Da erklären dir zwei Leute, das das nicht stimmt, und du erzählst immer noch den Quark. ;)

Nochmal langsam zum mitschreiben:

Vias verbinden die Layer im Silizium miteinander. Sind ganz normale "Datenleitungen", wie ne Telefonleitung. Die hatten am Anfang die schlechte Eigenschaft, einfach auszufallen (oder besser gesagt von Anfang an nicht zu funktionieren). Keine Vias--> keine Verbindung ("gekappte Telefonleitungen")--> kein funktionierender Chip. Da stören dich auch keine Leckströme mehr ;)

Doppelte vias bedeuten vermtlich eher höheren Strombedarf, denn jede Leitung muss auch versorgt werden.

Die Leckströme wiederum resultieren aus der zu großen Variabilität der Transistoren ( zu große Toleranzen)

Das wiederum resultiert in jede Menge "nicht funktionierender" Transistoren (Shadercluster fallen aus bzw. müssen deaktiviert werden) und jede Menge schlecht funktionierender Trans. (hohe Leakage).

Genau das ist ja NVIDIAs Problem. Um die "gar nicht" funktionierenden Transistoren (funktinieren schon, aber nicht mit der gewünschten voltage/Takt) zum mitmachen zu überreden, hätte man die Voltage erhöhen müssen. Dann hätte man mehr Shadercluster aktiveren können und insgesamt höhere Taktraten fahren.

Allerdings machen da die "schlechten" Transistoren einen Strich durch die Rechnung, weil die dann Strom ohne Ende leaken (bei zu viel Takt und/oder voltage). -->TDP explodiert.

Macht sie zwar ohnehin, aber so wär echt Ende Gelände gewesen.

Sieht man ja auch am Ergebnis. Ein User (mmic29) hat ne 480. Die läuft normal mit 1,00V Stock@load.

Er hat sie auf 0,963V. Und das bischen macht schon 10° aus. Ich hab schon von Usern mit 70W weniger @ 0,95V gelesen (müsst ich aber nochmal suchen). Im Normalfall dürfte das bischen kaum soviel ausmachen, wenn nicht diese krass "leakigen" Transistoren wären.


Deswegen würd ich auch jedem von der Karte abraten, einfach weil da von Anfang an so viel "kaputt" ist.

Bei den Temps, die die Karte erreicht...

EDIT: Wie willst du der Graka beibringen, defekte vias "nicht zu nützen"? Die sind da und werden "automatisch" benutzt. Das ist wie mit defekten Shadern, die ziehen auch Strom obwohl sie nicht genutzt werden (siehe 5830, bestes Beispiel)

Und defekte vias kannste gar nicht benutzen, weil , ja richtig, sie defekt sind. Und defekt heißt in diesem Fall "kaputt"

(während defekte Transistoren nicht in dem Sinne defekt sein müssen, sondern einfach nur nicht so funktionieren, wie gewünscht (bei zuviel Voltage oder zu wenig Takt). Es kann natürlich auch ein "echter" Defekt vorliegen.
 
Zuletzt bearbeitet:
@AffenJack:
nein, die meisten infos sprechen vom refreshchip als HD6700

das bezweifle ich. es gibt einen guten grund, warum immer erst die highendmodelle released werden und später (oder frühestens zeitgleich) dann die kleineren modelle. wer würde sich denn eine teure hd5970 kaufen, wenn es schon hd6k-karten gibt? dann warten doch alle auf was neues anstatt hunderte von euros für eine "verraltete" karte auszugeben, bzw kaufen sich die billigere karte um zu den ersten zu gehören anstatt das highendmodel, weil sie nicht abwarten wollen. man macht also seinen eigenen hochpreisigen produkten konkurrenz mit produkten, die deutlich weniger kosten.
 
wann werden denn die Preise der ATI´s falllen?
 
Garnicht mehr bis zum SI.;)
Vor allem weil es bei TSMC nach wie vor düster mit der Produktion aussieht und wenn SI dann noch hergestellt werden soll und wahrscheinlich keinen kleinen der Teil der Produktion verschlingen wird.

edit:
Oder soll dann schon teilweise auf Global Foundries ausgelagert werden ?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben