News Grafikkarten mit 28-nm-GPUs erst Ende 2011?

Nun, neben der ganzen Shrinkdebatte stellt sich mir nur die Frage, welche Games sollen diese Karten ausreizen? Ich habe zwar selbst eine WaKü 480er, aber meine alte 285er hätte es bei aktueller Spielelage voll getan.

Also wo bleibt die Software? Die Kluft zwischen Performance und gebotener Grafik war nach meinem Gefühl noch nie so groß wie heute.

Da frage ich mich ernsthaft für was ich eine High-Karte noch kaufen soll...
 
Nun, neben der ganzen Shrinkdebatte stellt sich mir nur die Frage, welche Games sollen diese Karten ausreizen? Ich habe zwar selbst eine WaKü 480er, aber meine alte 285er hätte es bei aktueller Spielelage voll getan.

Bau dir eine HD5670 low Profile in einen 4 Liter großen HTPC ein und Spiele damit sämtliche Spiele, für die man vor ca. 2,5 Jahren - Ende 2007 also - noch einen Full ATX Tower mit:

1.) deutlich mehr Platzverbrach
2.) mehr Stromverbrauch
3.) womöglich sogar mehr Abwärme

benötigt hat. Dann weißt du, wie man die Leistungssteigerung bei gleichbleibendem oder sich gar verbesserndem Stromverbrauch "sinnvoll" umsetzen kann.

Wie der Raucherdackel weiter oben schon meinte finde ich es ebenfalls durchaus angenehm, dass eine HD5570 mit ca. 40 Watt Verbrauch unter Last einer HD3870 mit ca. 110 Watt Lastverbrauch auf Augenhöhe begegnet. Grob gesprochen.
 
Zuletzt bearbeitet: (Wattangabe & Formulierung korrigiert)
@Lübke
Ich habe noch einmal genau hingesehen. Die HD5570 ist eher so schnell wie eine ehemalige HD3850. Das ist natürlich nicht der Abschuß, wenn man es mal wirklich objektiv betrachtet. Aber immerhin ist eine HD5570 mit GDDR5 Speicher (oder eine HD5670, kann man auch sagen) bei ca. 50 Watt Verbrauch so ungefähr in den Leistungsgefilden, für die vor gut 2 Jahren noch rund 100 Watt notwendig waren. Und wir erinnern uns: Die HD3000er Generation war im Grunde damals schon tendenziell für ihre Genügsamkeit bekannt.

Somit ist es kein schlechter Wert, den die künftigen Nord- und Südinseln von AMD allerdings weiter ausbauen sollten. Neben dem Shrink als Zugpferd sollte natürlich vorrangig die Architektur dafür sorgen, dass sich etwas tut. Ein Quantensprung wie bei der C2D Technologie wäre wünschenswert.
 
Grafikkarten mit 28-nm-GPUs erst Ende 2011?


....oder erst 2012???? (Die verschiebungen kennen wir ja schon zur genüge)
 
@Zwirbelkatz: wobei sich der ruf der sparsamkeit bei der hd3k noch auf powerplay, sprich 2d-verbrauch begründete. unter last war die 3870 der etwas schnelleren 8800gt leicht unterlegen.

wenn ich an die 7900gs denke, die hatte einen verbrauch von 49 watt bei 120 nm. und die war immerhin schon performanceklasse. wäre mal interessant zu sehen wenn man die auf 40nm shrinken und so weit übertakten würde, dass sie auch auf 50 watt verbrauch kommt, wie viel leistung sie dann heute bringen würde im vergleich zu gt240 und 5570.
wäre für mich ohnehin mal interessant zu sehen, welche architektur shrinkbereinigt die effizienteste war :)
 
MoD85 schrieb:
zum Update: Genau dies wird der Fall sein, AMD wird keine Strategie in den Wind blasen, die schon einmal gut funktioniert hatte.

Da Nvidia weder Informationen zum Fermi Nachfolger gegeben hat und AMD Globalfoundries bereits sicher zugesagt hat könnte es wieder so sein, das AMD seine dann derzeit neue Grafikkartenreihe vor Nvidia raus bringt. Aber dieses Mal bekommt AMD mehr Anteile von der Produktion und nicht Nvidia, alleine dadurch das AMD dort auch Prozessoren fertigen wird.

Damit wäre AMD schlimmstenfalls (oder bestenfalls, je nach Sicht) mit 2 Generationen vor einem neuen NVidia Produkt. Wie Fatal alleine eine Verspätung von über einem halben Jahr zu einer neuen Generation sein kann haben wir mit Fermi gesehen.

Ich hoffe schon seit 3 Jahren, das Nvidia endlich ihre Produktstrategie überdenkt wie es AMD damals getan hatte (weg vom großen DIE usw.). Aber wie es aussieht lässt sich Nvidia auf ihrem Weg in den Ruin nicht beirren (Fermi ist nicht schlecht, aber auch nicht wirklich wirtschaftlich für Nvidia).


AMDs Vorteil bei der Produktion und dem Chipdesign wird sich in den kommenden Monaten zeigen. Nämlich dann, wenn Nvidia die ersten Karten mit GF106 und GF108 GPUs auf den Markt bringen wird. Denn deren Kontrahenten, die Juniper und Redwood-GPUs von AMD sind wesentlich kleiner. Der Unterschied macht bis zu 45% an Chipfläche aus. Ähnlich ist es auch beim GF104 und RV870. Wenn man mal die HD 5870 mit der GeForce GTX460 vergleicht, so ist die Radeon deutlich schneller, hat den höheren Standarttakt und immer noch Übertaktungspotential. Die GeForce hat einen geringeren Standarttakt, hat zwar Übertaktungspotential, wird aber dennoch nie an eine HD 5870 herankommen. Und da zeigt sich der Vorteil: Die Radeon besitzt mehr Leistungspotential als die GeForce und wenn man sich mal den Preis anschaut, erkennt man das Problem, das Nvidia haben wird. AMD kann die Cypress-GPU günstiger herstellen als Nvidia den GF104-Chip, dennoch kann AMD problemlos über 300€ verlangen. Nvidia dagegen hat höhere Produktionskosten als AMD, verkauft die GTX 460 aber für 200€. AMD macht also bei wesentlich geringeren Produktionskosten mehr Gewinn als Nvidia. Und das wird sich durch die ganze Modellpalette hindurchziehen. Im Midrange und Low-End Segment ist die Chipfläche entscheidend. Ein 45% größerer Chip bedeutet automatisch höhere Kosten und dadurch weniger Gewinn. Dazu kommt, dass Nvidia die Produktion der GF400-Reihe mindestens ein halbes Jahr länger laufen lassen muss, als AMD die Produktion Ihrer 40nm Chips. Nvidia muss schließlich auch dafür sorgen, dass sich die Produktionsanlage rechnet. AMD kann hingegen schon viel früher mit der Produktion von 28nm Chips beginnen. Das bringt AMD den Vorteil, dass man mehr Transistoren auf dem Chip unterbringen kann, dadurch die Chipfläche aber nicht steigt. Behält man die Größe der Cypress-GPU bei, kann man sicherlich 40-60% mehr Transistoren als beim Cypress darauf unterbringen. Man könnte z.B. das Speicherinterface vergrößern oder mehr TMUs einbauen.
Nvidia wird im schlimmsten Fall mit 28nm GPUs konkurieren müssen, welche bei gleichem Verbrauch viel mehr Leistung bieten. AMD könnte selbst bei einer moderaten steigerung der Chipfläche auf ca. 400 mm² noch viel viel gewinnbringender Produzieren als Nvidia.


Ich glaube übrigens nicht daran, dass AMD einen Shrink der SI bringen wird, da die SI onehin nur eine Übergangslösung sind. Vielmehr halte Ich die SI für eine Art Pipecleaner, der dazu dienen soll teile des Designs der NI zu testen. Man wird sicher eine HD 6770 o.Ä. in 28 nm fertigen, welche ebenfalls als Pipecleaner dienen wird. Somit dürfte die HD6K-Reihe eher ein großes Experiment unter Realbedingungen sein. AMD wird die Strategie konsequent weiterführen. Man wird nicht plötzlich GPUs mit einer Fläche über 400 mm² auf den Markt bringen. AMD wird weiterhin möglichst viel Leistung aus möglichst wenig Chipfläche rausholen wollen. Gutes Übertaktunspotential und geringer Stromverbrauch sind ebenfalls teil der Strategie.

In jedem Fall ist AMDs Strategie besser als die von Nvidia. Nvidia setzt auf Leistung ohne Rücksicht auf Verbrauch, Temperatur und Kosten. Die Ausbeute der GF100 Chips ist nach wie vor nicht berauschend, in jedem Fall aber schlechter als bei den Radeons. Selbst mit dem GF104 schafft es Nvidia nicht, günstiger zu produzieren als AMD. AMD produziert einfach billiger und kann so den Preis anpassen, wenn Nvidia ein etwas schnelleres Produkt bringt. Der Großteil der Nicht-Fanboys richtet sich dann einfach nach dem Preis/Leistungs-Verhältnis, welches AMD dominiert. Daher hat AMD momentan auch mehr Marktanteile als Nvidia. Auch der Stromverbrauch ist ein Argument. Möchte sich Jemand z.B. eine GTX 480 kaufen, muss er womöglich ein stärkeres Netzteil und mehr Gehäuselüfter kaufen. Bei einer Radeon muss er das nicht, auch wenn er 20% weniger Leistung hat als mit der GeForce. Höherer Stromverbrauch kann also zu Zusatzkosten führen und da selbst eine GTX 465 unter Vollast mehr Strom verbraucht als eine HD 5870, liegt der Vorteil bei AMD.
AMD richtet sich an freie, offene Standarts. Nvidia behrarrt auf PhysX, CUDA und 3D Vision. Vielen Entwicklern sind diese Standarts von Nvidia aber ein Dorn im Auge.

Im Chipsatzmarkt ist Nvidia mittlerweile eine Null. Den ION lasse Ich mal außen vor. Ich spreche von richtigen Mainbord-Chipsätzen. Der letze war der Nforce 7. Mit AMD und Intel hat man es sich ja verscherzt, so dass man für die beiden Hersteller keine Chipsätze mehr entwickeln darf. So könnte es passieren, dass man beispielsweise AMD freien Zugang zu PhysX und CUDA gewähren muss, damit man Chipsätze fertigen darf. Ich würde eine solche Entwicklung begrüßen, denn es würde bedeuten, dass man endlich wieder Ati-Karten mit Nvidia-Chipsatz und AMD-CPU kombinieren kann. Man könnten endlich auch PhysX-Spiele mit AMD-Karten spielen, bzw. PhysX-Effekte nutzen. Solange Nvidia so sturr bleibt, sieht es jedenfalls schlecht für sie aus. Was Grafikchips angeht, war man offensichtlich zu stolz, um sich an AMD zu orientieren.
 
Zuletzt bearbeitet:
Wenn ich noch hinzufügen darf.
Die HD5570 verbraucht unter Spielelast nur 30 Watt und ist so schnell wie eine HD4670, welche eine schäbige HD3870 desöftern schlägt.
Die HD5570 gibts ja desöfteren nur mit 1B-Vram, könnte eventuell auch etwas von Vorteil sein.
 
brabe schrieb:
Wann kommen denn die ersten Intel CPU´s in 28nm? War nicht Intel immer einer der ersten?

Die 28nm Fertigung betrifft nur GPUs. CPUs werden wohl noch in 32nm bzw. später in 22nm gefertigt. 28nm überspringt man einfach.
 
Stimmt ja, die CPU´s sind ja im Moment bei 45nm und nicht bei 40nm wie die GPUs
In CPU fabrications, it is noted that a "die shrink" always involves in an advance to a lithographic node as defined by ITRS (for example, 600 nm, 350 nm, 250 nm, 180 nm, 130 nm, 90 nm to 65 nm then 45 nm nodes and so on), while for GPU manufacturing, the "die shrink" usually first involves in shrink the die on a node not defined by the ITRS (for instance the 150 nm, 110 nm, 80 nm, 55 nm and more currently 40 nm nodes, sometimes referred to as "half-node") which is a stopgap between two ITRS defined lithographic nodes, and then further shrink to the lower ITRS defined nodes, this helps saving further R&D costs.
Mir war das gar nicht bewusst, dass die da so zweigleisig fahren.
 
@BestPower²TDP: 28nm ist nicht die chipgröße, sondern die strukturbreite :D
man könnte einen gf100 in 28nm fertigen und hätte dann eine sparsame und kühle gtx485 mit deutlich höheren taktraten als die aktuelle gtx480. würde fusion auch highend abdecken? ;)

und mal ganz nebenbei: wenn amd so hammer grafikeinheiten in der cpu hat, was macht dann intel? ganz einfach, die müssen wohl oder übel einen "ion3" für oem-rechner verbauen, wenn sie nicht hoffnunglos gegen amd abstinken wollen^^ eine gma950 ist schon einer radeon 1250 hoffnunglos unterlegen. von heutigen amd-igp mal ganz zu schweigen. und wenn amd da jetzt noch mal gewaltig nachlegt und sich das prinzip bei den oem durchsetzt, hat intel im mm-markt plötzlich ganz schlechte karten^^
 
Zuletzt bearbeitet:
Ich denke, nv wird sich ebenfalls für 28 nm dieses mal mehr zeit nehmen, um solche probleme wie in dieser generation zu verhindern, demnach würden wir (selbst wenn der launch im sommer für den prozess funktionieren würde) frühstens im winter nv produkte in28 nm sehen.

und was nv und intel angeht ... ich predige seit über einem jahr hier im fprum, das sich die zeichen immer mehr verdichten, das entweder NV und intel fusionieren, NV von intel aufgekauft wird, oder eine umfassende zusammenarbeit angestrebt wird. und ich bleibe auch weiterhin dabei. es gibt mitlerweile KEINE reibungspunkte mehr. selbst im mobilbereich (laptop) ist nv kaum mehr vertreten, weil sie keine aktuellen produkte mehr bieten. ALLES was von der Kartellbehörde angemahnt wurde beim letzten versuch der übernahme ist WEG. ich würde sagen die zeit ist gekommen das meine prophezeihungen wahr werden :D
 
wäre für mich ohnehin mal interessant zu sehen, welche architektur shrinkbereinigt die effizienteste war
Klare Sache -> G80 -> G92 und dann kommt auch schon die HD 5000. Dazwischen gabs teilweise Gleichstand bzw. Durchhänger. Kaum vorzustellen wenn die Effizienz mit der HD 6000er noch weiter steigt. Die 512Core Fermi wird sowas von alt aussehen...
 
Zuletzt bearbeitet:
Neo_Xsendra schrieb:
ich predige seit über einem jahr hier im fprum, das sich die zeichen immer mehr verdichten, das entweder NV und intel fusionieren, NV von intel aufgekauft wird, oder eine umfassende zusammenarbeit angestrebt wird. und ich bleibe auch weiterhin dabei. es gibt mitlerweile KEINE reibungspunkte mehr.

Hört man ja immer wieder die Idee aber die Kartellbehörden würden das aktuell nicht zulassen, weil Intel und NV gemeinsam einen viel zu großen Anteil am Markt hätten. So wird zumindest spekuliert.
 
@Kasmopaya: so klar ist das nicht. die 8600gt hatte eine kleinere fertigung als die 7900gs. und dann schau mal auf den verbrauch ;)
und wie kannst du die 9800pro von ati in relation setzen? die war der konkurrenz um längen vorraus. ich denke nicht, dass man das so einfach abschätzen kann.
 
DvP schrieb:
Hört man ja immer wieder die Idee aber die Kartellbehörden würden das aktuell nicht zulassen, weil Intel und NV gemeinsam einen viel zu großen Anteil am Markt hätten. So wird zumindest spekuliert.

In den USA sieht das anders aus, naja hier zu Lande sind alle irgendwie an einem Hitzschlag erlegen, Gesetze die nur halbherzig gemacht werden, eine Regierung die sich selbst auseinander nimmt, Kartellbehörde die ihren Dienst zum größtenteils verweigert.


Meinerseits könnte sie es machen, eine Kooperation zwischen NVidia und Intel könnte AMD/ATI auf dem Markt noch mehr zurückdrängen.
 
Zurück
Oben