ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
@Schaffe89: die lösung gibts doch schon: transistoren aus nur 7 atomen machens möglich ;)
von denen kannste auch n paar milliarden mehr auf die die packen ohne dass der chip zu warm wird :D
http://www.hwmag.de/allgemein/transistor-aus-nur-sieben-atomen-gefertigt
die gute frau simmons meint ja, dass es sowas innerhalb der nächsten 5 jahre geben wird. da kannste dann locker nen fermi mit nem 12-kern-netburst auf eine die packen xD
 
Nunja wenn sie die Leistung nur verdoppeln können, dann wird die Spieleleistung auch wieder gleich null sein, werben können sie damit nicht.
AMD kann mit seiner APU sogar anspruchsvollere Spiele darstellen und für Gelegenheitszocker evtl. sogar in Laptops was rausreißen.
Bin mal gespannt inwieweit der MArktanteil Intels dann sinkt.

Lübke schrieb:
von denen kannste auch n paar milliarden mehr auf die die packen ohne dass der chip zu warm wird
:D aha^^ mich würd vielmehr interessieren, ob damit die 12ghz beim Pentium 4 endlich möglich sind
 
Zuletzt bearbeitet:
Du kannst also eine TDP von 200Watt und eine TDP von 100Watt (CPU) zusammenwerfen und kühlen?
Abnormaler Kühler +0°C Zimmertemperatur. --> Ähnlich wie bei großen Servern. :D
 
Schaffe89 schrieb:
Du kannst also eine TDP von 200Watt und eine TDP von 100Watt (CPU) zusammenwerfen und kühlen?

Die HD5870m hat eine TDP von 50W - das mit einem Phenom II X4 910e @2,6 GHz mit 65W kombiniert würde heute schon ohne Probleme funktionieren und das in 45/40nm - nun mach das ganze auf 32nm Fertigung. Ich sehe da noch reichlich Potential nach oben bzgl. der Kühlung. Vor allem wenn Nvidia Mobil GPUs mit 100W TDP in den Handel bringen kann.

Die HD5870m hat ca. den Speed einer Desktop HD5770.
 
Die 5870m liegt performancemäßig gleich auf mit einer Desktop HD5750.
Potenzial bei der Külung sehe ich keines.
Die Mobile GPU GTX480m mit anscheinend 100Watt TDP kann mit Sicherheit nicht als ernzunehmendes Beispiel fungieren.
Die Lautstärke und die Hitze tun ihr übriges.
Für nen Desktop wäre das schon was, allerdings bekommst du trotz 32nm Fertigung die Transistoren dieser Graka+ CPU nicht auf einen Die.
 
Wieso siehst du kein Potential in der Kühlung? Selbst 140 W TDP waren ja in Desktops kein Problem.
32nm Fertigung würden das ganze nochmals reduzieren und somit kannst du von einer APU ausgehen die man innerhalb der 140W kühlen kann mit einer Leistung einer HD5770+Phenom X4 @3 GHz - das ist noch ohne berücksichtigung einer neuen Architektur und dadurch verbessertem Verbrauch. Ich sehe da reichlich Potential innerhalb der derzeitigen Kühlmöglichkeiten.
 
kein problem ist gut. beim phenom I sind zu begin reihenweise boards aufgrund der hohen tdp durchgebrannt. man hats zwar in den griff bekommen, aber kein problem triffts wohl nicht so ganz ;)

und dann schau mal in die kaufberatung, wie viele nutzer eine karte unter 5770 wollen. und wie schaffe schon sagt, bis so eine apu draußen ist, sind die grafikkarten schon längst wieder weiter.

zu dem entwickeln sich gpus ungleich schneller als cpus. ein drei jahre alter core2duo @ >3 ghz reicht noch immer, um die aller neuesten grafikkarten der performanceklasse zu befeuern. als der erste c2d erschien, waren die 7900gtx und x1950xtx die schnellsten grafikkarten. damit gewinnste heute keinen blumentopf mehr.
für office ist sowas gut, für gamer wirds imho auch auf dauer keine alternative zur diskreten grafiklösung geben.
 
Schaffe89 schrieb:
Die 5870m liegt performancemäßig gleich auf mit einer Desktop HD5750.
Sie hat 800 Shader wie die HD5770 und ist lediglich etwas runtergetaktet.
Lübke schrieb:
kein problem ist gut. beim phenom I sind zu begin reihenweise boards aufgrund der hohen tdp durchgebrannt. man hats zwar in den griff bekommen, aber kein problem triffts wohl nicht so ganz ;)
Ist das dann in etwa so wie die geschmorten 1156-Sockel? Ich glaube kaum dass Produktionsfehler als Masstab der technischen Machbarkeit dienen sollten, oder?

Es ging ja hier lediglich darum welchen GPU und CPU Speed man in heutigen TDPs schon vereinen kann - und das wäre heute schon eine X4/HD57xx Lösung mit 2,6-3 GHz auf einem Die. Das ganze in 40/45nm.

Wenn man sich in der Kaufberatung umschaut so sind das Mainstream Gaming Maschinen.

Das ganze nun in 32nm und die Stromsparende Llano Architektur dazu. Llano soll ja in mobilen Geräten 4-Kern+HD56xx Leistung Ende des Jahres bieten - da wird die Gesamt-TDP sicherlich kaum über 65W liegen. Da ist reichlich Luft nach oben für die Desktop-Varianten.
 
4-Kern+HD56xx Leistung Ende des Jahres bieten - da wird die Gesamt-TDP sicherlich kaum über 65W liegen.
die aussage halte ich für höchst spekulativ. falls llano wirklich die leistung einer hd5600 erreichen sollte, wird die tdp mitsamt quadcore wohl kaum auch nur annähernd 65 watt betragen. sonst hätte amd sowohl beim phenom II x4 (45 - 95 watt) als auch beim redwood (ca 60 watt) was komplett verkehrt gemacht ;)
 
Schaffe89 schrieb:
Der Grafikkartenmarkt wird nie nur noch stromsparende Grafikkarten ala TDP<100Watt anbieten, da immer ein Konkurrenzdenken " wer besitzt die schnellste Graka" bestehen wird.
Llano wird allerdings ein Fingerzeig werden, wenn die APU die Leistung einer HD5670 übertreffen kann.
Allerdings gibt es dann bereits schon wieder die nächste Generation von AMD(ATI) mit einer 6670.

Wozu auch?
Wenn die APU sich durchsetzt ist es egal wei viel die Grakas Idle verbrauchen, nur die Effizienz unter Last wäre interessant solange man die dedizierten Grakas austellen kann.

Ich stelle mir das so vor, das bei geringer Grafikleistung die APU einspringt und bei hoher Grafikleistung die dedizierte Grafikkarte, die Grafikteil der APU sich ausschaltet und der Prozessor sich höher taktet.

Wär nen Traum für mich :)
 
Warum sollte etwas verkehrt gemacht worden sein beim Phenom und Redwood wenn die neue Architektur besser und Stromsparender wird mit einer 32nm Fertigung?
Was hat denn dem zufolge Intel mit den Core2Duo und Nvidia mit GTX8800 verkehrt gemacht?
Ich verstehe diese Logik nicht die du da hast.
Ergänzung ()

JokerGermany schrieb:
Ich stelle mir das so vor, das bei geringer Grafikleistung die APU einspringt und bei hoher Grafikleistung die dedizierte Grafikkarte, die Grafikteil der APU sich ausschaltet und der Prozessor sich höher taktet.
Noch traumhafter wäre wenn die APU-Grafik Rechenaufgaben übernimmt anstatt sich abzuschalten :D
Bei einer dedizierten Grafikkarte wäre das noch einige Zacken besser als ein Turbomodus.
 
Zuletzt bearbeitet:
Aber du weisst schon dass ein core i3 weniger TDP hat bei steigender Leistung mit zusätzlicher Grafik - oder?
Deswegen ist in der vorhergehende Generation noch lange nichts falsch gemacht worden.

Und ich weiss nicht warum du die TDP der einzelnen Komponenten in 32nm Fertigung bei den Llano APUs mit den TDP der Redwood und Phenom vergleichst. Es wird definitiv weniger verbraucht bei selber Leistung:
http://blogs.amd.com/fusion/2010/02/08/amd-talks-llano-x86-innovation-isscc/
 
der i3 hat ne popelige gma950. wenn du dem phenom ne deutlich schnellere 4200 spendierst, mache ich mir über die tdp auch keine gedanken. aber wir reden hier grade von einer hd5670, die alleine schon die von dir erwartete tdp hat. da kommt der phenom x4 nochmal zusätzlich drauf. um das komplett "wegzushrinken" reichen 32nm wohl kaum aus. selbst bei 28nm bezweifle ich, dass das hinhauen würde. und bis dahin hat die leistung der gpus wieder einen sprung gemacht und 12 kerne sind standard.

wenn das alles so einfach wäre, hättes vermutlich schon längst einer gemacht ;) und ati hat wohl auch kaum interesse daran, das grafikkartengeschäft kaputt zu machen.
 
Es war doch mal von einem Phenom 955 Die reder der nur 95 Watt ziehen soll... und nen 95 Watt Phenom gibt es jetzt auch schon....

Es ist möglich, hängt halt davon ab wieviel Leistung die einzelnen Teile haben werden.
 
@ Complication Du spekulierst mir zuviel in den Abend hinein^^
Ich spach zuerst von Notebooks, daaufhin hast du von gesprochen, dass eine Kühllösung für eine 100Watt GPU in einem Notebook sicherlich nicht das Problem ist?
Daaufhin willst du in einem Notebook kein Problems sehen wenn du ne HD5870m mit ner CPU kombinierst als APU, ne das kauft keiner da zu laut und nicht wirklich mobil.
Du bist mir da durch die Bank etwas z optimistisch, die Einwaände von Lübke sind auf jedne Fall gerechtfertigt.^^
 
Na dann zweifel halt daran - irgendwie hast du hier im Thread der Nvidia Entwicklungsabteilung wesentlich mehr zugetraut als sie dann im Stande waren zu liefern.

Aber was AMD mit der APU-Grafik plant kann dir vielleicht diese Video vermitteln: http://www.youtube.com/watch?v=raXMkkRXv5o

Und wenn ich dir nochmal mitteile dass eine HD5870m eine TDP von 50W mit der Leistung einer HD5770 hat und ein Phenom II X4 910 @2,6 GHz von 65W - dann halte ich es schon für möglich die selbe Leistung mit einem 32nm Shrink+Neuer Architektur die Reduzierung 115W-> 65W TDP zu ermöglichen. Dafür sind keine Weltwunder nötig bei AMD.
Ergänzung ()

@Schaffe89
ähmm und was wird auf der Nvidia GTX480m mit 100W TDP für das Notebook? Da ist noch nciht mal eine CPU mit berechnet.
 
Zuletzt bearbeitet:
Complication schrieb:
Dies bezieht sich auf die Clarkdael IGPs - damit wäre die Sandy Bridge Grafik der LLano IGP weit unterlegen. Für Llano wird ein Speed von ca. HD5670 erwartet. Dass ist ca. das 8-10fache der derzeitigen HD4290 auf dem 890GX IGP. Und diese ist schon schneller als die Clarkdale Grafik.

Stand da nicht irgendwo, das SB mit IGPCPU oder wie das heißt ca. 4500 3dmark 06 Punkte knackt? Find ich schon ziemlich beeindruckend, denn meine 3870 kommt auf knapp 10.000 mitm X2 5200+.

Lübke schrieb:
kein problem ist gut. beim phenom I sind zu begin reihenweise boards aufgrund der hohen tdp durchgebrannt. man hats zwar in den griff bekommen, aber kein problem triffts wohl nicht so ganz ;)

Das Problem war, das irgendwelche DAUs auf ihre 95W Boards 125W CPUs gepackt haben, hautpsächlich die 780G Boards hats da erwischt (waren halt schön billig ne :freak:)

Seitdem ist bei geizhals auch fett dazu gedruckt, wenn die Boards die 125W nicht packen.

"Achtung! Unterstützt nur CPUs bis max. 95W TDP!"

EDIT: Stimme complication zu, wobei die Wahrheit wohl in der Mitte liegen wird.

Ich glaube nicht, das man die TDP halbieren wird können, aber von 125W auf 95W mit 32nm könnte drin sein.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben