ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Bei MGPU Karten werden aber, wie du ja selbst geschrieben hast, nicht die korrekten TDP angegeben, die real viel höher liegen, und angegeben werden müßten. Welche Single GPU Karte zuvor kam denn auf eine TDP weit über 250 Watt? Da stellt sich die Frage was man von einer Single GPU Karte halten soll, die angeblich bei 275 Watt TDP liegt.
 
Was soll man schon davon halten. Natürlich nix. Als G80 raus kam, mit zwei 6-pin-Stromsteckern und den Negativrekord bei Single-GPU Grafikkarten aufstellte, haben sich alle aufgeregt. Dann kamm R600 mit einer noch höheren Leistungsaufnahme und weniger Leistung und alle haben sich nen G80 gekauft.

Ein Negativrekord jagt den nächsten, was die Leistungsaufnahme angeht, zuerst regen sich alle auf, dann kaufen sie es trotzdem. Der Mensch ist ein Gewöhnheitstier, und scheint sich an alles mögliche zu gewöhnen, kommt da für mich nur als Schlussfolgerung.

Aber noch ist ja eh alles speku...
 
wie kann eine TDP angebe den nicht Korrekt sein?
wird diese doch vom Hersteller vergeben...

TDP sagt ja nicht das die Karte so viel verbraucht.
die Hersteller nutzen die TDP auch gerne für ihr Marketing.
z.b. hatte Intel bei ihren c2D viel zu hohe TDP werte.
nur um sie beim I7 nicht hochschrauben zu müssen.
 
florian. schrieb:
z.b. hatte Intel bei ihren c2D viel zu hohe TDP werte.
nur um sie beim I7 nicht hochschrauben zu müssen.
Selten so einen Müll gelesen.
florian. schrieb:
wie kann eine TDP angebe den nicht Korrekt sein?
wird diese doch vom Hersteller vergeben...
Kein Hersteller gibt eine TDP an, die nicht spezifiziert ist. Ergo keine GraKa mit offiziell mehr als 300W.

milamber! schrieb:
Da stellt sich die Frage was man von einer Single GPU Karte halten soll, die angeblich bei 275 Watt TDP liegt.
Was soll man schon davon halten? Zieht halt viel Saft, ergo muss sie auch sehr schnell sein, sonst ists ein Epic Fail.
 
@SE: Sicher, nur war der G80 auch ein Tier an Mehrleistung, zumal die GTX höher als benötigt Spezifiziert wurde. Das bedeutet doch nicht das dies ewig so weiter gehen MUSS, und das Single GPUs in so einem Maße bis in alle Ewigkeiten neue Rekorde einfahren MÜSSEN.
Bei angeblichen 250 Watt für ne Single GPU Karte, da muß man sich ja schon Gedanken um die gesamte Systemkühlung machen, wenn man den Stromverbrauch mal aussen vor lässt - wir sprechen hier ja nicht von einer Dual GPU Karte, die eh nur für Enthusiasten gedacht ist.
 
Die Karte schiebt die Abwärme raus, keine Panik - jedes halbwegs vernünftig belüftete System hat damit keine Probleme, selbst bei meiner Silent-Kiste habe ich da wenig Sorgen. Generell läuft es im GraKa-Markt wie bei Intel mit "tick tock": Schub nach vorne auf Kosten der Leistungsaufnahme, leicht flotterer Refresh mit weniger Stromhunger, Schub nach vorne auf Kosten der Leistungsaufnahme usw. 2x 8-Pin dürfte auch so langsam mal spezifiziert werden. Inoffiziell gibt's ja genügend solcher Karten.
 
y33H@ schrieb:
2x 8-Pin dürfte auch so langsam mal spezifiziert werden. Inoffiziell gibt's ja genügend solcher Karten.

Ich hoffe bloß AMD bleibt bei ihrer Vorgehensweise und der neue Chip wird auch Stromsparend.
Wenn man unbedingt bei GPGPU mitmischen möchte, soll man doch bitte nen seperaten Chip etwickeln...
 
HD6k? Sofern noch in 40 nm, wird das Ding sicher nicht so sparsam wie die HD5k.
 
HD6k wird mit großer Wahrscheinlichkeit noch in 40 nm kommen. Hab das mal wo gelesen, aber verdammt nochmal, ich kann euch leider nicht den Link bieten. Weiss einfach nicht mehr wo ich es gelesen habe.
 
Ah, Link ist egal, war eh reine Spekulation. Es gab hier auch schon ein Link mit 32nm bei Globalfoundries....

Ein halbes Jahr warten, dann wissen wir mehr :)

Ich sage übrigens voraus, dass der Sideport beim refresh wiederkommt, der bei HD4k-Serie eingeführt und jetzt zum Transitorsparen entfernt wurde. Wenn diese Vorhersage eintrifft, bitte mich immer als lobpreisen, dass ich es vorausgesagt habe. xD
 
Zuletzt bearbeitet:
also ich kenne die gerüchte, dass a) die hd6k q1 2011 kommen soll, ggf sogar noch dieses jahr. b) weder gf noch tsmc einen 32nm planen und c) 28nm (ggf sogar 22nm) nicht vor anfang 2011 realisieren können.

unter diesen vorraussetzungen kann man also davon ausgehen, dass die hd6k, falls sie noch dieses jahr erscheint, sicher in 40nm kommen wird. wann 28/22nm marktreif sind, kann man noch schwer abschätzen. 40nm hat sich ja auch deutlich verspätet. ich könnte mir vorstellen, dass ati sich nicht darauf verlassen wird, dass der shrink anfang 2011 verfügbar sein wird.
von daher halte ich 40nm für ziemlich wahrscheinlich. möglicherweise mit einem shrink innerhalb der generation wie auch bei g92/g200 (65nm -> 55nm).

denkt ihr, ati wird mit der r900-reihe auch was in richtung gpgpu bringen? oder überlassen sie das feld nvidia?
 
Lübke schrieb:
28nm (ggf sogar 22nm)

22nm ist eine komplett andere Geschichte, das kommt erst Q3 2012

28nm ist ein optischer shrink des 32nm-Prozesses. 28nm Prozess wird von TSMC Ende September dieses Jahres vorgestellt.

http://www.hardware-infos.com/news.php?news=3446

Das GF keinen 32nm-Prozess plant ist nicht sicher. Offiziell bestätigen oder dementieren wollen sie den Prozess auf jeden Fall nicht. Es gab auf deren homepage auch schon was geschrieben zu dem Prozess, wurde dann aber wieder entfernt. Entweder wissen sie es selbst noch nicht, oder sie machen aus irgend einem Grund ein Geheimnis drum^^
 
Zuletzt bearbeitet:
Ich denke ATI hat noch Zeit bis sie was für GPGPU bringen.
Jetzt erstmal Geld scheffeln und dann die HD6k bringen um Nvidia noch schlechter im Grakamarkt dastehen lassen und dann später eine ausgewogene/sparsame GPGPU Karte bringen.
Ich bin ja mal auf den Verbrauch der GTX480 gespannt. Wenn man da wirklich 2 Karten im SLi-Modus auf n Mainboard pappt, dann sollte das schon sehr gut gekühlt sein.
Den Trend zu mehr Stromverbrauch hat ATI ja mal gestoppt. Bzw. den Trend zu weniger Stromverbrauch angefangen. Wenn sie da weiterhin drann bleiben, werden sie auch n gutes Geschäft machen, bei den vielen Green iT-lern.
 
22nm soll auf einem komplett neuen verfahren beruhen. wenn dieses verfahren schon weit genug fortgeschritten ist, dann würde sich dadurch 32nm/28nm erübrigen. ich tippe aber auch auf 28nm. aber da es ja auch ein gerücht zu 22nm gibt und das hier die gerüchteküche ist, sollte es nicht unerwähnt bleiben ;)

@Schaffe89: glaubst du, nvidia hat die entwicklung eingestellt?^^ in richtung gpgpu hat nvidia derzeit einen vorsprung und von der reinen leistung her wird der fermi mutmaßlich den rv870 auch übertreffen können (wenn auch nur knapp). wenn ati seinen chips zusätzliche funktionalitäten implementieren will, dann geht das nicht ohne entsprechende zusätzliche transistoren.
ati hat zwar auf dem spielesektor mit seinen schlanken chips einen eindeutigen vorteil, einen technischen vorsprung hat ati dadurch aber nicht. es gibt keinen grund für ati, die hände in den schoß zu legen, auch wenn sie derzeit oben auf sind.
 
Zuletzt bearbeitet:
28nm wird zwar Q3 2010 vorgestellt, allerdings braucht man auch eine mengen Vorlaufzeit.
Daher ist es für ATI/Nvidia nicht möglich vor 2011Q1 eine 28nm Grafikkarte vorzustellen.

eventuell wird der Refresh ja HD6xxx
und die Neue Gen 2011Q1 kommt dann in 28nm und als HD7xxx
 
Lübke schrieb:
22nm soll auf einem komplett neuen verfahren beruhen. wenn dieses verfahren schon weit genug fortgeschritten ist, dann würde sich dadurch 32nm/28nm erübrigen.

Es ist aber nicht weit fortgeschritten, wenn es weit fortgeschritten wäre, würde es TSMC nicht für Q3 2012 auf die Roadmap stellen.
 
Da NV nun schon recht weit mit GPGPU ist muss AMD langsam ausm Quark kommen falls die da auch Konkurrenz sein wollen.
Ansonsten is das Nvidias Markt^^
 
Lübke schrieb:
es gibt keinen grund für ati, die hände in den schoß zu legen
Davon war ja auch nicht direkt die Rede. Natürlich sollten sie auch was in Richtung GPGPU entwickeln, tun sie wahrscheinlich auch.
Aber wann kommen denn die GPGPU Karten von nvidia? Jetzt sind ja erstmal die Geforces drann nicht war?
Ich denke das dauert noch ne Weile.
@ Shurkien Vielleicht isses ja auch gut so, wenn das erstmal nvidias Markt ist und AMD sich jetzt mehr auf ihre Fusion fukussiert, bzw auf ihre sparsamen Grafikkarten, so kann vielleicht jeder mal was verdienen und keiner kommt sich in die Quere, zumindest ne Zeit lang nicht.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben