ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Complication schrieb:

Das hat doch rein gar nichts mit der GPU zu tun !
Das ist eine Veränderung des Speichers womit man einfach nur höhere Bandbreiten schafft.
Und ob er dadurch sparsamer wird ist auch nicht sicher da er ja im gleichen Zug wiederum höher getaktet wird.
Höherer Takt = mehr Verbrauch.

Und ein Transistor arbeitet nicht mechanisch.
Die künstlich vom Menschen vorgeschriebene Funktion einer GPU ist keine Energieform die man als Arbeit definieren kann.

Nur der Stromverbrauch ( Wobei Verbrauch wiederum falsch formuliert ist und eher Zustandsänderung bedeutet ) wird in Watteinheiten angegeben die zu 99,9% aus Wärme besteht.
Bei Glühbirnen ( auch LEDs ) wird nicht der Strom sondern die Wärmeenergie in Licht umgewandelt was selber eine andere Form von Wärmestrahlung bedeutet. ( Licht ist Wärme ).
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Neo_Xsendra: trotzdem wird die gt240 denke ich mal, noch ne längere zeit diesen platz einnehmen. sie ist eigentlich ideal dafür. sehr billig herzustellen, ausreichend leistung für das segment und alles was es an features gibt, nur dx halt noch in der version 10.1 statt 11.
schätze die wird nvidia noch lange im portfolio halten. dass sie der 5670 nicht gewachsen ist, dürfte eher nebensächlich sein (siehe 4670 vs 9600gt).

vermutlich wird die 5650 ihr direkter gegenpart werden.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Neo_Xsendra schrieb:
erm ... versuchen wir das nochmal langsam und deutlich

GT>2<40

Gf>1<00er reihe

mal im ernst ... die 240 hat mit der gf100er gen nix zu tun ... die ist ein lückenbüser und testobjekt. meiner meinung nach kommt da was von der neuen gen was dann als gegenstück zur 5650 bzw 5670 gesetzt wird...
mit den mainstream, vor allem den unteren-mainstream-karten, der gf100-serie würde ich aber nicht vor juli/august rechnen. 4 monate sind da eher der normale zyklus bei nvidia. bei den aktuellen querelen, könnte es sogar noch später werden.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

ich bin mal so frei mich selbst zu zitieren ^^
ansonsten sieht es nciht schlecht aus, und ich bin gespannt wann sie dann da sit und wie zeitnah (fern?) nv da sein gegenpart presentiert ...
(gott was ne rechtschreibung >.> )

nv sagte ja, das sie das komplette leistungsfeld von anfang an abdecken wollten. ist nur die frage, ob sie das schaffen, oder falls nciht wie lange sie brauchen um die karten nachzureichen...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

hat bis jetzt nie funktioniert und wird beim fermi wohl nicht das erste mal sein ;) da bekommen eher ein paar dx10/10.1 karten das neue namensschema verpasst.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Pickebuh schrieb:
Das hat doch rein gar nichts mit der GPU zu tun !
Das ist eine Veränderung des Speichers womit man einfach nur höhere Bandbreiten schafft.
Und ob er dadurch sparsamer wird ist auch nicht sicher da er ja im gleichen Zug wiederum höher getaktet wird.
Höherer Takt = mehr Verbrauch.

Und ein Transistor arbeitet nicht mechanisch.
Die künstlich vom Menschen vorgeschriebene Funktion einer GPU ist keine Energieform die man als Arbeit definieren kann.

Nur der Stromverbrauch ( Wobei Verbrauch wiederum falsch formuliert ist und eher Zustandsänderung bedeutet ) wird in Watteinheiten angegeben die zu 99,9% aus Wärme besteht.
Bei Glühbirnen ( auch LEDs ) wird nicht der Strom sondern die Wärmeenergie in Licht umgewandelt was selber eine andere Form von Wärmestrahlung bedeutet. ( Licht ist Wärme ).
Und was hat das alles damit zu tun dass der neue GDDR5 Speicher weniger Strom verbrät?
Trotz der hohen Taktfrequenz arbeiten die Chips nur mit einer Speicherspannung von 1,35 Volt - anstelle der für GDDR5 üblichen 1,5 Volt.
[...]
Durch den kleineren Fertigungsprozess in Kombination mit der niedrigeren Spannung verspricht sich der Hersteller zudem eine niedrigere Leistungsaufnahme.
Lies doch wenigstens die 5 Sätze in der News die ich verlinkt hatte.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Motkachler schrieb:

tja, bin zwar kein Fanboy, finde aber die Entwicklung die Ati seit der 3er oder 4er Reihe betreibt sehr sinnvoll. Günstiger und können dennoch mithalten, keine Superchips, schneller Speicher dafür günstige 256 bit anbindung usw...

Aber ehrlich gesagt - so habe ich das erwartet/befürchtet - naja mal schaun, wenn die Recht behalten muss ich mich nicht ärgern jetzt ne 5870 bestellt zu haben...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Complication schrieb:
Und was hat das alles damit zu tun dass der neue GDDR5 Speicher weniger Strom verbrät?

Davon ausgehend, das du glaubst der Refresh des Cypress würde auch eine Änderung der Architektur mit sich bringen weil eben der Speicher nun schneller arbeiten würde, ist eben falsch.
Es wird einfach nur die Taktraten erhöht und eben schnellerer Speicher eingesetzt.

Eine Änderung das Architektur wird es erst mit der 6000er-Serie geben, was ja auch logisch wäre, da man nicht unendlich oft die Shaderanzahl verdoppeln kann.

Zudem ist es eben nicht unbedingt einhergehend, das der neue Speicher auch die Karte sparsamer macht wenn im gleichen Zuge die Taktraten angehoben werden, zumal auch die Taktraten der GPU angehoben wird und gleichzeitig auch die Spannungen, wie man so schön an der HD4890 erkennen kann die ein wahres Verbrauchsmonster darstellt.

Lies doch wenigstens die 5 Sätze in der News die ich verlinkt hatte.

Hynix erhofft sich ein Sparpotenzial, was weit weg von Wissen ist.
Ich gehe eher davon aus das sich der Stromverbrauch durch die Erhöhung des Taktet amortisiert.
Das dadurch die Bandbreite erhöht wird und somit die GPU bzw. Grafikkarte besser ihre Arbeit verrichten kann ist kein Spareffekt welcher den Verbraucht senkt.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Pickebuh schrieb:
Davon ausgehend, das du glaubst der Refresh des Cypress würde auch eine Änderung der Architektur mit sich bringen weil eben der Speicher nun schneller arbeiten würde, ist eben falsch.
Und wie kommst du darauf dass ich das glaube?
Bitte verlinke doch in Zukunft auf den Beitrag aus dem du mich zitierst:
Complication schrieb:
Weniger Spannung, weniger Hitze, mehr Takt möglich - aber auch das hatte meine Glaskugel schon in diesem Thread gesagt, dass ATI sich was in der Hinterhand behält um noch nach zu legen wenn der Thermi kommt. Und wenn Nvidia sich weiter so Zeit lässt, werden sie schon die Komplette HD6x Generation fertig haben
Du hast jetzt schon das zweite mal einfach eine Behauptung erfunden die ich nirgends gemacht habe.

Schlechter Stil.
<°)))o><
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

die hd6 wird in 28nm hergestellt und das wird nix vor 1/2Q 2011. das auch nur unter der voraussetzung, dass der prozess ordentlich anläuft und gf keine probleme hat.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Screemer
nur unter der voraussetzung das die hd 6 nicht von Globalfoundries produziert werden soll...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Gerade bei HWI gelesen, Fermi-Yieldrate ≤20%.....

http://www.hardware-infos.com/news.php?news=3379

Das klingt überhaupt nicht gut für Nv. Und für mich als potentiellen HD58xx Käufer, aufgrund des weiterhin ausbleibenden Preisrutsches mangels Konkurrenz, ebenfalls nicht.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Quelle? Oder ist HWI selbst die "Quelle"?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

y33H@ schrieb:
Quelle? Oder ist HWI selbst die "Quelle"?

Wie der Name "Gerüchteküche" schon vermuten lässt, kann es schon mal vorkommen, dass nicht hinter jedem Gerücht eine 100%ige Quelle steht.;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Screemer schrieb:
die hd6 wird in 28nm hergestellt und das wird nix vor 1/2Q 2011. das auch nur unter der voraussetzung, dass der prozess ordentlich anläuft und gf keine probleme hat.
Also eigentlich gehen alle von 2H/2010 aus. Der erste Wafer in 28 nm ist auch schon fotografiert: http://www.semiaccurate.com/2010/01/09/global-foundries-28nm-wafer-spotted/
In any case, Global Foundries 28nm process is looking good. Officially, it is still on track for the second half of 2010, but given this showing, that may be an overly cautious timetable. Progress like this tends to lead to a slew of new products, so bring on the new toys.
Und das soll schon über vorsichtig geschätzt sein und könnte schon früher überraschen.
Ergänzung ()

http://www.hardwareluxx.de/index.ph...ermi-durchgesickert-nvidia-mit-problemen.html
Den Fudzilla-Quellen zufolge bewegt sich die Ausbeute bei Fermi-Chips um die 20 Prozent, eine deutliche Verbesserung sei nicht erkennbar.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Gleich ist der Launch der 5670.

Und Montag solls neue offizielle Infos über Fermi geben.

Meriana schrieb:
@Screemer
nur unter der voraussetzung das die hd 6 nicht von Globalfoundries produziert werden soll...
Auch bei GF sollte man keine komplexen Chips in 28nm vor 2011 erwarten.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben