Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Das hat doch rein gar nichts mit der GPU zu tun !
Das ist eine Veränderung des Speichers womit man einfach nur höhere Bandbreiten schafft.
Und ob er dadurch sparsamer wird ist auch nicht sicher da er ja im gleichen Zug wiederum höher getaktet wird.
Höherer Takt = mehr Verbrauch.
Und ein Transistor arbeitet nicht mechanisch.
Die künstlich vom Menschen vorgeschriebene Funktion einer GPU ist keine Energieform die man als Arbeit definieren kann.
Nur der Stromverbrauch ( Wobei Verbrauch wiederum falsch formuliert ist und eher Zustandsänderung bedeutet ) wird in Watteinheiten angegeben die zu 99,9% aus Wärme besteht.
Bei Glühbirnen ( auch LEDs ) wird nicht der Strom sondern die Wärmeenergie in Licht umgewandelt was selber eine andere Form von Wärmestrahlung bedeutet. ( Licht ist Wärme ).
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
@Neo_Xsendra: trotzdem wird die gt240 denke ich mal, noch ne längere zeit diesen platz einnehmen. sie ist eigentlich ideal dafür. sehr billig herzustellen, ausreichend leistung für das segment und alles was es an features gibt, nur dx halt noch in der version 10.1 statt 11.
schätze die wird nvidia noch lange im portfolio halten. dass sie der 5670 nicht gewachsen ist, dürfte eher nebensächlich sein (siehe 4670 vs 9600gt).
vermutlich wird die 5650 ihr direkter gegenpart werden.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Neo_Xsendra schrieb:
erm ... versuchen wir das nochmal langsam und deutlich
GT>2<40
Gf>1<00er reihe
mal im ernst ... die 240 hat mit der gf100er gen nix zu tun ... die ist ein lückenbüser und testobjekt. meiner meinung nach kommt da was von der neuen gen was dann als gegenstück zur 5650 bzw 5670 gesetzt wird...
mit den mainstream, vor allem den unteren-mainstream-karten, der gf100-serie würde ich aber nicht vor juli/august rechnen. 4 monate sind da eher der normale zyklus bei nvidia. bei den aktuellen querelen, könnte es sogar noch später werden.
nv sagte ja, das sie das komplette leistungsfeld von anfang an abdecken wollten. ist nur die frage, ob sie das schaffen, oder falls nciht wie lange sie brauchen um die karten nachzureichen...
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
hat bis jetzt nie funktioniert und wird beim fermi wohl nicht das erste mal sein da bekommen eher ein paar dx10/10.1 karten das neue namensschema verpasst.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Pickebuh schrieb:
Das hat doch rein gar nichts mit der GPU zu tun !
Das ist eine Veränderung des Speichers womit man einfach nur höhere Bandbreiten schafft.
Und ob er dadurch sparsamer wird ist auch nicht sicher da er ja im gleichen Zug wiederum höher getaktet wird.
Höherer Takt = mehr Verbrauch.
Und ein Transistor arbeitet nicht mechanisch.
Die künstlich vom Menschen vorgeschriebene Funktion einer GPU ist keine Energieform die man als Arbeit definieren kann.
Nur der Stromverbrauch ( Wobei Verbrauch wiederum falsch formuliert ist und eher Zustandsänderung bedeutet ) wird in Watteinheiten angegeben die zu 99,9% aus Wärme besteht.
Bei Glühbirnen ( auch LEDs ) wird nicht der Strom sondern die Wärmeenergie in Licht umgewandelt was selber eine andere Form von Wärmestrahlung bedeutet. ( Licht ist Wärme ).
Und was hat das alles damit zu tun dass der neue GDDR5 Speicher weniger Strom verbrät?
Trotz der hohen Taktfrequenz arbeiten die Chips nur mit einer Speicherspannung von 1,35 Volt - anstelle der für GDDR5 üblichen 1,5 Volt.
[...]
Durch den kleineren Fertigungsprozess in Kombination mit der niedrigeren Spannung verspricht sich der Hersteller zudem eine niedrigere Leistungsaufnahme.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Gamestar schreibt mal wieder von FUD ab.
Um das alles in den nächsten Wochen zu erkennen, bräuchte man keine 3D-Brille, so Fudzilla, die bis vor wenigen Wochen stets nur optimistisch über die neuen Nvidia-Produkte berichtet hatten. http://www.gamestar.de/hardware/news/grafikkarten/2311816/nvidia.html
tja, bin zwar kein Fanboy, finde aber die Entwicklung die Ati seit der 3er oder 4er Reihe betreibt sehr sinnvoll. Günstiger und können dennoch mithalten, keine Superchips, schneller Speicher dafür günstige 256 bit anbindung usw...
Aber ehrlich gesagt - so habe ich das erwartet/befürchtet - naja mal schaun, wenn die Recht behalten muss ich mich nicht ärgern jetzt ne 5870 bestellt zu haben...
Davon ausgehend, das du glaubst der Refresh des Cypress würde auch eine Änderung der Architektur mit sich bringen weil eben der Speicher nun schneller arbeiten würde, ist eben falsch.
Es wird einfach nur die Taktraten erhöht und eben schnellerer Speicher eingesetzt.
Eine Änderung das Architektur wird es erst mit der 6000er-Serie geben, was ja auch logisch wäre, da man nicht unendlich oft die Shaderanzahl verdoppeln kann.
Zudem ist es eben nicht unbedingt einhergehend, das der neue Speicher auch die Karte sparsamer macht wenn im gleichen Zuge die Taktraten angehoben werden, zumal auch die Taktraten der GPU angehoben wird und gleichzeitig auch die Spannungen, wie man so schön an der HD4890 erkennen kann die ein wahres Verbrauchsmonster darstellt.
Lies doch wenigstens die 5 Sätze in der News die ich verlinkt hatte.
Hynix erhofft sich ein Sparpotenzial, was weit weg von Wissen ist.
Ich gehe eher davon aus das sich der Stromverbrauch durch die Erhöhung des Taktet amortisiert.
Das dadurch die Bandbreite erhöht wird und somit die GPU bzw. Grafikkarte besser ihre Arbeit verrichten kann ist kein Spareffekt welcher den Verbraucht senkt.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Pickebuh schrieb:
Davon ausgehend, das du glaubst der Refresh des Cypress würde auch eine Änderung der Architektur mit sich bringen weil eben der Speicher nun schneller arbeiten würde, ist eben falsch.
Und wie kommst du darauf dass ich das glaube?
Bitte verlinke doch in Zukunft auf den Beitrag aus dem du mich zitierst:
Complication schrieb:
Weniger Spannung, weniger Hitze, mehr Takt möglich - aber auch das hatte meine Glaskugel schon in diesem Thread gesagt, dass ATI sich was in der Hinterhand behält um noch nach zu legen wenn der Thermi kommt. Und wenn Nvidia sich weiter so Zeit lässt, werden sie schon die Komplette HD6x Generation fertig haben
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
die hd6 wird in 28nm hergestellt und das wird nix vor 1/2Q 2011. das auch nur unter der voraussetzung, dass der prozess ordentlich anläuft und gf keine probleme hat.
Das klingt überhaupt nicht gut für Nv. Und für mich als potentiellen HD58xx Käufer, aufgrund des weiterhin ausbleibenden Preisrutsches mangels Konkurrenz, ebenfalls nicht.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Screemer schrieb:
die hd6 wird in 28nm hergestellt und das wird nix vor 1/2Q 2011. das auch nur unter der voraussetzung, dass der prozess ordentlich anläuft und gf keine probleme hat.
In any case, Global Foundries 28nm process is looking good. Officially, it is still on track for the second half of 2010, but given this showing, that may be an overly cautious timetable. Progress like this tends to lead to a slew of new products, so bring on the new toys.