ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Dann noch ein OC Tool dazu und man kann die Bude heizen hat doch auch was.:D
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Pickebuh schrieb:
Bitte geh nochmal in die Schule zum Rechnen... :rolleyes:

sry :D

Muss natürlich 450 W heißen. Immernoch viel zu viel. Selbst der riesige Kühler einer 5970 kann nur 400W abführen, wobei die Temps dabei nicht mehr schön sein werden.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich finde es immer wieder faszinierend wie Stromverbrauch mit Kühlung einfach mal 1:1 gleich gesetzt wird. Wieso geht ihr immer davon aus, dass eine Grafikkarte der neuesten Generation immer noch die selben Wärmeverluste hat wie eine ältere Architektur in einer anderen Fertigung?
Je besser die Effizeinz der Prozessoren, desto weniger Abwärme und kleiner die Kühlung, totz Stromverbrauch. genauso kann es anders herum sein, dass ein geringer relativ geringer Stromverbrauch aufgrund von Architektur Problemen eine viel grössere Hitze entwickelt als es auf dem Reißbrett geplant war.

Nur weil 6+8 PIN nach PCIe eine maximal Stromaufnahme von 300 W bedeutet, bedeutet das nicht die selbe Wärme Entwicklung. Schaut euch doch einfach mal alle Grafikkarten mit identischer Steckerbestückung an und vergleicht deren Stromverbrauch und Wärmeentwicklung. da sind gravierende Unterschiede.

HD4890: 2x6 Pin (225W) TDP 190W - Verbrauch 226W bei Last
HD4870: 2x6 Pin (225W) TDP 157W - Verbrauch 200W bei Last
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Complication schrieb:
@johnieboy
Danke für die Zusammenfassung meiner Beiträge hier im Thread :D
Genau wie meine Glaskugel vorher gesagt hatte :cool_alt:

Gern Geschehen ;)
Woher weißt du denn dass nicht auch fuad in die Glaskugel geschaut hat? Gibt ja nach wie vor keine harten Fakten zum GF100, nur Indizien welche jedoch in Fuads Richtung deuten.

Complication schrieb:
Allerdings kein Grund zur Freude, da dies Ati zu viel frei Hand lassen würde in der Preisgestaltung. Wenn der Thermi (wirklich passend) diese Produktions-/Leistungs-/Preisdaten hat zahlen wir Kunden drauf mangels Preiskampf.

Mir egal, ich hab meine 5870 schon seit 3 Monaten und dafür nur 300 Taler gezahlt incl. Dirt2 + Battlestation Pacific :king:

Im ernst: Klar ist es für uns Verbraucher gut wenn es einen Preiskampf gibt, wozu mangelnde Konkurenz geführt hat konnte man ja 2006-2008 sehen als die 8800 GTX immer 500-600€ gekostet hat.

Wenn GF100 die von Fuad beschriebenen Produktions-/Leistungs-/Preisdaten hat Nvidia aber noch ein ganz anderes Problem.

Ich gehe davon aus das unmittelbar zum oder bald nach dem Release des GF100 ein Refresh des Cypress in Form einer 5890 kommt welcher preislich ungefähr den Platz der 5870 einnimmt. Dabei gehe ich von ner Performancesteigerung von ca. 20% gegenüber ner 5870 aus.

Ich habe auch Gerüchte gehört das der Cypress Refresh kein reines Taktupdate ist sondern wie bei 4870--->4890 auch Änderungen/Optimierungen am Chipdesign vorgenommen werden. Auch ist davon auszugehen das schnellerer GDDR5 Speicher verbaut wird.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

johnieboy schrieb:
Ich habe auch Gerüchte gehört das der Cypress Refresh kein reines Taktupdate ist sondern wie bei 4870--->4890 auch Änderungen/Optimierungen am Chipdesign vorgenommen werden. Auch ist davon auszugehen das schnellerer GDDR5 Speicher verbaut wird.
Genau, und zudem noch Stromsparender:
http://ht4u.net/news/21407_hynix_veroeffentlicht_erste_gddr5-speicherchips_mit_2_gb_kapazitaet/
Hynix spricht von einer Bandbreite von bis zu 6 Gbps (Gigabit pro Sekunde), was einer realen Taktfrequenz von 1750 MHz entspricht. Trotz der hohen Taktfrequenz arbeiten die Chips nur mit einer Speicherspannung von 1,35 Volt - anstelle der für GDDR5 üblichen 1,5 Volt. Zurückzuführen ist dies auf die Tatsache, dass die Speicherchip nicht mehr in 50 nm sondern in 40 nm gefertigt werden. Durch den kleineren Fertigungsprozess in Kombination mit der niedrigeren Spannung verspricht sich der Hersteller zudem eine niedrigere Leistungsaufnahme.
Weniger Spannung, weniger Hitze, mehr Takt möglich - aber auch das hatte meine Glaskugel schon in diesem Thread gesagt, dass ATI sich was in der Hinterhand behält um noch nach zu legen wenn der Thermi kommt. Und wenn Nvidia sich weiter so Zeit lässt, werden sie schon die Komplette HD6x Generation fertig haben ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Complication schrieb:
Nur weil 6+8 PIN nach PCIe eine maximal Stromaufnahme von 300 W bedeutet, bedeutet das nicht die selbe Wärme Entwicklung.

Ne nicht unbedingt, aber mehr Wämeentwicklung als mit 2x6pin.
Wozu verbaut man den 1x6pin + 1x8pin. Doch mit Sicherheit nicht aus Jux und Tollerei.
Was haben Architekturprobleme mit geringem oder hohem Stromverbrauch zu tun? Entweder die Karte zieht viel, dann brauch in en entsprechenden Kühler oder die Karte zieht weniger.
Der Chip wird doch immer kleiner. Von daher wirds nicht unbedingt einfacher die Hitze, welche auf so kleiner Fläche entsteht und sich nicht verteilt, vernüftig abzuführen. Inwiefern hat das mit der Architektur zu tun?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Das hat insofern mit der Architektur zu tun, dass unterschiedliche Strukturen den Strom unterschiedlich Effektiv nutzen. Schlechtere Effizienz ergibt höhere Wärme und damit weniger Leistung für die Grafikdarstellung.

Sehr vereinfacht:
Wenn 100 W Strom in die Graka gehen und 20 Watt Wärme entstehen, dann wurde 80 Watt in die Grafikleistung gewandelt.
Wenn bei 100 W Strom aber nur 1 W Wärme entsteht, dann wird bei gleichem Stromverbrauch eine passiv gekühlte Karte 99 W Strom in die Grafikleistung wandeln.
Selber Stromverbrauch und die Karte mit der besseren Leitung hat weniger Hitze und einen geringeren Kühlungsaufwand.

Durch die kleinere Fertigung entsteht auch wesentlich weniger Hitze, da weniger Spannung und weniger Stromverlust auf den Chips herrscht. Würde die gleiche Spannung anliegen dann hättest du Recht (nicht an der Karte, sondern in den Transistoren) doch du kannst nicht den gleichen Strom durch eine 40 nm Struktur jagen wie durch eine 90 nm da du dann zu hohe Widerstände hättest und wiederum zu viel Wärme entsteht (siehe Overclocking)

Man sieht das schön bei CPUs wo der Stromverbrauch und die Hitze irgendwann bei zu hohen Takten nicht mehr im Verhältnis zur erzielten Geschwindigkeit stehen - Das Verhältnis Wärme/Leistung wird immer schlechter und kann nur durch verbesserte Architektur verbessert werden. Siehe Clarkdale zu C2D Architektur.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

^Strom kann nicht in die Grafikleistung gewandelt werden. Die Verlustleistung bleibt immer bestehen, bzw wirdin Wärme umgewandelt. Deswegen auch Watt.
DAss das erhältnis Wärme/Leistung mit kleineren Strukturen verbessert wird steht außer Frage.
Ob das dann so ist bzw.. ob der Chip so effektiv genutzt wird,dass es den Stromverbrauch wert ist ist eine andere Frage.Siehe HD2900xt, da wurde klar daran vorbeientwickelt.
Der Fermi wird bestimmt kein Chipmit hoher Effizients.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Schaffe89 schrieb:
^Strom kann nicht in die Grafikleistung gewandelt werden.
Ach^^ - und wozu dann die ganzen Stromstecker an einer Grafikkarte?
http://de.wikipedia.org/wiki/Watt_(Einheit)
Beispiel: Eine Glühlampe mit 60 Watt Leistung nimmt 60 Watt auf, gibt jedoch nur ca. 3 Watt (5%) in Form des erwünschten sichtbaren Lichtes ab und etwa 57 Watt in Form unerwünschter Wärme. Der Wirkungsgrad einer Glühlampe als Wärmequelle ist in einem geschlossenen Raum hingegen 100%.

Wer eine Heizung möchte kann das ohne Crysis effektiver haben. Und wird mit der 60 Watt Birne die Wärme oder der Stromverbrauch angegeben? Oder der 1000W Mikrowelle, der 1200W Staubsauger?
Ich glaube kaum dass ein Staubsauger, Mikrowelle, Lichtquelle, Heizstrahler und eine Grafikkarte mit 300W Leistung gleich Warm werden. ;)
 
Zuletzt bearbeitet: (Wiki Beispiel hinzugefügt)
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Schonmal davon gehört, dass Strom nicht verbraucht wird? Wohl oder übel kommt der gezogene Strom hinten oder eben oben an der Karte als Verlustleistung/Wärme wieder raus. DA wird nix umgewandelt. Naiv gesehen vielleicht.^^ Strom bleibt aber Strom.
DAs kannman höchstensmit Effizients kompensieren. Früher wars noch so, dass auf den Grafikchips gar keine Kühler montiert waren.. nicht mal passive. Das waren noch Zeiten.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Irgendwann wird der Strom in deinem Monitor zu Licht, sonst wäre er immer Schwarz - ist doch gut jetzt.
Um eine Verlustleistung bestimmen zu können in Wärme musst du auch ein gewünschtes Leistungsergebnis haben das bei 0% Verlust entstehen soll theoretisch.
Bei einer Glühbirne kommen auf 100 W Strom für 5 Watt Licht und 95 Watt Wärme raus
Bei einer LED kommen auf 100 W Strom für 12 W Licht und nur noch 88 W Wärme raus.
Das nennt sich Wirkungsgrad. Immer bezogen auf die gewünschte Wirkung: Licht in diesem Fall

Würden von 300 W Strom in einer Graka hinten auch 300W Wärme raus kommen, frage ich mich wo dann 30 Frames pro Sekunde Bild auf dem Monitor her kommen - die brauchen keinen Strom für die Rechenleistung? Na das solltest du mal den Rechenzentren mitteilen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

und licht ist eine umgewandelte form der zugeführten energie. nicht streiten, denn lesen bildet.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Complication schrieb:
Irgendwann wird der Strom in deinem Monitor zu Licht, sonst wäre er immer Schwarz - ist doch gut jetzt.
...

das licht kommt aber nicht von der Energie der Grafikkarte,sondern vom eigenem stromnetz des Monitors, der wird ja extra angeschlossen.

Wir hatten diese energetische Betrachtung bereits vor ca. einem Jahr hier im Forum, damals war ich deiner ansicht, allerdings gibt es physikalisch gesehen keine "Rechenendergie", und ohne diese wird nix genutzt. Das das so nicht sein kann, ist auch logisch. Allerdings kann man mehr oder weniger genau die gesamte gezogene Energie als Anergie sehen, da diese im ursprünglichem Sinne keine Arbeit verrichten und auch keine Definition besteht, wie sie das könnte.

Deshalb kann man auch vereinfacht davon ausgehen, dass Verbrauch = Abwärme = Verlustleistung ist, was bei Grafikkarten erstaunlicherweise auch zutrifft.

Deine Beispiele mit der Glühbirne, mit dem Staubsauger und dem Wasserkocher hinken da ein wenig hinterher, da da ja Arbeit verrichtet wird, und somit auch Exergie "verarbeitet" wird, damit die Verlustleistung und der Wikungsgrad berechnet werden können.

Aber für Transistoren gibt es keine Formel, die besagt was die digitale Form für einen Energiewert hat, bzw. welche Arbeit darin steckt.


gruß
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

es gibt aber bewegungsenergie. und die schaltungen einer gpu müssen nunmal bewegt werden. wenn man zum rechnen keine energie benötigen würde, wozu würde man dann die gpu mit strom versorgen? damit sie schön warm wird?^^

Deshalb kann man auch vereinfacht davon ausgehen, dass Verbrauch = Abwärme = Verlustleistung ist, was bei Grafikkarten erstaunlicherweise auch zutrifft.
hierzu sei aber auch gesagt, dass das "abfallprodukt" von bewegungsenergie (wie von jeder energie) wärme ist. das heist, der teil der elektrischen energie, der in bewegung umgewandelt wird, wird von bewegung in wärme umgewandelt. somit entspricht die abwärme letzten endes in der summe aus wärme aus stromfluss und wärme aus bewegung wieder der menge des eingespeisten stroms ;)

@Schaffe89
Schonmal davon gehört, dass Strom nicht verbraucht wird?
was du meinst ist, dass energie nicht verbraucht wird. das ist ein ganz wichtiger unterschied. strom wird in eine andere energieform umgewandelt. das endresultat von jeder energie ist wärme. man kann auch materie in energie verwandeln und umgekehrt (z. b. kohle verbrennen). ich behaupte jetzt einfach mal, dass die summe aus energie und materie im universum eine fixe größe ist. lediglich die quantität in den unterschiedlichen formen variiert.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Schinzie schrieb:
das licht kommt aber nicht von der Energie der Grafikkarte,sondern vom eigenem stromnetz des Monitors, der wird ja extra angeschlossen.
Ja und was er Darstellen soll weiß er woher?
Was du meinst ist die Blindleistung bei Wechselstrom, da die Elektronen nur hin und her geschoben werden ohne dass ein echter Verbrauch statt findet (wird in Voltampere angegeben)
http://www.elektronik-kompendium.de/sites/grd/0201114.htm

Ein Netzteil wandelt aber die Wechselspannung in Gleichstrom um:
http://www.elektronik-kompendium.de/sites/com/1112041.htm
Ein Schaltnetzteil besteht aus mehreren Einheiten. Zuerst wird die Netzspannung gefiltert. Überspannungen, Oberwellen und andere Netzstörungen sollen gar nicht erst in die weitere Schaltung gelangen. Danach wird durch Gleichrichtung und Siebung aus der Wechselspannung von 230 V eine Gleichspannung von 350 V gemacht. Mit einer Transistorschaltstufe wird aus der Gleichspannung eine Wechselspannung zwischen 35 und 500 kHz erzeugt. Mit dieser hohen Frequenz können kleine Transformatoren hohe Leistungen übertragen. Diese Transformatoren haben mehrere Sekundärwicklungen.

http://www.nano.physik.uni-muenchen.de/elektronik/nav/k5t2.html
Bei Betrieb wandelt sich die im Transistor anfallende Verlustleistung in Wärme um: P~UCE*IC.
Es ergibt sich ein Kreislauf: T größer => IC größer => P größer => T größer usw.

Wobei all das völlig egal ist, da ich lediglich geschrieben habe, dass man mit selbem Stromverbrauch durch eine verbesserte Architektur mehr Leistung aus einer Grafikkarte holen kann. Das wird man kaum abstreiten können. Der Stromverbrauch wird mit kleineren Strukturen kleiner und nicht grösser.
Um mich selber zu zitieren:
Das hat insofern mit der Architektur zu tun, dass unterschiedliche Strukturen den Strom unterschiedlich Effektiv nutzen. Schlechtere Effizienz ergibt höhere Wärme und damit weniger Leistung für die Grafikdarstellung.
Es wird doch keiner ernsthaft behaupten, dass die Architektur einer Graka nicht den Stromverbrauch bei besserer Leistung verbessern oder verschlechtern kann. Watt bedeutet nicht Wärme und mehr Wärme auf der Graka bedeutet auch nicht mehr FPS im Spiel.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Lübke schrieb:
es gibt aber bewegungsenergie. und die schaltungen einer gpu müssen nunmal bewegt werden. wenn man zum rechnen keine energie benötigen würde, wozu würde man dann die gpu mit strom versorgen? damit sie schön warm wird?^^

ich schrieb ja extra vereinfacht. und das schalten eines transistors ist auch kein mechanischer vorgang, sondern ein physikalisch elektronischer. und die bewegungsenergie der elektronen bzw die "lochwanderung" im silizium ist dermaßen klein aus der sicht der gesamtEnergie, dass man dies nicht wirklich als tragfähige Größe in unsere Betrachtung aufnehmen kann. Sprich vernachlässigbar. Aber wenn, dann ist das die verrichtete Arbeit, allerdings bei welcher masse?

Complication schrieb:
Ja und was er Darstellen soll weiß er woher?
Was du meinst ist die Blindleistung bei Wechselstrom, da die Elektronen nur hin und her geschoben werden ohne dass ein echter Verbrauch statt findet (wird in Voltampere angegeben)
http://www.elektronik-kompendium.de/sites/grd/0201114.htm

das weiß er von einem Signal, den die Karte abgibt, dieser hat zwar auch einen gewissen energetischen Wert, dieser ist im idealfall aber auch zu vernachlässigen.


ja?


Wobei all das völlig egal ist, da ich lediglich geschrieben habe, dass man mit selbem Stromverbrauch durch eine verbesserte Architektur mehr Leistung aus einer Grafikkarte holen kann. Das wird man kaum abstreiten können. Der Stromverbrauch wird mit kleineren Strukturen kleiner und nicht grösser.
Um mich selber zu zitieren:
Es wird doch keiner ernsthaft behaupten, dass die Architektur einer Graka nicht den Stromverbrauch bei besserer Leistung verbessern oder verschlechtern kann. Watt bedeutet nicht Wärme und mehr Wärme auf der Graka bedeutet auch nicht mehr FPS im Spiel.

ja, das stimmt ja auch alles, damals hab ich auch versucht mir es irgendwie mit fps/watt, und der damit errechneten effizienz erfassbar zu machen. Nur leider kann man bildern pro sekunde keine arbeit zuweisen, bzw keine Leistung.

Es ist ja so,dass effizienz immer ein quotient aus und zugeführter energie ist,
bei nem auto in form von Verbrennungsenergie des Treibstoffes in mechanische Arbeit, bei einer wasserturbine in form von kinetischer bewegungsenergie der rotorblätter in elektrische energie, bei einem display in form von elektrischer energie in lichtenergie (kann man lichtenergie sagen?). Aber was ist es bei der GRafikkarte? elektrische energie in FPS-energie? siehste woran das scheitert?

aber jetzt mal lieber back to topic, wir sind grad wieder sehr weit vom Thema abgedriftet.


gruß
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Schinzie: wenn man den nutzen der energie in der gpu ausklammert, nur weil sie einen geringen teil am gesamtverbrauch ausmacht, ist das imho wenig sinnvoll bei der debatte, ob die energie einen anderen zweck als in wärem umgewandelt zu werden erfüllt oder?^^
bei der glühbirne ist der teil der lichtenergie auch so gering, dass er eigentlich vernachlässigbar wäre :D

aber mal was ganz anderes, wie zum geier seid ihr überhaupt von gerüchten zu cypress und fermi auf die formen der energie gekommen? xD
jedenfalls bin ich mir sicher, dass die verwendung der elektrizität im cypress und im fermi gleich ist ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Nur leider kann man bildern pro sekunde keine arbeit zuweisen, bzw keine Leistung.
Diesen Denkfehler mache ich hier auch nicht - in keinem meiner Beiträge.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Könntet Ìhr Euch bitte wieder dem eigentlichen Thema zuwenden? Danke.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben