Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)
- Ersteller Lübke
- Erstellt am
- Status
- Für weitere Antworten geschlossen.
Schinzie
Rear Admiral
- Registriert
- Feb. 2008
- Beiträge
- 5.955
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
der trend darf aber nicht weiter dahingehen,dass jede neuere schneller karte noch ein stück mehr verbraucht. der Cypress war mit seinem geringerem oder gleichem verbrauch wie der RV770 schon ein schritt in die richtige Richtung. Der GF100 sollte daher nicht mehr wie der GT200 schlucken.
Meine Meinung.
gruß
der trend darf aber nicht weiter dahingehen,dass jede neuere schneller karte noch ein stück mehr verbraucht. der Cypress war mit seinem geringerem oder gleichem verbrauch wie der RV770 schon ein schritt in die richtige Richtung. Der GF100 sollte daher nicht mehr wie der GT200 schlucken.
Meine Meinung.
gruß
- Registriert
- Aug. 2007
- Beiträge
- 21.162
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
ich glaub, die gtx280 hat die 2900xt sogar noch geschlagen, wenn auch nur unter last, versteht sich
wenn man aber die mehrleistung bedenkt, war das wohl auch ok so xD
ich bin allerdings auch für sparsamere karten. in letzter zeit ist da ja schon viel schönes gekommen . die 4770 war ein erster versuch, ist aber an 2d gescheitert, die 9800gt green war dann mal was amtliches und jetz die 5750 ist mal richtig gut ich hoffe, dass solche karten auch zukünftig kommen und ihre käuferschaft finden. vllt kommt ja eine sehr sparsame gts350? sowas könnte ich mir gut vorstellen.
ich glaub, die gtx280 hat die 2900xt sogar noch geschlagen, wenn auch nur unter last, versteht sich
wenn man aber die mehrleistung bedenkt, war das wohl auch ok so xD
ich bin allerdings auch für sparsamere karten. in letzter zeit ist da ja schon viel schönes gekommen . die 4770 war ein erster versuch, ist aber an 2d gescheitert, die 9800gt green war dann mal was amtliches und jetz die 5750 ist mal richtig gut ich hoffe, dass solche karten auch zukünftig kommen und ihre käuferschaft finden. vllt kommt ja eine sehr sparsame gts350? sowas könnte ich mir gut vorstellen.
Zuletzt bearbeitet:
Neo_Xsendra
Lieutenant
- Registriert
- Sep. 2009
- Beiträge
- 809
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
ich weis gar nicht was ihr alle habt mir "es darf nicht auf dem niveau bleiben" doch darf es! denn wenn die spitze bei der leistungsaufnahme bleibt, sinkt ALLES darunter im verhältniss zu leistung. find ich persönlich gut so! es lässt mir die wahl ob ne akrte wegen der leistung kaufen will, oder weil ich so öko sein will mir da gedanken drum zu machen statt die 3 100W glühbirnen an der decke beim zocken auszumachen (btw: LED FTW!!! Nieder mit den pseudo umwelt sparbirnen!)
ich weis gar nicht was ihr alle habt mir "es darf nicht auf dem niveau bleiben" doch darf es! denn wenn die spitze bei der leistungsaufnahme bleibt, sinkt ALLES darunter im verhältniss zu leistung. find ich persönlich gut so! es lässt mir die wahl ob ne akrte wegen der leistung kaufen will, oder weil ich so öko sein will mir da gedanken drum zu machen statt die 3 100W glühbirnen an der decke beim zocken auszumachen (btw: LED FTW!!! Nieder mit den pseudo umwelt sparbirnen!)
Neo_Xsendra
Lieutenant
- Registriert
- Sep. 2009
- Beiträge
- 809
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
so lange unsre regierung energiesparlampen als "umweltfreundlich" propagiert werd ich bestimmt nicht von na top karte auf ne midrange wechseln wegen 100W unter last -.^
so lange unsre regierung energiesparlampen als "umweltfreundlich" propagiert werd ich bestimmt nicht von na top karte auf ne midrange wechseln wegen 100W unter last -.^
- Registriert
- Aug. 2007
- Beiträge
- 21.162
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
das mit den sparbirnen ist sowieso humbug >.<
aber nur weil die regierung (genauer die eu in diesem fall) son blödsin verzapft, ist mir der verbrauch nicht egal. ich achte bei mir zu hause auf minimalen verbrauch, sowohl der umwelt als auch meinem portemonai zu liebe
aber das wird langsam etwas off-topic hier^^
das mit den sparbirnen ist sowieso humbug >.<
aber nur weil die regierung (genauer die eu in diesem fall) son blödsin verzapft, ist mir der verbrauch nicht egal. ich achte bei mir zu hause auf minimalen verbrauch, sowohl der umwelt als auch meinem portemonai zu liebe
aber das wird langsam etwas off-topic hier^^
- Registriert
- Aug. 2007
- Beiträge
- 21.162
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
wenn zwei glühbirnen zu viel brennen, dann sollteste die jetzt schon ausschalten
also dieses argument find ich absolut sinnfrei.
was hat der verbrauch der graka mit dem verbrauch anderer elektrogeräte zu tun? wenn man sparen kann, dann sollte man das auch tun. und wenn einen die rechnung nicht juckt, dann wenigstens der umwelt zu liebe.
wenn zwei glühbirnen zu viel brennen, dann sollteste die jetzt schon ausschalten
also dieses argument find ich absolut sinnfrei.
was hat der verbrauch der graka mit dem verbrauch anderer elektrogeräte zu tun? wenn man sparen kann, dann sollte man das auch tun. und wenn einen die rechnung nicht juckt, dann wenigstens der umwelt zu liebe.
Neo_Xsendra
Lieutenant
- Registriert
- Sep. 2009
- Beiträge
- 809
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
@x-polo
naja zuerst kommt immer high end. so wars ja auch bei ati mid range kommt halt erst nach.
@x-polo
naja zuerst kommt immer high end. so wars ja auch bei ati mid range kommt halt erst nach.
Motkachler
Lt. Commander
- Registriert
- Sep. 2004
- Beiträge
- 1.563
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Angebliche Spezifikationen Fermi.
http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=13795 &catid=38&Itemid=101
Angebliche Spezifikationen Fermi.
http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=13795 &catid=38&Itemid=101
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Gar nicht, die reinen Flops-Werte zw. AMD und NV lassen sich nicht vergleichen.
Der Leser solcher Tabellen muss das allerdings wissen.
Ein Vergleich wäre nur möglich unter Einbeziehung von Benchmarkwerten Karten älterer Generation, allerdings mit zum Großteil gleicher Architektur, was hier ja auch nicht gegeben ist.
(Bsp. wäre 3870->4870, 8800GTX->GTX280, hier ist das "Stärkeverhälnis" zw. GTX280 und HD4870 über die reinen Flopszahlen (Pixel- und Texelleistung, Bandbreite miteinbezogen) mit Blick auf die Benchmarkwerte von 3870 und 8800GTX noch vernünftig abschätzbar)
Es ist aber hier noch nicht mal ein Vergleich zw. GTX285 und GTX380 über die reinen Flopszahlen sinnvoll möglich.
Auch weil bei Fermi eine zusätzliche (theo. mögliche, aber selten nutzbare) Operation (Add/Mul) pro Takt und ALU im vergleich zur GTX285 wegfällt.
Aber auch, mal abseits von den Änderungen, was Clusterzusammenstellung und Organisation betrifft, sowie Änderung an Funktionsweise und Größe der Caches betrachtet:
Alles ab hier mit Afaik und auch Fragezeichen versehen:
Fermi wird auch SinglePrecision Floating Point Operations über F(used)M(ultiply)A(ddition), statt wie bei der GTX285 über MADD (Multiply-ADDition) berechnen.
Rein rechnerisch macht das keinen Unterschied bei den FLOPSzahlen (SP), beides ist eine Doppeloperation (SP; Multiplikation+Addition) die pro Takt und ALU theo. einmal ausgeführt werden kann.
Der Vorteil von FMA gegenüber MADD aber ist, dass nur mehr das Endergebnis gerundet wird.
FMA: pro Takt und ALU (FP) 2 Operationen (1Mul;1Add) -> (a*b)+c=d -> runden -> speichern;
1x speichern;1xrunden
MADD: pro Takt und ALU (FP) 2 Operationen (1Mul;1Add) -> (a*b)=e -> runden -> speichern -> e+c=d -> runden -> speichern
2xspeichern;2xrunden
Bei MADD wird also einmal mehr gerundet und einmal mehr gespeichert.
Das einfache Runden des Endergebnisses bei FMA ist vor allem bei DoublePrecision FP-Operations wichtig. Die Genauigkeit eines FMA ist gegenüber MADD höher.
Da nun alle ALUs der GTX380 FMA-fähig sind, können jeweils 2 (beliebige) ALUs ein FMA (also Multiplikation + Addition) pro Takt in DoublePrecision ausführen. Das erhöht das Verhältnis DP-Flops zu SP-Flops auf 1:2.
Für Spielegrafik spielt das allerdings keine Rolle, da hier SP-Leistung gefragt ist.
Interessant könnte hier das Wegfallen eines Speichervorgangs sein, der eig. für Performancezuwächse durch bessere Auslastung von FMA zu MADD führen sollte.
Nun stellt sich halt für mich noch die Frage, "wie es sich verhält, wenn ein MADD erwartet, aber ein FMA ausgeführt wird", ob das wiederum Performance kostet, oder ob es kein Problem darstellt, bzw. gar keinen Unterschied macht. Da ist mein Wissen in diesem Bereich (ja nicht nur in diesem ) einfach zu beschränkt.
Gruß
Raubwanze
PS:
Weise doch einfach den Leser zusätzlich daraufhin, dass die FLOPS-Werte zw. AMD und NV nicht vergleichbar sind.
Lübke schrieb:@raubwanze: ok, damit muss ich mich wohl nochmal beschäftigen. allerdings weis ich nicht, wie man am ehesten einen halbwegs sinnvollen vergleichswert zwischen den ati und den nvidia hinbekommt.
Gar nicht, die reinen Flops-Werte zw. AMD und NV lassen sich nicht vergleichen.
Der Leser solcher Tabellen muss das allerdings wissen.
Ein Vergleich wäre nur möglich unter Einbeziehung von Benchmarkwerten Karten älterer Generation, allerdings mit zum Großteil gleicher Architektur, was hier ja auch nicht gegeben ist.
(Bsp. wäre 3870->4870, 8800GTX->GTX280, hier ist das "Stärkeverhälnis" zw. GTX280 und HD4870 über die reinen Flopszahlen (Pixel- und Texelleistung, Bandbreite miteinbezogen) mit Blick auf die Benchmarkwerte von 3870 und 8800GTX noch vernünftig abschätzbar)
Es ist aber hier noch nicht mal ein Vergleich zw. GTX285 und GTX380 über die reinen Flopszahlen sinnvoll möglich.
Auch weil bei Fermi eine zusätzliche (theo. mögliche, aber selten nutzbare) Operation (Add/Mul) pro Takt und ALU im vergleich zur GTX285 wegfällt.
Aber auch, mal abseits von den Änderungen, was Clusterzusammenstellung und Organisation betrifft, sowie Änderung an Funktionsweise und Größe der Caches betrachtet:
Alles ab hier mit Afaik und auch Fragezeichen versehen:
Fermi wird auch SinglePrecision Floating Point Operations über F(used)M(ultiply)A(ddition), statt wie bei der GTX285 über MADD (Multiply-ADDition) berechnen.
Rein rechnerisch macht das keinen Unterschied bei den FLOPSzahlen (SP), beides ist eine Doppeloperation (SP; Multiplikation+Addition) die pro Takt und ALU theo. einmal ausgeführt werden kann.
Der Vorteil von FMA gegenüber MADD aber ist, dass nur mehr das Endergebnis gerundet wird.
FMA: pro Takt und ALU (FP) 2 Operationen (1Mul;1Add) -> (a*b)+c=d -> runden -> speichern;
1x speichern;1xrunden
MADD: pro Takt und ALU (FP) 2 Operationen (1Mul;1Add) -> (a*b)=e -> runden -> speichern -> e+c=d -> runden -> speichern
2xspeichern;2xrunden
Bei MADD wird also einmal mehr gerundet und einmal mehr gespeichert.
Das einfache Runden des Endergebnisses bei FMA ist vor allem bei DoublePrecision FP-Operations wichtig. Die Genauigkeit eines FMA ist gegenüber MADD höher.
Da nun alle ALUs der GTX380 FMA-fähig sind, können jeweils 2 (beliebige) ALUs ein FMA (also Multiplikation + Addition) pro Takt in DoublePrecision ausführen. Das erhöht das Verhältnis DP-Flops zu SP-Flops auf 1:2.
Für Spielegrafik spielt das allerdings keine Rolle, da hier SP-Leistung gefragt ist.
Interessant könnte hier das Wegfallen eines Speichervorgangs sein, der eig. für Performancezuwächse durch bessere Auslastung von FMA zu MADD führen sollte.
Nun stellt sich halt für mich noch die Frage, "wie es sich verhält, wenn ein MADD erwartet, aber ein FMA ausgeführt wird", ob das wiederum Performance kostet, oder ob es kein Problem darstellt, bzw. gar keinen Unterschied macht. Da ist mein Wissen in diesem Bereich (ja nicht nur in diesem ) einfach zu beschränkt.
Gruß
Raubwanze
PS:
auf die flop/s angabe ganz verzichten möchte ich auch nicht. soll ich je eine zeile für die atis und eine für die nvidias verwenden?
Weise doch einfach den Leser zusätzlich daraufhin, dass die FLOPS-Werte zw. AMD und NV nicht vergleichbar sind.
Zuletzt bearbeitet:
Neo_Xsendra
Lieutenant
- Registriert
- Sep. 2009
- Beiträge
- 809
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
@.@
ihr glaubt nicht wie froh ich bin das in diesem threat ruhig und sachlich gerüchte durchstöbert und zusammengetragen werden ...
schöne arbeit übrigens lübke ^^
@.@
ihr glaubt nicht wie froh ich bin das in diesem threat ruhig und sachlich gerüchte durchstöbert und zusammengetragen werden ...
schöne arbeit übrigens lübke ^^
- Status
- Für weitere Antworten geschlossen.
Ähnliche Themen
- Antworten
- 1.446
- Aufrufe
- 159.312