ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Nach oben hin sind 300 Watt möglich - siehe HD5970. Wenn eine SGPU-Karte fast an diese ran kommt (GTX380), sind über 200 Watt im Furmark sogar richtig gut ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

der trend darf aber nicht weiter dahingehen,dass jede neuere schneller karte noch ein stück mehr verbraucht. der Cypress war mit seinem geringerem oder gleichem verbrauch wie der RV770 schon ein schritt in die richtige Richtung. Der GF100 sollte daher nicht mehr wie der GT200 schlucken.

Meine Meinung.

gruß
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

ich glaub, die gtx280 hat die 2900xt sogar noch geschlagen, wenn auch nur unter last, versteht sich :D
wenn man aber die mehrleistung bedenkt, war das wohl auch ok so xD

ich bin allerdings auch für sparsamere karten. in letzter zeit ist da ja schon viel schönes gekommen :). die 4770 war ein erster versuch, ist aber an 2d gescheitert, die 9800gt green war dann mal was amtliches und jetz die 5750 ist mal richtig gut :) ich hoffe, dass solche karten auch zukünftig kommen und ihre käuferschaft finden. vllt kommt ja eine sehr sparsame gts350? sowas könnte ich mir gut vorstellen.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

klar kommt eine, mitm G92^^


gruß
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die TDP spricht dafür, dass Fermi auf dem Niveau einer GTX280 liegt - praktisch können es aber auch 20 Watt weniger sein. Abwarten.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

ich weis gar nicht was ihr alle habt mir "es darf nicht auf dem niveau bleiben" doch darf es! denn wenn die spitze bei der leistungsaufnahme bleibt, sinkt ALLES darunter im verhältniss zu leistung. find ich persönlich gut so! es lässt mir die wahl ob ne akrte wegen der leistung kaufen will, oder weil ich so öko sein will mir da gedanken drum zu machen statt die 3 100W glühbirnen an der decke beim zocken auszumachen ;) (btw: LED FTW!!! Nieder mit den pseudo umwelt sparbirnen!)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

so lange unsre regierung energiesparlampen als "umweltfreundlich" propagiert werd ich bestimmt nicht von na top karte auf ne midrange wechseln wegen 100W unter last -.^
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

das mit den sparbirnen ist sowieso humbug >.<
aber nur weil die regierung (genauer die eu in diesem fall) son blödsin verzapft, ist mir der verbrauch nicht egal. ich achte bei mir zu hause auf minimalen verbrauch, sowohl der umwelt als auch meinem portemonai zu liebe ;)
aber das wird langsam etwas off-topic hier^^
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Was ist mit den "Butter und Brot" Segment (Preformance/Mainstream) von Nvidia ,da findet man gar keine Infos oder Roadmaps der GTX3xx-Serie (GTX350 usw).
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

wenn zwei glühbirnen zu viel brennen, dann sollteste die jetzt schon ausschalten :freak:
also dieses argument find ich absolut sinnfrei.

was hat der verbrauch der graka mit dem verbrauch anderer elektrogeräte zu tun? wenn man sparen kann, dann sollte man das auch tun. und wenn einen die rechnung nicht juckt, dann wenigstens der umwelt zu liebe.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@x-polo

naja zuerst kommt immer high end. so wars ja auch bei ati ;) mid range kommt halt erst nach.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die gibts seit gestern und wurden auch schon verlinkt und genannt.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Lübke schrieb:
@raubwanze: ok, damit muss ich mich wohl nochmal beschäftigen. allerdings weis ich nicht, wie man am ehesten einen halbwegs sinnvollen vergleichswert zwischen den ati und den nvidia hinbekommt.

Gar nicht, die reinen Flops-Werte zw. AMD und NV lassen sich nicht vergleichen.
Der Leser solcher Tabellen muss das allerdings wissen.
Ein Vergleich wäre nur möglich unter Einbeziehung von Benchmarkwerten Karten älterer Generation, allerdings mit zum Großteil gleicher Architektur, was hier ja auch nicht gegeben ist.
(Bsp. wäre 3870->4870, 8800GTX->GTX280, hier ist das "Stärkeverhälnis" zw. GTX280 und HD4870 über die reinen Flopszahlen (Pixel- und Texelleistung, Bandbreite miteinbezogen) mit Blick auf die Benchmarkwerte von 3870 und 8800GTX noch vernünftig abschätzbar)

Es ist aber hier noch nicht mal ein Vergleich zw. GTX285 und GTX380 über die reinen Flopszahlen sinnvoll möglich.
Auch weil bei Fermi eine zusätzliche (theo. mögliche, aber selten nutzbare) Operation (Add/Mul) pro Takt und ALU im vergleich zur GTX285 wegfällt.

Aber auch, mal abseits von den Änderungen, was Clusterzusammenstellung und Organisation betrifft, sowie Änderung an Funktionsweise und Größe der Caches betrachtet:

Alles ab hier mit Afaik und auch Fragezeichen versehen:

Fermi wird auch SinglePrecision Floating Point Operations über F(used)M(ultiply)A(ddition), statt wie bei der GTX285 über MADD (Multiply-ADDition) berechnen.
Rein rechnerisch macht das keinen Unterschied bei den FLOPSzahlen (SP), beides ist eine Doppeloperation (SP; Multiplikation+Addition) die pro Takt und ALU theo. einmal ausgeführt werden kann.

Der Vorteil von FMA gegenüber MADD aber ist, dass nur mehr das Endergebnis gerundet wird.

FMA: pro Takt und ALU (FP) 2 Operationen (1Mul;1Add) -> (a*b)+c=d -> runden -> speichern;
1x speichern;1xrunden

MADD: pro Takt und ALU (FP) 2 Operationen (1Mul;1Add) -> (a*b)=e -> runden -> speichern -> e+c=d -> runden -> speichern
2xspeichern;2xrunden

Bei MADD wird also einmal mehr gerundet und einmal mehr gespeichert.

Das einfache Runden des Endergebnisses bei FMA ist vor allem bei DoublePrecision FP-Operations wichtig. Die Genauigkeit eines FMA ist gegenüber MADD höher.
Da nun alle ALUs der GTX380 FMA-fähig sind, können jeweils 2 (beliebige) ALUs ein FMA (also Multiplikation + Addition) pro Takt in DoublePrecision ausführen. Das erhöht das Verhältnis DP-Flops zu SP-Flops auf 1:2.

Für Spielegrafik spielt das allerdings keine Rolle, da hier SP-Leistung gefragt ist.
Interessant könnte hier das Wegfallen eines Speichervorgangs sein, der eig. für Performancezuwächse durch bessere Auslastung von FMA zu MADD führen sollte.
Nun stellt sich halt für mich noch die Frage, "wie es sich verhält, wenn ein MADD erwartet, aber ein FMA ausgeführt wird", ob das wiederum Performance kostet, oder ob es kein Problem darstellt, bzw. gar keinen Unterschied macht. Da ist mein Wissen in diesem Bereich (ja nicht nur in diesem ;) ) einfach zu beschränkt.

Gruß
Raubwanze

PS:
auf die flop/s angabe ganz verzichten möchte ich auch nicht. soll ich je eine zeile für die atis und eine für die nvidias verwenden?

Weise doch einfach den Leser zusätzlich daraufhin, dass die FLOPS-Werte zw. AMD und NV nicht vergleichbar sind.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

so habe jetzt einfach mal nach 1d und 5d getrennt:

6sumpy.jpg


hoffe so passts?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

die 5870 hat 1200mhz speichertakt.


gruß
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@.@

ihr glaubt nicht wie froh ich bin das in diesem threat ruhig und sachlich gerüchte durchstöbert und zusammengetragen werden ...

schöne arbeit übrigens lübke ^^
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben