ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Nvidia arbeitet jetzt vielleicht mehr denje mit Spielherstelern zusammen, weil ihnen die Felle wegschwimmen.
Besser laufen tun die Nvidiakarten deshalb auch nicht. Das einzige was rauskommt sind ein paar Spiele mit schlechten (unnötigen) Physx Implementierungen Ausnahme (Mirros Edge).
Mir fällt aber aktuell kein Titel ein, der von Physx profitieren wird, außer Batman 2.
@Volker Naja was will man machen? Ich will eben vernünftig mit SGSSAA zocken, wo ist das Problem? Ich achte auch auf den Stromverbrauch und nutze als zweitsystem, an dem ich grade werkle eine sehr sparsame/leise HD5770.
Seit wann ist denn eine HD5870/5850 und ein AMD Prozessor ein Stromfresser?
Die Idle Werte sind genausogut wie bei Intel Prozessoren und unter Last zieht mein untervolteter Phenom 955 mit Sicherheit nicht mehr wie 10bis 20Watt mehr als ein i5 750.
@ Volker Sonen Quatsch hätt ich selbst dir nicht zugetraut.
Es gibt andere Dinge die viel mehr Strom verbrauchen und unsere Umwelt schädigen. Nicht der Gamer PC der in der Woche 10 stunden läuft.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Naja, wenn nV schlau ist und die Tessellation-Leistung von Fermi so gut ist wie in den gezeigten Heaven Benches, dann kommen bald Spielekracher mit mächtig viel Tessellation auf den Markt. PhysX ist da nur noch das Goodie oben drauf. Wobei nV muss wohl oder übel TWIMTBP wieder deutlich mehr pushen um AMDs Gaming Evolved erst gar nicht Fuss fassen zu lassen.
 
Zuletzt bearbeitet:
woher wissen alle eigentlich, wie schnell die ist? gibt es schon gute treiber??
 
Zuletzt bearbeitet:
@Volker

der Stromverbrauch ist insofern wichtig, weil die Karte auch gekühlt werden muss. Ich für meinen Teil freue mich, eine GTX280 mit deutlich weniger VCore betreiben zu können und somit gute 50W sparen kann, macht sich sehr deutlich bei der Lautstärke bemerkbar. Bei einer CPU ist das nicht anders. Solangs das NT mitmacht kann der PC brauchen was er will, aber das ist nur meine Meinung.
 
@Schaffe, wieso fühlst du dich gleich Angegriffen?

der Stromverbrauch Spielt bei der Kaufentscheidung eine rolle, allerdings bei fast allen eine untergeordnete.
angenommen der GTx470 ist 10% schneller wie die HD5870, braucht 50Watt mehr und kostet gleich viel.
die Meisten werden sich für den Fermi entscheiden da dieser schneller ist...
 
Volker schrieb:
AMDs Quad-Core-CPUs machen es doch vor
Bei den CPUs spielt aber ein meiner Meinung nach wichtiger Punkt mit rein: Marktmanipulation

Und von welchen Grakas redest du denn jetzt speziell als Stromschlucker?
Weil Bsp. die gesamte HD5XXX Serie ist im Idle ziemlich Stromsparend und unter Last leisten sie dafür auch ziemlich viel...
 
Im Highend-Segment ist die 3D-Leistungsaufnahme egal. Hier zählt die Power und danach lange nichts. Siehe G80 bzw. 8800 GTX/Ultra oder GTX 280. Und bei Fermi wird's ähnlich sein. Erst in der Performance-Class ist das von Belang. Ideal ist natürlich flott und sparsam - ein Hoch auf die HD 5870 :D
Jocotty schrieb:
Bei den CPUs spielt aber ein meiner Meinung nach wichtiger Punkt mit rein: Marktmanipulation.
Und deswegen schluckt ein 965 BE extrem viel mehr als ein gleichflotter i5-750? So einfach ist's auch wieder nicht.
 
vergleicht man die leistungsaufnahmen von heute mit der vor 3 jahren ist das schon ein extremer rückschritt
 
y33H@ schrieb:
Und deswegen schluckt ein 965 BE extrem viel mehr als ein gleichflotter i5-750? So einfach ist's auch wieder nicht.

Nein, dies ist NATÜRLICH keine Entschudligung, aber für mich überwiegt trotzdem der Punkt Marktmißbrauch...
 
Nano-kun schrieb:
vergleicht man die leistungsaufnahmen von heute mit der vor 3 jahren ist das schon ein extremer rückschritt

Soso und was war dann mit der HD2900xt ? oder wie das Moppet hies ;)


Unter mir: Ein Rohrkrepierer wie die 2900er Reihe wird es wohl nicht, da bin ich fest von überzeugt.
 
Zuletzt bearbeitet:
Bei den CPUs spielt aber ein meiner Meinung nach wichtiger Punkt mit rein: Marktmanipulation

Das ist aber kein Punkt der den Energiebedarf irgendwie beeinflusst. Von daher am Thema vorbei. Das ist ungefähr auf der Ebene "Autobahn geht gar nicht".

Die beschriebene Tatsache, Idle wenig unter Last viel Verbrauch für viel Leistung wird grob auch auf Fermi zutreffen. Alles andere wäre dann tatsächlich ein massiver Rohrkrepierer, der dann auch unverkäuflich sein dürfte.
 
HappyMutant schrieb:
Das ist aber kein Punkt der den Energiebedarf irgendwie beeinflusst. Von daher am Thema vorbei.


Nein, denn ich habe eine versucht eine kleine Möglichkeit für die Gründe beim CPU genannt.

Volker schrieb:
Richtig, und das ist nicht nur hier so. Alle schreien immer nach stromverbrauch, aber schaust du dann mal auf die signaturen der Leute die schreien, ist da immer die Top-5-Hardware der größten Stromfresser verbaut
 
Nano-kun schrieb:
vergleicht man die leistungsaufnahmen von heute mit der vor 3 jahren ist das schon ein extremer rückschritt
Ähem - schon mal was von der HD2900 XT, der 8800 Ultra oder einem Pentium "Galltin" Extreme Edition gehört? Dagegen sind die Geforce GTX280 und der 965 BE voll die Stromsparwunder.
 
Volker schrieb:
Richtig, und das ist nicht nur hier so. Alle schreien immer nach stromverbrauch, aber schaust du dann mal auf die signaturen der Leute die schreien, ist da immer die Top-5-Hardware der größten Stromfresser verbaut. Fängt bei CPUs und Mainboards an und geht natürlich bei Grakas weiter. Das Hochgepushe in allen Ehren bei Fermi, aber wenn es am Ende unter Last 40, 50 Watt sind, interessiert das die meisten nicht die Bohne. AMDs Quad-Core-CPUs machen es doch vor: Stromverbrauch interessiert nicht, solange der Preis und die Leistung halbwegs stimmt.

Solang man selbst in 3 Liga Stadien an Winterwochenenden bei -14°C die Rasenheizung an schmeißt, damit gekickt werden kann und dabei (an einem Wochenende wohlgemerkt) 12 000 Liter Heizöl verblasen werden, solang braucht mir niemand mehr kommen mit Klimaerwärmung, Umweltschutz, CO2 und zu hohem Stromverbrauch.

Wer´s nicht glaubt: *klick mich* die Nachbarstadt dürfte bei Kosten von 14 000€ glatt das doppelte an Heizöl verbraten haben :rolleyes:
 
Zuletzt bearbeitet:
Nano-kun schrieb:
vergleicht man die leistungsaufnahmen von heute mit der vor 3 jahren ist das schon ein extremer rückschritt

Im Gegenteil: Im Vergleich zur gelieferten Leistung ist das ein enormer Fortschritt:

2900XT: 215W (TDP)

GFLOPs: 475

5870: 207W (real Furmark)

GFLOPs: 2720

Also fast die sechsfache Leistung pro W. :eek:

Die Leistung der 2900 XT bekommste heute bereits mit ner 5570@45W TDP ;)

Also ich schau sehr auf die Leistungsaufnahme. Ein Quadcore kommt mir erst in die Kiste, wenns den mit 4x3GHz@65W TDP gibt, als Graka kommt in Zukunft auch nur noch was mit weniger als 75W in Frage, ich muss das verflixte Stromkabel loswerden. :eek:
 
Zuletzt bearbeitet:
Hallo

habe im Moment eine 8800GTX von nVidia mit der ich sehr zufrieden war. Demnächst möchte ich mir eine neue Grafikkarte kaufen. Sie sollte möglichst lange halten (vielleicht wie die 8800GTX) aber ich bin mir total unsicher ob ich jetzt die von ATI oder die von nVidia nehme. Mit nVidia habe ich halt gute Erfahrungen gemacht. Gibt es da vielleicht noch wo Tipps oder eine Entscheidungshilfe?

Vielen Dank
 
^^mal darüber nachgedacht, warum der Threadtitel Gerüchteküche und nicht Kaufberatung heißt?

Hier wird dir bestimmt geholfen:
https://www.computerbase.de/forum/forums/grafikkarten-kaufberatung.50/

-----------------------------------

Im Luxx sind erste Werte von Vantage durchgesickert, wie immer sollte aber auch hier die übliche Skepsis nicht vergessen werden.

wir haben inzwischen beide Karten im Labor (nur die GTX480 kam direkt von Nvidia) und erste Tests abgeschlossen.
Nachdem die Vorratsdatenspeicherung vom Tisch ist, hier erste Ergebnisse, um die schier unendliche Ungeduld einiger Hardwarefreunde zumindest etwas zu stillen:
3DMark Vantage Extreme
HD5970: 12339
GTX480: 9688
HD5870: 8912
GTX470: 7527
HD5850: 6848


Die Leistungsaufnahme unter Last ist wie von vielen spekuliert sehr hoch, dürfte aber zumindest Gamer deutlich weniger stören als die Leistungsaufnahme im 2D Betrieb - letztere ist höher als die Leerlaufleistungsaufnahme des gesamten Testsystems inkl. Monitor (aber ohne Grafikkarte).
http://www.hardwareluxx.de/communit...nsthread-part-3-a-700515-10.html#post14248999
(Hervorhebung von mir)

Grüße
Franeklevy
 
Habe das letzte Woche auch auf TOMSHardware gelesen. Der Preis der GTX480 soll bei 500€ liegen. Der GTX470 etwas über der 5850, oder?

Also wenn ich jetzt von meiner 4890 umsteigen würde, dann wäre es die 5850. Würde meine dann für ca. 100€ verkaufen (für 180€ gekauft) und bis dahin, wenn die Fermi's rauskommen, sinkt auch der Preis bei AMD.

Ich hatte bis jetzt einmal mit AMD privat zu tun (mit PR Abteilung) und ich sage euch, die werden alles tun um nvidia "in den schatten zu stellen" (zitat von einer amd mitarbeiterin) :)

ABER, ich bin mir nicht sicher, ob die Preise von AMD fallen würden, da sie ja schon so billiger sind
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben