News AMDs Radeon-HD-7000-Serie vor Preissenkung?

NV soll ihre 6XX Mittelklasse rausbringen, dann erst wird es einen echten Konkurrenzkampf geben. Im Moment kämpft eine einzige GTX680 gegen 5 AMD Modelle.
 
Schön, hab aber momentan gerade keine Idee ab welchem Preis ich denn welche Karte evtl. nehmen würde.

Das die Preise sinken heißt zumindest das die Produktion einigermaßen läuft, denn eine gewisse Nachfrage wird trotz gtx680 und dem Preis nach wie vor bestehen ...

Mal schauen, bin noch hin und her gerissen, da ich eine GTX280 ggf. ersetzen würde, wäre mir glaube ich Nvidia lieber, obwohl mir AMD glaube ich momentan mehr zusagt.
mal schauen, von Preisen wie z.B. 300€ für eine 7970, 350€ für eine mit gutem Kühler, sind wir ja noch ein paar Monate entfernt :)
 
Da Nvidia wieder gleichauf ist,
fallen die Marktpreise zum zum Wohle der Endkunden und derjenigen die vom Umsatz leben.
Ich würde mir die gleiche Entwicklung im Desktop CPU Sektor wünschen.

PS.
Zum Thema Hardware-Preisniveau,
ich habe Anfang 2001 für eine GeForce2 Ultra ca. 1200 DM (ist heute mit € gleichzusetzen) bezahlt.
 
Das war ja klar hoffentlich unterbieten sie sich immer weiter und dan gibts amd und nvidia für alle :D:D
 
PiPaPa schrieb:
Was für eine Begründung. Dafür ist AMD im Idle sparsamer als die nvidia Modelle und jetzt rate mal was dein Rechner vornehmlich macht. Im Idle laufen oder Blu Rays abspielen? :freak:

:rolleyes: 2W im normalen Idle Unterschied zwischen 7970 und 680, ja das machts wirklich aus.... :lol:

Ich weiß ja nicht was du so den ganzen Tag treibst mit dem Rechner, aber meiner läuft nur wenn er gebraucht wird. Und wenn er wicklich mal unütz ohne jemanden am Recher läuft geht er nach 10 Min automatisch in den Standby.

10% Idle
40% Surfen
30% Bluray/TV
20% Spielen

da sind die 50W unterschied im Bluray/TV schon deutlich interessanter und auch den gerineren Verbrauch in Spielen nehme ich gerne mit.
 
@johnieboy: Surfen kommt Idle schon ziemlich nahe, aber wer sich eine 7970 oder 680 kauft, kümmert sich wohl auch kaum um den Strom, zumal beide im Idle für ihre Leistung ziemlich sparsam zur Sache gehen.

Bei mir steht demnächst ein Kauf einer neuen Grafikkarte an um meine 8800GTS 512 zu ersetzen. Ich wollte auf die 670/660 warten, aber für rund 400€ - sollte ein Preisverfall eintreten - könnte ich bei der 680 schwach werden.
 
@ludi.1 : leider aber nur im High-End Berreich...

Ich würde von nVidia Gerne mal Konkurrenz zur HD 7850 sehen... *TRÄUM*
 
MatzTeCow schrieb:
Hoffentlich betrifft die Preissenkung dann tatsächlich auch die Mittelklasse, in dem Segment gibt es bislang ja noch keine Keplers. Eine Custom HD 7850 für ca. 170€ wäre enorm verlockend.

Ich habe vor ca. einem Jahr eine 5870 oc für 170,00 € erstanden, die wohl mit der genannten die gleiche Leistung teilt, so berauschend fände ich den Preis jetzt nicht.
 
johnieboy schrieb:
10% Idle
40% Surfen
30% Bluray/TV
20% Spielen

365T*30%=109,5T
109,5T*24h*50W=131,4KWh
131,4KWh*0,23€=30,22€/Jahr

Ich Unterstell dir mal ein Leben, 8h Schlafen, 8h Arbeiten, 5Tage pro Woche.
Wochenende 9h Schlafen. 30Tage Urlaub a 9h Schlafen.

16h*5T+9h*2T*(52w+1T-30T)+30T*9h=4900h

(+1T=14h=(16h*5T+9h*2T)/7)
(-30T=-30T a 16h )


365T*24-4900h=3860h

3860h*30%=1158h
1158h*50W*0,23€/KWh=13,32€/Jahr

im Schaltjahr wirste wohl nachzahlen müssen aber ansonsten würd ich mir über den Bluraybereich nicht allzuviele gedanken machen.
 
Zuletzt bearbeitet:
@gerzerk
Kann dir nur zustimmen und verstehe die Welt nicht mehr... vor einem Jahr, eine GPU, die 2 Generationen älter ist, liefert die exakt selbe Leistung, wie eine derzeitige GPU, die 50 EUR mehr kostet... mhm, naja (Stromverbrauch hin oder her... die neue verbraucht auch Strom, zwar weniger, aber vll macht das 10EUR im Jahr im Unterschied aus). Also alle die damals für eine HD5870 160 EUR gezahlt haben, haben ein echtes Schnäppchen gemacht!
 
wenn sich zwei streiten freut sich hoffentlich bald der dritte *zum sommer schiel* ^^
 
Und trotzdem wirds für meinen neuen PC eine Kepler.
 
Ich hoffe echt, das da was dran ist. Ich habe jetzt das Geld für ne 7970 zusammen. Nur sind mir 440€ dann doch noch zuviel. Bei 380€ werde ich dann zuschlagen.
 
ludi.1 schrieb:
Da Nvidia wieder gleichauf ist,
fallen die Marktpreise zum zum Wohle der Endkunden und derjenigen die vom Umsatz leben.
Ich würde mir die gleiche Entwicklung im Desktop CPU Sektor wünschen.

PS.
Zum Thema Hardware-Preisniveau,
ich habe Anfang 2001 für eine GeForce2 Ultra ca. 1200 DM (ist heute mit € gleichzusetzen) bezahlt.

Nvidia ist nicht gleichauf... Nvidia hat seit dem 22. März das viel bessere Preis-Leistungsverhältniss und ist 10% bis 20% schneller, je nach aktuellem Game.

Es gibt mittlerweile genügend Reviews die alle darlegen, dass die AMD leider nicht vorne stehen. Nvidia ist 13% oder 24% Effizienter als AMD Top Karte @1'920x1'080 und @2'560x1'600!

>>> Kannste gerne hier nachlesen... Bang4Buck, Bang4Watt, and Efficiency Metric
HEM.png
 
Zuletzt bearbeitet:
ExcaliburCasi schrieb:
3860h*30%=1158h
1158h*50W*0,23€/KWh=13,32€/Jahr

im Schaltjahr wirste wohl nachzahlen müssen aber ansonsten würd ich mir über den Bluraybereich nicht allzuviele gedanken machen.


Was >500 BlueRayFilme wären (bei 20€/Film = 10.000 €) und >48 Tage im Jahr nonstop Filme gucken.

Ich glaube das macht niemand, der ein RL hat xD

Du hast übrigens Arbeitsweg vergessen(ca. 1,5 Stunden täglich) und min. 2 stunden am Tag "Freunde" (telefonieren mit Freunden, Familie etc.). Außerdem muss man noch was kochen oder zubereiten und essen. Ist nochmal ne knappe Stunde täglich(da rechne ich mal duschen mit rein) = 8+8+2+1,5+1 = 20,5h => 3,5 Stunden a 5 Tage + ~13 Stunden a 2 Tage
Gesamtcomputerzeit / Jahr ~ 2265h * 0,3 = 680h
Da TV != BlueRay, unterstell ich mal 50% BlueRay-Zeit = 340h
(wären auch 170 Filme, also >3400€)
340h * 50W = 17 kWh * 0,23€/kWh = 3,91€

Also im Jahr kann man dicke sparen xD
Wenn wir von einer neuen Grafikkarte alle 3 Jahre ausgehen, hat man (bei ~40€ preisunterschied) ~28€ Miese gemacht^^
 
Was macht die 680 mit ihren 256bit in der Zukunft? (ich weis es nicht^^) Das Problem ist das man mit einer neuen Karte auch neue Grafik/ neue Spiele zocken will. Ka für mich macht nur Crysis @DX11 oder BF3 benchs sinn. Oder auch Metro33

Die 7970 muss zwar schwitzen (OC) um an eine 680 gtx ran zukommen (was eine schande ist), aber sie schwächelt nirgends wirklich (GPU computing oder open GL). Dann noch 384bit und 3GB, für die Zukunft zb für Crysis3 oder Bad Company 3 könnte eine AMD besser sein. Zumal PS4 und Xbox720 auf AMD setzen. Nvidia muss weiter volldampf geben um dabei zu bleiben! Auch wenn es sich zu dem Zeitpunkt komisch anhört.
 
Zuletzt bearbeitet:
weiß schon jemand ob die hd7870 im Preis auch sinken wird?
meine GTX 460 hat's gestern zerhauen und ich brauch ne neue....
 
Die HD7850 etwas im Preis runter + Ivy Bridge bei ~190€ -> neues System.

Insbesondere bei dem OC Potential (viele schaffen ja ~1200 Mhz Core und ~5-6Ghz Speicher) der HD7850 ist die Karte zum aktuellen Preis bereits der Bringer.
 
johnieboy schrieb:
:rolleyes: 2W im normalen Idle Unterschied zwischen 7970 und 680, ja das machts wirklich aus.... :lol:

Ich weiß ja nicht was du so den ganzen Tag treibst mit dem Rechner, aber meiner läuft nur wenn er gebraucht wird. Und wenn er wicklich mal unütz ohne jemanden am Recher läuft geht er nach 10 Min automatisch in den Standby.

10% Idle
40% Surfen
30% Bluray/TV
20% Spielen

da sind die 50W unterschied im Bluray/TV schon deutlich interessanter und auch den gerineren Verbrauch in Spielen nehme ich gerne mit.

Halte ich für vernachlässigbar, wenn du nicht unbedingt einen Bluerayplayer aus deinem Rechner machst. Bei den heutigen Strompreisen sind 30 Watt hin oder her genau gar nichts, jedenfalls nicht wenn du nicht gerade ein Sabbatjahr nimmst und 12/7 durchzockst. Solange du zum Surfen noch ddn Rechner nimmst und kein Netbook oÄ wird sichs nichts nehmen. Die Leute glotzen immer ob der 180W Verbrauch meines Plasmas, wenn ich dann aber vorrechne dass ein lcd 300 € mehr kostet kann man gegenrechnen, wann das überhaupt bemerkbar wird, jenseits der Lebensdauer des Fernsehers nämlich.
 
Zurück
Oben