News Massive Preissenkung bei Nvidias Geforce GTX 580

Zwirbelkatz schrieb:
Überflüssiges Zitat entfernt *klick*

Immer diese Legendenstrickerei.

Wo siehts du denn 70W mehr Verbrauch? Vielleicht wenn deine Funzeln im Zimmer zusätzlich brennen. Wahrscheinlich schaltest du beim Daddeln mit nvidia noch ne 60W Birne mit an, und mit Radeon is zappanduster.

Komm mir jetzt aber nicht mit 28nm und 40nm.
 
Da die GTX580 über einen Radial-Lüfter verfügt und der Luftweg komplett verschlossen ist, wird die komplette Wärme sofort aus dem Gehäuse geblasen. Und die GTX580 Kühlung ist deutlich leiser als die Radial-Lösungen von AMD.
 
ja ist nur die Palit GeForce GTX 580, 1.5GB GDDR5, 2x DVI, HDMI, DisplayPort (NE5X5800F10CB) der Rest kostet ab 370€.
 
@Sontin:

Leise sind die (GTX 580er) Karten im Referenzdesign aber leider dennoch nicht!
 
Sontin schrieb:
Da die GTX580 über einen Radial-Lüfter verfügt und der Luftweg komplett verschlossen ist, wird die komplette Wärme sofort aus dem Gehäuse geblasen. Und die GTX580 Kühlung ist deutlich leiser als die Radial-Lösungen von AMD.

Blödsinn, sowohl für die GTX580 als auch die 7970 gibts massig Kühllösungen, darunter eben solche, die die Luft rausblasen und solche, die die Luft im Gehäuse verteilen. Sprich: man kann von beiden Hersteller beide Varianten kaufen.
 
verglichen mit den lösungen von AMD und vorherigen von Nvidia (speziell 280/480) jedoch schon ;)
 
cornix schrieb:
Wo siehts du denn 70W mehr Verbrauch?
Entschuldigung, da habe ich mich wohl vertan. Es sind in Wirklichkeit 86 Watt.

unbenanntzej9v.png


Quelle Verbrauch
Quelle Leistung

Für gewöhnlich stimmen die Werte, die ich angebe, ungefähr. Auch wenn sie aus dem Kopf sind.

Ob 40 oder 28nm ist (mir) egal. Was zählt ist, was es derzeit zu kaufen gibt. Es wäre wünschenswert, wenn die nächste Generation von Nvidia ähnlich gute Effizienzwerte aus dem neuen Prozess generieren kann. Mancher wird das mit den aktuellen Unterschieden im Verbrauch womöglich ähnlich sehen und deshalb keine GTX580 kaufen.

(Selbst bei der alten HD6950 sind es noch 64 Watt; bei der mehr oder weniger ähnlich schnellen* 70er noch 30 Watt)
Edit: *Die HD6970 ist doch eine Kante langsamer.
 
Zuletzt bearbeitet:
@Apocaliptica:

Na ja, die 480er waren im Geräuschpegel ja auch kaum zu übertreffen (im negativen Sinn!) und regelrechte Lärmmonster! ;)

Da ich für meinen Teil noch eine 8800GTX mit Referenzlüfter besitze (deren Geräuschpegel im Last-Modus gerade noch akzeptabel ist - ein feines, zum Gück nicht unangenehmes Rauschen, das unter Volllast im Hinblick auf den Geräuschpegel aber dann auch schon langsam in den Grenzbereich kommt) erwarte ich mir von meiner nächsten Graka noch etwas mehr Betriebsruhe! (ist ja klar und vielleicht auch verständlich, dass man sich zwangsläufig an dem orientiert, was man kennt und gewohnt ist und dass man sich da auf keinen Fall verschlechtern, sondern möglichst verbessern möchte!)

Dass die AMDs generell im Referenzdesign deutlich lauter sind (abgesehen von der 480er vielleicht) kann ich mir gut vorstellen (davon liest man auch oft!)

Wäre das nicht und würde man nicht zu oft von Problemen im Hinblick auf Kompatiblität oder Darstellungsfehler bei Spielen mit AMD/ATI-Karten lesen/hören, würde ich nach 10 Jahren Nvidia (die Erste war seinerzeit eine Erasor II von Elsa, davor hatte ich eine ATI) auch mal wieder zu diesem Hersteller greifen!
 
Bringt eh nichts Gernerationsübergreifend argumentieren zu wollen.

Ist ja auch nicht nur eine Hardware, sondern auch eine Treiberfrage, wenn man sieht wie die Foren voll sind mit Beschwerden über den neuesten Cataclyst was aktuelle Spiele angeht.

Die neue Generation von Ati ist mir zu teuer, aber dennoch auf lange Sicht attraktiv genug, besonders die 7870, um sie zu kaufen, aber nur wenn endlich mal die Treiber passen und die Preise fallen, bei Nvidia habe ich die Probleme nicht annähernd in dem Maß.
 
hm, naja, naja, najaaaa ....

mal sehen was die Preise nach release machen, bestimmt nicht ansteigen.
Dann kann man immernoch sehen wie gut das angebot ist.
Da ich ein größeres Bußgeld + Anwaltskosten erwarte, kann ich mich aber zurückhalten :mad:
 
Arno Nimus schrieb:
@Sontin:

Leise sind die (GTX 580er) Karten im Referenzdesign aber leider dennoch nicht!

Leise ist ja immer subjektiv. :evillol:

Man bekommt 200 Watt+ bestimmt nicht "leise" zu kühlen, wenn man auf einem Radial-Lüfter und somit Konstruktion setzt. Aber Axial hat eben den Nachteil, dass die warme Luft irgendwie auch wieder aus dem Gehäuse muss...
 
@Zwirbelkatz

Und er vergleicht sie doch - kein Kommentar.

Vergleichen könnte man hier die GTX 570 und die 6970: sowohl was Leistung als auch Strukturgröße anbelangt.

Na gut, wenn dir das egal ist dann führe ich die 50€ Preisdifferenz an. Du kaufst dir die 50€ teurere 7950 und ich die 580. Beim KWH von 0,20€ kannste dann ja ordentlich daddeln, um diese Differenz wieder auszugleichen.

Dann bleibt aber keine Zeit mehr, hier im Forum unsinnige Vergleiche anzustellen.

Ach ja, wer mißt mißt Mist.
31_pw-xbt.png
 
Zuletzt bearbeitet:
cornix schrieb:
Und er vergleicht es doch - kein Kommentar.
Ich lass mir doch von dir nicht vorschreiben, was ich womit vergleichen darf. :) Es gibt beide Karten heute zu kaufen. Fertig. Angenommen, wir würden uns in vier Wochen erneut darüber unterhalten, wäre mein Fazit bestimmt wieder ein anderes.

Dein Argument mit dem Preisunterschied ist mir übrigens ebenfalls vor einigen Minuten aufgefallen. Zum Glück darf jeder selbst festlegen, wo die persönliche Preisbereitschaft liegt und aus welchen Gründen man ein bestimmtes Produkt bevorzugt. Ferner ist es mindestens unglücklich, eine Karte die in den Markt geht preislich mit einer zu vergleichen, die aus dem Markt geht. Wie dem auch sei: Ich sehe AMD trotz der hier diskutierten, in welchem Rahmen auch immer stattfindenden Preissenkung von Nvidia, für mein Einsatzgebiet im Vorteil.

Vergleichen könnte man hier die GTX 570 und die 6970: sowohl was Leistung als auch Strukturgröße anbelangt.
Das ist gut möglich.


@pipip

Ich empfinde das nicht als Streit. Es wird lediglich immer von verschiedenen Standpunkten aus argumentiert. Problematisch ist, wenn einzelne Argumente vom jeweiligen Diskussionspartner partout nicht anerkannt werden. Was hier jedoch nicht passierte.
In den letzten Jahren hatte ich das subjektive Gefühl, dass AMD zumeist eine Kante sparsamer und auch günstiger ist. Nvidia hat dafür tendenziell mehr Treibersicherheit und bietet Downsampling.

Wie schon gesagt: Wir alle haben etwas davon, wenn es eine gute GTX660/GTX670 gibt, die gegen die HD7870 antreten kann.
[(Weshalb Hd7870 und HD7950 derart nah aneinander liegen, ist schwer zu begreifen als Spieler. Ich glaube die 79er Serie hat eine exaktere Fließkommagenauigkeit (oder so). Der Profimarkt hat offenbar längst Präferenz.]
 
Zuletzt bearbeitet:
Was vergleicht ihr da ???
https://www.computerbase.de/2012-03...0-und-hd-7850/4/#abschnitt_leistung_ohne_aaaf
(Eigentlich sinvoller die 7870 zu nehmen, die weit aus günstiger und effizienter sein sollte, aber noch nicht Verfügbar ist aber bestimmt günstiger. Diese ist ein paar Prozent langsamer...)
Die günstigste 580gtx kostet laut CB => 339,80 Euro
Differenz sin dalso die besagten 50 Euro zur 7950, die aber eigentlich nicht der einzige Gegner ist.
Hier seh ich momentan eben ein Battle ala 6870 zu 560 ti. Letztere war teurer (50 euro ca) kaum schneller.
Vergessen darf man bei Cornix Rechnung nicht, dass man nicht nur 50 Euro abbauen müsste sondern auch den Verbrauch denn die Karte bis zu den 50 euro verbraucht hat, bis man zum Punkt kommt wo die eine Karte weniger Kosten verursacht.
Indem sinn hat Cornix recht. Doch kann ich dann nicht verstehen, wie man den Verbrauch bei CPUs dann noch Unterstreichen kann, die unter Last um einiges weniger verbrauchen, und nicht sooft unter Last stehen wie Grafikkarten. Hier sieht man wieder diese Doppelmoral...

Schlussendlich entscheiden keine Balken, sondern der User. Und jeder weiß dass Emotionen über rationalen Denken steht. Könnt euch als weiterhin streiten und zu keinem Ergebnis kommen.

Zwirbelkatz
Ja Abwärme ist echt n Argument, aber andersrum gibt es schon sehr gute Kühler. Doch hoffe ich nicht das man eine 480 gtx überbieten würde mit Temp (allg, bezieht sich nicht auf Kepler oder ähnliches), denn 3 slot Karten sind vllt stylisch kewl und mega und kA was, aber hoffentlich Exoten.

Vergleichen könnte man hier die GTX 570 und die 6970: sowohl was Leistung als auch Strukturgröße anbelangt.
https://www.computerbase.de/2010-12...6950/26/#abschnitt_performancerating_mit_aaaf
Was wieder auf die Preisklasse ankommt. Denn 2 GB ist bei der Radeon standard, bei der 570 gtx nicht. Und sobald man große Auflösungen hat, ist die 6970 mehr oder weniger eine 580 gtx.
Ist aber eine Ausnahmesituation.
 
Zuletzt bearbeitet:
Lexxington schrieb:
Öhm nö. Definitv nicht korrekt. Aber vielleicht magst du mir mal diese GraKa nennen, dann kann ich den Preisvergleich selbst bemühen. Seit Wochen sind bei mir mindestens 2 Wochen und da hat sich in diesem Preisgebiet bei den 580ern nix abgespielt. :rolleyes:

Aber sicher korrekt, das war ne POV lieferbar 339 Euro, das zweite preisgünstigste Modell gabs bei KM Elektronik für 370 Euro. Das war kurz vor Ende Februar, da gabs die GTX480 für 199 Euro neu, bzw. jetzt wieder :-)

http://www.alternate.de/html/product/EVGA/GeForce_GTX_480/153522/?

Den Link zur POV weiß ich nicht mehr, weils die GTX480 wurde.
 
Ich würde keine GTX580 kaufen. Die wird automatisch mit Erscheinen von Kepler ein Dinosaurier sein.
Der frühzeitige Preisnachlass kann nur bedeuten, dass man sie mit Erscheinen von Kepler kaum noch los wird.
 
deo schrieb:
Ich würde keine GTX580 kaufen. Die wird automatisch mit Erscheinen von Kepler ein Dinosaurier sein.
Der frühzeitige Preisnachlass kann nur bedeuten, dass man sie mit Erscheinen von Kepler kaum noch los wird.

Warum?Ist das dann ein Fehler?Ist die karte nicht mehr stark genug?
 
Interessanter werden auch immer mehr die 560 Ti 448

Wenn die Teile auf 200€ runtergehen, gibts Höchstleistung zum Spottpreis.


Ach ne schöne Zotac, am besten die extra für mich limitierte Edition :D.

Für 200 Mäuse könnt ich glatt schwach werden.
 
deo schrieb:
Ich würde keine GTX580 kaufen. Die wird automatisch mit Erscheinen von Kepler ein Dinosaurier sein.
Der frühzeitige Preisnachlass kann nur bedeuten, dass man sie mit Erscheinen von Kepler kaum noch los wird.

Wer klug ist, tut das jetzt auch noch nicht, sondern wartet, bis "Kepler" auf dem Markt ist und getestet wurde und entscheidet sich dann, ob er der Ansicht ist, dass dieser den Aufpreis gegenüber dem Vorgänger wert ist oder nicht!
 
Mhm, lecker, Preissenkungen. Aber bevor ich mir jetzt sofort und gleich eine zweite 580er einbaue, wart ich lieber die ersten Kepler-Benches ab. So notwendig hab ich die Mehrleistung auch wieder nicht - vor allem im Hinblick auf den betagten E8400...^^

deo schrieb:
Ich würde keine GTX580 kaufen. Die wird automatisch mit Erscheinen von Kepler ein Dinosaurier sein.
Der frühzeitige Preisnachlass kann nur bedeuten, dass man sie mit Erscheinen von Kepler kaum noch los wird.

So what. Der einzige Grund, warum ich mir keine zweite einbauen würde, wären Bedenken hnisichtlich Mikroruckler, welche die Mehrleistung ggü einer Single-GPU der neuen Generation zu sehr relativieren würde.

Aber nur weil etwas neues rauskommt bestehende Produkte als "Dinosauerier" bezeichnern ...eigenartige Lebenseinstellung. Da kommt man direkt in Gelegenheit, diverse User in Schubladen zu stecken.
 
Zurück
Oben