News Weitere Bilder und erste Preise zur GeForce GTX 580

Haudrauff schrieb:
Weil sie ihre Karten, schon fast aus Tradition, immer viel zu billig anbieten.
Bei AMD bekommt man die Karten zum freundschaftspreis.
Meine Meinung!


und das ist auch vollkommen richtig so! AMDs einzige Berechtigung ist der Preis:
Highende Graka AMD Max 300€, High End AMD Proz max 200 €, sollte der AMD Kram mehr kosten wird intel/NVidia gekauft und die dürfen dann auch gern noch teurer sein (berechtigterweise) :)

meine Ansicht, steinigt mich...

Edit: als NV Nutzer und GTX 480 Inhaber: schade, ohne TMU Verdopplung ist die 580 wohl nicht so doll, 480 OC sollte da reichen

und die TDP Heulsusen hier - ich wiederhol es gern nochmal
i7 970 4 GHz OC/OV 1,33V, GTX 480 OC/OV 1,05V nach 3 Wochen messen
maximal Last 375 Watt (Peak) normalerweise 350W
> ergo heißt es dank den tollen Tests: mein i7 970 4 GHz braucht 25-50W unter Last, dank diversen Schlaubergern hat ne 480 ja 320W TDP. Nicht schlecht, wozu Atom wenn man meinen i7 haben kann... jaja so ist das mit der Bildzeitung...
 
Zuletzt bearbeitet:
pappnas' schrieb:
Wenn das so weiter geht, steht Nvidia bald wieder vor dem Problem der Namensgebung.

Wieso Problem? Es gibt in der Tat sehr wenige Zahlen, dafür stehen haufenweise Buchstaben zur Verfügung.
Ich träum derweil schon von einer VX -280 ab 2015....
 
quotenkiller schrieb:
die 8800gtx war ihr geld aber auch _wirklich_ wert.
sie war im vergleich zu den topkarten der direkten vorserie extrem überlegen und auch den top karten von ati sehr überlegen.
da ati daran lange zeit nicht viel ändern konnte, gab es natürlich auch keinen grund daran was zu schrauben.

das sieht aber mit der gtx580 anders aus, und das schon lange vor release

ja das stimmt wohl! Ich wollte damit den Preis auch nicht unbedingt rechtfertigen^^. Ist halt so, man bekommt das wofür man zu bezahlen bereit ist nech?^^

dies mal hat AMD eine bessere Aufstellung, denke ich auch. Damals wars glaub die HD2xxx...die war ja echt mies^^.


Anwalt Dr.Gonzo schrieb:
Oder AMD will ohne Not hart die Preisschraube drehen, was sich AMD wohl man der eigenen Zahlen wegen mal verkneifen sollte.

ja das sehe ich auch, auch wenn es für den Verbraucher, auf kurze Sicht gut ist...auf lange sicht aber nicht. Die sollen ruhig, wenn ihre Karte besser ist...sei es mitm Stromverbrauch, nen angemessenen Preis nehmen und nichts verschenken. Damit sie mal ein bisschen "+" machen :) das dürfte uns ja dann auch freuen..und der Entwicklung zu gute kommen! :)

ja ich denke auch dass sie evtl nur knapp unter 400 liegen wird, die 6970. Die 4870 X2 hat ja auch ordentlich gekostet.


€dit: Bei heise.de steht es kommt bald eine GTX 460 "SE"...also ne abgespeckte Version der 460.
nur so neben bei...
 
DVD_ schrieb:
Du verwechselst hier GF110 mit Barts.
Bei Barts hat man das in der Tat "wegoptimiert."

Und Du verwechselst Äpfel mit Birnen. 6850/6870 sind die Nachfolger von 5750/5770. Die "68" in der Typbezeichnung ist nur Marteking-Schwachsinn.

Nvidia ging bei der 580 einen anderen Weg. Die Double Precision Einheiten der 480 gekappt - und trotzdem eine "5" in die Typbezeichnung. Auch Marketing-Kack.
 
pappnas' schrieb:
Wenn das so weiter geht, steht Nvidia bald wieder vor dem Problem der Namensgebung.
Oder liege ich da mit meinen Erinnerungen falsch warum die ganzen 9xxx damals umbenannt wurden? Wollte NV doch nicht die 10 ankratzen.

Und was soll AMD dazu sagen? Ist ja nichts neues und das Problem dürfte bei jedem Hersteller, welcher neue Generationen anders benennen will, immerwieder vorkommen.
 
fox40phil schrieb:
Die sollen ruhig, wenn ihre Karte besser ist...sei es mitm Stromverbrauch, nen angemessenen Preis nehmen und nichts verschenken. Damit sie mal ein bisschen "+" machen :)

AMD legt aber weniger Wert auf Gewinn als auf Marktanteile. Dazu gab es glaub ich auch ne News. Sie werden also auf Teufel komm raus Karten verkaufen wollen. Erst wenn sie eine gute Marktdurchdringung erreicht haben wird man sich auch mal um die Gewinnspanne kümmern.

@ topic

Ich bin echt gespannt wie ein Flitzebogen was die 580 am Ende drauf hat. Vor allem im Vergleich zur 5970. Mögen die Spiele beginnen. ^^
 
Die Tatsache das Nvidia mit Informationen um sich wirdt wie eine Prostituierte mit ihren Attributen zeigt ja schon, dass die die Hosen gestrichen voll haben! Ich denke mal nicht das die Karte schlecht sein wird. Aber der Preis und das Marketing dieser Karte lassen darauf schließen das NV sich auf eine mittelgroße Katastrophe vorbereitet: Die Cayman.
Natürlich spekuliere ich grade, aber oftmals wissen die Konkurrenten ja ganz genau wie gut die Karte das Produkt des gegenüber wird und versuchen dementsprechend es herunterzuspielen^^ Ich zumindest würde es so machen :D
 
Lycos schrieb:
Und Du verwechselst Äpfel mit Birnen. 6850/6870 sind die Nachfolger von 5750/5770. Die "68" in der Typbezeichnung ist nur Marteking-Schwachsinn.

Offiziell gesehen - und so wurde es auch von AMD geschrieben - haben die 6800er keinen "wirklichen" Vorgänger. Denn die 5700er laufen weiter, wohingegen die 5830 und die 5850 langsam vom Markt verschwinden werden.

@Topic: Je mehr ich von der GTX580 höre, desto weniger staune ich. Außer natürlich beim Preis, da staune ich wirklich ein wenig. 500€ sind schon eine große Stange Geld. Überraschend ist auch, dass sie quasi innerhalb von einer Woche mit den ganzen Spezifikationen und der Leistung der Grafikkarte rausgerückt sind.

Was mich also hierbei etwas stutzig macht ist, dass AMD noch nichts dazu gesagt hat. Das einzige was ich wirklich von denen gesehen habe sind ca. 3-4 Meldungen innerhalb von einem Monat, die wirklich was ausgesagt haben. Damals bei der 5000er Serie waren sie viel forscher und jetzt sind sie still.. vielleicht die Ruhe vor dem Sturm? ;)

Naja warten wir's ab. Ich schätze aber mal auch, dass die 6970 und die 580 ungefähr gleich kosten wird.
 
Und schon habe ich mein Weihnachts- + Geburtstagsgeschenk gefunden :)

Allerdings finde ich es schade, dass die GTX 580 nur geingfügig schneller als die GTX 480 ist.
Die TDP ist eigentlich noch in Ordnung. So lange eine Graka nicht mehr als 300W verbraucht, sehe ich da keine Probleme.
Nur hoffentlich hat Nvidia die Wärmeentwicklung verringert.

Der Preis ist zwar etwas hoch, aber anders kennt man es ja nicht von Nvidia.
Wenn die GTX 580 sich bis Weihnachten bei 450 Euro einpendelt, wäre ich zufrieden.
 
@ IchmagToast
Wenn die Leistungsaufnahme ähnlich hoch bleibt, muss auch die gleiche Wärme abgeführt werden. Ist dann nurmehr die Frage ob diese vielleicht leiser abgeführt werden kann durch das neue Kühlsystem.
 
es gab Zeiten, da haben Highendkarten 950 DM (z.B. die Radeon 9800 Pro) gekostet und reichten GERADE EBEN aus, um damals aktuelle Spiele mit 4xAA auf 1600x1200 halbwegs oberhalb der 35fps spielen zu können. Selbst 400 Euro sind für die gebotene Leistung (gemessen an aktuellen Games) sehr sehr günstig.

Ich kauf mir immer ein Spitzenmodell, takte es bis zum Abwinken hoch und behalte es idR ca. 2,5-3 Jahre lang. So hab ich noch meine GTX280 @756/1512/2300 und passend dazu einen Uralt Q6600 @ 3,9GHZ.

@ichmagtoast
deine Sig is gut :)
 
Langsam wird es spannend, der hammer wäre es ja wenn die NDA bei Karten am selbsen Tag fallen würde wie damals bei der 4870 und GTX 260 (oder halt beide in einen Test).

Ich muss ganz ehrlich sagen, das mir die GTX580 und die HD6970 beide nciht wirklich koscher erscheinen. Ich glaube nicht dass Die AMD Karte die Nvidia einstampft, aber was ich auch nicht glaube ist das die 580 weniger verbraucht als die 480 ohne DIE Shrink. Klar kein ein Chip optimiert werden, aber wenn die Shader auf 512 angehoben werden und der Takt sieht für mich das ganze unmöglich aus. Damlas kurz vor dem Release des Fermi ahben ja einige Boardpartner gesagt das die GTX480 knapp an der 300Watt Marke kratzt und deshalb wurde letztendlich die GTX480 ja auch mit weniger Shader auf den Markt geschmissen. Ich freu mich auf beide Karten, denn ein von beiden muss meine 4870 ablösen und durch den entstehenden Preiskampf könen nur wir davon profitieren!

Gruß Andi
 
das heitß für mich, ich behalte meine gtx 480amp! und hol mir eine 2te wenn der preis bei 300 liegt. mit dem sli gespann macht man denn einfach alles platt. hatte eigentlich vor amd zu wechseln.

und was bedeutet eigentlich Die Double Precision Einheiten und wozu braucht man das? die 580 hat das ja nicht mehr?!?!?! schlimm?
 
Na das kennen wir doch alle schon.
Die GTX580 steht bei einführung ohne Konkurenz da.
Wenn Ende des Monats die HD6970 wirklich an die Leistung der GTX580 anknüpfen kann wird sich der Preis nach unten korrigieren.
Zumal bei Launch der Karten der eine oder andere shop den Preis eh höher ansetzt alls dieser eigentlich ist.
MFG
 
Zuletzt bearbeitet:
Einhörnchen schrieb:
Du kannst davon ausgehen, dass sich nach dem Cayman Launch die Preise angleichen. Nvidia wird aufgrund der höheren Qualität wie immer bisl teurer sein.
Du bist ja witzig :p
Bei der Qualität gibt es allgemein kaum Unterschiede. Es wird höchstens durch höhere Leistung und nicht Qualität gerechtfertigt. Genauso wars bei GTX480, welche eigentlich der 5870 nur bei Performance überlegen war.

Ansonsten sag ich nur Geforce 8xxx & 9xxx @ Mobiler Sektor.
 
Zuletzt bearbeitet:
Alles über 350 bis 400 Euro wäre im Vergleich zu den aktuellen AMD Karten eindeutig zu teuer.

Ich bleibe erstmal bei meiner 5870 und lasse den aktuellen Fermi aus - danach bin ich wieder für alles offen.
 
Mal so eine Frage an alle TDP Meckerer.

Wenn Nvidia für Ihre High End Grafikkarten eine Thermal Design Power von 250 Watt bemessen,allso das die Grafikkarte niemals mehr als als 250 Watt in reine Wärme umwandeln kann,wenn Sie auf Referenzwerten läuft und daher der Kühler auch nur für diesen Wert ausgelegt sein muß.

Das muß doch dann nicht auch automatisch bedeuten,dass die Grafikkarte auch wirklich nur 250 Watt an elektrischer Leistungsaufnahme hat.
Schließlich verbraucht das Staustrahltriebwerk von Lüfter sicherlich auch noch mal ordendlich Strom,so laut wie der ist und dieser Strom wird ja dann in Bewegungsenergie und nicht in Wärme umgewandelt,fliest allso gar nicht in den TDP Wert mit ein.

Ebenso wird ja auch durch die Grafikkarte ein Teil der elektrischen Energie in elektromagnetische Strahlung umgewandelt.
Erzeugt allso Strahlung und nicht Wärme,dieser Wert ist allso in der TDP auch nicht enthalten.

Und durch den elektrischen Wiederstand,besonders wenn die Grafikkarte sich aufheizt und der elektrsiche Wiederstand dadurch steigt,geht ja auch noch mal ein bisschen Energie verloren,die einfach im Nichts verpufft.

Da ist es doch eigendlich völlig ernüchternt und wenig überaschend,wenn die Grafikkarte zwar eine TDP von 250 Watt hat,aber die reale maximale Leistungsaufnahme ein wenig höher bei 300-320 Watt liegt,je nach Umweltbedingungen und Nutzungsbedingungen bei maximaler Auslastung.

Weil man ja die Faktoren der Energieumwandlung in Bewegungsenergie und der Energieumwandlung in Strahlung ebenso in den Endverbrauch mit einberechnen muß,wie die Energieumwandlung in reine Wärme (Und nur die Energieumwandlung in reine Wärme fliest in den TDP Wert mit ein).

Mich als GTX 480 Nutzer stört der Energieverbrauch unter Maximallast von 320 Watt aber herzlich wenig.
Zocke höchstens 4-5 Stunden an langweiligen Wintertagen und einem guten Spiel,ansonsten nur 2-3 Stunden täglich und den Rest des Tages läuft die Graka eh nur im Idle und verbraucht sehr wenig Strom.
Noch dazu lastet ja nicht jedes Spiel die Grafikkarte maximal aus,weil ich mit aktivierten V-Sync spiele.

Mein 400 Watt Halogen Deckenfluter,der täglich fast 7-8 Stunden an ist,zieht da deutlich mehr Power.
Und den brauche ich,weil ich viel Licht und gerade das warme Licht liebe und kein Bock auf dieses ekelhafte weiße Licht von Energiesparlampen habe.

Oder die Waschmaschine + der Trockner,die zusammen über 4000 Watt verbrauchen und in der Woche ebenso mindestens 8 Stunden in der Woche laufen.

Oder der 11.100 Watt Umluft Backofen,der jeden 2. Tag unter der Woche 1 Stunde an ist.

Allso ich bitte Euch,es gibt viel viel größere Stromfresser im Haushalt,die wirklich auch Jeder täglich nutzt,auch für längere Zeit,als den PC.
Der PC ist da wohl noch der kleinste Fakror auf der Jahresstromrechnung.

Auserdem,wenn ein Objekt sehr viel Leistung bringt,sehr viel Nutzen und auch noch den Prestige eines Oberklasse Produkts und das alles in Kombination zusammen,dann darf es auch ruhig eine hohe Leistungsaufnahme haben,ist völlig ok.

Es gibt da so ein Sprichwort:Wer viel schafft,darf auch viel essen. ;)

Über seinen 240 PS V6 Boliden in der Garage meckert ja auch Niemand,dass der 12-14 Liter teures Super Benzin auf 100 Km schluckt :lol:
 
Zuletzt bearbeitet:
@Thomson1981

Wenn man dein Geschreibsel ließt, fragt man sich - wozu man überhaupt Strom sparen sollte.
Ist doch unwichtig, es gibt viel größere Stromfresser - also sollten die kleinen nicht optimiert werden. Eine 100 Watt Lampe braucht man nicht durch eine 20 Watt Sparlampe zu ersetzen - Ersparnis vieeel zu gering - usw. - absolut lächerlich. (Ironie)

Und noch was - die Stromfresser die du aufzählst, machen auch was vernünftiges:

Wäsche waschen, Backen (Nahrung) - deine Grafikkarte stellt Spiele dar, um dir ne Freude zu machen - aber es bringt dich keinen Jota voran...

MfG
 
Zuletzt bearbeitet:
@Thomson1981:
Das sieht aber ganz anders aus, wenn man keine 6-Köpfige Familie hat wie du anscheinend. :eek:

Mein Rechner macht in meinem Single-Haushalt die Hälfte der Monatskosten an Strom aus.
Gerade weil ich keinen Ofen, Trockner & Deckenfluter habe und die Waschmaschine nur alle 3 Monate angeschmissen wird.

Und einen V6 brauche ich auch nicht.
Denn ich fahre ein Motorrad mit vermutlich den Beschleunigungswerten eines V6 aber nur 4 Liter Verbrauch.

Soll ich jetzt auch darauf scheißen und und den Anteil des Stromverbrauches meines Rechners auf 2/3 anheben?
 
Zuletzt bearbeitet:
Zurück
Oben