News Weitere Bilder und erste Preise zur GeForce GTX 580

@Kozack, cool down, ist doch Latte was behauptet wird ;).

Ich selbst hatte auch 2 Jahre lange ein CF-Gespann, und weiß daher was Du sagst ;).

Im Schnitt überdauert so ein Multi-GPU-Gespann in etwa eine Graka-Generation (kann eine Graka-Generation aufgrund der Mehrleistung des Multi-GPU-Gespanns also gut überspringen) und kann so lange gut vorne mithalten.

Man muss nur wissen ob man es braucht und ob man die Leistungen auch ausfahren kann/will ;).

PS:

Ich bin ja mal gespannt wie die GTX 580 wird, und ob nV "Wunder" vollbrachte ;).

EDIT:

Mikroruckler konnte ich mit dem CF-Gespann ausmachen, jedoch erst nachdem ich einen speziellen Test dafür absolvierte, im Alltag und beim zocken war davon Null zu bemerken.

Und das bei AMD-Karten, die in der Beziehung ja schlechter da stehen wie die von nV.
 
Zuletzt bearbeitet:
Du suchst Microruckler und MultiGPU-Probleme? ich gebe dir gerne welche ab ;)

Also ich für meinen Teil werde auf die 580 "downgraden" :rolleyes: , wenn die Leistungsaufnahme im Multimonitormodus akzeptabel ist. Nach den Catatyst, dem schlechten AF, den Problemen etc. bin ich der Ansicht, dass NV eine neue Chance in meinem System verdient hat. Zumindest hatte ich mit meinen 280ern nicht solche Probleme...

und die Werte der 580 klingen gut. Das wird keine Überkarte, die 6970 wird es auch nicht. Das sind beides Lückenfüller, sie werden etwa gleichauf liegen und nun kann man nach Geschmack wählen.

Ich wähle die bessere Bildqualität und den (meiner Ansicht nach) besseren Treiber. ATi hat sich erst einmal erledigt...
 
S.V.K. schrieb:
...ATi hat sich erst einmal erledigt...
Ich kenne die Krux mit den ATI-Treibern auch schon seit Anfang an (hatte ab der Rage 128[?] bis zur HD4870 jede ATI-Generation an Grakas, also ab dem Jahr 2000 in etwa; gleiches gilt bei mir für nV-Karten: ab TNTxx bis GTX 480 alles durch) :p.

Aber trotz allem habe ich mich bisher immer wieder da durch gebissen und mich je nach PLV mal für nV oder ATI entschieden ;).

Daher ist ATI/AMD bei mir auch noch lange nicht "erledigt".

Und auch nV hatte schon so ihre "ATI-Treiber-Phase" :D.

Der Umstieg von 2x HD 4870 auf 1x GTX 480 war für mich aber recht gut, da ich nun endlich von den ab und an vorkommenden Nachladerucklern erlöst wurde (die HD 4870-er hatten nur 512MB VGA-RAM, was vor über 2 Jahren noch ok war, aber heute jedoch einfach nicht mehr langt) ;).
 
can expect to see an improvement of 83% when adding a second card. "
Also mit anderen Worten -40% µRuckler Versatz, -40% Treiberprobleme ala Texturflackern bzw. Spiel kennt gar kein CF, bzw. man muss ewig warten auf CF Profile =0% schneller. ;)

Was mich etwas verwundert warum Nvidia nicht auch wie AMD auf 2GB Ram hochgeht denke das würde mehr Sinn machen als die 1,5 GB auch wenn es derzeit nur wenige Titel gibt die dies wirklich benötigen.
Hat NV nicht wirklich nötig, 1,5GB Vram + perfektes Speichermanagement reichen bei der Leistung vorerst. Erst SLI Gespanne könnten die 3GB gut gebrauchen, zb. in Metro.

Hoffentlich bleibt AMD mit den Preisen auf dem Teppich sonst sehe ich schwarz für meine neue Graka(dieses Jahr
Hilft nix, da muss man einfach den allgemeinen Weinachsabzockwahnsinn abwarten und dann Anfang nächstes Jahr nochmal schaun...


hochgezüchteten Chips halten oftmals nur 2 Jahre und geben dannach den Geist auf.
Kann man auch sehr gut bei den 8800ern sehen, die sterben ja eine nach der anderen.
Vram, nicht die GPU, Vram und die korrodierten Lötstellen...(daher so viel Backofen Wiederbelebungen)


Nur mit Vernunft gäbe es in keinem Bereich High-End. ,
Und vorallem keinen Spaß. Spaß beginnt mit flüssigen Gaming und genau das bringt und das High End Segment. Mit einer HD 5770 macht das ganze doch nur halb so viel Spaß... :D


Und btw.: alles was die Gerüchte zur GTX 580 jetzt sagen stimmt nicht. Nur mal so^^
:lol:

Also schnell, laut und stromhungrig?

EDIT: Und mit verbessertem AF natürlich. (Es ist Fakt, dass die 8800GTX im Vergleich zu ihrer Vorgängergeneration ein deutlich besseres AF geboten hat)
Du meinst wohl, extrem schnell bzw. komplett überlegen für Jahre, sehr gutes Referenzdesign und extrem effizient + stark verbesserter Bildqualität + verdammt großes Vram Polster (sind quasi die Rohen Zutaten für eine Legende)

Das einzige das man damals überhaupt kritisieren konnte war der nicht vorhandene Idle Stromsparmode, der aber im Vergleich zur HD 4 gar nicht mal so schlecht dastand, aber das wusste man damals noch nicht...

(die HD 4870-er hatten nur 512MB VGA-RAM, was vor über 2 Jahren noch ok war, aber heute jedoch einfach nicht mehr langt)
Übel, wie kommt man auf solche Ideen, nur weil das Preisschild niedrig war und die Balken lang. Die alte Bauernfang CF Verarsche.:rolleyes:
 
PalimPalim schrieb:
@Einhörnchen
@Topic
Die GTX580 ist also nur ein leicht optimierter GTX480 mit entsprechenden Preisen. Naja, eher Ernüchterung als Euphorie. Dann noch kostenoptimierung beim Kühler der anscheinend ohne Heatpipes daherkommt vermutlich auf Kosten der Lautstärke...

Interessant wie viele siehe oben hier in den comments annehmen sie kennen die Performance dieser Karte schon und vor allem ob diese viel Strom verbraucht und laut ist.
Wartet doch mal auf die ganzen Test am 9.11. ab!

Bei der GTX 460 hatte nach der GTX 480 auch niemand erwartet, dass diese sehr leise, kühl und Strommäßig ok ist. Wie man weiß, fegt diese Karte immer noch den Boden mit AMD in den Verkaufszahlen.
 
lol ca 500 Euro ... echt nen Schnapper :) ...

Da hol ich mir lieber 2x 6870 AMD(ca.400) oder eine 6970 AMD (denke das die sich bei 400 einpendelt) ...

Das Doppgelgespann der 6870 hat sogar um einiges noch mehr leistung und von Microruckler hat man in den englischen Test nichts gelesen...

Klare Absagen an die 500Eurokarte von Nvidia!!!
 
NV zu teuer wegen einer GTX580 für 500.- Euro aber dann mit einem 6870 CF daher kommen. :freak:

Dann lieber für 300.- Euro ein GTX460 SLI, weniger probleme, bessere skalierung und leistung ist etwa gleich ;)

solche ironie findi ich mal wieder cool, nur weil man nicht das nötig klein geld für vernünftige hardware hat... :rolleyes:
 
S.V.K. schrieb:
... wenn die Leistungsaufnahme im Multimonitormodus akzeptabel ist...

Wird bei mir nie akzeptabel sein, wenn ich mir den Idle-Verbrauch im Single-Monitor ansehe. Das hat bis jetzt noch keiner gebacken bekommen.
Aber wenn man 500€ für eine Graka ausgeben will, dann ist doch bestimmt noch Geld für eine "kleine" übrig. Mit 2 Grakas hat man dann bis zu 75% weniger Stromverbauch als mit einer (bei der 480 z.B.).
Klingt komisch, ist aber so.
Und "kleine" gibts schon ab 25€.
Soll die "Kleine" aber auch noch die "Große" mit PhysX beliefern, muß man aber nochmal ordenlich in die Tasche langen. Aber ich glaube eine 580 wird das prima alleine hinbekommen.

Hm, wenn man ein Board mit Grafikeinheit hat sollte man auch die höhere Leistungsaufnahme im Multimonitor umgehen können, oder?
Für mich ist dies auf jedenfall das Problem, welches ich bei der nächsten Generation gelöst haben will.

@Volker
Hab ihr schon Crysis getestet? Läufts flüssig?:lol:
 
Immer dieses ich hab den größten vergleich , wie kleine kinder.

Naja mir soll es egal sein , es kommt immer so schnell neue hardware raus , manche kaufen sich neue hardware zocken erstmal 4 jahre damit , andere kaufen sich alle 6 monate was neues.

Wer es brauch ^^

tschüüüü
 
500€ ist ein ganz schön stolzer Preis, ob die Karte diesen wirklich wert ist muss sich Zeigen.

Vor 3 Wochen wurde ich noch als Spinner agbetan, weil ich in einem Post von den HD 69xx geschrieben hab das nVidia mit einer GTX580 kontern wird und diese GPU bereits in Massenfertigung ist. Auch einer der CB Moderatoren hat mir gesagt ich bin einer Ente aufgesessen und solle nicht alles glauben was andere im Internet verbreiten. Tolle Ente, bereits 5 Tage nach meinem Post hat auch CB offiziell von der GTX 580 berichtet.
 
Hmm mal Tests abwarten aber aber ich glaube ich werde meine Bestellung der 470er stornieren. Denn die 580 schaut aus wie n Monsterteil von dem was man bis jetzt weiß. Und da ja auch bald Weihnachtsgeld kommt bin ich schon tierisch in Versuchung mir eine zu holen, aber erstmal tests abwarten.
Ausserdem müsste dann auch n neuer Monitor her am besten mit 120hz um die Karte auch ausfahren zu können. Also wenn Nvidia nicht viel falsch macht mit der Karte dann wird das n tolles Teil. Ich hoffe nur sie versauen es nicht wieder mit dem Referenzkühler, das sie es besser können zeigt ja die Referenz 460er sehr schön. Denn bis auf die Lautstärke waren ja die G100 chips schon fast perfekt, wenn sie das auch noch in die Griff bekommen dann ist das die neue Referenz am Markt.

00Nixxx schrieb:
@ Dural ...

0. Eine 6870 hat (alleine) 23% Vorsprung vor der GTX460 (aktueller Test)
1. Nur weil ich es nicht einsehe den Schlitzaugen 500Euro in Arsch zu schieben heißt das noch lange nicht das ich das Geld dazu nicht hätte!

...

Wen genau meinst du mit "den Schlitzaugen"? Nvidia oder AMD können es ja nicht sein, meinst du damit TSMC?
 
Bleibt daher nur zu hoffen, dass die zum Start neuer Produkte gern gehandhabte 1:1-Umrechnung von US-Dollar zu Euro nicht greift.

Ihr Deutschen müsst einfach verstehen, dass das aber IMMER so ist.
In der IT ist das normal,...Steuer,Zölle etc.
 
Also nix mit Paperlaunch wie viele vermutet hatten. Dann geht es also direkt los mit dem Verkauf. Es wird also immer spannender.
 
@ Einhörnchen

wie meinst Du das mit "Höhere Qualität"?

Einhörnchen schrieb:
Du kannst davon ausgehen, dass sich nach dem Cayman Launch die Preise angleichen. Nvidia wird aufgrund der höheren Qualität wie immer bisl teurer sein.

ansonsten müssen erstmal die Tests zeigen was die Karte kann...

aber zu teuer ist sie eh, egal wie die Leistung ist
 
Also ich finde das lustig habe immer noch eine nvidia 8800 GTS mit 640 mb ram und kann alle neuen spiele auf 1900 X 1200 mit mindestens 4 antielasing spielen bei höheren antielasing merke ich eh keinen grafiek unterschied

Meine frage wofür bruaht mann mehr leistung obwohl selbst ich mit 20 frames locker alle neuen spiele spielen kann ^^

Ich finde die Gamer hersteller sollten bessere grafieken zaubern was es recht fertig überhaupt noch eine Gpu zu kaufen ^^

Deswegen verstehe ich die leute aber auch nicht die 2 Gpus kaufen ich meine meine karte ist stein alt ich weiss das aber kann immer noch alles mit sehr hocher auf lösung spiele da stelle ich mir die frage was versprechen sich hier soviele von einer besseren Gpu ? das spiele doppelt so schnell läuft ^^ ich verstehe das echt nicht ^^

Der einzige grund warum ich überlege mir eine neue zu holen ist Dirktx 11 aber selbst das haut mich momentan nicht vom hocker da die gamer industrie nicht hinter kommt und die konsolen eh schuld dranne sind das bis zur nexten konsolen sprung eh noch DX10 gefaharen wird leider
 
Also ich hab ne 8800gt mit 512 mb speicher und oc. Spiele auch auf einem 24 @ 1920 x 1080

Klar laufen noch alle spiele noch aber halt nicht mehr mit full Details sondern nur noch mit mid. Details und bei leibe nicht mit 4xAA.
befeuert wird das ganze mit nem Q6600 mit 3,4 ghz und 4 gig ram

fürs Protokoll meine 8800gt ist ungefähr 30 % schneller als deine karte...

Ich kann mir nicht vorstellen das du alles noch auf max. Detail und mit 4xAA zockst.. .Davon konnte ich mich schon gut einem Jahr verabschieden…
 
Zuletzt bearbeitet von einem Moderator: (Überflüssiges Komplettzitat entfernt.)
War eigentlich zu erwarten.

Nicht jede neue Generation muss eine Generalüberholung sein, man verfährt wohl ähnlich Tick/Tock Prinzip.
Tick: Neue Karte, Tock: Verbesserung. In den letzten Jahren war Tick/Tock immer in einem Jahr, nun streckt man es auf 2 Jahre... ist auch gut so, dann hat man länger was von seiner "alten" Grafikkarte.
 
Wieso auf 2 Jahre gestreckt?
HD5xxx kamen vor fast genau einem Jahr raus und jetzt der refresh, bei Nvidia ist es sogar noch viel knapper da kamen die Fermis ja erst im April raus.
 
Naja für 500€ würd ich mir so ein Teil nicht kaufen.... Habe jetzt ne 6870 und die macht ja locker alles mit und kostet 300€ weniger :-) nVidia spinnt mal wieder ein bisschen rum, die werden durch den Launch der HD 69..er Serie aber wieder auf den Boden der Tatsachen zurück geholt!
 
Bin dann mal wirklich auf aussagekräftige Benchmarks gespannt, dann wird man weitersehen. Hoffentlich gibts dann auch kleinere Modelle mit dem überarbeiteten Chip!!
 
Zurück
Oben