News GTX 480 mit 512 Kernen und 2x 8-Pin-Strom

Mit Wasserkühler könnte ich mir solch eine Karte gut in meinem Gehäuse vorstellen.
Meine HD5970 würde ich dann eintauschen.
MFG
 
Die Frage ist doch, was will man mit der aktuellen FERMI Version überhaupt noch anfangen? Solange neue NVidia Karten auf dieser Version basieren, werden daraus keine vernünftigen Karten entstehen. Die GTX475 wird demnach ebenfalls ein Schuss in den Ofen, denn NVidia untersützt mittelfristig in keinem Spiel vorhandene Techniken wie Tesselation und CUDA (was sowieso immer proprietär bleiben wird).

NVidia sollte lieber ganz schnell einen FERMI II nachreichen, der wirtschaftlich und technisch dem Markt angepasst ist.

Außerdem muss es nicht 5870/GTX460 heißen, sondern wenn dann schon 5870/GTX470-480 :), weil die 460er schon wieder Lowend ist.
 
witztig das alle die hier so gegen NV sind und für ATI längst vergessen haben, dass die HD4xxx-Serie auch nicht der Bringer war, sie war schön günstig, aber auch nicht gerade kühl und effizient... aber das nur nebenbei. Abgesehen davon sollte man über den Tellerrand schauen und nicht nur aufs Gaming, denn im Wissenschaftlichen Bereich sieht die HD5870 gegen die GTX480 nicht so dolle aus... auch wenn sie mehr Cores hat (Außerdem 5D-Einheiten ;) )
Die HD6xxx steht vor der Tür? Ja Angekündigt vom Hersteller... eine neue Generation kommt, sonst weiß man aber noch nichts, vermutet viel. Abgesehen davon ist zwischen Vorstellen und verfügbar ein großer Unterschied.
Und soooo schlecht ist doch die GTX460 auch nicht, wenn also eine GTX475 auf Basis dieses Chips kommt, kann die auch für den Markt brauchbar werden.

also BTT, bleibt die Frage offen, ist es die GTX485?
Wenn ja und die 512 Cores sind die einzige Änderung, wird das sicher nicht all zu viel ändern.
Gleiches PCB, gleicher RAM usw. dann löst sie still und leise die GTX480 ab, wie es damals bei GTX280 => GTX285 war... von allem ein wenig mehr und ein wenig besser, obs für den Verbrauch und die Lautstärke zutrifft ist natürlich die große Frage.
2 x 8-Pin sagt in der Tat nicht viel, es erlaubt viel (OCen), kann aber z.B. fürs Takten usw. verwendet werden... nur weil ein Auto nen 100 L Tank hat, heißt es nicht automatisch, dass es viel braucht.

Also abwarten und Tee trinken, bis es offziell bestätigt wird oder besser noch bis die Karten in unabhängigen Tests zeigen was sie wirklich können (oder auch nicht können).
 
Zuletzt bearbeitet:
Schinzie schrieb:
das möchte ich bitte erklärt haben.


gruß

Also ich würde es so erklären, dass die HD5870 eine gute Karte ist, aber ein Kompromis, der die jetzige Linie von ATI gut zeigt. NV dagegen macht beim Top Modell sogut wie nie Kompromisse und trimmt es auf volle Leistung. Aspekte wie Leistungsaufnahme und Lautstärke zählen nicht. --> Also genau was viele Enthusiasten wollen. Obwohl man diese auch unterscheiden sollte (da gibt es die HWL Kiddies mit Megamaschinen und die die viel BQ haben wollen. Ersteres ist jedoch häufiger Vertreten)
 
Wenn man die HD4000 Serie mit der HD3000 Serie vergleicht, dann hat sich ATi immens gesteigert ; mit der HD5000 wurde dann die Performance nochmal angehoben und auch die Leistungsaufnahme ist "gut". Also was will man mehr?

Die NV 8000er Serie war Gold, die 9000er Serie bis auf die 9800 X2 ein reiner Aufguß, die GTX200 war toll während die GTX 400 Serie wieder ein Rückschritt ist. Deshalb kann man zurecht behauten dass endlich ATi wieder an der Spitze ist und der Konkurrenzkampf ist gefördert.

Zur Karte: Peinlich.
 
Oh, die Grillsaison ist wieder eröffnet. Grillmeister Jen-Hsun Huang empfiehlt Rostbratwurst und dazu eine dicke Brieftasche... :freak: Mal ehrlich, die sollen gefälligst mal den Stromverbrauch in den Griff bekommen. Hoffentlich wird die GTX 475 ein Erfolg, dann wird zu dem Zeitpunkt noch mal gegenüber ATI abgewogen und das bessere gelauft.
 
Ohja, dabei sollte man aber auch bemerken, dass selbst Enthusiasten ihren mit GTX480 betriebenen Computer in einem anderen Raum unterbringen, oder das Wasser des Kühlkreislaufs gleichzeitig zum Erwärmen von Babymilch verwenden würden ;).

Nvidia versucht auf dem Massenmarkt genau so mitzumischen wie ATI mit seinen 5xxx. Allerdings sind die GTX470/480 nun mal nicht massenmarkttauglich.

Sicher wird NVidia seine Produkte weiter trimmen und genau so wie es ATI gelang, wieder ordentlich Fuß fassen, allerdings erst dann, wenn sie ein Produkt bringen, das durch Leistung, Preis und Stromaufnahme gut punkten kann.

Die Masse an Kunden kauft sich nunmal keine Karte, die ihnen die Haare vom Kopf frisst und das Gehör schädigt, noch dazu zu einem exorbitant hohen Preis. Die Mehrheit will gute Leistung zu einem angenehmen Preis. Das bietet derzeit nur ATI und bis die neuesten Features wie Tesselation oder PhysX (egal ob CUDA oder ein offener Standard) in der Mehrheit der Spiele zur Anwendung kommen, kann man sich locker eine neue Karte kaufen. Eine relativ günstige 5780 tausche ich dann ehrlich gesagt lieber aus als eine teure Nvidia Karte, die mir de facto nicht wirklich was gebracht hat.

Das Ganze natürlich rein auf den Zockermarkt gesehen und nicht auf exotische Anwendungsgebiete wie wissenschaftliche Berechnungen oder Simulationsstudien, welche ohnehin nicht dem Massenmarkt entsprechen.
 
schon mal was von der gtx460 gehört? erfüllt genau deine anforderungen ;)

allerdings ist der gf100 wirklich nicht massentauglich. nicht solange der verbrauch nicht gesenkt werden kann. da er aber nur enthusiast abdecken muss und alles darunter von gf104, gf106 und co abgedeckt wird, kann nvidia sich wohl noch innerhalb dieser generation wieder berappeln...
 
@hurga_gonzales: die 460 ist kein Lowend, sondern oberes Mid-Range. Das Beispiel mit der 5870, die relativ guenstig ist und man deshalb problemlos ersetzt kann, ist wohl an den Haaren herbeigezogen, allein schon weil die 470 guenstiger ist und die ganzen neuen Features ja mit bringt....
Dazu kommt noch, das solche Features eben erstmal aufn Markt kommen muessen, sonst wuerde keine Software(Games)-Entwickler auch nur auf die Idee kommen, sein Programm auf eine solche Technologie zu stuetzen oder direkt auszulegen... Nvidia treibt die Entwicklung auf eigene Kosten vorran und ATI zieht dann halt nach..
 
Airbag schrieb:
Also ich würde es so erklären, dass die HD5870 eine gute Karte ist, aber ein Kompromis, der die jetzige Linie von ATI gut zeigt. NV dagegen macht beim Top Modell sogut wie nie Kompromisse und trimmt es auf volle Leistung. Aspekte wie Leistungsaufnahme und Lautstärke zählen nicht. --> Also genau was viele Enthusiasten wollen. Obwohl man diese auch unterscheiden sollte (da gibt es die HWL Kiddies mit Megamaschinen und die die viel BQ haben wollen. Ersteres ist jedoch häufiger Vertreten)


SO sei es :D.

Die Karte ist so gut wie gekauft.

Hatte vor die GTX 480 zu kaufen, aber der Kompromiss mit nur 480 aktivierten Shadern, etc. hat dies bisher vereitelt.


gruss
 
Zuletzt bearbeitet:
Eusterw schrieb:
Richtig interessant wird sowieso erst wieder die GTX 475 (460er mit allen Kernen und mehr Takt).

Die Karte wird schnell (schneller als HD5870/GTX460), bietet viele Features, wird normalen Stromverbrauch haben und von NVidia vermutlich in gigantischen Mengen produziert werden (haben ja fast die gesamte TSMC-Produktion gekauft -> muss also billig werden).

So eine frisierte GTX480 iss doch Quatsch...


Ja schön bis das soweit ist, liegen die ersten 6xxx Ati (SI) Karten auf den Tisch.
 
Finde diese Karte aus strategischer Sicht ein wenig unsinnig. NV hat doch schon die Leistungskrone und es krankt doch eigentlich massiv im Midrange und Lowend-Segment, in denen ja wie alle wissen das Geld verdient wird und nicht mit den paar Prozenten Enthusiastenkarten. Es sei denn diese Karte wird schon als Gegenspieler zur neuen HD6... Reihe platziert.
 
heiligs blechle :D

imposant? ja!

aber wo geht den da nun bitte der trend hin? die gtx 8800 war ja schon zu ihren zeiten ein watt freak aber was nvidia und ati im hi end bereich derzeit abliefern, ganz besonders nvidia ist nun wirklich eher mit den monster voodoo chips der letzten ära zu vergleichen.

MEHR POWER !!! grunz grunz

sehr geehrte damen und herren. die vernunft bitte an der garderobe abgeben :D
 
Ich wette die schaffen es doch noch ein Ei mit der GTX480 zu braten. :D
Ich selber warte schon die ganze Zeit auf eine vernüntftige Karte von NV.
Die wohl mit abstand beste wäre die Zotac Amp! mit der 3er Slot Kühlung.
Doch schreckt mich nach wie vor der Verbrauch ab. Lieber auf einen
Shrink warten und hoffen dass der Verbrauch gesenkt werden kann.
 
Also ma ehrlich, das was Nvidia da jetzt bringt ist eigentlich nur das, was ursprünglich kommen sollte und gleich machen hier wieder manche ein riesen Fass auf, grandios.

NV hat doch schon die Leistungskrone und es krankt doch eigentlich massiv im Midrange und Lowend-Segment, in denen ja wie alle wissen das Geld verdient wird und nicht mit den paar Prozenten Enthusiastenkarten.

Naja, die basteln ja ni nur an einem Chip rum, wa? ;) GF106 Bilder gibts ja a schon, also keine Angst, die kümmern sich schon drum, aber klar doch, dass der Mid und low Bereich erst später kommt...normal.

Und ich empfinde es als vollkommen logisch, dass Nvidia den GF100 im Vollausbau bringen will, alles andere wäre mehr als inkonsequent, wenn sie schon so ein Monster geschaffen haben will ich es auch wenigstens mal in wirklich voller Aktion sehen und nix beschnittenes.

Noch schöner finde ich allerdings wie gleich wieder gemault wird: Zu teuer...zu hoher Verbrauch...ihr habt also schon so eine Karte, richtig? Man man man...vlt. läufts ja drauf hinaus..aber vorher rumflamen..nein danke!
 
Zuletzt bearbeitet:
Mal gucken wieviel effizienter die denn tatsächlich wird und natürlich wie es preislich ausschaut.
 
Es war abzusehen, dass Nvidia eine GF100-Karte mit kompletten 512 Cuda-Cores bringt, sobald die Ausbeute dementsprechend hoch ist. Der Leistungszuwachs bei 7% mehr Recheneinheiten (und gleichem Takt) dürfte aber eher geringer ausfallen.

Lilz schrieb:
...allein schon weil die 470 guenstiger ist und die ganzen neuen Features ja mit bringt.
[...]
Nvidia treibt die Entwicklung auf eigene Kosten vorran und ATI zieht dann halt nach..
Welche neuen "Features" bringt die GTX 470 mit? Und komm bitte nicht mit PhysX.

Und welche Entwicklung meinst du denn? Nvidia hat mit PhysX auf Cuda-Basis auf eigene Kosten für sich selber entwickelt. Wenn sie ATi/AMD die Möglichkeit zum nachziehen geben wollten, hätte sie in Richtung Compute Shader entwickelt müssen.
 
Zurück
Oben