News GTX 480 mit 512 Kernen und 2x 8-Pin-Strom

evtl liegt die Vcore bei der 512er höher. Gut möglich, die Ausbeute an voll funktionsfähigen Chips wird man an einer Hand abzählen können...und würde den höheren Stroverbrauch erklären.

Ich habs zwar schon ein paar Seiten vorher schon erwähnt, aber egal: Ich vermute, dass hinter dieser Karte nicht Nvidia selber, sondern ein Boardpartner steckt. 2x8Pin sprengen nämlich die Spezifikation. Diese sieht maximal 300W vor, was also maximal 1x6Pin und 1x8Pin bedeuten.

edit: und ich weiss bis jetzt keine Karte von Nvidia (oder ATI), die die Specs nicht eingehalten haben. Von Boardpartnern gibts ja einige...
 
Zuletzt bearbeitet:
ich kann mir aber auch nicht vorstellen, dass nvidia 512er chips für irgendwelche testobjekte anfertigen lässt wenn sie die garnicht offiziell vertreiben wollen.....
 
@Kartenlehrling: und wegen leuten wie dir wurden die [ironie] tags erfunden^^

aber mal im ernst: glaubst du allen ernstes, dass das ein realistisches produkt ist? eine schnellere gtx480oc würde nicht mal zwei drittel so viel strom verbrauchen.
wie hier schon einige geschrieben haben, wird es sich mutmaßlich um ein frühes engeneeringsample handeln, dass nur durch massive vcore-anhebung die taktraten des aktuellen steppings mitgehen kann. vllt sogar noch ein a1 stepping... auf den markt kommt die karte so sicher nie. weder durch nvidia noch durch einen boardpartner.
 
Was haben die denn da gemessen?
32Shader mehr und eventuell etwas mehr Spannung können niemals in einen so stark erhöhten Stromverbrauch münden.
 
denke das war ganz erheblich mehr spannung, und die haben ein altes "gtx380" exemplar mit vollen 512 shadern in die finger bekommen. und da a1-stepping die taktraten normal nicht erreichen konnte, mussten die die spannung massiv anheben, um zumindest die taktraten der gtx480 zu erreichen. eine echte gtx485 dürfte wohl höhere taktraten als eine gtx480 haben...
also imho eine ente, die aber ne menge publicity für die seiten bringt ;)
eine echte gtx485 würde sicherlich noch unter nda stehen...

denke aber dennoch, dass nvidia früher oder später die letzten 32 shader freigeben kann. zumindest hat man schon mal einen eindruck von der auswirkung bei gleichem takt^^
 
Ich glaub ehrlichgesagt, dass nach GTX480 und GTX470 gar keine Weiterentwicklung vom GF100 mehr kommt.
Nvidia hat den GF104 noch nicht mal im Vollausbau gezeigt und kann mit höherem Takt ohne Schwierigkeiten eine HD5970 Leistungsmäßig übertreffen.
Allerdings zu Lasten des Stromverbrauchs und der PCIe Spezifikationen.
Der Vollausbau des GF104+ 850mhz könnte selbst eine HD5870 übertreffen.
 
wie viele (manche NV-fanboys) wieder aufatmen(und sich auf die neue richtig gute karte freuen) und denken diesmal wirds was ;D eher nicht so Nvidia steht immer noch unter druck und ati hängen ihnen im Nacken und wenn man unter stress bzw druck steht kann das ja eig nie ein RICHTIG guter erfolg werden.Naja in max 8 Monaten hat Nvidia wieder ein Fermikiller an der Backe hängen erst die 5870 jezt folgen 6850 und 70.

ich verstehs als nicht ... kaufen da welche ne 480er :D warum? nur weil ihnen die Farbe von Ati nicht gefällt ...
 
Weil eine GTX 480 schneller ist, mehr Features und eine bessere BQ bietet und bei NV idR der Spiele-Support besser ist.
 
Deine Pros aufgezeählt können mit dem Contra: Stromfresser nicht mithalten. Die verbraucht ja soviel wie eine 5970. Und die ATi hat schliesslich zwei Chips da sitzen.

Man muss einfach mal zwei statt einem Jahr eine GPU entwickeln und dann passt es schon :D
 
Bemme90 schrieb:
ein noch uneffizenteres Monster als die "normale" GTX 480.

Ich warte auf die GTX 475 (GF104 Vollausbau)

Me too! ;-)

Die kommt aber nur in die Tüte (sprich ins Case) wenn sie

- Leistungsmässig überzeugt! (vor allem auch bei hohen Auflösungen!)
- 2 GB V-Ram hat!
- eine leise und dennoch sehr effiziente Kühlung mitbringt!
- nicht übermässig stromhungig ist
- und der Preis bzw. das PLV stimmt! (bei 470/480 nicht der Fall bei der 460er schon!)

Wenn all das gegeben ist, steht einem Kauf nichts im Weg, aber faule Kompromisse (dazu am Besten noch für 450-500 € und dann hat man bei 2560x1600 noch immer eine Diashow) werde ich ganz sicher nicht mehr eingehen! :freaky:

y33H@ schrieb:
Weil eine GTX 480 schneller ist, mehr Features und eine bessere BQ bietet und bei NV idR der Spiele-Support besser ist.

Bei 2560x ist sie noch immer ne lahme Ente, da nutzt mir die tolle Performacne bei 1680x1050 oder auch 1920x1200 wenig oder besser gesagt: Es beeindruckt mich nicht wirklich! (und veranlasst mich auch nicht dazu, dafür 450-500 € auszugeben, zumal Nvidia es nichtmal nötig hat einen Displayport im Referenzdesign vorzusehen, da sie anscheinend noch nichts davon gehört haben, dass es Leute gibt, die auf so einen Anschluss angewiesen sind!)

Und 1530 MB V-Ram sind für diesen Preis auch nicht gerade der Brüller vor allem wenn man bedenkt, dass es bereits heute berühmte und wichtige Spiele gibt, die zwingend 2GB V-Ram benötigen, damit man sie in optimaler Bildqualität zocken kann:

http://www.pcgameshardware.de/aid,7...-Radeon-Probleme-geloest/Strategiespiel/Test/

Selbst eine GTX 460 liefert hier in dieser Hinsicht für sehr viel weniger Geld schon deutlich mehr (nämlich 2GB V-Ram, einen Displayport-Ausgang und dazu noch eine sehr leise effiziente Kühlung!)

Im Grunde genommen ist die GTX 480 eine erzkonservative Karte, die sehr schnell in Vergessenheit geraten wird, sobald es (von Nvidia) gescheite Alternativen geben wird!
Als Highend-Flaggschiff überzeugt sie jedenfalls kein Bisschen!
 
C4pSeX schrieb:
Deine Pros aufgezeählt können mit dem Contra: Stromfresser nicht mithalten.
Das ist subjektiv, zumal der höhere Verbrauch auf den Monat gerechnet kaum auf's Geld geht, sofern man nicht gerade 24/7 zockt.

@ Arno Nimus

2560x1600 hat kaum einer, dennoch knickt sie da leider ein. 1920 oder 1680 mit SGSSAA ist eh toller ;)

Für Starcraft II reichen die 1,5G selbst mit Kantenglättung. Ich warte auf den Vollausbau oder GT100b.
 
Einen 30"er oder auch einen U2711 besitzen heute schon deutlich mehr Leute (auch Spieler) als man denken mag. Hier bei CB gibt es einige davon!

Aktuell fallen die Preise bei den 30er gerade wieder deutlich (der neue ZR30W von HP ist schon kurz nach dem Verkaufsstart auf mittlerweile unter 1200 € abgesunken und es ist davon auszugehen, dass er noch weiter runtergehen wird) so dass man davon ausgehen kann, dass sich diese Schirme künftig schon deutlich mehr verbreiten werden. (die meisten Leute kaufen ausschliesslich wegen den hohen Preisen nicht diese Klasse, das ist völlig offensichtlich) Von daher schätze ich es auch sehr von CB (oder auch gewissen anderen Magazinen) und halte es für weise diese Auflösung bereits jetzt (und CB macht das ja schon seit JAHREN) bei den Benchmarks zu berücksichtigen, schon allein weil man so die Entwicklung und ggf. Fortschritte verfolgen und nachvollziehen kann!

Wenn man selbst so einen Monitor besitzt (so wie ich auch) und es einen betrifft ist das natürlich ein wesentlicher Punkt beim Kauf einer neuen Grafikkarte, denn eine (Highend-)Graka die in 2560x kaum performanter ist, als z.B. meine noch immer im System arbeitende alte 8800GTX (ich kann momentan kein aktuelles Modell sehen, dass es meiner Einschätzung nach wert wäre, diese für viel Geld zu ersetzen) brauche ich dann für sowiel Geld auch nicht! (sinnlose Investition!)
 
naja das war eig eine indirekte frage y33h.

schneller gerade nicht vllt im schnitt bei 1080 10 % den man auch garnicht bemerkt zudem gibt es nicht mal 20 spiele die physx supporten! und mirror edge war eig das einzigste spiel wo man das gemerkt hat ... und spiele support aha bei sanandreas auch bei anderen spielen ist mir der anzeigetreiber flöten gegangen und das nach dem "The way its..." mal ganz abgesehn vom watt/leistungverhältnis usw.
 
y33H@ schrieb:
Weil eine GTX 480 schneller ist, mehr Features und eine bessere BQ bietet und bei NV idR der Spiele-Support besser ist.

Als wenn deine Argumente nicht auch sehr subjektiv wären.
 
Wieso subjektiv?
GTX480 ist schneller - Fakt
GTX480 bietet mehr Features (CUDA,PhysX & co) - Fakt
GTX480 bietet bessere BQ in Form von SGSSAA@DX10/11 - Fakt
Fast alle modernen Spiele haben nen Nvidia Logo oben druf - Fakt
 
Alle die ihre Stromrechnung nicht mit selbst verdienten Geld bezahlen sind meiner Meinung nach nicht qualifiziert hierzu etwas zu sagen.
Mehr FPS bei weniger Verbrauch ist an Nvidia komplett vorbeigegangen die geringe Mehrleistung wurde einfach mit mehr Watt realisiert.
Nur ein sehr kleiner Teil wenn überhaupt nutzt die Features und die Bildqualitätsvorteile muss man schon mit der Lupe suchen.
 
@minustaurusrex: alle die keine stromsparbirnen und kühlgeräte mit energiesparklasse a+ verwenden und ihre elektrogeräte im standby lassen, statt den stecker zu ziehn, sind dann ebenso unqualifiziert, denn die verschwenden weit mehr strom als es eine grafikkarte je könnte. ;)

die gtx480 ist idle sparsamer als die 4850, 4870 und 4890, die hier viele hatten. stromsparen ist ein wichtiges argument (und für mich persönlich ein ko-kriterium für eine gtx480), aber deshalb kann man nicht behaupten, dass die gtx480 generell unbrauchbar sei. viele interessiert der zusätzliche verbrauch einer glühbirne nicht.
es ist gut, dass über den verbrauch gesprochen wird und dass es den leuten nicht egal ist, aber viele missbrauchen das argument nur zum bashen und es wiegt sicher nicht alles andere auf wie geschwindigkeit, bildqualität, features, etc.
es ist ein (gewichtiges) argument von vielen. nicht mehr und nicht weniger.
 
Zurück
Oben